|
Dissertações |
|
1
|
-
WANDERSON LAERTE DE OLIVEIRA CARVALHO
-
Estudo de Parâmetros Ótimos em Algoritmos Genéticos Elitistas
-
Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
-
MEMBROS DA BANCA :
-
ROBERTO TEODORO GURGEL DE OLIVEIRA
-
ANDRE GUSTAVO CAMPOS PEREIRA
-
RAFAEL BESERRA GOMES
-
GISLENE MICARLA BORGES DE LIMA
-
Data: 09/02/2017
-
-
Mostrar Resumo
-
O algoritmo genético é um processo iterativo de busca, utilizado para encontrar o máximo global no domı́nio de funções não convencionais. Esse algoritmo se baseia em fundamentos naturalistas, evoluindo uma amostra de candidatos a máximo global a cada iteração. Essa evolução é consequência de três operadores (Seleção, Mutação e Cruzamento) que vasculham o domı́nio da função e ao mesmo tempo selecionam os melhores candidatos obtidos. Nesse estudo, apresentaremos uma cadeia de Markov que modela a evolução desse algoritmo, e demonstraremos algumas propriedades dessa cadeia que justificam a convergência do algoritmo. Realizaremos uma simulação para modelar o efeito da parametrização do algoritmo em sua velocidade de convergência, estimada pelo número de iterações até obtenção do máximo global. Nessas simulações observaremos esse efeito em funções: unidimensionais, bidimensionais, com um único máximo local (o máximo global) e com vários máximos locais. Finalmente, esse tra- balho apresenta resultados que questionam a relevância do operador cruzamento nas funções estudadas e argumentos para acreditar que o operador mutação otimiza a ve- locidade de convergência do algoritmo quando ocorre com probabilidade de mutação próxima a 0, 2).
-
Mostrar Abstract
-
The genetic algorithm is a search process used to find the global maximum of functions. This algorithm rests on naturalistic firmaments that evaluate a sample of global maximum candidates in each iteration. This evolution is consequence of three operators (Selection, Mutation and Crossover) exploiting the domain of the function at the same time that select the best candidates found. In this study we will show a Markov chain to fit this algorithm’s evolution. We will simulate a model to fit the effect of this algorithm’s parametrization in its hate of convergence, estimated by the number of iterations until the global maximum is reached. In the simulations we observed this effect at functions such as: unidimensional, bidimensional, with only one local maximum (the global one) and with many local maxima. Finally, this work shows results that put in question the crossover operator’s relevance in the studied functions and arguments to believe that the mutation and crossover operators, that makes the convergence’s hate optimum, depend on the function.
|
|
2
|
-
BRUNO FRANCISCO XAVIER
-
Formalização da Lógica Linear em Coq
-
Orientador : CARLOS ALBERTO OLARTE VEGA
-
MEMBROS DA BANCA :
-
CARLOS ALBERTO OLARTE VEGA
-
ELAINE GOUVEA PIMENTEL
-
MÁRIO SÉRGIO FERREIRA ALVIM
-
Data: 15/02/2017
-
-
Mostrar Resumo
-
Em teoria da prova, o teorema da eliminação do corte (ou Hauptsatz, que significa resultado principal) é de suma importância, uma vez que, em geral, implica a consistência e a propriedade subfórmula para um dado sistema. Ele assinala que qualquer prova em cálculo de sequentes que faz uso da regra do corte pode ser substituída por outra que não a utiliza. A prova procede por indução na ordem lexicográfica (peso da fórmula, altura do corte) e gera múltiplos casos quando a fórmula de corte é ou não principal. De forma geral, deve-se considerar a última regra aplicada nas duas premissas imediatamente depois de aplicar a regra do corte, o que gera um número considerável de situações. Por essa razão, a demonstração poderia ser propensa a erros na hipótese de recorremos a uma prova informal. A lógica linear (LL) é uma das lógicas subestruturais mais significativas que pode ser considerada um refinamento das lógicas clássica e intuicionista e o teorema da eliminação do corte é válido para ela. Sendo uma lógica sensível ao uso de recursos, LL tem sido amplamente utilizada na especificação e verificação de sistemas computacionais. À vista disso, se torna relevante sua abordagem neste trabalho. Nesta dissertação, formalizamos, em Coq, três cálculos de sequentes para a lógica linear e provamos que são equivalentes. Além disso, provamos metateoremas tais como admissibilidade da regra do corte, generalização das regras para axioma inicial, bang e copy e invertibilidade das regras para os conectivos par, bottom, with e quest. Com relação à invertibilidade, a demonstração foi elaborada de duas maneiras: 1) por indução sobre a altura da derivação e 2) utilizando a regra do corte. A diferença das duas provas mostra que, em um sistema que satisfaz Hauptsatz, a regra do corte simplifica bastante as provas em seu cálculo de sequentes. Finalmente, com a finalidade de atenuar o número dos diversos casos, neste trabalho desenvolvemos várias táticas em Coq que nos permitiram automatizar parte das provas.
-
Mostrar Abstract
-
In proof theory, the cut-elimination theorem (or Hauptsatz, which means main result) is of paramount importance since it implies the consistency and the subformula property for the given system. This theorem states that for any sequent that has a proof using the cut rule, it is possible to find a cut-free proof for the same sequent. The proof of cut-elimination proceeds by induction on the lexicographical order (formula weight, cut height) and generates multiple cases, considering for instance, when the cut-formula is or not principal. In general, one must consider the last rule applied in the two premises immediately after applying the cut rule (seeing the proof bottom-up). This generates a considerable amount of cases and then, the demonstration of this theorem could be error prone if we use an informal proof. Linear Logic (LL) is one of the most significant substructural logics and it allows for cut-free sequent calculi. LL is a resource sensible logic and has been widely used in the specification and verification of computer systems. In view of this, it becomes relevant the study of this logic in this work. In this dissertation we formalize three sequent calculi for linear logic in Coq and prove all of them to be equivalent. Additionally, we formalize meta-theorems such as admissibility of cut, generalization of initial rule, bang and copy and invertibility of the rules for the connectives par, bottom, with and quest. Regarding the invertibility, we demonstrate this theorem in two different ways: a version by induction on the height of the derivation and by using the cut rule. This allows us to show how the cut rule greatly simplifies the proofs in the sequent calculus. In order to mitigate the number of several cases in the proofs, we develop several tactics in Coq that allows us to perform semi-automatic reasoning.
|
|
3
|
-
LAURA FERNANDES DELL ORTO
-
Um estudo de Lógica Linear com Subexponenciais
-
Orientador : CARLOS ALBERTO OLARTE VEGA
-
MEMBROS DA BANCA :
-
CARLOS ALBERTO OLARTE VEGA
-
ELAINE GOUVEA PIMENTEL
-
MÁRIO SÉRGIO FERREIRA ALVIM
-
Data: 15/02/2017
-
-
Mostrar Resumo
-
Em Lógica Clássica, podemos utilizar as hipóteses um número indeterminado de vezes. Por exemplo, a prova de um teorema pode fazer uso do mesmo lema várias vezes. Porém, em sistemas físicos, químicos e computacionais a situação é diferente: um recurso não pode ser reutilizado após ser consumido em uma ação. Em Lógica Linear, fórmulas são vistas como recursos a serem utilizados durante a prova. É essa noção de recursos que faz a Lógica Linear ser interessante para a modelagem de sistemas. Para tanto, a Lógica Linear controla o uso da contração e do enfraquecimento através dos exponenciais ! e ?. Este trabalho tem como objetivo fazer um estudo sobre a Lógica Linear com Subexponenciais (SELL), que é um refinamento da Lógica Linear. Em SELL, os exponenciais da Lógica Linear possuem índices, isto é, ! e ? serão substituídos por !^i e ?^i, onde “i” é um índice. Um dos pontos fundamentais de Teoria da Prova é a prova da Eliminação do Corte, que neste trabalho é demonstrada tanto para Lógica Linear como para SELL, onde apresentamos detalhes que normalmente são omitidos. A partir do teorema de Eliminação do Corte, podemos concluir a consistência do sistema (para as lógicas que estamos utilizando) e outros resultados como a propriedade de subfórmula. O trabalho inicia-se com um capítulo de Teoria da Prova, e em seguida se faz uma exposição sobre a Lógica Linear. Assim, com essas bases, apresenta-se a Lógica Linear com Subexponenciais. SELL tem sido utilizada, por exemplo, na especificação e verificação de diferentes sistemas tais como sistemas bioquímicos, sistemas de interação multimídia e, em geral, em sistemas concorrentes com modalidades temporais, espaciais e epistêmicas. Com essa base teórica bastante clara, apresenta-se a especificação de um sistema bioquímico utilizando SELL. Além disso, apresentamos várias instâncias de SELL que tem interpretações interessantes do ponto de vista computacional.
-
Mostrar Abstract
-
In Classical Logic, we can use a given hypothesis an indefinite number of times. For example, the proof of a theorem may use the same lemma several times. However, in physical, chemical and computational systems, the situation is different: a resource cannot be reused after being consumed in one action. In Linear Logic, formulas are seen as resources to be used during a proof. This feature makes Linear Logic an interesting formalism for the specification and verification of such systems. Linear Logic controls the rules of contraction and weakening through the exponentials ! and ?. This work aims to study Linear Logic with subexponentials (SELL), which is a refinement of Linear Logic. In SELL, the exponentials of Linear Logic are decorated with indexes, i.e., ! and ? are replaced with !^i and ?^i, where “i” is an index. One of the main results in Proof Theory is the Cut-Elimination theorem. In this work we demonstrate that theorem for both Linear Logic and SELL, where we present details that are usually omitted in the literature. From the Cut-Elimination Theorem, we can show, as a corollary, the consistency of the system (for the logics considered here) and other results as the subformula property. This work begins with an introduction to Proof Theory and then, it presents Linear Logic. On these bases, we present Linear Logic with subexponentials. SELL has been used, for example, in the specification and verification of various systems such as biochemical systems, multimedia interaction systems and, in general, concurrent systems with temporal, spatial and epistemic modalities. Using the theory of SELL, we show the specification of a biochemical system. Moreover, we present several instances of SELL that have interesting interpretations from a computational point of view.
|
|
4
|
-
PAULO ROBERTO BELTRAO MAIA
-
Dualidades: de Birkhoff à N4-reticulados limitados
-
Orientador : ELAINE GOUVEA PIMENTEL
-
MEMBROS DA BANCA :
-
ALEXEY KUZMIN
-
ELAINE GOUVEA PIMENTEL
-
MÁRIO SÉRGIO FERREIRA ALVIM
-
UMBERTO RIVIECCIO
-
Data: 15/02/2017
-
-
Mostrar Resumo
-
O trabalho tem como objetivo apresentar a dualidade de Birkhoff, estendendo para dualidade de Stone e por seguinte a dualidade de Priestley, assim como os conceitos básicos para o entendimento das mesmas. Feito isso, será colocado um operador modal positivo e mostrado que a dualidade de Priestley continua valendo agora para espaços de Priestley com um certo tipo de relação. Finalmente será apresentada uma dualidade entre N4-limitados e NE-Sp, utilizando a equivalência entre N4-limitados e TWIST-limitados como atalho. Além de apresentar algumas idéias sobre bireticulados no apêndice.
-
Mostrar Abstract
-
The present study aims to introduce the Birkhoff duality, extending for Stone duality and followed by Priestley duality, as well as the basic concepts for understanding them. It will then be introduced a positive modal operator and shown that Priestley duality applies for Priestley spaces with a certain type of relation. After that, it will be done a duality among bounded N4 and NE-Sp, using the equivalence between bounded N4 and bounded TWIST as a shortcut. In addition to presenting some ideas about non-involutive bilattices in the appendix.
|
|
5
|
-
DANIEL LEONARDO RAMÍREZ OROZCO
-
Um Novo Processo Autorregressivo Misto Para Séries Temporais de Valores Inteiros de Primeira Ordem com Inovações Poisson POMINAR(1).
-
Orientador : ANDRE LUIS SANTOS DE PINHO
-
MEMBROS DA BANCA :
-
ANDRE LUIS SANTOS DE PINHO
-
KLAUS LEITE PINTO VASCONCELLOS
-
LUZ MILENA ZEA FERNANDEZ
-
MARCELO BOURGUIGNON PEREIRA
-
Data: 21/02/2017
-
-
Mostrar Resumo
-
As séries temporais, vistas como uma coleção de observações medidas sequencialmente ao longo do tempo, vem sendo estudadas com profunda notoriedade nos últimos anos, observando-se aplicações e novas propostas de modelos autorregressivos que ampliam o campo de estudo. Neste trabalho se propõe um novo modelo autorregressivo misto de primeira ordem com inovações Poisson, denotado POMINAR(1), misturando dois operadores conhecidos como thinning binomial e thinning Poisson. Ademais, se fornece a interpretação desses operadores e demonstram-se suas respectivas propriedades, como também um possível caso da aplicação do POMINAR(1). A esperança marginal, variância marginal, esperança condicional e variância condicional do processo proposto são obtidas passo a passo. De forma detalhada são desenvolvidas as probabilidades de transição. Os estimadores de máxima verossimilhança condicional para os parâmetros do processo são determinados e uma aplicação a um conjunto de dados reais é dada buscando a efetividade do modelo proposto.
-
Mostrar Abstract
-
Time series, viewed as a collection of observations measured sequentially over time, has been studied with deep notoriety in recent years, based on applications and new proposals of autoregressive models that extend the field of study. This paper proposes a new first order mixed autoregressive model with Poisson innovations, denoted POMINAR (1), mixing two operators known as thinning binomial and thinning Poisson, it also provides the interpretation of these operators and demonstrates their respective properties, as well as a possible case of applying POMINAR (1). Expected value, variance, conditional expectation and conditional variance of the proposed process are taken step by step. In detail the transition probabilities are developed. The maximum conditional likelihood estimators to the process parameters are determined and an application to a real data set is given seeking the effectiveness of the proposed model.
|
|
6
|
-
JORDÂNIA FURTADO DE OLIVEIRA
-
Imputação de dados em experimentos fatoriais com dois níveis
-
Orientador : CARLA ALMEIDA VIVACQUA
-
MEMBROS DA BANCA :
-
CARLA ALMEIDA VIVACQUA
-
MARCUS ALEXANDRE NUNES
-
LINDA LEE HO
-
Data: 27/04/2017
-
-
Mostrar Resumo
-
Experimentos fatoriais completos e fracionados com dois níveis são muito usados em diversas áreas do conhecimento e, especialmente na indústria. Para analisar tais experimentos é necessário que todas as combinações planejadas de tratamentos sejam executadas e as respostas sejam obtidas. No entanto, na prática, muitos experimentos deixam de ser completados devidos a problemas de logística, tempo, ou limitações do orçamento. Esses experimentos são chamados de incompletos. Com o intuito de analisar adequadamente tais experimentos, diferentes métodos são propostos na literatura. Este trabalho tem o objetivo de apresentar, comparar e fazer reflexões críticas de métodos para estimar dados perdidos em experimentos fatoriais com dois níveis.
-
Mostrar Abstract
-
Full and fractional factorial designs with two levels are widely used in various fields of knowledge, especially in industry. To analyze such experiments is necessary that all planned treatment combinations are performed and the answers are obtained. However, in practice, many experiments fail to be completed due to logistical problems, time or budget constraints. These experiments are called incomplete. To properly analyze such experiments, different methods are proposed in the literature. This study aims to present, compare and make critical reflections about methods for estimating missing data in factorial experiments with two levels.
|
|
7
|
-
ALEXANDRE HENRIQUE QUADROS GRAMOSA
-
DISTRIBUIÇÃO DE VALORES EXTREMOS GENERALIZADA INFLADA DE ZEROS
-
Orientador : FERNANDO FERRAZ DO NASCIMENTO
-
MEMBROS DA BANCA :
-
FERNANDO FERRAZ DO NASCIMENTO
-
HEDIBERT FREITAS LOPES
-
MARCELO BOURGUIGNON PEREIRA
-
Data: 05/05/2017
-
-
Mostrar Resumo
-
Eventos Extremos geralmente são responsáveis por produzirem grandes ganhos ou grandes
perdas à sociedade. Já existe uma distribuição específica, conhecida como Distribuição de
Valores Extremos Generalizada (GEV), desenvolvida para predizer e prevenir tais
acontecimentos. Entretanto, em muitas situações com dados extremos, existem a presença de
zeros excessivos no banco de dados, dificultando a análise e a precisão na estimação. A
Distribuição Inflada de Zeros (ZID) é recomendada para fazer a modelagem desses dados que
apresentam zeros inflacionados. É objetivo deste trabalho criar uma nova distribuição para
modelar dados de valores extremos e inflados de zeros. Portanto, foi realizado uma mistura das
distribuições GEV e ZID, e também feito uma abordagem Bayesiana, na busca de obter um
melhor ajuste em aplicações com dados de máximos inflacionados de zeros. Foram escolhidas
para análises, a precipitação diária de chuvas na cidade de Natal do estado do Rio Grande do
Norte e nas cidades de Paulistana, Picos, São João do Piauí e Teresina do estado do Piauí. Foi
utilizado também a distribuição GEV padrão para modelar estes mesmos dados coletados, a
título de comparação, e assim, por meio de medidas e estimações feitas pelas duas distribuições,
verificar a qualidade do ajuste encontrado pela nova distribuição de Valores Extremos Inflados
de Zeros (IGEV). Logo, verificou-se que o modelo foi bem desenvolvido, conseguindo estimar
bem os dados de máximos, mesmo uma quantidade excessiva de zeros, sendo que a GEV padrão
não conseguiu encontrar a distribuição de equilíbrio quando os dados dados possuem muitos
zeros. Além disso, quando os dados de valores extremos não tem zeros inflacionados, o novo
modelo converge para a GEV padrão, identificando a ausência dos zeros
-
Mostrar Abstract
-
Extreme events are usually responsible for producing big gains or big losses to society. For some
decades now there has been a specific distribution, known as Generalized Extreme Values
Distribution (GEV), designed to predict and prevent such events. However, in many situations
with extreme data, there are excessive zeros in the database, making it difficult to analyze and
decrease the estimation accuracy. Influenced Zero Distribution (ZID) is recommended to model
such data that has inflated zeros. It is the objective of this work to create a new distribution to
model data of extreme and inflated values of zeros. Therefore, a mixture of the GEV and ZID
distributions was made, as well as a Bayesian approach, in order to obtain a better fit in
applications with data of inflated maximums of zeros. The daily precipitation of rainfall in the
city of Natal in the state of Rio Grande do Norte and in the cities of Paulistana, Picos, São João
do Piauí and Teresina in the state of Piauí were chosen for analysis. It was also used the standard
GEV distribution to model the same data collected for comparison purposes, and thus, through
measurements and estimates made by the two distributions, to verify the quality of the
adjustment found by the new distribution of inflated extreme values of zeros. Therefore, it was
verified that both the model and the algorithm were well developed, the model being able to
estimate the maximum data, even an excessive amount of zeros, and the standard GEV could
not find the equilibrium distribution when the data given Many zeros. In addition, when the data
of extreme values do not have inflated zeros, the new model converges to the standard GEV,
identifying the absence of zeros.
|
|
8
|
-
ANTONIO DJACKSON ALVES DA SILVA
-
Nova Prova de Resultados Clássicos de Percolação
-
Orientador : ROBERTO TEODORO GURGEL DE OLIVEIRA
-
MEMBROS DA BANCA :
-
BRUNO DOS SANTOS GOIS
-
DEBORA BORGES FERREIRA
-
GISLENE MICARLA BORGES DE LIMA
-
ROBERTO TEODORO GURGEL DE OLIVEIRA
-
Data: 21/07/2017
-
-
Mostrar Resumo
-
Um processo de percolação modela o fenômeno da distribuição ou transporte de fluidos em um meio poroso. A variação de um parâmetro do modelo revela a existência de, geralmente, duas fases, uma fase dita subcrítica e outra fase dita supercrítica. Essas fases possuem características globais distintas e a transição de uma dessas fases à outra se dá em um valor crítico do parâmetro do modelo. O presente trabalho tem como objetivo apresentar novas demonstrações para resultados clássicos no modelo de percolação Bernoulli de elos, a saber: o decaimento exponencial do raio de um aglomerado aberto na fase subcrítica e a cota inferior da probabilidade de percolação. Para isso, seguimos as considerações e demonstrações devidas a Hugo Duminil-Copin e Vincent Tassion no artigo intitulado “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” publicado no Journal of Mathematical Physics em 2016.
-
Mostrar Abstract
-
A percolation process models the distribution and transport of fluids in porous media. The variation of a model parameter reveals the existence of, generally, two phases, one called subcritical and the other called supercritical. These phases bear distinct global characteristics and the transition between phases takes place at a critical value for the model parameter. The present work aims at presenting new proofs for some classical results of Bond Bernoulli Percolation, namely: exponential decay of the radius of the cluster at the origin in subcritical phase and a lower bound on probability of percolation. The considerations and proofs we follow are due to Hugo Duminil-Copin and Vincent Tassion in their paper “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” published on the Journal of Mathematical Physics in 2016.
|
|
9
|
-
MANOEL MESSIAS DE ARAÚJO GOMES
-
Automorfismos Fortemente Estáveis da categoria de Álgebras livres finitamente geradas da Variedade de todas as Álgebras Lineares Nilpotentes de Grau 5.
-
Orientador : ARKADY TSURKOV
-
MEMBROS DA BANCA :
-
ARKADY TSURKOV
-
ALEXEY KUZMIN
-
WALTER MARTINS RODRIGUES
-
Data: 08/08/2017
-
-
Mostrar Resumo
-
Este trabalho tem por objetivo o estudo dos automorfismos fortemente estáveis da categoria de todas as álgebras livres finitamente geradas na variedade de todas as Álgebras Lineares Nilpotentes de grau 5. Apresentamos uma breve explicação sobre o método de operações verbais. Nosso interesse principal é computar o grupo A/Y no caso da variedade de todas as álgebras lineares nilpotentes de grau 5. Tendo em vista que o estudo do grupo A/Y é muito importante na área de Geometria Algébrica Universal, pois esse grupo nos dá as possíveis diferenças entre equivalência geométrica e automórfica de álgebras.
-
Mostrar Abstract
-
This study has as objective the study of the strongly stable automorphisms of the category of all the finitely generated free algebras in the variety of all Nilpotent Linear Algebras of degree 5. We present a brief explanation of the method of verbal operations. Our main interest is to prove the isomorphism A5=Y5 ∼= k∗hAutk. The the study of the group A=Y is very important in the area of Universal Algebraic Geometry, because this group gives us the possible differences between geometric and automorphic equivalence of algebras.
|
|
10
|
-
WYARA VANESA MOURA E SILVA
-
Inferência Bayesiana para a distribuição conjunta das r-maiores estatísticas de ordem com ponto de mudança
-
Orientador : FERNANDO FERRAZ DO NASCIMENTO
-
MEMBROS DA BANCA :
-
FERNANDO FERRAZ DO NASCIMENTO
-
FIDEL ERNESTO CASTRO MORALES
-
HEDIBERT FREITAS LOPES
-
Data: 28/08/2017
-
-
Mostrar Resumo
-
A análise de valores extremos tem sido amplamente utilizada a fim de avaliar e prever catástrofes ambientais ocasionadas devido a mudanças climáticas ocorridas ao longo dos anos. Além da área ambiental, outras áreas comuns de aplicações destas análises são finanças, atuária, entre outras. Desta maneira, o presente trabalho consiste na estimação de parâmetros e níveis de retornos esperados, considerando a distribuição de valores extremos para as r-maiores estatísticas de ordem. Tais estimações serão avaliadas em séries que possuem pontos de mudança no regime, ou seja, será proposto um modelo para detecção de pontos de mudança numa série, aplicado a distribuição das r-maiores estatísticas de ordem (GEVr). Será abordado o caso em que a série possui k pontos de mudança, na qual a série possui k+1 diferentes regimes, e será modelado cada regime pela distribuição GEVr. A inferência usada no modelo é baseada numa abordagem bayesiana, em que ambos o parâmetros da GEVr para cada regime, e os pontos de mudança são considerados como parâmetros desconhecidos a serem estimados. Além de uma avaliação quanto ao critério de escolha do r ótimo para a distrubuição dos dados. A estimação é realizada pelo Método de Monte Carlo via Cadeias de Markov (MCMC) com o uso da técnica do algoritmo de Metropolis-Hastings. Inicialmente, foram realizadas apenas simulações, para avaliação de séries com um e dois pontos de mudança, em que obteve-se resultados pertinentes. Além disso, foi realizada um breve análise de níveis de retornos quanto a diferentes valores do r, e uma sumária análise descritiva dos dados reais que serão utilizados nas aplicações do modelo proposto. E por fim, a aplicação do modelo proposto para os dados de cotas do rio Parnaíba e Paraná, além de dados de retornos diários da Nasdaq.
-
Mostrar Abstract
-
Extreme value analysis has been widely used to assess and predict environmental catastrophes caused by climate change over the years. In addition to the environmental area, other common areas of application of these analyzes are finance, actuarial, among others. In this way, the present work consists in the estimation of parameters and levels of expected returns, considering the distribution of extreme values for the r-highest order statistics. These estimates will be evaluated in series that have points of change in the regime, that is, a model will be proposed to detect points of change in a series, applied to the distribution of the r-largest order statistics (GEVr). We will address the case where the series has k change points, in which the series has k+1 different schemes, and each scheme will be modeled by the GEVr distribution. The inference used in the model is based on a Bayesian approach, where both the GEVr parameters for each scheme, and the change points are considered as unknown parameters to be estimated. In addition, an evaluation of the criterion of choosing the optimal r for the distribution of the data. The estimation is performed by the Monte Carlo Method via Markov Chains (MCMC) using the Metropolis-Hastings algorithm technique. Initially only simulations were performed, for evaluation of series with one and two change points, in which remarkable results were obtained. In addition, a brief analysis of levels of returns for different values of r, and a brief descriptive analysis of the real data that will be used in the applications of the proposed model, was carried out. Finally, the application of the proposed model for the Parnaíba and Paraná river quota data, as well as daily Nasdaq returns data.
|
|