Dissertation/Thèse

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2024
Thèses
1
  • BEATRIZ ARIADNA DA SILVA CIRIACO
  • A first-order integer-valued autoregressive process with one-inflated Borel innovations

  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • LUZ MILENA ZEA FERNANDEZ
  • ISAAC JALES COSTA SOUZA
  • Data: 2 févr. 2024


  • Afficher le Résumé
  • As time series of integer values are based on counts, such as the autoregressive
    processes of integer values (INAR), they may contain an excessive number of repeated values
    that could harm the inferential analysis if this behavior is not known. Then it becomes
    necessary to understand time series inflated models for integer values. Some models have
    been developed to study zero-inflated data, however, this work focuses on the one-inflated
    model (OI) and the autoregressive process with One-inflated innovations (OI-INAR(1)). Thus,
    the One-inflated Borel (OIB) model and the INAR(1) process with One-inflated Borel
    innovations (OIB-INAR(1)) are proposed. In this work the properties, such as expectation,
    variance, dispersion index and probability generating function, of these models are developed,
    as well as the methods for estimating the parameters of the OIB model, such as the method of
    moments and maximum likelihood. Likewise, for the OIB-INAR(1) process, the conditional least squares and conditional maximum likelihood methods, in addition to one-step-ahead
    prediction methodologies are studied. Finally, an application is made adjusting the OIB-INAR(1)
    model.

2
  • LUCAS MATHEUS AUGUSTO OLIMPIO GUANABARA
  • Numerical Integration for Composite Functions in Multidimensional Domains through a
    Lebesgue Quadrature

  • Leader : ELIARDO GUIMARAES DA COSTA
  • MEMBRES DE LA BANQUE :
  • GILBERTO PEREIRA SASSI
  • BRUNO DOS SANTOS SOLHEID
  • DIEGO FERRAZ DE SOUZA
  • ELIARDO GUIMARAES DA COSTA
  • Data: 12 mars 2024


  • Afficher le Résumé
  • The present dissertation aims to introduce a numerical integration method, whose
    application will run on domains containing a high number of dimensions. In this regard, the
    developed methodology seeks to present a Lebesgue quadrature, which is based on partitions
    of the image of a function, where each weight is associated with a value of the function
    defined in its image. For Riemann-Integrable functions, we demonstrate the existence of a
    Lebesgue quadrature and show how to construct quadratures of this type for composite
    functions, in which the method exhibited good efficiency, surpassing quasi-Monte Carlo
    methods. The method involves arbitrarily approximating the value of a given finite sum using
    information generated by a histogram, to demonstrate that the numerical integration of a
    composite function, whose argument’s density has been previously determined, can be
    evaluated very easily.

3
  • PAULO CÉSAR DOS SANTOS
  • Longitudinal GJS regression models

  • Leader : ARTUR JOSE LEMONTE
  • MEMBRES DE LA BANQUE :
  • ARTUR JOSE LEMONTE
  • FRANCISCO FELIPE DE QUEIROZ
  • LUZ MILENA ZEA FERNANDEZ
  • Data: 21 mars 2024


  • Afficher le Résumé
  • We extend the class of GJS regression models that model continuous variables with
    support in the interval (0, 1), to the case of correlated data, such as those coming from
    longitudinal studies or pooled data. The proposed model is based on the class of generalized
    linear mixed models and parameter estimates are obtained based on the marginal maximum
    likelihood (ML) method. The computational implementation combines the Gauss-Hermite
    quadrature to obtain the marginal density of the response variable and the non-linear
    optimization algorithm of Broyden, Fletcher, Goldfarb and Shanno (BFGS), implemented in the
    optim package of the R software. Monte Carlo to verify the performance of the ML estimators.
    The simulation results suggest that the ML approach provides unbiased and consistent

    estimators for all model parameters. The motivation for this proposal is the absence of a class
    of GJS regression models for correlated data and the fact that longitudinal data in the interval
    (0, 1) generally present asymmetry or are more concentrated around one of the limits of the
    interval. Therefore, to obtain consistent parameter estimates, methods that are robust in the
    presence of asymmetry are necessary, as is the case with GJS regression models that model
    the median of the response variable. Additionally, we propose the quantile residue for this
    new class of models and apply the global influence technique based on the conditional Cook
    distance with the aim of identifying possible influential points. Finally, we illustrate the
    methodology developed by applying it to a real dataset.

4
  • IVONALDO SILVESTRE DA SILVA JÚNIOR
  • Corrected likelihood ratio tests in beta-prime regression models.

  • Leader : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • TIAGO MAIA MAGALHÃES
  • ARTUR JOSE LEMONTE
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • Data: 26 mars 2024


  • Afficher le Résumé
  • This paper deals with the issue of testing hypotheses in beta-prime regression models in small
    and moderate-sized samples. We focus on the likelihood ratio test, which is unreliable when
    the sample size is not large enough to guarantee a good approximation between the exact
    distribution of the test statistic and the corresponding chi-squared asymptotic distribution.
    Bartlett, Skovgaard and Bartlett-bootstrap corrections typically attenuate the size distortion of
    the test. Here, we derive a Bartlett correction and a Skovgaard adjustment for the likelihood
    ratio test on beta-prime regression models. We numerically compare the usual, corrected and
    bootstrapped tests, through simulations. Our results suggest that the corrected and

    bootstrapped tests exhibit type I probability error closer to the chosen nominal level. The
    analytically corrected tests perform with the advantage of not requiring computationally
    intensive calculations. We present a real data application to illustrate the usefulness of the
    modified tests.

2023
Thèses
1
  • TAMARA TAVARES DE MELO
  • Gradings on the Grassmann algebra by the infinite cyclic group: polynomial identities and PI-equivalence.
  • Leader : ALAN DE ARAUJO GUIMARAES
  • MEMBRES DE LA BANQUE :
  • ALAN DE ARAUJO GUIMARAES
  • ALEXEY KUZMIN
  • DAVID LEVI DA SILVA MACÊDO
  • DIOGO DINIZ PEREIRA DA SILVA E SILVA
  • Data: 24 févr. 2023


  • Afficher le Résumé
  • Let E be the infinite dimensional Grassmann algebra over a field F of characteristic zero and Z be the infinite cyclic group. In the development of Kemer’s Theory, the algebra E plays a crucial role. In recent years, the abelian gradings on E and the respective graded identities have been addressed in several articles, and it is still a very fertile topic at the research level. Therefore, the focus of our dissertation is to study recent results regarding gradings on E by the group Z. We will study results on the construction of gradings on E and, using methods from elementary number theory, we will describe the Z-graded polynomial identities for the so-called 2-induced Z-gradings on E of full support.
    As a consequence of this fact, we will show some examples of Z-gradings in E, which are PI-equivalent, but not Z-isomorphic. This is the first example of graded algebras with infinite support that are PI-equivalent but not isomorphic as graded algebras. Furthermore, we will introduce the notion of central Z-gradings on E and show that their Z-graded polynomial identities are related to the Z2-graded polynomial identities of E.

2
  • FRANKLIN DIEGO DE LIMA RODRIGUES
  • Sequence segmentation in Markov Chain using penalized maximum likelihood
  • Leader : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • BRUNO MONTE DE CASTRO
  • ELIARDO GUIMARAES DA COSTA
  • ANDRESSA CERQUEIRA
  • Data: 27 mars 2023


  • Afficher le Résumé
  • The sequence segmentation problem has the objective of partitioning a sequence or a set
    or a set of them into a finite number of distinct segments as homogeneous as possible. as
    possible. In this paper, we consider the problem of segmenting a set of random sequences,
    with values in a finite alphabet E, into a finite number of independent blocks. independent
    blocks. Under the assumption that the data follows a Markov chain, the problem consists
    in estimating the number and position of independence (or change) points. To this end,
    we propose to use the penalized maximum likelihood criterion with the objective to
    simultaneously infer the number and position of change points. The main result of our
    work is the demonstration of the theorem that guarantees the strong consistency of the
    consistency of the set of cut-off point estimators for a sufficiently large number of samples
    sufficiently large.
3
  • JEFFERSON HENRIQUE DA SILVA
  • A new topological approach to interval metric

  • Leader : FAGNER LEMOS DE SANTANA
  • MEMBRES DE LA BANQUE :
  • ANNAXSUEL ARAUJO DE LIMA
  • BENJAMIN RENE CALLEJAS BEDREGAL
  • FAGNER LEMOS DE SANTANA
  • REGIVAN HUGO NUNES SANTIAGO
  • SIDARTA ARAUJO DE LIMA
  • Data: 28 mars 2023


  • Afficher le Résumé
  • In this work we make a topological approach to the interval metric different from the
    one based on the i-metric, which does not make use of the addition operation of Moore
    arithmetic. Here we will use an admissible order that refines the KM order to modify the
    triangular inequality and make it more like the case of usual metrics.
4
  • BARBARA KALINE DE SOUSA
  • Diagnostic Analysis in Bell Regression Models

  • Leader : ARTUR JOSE LEMONTE
  • MEMBRES DE LA BANQUE :
  • ARTUR JOSE LEMONTE
  • ELIARDO GUIMARAES DA COSTA
  • JUVÊNCIO SANTOS NOBRE
  • Data: 31 mars 2023


  • Afficher le Résumé
  • The class of Bell regression models is an interesting alternative to the usual class of Poisson regression models for response variables in count form, mainly in the presence of overdispersion. In this work, diagnostic techniques such as global influence and local influence will be developed for the Bell regression model. In particular, analytical expressions for the normal curvature to study local influence will be derived under different perturbation schemes. Finally, the diagnostic techniques developed will be applied to real data sets.

5
  • EDWIN CASTRO FERNANDES DOS SANTOS
  • Performance Evaluation and Application of EWMA Control Chart for the stochastic process POMINAR(1)
  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • LUZ MILENA ZEA FERNANDEZ
  • FRANCISCO FELIPE DE QUEIROZ
  • Data: 31 mars 2023


  • Afficher le Résumé
  • In this work we propose to evaluate the performance of the EWMA control chart, adapting it to the first-order mixed autoregressive model with Poisson innovations, called POMINAR(1), which is composed of two operators known as thinning binomial and thinning Poisson. The objective is to compare the results obtained with those of the Shewhart control chart, and to show that the EWMA control chart is more efficient to detect deviations in the process mean below 1.5 standard deviation. For this, the EWMA control chart and its expectation are defined. Two theorems and two corollaries are proposed in order to define the variance according to the size of the rational subgroup. Moreover, the EWMA upper and lower control limits will be set, to analyze its performance. After that, an analysis will be made comparing the results obtained from a simulation using the EWMA control chart with the results obtained using the Shewhart control chart. Finally, two applications with real data using the EWMA control chart are presented. The first situation relates to the Criminal Data Section on the Forecasting Principles website. The chosen variable represents the number of monthly robberies reported in political district nº 12, in Pittsburgh (USA), from Jan/1990 to Dec/2001, with a total of 144 observations. The second situation is the count of different IP addresses recorded in a period of two minutes in duration on the server of the Department of Statistics of the University of Wüsrzburg, on November 29, 2005, between 10 a.m. and 6 p.m. with 241 observations.

6
  • ISRAEL COSTA SMITH DE MEDEIROS
  • Residuals in Bell-Touchard regression models

  • Leader : ARTUR JOSE LEMONTE
  • MEMBRES DE LA BANQUE :
  • ALDO WILLIAM MEDINA GARAY
  • ARTUR JOSE LEMONTE
  • FIDEL ERNESTO CASTRO MORALES
  • Data: 20 avr. 2023


  • Afficher le Résumé
  • The Bell-Touchard distribution and its regression model, are a promising alternative
    to the statistical models that are already established in the count data modelling, as Poisson
    and Negative Binomial models. Count data are observations such that the variable assumes
    non-negative integer values and are useful, for example, to modelling the number of claims
    that happened in a given period of time, which are of interest to insurance companies, for
    example. The Poisson model, for this purpose, is not a model that does work well with the
    overdispersion problem, a situation in which the variance is greater than the expectation.
    Alternatives to deal with this kind of problem emerged, being proposed the zero-inflated
    models and the Negative Binomial model. The Bell-Touchard model, that is a generalization of
    Bell model, is a recent alternative that tries to solve this kind of problem. In this master’s
    dissertation, a deeper research is made about residuals in the Bell-Touchard regression model
    and the main goal is to improve the academic literature about count data.

7
  • CARLA DE MORAES APOLINARIO
  • A guide to design of experiments in education

  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • JANAINA WEISSHEIMER
  • ANDRE LUIS CALADO ARAUJO
  • Data: 27 juin 2023
    Ata de defesa assinada:


  • Afficher le Résumé
  • Education in Brazil has presented and continues to present challenges of various
    kinds. During the 20th century the main educational challenge was access to schools and
    combating the high rate of illiteracy. The construction of public schools as a way of facilitating
    access to basic education led to other challenges that persist to the present day, such as the
    low quality of the education offered, a constant and relevant theme throughout the world,
    since the quality of education is a critical issue for the development of a country. Several
    studies have been carried out with the aim of identifying ways to improve teaching and
    learning and one way to identify best practices is to conduct a statistical experiment as a way
    to establish a causal relationship between different factors and students' academic
    performance. Furthermore, these studies make it possible to evaluate the impact of public
    policies and government programs aimed at improving education, helping to direct resources
    more efficiently and effectively. As important as performing these interventions is conducting
    them properly so that it is possible to obtain reliable data. With the wide variety of existing
    statistical techniques, it is common for researchers from other areas to innapropriately use of
    experimental statistics when conducting an intervention. In this work, a literature review is
    carried out as a way of mapping studies that use experimental statistics in the educational
    context, in order to identify the difficulties found by researchers, as well as good practices
    carried out, in addition to carrying a case study to identify possible practice difficulties that
    were not noted in the review. This work aims to disseminate the correct use of experimental
    statistics techniques in a clear, objective and understandable way for researchers from other
    areas who are not familiar with that subject. To achieve this goal, an accessible and simplified
    language is adopted when explaining complex concepts, using concrete examples and graphics
    that help to visualize the statistical concepts. Moreover, the importance of using controlled
    experiments and randomization are emphasized, which allow inferences followed up on the
    basis of quantitative evidence. Additionally, as part of the proposed work, a guide will be
    developed that will present the steps and important points to plan an experiment properly,
    guaranteeing the validity and reliability of the results obtained. This guide will include guidance
    on designing the experiment, choosing sample size, selecting experimental and control groups,
    randomization, selecting appropriate statistical tests, and other aspects crucial to successful
    experimental research. It is hoped that this guide will provide a useful reference for
    researchers from other fields who wish to use experimental statistics correctly and effectively
    in their research.

8
  • ANA BEATRIZ GOMES DA SILVA
  • Z2-gradings of the Grassmann algebra: construction, PI-equivalence, isomorphisms

  • Leader : ALAN DE ARAUJO GUIMARAES
  • MEMBRES DE LA BANQUE :
  • ALAN DE ARAUJO GUIMARAES
  • CLAUDEMIR FIDELES BEZERRA JUNIOR
  • ELAINE GOUVEA PIMENTEL
  • LUCIO CENTRONE
  • Data: 30 août 2023


  • Afficher le Résumé
  • The focus of our dissertation is to develope a study on the Z2-gradings of the infinite-
    dimensional Grassmann algebra E. The homogeneous Z2-gradings and their Z2-grade identities

    are already well known in the literature, see (VINCENZO; SILVA, 2009), (CENTRONE, 2011) and
    (GONÇALVES, 2018). Nevertheless, the construction of non-homogeneous Z2-gradings
    demands the use of the duality between these structures and automorphisms of order ≤ 2
    acting on E. Through this, we will study the non-homogeneous Z2-gradings, producing results

    on their construction. In a second moment, we will investigate under what conditions a non-
    homogeneous Z2-grading is isomorphic to the canonical Z2-grading of E. Finally, we will

    provide a Z2-grading on E in which there is no non-zero element of the space L homogeneous,
    refuting the conjecture presented in (GUIMARÃES; KOSHLUKOV, 2023).

9
  • MATHEUS WINGLES ALVES RIBEIRO
  • Space-temporal Analysis of the Homicides Frequency in the Natal-RN districts from 2011
    to 2021

  • Leader : FIDEL ERNESTO CASTRO MORALES
  • MEMBRES DE LA BANQUE :
  • ELIARDO GUIMARAES DA COSTA
  • FIDEL ERNESTO CASTRO MORALES
  • FRANCISCO ALIXANDRE ÁVILA RODRIGUES
  • Data: 22 nov. 2023


  • Afficher le Résumé
  • Areal Units comprises information, quantities, or indicators that represent
    contiguous areas of a specific region, such as countries, cities, among others. They are subjects
    of study in various fields such as Geopolitics and Cartography, Urban Planning, Environment,
    Public Administration, and Health. Several software programs have been developed to assist in
    processing these types of data, such as CARBayesST, developed for the R language. It utilizes
    space-time structured Conditional Autoregressive Priors (CAR) within a Bayesian Hierarchical
    framework and employs Monte Carlo simulations via Markov Chains. The phenomenon of
    violence has existed since the dawn of civilizations. It is the result of the complex interaction of
    various elements, exacerbated by segregation and exclusion stemming from the urbanization
    process. The term "crime" is used to describe the violation of the laws that govern a society,
    which are regulated by a justice system backed by the State. The city of Natal, the capital of
    Rio Grande do Norte, transitioned from being the least violent city in the country in 2003 to
    the most violent in 2017, with a rate of 102.56 homicides per 100,000 inhabitants. In light of
    this, an analysis was conducted to assess the impacts on the number of occurrences of
    Intentional Lethal Violent Crimes (CVLIs), which encompass deliberate homicides, bodily injury
    followed by death, fatal robberies, feminicides, and other offenses leading to loss of life
    (excluding deaths resulting from state security actions) in the neighborhoods of Natal from
    2011 to 2021, utilizing the CARBayesST package. The assessment of the best fit and
    convergence was conducted based on the criteria proposed by Geweke et al. (1991),
    Spiegelhalter et al. (2002), Watanabe and Opper (2010), and Congdon (2005). As covariates,
    information regarding public lighting expenditure in megawatt-hours (Mwh), the number of
    public facilities such as parks, police stations, and schools, the average nominal income in
    terms of minimum wages, the illiteracy rate, the number of enterprises, and the percentage of
    urban pavement were selected. This information was extracted from the Municipal Secretariat
    of Environment and Urbanism and the 2010 Census. Additionally, population estimates and
    population density were obtained from the Worldpop Project (2013), which utilizes census and
    geospatial data, along with satellite imagery, statistically modeling them to produce
    population distribution estimates in various global areas. Since the study period encompasses
    the COVID-19 pandemic, based on Freitas (2021), the addition of a dummy covariate for the
    pandemic years was considered necessary.

2022
Thèses
1
  • JÉSSICA STEFANNY SOUSA DE LIMA OLIVEIRA
  • Automorphisms of the category of free associative and commutative algebras with unit.

  • Leader : ARKADY TSURKOV
  • MEMBRES DE LA BANQUE :
  • ALAN DE ARAUJO GUIMARAES
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • IVAN SHESTAKOV
  • Data: 16 févr. 2022


  • Afficher le Résumé
  • In Universal Algebraic Geometry over a variety of algebras, the group of automorphisms of the category of free finitely generated algebras plays an important role. It turns out that for the wide class of varieties, an automorphism of the category of free finitely generated algebras can be decomposed to the product of an inner automorphism and a strongly stable automorphism. The method of verbal operations provides a machinery to calculate the group of strongly stable automorphisms. In the present work, we deal with the variety of associative and commutative algebras with unit over an infinite field of zero characteristic. Note that free finitely generated algebras in this variety are exactly algebras of commutative and associative polynomials with unit over a finite set of variables. The main goal of this thesis is to investigate automorphisms of the category of free finitely generated algebras in this variety. In particular, applying the method of verbal operations we get description of group of the strongly stable automorphisms of the category under consideration.

2
  • MATHEUS HENRIQUE TAVARES PINTO
  • Variable selection using the genetic algorithm

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • FIDEL ERNESTO CASTRO MORALES
  • MANOEL FERREIRA DOS SANTOS NETO
  • Data: 18 févr. 2022


  • Afficher le Résumé
  •  Many practical problems involving linear models has a step that consists in reducing the number of variables of the model,  either  it is very expensive to deal with too many variables or because some of the variables are able to explain the response satisfactorily. We can cite among such methods of reducing the number of variables of a linear model, the principal component analysis, best subset selection, forward stepwise selection, etc. In this work, we present how to use the elitist genetic algorithm in order to select a collection of variables for a linear model.

3
  • JOSÉ ARLEN DE BRITO BRAZ
  • Existence of solution for a class of Schrödinger-Poisson type system without the Ambrosetti-Rabinowitz condition

  • Leader : DIEGO FERRAZ DE SOUZA
  • MEMBRES DE LA BANQUE :
  • DIEGO FERRAZ DE SOUZA
  • ROMILDO NASCIMENTO DE LIMA
  • RONALDO CESAR DUARTE
  • Data: 29 avr. 2022


  • Afficher le Résumé
  • In this work we study the existence of stationary solutions to a problem involving Schrödinger-Poisson type systems. We are interested in obtaining minimum energy solutions using the theory of variational methods applied to nonlinear partial differential equations. The nonlinearities present in our problem do not satisfy the Ambrosetti-Rabinowitz condition, which makes the analysis of Palais-Smale sequences more involved. In particular, to achieve our goals, it is of fundamental importance to use the Mountain Pass Theorem, the Compactness Concentration Lemma and the Nehari manifold method.

4
  • VICTOR RAFAEL SANTOS SILVA
  • Elliptic Regularity via Analysis of the Helmholtz Equation in RN

  • Leader : DIEGO FERRAZ DE SOUZA
  • MEMBRES DE LA BANQUE :
  • DIEGO FERRAZ DE SOUZA
  • JOSÉ CARLOS DE ALBUQUERQUE MELO JÚNIOR
  • RONALDO FREIRE DE LIMA
  • Data: 22 déc. 2022


  • Afficher le Résumé
  • In this work we present an important regularity result for the Helmholtz Equation in unbounded domains due to C. A. Stuart and, furthermore, we show that this result can also be used to regularize weak solutions of nonlinear elliptic problems in RN. In order to achieve our goals, it will be of vital importance the use of Bessel’s Modified Function Theory, Calderón-Zygmund Theory, the Mountain Pass Theorem and Schauder’s Theorem, as well as basic results of Measure and Integration, Complex Analysis, Functional Analysis and the Theory of Sobolev Spaces.

2021
Thèses
1
  • IRITAN FERREIRA DOS SANTOS
  • Effective Bases for Metabelian Superbimodules in Varieties of Nonassociative Algebras

  • Leader : ALEXEY KUZMIN
  • MEMBRES DE LA BANQUE :
  • ALEXEY KUZMIN
  • ARKADY TSURKOV
  • ARTEM LOPATIN
  • ELENA ALADOVA
  • Data: 28 mai 2021


  • Afficher le Résumé
  • The problem of the description of an effective base for some algebra A over a field F is to find a base B for the vector space A over F with a certain algorithm of multiplication of the elements from B that in consequence can be applied for computing any product in A. 
    In the present work, we develop some techniques of finding effective bases for U-superbimodules of free V-birepresentations, where V runs some list of varieties of nearly associative algebras over a field F of characteristic distinct from 2 and U runs the set of all V-superalgebras with null multiplication. 
    There are three levels of our study. First, we consider cases of classical varieties of alternative (Alt), Jordan (Jord), and Malcev (Malc) algebras. The results obtained at this level, having the form of new unpublished ones, in fact, accumulate the experience of certain known published examples of metabelian (two-step solvable) superalgebras and known bases for subspaces of multilinear polynomials in the free algebras of Alt, Jord, and Malc.
    At its second level, the study deals with the case of the variety of all Lie-admissible algebras together with its proper subvarieties of flexible algebras, antiflexible algebras, and the algebras with the identity of Jacobian type for the associator function. The Theorems obtained at this level are new unpublished results giving the explicit descriptions of bases for U-superbimodules with no restrictions on sets of generators for U.
    At the third level, we apply the techniques developed throughout the work for a finding of complete bases for the free superalgebras in certain nearly associative varieties that are also nearly nilpotent.
    The results of the work can be applied to further studies on open problems related to free superalgebras.
2
  • JOSE VICTOR GOMES TEIXEIRA
  • Some results about groups of outer automorphisms of categories of finitely generated nilpotent free algebras

  • Leader : ARKADY TSURKOV
  • MEMBRES DE LA BANQUE :
  • ARKADY TSURKOV
  • ALEXEY KUZMIN
  • ELENA ALADOVA
  • EVGENY PLOTKIN
  • Data: 5 juil. 2021


  • Afficher le Résumé
  • This dissertation has as objective the study of the group $\mathfrak{A}/\mathfrak{Y\cong S/S\cap Y}$ for category of finitely generated free algebras in the variety of $n$-nilpotent linear algebras. There exists a conjecture that for every $n$ we have $\mathfrak{A}/\mathfrak{Y\cong }k^{\ast }\rtimes Autk$. This conjecture was proved for n=3,4,5. We tried to prove this conjecture for every n. The problem was not completely resolved, but some progress has been made. The parameterization of the group $\mathfrak{S}$ has been set. The decomposition of the group $\mathfrak{H}$ associated with this parameterization was proved. One of the algorithms has been developed that can prove that $\mathfrak{H}\leq $ $\mathfrak{Y}$. After this, problem will be resolved. Complete problem solving can be the topic of a doctoral dissertation. The study of the group $\mathfrak{A}/\mathfrak{Y}$ for every variety is very important in the area of Universal Algebraic Geometry, because this group gives us the possible differences between geometric and automorphic equivalence of algebras of this variety.

2020
Thèses
1
  • ERIKA RAYANNE FERNANDES DA SILVA
  • Beta modal regression model 

  • Leader : FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • JEREMIAS DA SILVA LEÃO
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 18 févr. 2020


  • Afficher le Résumé
  • The beta regression model is a class of models used for continuous response variables
    restricted to the interval (0,1), such as rates and proportions. Ferrari and Cribari-Neto
    (2004) proposed a beta regression model that incorporates covariates in the mean of the
    distribution using a generic link function. However, for studies which response variable
    has asymmetry and / or discrepant values, this model may not be the most appropriated.
    A more appropriated measure of central tendency in this kind of situation is the mode
    of distribution because of its robustness to outliers and its easy interpretation in cases of
    asymmetry. Zhou and Huang (2019) proposed a parametrization for the beta distribution
    in terms of the mode and a precision parameter. Assuming that the response variable
    follows this distribution, Zhou and Huang (2019) proposed a regression model for continuous
    data in the interval (0,1), in order to be more robust to outliers. In this work,
    we present a more complete study of this model properties and performance as well as
    a comparison between this model and the model proposed by Ferrari and Cribari-Neto
    (2004). We developed simulation studies to evaluate the maximum likelihood estimates in
    cases of asymmetry and the sensitivity to outliers when come perturbation patterns are
    imposed. Furthermore, we proposed and evaluated three residuals to this class of models.
    Our simulation studies suggest that the model developed to the mode has a good performance
    on symmetrical and asymmetrical data and in most scenarios it performs better
    in the presence of outliers than the beta regression model that considers the mean. In
    addition, we present two applications to real dataset and a t comparison of the models
    that consider the mean and the mode.

2
  • LUCAS DE OLIVEIRA FERREIRA DE SALES
  • Control charts for monitoring symmetric and log-symmetric data

  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • LINDA LEE HO
  • Data: 19 févr. 2020


  • Afficher le Résumé
  • Since the industrial revolution to the present day it is in the [UTF-8?]industry’s interest to monitor the quality of their products, aiming at good quality product, good operation on the production line and profitable production. In this context, control charts are the main tools used for monitoring a particular quality characteristic. Usually the monitored characteristic is the process mean and the most used control chart for such monitoring are: X of Shewhart, CUSUM and EWMA, which are based on two assumptions: independence between monitored samples and that monitored variable follow a normal distribution. However, breaking any of these assumptions implies in a poor control chart performance. Considering this, the present work propose a control chart, for the monitoring of the mean, based on the bootstrap method for non-normal data that follows a distribution that belong to the symmetric class of distributions. In addition, a monitoring method will be proposed for the median (which in case of asymmetric data is more informative than the mean) for data that belong to the log-symmetric class of distributions, based on the asymptotic distribution of three new median estimators proposed by Balakrishnan et al. (2017). Additionally, simulation studies were performed for the proposed control chart for monitoring the mean, in order to evaluate the in-control and the out-control average run length (ARL) and to evaluate the behavior of the control limits. For the conclusion of this work, a simulation study will be conducted to evaluate the in-control and the out-control ARL and to evaluate the behavior of the control limits for the proposed method of monitoring the median of the log-symmetric class. In addition, the work will be completed with an application for each of the two propose methods to illustrate their applicability in a real situation.

3
  • BISMARK GONÇALVES DO NASCIMENTO
  • Metrizability of Topologies and Generalized Distances

  • Leader : FAGNER LEMOS DE SANTANA
  • MEMBRES DE LA BANQUE :
  • ANNAXSUEL ARAUJO DE LIMA
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • MARIO OTAVIO SALLES
  • Data: 2 mars 2020


  • Afficher le Résumé
  • This paper presents a study on the metrizability of topologies presenting the necessary
    conditions for a topology to be metrizable, i.e., it can be constructed starting from a
    metric through the open balls. In addition, several interesting examples of topologies are
    presented to show that several conditions presented are only necessary. Moreover, the
    Nagata-Smirnov Bing theorem is also mentioned, which presents necessary and sufficient
    conditions for a topology to be metrizable. In addition, we present a generalization of
    the metric concept that also generates a topology and assess whether this topology is
    metrizable.

4
  • RUAN BARBOSA FERNANDES
  • Automorphisms of the category of finitely generated free groups of certain subvariety of the variety of all groups

  • Leader : ARKADY TSURKOV
  • MEMBRES DE LA BANQUE :
  • EVGENY PLOTKIN
  • ALEXEY KUZMIN
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • Data: 3 mai 2020


  • Afficher le Résumé
  • In universal algebraic geometry the category of the finite generated free algebras of some fixed variety of algebras and the quotient group A/Y are very important. Here A is a group of all automorphisms of the category and Y is a group of all inner automorphisms of this category. In the varieties of all the groups, all the abelian groups (PLOTKIN; ZHITOMIRSKI, 2006), all the nilpotent groups of the class no more then n (n>1) (TSURKOV, 2007b) the group A/Y is trivial. B. Plotkin posed a question: "Is there a subvariety of the variety of all the groups, such that the group A/Y in this subvariety is not trivial?" A. Tsurkov  hypothesized that exist some varieties of periodic groups, such that the groups A/Y in these varieties is not trivial. In this work we give an example of one subvariety of this kind.

5
  • MAYKEL ANDERSON SOUZA CARNEIRO DO NASCIMENTO
  • Existence and multiplicity of positive solutions for a class of elliptic systems

  • Leader : AILTON RODRIGUES DA SILVA
  • MEMBRES DE LA BANQUE :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • ROMILDO NASCIMENTO DE LIMA
  • Data: 15 mai 2020


  • Afficher le Résumé
  • In this work we will show the existence and multiplicity of positive solutions for the following  class of elliptic systems
    \begin{equation}
    \left\{\begin{array}{lll}
    -\epsilon^{2}\Delta{u}+W(x)u=Q_{u}(u,v)  \text{ em } \mathbb{R}^N \\
    -\epsilon^{2}\Delta{v}+V(x)v=Q_{v}(u,v) \text{ em } \mathbb{R}^N \\
    u,v\in H^{1}(\mathbb{R}^N), u(x), v(x)>0 \text{ para todo } x\in \mathbb{R}^N \end{array}\right.
    \tag{$S_{\epsilon}$}
    \end{equation}
    where $\epsilon>0$ is a parameter, $N \geq 3,$ $W, ~ V:\mathbb{R}^{N}\rightarrow \mathbb{R}$ are positive Hölder continuous functions and $Q:\mathbb{R}^2\rightarrow \mathbb{R}$ is a function of class $C^{2}$ with subcritical growth. The main tools used are Variational Methods, Penalization Method, Maximum Principle and Lusternik-Schnirelman Category.

6
  • EMERSON WENDLINGGER DANTAS SALES
  • Modalities in Ecumenical Systems

  • Leader : ELAINE GOUVEA PIMENTEL
  • MEMBRES DE LA BANQUE :
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • CARLOS ALBERTO OLARTE VEGA
  • SONIA MARIN
  • LUIZ CARLOS DIAS PINHEIRO PEREIRA
  • Data: 27 oct. 2020


  • Afficher le Résumé
  • The discussion about how to put together Gentzen's systems for classical and intuitionistic logic in a single unified system is back in fashion. Indeed, recently Prawitz and others have been discussing the so-called Ecumenical Systems, where connectives from these logics can co-exist in peace. In Prawitz' system, the classical logician and the intuitionistic logician would share the universal quantifier, conjunction, negation, and the constant for the absurd, but they would each have their own existential quantifier, disjunction, and implication, with different meanings.
    Prawitz' main idea is that these different meanings are given by a semantical framework that can be accepted by both parties. In a recent work, an Ecumenical sequent calculus and a nested system were presented, and some very interesting proof theoretical properties of the systems were established.
    In this work the notion of truth in Prawitz Ecumenical Logic will be extended, so to define an Ecumenical alethic modalities.
2019
Thèses
1
  • ROBERT WAGNER ROCHA DOS SANTOS
  • Existence of Multi-Bump Solutions For a Class of Quasilinear problems

  • Leader : AILTON RODRIGUES DA SILVA
  • MEMBRES DE LA BANQUE :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • JOSÉ FERNANDO LEITE AIRES
  • Data: 31 mai 2019


  • Afficher le Résumé
  • In this work, our objective is to show the existence of nonegative solutions of the Multi-Bump type for a class of quasilineares problems in R^N. Such problems are related with the existence of standing waves of a non-linear Schrödinger equation. Schrödinger's equations arise from several physical phenomena, for example, Plamma Physics, Nonlinear Optics, and Condensed Matter Physics. The main tools used are the Variational Methods, Deformation Lemma, Mountain Pass Theorem, Penalization Method and mini-max type arguments.

2
  • CLEANDERSON ROMUALDO FIDELIS
  • Residuals in Survival Models with cure fraction

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BRUNO MONTE DE CASTRO
  • MARIANA CORREIA DE ARAUJO
  • DIEGO IGNACIO GALLARDO MATELUNA
  • Data: 31 mai 2019


  • Afficher le Résumé
  • Cure fraction survival models represent a generalization of classical survival models, which
    allow the occurrence of a fraction of cured individuals in the population studied. Two well-
    known parametric cure fraction survival models are the mixture cure models and the
    promotion time models. After the fit of a model to a dataset, it is important to validate the
    assumptions and the residuals analysis is an important technique for this purpose. Although
    residuals analysis is widely used to assess the fit of usual survival models, there are few
    residuals proposed for survival data with cure fraction. This work aims to study a recent
    proposal of the literature that evaluates, through Cox-Snell type residues, the global
    adjustment in mixture cure models and extend this proposal to promotion time model. We
    considered a simulation study to evaluate the performance of the proposed residuals. An
    application is considered to illustrate the procedures studied.

3
  • JOCENRIQUE CARLO DE OLIVEIRA RIOS FILHO
  • Mathematical Modeling and Numerical Simulation of Particles Injection in Porous Media.

  • Leader : SIDARTA ARAUJO DE LIMA
  • MEMBRES DE LA BANQUE :
  • ADOLFO PUIME PIRES
  • ADRIANO DOS SANTOS
  • JÚLIO CESAR SANTOS NASCIMENTO
  • LUIZ CARLOS RADTKE
  • RENATHA BATISTA DOS SANTOS
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • Data: 3 juin 2019


  • Afficher le Résumé
  • In this work we present a problematic associated with fluid flow, transport and particle retention processes in porous media. In particular, we highlight the filtration and adsorption phenomena which occur during particle injection in porous media. This work main goal is to deduct a mathematical and computational modeling of deep bed filtration and particle adsorption. A mathematical model is obtained based on differential equations, and analytical solutions considering particular cases of the filtration coefficient are obtained. The high order finite volume scheme based on Kurganov & Tadmor (KT) method is proposed in order to obtain numerical solutions for the particle transport equation, and the Runge-Kutta method is used for the retention kinetics. Furthermore, numerical simulations for the filtration process are proposed making it possible to understand filtration, as well as evaluating the optimal properties of the proposed finite volume method. Finally, we use the proposed mathematical and numerical model along with an optimization technique to quantify the model’s effective coefficients based on effluent and retained particle concentrations profiles obtained experimentally.

4
  • RODRIGO MATHEUS ROCHA DE MEDEIROS
  • A new regression model for data on Z

  • Leader : MARCELO BOURGUIGNON PEREIRA
  • MEMBRES DE LA BANQUE :
  • MARCELO BOURGUIGNON PEREIRA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 23 juil. 2019


  • Afficher le Résumé
  • There are several practical situations in which it is of interest to model events associated with discrete-valued variables. Until now, theories that have been constructed and refined to handling observations of this nature have an emphasis on modeling non-negative discrete data. Nevertheless, discrete observations that may assume any value on the set of integers Z = {... -2, -1, 0, 1, 2, ...}can also be found in different contexts. The main objective of this master thesis are to propose a new parameterization for the skew discrete Laplace distribution (KOZUBOWSKI; INUSAH, 2006), in terms of the mean and a dispersion parameter, and then define a new regression model able of modeling observations that assume values on Z based on this distribution. We consider the maximum likelihood estimator for the estimation of unknown model parameters. We propose diagnostic methods to evaluate the goodness of fit. We performed some simulation studies to verify the performance of the proposed estimators, test statistics and residuals. Finally, we apply the model to two real data sets.

5
  • RONALDO DIAS DOS SANTOS JUNIOR
  • Multiscale Computational Modeling of the Transport of Ionic Solutes in Electrically Charged Porous Media

  • Leader : SIDARTA ARAUJO DE LIMA
  • MEMBRES DE LA BANQUE :
  • VIVIANE KLEIN
  • RENATHA BATISTA DOS SANTOS
  • SIDARTA ARAUJO DE LIMA
  • ADRIANO DOS SANTOS
  • LUIZ CARLOS RADTKE
  • IURY HIGOR AGUIAR DA IGREJA
  • Data: 2 août 2019


  • Afficher le Résumé
  • In this work we present a multiscale computational modeling of the electrochemical coupling in electrically charged porous media. For this, considering the rigid and incompressible solid matrix, hydrodynamics and the transport of monovalent ionic solutes were modeled. At the nanoscopic scale, mathematical modeling was obtained considering electrical double-layer theory to obtain the Poisson-Boltzmann equation to quantify electric potential, electric charge density and electrochemical adsorption. The modeling at the microscale was given considering the Stokes equation for hydrodynamics and Nernst-Planck equations for the transport of the ionic solutes. The nano/micro equations are deduced on the macroscopic scale using the homogenization theory. With the macroscopic model with the respective microscopic equations, numerical simulations are obtained using the finite element multiscale method to quantify the effective parameters of the model given by the tensor permeability and vector field for tortuosity.

6
  • ARTUR BRENO MEIRA SILVA
  • Existence of positive solutions to a class of elliptical problems in  $\mathbb{R}^N$.

  • Leader : AILTON RODRIGUES DA SILVA
  • MEMBRES DE LA BANQUE :
  • AILTON RODRIGUES DA SILVA
  • DIEGO FERRAZ DE SOUZA
  • CLAUDIANOR OLIVEIRA ALVES
  • Data: 22 août 2019


  • Afficher le Résumé
  • In this work, we study the existence of positive solutions for the following class of problems:

    \begin{equation}\tag{$P_\varepsilon$}
    \left\{ \begin{array}{ll}
        -\varepsilon^{p} \Delta_p u + V(x)u^{p-1} = h(u), \ \text{ em \:} \R^N, \\
        u > 0  \text{\: em \:} \mathbb{R}^N, \ u \in W^{1,p} (\mathbb{R}^N),
    \end{array}
    \right.
    \end{equation}
    where $\varepsilon > 0$ is a positive parameter, $2 \leq p<N $, $\Delta_p u = div(|\Grad u|^{p-2} \Grad u)$ denotes the p-Laplacian operator, $h: \R \to \R$ is a continuous function satisfying some conditions and $V: \R \to \R$ is a function of class $C^2$ which belongs to two classes of potentials. Our study is divided in two parts: firstly we show the same results obtained by (Alves, 2015) for $p \geq 2$, establishing the existence of positive solution for the \eqref{P} problem when $h$ has subcritical growth; in the second we show the existence of positive solution considering $h$ with critical growth. The main tools used are the Variational Methods, Mountain Pass Theorem, Lions' Concentration-Compactness Principle and del Pino and Felmer's Penalization Method.
7
  • JARAFE AUGUSTO ABDALA
  • CI-posets, Domains and Function Spaces

  • Leader : FAGNER LEMOS DE SANTANA
  • MEMBRES DE LA BANQUE :
  • CARLOS ALBERTO OLARTE VEGA
  • CLAUDIO ANDRES CALLEJAS OLGUIN
  • ELAINE GOUVEA PIMENTEL
  • FAGNER LEMOS DE SANTANA
  • Data: 25 nov. 2019


  • Afficher le Résumé
  • Posets (partially ordered sets) that are not necessarily continuous but having intervals as continuous posets with induced order has been considered. That class of posets associated with the Scott topology plays an important role when the interest is to characterize in such a way the space of continuous functions. In this work the study is focused on three hereditary Scott topologies, namely lower hereditary, upper hereditary and weakly upper hereditary, seeking to characterize the space of continuous functions defined from a core compact space X to a poset P such that is equipped with a hereditary Scott topology and satisfying some additional conditions

8
  • TALITA VIVIANE SIQUEIRA DE BARROS
  • Dengue in Natal / RN: an analysis of the period 2000-2016 via time series

  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • MARCELO BOURGUIGNON PEREIRA
  • BERNARDO BORBA DE ANDRADE
  • Data: 29 nov. 2019


  • Afficher le Résumé
  • Dengue fever is an infectious disease transmitted by the Aedes aegypti mosquito. This
    vector also transmits the chikungunya, zika and yellow fever. In 2019, the World Health
    Organization (WHO) has established the fight against dengue as one of the ten priorities
    for this year. It is estimated that almost half of the [WINDOWS-1252?]world’s population is at risk of dengue
    infection. Based on the above, this study aims to analyze data on reported cases of dengue
    fever between 2000 and 2016, obtained from the Center for Zoonoses Control (CCZ) in the
    city of Natal/RN, through time series. In Natal/RN since 2000 dengue outbreaks occur,
    implying the existence of possible atypical observations (denoted in this paper by outliers)
    in the historical series. In addition, an outbreak of zika occurred in 2015 and because of
    a similar symptoms, cases may have been reported as dengue. Therefore, we search for a
    model that considers information of possible pattern changes and existence of outliers by
    intervention analysis. The exponential smoothing methods simple, Holt and HoltWinters
    were also used, as well as the ARIMAX model with exogenous climatic variables. Models
    are compared using root mean square error (rMSE) and mean absolute error (MAE) of
    forecasts for the first 37 weeks of 2017. The GARCH model was used to estimate the
    volatility of the series.
2018
Thèses
1
  • FIDEL HENRIQUE FERNANDES
  • Control Charts for Monitoring of Autoregressive Processes of Integer Values with Inflation or Deflation of Zeros

  • Leader : MARCELO BOURGUIGNON PEREIRA
  • MEMBRES DE LA BANQUE :
  • LINDA LEE HO
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 20 févr. 2018


  • Afficher le Résumé
  • The time series is a collection of observations sequentially measured over time, being studied with great notoriety in recent years along with statistical process control. The present work aims to study the performance of the CUSUM and Shewhart control charts in the detection of averages of processes with inflation or deflation of zeros through the zero-modified geometric firs-order integer-valued autorregressive process [ZMGINAR(1)]. In this sense, it is also analyzed the sensitivity through simulations, average number of samples exceeding the control limit (ARL), in addition, new estimators were proposed in order to verify, through the Monte Carlo study, the behavior of the estimators through the mean square errors (MSE) and bias in different scenarios, the proposed estimators proved to be more effective. As for the simulation, the different scenarios presented with inflation and deflation of zeros, the CUSUM was more efficient in the scenario with zero deflation and Shewhart with zero inflation in certain cases. In this instance, two applications were considered, one with inflation of zeros and the other with deflation of zeros. Just as in the simulation, CUSUM is best in the zero deflation scenario and the Shewhart with zero inflation. The great differential of this work, is the appearance of deflation of zeros modeled in the control charts, in addition the model to be worked has a known marginal distribution unlike other models, which is an advantage in Implementation and construction of new estimators, in addition to this, it is still considered the parameter estimates by several methods: maximum likelihood, Yule-Walker and probabilit based estimator. 

2
  • RENATO SANTOS DA SILVA
  • Bayesian inference, extreme value theory, MCMC methods, dynamic models.

  • Leader : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBRES DE LA BANQUE :
  • FERNANDO FERRAZ DO NASCIMENTO
  • FIDEL ERNESTO CASTRO MORALES
  • HÉLIO DOS SANTOS MIGON
  • Data: 23 févr. 2018


  • Afficher le Résumé
  • In series a collection of observations made sequentially over time. This type of change is
    Common for data applied in the theory of extreme values (EVT). In environmental data,
    for example, in rain, wind and temperature, Their levels may be correlated with seasonality,
    in addition to showing a tendency to increase over the Due to climate change on
    the planet. Generally, this type of event has been worked on Using standard parametric
    distributions such as Normal or Gamma, look at Camargo et al. (1994). However, environmental
    data, in most cases Cases have a heavy tail, unlike these distributions. In some
    situations (EVT) Analyzing only the generalized extreme value distribution (GEV) of a
    set of data can provide few Observations, in these cases it is more interesting to use the
    distribution of r-largest order statistics (GEVr). This work consists of the development
    of an algorithm in Software R for posterior distributions for GEVr based on the Bayesian
    estimation using Markov chains (MCMC) and the use of the Metropolis-Hastings
    algorithm technique. A Dynamic Linear Model (DLM), which is a general class of time
    series models, has also been introduced to model the GEVr parameters over time. The
    proposed model was applied in the time series of the temperature in ºC Teresina-PI and
    return BOVESPA , in order to follow the seasonality of the temperature in the capital
    of Piauí and level return BOVESPA, also incorporated was a Linear Dynamic Seasonal
    Model (DLMS), which is a class of time series models, for the GEVr parameter model over
    time. The proposed model was applied in the time series of temperature of ºC Teresina-PI,
    Curitiba-PR and Brasília-DF.
3
  • JOSENILDO SIMÕES DA SILVA
  • Geometrical Equivalence, Group Representations, Action Type Geometrical Equivalence.

  • Leader : ARKADY TSURKOV
  • MEMBRES DE LA BANQUE :
  • ARKADY TSURKOV
  • ELENA ALADOVA
  • MIKHAILO DOKUCHAEV
  • Data: 22 mars 2018


  • Afficher le Résumé
  • In the present work, we will see the defnition of geometrical equivalence between universal algebras (and specially, for groups), and so apply that concept to elements in the variety of all representations of groups over a fixed field. In that space, we consider pairs of equations in free representations (XKF(Y ); F(Y )), where X and Y are finite. After that, we will see another kind of geometrical equivalence: the action type geometrical equivalence, whose definition is very similar to the usual one, but in this case we consider only subsets of XKF(Y ) in the free representation (XKF(Y ); F(Y )), for finite X and Y. Here, we have two main objectives: the first is to study the different cases of geometrical equivalence and the second is to show an example which proves that we can not conclude the geometrical equivalence between two representations from their action type geometrical equivalence and the geometrical equivalence of their groups.

4
  • WASHINGTON CAVALCANTE DA SILVA
  • Specification and Verification of Voting Protocols in Focused Linear Logic. 
  • Leader : CARLOS ALBERTO OLARTE VEGA
  • MEMBRES DE LA BANQUE :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • GISELLE MACHADO NOGUEIRA REIS
  • Data: 28 mai 2018


  • Afficher le Résumé
  • Linear logic (LL) allows us to specify computational systems more accurately than traditional logics. This is mainly due to the fact that formulas are seen as resources that can be consumed and produced during a proof. From the point of view of Proof Theory, LL reconciles the constructive aspect of intuitionistic logic with the symmetry of rules in classical logic. Hence, LL offers a more flexible way to model states of a system as well as transitions among those states. We note that the proof search procedure is inherently non-deterministic since there are different ways of proving the same proposition. In order to tame this problem, focused systems have been proposed aiming at reducing the number of choices during the proof search procedure. Roughly, a focused system considers  normal form proofs, thus eliminating the occurrences of nonessential proofs that are syntactically different but equivalent. In this work, we prove the completeness of a focused system for LL as well as some other essential properties of this system. In addition, we use the focused system for specifying and verifying voting protocols. Such systems define how a candidate is chosen by tallying votes and computing the final result of an election. We formally specify two voting protocols using transition systems, which naturally model the states and behavior of such protocols. For each system, an encoding in LL is defined and we show that our specification is correct: a focused step corresponds exactly to a transition in the modeled system. Finally, we verify important properties of the voting protocols such as the fact that the system ensures that the election result reflects the voters' desire.
5
  • JOYCE BEZERRA ROCHA
  • Log-symmetric models with cure rate
  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • MARIANA CORREIA DE ARAUJO
  • MICHELLI KARINNE BARROS DA SILVA
  • Data: 29 mai 2018


  • Afficher le Résumé
  • Long-term models are of great interest in statistical modeling that involves time-to-event data in which a fraction of the population is immune to this event. For these models, also known as cure fraction models, there are in the literature several proposals considering  parametric aproach. We  propose and study properties of the long-term model considering that the  distributions of lifetimes of the susceptible individuals belongs to the log-symmetric class of distributions. This class is characterized by continuous, strictly positive and asymmetric distributions including distributions such as log-t-Student, log-logistic I, log-logistic II, log-normal-contaminated, log-exponential-power and log-slash, among others. The log-symmetric class is quite flexible to include bimodal distributions and behave outliers. In this model, here called the log-symmetric model with cure rate, the explanatory variables are included through the parameter associated with the cure fraction. We evaluate the performance of the proposed model through  extensive simulation studies and consider a application the fit of this model to a real data in a study to identify factors influencing the immunity to leprosy reactions in patients with leprosy.

    Long-term models are of great interest in statistical modeling that involves time-to-event data in which a fraction of the population is immune to this event. For these models, also known as cure fraction models, there are in the literature several proposals considering  parametric aproach. We  propose and study properties of the long-term model considering that the  distributions of lifetimes of the susceptible individuals belongs to the log-symmetric class of distributions. This class is characterized by continuous, strictly positive and asymmetric distributions including distributions such as log-t-Student, log-logistic I, log-logistic II, log-normal-contaminated, log-exponential-power and log-slash, among others. The log-symmetric class is quite flexible to include bimodal distributions and behave outliers. In this model, here called the log-symmetric model with cure rate, the explanatory variables are included through the parameter associated with the cure fraction. We evaluate the performance of the proposed model through  extensive simulation studies and consider a application the fit of this model to a real data in a study to identify factors influencing the immunity to leprosy reactions in patients with leprosy.

     

     

6
  • FRANCISCO FELIPE DE QUEIROZ
  • A zero-or-one inflated GJS regression model

  • Leader : ARTUR JOSE LEMONTE
  • MEMBRES DE LA BANQUE :
  • ARTUR JOSE LEMONTE
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 31 juil. 2018


  • Afficher le Résumé
  • Beta regression models are useful for modeling random variables that assume values in the standard unit interval, such as rates and proportions. Such models cannot be used when the data contain zeros and/or ones. The main aim of this work is to propose a mixed continuous-discrete distribution to model data observed on the intervals [0, 1) or (0, 1] and its associated regression model. The GJS distribution is used to describe the continuous component of the model. The parameters of the mixture distribution are modelled as functions of regression parameters. We study the performance of the maximum likelihood estimators through Monte Carlo simulations. Also, we define a residual for the proposed regression model to assess departures from model assumptions as well as to detect outlying observations, and discuss some influence methods such as the local influence. Finally, applications to real data are presented to show the usefulness of the new regression model. 
7
  • JOSENILDO LOPES DA SILVA
  • Bidualization of Affine Spaces

  • Leader : MARIO OTAVIO SALLES
  • MEMBRES DE LA BANQUE :
  • ALEXEY KUZMIN
  • LEANDRO GUSTAVO GOMES
  • MARIO OTAVIO SALLES
  • Data: 30 août 2018


  • Afficher le Résumé
  • Main ideas on affine space are presented. Let A be an affine space modelled on a vector space V , and let A=Aff(A,IR) be the extended dual of A, that is, the vector space of all affine maps from A to the real line. It is well known that in the case of a vector space V , the bidual V** is isomorphic to V. We consider the vector bidual (A)* of A and includes the affine space A into its vector bidual. 

8
  • JUSCELINO PEREIRA DE ARAUJO
  • Analysis of Rate of Convergence of k-Nearest Neighbors Classification Rule

  • Leader : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • ALLAN DE MEDEIROS MARTINS
  • ALEXANDRE DE BUSTAMANTE SIMAS
  • Data: 5 oct. 2018


  • Afficher le Résumé
  • The main objective of this work is to analyze the velocity of convergence of k-Nearest Neighbor (kNN) classification rule. Thus the binary classification problem is approached. The main theoretical results are developed, overall Stone Theorem, which guarantees the universal consistency of classification rules with some properties. Specifically the kNN rule is analyzed, mainly its universal consistency. Then restrictive conditions which allow uniform rates of convergence for a family of distributions are presented. Finally, under the mentioned restrictive conditions the order of magnitude of rate of convergence of kNN rule is obtained such that it cross out the need of a bounded space of observations.
     
9
  • JOÃO FREIRE DANTAS NETO
  • From relations to neighborhoods: understanding non-normal modalities

  • Leader : ELAINE GOUVEA PIMENTEL
  • MEMBRES DE LA BANQUE :
  • ELAINE GOUVEA PIMENTEL
  • SAMIR BEZERRA GORSKY
  • MARIO ROBERTO FOLHADELA BENEVIDES
  • Data: 18 oct. 2018


  • Afficher le Résumé
  • The search for mathematical structures to represent some logics is important for a better understanding of these logics. When we use modalities to generate other logics we need other structures to represent them, as relational frames for normal modal logics. In the case of non-normal modalities, we need neighborhood frames to represent classical modal logics. In this work, we investigate neighborhood frames for non-normal modal logics, with the goal to relate frame semantics with proof systems. Moreover we aim to understand proof systems with semantic language internalized.
     
2017
Thèses
1
  • WANDERSON LAERTE DE OLIVEIRA CARVALHO
  • Analysis of Optimum Parameters for Elitist Genetic Algorithms

  • Leader : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • RAFAEL BESERRA GOMES
  • GISLENE MICARLA BORGES DE LIMA
  • Data: 9 févr. 2017


  • Afficher le Résumé
  • The genetic algorithm is a search process used to find the global maximum of
    functions. This algorithm rests on naturalistic firmaments that evaluate a sample of
    global maximum candidates in each iteration. This evolution is consequence of three
    operators (Selection, Mutation and Crossover) exploiting the domain of the function
    at the same time that select the best candidates found. In this study we will show
    a Markov chain to fit this algorithm’s evolution. We will simulate a model to fit
    the effect of this algorithm’s parametrization in its hate of convergence, estimated by
    the number of iterations until the global maximum is reached. In the simulations we
    observed this effect at functions such as: unidimensional, bidimensional, with only one
    local maximum (the global one) and with many local maxima. Finally, this work shows
    results that put in question the crossover operator’s relevance in the studied functions
    and arguments to believe that the mutation and crossover operators, that makes the
    convergence’s hate optimum, depend on the function.

2
  • BRUNO FRANCISCO XAVIER
  •  Formalization of Linear Logic in Coq
  • Leader : CARLOS ALBERTO OLARTE VEGA
  • MEMBRES DE LA BANQUE :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • Data: 15 févr. 2017


  • Afficher le Résumé
  • In proof theory, the cut-elimination theorem (or Hauptsatz, which means main result) is of paramount importance since it implies the consistency and the subformula property for the given system. This theorem states that for any sequent that has a proof using the cut rule, it is possible to find a cut-free  proof for the same sequent. The proof of cut-elimination proceeds by induction on the lexicographical order (formula weight, cut height) and generates multiple cases, considering for instance, when the cut-formula is or not  principal. In general, one must consider the last rule applied in the two premises immediately after applying the cut rule (seeing the proof bottom-up). This generates a considerable amount of cases and then, the demonstration of this theorem could be error prone if we use an informal proof. Linear Logic (LL) is one of the most significant substructural logics and it allows for cut-free sequent calculi. LL is a resource sensible logic and has been widely used in the specification and verification of computer systems. In view of this, it becomes relevant the study of this logic in this work. In this dissertation we formalize three sequent calculi for linear logic in Coq and prove all of them to be equivalent. Additionally, we formalize meta-theorems such as admissibility of cut, generalization of initial rule, bang and copy and invertibility of the rules for the connectives par, bottom, with and quest. Regarding the invertibility, we demonstrate this theorem in two different ways: a version by induction on the height of the derivation and by using the cut rule. This allows us to show how the cut rule greatly simplifies the proofs in the sequent calculus. In order to mitigate the number of several cases in the proofs, we develop several tactics in Coq that allows us to perform semi-automatic reasoning.

3
  • LAURA FERNANDES DELL ORTO
  • A study of Linear Logic with Subexponentials

  • Leader : CARLOS ALBERTO OLARTE VEGA
  • MEMBRES DE LA BANQUE :
  • CARLOS ALBERTO OLARTE VEGA
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • Data: 15 févr. 2017


  • Afficher le Résumé
  • In Classical Logic, we can use a given hypothesis an indefinite number of times. For example, the proof of a theorem may use the same lemma several times. However, in physical, chemical and computational systems, the situation is different: a resource cannot be reused after being consumed in one action. In Linear Logic, formulas are seen as resources to be used during a proof. This feature makes Linear Logic an interesting formalism for the specification and verification of such systems. Linear Logic controls the rules of contraction and weakening through the exponentials ! and ?. This work aims to study Linear Logic with subexponentials   (SELL), which is a refinement of Linear Logic. In SELL, the exponentials of Linear Logic are decorated with indexes, i.e., ! and ? are replaced with !^i and ?^i, where “i” is an index. One of the main results in Proof Theory is the Cut-Elimination theorem. In this work we demonstrate that theorem for both Linear Logic and SELL, where we present details that are usually omitted in the literature. From the Cut-Elimination Theorem, we can show, as a corollary,  the consistency of the system (for the logics considered here) and other results as the subformula property. This work begins with an introduction to Proof Theory and then, it presents Linear Logic. On these bases, we present Linear Logic with subexponentials. SELL has been used, for example, in the specification and verification of various systems such as biochemical systems, multimedia interaction systems and, in general, concurrent systems with temporal, spatial and epistemic modalities. Using the theory of SELL, we show the specification of a biochemical system. Moreover, we present several instances of SELL that have interesting interpretations from a computational point of view.

4
  • PAULO ROBERTO BELTRAO MAIA
  • -

  • Leader : ELAINE GOUVEA PIMENTEL
  • MEMBRES DE LA BANQUE :
  • ALEXEY KUZMIN
  • ELAINE GOUVEA PIMENTEL
  • MÁRIO SÉRGIO FERREIRA ALVIM
  • UMBERTO RIVIECCIO
  • Data: 15 févr. 2017


  • Afficher le Résumé
  • The present study aims to introduce the Birkhoff duality, extending for Stone duality and followed by Priestley duality, as well as the basic concepts for understanding them. It will then be introduced a positive modal operator and shown that Priestley duality applies for Priestley spaces with a certain type of relation. After that, it will be done a duality among bounded N4 and NE-Sp, using the equivalence between bounded N4 and bounded TWIST as a shortcut. In addition to presenting some ideas about non-involutive bilattices in the appendix.

5
  • DANIEL LEONARDO RAMÍREZ OROZCO
  • A new first order mixed integer valued autoregressive processes for time series with Poisson innovations

  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • KLAUS LEITE PINTO VASCONCELLOS
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 21 févr. 2017


  • Afficher le Résumé
  • Time series, viewed as a collection of observations measured sequentially over time, has been studied with deep notoriety in recent years, based on applications and new proposals of autoregressive models that extend the field of study. This paper proposes a new first order mixed autoregressive model with Poisson innovations, denoted POMINAR (1), mixing two operators known as thinning binomial and thinning Poisson, it also provides the interpretation of these operators and demonstrates their respective properties, as well as a possible case of applying POMINAR (1). Expected value, variance, conditional expectation and conditional variance of the proposed process are taken step by step. In detail the transition probabilities are developed. The maximum conditional likelihood estimators to the process parameters are determined and an application to a real data set is given seeking the effectiveness of the proposed model.

6
  • JORDÂNIA FURTADO DE OLIVEIRA
  • Data imputation in two-level factorial experiments

  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • MARCUS ALEXANDRE NUNES
  • LINDA LEE HO
  • Data: 27 avr. 2017


  • Afficher le Résumé
  • Full and fractional factorial designs with two levels are widely used in various fields
    of knowledge, especially in industry. To analyze such experiments is necessary that all
    planned treatment combinations are performed and the answers are obtained. However,
    in practice, many experiments fail to be completed due to logistical problems, time or
    budget constraints. These experiments are called incomplete. To properly analyze
    such experiments, different methods are proposed in the literature. This study aims to
    present, compare and make critical reflections about methods for estimating missing
    data in factorial experiments with two levels.

7
  • ALEXANDRE HENRIQUE QUADROS GRAMOSA
  • GENERALIZED EXTREME VALUE DISTRIBUTION ZERO INFLATED

  • Leader : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBRES DE LA BANQUE :
  • FERNANDO FERRAZ DO NASCIMENTO
  • HEDIBERT FREITAS LOPES
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 5 mai 2017


  • Afficher le Résumé
  • Extreme events are usually responsible for producing big gains or big losses to society. For some
    decades now there has been a specific distribution, known as Generalized Extreme Values
    Distribution (GEV), designed to predict and prevent such events. However, in many situations
    with extreme data, there are excessive zeros in the database, making it difficult to analyze and
    decrease the estimation accuracy. Influenced Zero Distribution (ZID) is recommended to model
    such data that has inflated zeros. It is the objective of this work to create a new distribution to
    model data of extreme and inflated values of zeros. Therefore, a mixture of the GEV and ZID
    distributions was made, as well as a Bayesian approach, in order to obtain a better fit in
    applications with data of inflated maximums of zeros. The daily precipitation of rainfall in the
    city of Natal in the state of Rio Grande do Norte and in the cities of Paulistana, Picos, São João
    do Piauí and Teresina in the state of Piauí were chosen for analysis. It was also used the standard
    GEV distribution to model the same data collected for comparison purposes, and thus, through
    measurements and estimates made by the two distributions, to verify the quality of the
    adjustment found by the new distribution of inflated extreme values of zeros. Therefore, it was
    verified that both the model and the algorithm were well developed, the model being able to
    estimate the maximum data, even an excessive amount of zeros, and the standard GEV could
    not find the equilibrium distribution when the data given Many zeros. In addition, when the data
    of extreme values do not have inflated zeros, the new model converges to the standard GEV,
    identifying the absence of zeros.
8
  • ANTONIO DJACKSON ALVES DA SILVA
  • New Proofs of Classical Results in Percolation Theory.

  • Leader : ROBERTO TEODORO GURGEL DE OLIVEIRA
  • MEMBRES DE LA BANQUE :
  • BRUNO DOS SANTOS GOIS
  • DEBORA BORGES FERREIRA
  • GISLENE MICARLA BORGES DE LIMA
  • ROBERTO TEODORO GURGEL DE OLIVEIRA
  • Data: 21 juil. 2017


  • Afficher le Résumé
  • A percolation process models the distribution and transport of fluids in porous media. The variation of a model parameter reveals the existence of, generally, two phases, one called subcritical and the other called supercritical. These phases bear distinct global characteristics and the transition between phases takes place at a critical value for the model parameter. The present work aims at presenting new proofs for some classical results of Bond Bernoulli Percolation, namely: exponential decay of the radius of the cluster at the origin in subcritical phase and a lower bound on probability of percolation. The considerations and proofs we follow are due to Hugo Duminil-Copin and Vincent Tassion in their paper “A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model” published on the Journal of Mathematical Physics in 2016.

9
  • MANOEL MESSIAS DE ARAÚJO GOMES
  • Strongly Stable Automorphisms of the Categories of the finitely Generated Free Algebras of the varieties of all the Linear Nilpotents Algebras of degree 5

  • Leader : ARKADY TSURKOV
  • MEMBRES DE LA BANQUE :
  • ARKADY TSURKOV
  • ALEXEY KUZMIN
  • WALTER MARTINS RODRIGUES
  • Data: 8 août 2017


  • Afficher le Résumé
  • This study has as objective the study of the strongly stable automorphisms of the category
    of all the finitely generated free algebras in the variety of all Nilpotent Linear Algebras
    of degree 5. We present a brief explanation of the method of verbal operations. Our main
    interest is to prove the isomorphism
    A5=Y5 = khAutk. The the study of the group A=Y
    is very important in the area of Universal Algebraic Geometry, because this group gives
    us the possible differences between geometric and automorphic equivalence of algebras.

10
  • WYARA VANESA MOURA E SILVA
  • Bayesian inference for the joint distribution of r-largest order statistics with change point

  • Leader : FERNANDO FERRAZ DO NASCIMENTO
  • MEMBRES DE LA BANQUE :
  • FERNANDO FERRAZ DO NASCIMENTO
  • FIDEL ERNESTO CASTRO MORALES
  • HEDIBERT FREITAS LOPES
  • Data: 28 août 2017


  • Afficher le Résumé
  • Extreme value analysis has been widely used to assess and predict environmental catastrophes caused by climate change over the years. In addition to the environmental area, other common areas of application of these analyzes are finance, actuarial, among others. In this way, the present work consists in the estimation of parameters and levels of expected returns, considering the distribution of extreme values for the r-highest order statistics. These estimates will be evaluated in series that have points of change in the regime, that is, a model will be proposed to detect points of change in a series, applied to the distribution of the r-largest order statistics (GEVr). We will address the case where the series has k change points, in which the series has k+1 different schemes, and each scheme will be modeled by the GEVr distribution. The inference used in the model is based on a Bayesian approach, where both the GEVr parameters for each scheme, and the change points are considered as unknown parameters to be estimated. In addition, an evaluation of the criterion of choosing the optimal r for the distribution of the data. The estimation is performed by the Monte Carlo Method via Markov Chains (MCMC) using the Metropolis-Hastings algorithm technique. Initially only simulations were performed, for evaluation of series with one and two change points, in which remarkable results were obtained. In addition, a brief analysis of levels of returns for different values of r, and a brief descriptive analysis of the real data that will be used in the applications of the proposed model, was carried out. Finally, the application of the proposed model for the Parnaíba and Paraná river quota data, as well as daily Nasdaq returns data.

2016
Thèses
1
  • ISAAC JALES COSTA SOUZA
  • Bayesian Estimation in the Bimodal Asymmetric Power-Normal

  • Leader : BERNARDO BORBA DE ANDRADE
  • MEMBRES DE LA BANQUE :
  • BERNARDO BORBA DE ANDRADE
  • LUZ MILENA ZEA FERNANDEZ
  • FERNANDO FERRAZ DO NASCIMENTO
  • Data: 28 janv. 2016


  • Afficher le Résumé
  • In this paper it is presented a Bayesian approach to the bimodal power-normal (BPN) models
    and the bimodal asymmetric power-normal (BAPN). First, we present the BPN model,
    specifying its non-informative and informative parameter alpha (bimodality). We obtain the posterior
    distribution by MCMC method, whose feasibility of use we tested from a convergence
    diagnose. After that, We use different informative priors for and we do a sensitivity analysis
    in order to evaluate the effect of hyperparameters variation on the posterior distribution. Also, it
    is performed a simulation to evaluate the performance of the Bayesian estimator using informative
    priors. We noted that the Bayesian method shows more satisfactory results when compared
    to the maximum likelihood method. It is performed an application with bimodal data. Finally,
    we introduce the linear regression model with BPN error. As for the BAPN model we also
    specify informative and uninformative priors for bimodality and asymmetry parameters. We do
    the MCMC Convergence Diagnostics, which is also used to obtain the posterior distribution.
    We do a sensitivity analysis, applying actual data in the model and we introducing the linear
    regression model with PNBA error.
2
  • JHONNATA BEZERRA DE CARVALHO
  • Classificador Máquina de Suporte Vetorial com Análise de Fourier Aplicada em Dados de EEG e EMG
  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • GETULIO JOSE AMORIM DO AMARAL
  • Data: 3 févr. 2016


  • Afficher le Résumé
  • O classificador Máquina de Suporte Vetorial, que vem do termo em inglês

    \textit{Support Vector Machine}, é utilizado em diversos problemas em várias áreas do

    conhecimento. Basicamente o método utilizado nesse classificador é encontrar o

    hiperplano que maximiza a distância entre os grupos, para aumentar o poder de

    generalização do classificador. Neste trabalho, são tratados alguns problemas de

    classificação binária com dados obtidos através da eletroencefalografia (EEG) e

    eletromiografia (EMG), utilizando a Máquina de Suporte Vetorial com algumas técnicas

    complementares, destacadas a seguir como: Análise de Componentes Principais para a

    identificação de regiões ativas do cérebro, o método do periodograma que é obtido

    através da Análise de Fourier, para ajudar a discriminar os grupos e a suavização por

    Médias Móveis Simples para a redução dos ruídos existentes nos dados. Foram

    desenvolvidas duas funções no $software$ \textbf{R}, para a realização das tarefas de

    treinamento e classificação. Além disso, foram propostos 2 sistemas de pesos e uma

    medida sumarizadora para auxiliar na decisão do grupo pertencente. A aplicação dessas

    técnicas, pesos e a medida sumarizadora no classificador, mostraram resultados

    bastantes satisfatórios, em que os melhores resultados encontrados foram, uma taxa

    média de acerto de 95,31\% para dados de estímulos visuais, 100\% de classificação

    correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de

    movimentos de objetos para dois indivíduos.
3
  • FELIPE RODRIGUES DA SILVA
  • Estimação e Previsão no Processo INARCH(2)

  • Leader : LUZ MILENA ZEA FERNANDEZ
  • MEMBRES DE LA BANQUE :
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • KLAUS LEITE PINTO VASCONCELLOS
  • Data: 5 févr. 2016


  • Afficher le Résumé
  • Nas últimas décadas o estudo de séries temporais de valores inteiros tem ganhado notoriedade devido a sua ampla aplicabilidade, por exemplo, modelar o número de acidentes com automóveis em uma determinada rodovia, ou, o número de pessoas infectadas por um vírus. Um dos grandes interesses desta área de estudo está em fazer previsões, por este motivo é de grande importância propor metodologias para fazer previsões futuras, as quais devem, dada a natureza dos dados, apresentar valores inteiros não negativos.
    Neste trabalho concentramo-nos em estudar e propor previsões um, dois e h passos à frente para os processos autorregressivos de segunda ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued second-order Autoregressive Conditional Heteroskedasticity Processes [INARCH(2)], e estudar algumas propriedades teóricas deste modelo, como o r-ésimo momento marginal e a distribuição assintótica dos estimadores de mínimos quadrados condicionais referentes ao processo INARCH(2). Além disso, verificamos, através de ensaios de Monte Carlo, o comportamento dos estimadores dos parâmetros do processo INARCH(2), obtidos através de três métodos de estimação, Yule-Walker, mínimos quadrados condicionais e máxima verossimilhança condicional, em termos de erro quadrático médio, erro absoluto médio e viés. Apresentamos algumas propostas de previsão para o processo INARCH(2) e comparamos as previsões propostas via simulações de Monte Carlo. Como aplicação da teoria apresentada, modelamos dados referentes ao número de nascidos vivos do sexo masculino de mães residentes na cidade de Riachuelo no estado do Rio Grande do Norte.
4
  • LAÍS HELEN LOOSE
  • Avaliação e correções dos testes de hipóteses em modelos de sobrevivência com fração de cura 

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • MARCELO BOURGUIGNON PEREIRA
  • FRANCISCO CRIBARI NETO
  • FÁBIO MARIANO BAYER
  • Data: 15 févr. 2016


  • Afficher le Résumé
  • Os modelos de sobrevivência tratam do estudo do tempo até a ocorrência de um evento de interesse. Em algumas situações, uma proporção da população pode não estar mais sujeita à ocorrência do evento. Nesse contexto surgiram os modelos com fração de cura. Dentre os modelos que incorporam uma fração de curados um dos mais conhecidos é o modelo tempo de promoção. No presente trabalho abordamos inferências em termos de testes de hipóteses no modelo tempo de promoção assumindo a distribuição Weibull para os tempos de falha dos indivíduos suscetíveis. Os testes de hipóteses nesse modelo podem ser realizados com base nas estatísticas da razão de verossimilhanças, gradiente, escore ou Wald. Os valores críticos são obtidos através de aproximações assintóticas, que podem conduzir a distorções no tamanho do teste em amostras de tamanho finito. Nesse sentido, o presente trabalho propõe correções via bootstrap para os testes mencionados e Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo tempo de promoção Weibull. Por meio de simulações de Monte Carlo comparamos o desempenho em amostras finitas das correções propostas com os testes usuais. Os resultados numéricos obtidos evidenciam o bom desempenho das correções propostas. Ao final do trabalho é apresentadaumaaplicação a dados reais.

5
  • MOIZÉS DA SILVA MELO
  • Monitoramento das médias de um processo bivariado por gráficos de controle por atributos e/ou variáveis

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • PLEDSON GUEDES DE MEDEIROS
  • ANDRE LUIS SANTOS DE PINHO
  • LINDA LEE HO
  • ROBERTO DA COSTA QUININO
  • Data: 18 févr. 2016


  • Afficher le Résumé
  • A alta variabilidade de um processo está diretamente relacionada com a má qualidade do mesmo, portanto, reduzi-la é a maneira de melhorar o processo. Os métodos estatísticos estão incluídos ao planejamento de melhoria de processos, dentre os quais os gráficos de controle são o mais eficientes e utilizados. Esta dissertação propõe dois novos gráficos de controle para monitorar um vetor de médias de um processo bivariado. O primeiro, chamado de new npxy, emprega um gráfico por atributos. O procedimento consiste em inspecionar e classificar, através dos limites discriminantes, cada unidade da amostra como aprovada ou reprovada. Os limites discriminantes são ajustados de tal forma que tem-se uma fração especificada de unidades reprovadas quando o processo está sob controle. Em seguida o número de unidades reprovadas é plotado no gráfico, e caso seja maior que o limite de controle, o processo é parado para ajuste. O segundo gráfico utiliza os gráficos new npxy e T2. Este procedimento consiste em dividir uma amostra de tamanho $n$ em duas partes (n1 e n2), determinadas por um processo de otimização. As unidades da primeira sub-amostra são avaliadas por atributos e plotadas em um gráfico de controle new npxy. Caso seja detectada a presença de alguma causa especial, inspeciona-se a sub-amostra de tamanho n2 por variáveis por meio do gráfico T2. O procedimento é interrompido para o ajuste se a presença de alguma causa especial for detectada em ambos gráficos de controle. A possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no custo quanto no tempo de inspeção. A análise de desempenho foi realizada comparando o número médio de amostras até o alarme verdadeiro (NMA1). Verificou-se que os gráficos propostos apresentam desempenho satisfatório e são concorrentes com o gráfico T2. Os resultados foram obtidos com o auxílio do software estatístico R.
6
  • JOSIMARA TATIANE DA SILVA
  • Preconditioning of the GMRES method for Z-matrices

  • Leader : NIR COHEN
  • MEMBRES DE LA BANQUE :
  • JULIA VICTORIA TOLEDO BENAVIDES
  • LUIZ MARIANO PAES DE CARVALHO FILHO
  • NIR COHEN
  • SANTOS DEMETRIO MIRANDA BORJAS
  • Data: 19 juil. 2016


  • Afficher le Résumé
  • This study aims to investigate the convergence behavior of the GMRES (Gene-
    ralized Minimal Residual) method and its version GMRES(m), without and with
    preconditioner ILU(0) applied to sparse non-symmetric linear systems. Our main
    interest is to see if the behavior of these algorithms can be influenced by the struc-
    ture of the matrices considered, in particular, the Z-matrices. Furthermore, the
    influence of the choice of the degree of sparsity. Among the observed parameters,
    we focus on the spectral radius of these matrices, as well as the relative residual
    norm obtained by these algorithms.

7
  • TITO LÍVIO DA CUNHA LOPES
  • New models for time series of binary values  and non-negative integers based on thinning operators

  • Leader : MARCELO BOURGUIGNON PEREIRA
  • MEMBRES DE LA BANQUE :
  • KLAUS LEITE PINTO VASCONCELLOS
  • LUZ MILENA ZEA FERNANDEZ
  • MARCELO BOURGUIGNON PEREIRA
  • Data: 28 nov. 2016


  • Afficher le Résumé
  • Models for time series of integer values have stood out because of the vast possibility of application. Models for statistical process control, for economic data and currently for the structural sequence of deoxyribonucleic acids (DNA), are examples of important applications. This work is divided into two independent parts. The first part of the work concerns the modeling of autocorrelated binary data. In this context, a new class of models has been proposed, based on thinning operators called Bernoulli order autoregressive process p  [BeAr(p)] similar to the classical model AR(p). In particular, BeAr(1) model was studied, setting various properties of three estimation methods have been proposed for the model, including the asymptotic distribution of the estimators by the conditional least squares method, and the elements of the Fisher information matrix. In addition to the simulations, applications were made on real data of precipitation, at which models BeAr(1) and BeAr(2) were given to modeling. In the second part of the work, new models were studied to propose the family of inflated-parameter generalized power series distributions (IGPSD) to the innovation process INAR(1) model. The main properties of the process have been established, such as the mean, variance and autocorrelation transition probability. The estimation methods for Yule-Walker and conditional maximum likelihood were used to estimate the parameters of the models. Two particular cases of model INAR(1) with IGPSD innovation process were studied, called IPoINAR(1) and IGeoINAR(1). Applications to real data showed a good performance of the new model proposed.
2015
Thèses
1
  • WENIA VALDEVINO FÉLIX DE LIMA
  • Probabilidades Assintóticas da Cauda de Somas Ponderadas
    de Variáveis Aleatórias Dependentes com Variação Dominada

  • Leader : DEBORA BORGES FERREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • CHANG CHUNG DOREA
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 20 févr. 2015


  • Afficher le Résumé
  • Neste trabalho estudamos o comportamento assintótico caudal das probabilidades das somas aleatórias ponderadas de variáveis aleatórias com certa estrutura de dependência e de variação dominada, baseados no artigo de Hai-zhong Yang, com título "Asymptotic Tail Probability of Randomly Weighted Sums of Dependent Random Variables with Dominated Variation". Para tanto, apresentamos resultados essenciais sobre a classe de distribuições de cauda pesada que contem as seguintes subclasses : de cauda subexponencial, longa, variação regular, variação regular estendida e dominada, entre outras.  Nosso objetivo é proporcionar todo um embasamento teórico para esclarecer ao máximo a demonstração do Teorema de Yang. Para isto, apresentamos a demonstração de três lemas principais e de alguns resultados que são utilizados na demonstração desses lemas.

2
  • RENATO TIGRE MARTINS DA COSTA
  • Gráfico de Controle Modificado para Processos com Estruturas Complexas de
    Autocorrelação

  • Leader : ANDRE LUIS SANTOS DE PINHO
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • Data: 29 avr. 2015


  • Afficher le Résumé
  • Este trabalho propõe um gráfico de controle modificado incorporando conceitos de análise
    de séries temporais. Especificamente, nós consideramos os modelos de distribuição de transição
    e mistura gaussianas (GMTD). Os modelos GMTD são uma classe mais geral do que os
    modelos da família autoregressiva (AR), no sentido de que os processos autocorrelacionados
    podem apresentar trechos planos (platôs), explosões ou outliers. Neste cenário os Gráficos de
    Shewhart tradicionais não são mais ferramentas adequadas para o acompanhamento desses
    processos. Portanto, Vasilopoulos e Stamboulis (1978) propuseram uma versão modificada
    dos gráficos, considerando limites de controle adequados com base em processos autocorrelacionados.
    A fim de avaliar a eficiência da técnica proposta uma comparação com um gráfico
    tradicional Shewhart (que ignora a estrutura de autocorrelação do processo), o gráfico de
    controle Shewhart AR(1) e um gráfico de controle Shewhart GMTD foi feita. Uma expressão
    analítica para a variância processo, assim como os limites de controle foram desenvolvidos
    para um modelo GMTD particular. Os critérios utilizados para medir a eficiência foram o
    ARL 0 e ARL 1 . A comparação foi feita com base em uma série gerada de acordo com um
    modelo GMTD. Os resultados apontam para a direção que os gráficos modificados Shewhart
    GMTD têm um melhor desempenho do que o Shewhart AR(1) e o Shewhart tradicional.

3
  • DANIEL DE SOUZA GRILO
  • Sobre a Integração Indefinida de Funções Racionais Complexas: teoria e implementação de algoritmos racionais

  • Leader : NIR COHEN
  • MEMBRES DE LA BANQUE :
  • EDGAR SILVA PEREIRA
  • NIR COHEN
  • VILMAR TREVISAN
  • Data: 12 juin 2015


  • Afficher le Résumé
  • Apresentamos algoritmos de integração indefinida de funções racionais sobre subcorpos dos complexos, a partir de uma abordagem algébrica. Estudamos o algoritmo local de Bernoulli e algoritmos racionais de integração para a classe de funções em questão, a saber, os algoritmos de Hermite; Horowitz-Ostrogradsky; Rothstein-Trager e Lazard-Rioboo-Trager. Estudamos também o algoritmo de Rioboo para conversão de logaritmos envolvendo extensões complexas para funções arco-tangente reais, quando estes logaritmos surgem da integração de funções racionais com coeficientes reais. Concluímos fornecendo pseudocódigos e códigos para implementação no software Máxima relativos aos algoritmos estudados neste trabalho, e, além disso, a algoritmos para cálculo de mdc de poliômios; decomposição em frações parciais; fatoração livres de quadrados; obtenção de sequências de subresultantes, entre outros algoritmos acessórios ao trabalho. Será também apresentado no apêndice o algoritmo de Zeilberger-Almkvist para integração de funções hiperexponenciais, bem como seu pseudocódigo e código para Maxima. Como alternativa aos algoritmos de Rothstein-Trager e Lazard-Rioboo-Trager, apresentamos ainda um código para o algoritmo de Bernoulli para denominadores livres de quadrados; e outro para o algoritmo de Czichowski, ainda que este não seja estudado em detalhes no trabalho, devido às bases teóricas necessárias para o seu entendimento, as quais se encontram fora do escopo deste trabalho.

     

    Diversos exemplos são fornecidos de modo a demonstrar o o funcionamento dos algoritmos de integração deste trabalho.

4
  • FÁBIO AZEVÊDO DE SOUZA
  • Factorial Experimens Fractioned Asymmetrical for Evalution Models for rain Forecast in Northeast Brazil
  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • MARCUS ALEXANDRE NUNES
  • MICHEL DOS SANTOS MESQUITA
  • Data: 29 sept. 2015


  • Afficher le Résumé
  • In the state of Rio Grande do Norte, episodes of heavy rains have caused disorders such as land slides, flood and chaotic traffic.  Thus,  rainfall is a major concern for researchers and other agencies linked to weather research.
    The accurate prediction of extreme events, such as heavy rainfall, is an essential factor in public polices to mitigate the effects caused by meteorological phenomena.
    Since the mid-twentieth century, the use of quantitative methods to conduct weather forecast by numerical simulation has stood out in  meteorology. With the technological advancement of computing, more and more atmospheric phenomena can be simulated in high resolution.
    In these models, identifying combinations and/or atmospheric physics parameterization settings is still a challenge for researchers.
    In this sense, the main objective of this work is to implement experimental design techniques to select parameterization settings and evaluate numerical weather forecasting models.
    This paper presents the use of asymmetric fractional factorial designs (EFFA) to evaluate the performance of Weather Research and Forecasting (WRF), using various physical parameterizations, to simulate a weather event in 2008 in Rio Grande do Norte State.
    We selected four cumulus parameterization schemes (Grell-Deveyi, NSAS, Tiedtke and Kain-Fritsch), two schemes of microphysics (WSM6 and Thompson), two planetary boundary layer (YSU and MYJ) and two model top settings (10mb and 50mb), for three different domains (36Km, 12Km and 4km) and conducted 32 simulations.
    We use Lenth plots to analyse the experiment and guide the identificationof appropriat parameterization schemes.
    The final results of this study are promising and confirm that statistically designed experiments is of utmost importance to assess WRF, bringing significant progress in this field.
    It is whorth mentioning that the same procedure can be used for other models.
5
  • RUMENICK PEREIRA DA SILVA
  • Modelos Flexíveis de Sobrevivencia com Fração de Cura: Implementação Computacional

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • LUZ MILENA ZEA FERNANDEZ
  • DANI GAMERMAN
  • Data: 23 oct. 2015


  • Afficher le Résumé
  • Em análise de sobrevivência a variável em estudo é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado de tempo de vida ou tempo até a falha. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão experimentar o evento em algum momento. Mas, em algumas situações uma proporção da população  pode não estar mais sujeita à ocorrência deste evento, por mais longo que seja o tempo de observação. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou de longa duração. Ao considerar o aumento do interesse no ajuste desses modelos, percebe-se a importância da existência de rotinas amigáveis e capazes de obter de forma precisa as estimativas de máxima verossimilhança. Neste contexto, o objetivo principal deste trabalho foi a implementação de um pacote em linguagem R com um conjunto de rotinas amigáveis (de forma didática e de fácil utilização) para analisar dados de sobrevivência com fração de cura, a partir do uso de alguns modelos paramétricos flexíveis. Neste programa, denominado de flexcure, foram considerados os modelos de tempo de falha acelerado log-gama generalizado, log-F generalizado e Weibull na forma estendida de Marshall-Olkin, para modelar os tempos dos indivíduos susceptíveis e, para a fração de curados foram considerados os modelos usuais de mistura padrão e de tempo de promoção. O desempenho destas implementações foi avaliado através de um extensivo estudo de simulação, considerando diferentes cenários. Além disso, o uso deste pacote foi ilustrado em algumas aplicações.

6
  • MÁRCIA GABRIELE GONÇALVES DE SOUSA LIMA
  • Um estudo sobre Polinômios Matriciais

  • Leader : EDGAR SILVA PEREIRA
  • MEMBRES DE LA BANQUE :
  • EDGAR SILVA PEREIRA
  • NIR COHEN
  • MARIA CECÍLIA DOS SANTOS ROSA
  • Data: 29 oct. 2015


  • Afficher le Résumé
  • Esse trabalho de pesquisa tem por objetivo, fazer um estudo sobre a teoria algébrica dos polinômios matriciais mônicos, bem como das definições, conceitos e propriedades de no que diz respeito a bloco autovalores, bloco autovetores e solventes de P(X). Investigando as principais relações entre o polinômio matricial e as matrizes bloco. Companheira e bloco Vandermonde. Estudamos a construção de polinômios matriciais com determinados solventes  e a extensãon da Método da Potência , para calcular blocos autovalores da matriz Companheira e solventes de P(X). Através da relação entre o bloco autovalor dominante da matriz Companheira e o solvente dominante de P(X) é possível  obtermos a convergência do algoritmo para o solvente dominante do polinômio matricial mônico. Ilustramos com exemplos numéricos para casos distintos de convergência.

7
  • JULY HERBERT DA SILVA MARIANO
  • Modelagem Multiescala de Fenômenos Eletrocinéticos em Meios Porosos Carregados Eletricamente: Aplicação a Meios Porosos Argilosos

  • Leader : SIDARTA ARAUJO DE LIMA
  • MEMBRES DE LA BANQUE :
  • ADRIANO DOS SANTOS
  • JULIA VICTORIA TOLEDO BENAVIDES
  • RICARDO COELHO SILVA
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • Data: 12 nov. 2015


  • Afficher le Résumé
  • Nesta dissertação de mestrado, propomos uma modelagem computacional multiescala de fenômenos eletrocinéticos em meios poroso carregados eletricamente. Consideramos um meio poroso rígido e incompressível saturado por uma solução eletrolítica contendo quatro solutos iônicos monovalentes totalmente diluídos no solvente.

    Inicialmente, desenvolvemos a modelagem da dupla camada elétrica com a intenção de computar o potencial elétrico, densidade superficial de cargas elétricas e, considerando duas reações químicas, propomos um modelo 2-pK para calcular as adsorções químicas que ocorrem no domínio da dupla camada elétrica. De posse do modelo nanoscópico, desenvolvemos um modelo na microescala, onde as adsorções eletroquímicas de íons no domínio da camada dupla, reações de protonação/deprotonação e potencial zeta obtidos na escala nanoscópica, são incorporados ao modelo na escala microscópica através das condições de interface fluido/sólido do problema de Stokes e no transporte dos íons, modelado pelas equações de Nerst-Planck. Usando a técnica de homogeneização de estrutura periódicas juntamente com a hipótese de periodicidade do meio, deduzimos um modelo na escala macroscópica com respectivos problemas de células para os parâmetros efetivos das equações macroscópicas.

    Finalmente, fazendo uso do modelo 2-pK, simulamos os fenômenos de adsorções eletroquímicas em uma caulinita saturada por uma solução aquosa na micro escala. Em seguida fazemos duas simulações macroscópicas em regimes ácidos e básico com a intensão de observar a influência dos fenômenos na escala nano/microscópica sobre a macroescala. 

8
  • EDUARDO RANGEL GOMES
  • Mathematical and Computational Modeling of Deep Bed Filtration Process in Porous Media

  • Leader : SIDARTA ARAUJO DE LIMA
  • MEMBRES DE LA BANQUE :
  • SIDARTA ARAUJO DE LIMA
  • VIVIANE KLEIN
  • ADRIANO DOS SANTOS
  • RICARDO COELHO SILVA
  • Data: 13 nov. 2015


  • Afficher le Résumé
  • The objective of this research work is to develop a mathematical and computational modeling of depth filtration process during the transport of suspendend particles in porous media. Initially, we developed a stochastic mathematical model based on partial differential equations to model the depth filtration process in porous media with the size exclusion as the capture mechanism. The model consists of the equations of conservation of mass suspendend particles, particle-capture kinetics and pore-blocking kinetics. Considering some hypothesis, reduced mathematical models were obtained, and consequently some analytical solutions were obtained for the transport of particles and pore-blocking kinetics. From the numerical viewpoint, we propose some finite volume methods formulations of first and second order non-oscillatory, satisfying a CFL condition. We deduce discrete preliminary formulations of the methods Lax-Friedrichs (LXF) and Nessyahu and Tadmor (NT) based on the algorithm REA, as the purpose of introducing the initial ideas of the finite volume method of Kurganov and Tadmor (KT). We conduct discretization KT method for hyperbolic differential equations homogeneous and non-homogeneous in order to simulate the depth filtration process. For the resolution of the particle transport equation use the KT method and the pore blocking kinetics family Runge-Kutta methods. Numerical simulations were performed using the discrete formulations obtained via methods of finite volume, in order to analyze the accuracy and efficiency of the numerical methodology presented. Finally, we use numerical methodology proposed with the purpose of obtaining numerical solutions of the depth filtration process, and therefore to compare the results obtained with analytical solutions to mathematical models reduced, making it possible to evaluate the accuracy of discrete formulations. Lastly, we propose numerical solutions of the depth filtration process to evaluate occurs as the particles in suspension transport in porous media. For this, used were different particle and pores sizes.

2014
Thèses
1
  • ANNA RAFAELLA DA SILVA MARINHO
  • Modelo de Risco com Dependência entre os Valores
    das Indenizações e seus Intervalos entre Ocorrências

  • Leader : DEBORA BORGES FERREIRA
  • MEMBRES DE LA BANQUE :
  • BERNARDO BORBA DE ANDRADE
  • CIRA ETHEOWALDA OTINIANO GUEVARA
  • DEBORA BORGES FERREIRA
  • Data: 30 janv. 2014


  • Afficher le Résumé
  • Neste trabalho apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ”A ruin model with dependence between claim sizes and claim intervals”(Albrecher e Boxma [1]). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribução do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.

2
  • ANDRESSA NUNES SIROKY
  • Inferência no Modelo Potência Normal Bimodal Assimétrico

  • Leader : BERNARDO BORBA DE ANDRADE
  • MEMBRES DE LA BANQUE :
  • BERNARDO BORBA DE ANDRADE
  • ANDRE LUIS SANTOS DE PINHO
  • JUVÊNCIO SANTOS NOBRE
  • Data: 31 janv. 2014


  • Afficher le Résumé
  • Neste trabalho foram estudadas questões em aberto relativas ao modelo recém
    proposto por Bolfarine e outros (2013), o modelo potência normal bimodal
    assimétrico (PNBA). Após uma revisão das propriedades básicas do referido
    modelo, nos ocupamos das seguintes questões: desenvolver um algoritmo para
    geracão de amostras aleatórias, comparar os métodos de máxima verossimilhanca
    e de momentos em pequenas amostras e propor um método de reamostragem
    (bootstrap) para comparacão de duas populacões PNBA. Identificamos a
    existência de dificuldades numéricas referentes a estimacão por MV em virtude
    de pouca curvatura da verossimilhança para determinados pontos no espaco
    paramétrico e partir daí foram propostas soluções numéricas de simples
    implementação.

3
  • ANTONIO MARCOS BATISTA DO NASCIMENTO
  • Ergodicidade em Cadeias de Markov Não-Homogêneas e Cadeias de Markov com Transições Raras
     

  • Leader : JUAN ALBERTO ROJAS CRUZ
  • MEMBRES DE LA BANQUE :
  • JUAN ALBERTO ROJAS CRUZ
  • DEBORA BORGES FERREIRA
  • CÁTIA REGINA GONÇALVES
  • Data: 14 févr. 2014


  • Afficher le Résumé
  • O objetivo central de estudo em Cadeias de Markov Não-Homogêneas são os

    conceitos de ergodicidade fraca e forte. Uma cadeia é ergódica fraca se a

    dependência da distribuição inicial desaparece com o tempo, e é ergódica forte se é

    ergódica fraca e converge em distribuição. A maioria dos resultados teóricos sobre a

    ergodicidade forte supõem algum conhecimento do comportamento limite

    das distribuições estacionárias. Neste trabalho, reunimos alguns resultados gerais

    sobre ergodicidade fraca e forte para cadeias com espaço de estados enumerável, e

    também estudamos o comportamento assintótico das distribuições estacionárias de um

    tipo particular de Cadeias de Markov com espaço de estados finito, chamadas Cadeias

    de Markov com Probabilidades Raras.

4
  • JOCELÂNIO WESLEY DE OLIVEIRA
  • Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura
  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • CARLA ALMEIDA VIVACQUA
  • FRANCISCO LOUZADA NETO
  • Data: 14 févr. 2014


  • Afficher le Résumé
  • Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e deseja levar em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta e o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.
5
  • ALEX WAGNER PEREIRA
  • CONSEQUÊNCIAS DA ANÁLISE INADEQUADA DE UM EXPERIMENTO FATORIAL 2k EM PARCELAS SUBDIVIDIDAS E SEM REPLICAÇÃO
  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • ANDRE LUIS SANTOS DE PINHO
  • ALINE DE HOLANDA NUNES MAIA
  • Data: 13 mars 2014


  • Afficher le Résumé
  • Em experimentos com vários fatores em que alguns são mais difíceis de mudar que outros, pode ser inconveniente executar as provas do experimento em uma forma completamente aleatória, levando o pesquisador a criar naturalmente uma restrição na ordem de execução para poupar tempo ou reduzir os custos. Este tipo de restrição pode resultar em uma generalização do planejamento fatorial, conhecida como experimentos em parcelas subdivididas. Na prática, é comum executar um experimento em parcelas subdivididas e analisá-lo como se fosse completamente aleatorizado. O objetivo principal do trabalho é avaliar o impacto de analisar um experimento com restrição na aleatorização como completamente aleatorizado.
6
  • ELVIS NERIS DE MEDEIROS
  • NI-GMRES Precondicionado

  • Leader : JULIA VICTORIA TOLEDO BENAVIDES
  • MEMBRES DE LA BANQUE :
  • JULIA VICTORIA TOLEDO BENAVIDES
  • ROBERTO HUGO BIELSCHOWSKY
  • MARIA APARECIDA DINIZ EHRHARDT
  • Data: 22 avr. 2014


  • Afficher le Résumé
  • Neste trabalho estudamos o problema não linear F(X) = 0, onde F é continuamente diferenciável com F : Rn-> Rn. Para solucioná-lo empregamos o método de Newton Inexato obtendo um sistema linearizado J(xk)sk =-F(xk), onde J(xk) representa a matriz Jacobiana
    no ponto xk e o passo iterativo sk é calculado por meio do método do Resíduo Mínimo
    Generalizado (GMRES), que pertence à família dos métodos de projeção em subespaços de Krylov. Afim de evitar de evitar o acréscimo no custo computacional devido ao aumento

    a cada iteração na dimensão do subespaço de Krylov utilizamos o GMRES com recomeços ou GMRES(m), o qual pode apresentar problemas de estagnação (duas soluções consecutivas iguais ou quase iguais). Uma das maneiras de contornar essa estagnação

    está no uso de precondicionadores no sistema inicial Ax = b, passando a um sistema equivalente do tipo M-1Ax = M-1b onde a matriz M é chamada de precondicionador e tem o papel de facilitar a solução do sistema inicial. A escolha de precondicionadores é uma área de pesquisa que remete ao conhecimento específico a priori do problema a ser resolvido e/ou da estrutura da matriz dos coeficientes A. Neste trabalho buscamos estudar o precondicionamento pela esquerda no método do Newton Inexato - GMRES(m). Apresentamos também uma estratégia que permite a mudança entre 3 tipos de precondicionadores (Jacobi, ILU e SSOR) dependendo de informações advindas da aplicação do GMRES(m) a cada iteração do Newton Inexato, ou seja, a cada vez que se resolve o sistema linearizado precondicionado. Assim fazemos ao final uma comparação entre nossas estratégias e o uso de precondicionadores fixos na resolução de problemas teste por meio do NI-GMRES.

7
  • ALLYSON FERNANDES LIANDRO
  • A Distribuição F Generalizada para Selecionar Modelos de Sobrevivência com Fração de Cura

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JUVÊNCIO SANTOS NOBRE
  • Data: 3 juin 2014


  • Afficher le Résumé
  • A analise de sobrevivência paramétrica estuda o tempo até a ocorrência de um evento com base no ajuste de modelos probabilísticos fazendo uso frequente de modelos flexíveis para a escolha de um modelo mais simples e fácil de interpretar. Nesse sentido, a distribuição F generalizada tem a vantagem de incluir várias  distribuições importantes como casos especiais, com Weibull, Log-normal, log-logstica entre outras. Modelos de sobrevivência que tratam de estudos em que um percentual dos indivduos não apresentam a ocorrência do evento de interesse, mesmo acompanhados por um longo período de tempo, são chamados de modelos de longa duração ou modelos de fração de cura e vem sendo estudados nos últimos anos por diversos autores. Neste contexto, este trabalho tem como objetivo o estudo de características teóricas e computacionais associadas ao ajuste do modelo F generalizado com fração de cura.

8
  • PAULO DE SOUSA SOBRINHO
  • Algoritmos genéticos canônico e elitista: Uma abordagem comparativa

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DIONE MARIA VALENCA
  • EDMILSON RODRIGUES PINTO
  • Data: 2 juil. 2014


  • Afficher le Résumé
  • Este trabalho tem como objetivo apresentar as diferenças entre os algoritmos genético canônico e elitista. Para isso explicamos detatalhadamente cada etapa dos algoritmos, sua modelagem via cadeias de Markov e suas convergências. Utilizamos a versão elitista apresentada no artigo  MULTISTAGE MARKOV CHAIN MODELING OF THE GENETIC ALGORITHM AND CONVERGENCE RESULTS a fim de desenvolver simulações numéricas comparativas.

9
  • BRUNO DE LIMA BARBOSA
  • O USO DE MODELOS DE MARKOV OCULTOS NO ESTUDO DO FLUXO DE ÁGUA EM RIOS INTERMITENTES

  • Leader : BERNARDO BORBA DE ANDRADE
  • MEMBRES DE LA BANQUE :
  • BERNARDO BORBA DE ANDRADE
  • FRANCISCO DE ASSIS SALVIANO DE SOUZA
  • LUZ MILENA ZEA FERNANDEZ
  • Data: 4 sept. 2014


  • Afficher le Résumé

  • Neste trabalho, apresentamos nosso entendimento acerca do artigo de Aksoy (2003), executando uma aplicação do modelo por ele apresentado, com o intuito de gerar dados de fluxos intermitentes, a partir de bancos de dados brasileiros. Em seguida, construímos um modelo oculto de Markov como uma nova proposta de abordagem para o problema. Nele utilizamos distribuições gama para simular os aumentos e decréscimos dos fluxos dos rios.

2013
Thèses
1
  • RAFAELA HORACINA SILVA ROCHA SOARES
  • Modelo de Risco controlado por resseguros e desigualdades para a probabilidade de ruína

  • Leader : DEBORA BORGES FERREIRA
  • MEMBRES DE LA BANQUE :
  • CÁTIA REGINA GONÇALVES
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 28 févr. 2013


  • Afficher le Résumé
  • Neste trabalho apresentamos resultados teóricos e numéricos referentes a um Modelo
    de Risco com Taxa de Juros e Resseguro Proporcional baseados no artigo Inequalities
    for the ruin probability in a controlled discrete-time risk process de Rosario Romera e
    Maikol Diasparra. Equações recursivas e integrais para a Probabilidade de
    Runa são obtidas bem como cotas superiores para a mesma por diferentes abordagens, a
    saber, pela clássica desigualdade de Lundberg, pela abordagem Indutiva e pela abordagem
    Martingale. Técnicas de estimação de densidade (não-parametricas) são utilizadas para a
    obtenção das cotas para a Probabilidade de Ruína e os algoritmos utilizados na simulação
    são apresentados.

2
  • JOSEMIR RAMOS DE ALMEIDA
  • Estimação Clássica e Bayesiana em Modelos de Sobrevida com Fração de Cura

  • Leader : BERNARDO BORBA DE ANDRADE
  • MEMBRES DE LA BANQUE :
  • BERNARDO BORBA DE ANDRADE
  • DIONE MARIA VALENCA
  • JOSÉ AILTON ALENCAR ANDRADE
  • Data: 22 mars 2013


  • Afficher le Résumé
  • Na An ́ lise de Sobrevivˆ ncia, os modelos de longa duracao permitindo uma generalizacao dos modelos basicos no sentido de modelar a parcela da populacao em estudo que é imune ao evento de interesse. Neste trabalho ilustramos e comparamos as estimacoes Bayesiana e frequentista com base nos modelos de mistura padr ̃ o exponencial e de tempo de promocao aplicados a uma base de dados descrita em Kersey et al. (1987), que consiste em dois grupos de pacientes com leucemia submetidos a dois tipos de transplantes. Os procedimentos comparados foram o m ́ todo de Laplace, m ́ todo de m ́ xima verossimilhanca e amostrador de Gibbs.

3
  • ELISANGELA DA SILVA RODRIGUES
  • Analise de Resíduos em Modelos de Tempo de Falha Acelerado com Efeito Aleatorio

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • HELENO BOLFARINE
  • JULIO DA MOTTA SINGER
  • Data: 15 avr. 2013


  • Afficher le Résumé
  • Apresentamos tecnicas de analise de resduos para avaliar o ajuste de dados de sobrevivênencia correlacionados por meio de Modelos de Tempo de Falha Acelerado (MTFA) com efeito aleatorio. Propomos um procedimento de imputação para as informações censuradas e consideramos três tipos de resíduos para avaliar diferentes caractersticas do modelo. Ilustramos as propostas com a analise do ajuste de um MTFA com efeito
    aleatorio a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de pocos de petroleo.

4
  • MARIA JUCIMEIRE DOS SANTOS
  • Uma estratégia aleatória chamada de Moses.

  • Leader : JUAN ALBERTO ROJAS CRUZ
  • MEMBRES DE LA BANQUE :
  • DANIELE DA SILVA BARATELA MARTINS NETO
  • DEBORA BORGES FERREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • Data: 24 avr. 2013


  • Afficher le Résumé
  • Neste trabalho é estudado um algoritmo evolutivo chamado de MOSE,o qual foi introduzido por François em 1996.Resultados assintóticos deste algoritmo,comportamento das distribuiçoes estacionárias,foram derivados por François,em 1998,da teoria de Freidlin e Wentzell,detalhamentos destes resultados estão neste trabalho.Por outro lado,notamos que uma abordagem alternativa da convergência do algoritmo é possível sem fazer uso dos resultados de Freidlin e Wentzell,obtendo-se a visita quase certa do algoritmo ás populaçoes que contém o mínimo global.Também algumas simulaçoes no Matlab são apresentadas.

     

5
  • ALDEMIR CIRILO DA SILVA
  • Modelagem Matemática e Computacional de Fenômenos Eletrocinéticos

    em Meios Porosos Carregados Eletricamente

  • Leader : SIDARTA ARAUJO DE LIMA
  • MEMBRES DE LA BANQUE :
  • SIDARTA ARAUJO DE LIMA
  • JULIA VICTORIA TOLEDO BENAVIDES
  • VIVIANE KLEIN
  • LEONARDO JOSÉ DO NASCIMENTO GUIMARÃES
  • Data: 5 août 2013


  • Afficher le Résumé
  • Neste trabalho derivamos uma modelagem matemática e computacional multiescala para o movimento de fluidos e transporte dos solutos utilizando a técnica de homogeneização de estruturas periódicas. Na escala nanoscópica modelamos os fenômenos eletroquímicos fazendo uso da teoria da camada dupla de Gouy-Chapmann. Na escala do poro, assumimos as partículas sólidas carregadas eletricamente, consideradas rígidas e incompressíveis, com a matriz
    porosa saturada por uma solução aquosa salina. Reações eletroquímicas de ionização, hidrólise e eletrólise dão origem a solutos dissociados na fase aquosa. Para a modelagem do movimento da solução aquosa e transporte dos  íons,  postulamos a equação de Stokes que governa a eletro-hidrodinâmica do fluido e equações de Nernst-Planck do contínuo para  o movimento dos solutos iônicos juntamento com condições de interface para o deslizamento dos ions na camada dupla e adsorção eletro-química das espécies na interface fluido/sólido. O sistema de equações microscópico/nanoscópico é derivado na escala macroscópica fazendo uso da técnica de perturbação assintótica denominada homogeneização de estruturas periódicas. Simulação computacionais são propostas com o objetivo de quantificar fenômenos eletrocinéticos em meios porosos argilosos.

6
  • MARCIO LEMOS DO NASCIMENTO
  • Unicidade e Discretização para problemas de valor inicial

  • Leader : NIR COHEN
  • MEMBRES DE LA BANQUE :
  • NIR COHEN
  • JULIA VICTORIA TOLEDO BENAVIDES
  • DANIEL CORDEIRO DE MORAIS FILHO
  • Data: 13 août 2013


  • Afficher le Résumé
  • O presente trabalho tem dois objetivos: (i) a realização de uma pesquisa bibliogr
    a ca sobre os criterios de unicidade de solução para problemas de valor inicial
    de equações diferenciais ordinarias. (ii) Introduzir uma modi cação do metodo de
    Euler que parece ser capaz de convergir a uma das soluções do problema, caso a
    solução não seja única.

7
  • IVANILDO FREIRE PEREIRA
  • Parâmetro de regularização em problemas inversos: Estudo numérico com a Transformada de Radón

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • MEMBRES DE LA BANQUE :
  • ROBERTO HUGO BIELSCHOWSKY
  • EDGAR SILVA PEREIRA
  • WALTER EUGENIO DE MEDEIROS
  • REGINALDO DE JESUS SANTOS
  • Data: 20 sept. 2013


  • Afficher le Résumé
  • Problemas inversos, usualmente recaem em resolver alguma equação do tipo f(x) = b, onde cada equação fi(x) = bi  pode ser   pensada como uma medida de um dado x a ser recuperado. Usualmente são mal postos, no sentido de corresponderem a equações que podem não ter solução exata, podem ainda ter  muitas soluções,  ou ainda, o que é o mais comum, ter soluções muito instáveis a ruídos na obtenção de b. Há várias formas de “regularizar” a obtenção de soluções de tais problemas e a mais “popular” seria a de Tykhonov, que corresponde a:

     

                                   Minimizar  ||f(x) – b||2 + l ||L(x – x0) ||2       (I)

     

    A regularização pretendida corresponde a se escolher o operador l, de tal forma que o problema I tenha soluções estáveis com perturbações em b e que aproximem soluções do problema de mínimos quadrados usual, no caso de se fazer l  0.   O primeiro termo de (I) representa o ajuste aos dados e o segundo termo penaliza a solução de forma a regularizar o problema e produzir uma solução estável a ruídos.  Se l = 0, isto significa que estamos procurando  uma solução de quadrados mínimos para o problema, o  que usualmente é insuficiente para problemas mal postos. O termo de regularização adicionado  introduz um viés na solução ao penalizar o ajuste com um termo adicional.   Se L for a identidade, por exemplo, isto significa que estamos apostando que a solução estaria relativamente próxima de x0. Se L for o operador gradiente, estamos apostando que a solução x é razoavelmente suave.  Nas aplicações, L usualmente é escolhido como um operador adaptado ao problema estudado e de forma se valer de  informações a priori disponíveis sobre as soluções  procuradas.

     

    A escolha do parâmetro l > 0 é crucial neste métodos, pelo fato que se l é excessivo, isto tende a  enfraquecer  excessivamente o ajuste  aos dados, induzindo um  ajuste da solução  à   x0.  Se l for pequeno demais a regularização pretendida acaba não acontecendo e a solução do problema (I)  usualmente acaba ficando muito instável e contaminada por ruídos. Há várias técnicas disponíveis na literatura para tal escolha, sobretudo se f  é uma função linear f(x) = Ax. O objetivo da dissertação é o de estudar algumas destas técnicas de ajuste do parâmetro l no caso de operadores discretizados,  vale dizer, x no  Rn.  Em especial, destacamos os métodos de ajuste do parâmetro l   reconhecidos na literatura como L-curve, GCV e método da discrepância, e objetiva-se   comparar estes métodos em testes feitos com a transformada de Radon e tendo como regularizador um operador de derivada de primeira ordem.  Os resultados dos testes realizados revelam  pontos interessantes na relação entre os diferentes estimadores para o parãmetro de regularização e que sugerem  um aprofundamento teórico além do escopo desta dissertação.

2012
Thèses
1
  • MARIANA BARBOSA DA SILVA
  • Estimadores do Tipo Núcleo para variáveis iid com Espaço de Estados Geral.

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DEBORA BORGES FERREIRA
  • JAQUES SILVEIRA LOPES
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 31 mai 2012


  • Afficher le Résumé
  • Neste trabalho estudamos as propriedades assintóticas dos Estimadores do Tipo Núcleo associados a variáveis aleatórias iid com espaço de estados geral.Verificamos que esses estimadores são assitoticamente não viciados, consistentes em média quadrática, fortemente consistentes e assintoticamente normal distribuidos. Finalizamos com um exemplo, onde ilustramos via simulação a importância do tamanho da janela.

2
  • ELVIS DOS SANTOS SAMPAIO
  • GRÁFICO MISTO DE CONTROLE DA MÉDIA COM AMOSTRAGEM EM DOIS ESTÁGIOS

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • PLEDSON GUEDES DE MEDEIROS
  • DIONE MARIA VALENCA
  • ANTONIO FERNANDO BRANCO COSTA
  • Data: 20 juil. 2012


  • Afficher le Résumé
  • Esta dissertação propõe um novo gráfico (ou procedimento) de controle para monitorar a centralidade
    de um processo (média) por meio da junção dos gráficos X-barra e npx. Basicamente o
    procedimento consiste em dividir o tamanho n da amostra em duas partes (n1 e n2), definidas
    pelo processo de otimização. Realiza-se a inpeção por atributos na sub-amostra de tamanho n1
    por meio do gráfico npx. Caso seja detectada a presença de alguma causa especial inspeciona-se
    a parte relativa a inspeção por variáveis na sub-amostra de tamanho n2 por meio do gráfico X-barra. A
    possibilidade de não inspecionar todos os itens da amostra pode promover uma redução tanto no
    custo quanto no tempo gasto para inspecionar os itens da amostra. Descreve-se a metodologia de
    construção, avaliação e o funcionamento do gráfico aqui proposto, e com o auxílio do software
    estatístico R© é feito um estudo comparativo entre os gráficos individuais X-barra e npx e o gráfico
    misto. Neste estudo verificou-se que o procedimento proposto fornece várias opções concorrentes
    com o gráfico X-barra para um dado tamanho de amostra n e um desvio na média delta. Os valores do
    tempo esperado até o sinal (TES) inferiores aos provenientes do gráfico individual X evidenciaram
    que o gráfico misto é uma ferramenta eficaz no monitoramento de processos capaz de substituir
    com certa vantagem o procedimento usual em que é aplicado o gráfico das médias.

3
  • THIAGO JEFFERSON DE ARAUJO
  • Métodos numéricos para resolução de equações diferenciais ordinárias lineares baseados em interpolação por splines

  • Leader : NIR COHEN
  • MEMBRES DE LA BANQUE :
  • NIR COHEN
  • ALLAN DE MEDEIROS MARTINS
  • DANIEL CORDEIRO DE MORAIS FILHO
  • Data: 13 août 2012


  • Afficher le Résumé
  • Neste trabalho desenlvolvemos um método de resolução de problemas de valor inicial com equações diferenciais ordinárias baseado em splines, com ênfase em equações lineares. O método serve como alternativa para os métodos tradicionais como Runge-Kutta e no caso linear com coeficientes constantes, evita o cálculo de raízes de polinômios. O método foi aplicado para um problema central da teoria de controle, o problema de resposta a degrau para uma EDO linear, incluindo o caso de coeficientes não-constantes, onde a alternativa pelo cálculo de raízes não existe. Implementamos um algoritmo eficiente que usa apenas operações tipo matriz-vetor. O intervalo de trabalho (até o tempo de acomodação) para as equações estáveis com coeficientes constantes é determinado pelo cálculo da raiz menos estável do sistema, a partir de uma adaptação do método da potência. Através de simulações, comparamos algumas variantes do método. Em problemas lineares gerais com malha suficientemente fina, o novo método mostra melhores resultados em comparação com o método de Euler. No caso de coeficientes constantes, onde existe a alternativa baseada em cálculo das raízes, temos indicações que o novo método pode ficar competitivo para equações de grau bastante alto.
4
  • HERICA PRISCILA DE ARAUJO CARNEIRO
  • TESTES DE HIPÓTESES EM MODELOS DE SOBREVIVÊNCIA COM FRAÇÃO DE CURA

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • GAUSS MOUTINHO CORDEIRO
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 14 août 2012


  • Afficher le Résumé
  • Modelos de sobrevivência tratam do estudo do tempo até e a ocorrência de um evento. Contudo em algumas situações, uma proporção da população pode não estar mais sujeita a ocorrência deste evento. Modelos que tratam desta abordagem são chamados de modelos de fração de cura. Existem poucos estudos na literatura sobre testes de hipóteses aplicadas a modelos de fração de cura. Recentemente foi proposta uma nova estatística de teste, denominada estatística gradiente que possui distribuição assintótica equivalente a das estatísticas usuais. Alguns estudos de simulação veem sendo desenvolvidos no sentido de explorar características dessa nova estatística e comparar com as estatísticas clássicas, aplicadas a diferentes modelos. Este trabalho tem como principal objetivo estudar e comparar o desempenho do teste gradiente e do teste da razão de verossimilhanças, em modelos de fração de cura. Para isso descrevemos características do modelo e apresentamos os principais resultados assintóticos dos testes. Consideramos um estudo de simulação com base no modelo de tempo de promoção com distribuição Weibull, para avaliar a desempenho dos testes em amostras finitas. Uma aplicação e realizada para ilustrar os conceitos estudados.

     

5
  • CATIA REGINA DOS SANTOS SILVA
  • Recuperação de sinais esparsos

     

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • MEMBRES DE LA BANQUE :
  • LUIS GUSTAVO NONATO
  • NIR COHEN
  • ROBERTO HUGO BIELSCHOWSKY
  • WALTER EUGENIO DE MEDEIROS
  • Data: 27 nov. 2012


  • Afficher le Résumé
  • Um dos temas mais populares em recuperação de dados nos últimos dez anos gira em torno da descoberta que  a recuperação de sinais esparsos em sistemas lineares, pode ser feita com um número de equações bem menor que o número de variáveis.  Em linhas gerais, se A = Amxn ,   queremos  resolver Ax = b    e procuramos soluções com  s << n entradas não-nulas em algum sistema de coordenadas, isto pode ser feito com um número de equações m << n,  minimizando  a norma 1 de x , sujeito à restrição Ax = b, desde que estejam atendidas condições de “quase ortogonalidade”  nas colunas das submatrizes  de A formadas por s colunas  (RIP – Restricted Isometry property  +  s << n) ( Vide [1]).

    O objetivo desta dissertação é situar o problema, discutir e trabalhar uma técnica de visualização do sucesso na  recuperação de imagens em função de s, m e n, apontada em [2],  bem como usá-la para comparar  a recuperação obtida em casos onde a hipótese  RIP é satisfeita para a matriz A, com o que acontece com a transofrmada de Radon, onde  a hipótese RIP não é verificada, mas no qual, ainda assim, se obtém resultados promissores  na recuperação de sinais esparsos.

    [1] – Emmanuel J. Candès e Michael B. Waking - “People hearing without listening:  An Introduction to compressive sensing” -  IEEE Signal Processing Magazine (2008)  Volume: 25, Issue: 2, Publisher: Citeseer, Pages: 21-30.

    Cópia PDF disponível em http://www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdf

    [2] – Jeffrey D Blanchard, Coralia Cartis  e Jared Tanner  -  Compressed Sensing: How Sharp Is the Restricted Isometry Property? - SIAM Rev. 53 (2011), pp. 105-125 (21 pages)

    Cópia PDF disponível em   http://arxiv.org/pdf/1004.5026v1.pdf

2011
Thèses
1
  • ALYSSON LIVIO VASCONCELOS GUEDES
  • Modelo de Tempo de Falha Acelerado com Fração de Cura: Uma abordagem unificada

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JOSEMAR RODRIGUES
  • Data: 19 oct. 2011


  • Afficher le Résumé
  • Neste trabalho apresentamos um estudo sobre o modelo de tempo de falha acelerado com fração de cura sob uma abordagem unificada. O modelo se propõe a estimar simultaneamente o efeito de covariáveis na aceleração/desaceleração do tempo até a ocorrência de um evento e na fração de cura. O método é implementado no software estatístico R. Por fim o modelo é aplicado a dados reais referente ao tempo até o retorno da doença em pacientes diagnosticados com câncer de mama.

2
  • FRANCINARIO OLIVEIRA DE ARAUJO
  • Método de Projeções Ortogonais

  • Leader : ROBERTO HUGO BIELSCHOWSKY
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DANIEL CORDEIRO DE MORAIS FILHO
  • ROBERTO HUGO BIELSCHOWSKY
  • Data: 15 déc. 2011


  • Afficher le Résumé
  • O problema abordado nesta dissertação é a prova da propriedade de limitação para os iterados de um algoritmo iterativo em Rd,  que aplica em cada passo uma projeção ortogonal sobre uma reta em Rd, indexada em uma família de retas dada e permitindo  ordem arbitrária na aplicação das várias projeções. Este problema foi abordado em um artigo de Bàràny  et al. em 1994, que encontrou uma condição necessária e suficiente para o caso d = 2 e analisou  também o caso d > 2 sob algumas condições técnicas. Porém, este artigo usa argumentos intuitivos não triviais e nas suas demonstrações nos parece faltar  rigor. Nesta dissertação detalhamos e  completamos  as demonstrações do artigo de Barány, fortalecendo e clareando algumas de suas  proposições, bem como propiciando pontos de vista complementares  em alguns aspectos do artigo em tela.

3
  • FELIPE HENRIQUE ALVES MAGALHAES
  • Testes em Modelos Weibull na Forma Estendida de Marshall-Olkin

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • BERNARDO BORBA DE ANDRADE
  • JEANETE ALVES MOREIRA
  • FREDY WALTHER CASTELLARES CACERES
  • Data: 28 déc. 2011


  • Afficher le Résumé
  • Em análise de sobrevivência, a variável resposta é, geralmente, o tempo até a ocorrênciade um evento de interesse, chamado de falha e a principal característica de dados de sobrevivência é a presença de censura, que é a observação parcial da resposta. Associadas a essas informações, alguns modelos ocupam uma posição de destaque por sua comprovada adequação a várias situações práticas, entre os quais é possível citar o modelo Weibull. Distribuições na forma estendida de Marshall-Olkin oferecem uma ampliação do comportamento em relação às distribuições básicas de origem, e podem se mostrar mais adequadas para o ajuste de dados de tempo de vida. Este trabalho propõe uma comparação entre duas estatísticas de teste, Razão de Verossimilhança e Gradiente, utilizando a distribuição Weibull em sua forma extendida de Marshall-Olkin. Um exemplo numérico ilustra o procedimento.

2010
Thèses
1
  • FRANCISCO MOISES CANDIDO DE MEDEIROS
  • ESTIMAÇÃO PARAMÉTRICA E NÃO-PARAMÉTRICA EM MODELOS DE MARKOV OCULTOS

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • CHANG CHUNG DOREA
  • FRANCISCO ANTONIO MORAIS DE SOUZA
  • Data: 10 févr. 2010


  • Afficher le Résumé
  • Neste trabalho, estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso finito, estudamos os algoritmos para frente e para trás para determinar a probabilidade da seqüência observada e em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e utilizamos na construção da convergência na norma  de funções limitadas da cadeia de Markov. Vimos também que, quando o processo de Markov satisfaz a condição f-mixing e admite uma distribuição estacionária  temos,

     

                   q.c.

     

    onde  é o estimador do tipo núcleo em  com a função  e a seqüência  apropriadamente escolhidas e  é a densidade da variável aleatória  do processo observado de um dado modelo de Markov oculto.

2
  • MARIA APARECIDA DA SILVA SOARES
  • ESTIMADOR DO TIPO NÚCLEO PARA DENSIDADES LIMITES DE CADEIAS DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBRES DE LA BANQUE :
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • DANIELE DA SILVA BARATELA MARTINS NETO
  • Data: 25 févr. 2010


  • Afficher le Résumé
  • A teoria de estimação de densidades tem por objetivo construir um estimador para uma função densidade de probabilidade desconhecida de uma população, a partir de uma amostra dessa população.

    Estimadores do tipo núcleo associados a cadeias de Markov estritamente

    estacionárias foram considerados por Roussas (1969,1991),Rosemblat (1970) e Athreya e Atuncar (1998) com o objetivo de estimarem densidades em Rd.

    Neste trabalho estudamos a consistência de uma classe de estimadores do tipo núcleo associados a cadeias de Markov com espaço de estados geral.Na primeira parte, assumimos que a cadeia era estritamente estacionária e satisfazia uma condição do tipo mixing. Na segunda parte, sem a condição de estacionariedade foi assumido que a cadeia era geometricamente ergódica.

3
  • CARLOS ALEXANDRE GOMES DA SILVA
  • UMA APLICAÇÃO DA TEORIA DA RUÍNA EM UM MODELO DE MARKOV DE DOIS ESTADOS

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • MICHELLI KARINNE BARROS DA SILVA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 19 mars 2010


  • Afficher le Résumé
  • Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário:  As mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmio.

4
  • SEBASTIAO GOMES DE ANDRADE NETO
  • ESTIMATIVA DE EXPOENTES CRÍTICOS EM PERCOLAÇÃO

  • Leader : MARCELO GOMES PEREIRA
  • MEMBRES DE LA BANQUE :
  • MARCELO GOMES PEREIRA
  • ROBERTO HUGO BIELSCHOWSKY
  • ROOSEWELT FONSECA SOARES
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • Data: 31 mars 2010


  • Afficher le Résumé
  • Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes.

    A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão . Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mencionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos  e . A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantes.

5
  • JOSE CECILIO ROSA NETO
  • Modelagem dos Algoritmos Genético Simples e Simulated Annealing por cadeias de Markov

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • JUAN ALBERTO ROJAS CRUZ
  • MICHELLI KARINNE BARROS DA SILVA
  • Data: 16 avr. 2010


  • Afficher le Résumé
  • Os Algoritmos Genético (AG) e o Simulated Anniling (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado, esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais. Entretanto a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos chamado população, das quais geram outras populações que sempre são aceitas. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov, o AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmos.

6
  • MANASSES PEREIRA NOBREGA
  • ESTUDO COMPARATIVO DE GRÁFICOS DE PROBABILIDADE NORMAL PARA ANÁLISE DE EXPERIMENTOS FATORIAIS NÃO REPLICADOS

  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • CARLA ALMEIDA VIVACQUA
  • DAMIAO NOBREGA DA SILVA
  • ANDRE LUIS SANTOS DE PINHO
  • LUZIA APARECIDA TRINCA
  • Data: 17 mai 2010


  • Afficher le Résumé
  • Os experimentos fatoriais são muito utilizados, especialmente na indústria. Na prática, muitos experimentos são custosos para conduzir, e realizar replicações independentes dos tratamentos pode ser economicamente inviável. Sendo assim, são utilizados os experimentos fatoriais 2k não replicados. Mas, sem replicação não é possível obter uma estimativa direta da variabilidade do erro para se avaliar a significância dos efeitos. Uma das possíveis soluções para este problema é utilizar o gráfico normal ou o gráfico semi-normal dos efeitos.

    Embora Daniel (1959) tenha desenvolvido e usado o gráfico semi-normal em suas análises, afirrmando que o estudo da distribuição acumulada empírica dos contrastes usuais calculados deve ser útil na análise e interpretação de experimentos 2k, sua posição mudou. Em 1976, Daniel publica seu livro Applications of Statistics to Industrial Experimentation, no qual veio preferir o gráfico normal, citando sua grande habilidade para revelar discrepâncias nas suposições. Contribuindo para essa questão, ainda há uma afirmação (não confirmada) de que Daniel tenha invertido de posição, favorecendo o gráfico semi-normal novamente.

    Enfim, aos cinquenta anos de publicação do artigo de Daniel sobre o gráfico semi-normal, este trabalho busca verificar as seguintes questões: O gráfico semi-normal  é melhor que o gráfico normal? Em que situações? Que informações o gráfico semi-normal acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo gráfico normal? Quais as restrições no uso do gráfico semi-normal?

7
  • ENAI TAVEIRA DA CUNHA
  • ESTIMADORES DO TIPO NÚCLEO PARA A DENSIDADE DE TRANSIÇÃO DE UMA CADEIA DE MARKOV COM ESPAÇO DE ESTADOS GERAL

  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBRES DE LA BANQUE :
  • CÁTIA REGINA GONÇALVES
  • DEBORA BORGES FERREIRA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 21 mai 2010


  • Afficher le Résumé
  • No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral .

    A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionária .

8
  • JOAO BATISTA CARVALHO
  • PREDIÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO COM EFEITO ALEATÓRIO PARA AVALIAÇÃO DE RISCOS DE FALHA EM POÇOS PETROLÍFEROS

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • IDEMAURO ANTONIO RODRIGUES DE LARA
  • JUVÊNCIO SANTOS NOBRE
  • Data: 28 mai 2010


  • Afficher le Résumé
  • Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva.

9
  • DANIEL MATOS DE CARVALHO
  • DOWSCALING ESTOCÁSTICO PARA EXTREMOS CLIMÁTICOS VIA INTERPOLAÇÃO ESPACIAL

  • Leader : PAULO SERGIO LUCIO
  • MEMBRES DE LA BANQUE :
  • PAULO SERGIO LUCIO
  • FRANCISCO ALEXANDRE DA COSTA
  • PAULO JUSTINIANO RIBEIRO JUNIOR
  • Data: 8 juin 2010


  • Afficher le Résumé
  • Os dados de reanálise de temperatura do ar e precipitação do NCEP – National Centers for Environmental Predictions serão refinados para a produção dos níveis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: São Luis, Teresina, Fortaleza, Natal, João Pessoa, Recife, Maceió, Aracaju e Salvador. A grade do Ncep possui resolução espacial de 2.5° x 2.5° disponibilizando séries históricas de 1948 a atualidade. Com esta resolução a grade envolve o NB utilizando 72 localizações (séries).  A primeira etapa consiste em ajustar os modelos da Distribuição Generalizada de Valores Extremos (GEV) e da Distribuição Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o método Geoestatístico denominado Krigagem, os parâmetros da GEV e GPD serão interpolados espacialmente. Considerando a interpolação espacial dos parâmetros, os níveis de retorno para extremos de temperatura do ar e precipitação poderão ser obtidos aonde o NCEP não fornece informação relevante. Visando validar os resultados desta proposta, serão ajustados os modelos GEV e GPD as séries observacionais diárias de temperatura e precipitação de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpolação espacial. Por fim o método de Regressão Quantílica será utilizado como método mais tradicional com a finalidade de comparação de métodos.

10
  • LENILSON PEREIRA DA SILVA
  • AJUSTE PREVENTIVO VERSUS AJUSTE CORRETIVO NO CONTROLE ON-LINE DE PROCESSO DO NÚMERO DE NÃO-CONFORMIDADES NUM ITEM INSPECIONADO

  • Leader : PLEDSON GUEDES DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • DEBORA BORGES FERREIRA
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • ROBERTO DA COSTA QUININO
  • Data: 15 juin 2010


  • Afficher le Résumé
  • Numa linha de produção, todo processo está sujeito a ocorrências de causas que venham a aparecer causando perdas na qualidade do produto e consequentemente prejuízos ao fabricante. Identificar essas causas e removê-las é tarefa do responsável pelo monitoramento do processo.

    Este trabalho tem como objetivo principal fazer o monitoramento num processo através do controle on-line de qualidade por atributos, considerando o número de não-conformidades no item inspecionado. A estratégia de decisão para verificar se o processo está sob controle, está diretamente associado aos limites de controle do gráfico de não-conformidades do processo. Uma política de ajustes preventivos é incorporada com o objetivo de aumentar a fração conforme do processo. Com o auxílio do software R, é feita uma análise de sensibilidade do modelo proposto mostrando em que situações é mais interessante fazer o ajuste preventivo.

11
  • MARCONIO SILVA DOS SANTOS
  • NÃO VÍCIO ASSINTÓTICO, CONSISTÊNCIA FORTE E UNIFORMEMENTE FORTE DE ESTIMADORES DO TIPO NÚCLEO PARA DADOS DIRECIONAIS SOBRE UMA ESFERA UNITÁRIA K-DIMENSIONAL

  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • ANIURA MILANES BARRIENTOS
  • Data: 28 juin 2010


  • Afficher le Résumé
  • Nesse trabalho estudamos o não-vício assintótico, a consistência forte e a consistência uniformemente forte de um estimador do tipo núcleo, que como a maioria dos estimadores é construído com base em n observações i.i.d. X1,..., Xn de X, para a densidade f(x) de um vetor aleatório X que assume valores em uma esfera unitária k-dimensional.

2009
Thèses
1
  • RENATA MENDONCA RODRIGUES VASCONCELOS
  • CONTROLE ON-LINE DE PROCESSOS POR ATRIBUTOS: UMA ABORDAGEM ECONÔMICA PARA O NÚMERO DE NÃO-CONFORMIDADES EM UM ITEM INSPECIONADO
  • Leader : PLEDSON GUEDES DE MEDEIROS
  • MEMBRES DE LA BANQUE :
  • JAQUES SILVEIRA LOPES
  • LINDA LEE HO
  • PLEDSON GUEDES DE MEDEIROS
  • Data: 2 mars 2009


  • Afficher le Résumé
  • O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m produzidos. Se o item examinado for conforme a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio do (item produzido) sistema de controle que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle do gráfico do número de não-conformidades no item inspecionado. Palavras-chave: Controle on-line de processo para atributos; número de não-conformidades na amostra; cadeia de Markov; modelo econômico.
2
  • RENATA SANTANA FONSECA
  • Métodos de Máxima Verossimilhança para Modelos de Sobrevivência com Fração de Cura e Omissão nas Covariáveis
  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DAMIAO NOBREGA DA SILVA
  • DIONE MARIA VALENCA
  • JEANETE ALVES MOREIRA
  • SILVIA MARIA DE FREITAS
  • Data: 6 mars 2009


  • Afficher le Résumé
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e consideramos que algumas destas covariáveis podem não ser observadas para todos os indivíduos, o que resulta em algumas lacunas na matriz de dados. Consideramos apenas os casos em que as covariáveis omissas são categóricas e obtemos estimativas dos parâmetros através do algoritmo EM ponderado. Não há na literatura estudo de simulação para este modelo quando as covariáveis apresentam omissão. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos (ACC). Avaliamos também através de simulações o impacto na estimativa dos parâmetros quando aumentamos o percentual de imunes e de censura entre indivíduos não imunes. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método. Palavras-chave: Análise de sobrevivência; fração de cura; omissão; algoritmo EM.
3
  • ALLAN ROBERT DA SILVA
  • EXPERIMENTOS COM RESTRIÇÕES NA ALEATORIZAÇÃO ENVOLVENDO MISTURAS
  • Leader : CARLA ALMEIDA VIVACQUA
  • MEMBRES DE LA BANQUE :
  • ANDRE LUIS SANTOS DE PINHO
  • CARLA ALMEIDA VIVACQUA
  • CRISTIANO FERRAZ
  • Data: 29 avr. 2009


  • Afficher le Résumé
  • Durante a fase de planejamento de um experimento, um dos grandes desafios é lidar com a limitação de recursos. Assim, planos completamente aleatorizados nem sempre representam uma alternativa viável de realizar um experimento. Naturalmente, planos experimentais com restrições na aleatorização, como os da classe split-plot e strip-plot tornam-se práticos e úteis. Neste trabalho, aborda-se restrição na aleatorização no contexto de experimentos com misturas, cuja motivação inicial foi um plano experimental inovador proposto para uma aplicação em telhas cerâmicas do RN. A partir desse fato, uma revisão bibliográfica foi realizada, no qual foi encontrado um artigo que usou um plano experimental com características semelhantes. Neste artigo, os autores investigam a eficiência de métodos de estimação de parâmetros de um modelo para um plano experimental com restrições na aleatorização. Surgiu então a idéia de verificar a eficácia de métodos de estimação de um modelo para um novo plano experimental com características que se assemelham ao plano discutido no artigo, mas com uma estrutura de erro semelhante ao plano inovador proposto. Diferentemente do que ocorreu no artigo, os métodos de estimação não foram tão eficientes como se imaginava. Esse resultado foi obtido a partir de simulações realizadas no software estatístico R. Ao final, discussões sobre os resultados obtidos e sugestões para novas investigações são dadas.
4
  • ANTONIO HERMES MARQUES DA SILVA JUNIOR
  • Testes Escore Corrigidos para Modelos Lineares Generalizados no Ambiente R
  • Leader : DAMIAO NOBREGA DA SILVA
  • MEMBRES DE LA BANQUE :
  • DAMIAO NOBREGA DA SILVA
  • DIONE MARIA VALENCA
  • SILVIA LOPES DE PAULA FERRARI
  • Data: 28 mai 2009


  • Afficher le Résumé
  • Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções se dá no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das dificuldades para se obter tais expressões, ou até mesmo para modificá-las quando se altera os componentes aleatórios ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.
5
  • JOAO SATURNINO DA SILVA NETO
  • APLICAÇÃO DAS TÉCNICAS PATH-RELINKING E VOCABULARY BUILDING NA MELHORIA DE PERFORMANCE DO ALGORITMO MEMÉTICO PARA O PROBLEMA DO CAIXEIRO VIAJANTE ASSIMÉTRICO
  • Leader : DARIO JOSE ALOISE
  • MEMBRES DE LA BANQUE :
  • DARIO JOSE ALOISE
  • FRANCISCO CHAGAS DE LIMA JUNIOR
  • MARCELO GOMES PEREIRA
  • Data: 10 juil. 2009


  • Afficher le Résumé
  • O presente trabalho tem como propósito melhorar o procedimento estado-da-arte para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algorítmo memético projetado especificamente para essa variante do Problema do Caixeiro Viajante. O algorítmo será implementado e acrescido de módulos que incorporam as técnicas de otimização conhecidas como Path Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos. A técnica de Vocabulary Building foi idealizada por Fred Glover no início da década de 90 e ainda é considerada pouco explorada na literatura.
6
  • HELENICE LOPES BARBOSA
  • MÉTODOS ESTATÍSTICOS EM CADEIAS DE MARKOV
  • Leader : VIVIANE SIMIOLI MEDEIROS CAMPOS
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • JAQUES SILVEIRA LOPES
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 17 août 2009


  • Afficher le Résumé
  • Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson, que é o aparato teórico do conhecido teste qui-quadrado ou teste como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra quando e o , . Em seguida detalhamos os argumentos usados em Billingley, no artigo STATISTICAL METHODS IN MARKOV CHAINS, os quais demonstram a convergência em distribuição de uma estatística, semelhante a Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finito.
7
  • KALINE ANDREZA DE FRANCA CORREIA ANDRADE
  • PERCOLAÇÃO EM UMA REDE MULTIFRACTAL
  • Leader : MARCELO GOMES PEREIRA
  • MEMBRES DE LA BANQUE :
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • MARCELO GOMES PEREIRA
  • ROBERTO HUGO BIELSCHOWSKY
  • ROOSEWELT FONSECA SOARES
  • Data: 28 août 2009


  • Afficher le Résumé
  • Neste trabalho é feita uma análise de um tipo de rede, com características multifractais, que serve de suporte para o modelo de percolação. A proposta dessas redes é oferecer uma abordagem mais realista a problemas de condutividade em meios desordenados. Foram estudados o espectro multifractal e as variações que o algoritmo de criação de uma rede impõem sobre a probabilidade crítica.
8
  • PATRICIA BORCHARDT SANTOS
  • ESTIMAÇÃO EM MODELOS DE TEMPO DE FALHA ACELERADO PARA DADOS DE SOBREVIVÊNCIA CORRELACIONADOS

  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • EDWIN MOISES MARCOS ORTEGA
  • JEANETE ALVES MOREIRA
  • Data: 1 déc. 2009


  • Afficher le Résumé
  • Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).

2008
Thèses
1
  • JACKELYA ARAUJO DA SILVA
  • A TEORIA DA RUÍNA APLICADA EM UM MODELO DE EMPRESA FINANCEIRA COM RISCO DE CRÉDITO
  • Leader : ANDRE GUSTAVO CAMPOS PEREIRA
  • MEMBRES DE LA BANQUE :
  • ANDRE GUSTAVO CAMPOS PEREIRA
  • FRANCISCO ANTONIO MORAIS DE SOUZA
  • VIVIANE SIMIOLI MEDEIROS CAMPOS
  • Data: 8 févr. 2008


  • Afficher le Résumé
  • Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classificação de risco de crédito, proposto por Yang (2003). Obtivemos equações recursivas para a probabilidade de ruína em tempo finito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Voltelrra para severidade e distribuição conjunta do capital antes e depois da ruína.
2
  • ISAAC DAYAN BASTOS DA SILVA
  • Análise e Comparação entre Algoritmos de Percolação
  • Leader : MARCELO GOMES PEREIRA
  • MEMBRES DE LA BANQUE :
  • ARY VASCONCELOS MEDINO
  • JOAQUIM ELIAS DE FREITAS
  • MARCELO GOMES PEREIRA
  • Data: 25 juil. 2008


  • Afficher le Résumé
  • Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estimativa teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolação. Palavras-Chave: Percolação. Complexidade de Algortimos. Algoritmos de percolação. Algoritmo de Ziff e Newman e Algoritmo de Elias
3
  • RAFAEL RIBEIRO DE LIMA
  • Modelos de Sobrevivência com Fração de Cura e Erro de Medida nas Covariáveis
  • Leader : DIONE MARIA VALENCA
  • MEMBRES DE LA BANQUE :
  • DIONE MARIA VALENCA
  • HELENO BOLFARINE
  • JEANETE ALVES MOREIRA
  • Data: 11 août 2008


  • Afficher le Résumé
  • Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interesse, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas no modelo para determinar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al, 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reais. Palavras-Chave: Análise de sobrevivência. Fração de cura. Erro de medida.
4
  • FRANCISCO MARCIO BARBOZA
  • Um Estudo da Transformada Rápida Wavelet e sua Conexão com Banco de Filtros
  • Leader : JOAQUIM ELIAS DE FREITAS
  • MEMBRES DE LA BANQUE :
  • EDEMERSON SOLANO BATISTA DE MORAIS
  • JOAQUIM ELIAS DE FREITAS
  • MARCELO GOMES PEREIRA
  • Data: 17 sept. 2008


  • Afficher le Résumé
  • Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque elas conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto). Palavras -chave: Análise de Multiresolução. Banco de Filtros. Wavelets. Transformada Rápida Wavelet.
5
  • RAIMUNDO NONATO CASTRO DA SILVA
  • CARACTERIZAÇÃO ESTATÍSTICA DE EXTREMOS DE PROCESSOS SÍSMICOS VIA DISTRIBUIÇÃO GENERALIZADA DE PARETO
  • Leader : PAULO SERGIO LUCIO
  • MEMBRES DE LA BANQUE :
  • ADERSON FARIAS DO NASCIMENTO
  • PAULO SERGIO LUCIO
  • SILVIA MARIA DE FREITAS
  • WALTER EUGENIO DE MEDEIROS
  • Data: 5 déc. 2008


  • Afficher le Résumé
  • No presente trabalho, foi feito um ajuste para a distribuição Pareto Generalizada (GPD) para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil e foi monitorada continuamente durante dois anos (1987 e 1988). No presente trabalho foram usados esses dados para avaliar a ocorrência de eventos extremos nesta região. A fim de estimar os parâmetros para a GPD, sendo utilizado os seguintes métodos: Moments (moments), Maximum Likelihood (MLE), Biased Probability Weighted Moments (PWMB), Unbiased Probability Weighted Moments (PWMU), Mean Power Density Divergence (MDPD), Median (MED), Pickands (PICKANDS), Maximum Penalized Likelihood (MPLE), Maximum Goodness-of-fit (MGF) e Maximum Entropy (POME). Verificou-se que o MLE, MOMENTS e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Foi observado o risco sísmico para a região com base no limiar estimado de 1,5º, sendo também estimado o nível de retorno dos sismos para os períodos de 10, 50 e 100 anos nesta área. Palavras Chaves: Eventos Extremos. Pareto Generalizada. Maximum Entropy. Risco Sísmico.
SIGAA | Superintendência de Tecnologia da Informação - (84) 3342 2210 | Copyright © 2006-2024 - UFRN - sigaa03-producao.info.ufrn.br.sigaa03-producao