Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFRN

2019
Dissertações
1
  • CESIMAR XAVIER DE SOUZA DIAS
  • SmartNode Dashboards: um framework front-end baseado em Node-RED para criação de Smart City Dashboards

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FREDERICO ARAUJO DA SILVA LOPES
  • GUSTAVO GIRAO BARRETO DA SILVA
  • JAIR CAVALCANTI LEITE
  • Data: 28/01/2019

  • Mostrar Resumo
  • Atualmente diversas cidades têm se envolvido com pesquisas no intuito de fomentar a criação de soluções que dispõe os dados e informações à população, são os chamados City Dashboards. Estas soluções possibilitam aos cidadãos acompanhar os acontecimentos da cidade em tempo real, possibilitando a essas pessoas planejarem suas rotinas baseado no conhecimento gerado sobre o seu contexto local. Mesmo com o número crescente de projetos sendo desenvolvidos com essa finalidade, não há, ainda, trabalhos que sejam voltados a criar estruturas reaproveitáveis ou metodologias que utilizem outros produtos de softwares de código aberto com vistas à padronização de produção de dashboards. Diante disso, esse trabalho se propôs em criar um framework utilizando o Bootstrap. O framework teve a intenção de implementar padrões projetos e de interface web, focados em conteúdos com estruturas reaproveitáveis, utilizando o Node-RED como plataforma de execução. Como resultados deste trabalho, foi possível conceber o SmartNode Dashboard, um framework para criação de interfaces padronizadas e customizáveis. Além de oferecer aos desenvolvedores de dashboards uma metodologia de utilização do SmartNode Dashboard junto ao Node-RED para facilitar e ampliar a capacidade das equipes no tocante ao desempenho, tempo e qualidade no desenvolvimento de dashboards.


  • Mostrar Abstract
  • Nowadays several cities have been involved in research in order to provide the city's data and information to the population through dashboards (so-called City Dashboards). These solutions enable citizens to follow the events of the city in real time, enabling these people to plan their routines based on the knowledge generated about their local context. Even with the growing number of projects being developed for this purpose, there are no jobs that are aimed at creating reusable structures or methodologies that use other open source software products to standardize the production of dashboards. Therefore, this work was proposed in creating a framework based on Bootstrap. The framework was intended to implement standards projects and web interface, focused on content with reusable structures, using Node-RED as an execution platform. As a result of this work, it was possible to design SmartNode Dashboard, a framework for creating standardized and customizable interfaces. In addition to offering dashboard developers a methodology for using SmartNode Dashboard with Node-RED to facilitate and extend teams' ability to perform, time and quality in the development of dashboards.

2
  • JACKSON MEIRES DANTAS CANUTO
  • Derivação e Implantação Semiautomática de Produtos de Software no Contexto da Secretaria de Estado da Agricultura, da Pecuária e da Pesca do RN

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER CIRILO
  • FREDERICO ARAUJO DA SILVA LOPES
  • UIRA KULESZA
  • Data: 31/01/2019

  • Mostrar Resumo
  • A engenharia de Linhas de Produto de Software (LPS), possui em uma de suas áreas a derivação de produtos, que utiliza a estratégia de implementação de produtos a partir de uma determinada seleção de features. Os seus artefatos desenvolvidos, podem ter sido gerados ou compostos durante a etapa de implementação do domínio. Apesar de sua importância, a atividade de derivação de produtos continua sendo cara e propensa a erros, que ainda é difícil de automatizar e ter suporte por meio de ferramentas. Além disso, poucos trabalhos têm sido dedicados ao processo de derivação de produtos e a aplicação de estratégias no contexto prático. Há uma falta de relatórios empíricos des- crevendo a derivação de produtos em ambientes industriais e, em geral. Este trabalho de dissertação de mestrado, propõe a sistematização do processo de distribuição e implan- tação de sistemas em aplicações Web clonadas, através da derivação semiautomática de produtos de softwares existentes, refatorados para uma LPS. Bem como a utilização do apoio ferramental para realizar a implantação de uma instância do sistema configurado, fazendo com que o produto de software fique disponível e pronto para uso em um servidor. Além disso, foi realizado um estudo através de um experimento controlado para analisar qualitativamente e quantitativamente o processo de derivação de produtos, antes e depois da utilização desta abordagem com e sem o apoio ferramental. Esta abordagem especifica um conjunto de atividades sistemáticas e bem definidas, que auxiliam aos analistas de sistemas e programadores a derivarem os produtos que foram refatorados para LPS, a partir de sistemas existentes. Através do uso desta abordagem com o apoio ferramental, será possível gerenciar os produtos e suas features, deixando-os preparados para serem produtos configuráveis de forma semiautomática, e prontos para serem derivados e im- plantados. O estudo realizado através de um experimento controlado, fornece informações acerca dos conceitos e ações explorados na literatura, tais como: derivação de produtos de software, implantação de software, clonagem de LPS, reengenharia de software para LPS, refatoração de LPS e geração de códigos-fonte. Profissionais podem utilizar este trabalho como base para definir, adaptar ou avaliar suas próprias abordagens de derivação com implantação de produtos. Enquanto os pesquisadores podem usar este trabalho como ponto de partida para novos relatórios industriais, apresentando suas experiências com a derivação de produtos. Os resultados obtidos neste estudo mostraram que ao usar a abordagem proposta, foi possível contribuir com a derivação e implantação de produtos de software de forma mais ágil, produtiva e satisfatória. Mesmo em situações em que o usuário tenha poucas experiências com derivação e implantação de softwares, as ações rea- lizadas para tal, ocorrerão em menos tempo e com uma boa corretude durante este processo.


  • Mostrar Abstract
  • The engineering of Software Product Line (SPL) has the products derivation as one of its areas, which uses the strategy of products implementation from features previously selected. The artifacts developed, can be generated or compound during the step of domain implementation. Despite its importance, the activity of product derivation continues to be costly and error prone, and it is still difficult to automate and have support by means of tools. Furthermore, few papers have been dedicated to the product derivation process and the strategies of applying it in practical context. Thus, there is a lack of empirical reports describing the product derivation in industrial environment, in general. This Master’s dissertation, proposes the systematization of the process of system distribution of cloned web application, through the semiautomatic product derivation of existing softwares, refactoring to SPL. A well as, the use of a support tool to realize the implementation of the instance of the system previously configured, making the software product available and ready to be used in a server. Furthermore, a controlled experiment was conducted to qualitatively and quantitatively analyse product derivation process, before and after the use of this approach with and without the support tool. This approach specifies a set systematic and well-defined activities that help which will assist the system analysts and programmers to do the product derivation of the product refactored to a SPL, from a existenting system. Through the use of an approach supported by a tool, it will be possible to manage the product and its features, leaving it ready to be semiautomatic configured product, ready to be derived end deployed. The study carried out through a controlled experiment, provides information about of the concepts and actions explored in the literature, such as: derivation of softwares products, software deployment, cloning of the SPL, software reengineering of SPL, refactoring of SPL and source-code generation. IT professionals can use this work as a basis for define, adapt or evaluate theirs own derivation approaches with product deployment. While researchers can use this work, as a starting point for new industrial reports, showing yours experiences with in product derivation. The results obtained in this study showed that when using the proposed approach, it was possible to contribute with the derivation and implantation of software products in more agile, productive and satisfaction way. Even in situations where the user has few experiences with derivation and deployment of software, the actions taken to do so will occur in less time and with a good corretude during this process.

3
  • ISAAC DANILO SANTOS BATISTA
  • SMARTBUFFET: Uma plataforma de hardware e software para monitoramento de alimentos de
    restaurantes
    self-serviceem tempo real usando Internet das Coisas (IoT).

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • FREDERICO ARAUJO DA SILVA LOPES
  • IDALMIS MILIAN SARDINA MARTINS
  • RAFAEL VIDAL AROCA
  • RUMMENIGGE RUDSON DANTAS
  • Data: 22/08/2019

  • Mostrar Resumo
  •    Os restaurantes self-service são empresas que vem enfrentando desafios
    para adaptar-se uma nova realidade de negócio que, exige menos desperdício de
    alimentos, controle de informações nutricionais e gestão eficiente. Estima-se
    que em países ricos há desperdício próximo a 222 milhões de toneladas de
    alimentos. No Brasil, a ANVISA exige que restaurantes tenham o
    acompanhamento de nutricionistas para controlar a temperatura e conformidade
    dos alimentos. Para que os restaurantes consigam tanto evitar o desperdício de
    alimentos quanto trabalhar dentro das normas regulamentadoras, é necessário
    uma gestão eficiente que possa otimizar os processos internos a tomada de
    decisões mais precisas. Diante desta problemática, o objetivo deste trabalho foi
    criar uma plataforma de hardware e software para monitoramento de alimentos
    expostos em um buffet de restaurante visando aprimorar seus processos de
    negócios internos e consequentemente minimizar o desperdício de alimentos,
    melhorar o controle de informações nutricionais e otimizar sua gestão. O
    sistema é capaz monitorar dados do comportamento de cubas de um
    buffet em
    tempo real. Tais dados são mostrados em setores do restaurante como cozinha,
    nutrição e gerência, em tempo real através de dashboards. O software e
    hardware foram criados utilizando os recursos da Internet das Coisas (IoT),
    Indústria 4.0 e Programação Web. Ferramentas como Node-Red, Node.js,
    Arduino IDE, entre outras, compuseram o arcabouço de tecnologias utilizadas
    para desenvolver este trabalho. Como resultados o projeto possui um sistema
    web e a sua implantação; o protótipo e a criação de um hardware para cuba; o
    código-fonte e documentação da ferramenta; os resultados dos dados capturados
    pelo SmartBuffet em execução; os resultados dos testes de usabilidade (SUS) e
    satisfação do usuário, um pedido de patente e registro de software em
    andamento.



  • Mostrar Abstract
  • The food and restaurant sector are segments that are facing challenges to adapt to a new reality that requires less food waste, quality food and efficient management. Consumers in rich countries are estimated to waste around 222 million tonnes of food products and most of them are from restaurants. In Brazil, ANVISA requires restaurants to be monitored by nutritionists, one of whose tasks is to control the temperature of food preservation to verify compliance with its resolutions. In order for restaurants to avoid both food waste and working within these regulatory standards, efficient management is needed to optimize internal processes and make more accurate decisions. Therefore, the objective of this work is to create a smart platform for monitoring the quantity and temperature of a self-service restaurant buffet in order to minimize food waste, improve the handling of nutritional information and optimize its management. The system will be able to check the temperature consumption of food exposed in tanks of a buffet and that the data will be sent to restaurant sectors like cooking, nutrition and management in real time. The system will be created using the concepts and features of the Internet of Things (IoT), Big Data and Web Programming in JavaScript. Finally, software like Node-red, ThingSpeak, Arduino IDE among other tools will compose the framework of technologies used to develop this platform.

4
  • JAIME BRUNO CIRNE DE OLIVEIRA
  • Sistema para auxílio de análises psicofisiológicas com o uso de jogos digitais

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • CHARLES ANDRYE GALVAO MADEIRA
  • SELAN RODRIGUES DOS SANTOS
  • SIDARTA TOLLENDAL GOMES RIBEIRO
  • Data: 27/09/2019

  • Mostrar Resumo
  • Análises psicofisiológicas são poderosas ferramentas que revolucionaram a área de neurociências a partir de 1929 com a criação da eletroencefalografia (EEG). Essas ferramentas possibilitaram perceber o comportamento do cérebro sob diferentes estímulos, gerando uma melhor compreensão dos processos psicológicos por avaliação das reações fisiológicas, sendo amplamente utilizadas em estudos de comportamento. Os jogos digitais se inserem neste contexto por serem utilizados com o intuito de fornecer estímulos sensório motores, exigindo um processamento cognitivo em diferentes níveis de interpretação. No entanto, essa área de pesquisa emergente enfrenta grandes desafios uma vez que os eventos dos jogos necessitam ser computados com alta resolução temporal para alcançar uma maior compreensão da experiência. Para contribuir neste sentido, este trabalho propõe uma ferramenta para permitir facilitar as pesquisas que utilizam análise psicofisiológica, auxiliando no processo de análise do comportamento com o uso de jogos digitais pelo registro automático de eventos com a frequência e a precisão necessárias para acompanhar sistemas de registros psicofisiológicos. Ao empregar esta solução em experimentos, esperamos que os pesquisadores em neurociências sejam capazes de analisar de forma bem mais eficaz os dados psicofisiológicos quando usarem jogos digitais nas suas pesquisas.


  • Mostrar Abstract
  • Psychophysiological analyzes are powerful tools that have revolutionized neurosciences since 1929 with the creation of electroencephalography (EEG). These tools made it possible to perceive the behavior of the brain under different stimuli,  providing a better understanding of psychological processes by evaluating the physiological reactions, being widely used in behavioral studies. Digital games are included in this context because they are used to provide sensorial stimuli, requiring a cognitive processing at different levels of interpretation. However, this emerging research area faces major challenges since game events need to be computed with high temporal resolution to achieve a greater understanding of the experience. To contribute to this context, this work proposes a tool to make the research that uses psychophysiological analysis easier by using digital games in the process of behavior analysis, through the automatic registration of events with the frequency and precision required to follow systems of psychophysiological records. By experimenting this solution, we hope that neuroscience researchers will be able to analyze psychophysiological data more effectively when using digital games in their research.

5
  • IURI GUERRA DE FREITAS PEREIRA
  • Avaliação da efetividade de uma suíte de teste de sistema aplicada ao contexto do Middleware Ginga

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • BRUNO BARBIERI DE PONTES CAFEO
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • Data: 16/12/2019

  • Mostrar Resumo
  • Qualidade de software tem se tornado um fator fundamental no processo de desenvolvimento de software atualmente. Conseguir mensurar a qualidade de tipos de testes diversos se torna hoje um desafio importante a ser atingido. A pesquisa realizada nesse estudo considerou a avaliação da efetividade de testes de sistemas realizados pela empresa MOPA Embedded Systems na utilização do middleware Ginga para TV Digital. Para realizar a avaliação da suite de teste de sistema executada pela empresa, foi proposta uma metodologia de avaliação da mesma através do critério de cobertura de código, seguida de um estudo exploratório para investigar possíveis motivos para os resultados obtidos da cobertura. Por fim foram realizados testes exploratórios com o objetivo de confirmar as descobertas provenientes da fase de estudo exploratório. Através dessas etapas, foi possível estabelecer um parecer sobre a qualidade dos testes realizados, bem como da automatização realizada pela empresa.


  • Mostrar Abstract
  • Software quality has become a key factor in the software development process today. To be able to measure the quality of different types of tests is today an important challenge to be met. The research conducted in this study considered the evaluation of the effectiveness of systems tests performed by MOPA Embedded Systems in the use of Ginga middleware for Digital TV. To perform the system test suite evaluation performed by the company, it was proposed a methodology to evaluate it through the code coverage criterion, followed by an exploratory study to investigate possible reasons for the results obtained from the coverage. Finally, exploratory tests were conducted to confirm the findings from the exploratory study phase. Through these steps, it was possible to establish an opinion on the quality of the tests performed, as well as the automation performed by the company.

6
  • JACYANA SUASSUNA NUNES
  • Implantando a observabilidade do sistema SigSaúde através da utilização de service mesh

  • Orientador : SILVIO COSTA SAMPAIO
  • MEMBROS DA BANCA :
  • SILVIO COSTA SAMPAIO
  • ITAMIR DE MORAIS BARROCA FILHO
  • ERICO MENEZES LEAO
  • Data: 18/12/2019

  • Mostrar Resumo
  • A adoção do estilo arquitetural de microsserviços vem se mostrando bastante vantajosa na medida que facilita a criação de soluções distribuídas, escaláveis e disponíveis, favorecendo a utilização de infraestruturas de clouds e contêineres. Por essas e outras vantagens, vêm sendo largamente adotada por grandes empresas globais do mercado no desenvolvimento de aplicativos web como Uber, Netflix, Amazon, SoundCloud e diversas outras. Um exemplo de aplicação criada utilizando esse tipo de solução é o projeto SigSaúde, que prevê o desenvolvimento de uma plataforma para o gerenciamento de dados de saúde em ambientes de Clínica-Escola baseado em prontuário eletrônico. No caso concreto do SigSaúde, se por um lado o uso de microserviços propicia escalabilidade, manutenibilidade e disponibilidade, por outro lado exige um alto grau de observabilidade das operações. Entretanto, ferramentas de monitoramento tradicionais se mostram incompletas para lidar com este cenário distribuído. Assim, este trabalho propõe a utilização de uma arquitetura integrada e escalável baseada em service mesh a ser incorporada ao projeto SigSaúde cujo objetivo principal é aumentar as capacidades de observabilidade do sistema, permitindo o acompanhamento contextualizado das transações entre os diversos microsserviços. A fim de validar esta proposta, serão realizados testes em ambiente controlado, com o objetivo de evidenciar os ganhos e limitações da utilização de service mesh, confrontando-os com as necessidades de monitoramento, rastreamento e logging específicas do SigSaúde.


  • Mostrar Abstract
  • The architectural standard of microservices has been widely adopted by several companiesin the market of web application development due to its several advantages, for example,facilitating the use of clouds infrastructures and containers for the development of distri-buted, scalable and available systems. An example of this type of solution is the SigSaudeproject which provides a platform for the management of health data in Clinical-Schoolenvironments based on electronic medical records. In the specific case of SigSaude, if on theone hand the use of microservices provides scalability and availability, on the other hand itrequires a high degree of observability of the operations, however, traditional monitoringtools are ineffective in dealing with this distributed scenario. Thus, this work proposes anintegrated and scalable architecture based on service mesh solutions to be incorporatedinto the SigSaude project. The main objective is to increase the observability capabilitiesof the system, allowing the contextual monitoring of the transactions between the variousmicroservices. In order to validate this proposal, controlled environment testing will beconducted to evidence the gains and limitations of the use of service mesh, confrontingthem with the specific monitoring, tracking and logging needs of SigSaude.

2018
Dissertações
1
  • ALAN KLINGER SOUSA ALVES
  • TeamBridge: Middleware para adaptação de games e controles de reabilitação motora

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • AQUILES MEDEIROS FILGUEIRA BURLAMAQUI
  • RUMMENIGGE RUDSON DANTAS
  • TATIANA AIRES TAVARES
  • Data: 16/04/2018

  • Mostrar Resumo
  • Esse trabalho irá apresentar uma interface para adaptação não invasiva de dispositivos
    de entrada de Realidade Virtual, para utilização com jogos da plataforma desktop incompatíveis com tais dispositivos, com foco em jogos para reabilitação, uma vez que a
    Universidade Federal do Rio Grande do Norte possui uma pesquisa em andamento sobre
    aplicação e desenvolvimento de novos dispositivos controladores para jogos terapêuticos.
    Além de ser uma ferramenta para adaptação de joysticks, ela também conterá um módulo
    voltado para terapia, esse módulo além de coletar informações poderá auxiliar o paciente
    quanto à correção dos movimentos realizados, artifício útil quando a terapia é realizada
    em casa, longe da supervisão do terapeuta


  • Mostrar Abstract
  • This work will present an interface for non-invasive adaptation of Virtual Reality input
    devices, for use with desktop platform games incompatible with such devices, with a focus
    on games for rehabilitation, since the Universidade Federal do Rio Grande do Norte has a
    ongoing research on application and development of new controller devices for therapeutic
    games. In addition to being a tool for adapting joysticks, it will also contain a module for
    therapy, this module besides collecting information can help the patient to correct the
    movements performed, artifice useful when therapy is performed at home, away from the
    therapist’s supervision.

2
  • ALLYSON BRUNO CAMPOS BARROS VILELA
  • OpenData Processor: Uma ferramenta para a automatização do processo de extração e publicação de Dados Abertos

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • FREDERICO ARAUJO DA SILVA LOPES
  • GIBEON SOARES DE AQUINO JUNIOR
  • Data: 30/07/2018

  • Mostrar Resumo
  • O acesso público à informação do governo é um aspecto importante da sociedade moderna que permite a participação ativa da população no monitoramento das ações governamentais. O decreto n8.777, assinado pela Presidência da República em 11 de maio de 2016, institui a Política de Dados Abertos do Poder Executivo federal. A partir dele, os órgãos e entidades da administração pública federal direta, autárquica e fundacional são obrigados a disponibilizarem os dados no formato aberto. No entanto, grande parte dessas instituições estão descumprindo os compromissos definidos no Decreto. Uma possível explicação para esse número é a necessidade dos responsáveis técnicos terem bons conhecimentos de seus sistemas de informação e das legislações vigentes aliada com a dificuldade na extração dos dados visto que na maioria das instituições, todo o processo de extração, publicação e atualização dos dados abertos é feito de forma manual. Nesse sentido, este trabalho propõe o desenvolvimento de uma ferramenta de automatização do processo de extração, publicação e atualização dos dados abertos. Para demonstrar a viabilidade dessa automatização foi utilizado, como estudo de caso, o SUAP e o CKAN.


  • Mostrar Abstract
  • Public access to government information is an important aspect of modern society that allows the active participation of the population in monitoring government actions. Decree No. 8777, signed by the president on May 11, 2016, establishing the Open Data Policy of Brazilian’s Federal Government. From it, the entities of the federal public administration, autarchic and foundational are obliged to make the data available in the open format. However, so far, of the 210 institutions only 75 of them are fulfilling the commitments defined in the Decree. One possible explanation for this low number is the need for technical staff to have a good knowledge of their information systems and current legislation allied with the difficulty in extracting the data since in most of the institutions the entire process of extraction, treatment and publication of the open data is done manually. In this sense, this work proposes the development of an automation tool for the ETL process for open data in the scope of the Federal Institutions that use the Unified System of Public Administration since this automation brings a greater agility in the publication and periodic updating of the open data, time saving and ease of management of open data portals 

3
  • JONAS JORDÃO DE MACÊDO
  • OpenEasier: A CKAN Extension to Enhance Open Data Publication and Management

  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • BERNADETTE FARIAS LÓSCIO
  • FREDERICO ARAUJO DA SILVA LOPES
  • JAIR CAVALCANTI LEITE
  • NELIO ALESSANDRO AZEVEDO CACHO
  • Data: 07/08/2018

  • Mostrar Resumo
  • Open Data is an important concept for our society, and it is being adopted by public and private entities. When embracing Open Data, the companies generate more transparency and collaboration in our society, this enables the enhancement and creation of services, helping to improve many aspects of our lives. Despite the existence of data catalogue platforms to support Open Data, e.g. CKAN, the complexity and costs of achieving the publication of Open Data are still a challenge, hampering the adoption of the activity of publishing Open Data. The existing tools that support Open Data publication demands deep knowledge of IT tools to publish the data, leaving this important task in the hands of few. Hence, the existing tools are not able to properly achieve the main goal which is to make anyone able to publish and maintain Open Data. In this context, this work aims to design and implement a new tool to decrease the complexity and costs, and to make possible non-IT technicians to publish and manage their Open Data. We believe that this strategy will engage the real data producers in the Open Data movement, helping to improve the quality of Open Data.


  • Mostrar Abstract
  • Open Data is an important concept for our society, and it is being adopted by public and private entities. When embracing Open Data, the companies generate more transparency and collaboration in our society, this enables the enhancement and creation of services, helping to improve many aspects of our lives. Despite the existence of data catalogue platforms to support Open Data, e.g. CKAN, the complexity and costs of achieving the publication of Open Data are still a challenge, hampering the adoption of the activity of publishing Open Data. The existing tools that support Open Data publication demands deep knowledge of IT tools to publish the data, leaving this important task in the hands of few. Hence, the existing tools are not able to properly achieve the main goal which is to make anyone able to publish and maintain Open Data. In this context, this work aims to design and implement a new tool to decrease the complexity and costs, and to make possible non-IT technicians to publish and manage their Open Data. We believe that this strategy will engage the real data producers in the Open Data movement, helping to improve the quality of Open Data.

4
  • YAN DE LIMA JUSTINO
  • Do monolito legado aos microsserviços: um estudo de caso aplicado na Secretaria de Estado da Tributação do Rio Grande do Norte

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • NABOR DAS CHAGAS MENDONÇA
  • Data: 07/08/2018

  • Mostrar Resumo
  • A orientação a serviços (Service-orientation) fornece um paradigma de projeto baseado em um conjunto de metas estratégicas para o alinhamento entre tecnologia da informação (TI) e negócios, promovendo eficiência, agilidade e produtividade. Nesse contexto, a reengenharia de sistemas legados para uma arquitetura orientada a serviços (SOA) pode ser justificada para resolver problemas como a demanda por interoperabilidade e a necessidade de fornecer uma interface robusta de serviço de alta disponibilidade. No entanto, a implantação de SOA em um ambiente corporativo é uma tarefa desafiadora, pois pode envolver o uso de diferentes técnicas, como a modernização de sistemas com alto endividamento técnico e altos custos de manutenção. Para isso, é necessário um processo que forneça um conjunto apropriado de técnicas que minimizem os riscos e, ao mesmo tempo, garantam a qualidade dos sistemas durante o processo de migração. Neste sentido, este trabalho apresenta a aplicação de um processo de reengenharia de sistemas legados para suportar a implementação de um projeto SOA. O SPReaD (Service-oriented process for Reengineering and Devops) é uma instanciação da Mainstream SOA Methodology, com foco na reengenharia de sistemas legados, integrando os aspectos de DevOps para o direcionamento de SOA. Esse processo foi identificado durante um projeto real de reengenharia de software para evolução de sistemas legados de uma Secretaria de Estado de Tributação. O uso do SPReaD tem apresentado resultados significativos em relação à conquista de importantes metas de qualidade como a padronização de contratos de serviços para efeitos de interoperabilidade; a gestão da dívida técnica, tendo em vista uma melhor manutenibilidade e portabilidade de componentes; uma maior escalabilidade e melhora no desempenho como um todo para suportar uma grande carga de requisições.


  • Mostrar Abstract
  • Service-orientation provides a design paradigm based on a set of strategic goals towards the alignment between information technology and business, promoting efficiency, agility and productivity. In this context, the reengineering of legacy systems to a service-oriented architecture (SOA) can be justified to solve problems such as the demand for interoperability and the need to provide a robust high-availability service interface. However, the deployment of SOA into an enterprise environment is challenging task, as it may involve the use of different techniques, such as the modernization of systems with high technical debt and high maintenance costs. To this end, a process is required that provides an appropriate set of techniques that minimize risks and at the same time ensure the quality of the systems during the migration process. In this sense, this work presents the application of a process for the reengineering legacy systems to support the implementation of an SOA project. This process has been identified during a real software reengineering project for evolution of legacy systems of a Secretariat of State for Taxation. The SPReaD (SOA Process for Reengineering and DevOps) is an instantiation of the mainstream SOA methodology focusing on the reengineering of legacy systems integrating DevOps aspects for targeting SOA. The use of SPReaD have presented significant results regarding the achievement of important quality goals. The use of SPReaD has presented significant results in relation to achieving important quality goals such as the standardization of service contracts for interoperability purposes; technical debt management, for better maintainability and portability of components; scalability and performance improvement to support a large load of requests.

5
  • DAVID COELHO DOS SANTOS
  • IMAM - Uma ferramenta para monitoramento de sistemas e dispositivos em infraestruturas críticas de IoT baseada em Aprendizado de Máquina.

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • JOAO CARLOS XAVIER JUNIOR
  • GIBEON SOARES DE AQUINO JUNIOR
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • CARLOS NASCIMENTO SILLA JÚNIOR
  • Data: 24/08/2018

  • Mostrar Resumo
  • Problemas em sistemas e dispositivos devem ser tratados com agilidade e de maneira eficiente. Períodos de inatividade podem custar caro e ter consequências bastante significativas em diversos contextos. Em plataformas baseadas em internet das coisas, a necessidade de disponibilidade e confiabilidade é fundamental. Embora as falhas possam acontecer por vários motivos, quando há um sistema de monitoramento que permita analisar e correlacionar dados de forma que informações relevantes possam ser extraídas, até o menor problema pode ser detectado e corrigido de forma eficiente, diminuindo o tempo de indisponibilidade. Assim, o monitoramento efetivo auxilia aplicações e serviços estarem disponíveis o maior tempo possível. Este trabalho descreve a concepção e desenvolvimento de um sistema de monitoramento para os componentes de software e hardware para plataformas baseadas em IoT. A hipótese considera que o sistema de monitoramento proposto irá auxiliar na manutenção da garantia da disponibilidade.


  • Mostrar Abstract
  • For a variety of reasons, when there is a monitoring system that allows analyzing and correlating data so that relevant information can be extracted, even the smallest problem can be detected and corrected efficiently, reducing downtime.Thus, effective monitoring helps applications and services be available as long as possible. This work specifies the design and development of a monitoring system for software and hardware components for IoT based platforms.The hypothesis describes the proposed monitoring system will help to maintain the guarantee of the availability and reliability of IoT based platform components.

6
  • CEPHAS ALVES DA SILVEIRA BARRETO
  • Uso de Técnicas de Aprendizado de Máquina para Definição de Perfis de Motoristas baseados em Dados Automotivos

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • CARLOS NASCIMENTO SILLA JÚNIOR
  • DANIEL SABINO AMORIM DE ARAUJO
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • Data: 24/08/2018

  • Mostrar Resumo
  • A violência no trânsito tem vitimado muitos brasileiros, e acima de tudo, tem causado grandes prejuízo. A grande maioria dos acidentes de trânsito é causada por imprudência dos condutores (90%). Além da imprudência, defeitos nos automóveis (5%) e má condição das rodovias (5%) também contribuem para que vidas e recursos financeiros sejam perdidos anos após anos. Uma das alternativas para amenizar esses problemas é entender como se comportam os condutores de automóveis quando estão ao volante. Recentemente, pesquisadores têm concentrado esforços para poder armazenar e analisar dados de condutores e automóveis visando a obtenção ou possível indicação de diferentes perfis de condutores. Dessa forma, o principal objetivo deste trabalho é utilizar técnicas de Aprendizado de Máquina sobre dados de veículos obtidos via OBD-II (On Board Diagnostics II) para identificar possíveis perfis entre os condutores de automóveis.


  • Mostrar Abstract
  • Traffic has killed many citizens, and above all, it has caused great losses. The vast majority of traffic accidents are caused by drivers' recklessness (90%). In addition to recklessness, car defects (5%) and poor road conditions (5%) also contribute to the loss of lives and financial resources years after years. One of the alternatives to alleviate these problems is to understand how car drivers behave when they are behind the wheel. Recently, researchers have concentrated efforts to store and analyze data from drivers and automobiles to obtain or possible indication of different driver profiles. Thus, the main objective of this work is to use Machine Learning techniques on vehicle data obtained through OBD-II (On Board Diagnostics II) to identify possible profiles among car drivers.

7
  • PEDRO VITOR LIMA RODRIGUES
  • MOTUS: UMA PLATAFORMA DE APOIO A AVALIAÇÃO E FEEDBACK DE DESEMPENHO BASEADO NA ANÁLISE DE INDICADORES

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • HERMANO PERRELLI DE MOURA
  • UIRA KULESZA
  • Data: 29/08/2018

  • Mostrar Resumo
  • Cada vez mais as empresas têm prezado pelo bem-estar, motivação e satisfação dos seus colaboradores, tendo em vista que eles constituem o recurso mais importante de uma organização. Colaboradores motivados tendem a produzir com mais qualidade e produtividade, auxiliando na resolução dos problemas com melhor desempenho. Quando a empresa atua com êxito para influenciar positivamente na motivação e no ambiente de trabalho dos colaboradores, ela não apenas recebe em troca um maior engajamento deles, mas também realiza um marketing externo para atrair novos talentos, sendo vista pela sociedade como uma empresa onde “muitos querem trabalhar”. Para que isso seja possível, se faz necessário reconhecer e fornecerfeedback aos colaboradores quanto ao seu desempenho. Dependendo da complexidade organizacional, quantidade de colaboradores e diversidade de cargos da empresa, a avaliação do desempenho pode representar um grande desafio, sendo necessário o emprego de uma quantidade considerável de recursos investidos para realizá-la em um tempo aceitável. Esse trabalho apresenta umsoftware chamado Motus, com intuito de analisar e fornecer um feedback de desempenho aos membros das equipes de uma empresa de desenvolvimento de softwareatravés de indicadores, além de analisar o impacto da sua utilização em relação a produtividade dos desenvolvedores. Para tal, um estudo foi conduzido para verificar o conceito de produtividade dentro da organização como conjunto de indicadores de desempenho, além de medir seus valores antes e depois da utilização da ferramenta com intuito de analisar suas variações.


  • Mostrar Abstract
  • Increasingly, companies have cherished well-being, motivation and satisfaction of their employees since they are the most valuable resource of organization. Motivated employees tend to produce with more quality and productivity, helping to solve problems with better performance. When companies acts successfully to positively influence motivation and better work environment, receives in exchange not just greater engagement but also makes a good external marketing to attract new talents, being seen by external community as a company where “many others want to work”. To make this possible, it is necessary recognize and provide a feedback to employees on their performance. Depending on hierarchical complexity and quantity of employees and diversity of company positions, evaluate their performance may represent a big challenge, being necessary the use of many resources to make it happens in acceptable time. This work presents software that provide a performance feedback to the teams of a company by use of performance indicators, in addition to implement a public recognition model of employees in a view of good attitudes. To measure the impact of the software utilization, a study will be conducted before and after use this software, to measure their influence on the motivation of members of development teams and what the variation of satisfaction of them within the work environment.

8
  • WELKSON RENNY DE MEDEIROS
  • SecAuthAPI: Uma abordagem para suportar infraestruturas de autorização auto-adaptativas

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • SILVIO COSTA SAMPAIO
  • GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 30/10/2018

  • Mostrar Resumo
  • Mecanismos de controle de acesso tem sido utilizados em sistemas de informação para restringir o acesso a informações sensíveis. Tais mecanismos são capazes de lidar com ameaças de agentes externos à instituição, porém são ineficientes quando consideramos ataques envolvendo usuários internos. Políticas de controle de acesso costumam ser estáticas, e incapaz de lidar com comportamento anômalos de usuários maliciosos que possuem permissão de acesso ao sistema. Sistemas auto-adaptativos têm se mostrado como uma possível resposta para esta situação, uma vez que são capazes de analisar a si próprio e ao ambiente em que estão inseridos, e se modificar sobre variadas e imprevisíveis condições. Para isso, é necessário um conjunto de operações bem definidas que possam ser utilizadas na definição de planos de adaptação. Neste sentido, este trabalho propõe o SecAuthAPI, uma abordagem de suporte a infraestruturas de autorização auto-adaptativas, que expõe um conjunto de operações para manipulação de políticas de controle de acesso ABAC (Attribute-Based Access Control). As operações definidas são baseada em uma especificação funcional formal do modelo ABAC, e são expostas através de uma API REST, e são utilizadas para se permitir a adaptação dinâmica de políticas de controle de acesso. Considerando a aplicação desta abordagem em um sistema real, este trabalho também propõe e implementa a externalização dos mecanismos de autorização para o sistema SUAP, desenvolvido e usado no IFRN. Com isso, restrições de acesso que antes eram fixadas diretamente no código (hard-coded) são agora definidas através de um servidor de autorização, desacoplando a preocupação de controle de acesso da lógica de negócio da aplicação. Além disso, ao aplicar o SecAuthAPI neste servidor de autorização, possibilitamos que as políticas possam ser manipuladas dinamicamente. As operações do SecAuthAPI foram avaliadas através de testes unitários que atestam a sua aderência à especificação funcional formal, enquanto que a externalização de controle de acesso do SUAP teve seu desempenho avaliado e comparado com a abordagem legada. Os resultados alcançados demonstram que, embora tenha um custo computacional adicional, o impacto no desempenho da aplicação é desprezível. Adicionalmente, nossa solução mostra-se altamente viável diante dos benefícios trazidos pelo desacoplamento de preocupação de controle de acesso do código fonte da aplicação.


  • Mostrar Abstract
  • Access control mechanisms have been used in information systems to restrict access to sensitive information.
    Such mechanisms are able to deal with external agent threats, but they are ineffective when considering attacks involving internal users. Access control policies are often static and unable to deal with anomalous behavior of malicious users who have access permission to the system. Self-adaptive systems have been shown as a possible response for this situation, since they are able to analyze themselves and the environment in which they are deployed, modifying themselves over various and unpredictable conditions. For this, a set of well-defined operations that can be used in the definition of adaptation plans is required. In this sense, this work proposes the SecAuthAPI, an approach to support self-adaptive authorization infrastructures, by exposing a set of operations for manipulating ABAC (Attribute-Based Access Control) access control policies. The defined operations are based on a formal functional specification of the ABAC model and are exposed through a REST API. They aim to enable the dynamic adaptation of access control policies. Considering the application of this approach in a real system, this work also proposes and implements the externalization of authorization mechanisms for the SUAP system, which has been developed and used at IFRN. In this context, access restrictions that were previously fixed directly in the code (hard-coded) are now defined through an authorization server, decoupling access control concern from the business logic of the application. Additionally, when SecAuthAPI is applied on the authorization server, policies can be dynamically manipulated. SecAuthAPI operations were evaluated through a series of unit tests that attest its adherence to the formal functional specification, while separation of access control from SUAP had its performance evaluated and compared to the legacy approach. The results show that, although it has an additional computational cost, the impact on application performance is negligible. In addition, the solution is highly feasible in view of the benefits brought due to the decoupling of concern from access control from the source code of the application.

9
  • TARSO LATORRACA CASADEI
  • Avaliação Arquitetural do Sistema SUAP: uma análise sistematizada sobre desempenho

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • ANDRÉ GUSTAVO DUARTE DE ALMEIDA
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • Data: 07/12/2018

  • Mostrar Resumo
  • Sistemas de informação têm se tornado cada vez mais robustos, trabalhando com altos volumes de dados, objetos e, consequentemente, processos. No contexto do Instituto Federal do Rio Grande do Norte (IFRN), foi desenvolvido um sistema próprio para atender a todas as atividades administrativas e acadêmicas da instituição: o SUAP, Sistema Unificado de Administração Pública. Ao longo de 11 anos, a aplicação evoluiu de apenas um módulo para mais de 40, além do crescimento vertiginoso de usuários -- que hoje permeia o número de 35 mil. Esses aspectos muitas vezes impactam direta e negativamente no desempenho de sistemas, levando os arquitetos de software a buscarem alternativas para melhor escalar suas aplicações. No caso do IFRN, mesmo após altos investimentos realizados em infraestrutura, os problemas de desempenho do SUAP persistem. Buscando um melhor aproveitamento da estrutura de hardware disponível, faz-se necessário compreender as razões destes problemas de desempenho, a fim de que estes recursos computacionais sejam utilizados de forma dinâmica e crescente, geridos de forma mais eficiente e capazes de suportar cargas excedentes sem prejuízo de estabilidade da aplicação. Surge, assim, a necessidade de se avaliar aspectos mais abrangentes da arquitetura atual da aplicação, para que possam ser conhecidos elementos que prejudiquem seu desempenho. Este trabalho tem o objetivo realizar uma análise sistematizada do desempenho do SUAP através da aplicação do método de avaliação arquitetural Architecture Trade-off Analysis Method (ATAM). Baseado na análise realizada, foram elencados um conjunto de testes de carga que possibilitem a identificação de seus principais pontos de lentidão.Com isso, espera-se contribuir para a definição de uma estratégia para testes de desempenho no SUAP que possa ser incorporada pela equipe de desenvolvimento.


  • Mostrar Abstract
  • Information systems have become increasingly robust, working with high volumes of data, objects and data processes. In the context of the Federal Institute of Rio Grande do Norte (IFRN), a system was developed to attend all the administrative and academic activities of the institution: SUAP, Unified System of Public Administration. Over the course of 11 years, the application has evolved from just one module to over 40, in addition to the dizzying growth of users -- which today permeates the number of 35 thousand. These aspects often impact directly and negatively on systems performance, leading software architects to seek alternatives to better scale their applications. In the case of the IFRN, even after high investments in infrastructure, SUAP performance problems persist. In order to make better use of the available hardware structure, it is necessary to understand the reasons for these performance problems, so that these computational resources are used dynamically and incrementally, managed more efficiently and able to withstand surplus loads without prejudice to application stability. Thus, the need to evaluate more comprehensive aspects of the current architecture of the application is presented, so that elements that impair its performance can be known. This work aims to perform a systematized analysis of the SUAP performance through the application of the Architecture Trade-off Analysis Method (ATAM). Based on the analysis performed, a set of load tests were identified that allow the identification of its main points of slowness. With this, it is hoped to contribute to the definition of a strategy for tests of performance in the SUAP that can be incorporated by the development team. 

10
  • DIEGO SOARES DOS SANTOS
  • Uma plataforma distribuída de mineração de dados para Big Data: um estudo de caso aplicado à Secretaria de Tributação do Rio Grande do Norte

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • JOAO CARLOS XAVIER JUNIOR
  • CHARLES ANDRYE GALVAO MADEIRA
  • ANDRE MAURICIO CUNHA CAMPOS
  • ALBERTO SIGNORETTI
  • Data: 07/12/2018

  • Mostrar Resumo
  • O volume de dados armazenados e acessados diariamente vem crescendo em escala geométrica. Todos os dias são gerados cerca de 2,5 bilhões de gigabytes. Além disso, 90\% dos dados no mundo foram produzidos nos últimos dois anos. Muitos termos têm sido utilizados para descrever esse volume gigante de dados armazenados de forma estruturada ou não. Big Data é um dos desses termos. Para muitos pesquisadores, Big Data é o fenômeno em que os dados são produzidos em vários formatos e armazenados por uma grande quantidade de dispositivos e equipamentos. Muito também tem sido feito para oferecer  ferramentas e frameworks open sources que, possam lidar ou oferecer funcionalidades capazes de manipular e minerar esse enorme volume de dados. Contudo, como a natureza dos dados é bastante diversa, escolher ou desenvolver ferramentas para lidar com esses dados se torna um problema nada trivial. Além disso, poucas ferramentas conseguem extrair conhecimento dos dados. Isso torna a tarefa de manipulação de dados algo difícil, principalmente devido às características muito específicas, tais como a descrição de um produto, que é totalmente flexível e sem validação. Por essa razão, em certos domínios de problema, é necessário aplicar técnicas de mineração de dados em atributos textuais para extrair valores padronizados. O objetivo principal deste trabalho é propor uma plataforma distribuída de mineração de dados para a Secretaria de Tributação do Rio Grande do Norte, que possa extrair conhecimento de maneira variada, considerando as características específicas das notas fiscais eletrônicas (NFC-e's).


  • Mostrar Abstract
  • The volume of data stored and accessed daily is growing on a geometric scale. About 2.5 billion gigabytes are generated every day. In addition, 90 \% of the world's data has been produced in the last two years. Many terms have been used to describe this giant volume of stored data in a structured or non-structured way. Big Data is one of these terms. For many researchers, Big Data is the phenomenon where data is produced in various formats and stored by a large number of devices and equipment. Some efforts have been done to offer open source tools and frameworks that can handle or provide capabilities that can handle and mine this huge amount of data. However, as the nature of the data is quite diverse, choosing or developing tools to deal with such data becomes a non-trivial problem. In addition, few tools are able to extract knowledge from the data. In this sense, knowledge extraction becomes more difficult due to specific characteristics of the data, such as: the description of a product which is totally flexible and without validation. For this reason, in certain problem domains, it is necessary to apply data mining techniques in text attributes to extract standardized values. The main objective of this paper is to propose a distributed data mining platform for the Tax Administration of Rio Grande do Norte, which can extract knowledge in a varied way, considering the specific characteristics of electronic invoices (NFC-e's).

11
  • RENIERI RAYRON DA SILVA CORREIA
  • Detecção de Problemas de Design em Aplicações Model-Template-View

  • Orientador : EIJI ADACHI MEDEIROS BARBOSA
  • MEMBROS DA BANCA :
  • EIJI ADACHI MEDEIROS BARBOSA
  • UIRA KULESZA
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • Data: 10/12/2018

  • Mostrar Resumo
  • A arquitetura de software retrata um conjunto de decisões de design, geralmente tomadas antes da implementação do sistema, com o objetivo de alcançar níveis desejados de atributos de qualidade de software. Um padrão arquitetural fornece um conjunto de decisões de design específicas que são aplicáveis a problemas de design recorrentes. A quebra dessas decisões, além de impactar negativamente nos atributos de qualidade de software, podem levar o software a iniciar um processo de degradação arquitetural. O padrão arquitetural Model-Template-View (MTV), implementado pelo framework Django, contém um conjunto de decisões tomadas para incentivar o baixo acoplamento e a separação rigorosa entre as partes de uma aplicação. No entanto, no processo de evolução da aplicação, decisões de design podem ser quebradas. Nesse sentido, investigamos a detecção de problemas de design relacionados ao padrão arquitetural MTV com o objetivo de apoiar a prevenção da degradação arquitetural em aplicações MTV. As principais contribuições deste trabalho foram a elaboração de um catálogo de problemas de design específicos do padrão arquitetural MTV e a construção de uma ferramenta para detecção automatizada destes problemas através da análise estática. O catálogo e a ferramenta de detecção foram validados no contexto do Sistema Unificado de Administração Pública (SUAP) desenvolvido pelo Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte – IFRN.


  • Mostrar Abstract
  • The software architecture represents a set of design decisions, often taken before implementing the system, with the goal of achieving desired levels of software quality attributes. An architectural pattern provides a set of specific design decisions applicable to recurrent design problems. Violating these decisions may not only hinder quality attributes, but it may also lead to architectural degradation. The Model-Template-View (MTV) pattern implemented by the Django framework has a set of decisions that promote low coupling and rigorous separation between the parts of an application. However, during the evoution of an applicatoin, design decision may be violated. This way, we investiigate the detection of design problems related to the MTV pattern with the goal of aiding the prevention of architectural degradation in MTV applications. The main contributions of this work are the elaboration of a catalogue of MTV-specific design problems e the implementation of tool for statically detecting these violations. The catalogue and the tool were validated in the context of the Sistema Unificado de Administração Pública (SUAP) developed and maintained by the Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte – IFRN.

12
  • LUCAS HIAGO DE AZEVÊDO DANTAS
  • Uma abordagem metaheurística para o problema de alocação de horário escolar no IFRN 

  • Orientador : LEONARDO CESAR TEONACIO BEZERRA
  • MEMBROS DA BANCA :
  • LEONARDO CESAR TEONACIO BEZERRA
  • CHARLES ANDRYE GALVAO MADEIRA
  • LUCÍDIO DOS ANJOS FORMIGA CABRAL
  • ROMERITO CAMPOS DE ANDRADE
  • Data: 11/12/2018

  • Mostrar Resumo
  • A cada novo período letivo, instituições de ensino se deparam com a necessidade de realizar a alocação dos seus horários de aulas. O desafio reside na capacidade de alocar aulas conciliando requisitos pedagógicos, limitações de recursos organizacionais e preferências pessoais. Motivado pelo alto grau de complexidade proveniente da combinação de disponibilidades de professores, alunos, salas de aula e necessidade de satisfação de variadas restrições, o problema de alocação de horários escolares, também conhecido como school timetabling problem, há tempos é objeto de estudo pela comunidade acadêmica, que tem buscado o auxílio de métodos heurísticos e metaheurísticos para a consecução de soluções satisfatórias em um espaço de tempo viável. Com o objetivo de auxiliar à montagem de grades de horários dos cursos técnicos ofertados pelo Instituto Federal de Educação Ciência e Tecnologia do Rio Grande do Norte (IFRN), assegurando o atendimento dos diferentes requisitos institucionais, o presente trabalho apresenta uma solução baseada na metaheurística greedy randomized adaptative search procedure (GRASP). Para a validação da solução, foram desenvolvidas instâncias a partir de dados reais coletados de diferentes unidades e períodos letivos da referida instituição. Os resultados obtidos apontam um desempenho satisfatório para o método utilizado, evidenciados a partir da geração de grades de horários que atendem a todas as restrições de viabilidade inicialmente impostas, como também, pelo elevado grau de qualidade apresentado. 


  • Mostrar Abstract
  • Every academic year, educational institutions face the need to allocate their classes. The challenge lies in conciling pedagogical needs, organizational resource constraints, and personal preferences. Motivated by the high complexity of combining teacher, student, and classroom availability, as well as various other constraints, the school timetabling problem has long been studied by the academic community. In this context, (meta)heuristic approaches have been the method-of-choice when finding high-quality solutions in a feasible timespan. This work proposes a greedy randomized adaptative search procedure (GRASP) algorithm for the school timetabling problem targeting the technical courses offered at Instituto Federal de Educação Ciência e Tecnologia do Rio Grande do Norte (IFRN). To validate the proposed approach, real-world instances were built from data gathered at different campi and academic years. Results indicate the effectiveness of the algorithm, given the feasible solutions meeting all constraints initially considered while achieving high quality. 

13
  • ERICK BERGAMINI DA SILVA LIMA
  • Quest Design Canvas: Um modelo de criação de quests para jogos digitais de gênero RPG

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • GILSON SCHWARTZ
  • ROGERIO JUNIOR CORREIA TAVARES
  • Data: 13/12/2018

  • Mostrar Resumo
  • Desde os primórdios da civilização, o ser humano sempre foi fascinado por jogos devido a serem divertidos. Nas últimas décadas, os jogos digitais têm se tornado populares, principalmente para os jovens em idade escolar. Dentre os gêneros de jogos digitais disponíveis no mercado atualmente, o RPG (do inglês Role-Playing Game) tem chamado a atenção, pois seus títulos estão há vários anos na lista dos mais vendidos. Isso se dá devido a muitas de suas características como personalização e progressão de personagem, interação com um mundo novo e fictício e a resolução de problemas deste mundo. Dentro deste cenário encontramos o conceito de quest, que é uma saga histórica (ou parte dela) com tarefas dadas ao jogador que devem ser realizadas para a conclusão do jogo ou para evolução da narrativa. Na tentativa de facilitar o processo de criação de quests, este trabalho propõe uma metodologia chamada Quest Design Canvas, que permite uma produção mais rápida e com etapas de processo criativo bem definidas, a fim de obter uma linha narrativa inserida em um conjunto de missões dentro de um mapa mental. Assim, pretende-se facilitar a produção de jogos deste gênero, sejam eles de propósito educacional, motivacional ou até promocional. A título de validação, a metodologia proposta foi empregada na produção de quests para um jogo de gênero RPG massivo multiplayer online (MMORPG), chamado UFRN: The Video Game, que está sendo desenvolvido com o objetivo gerar forte impacto social.


  • Mostrar Abstract
  • Since the dawn of civilization, humans beings had always been fascinated by games, because they are fun and a great way to pass time. In recent decades, digital games became popular among young people in school age. Among the digital game styles available on the market today, the RPG (Role-playing game) has attracted attention, since its titles are several years in the bestseller list. This is due various features available, such as character customization and progression, interaction with the new and fictional world and problem solving in this world. In this scenario, we find the concept of quest, which are missions given to the player that must be accomplished for the conclusion of the game or to evolute the narrative. In an effort to facilitate the quest produce process, this work propose a methodology called Quest Design Canvas, which allows for faster production, with well defined creative process steps, with the purpose of, finally, obtain a  narrative line inserted within a set of missions within a mental map. So, it is intended to reach all the goals to be achieved with a digital game, even being educational, introspective or promotional. As validation, This methodology will be used to produce quests for the massive and multiplayer online RPG game (MMORPG) UFRN - The Video game.

14
  • JORGE FELLIPHE RODRIGUES BARBOSA
  • PlayEduc: um framework conceitual para desenvolvimento de jogos educacionais digitais

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • LYNN ROSALINA GAMA ALVES
  • Data: 21/12/2018

  • Mostrar Resumo
  • Pesquisas apontam que quase metade dos jovens que estão fora da escola no Brasil se encontram nesta situação por falta de interesse e motivação. Assim, o país tem como grande desafio a criação de condições para que a escola se modernize e volte a cativar os jovens. Atentos a esta problemática da necessidade de renovação do sistema de ensino, muitos educadores estão buscando colocar em prática a utilização de metodologias e instrumentos de apoio a aprendizagem mais contemporâneos, sendo os jogos educacionais digitais um deles. No entanto, muitos desses jogos não têm se mostrado eficientes, tanto no quesito pedagógico quanto em jogabilidade, resumindo-se em atividades de fixação de conteúdo meramente apresentadas de forma digital. A essa problemática adiciona-se a escassez de metodologias de desenvolvimento especializadas para quem deseja construir o seu próprio jogo educacional digital. Diante desta realidade, apresentamos o PlayEduc, um framework fundamentado nas áreas da psicologia, pedagogia e design, idealizado para apoiar processos de desenvolvimento de jogos educacionais digitais. Utilizando elementos essenciais de cada uma dessas áreas, o framework guiará o usuário no processo de construção de soluções mais eficazes: jogos que trabalhem bem um conteúdo educacional sem perder a qualidade no aspecto do entretenimento. A validação do framework PlayEduc foi efetuada nos seguintes cenários: (1) na construção de um documento de game design de um jogo educacional digital; (2) no processo de desenvolvimento de um jogo educacional digital; e (3) no desenvolvimento de quests de jogos educacionais do tipo MMORPG (Massively multiplayer online role-playing game).


  • Mostrar Abstract
  • Research indicates that almost half of the young people who are out of school in Brazil are in this situation because of lack of interest and motivation. Thus, the country has the great challenge of creating the conditions for the school to modernize and regain the interest of young. Aware of this problem of the need to renew the education system, many educators are seeking to put into practice the use of more contemporary methodologies and tools to support learning, with digital educational games being one of them. However, many of the digital games categorized as educational have not proved to be efficient, both in terms of pedagogy and gameplay, maing be considered activities presented digitally. There still is a scarcity of specialized development methodologies for those who wish to build their own educational game. In face of this reality, we present Rocket, a framework based in the areas of psychology, pedagogy and game design, idealized to support processes of development and evaluation of digital educational games. Using the essential elements of each of these areas (psychology, pedagogy and game design), the framework will objectively guide the user in the development or evaluation process of digital educational games.

2017
Dissertações
1
  • EMERSON MOURA DE ALENCAR
  • Desenvolvimento de uma ferramenta de apoio a prática docente voltada ao ensino baseado em competências: uma abordagem centrada no usuário

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • FERNANDO MARQUES FIGUEIRA FILHO
  • ANDRE MAURICIO CUNHA CAMPOS
  • ISABEL DILLMANN NUNES
  • ANA ISABEL MARTINS
  • Data: 03/02/2017

  • Mostrar Resumo
  • A metodologia com base em competência visa a formação do trabalhador com foco nas habilidades em realizar tarefas relativas a sua ocupação no mercado de trabalho. Porém esta nova proposta trouxe desafios as equipes pedagógicas e docentes, o ato de planejar tem sido uma tarefa árdua, tendo em vista tantos processos e informações que o docente precisa compreender e desenvolver. Devido a isso, este trabalho propõe uma solução através de uma ferramenta computacional que minimize os problemas enfrentados e ofereça recursos que facilitem a compreensão da metodologia. Para isso foi desenvolvida uma pesquisa exploratória com o objetivo de encontrar padrões de dificuldades, através de formulários online e grupo focal foram coletados, com docentes das escolas do SENAI-DR/RN, dados relevantes a formulação de uma proposta de solução. A aplicação proposta encontra-se atualmente em desenvolvimento. Foi desenvolvido um sistema com o objetivo de facilitar o docente no seu planejamento. O sistema, denominado MEP - Metodologia de Ensino Profissional, foi elaborado e desenvolvimento em várias etapas, seguindo uma abordagem centrado no usuário, ou seja envolvendo docentes e pedagogos. O presente trabalho apresenta o processo de elaboração e desenvolvimento da ferramenta, que se encontra atualmente em fase de testes.


  • Mostrar Abstract
  • The methodology based on competence aims at training of workers with a focus on skills to perform tasks related to their occupation in the labor market. But this new proposal brought challenges pedagogical and teaching teams, the act of planning has been an arduous task, considering so many processes and information that teachers need to understand and develop. Because of this, this paper proposes a solution through a software tool that minimizes the problems faced and provide resources to facilitate the understanding of the methodology. For it was developed an exploratory research with the goal of finding difficulties patterns through online forms and focus group were collected, with teachers from schools of SENAI-DR / RN, relevant data to formulate a proposed solution. The proposed application is currently under development.

2
  • GEOMEREZ RADUAN DE OLIVEIRA BANDEIRA
  • Auto-Gerenciamento de Recursos em Infraestruturas baseada em Contêineres para Desktop-as-a-Service: Um Estudo de Caso nos Laboratórios de Informática da ECT/UFRN

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • PAULO HENRIQUE MENDES MAIA
  • Data: 22/06/2017

  • Mostrar Resumo
  • Uma alternativa viável para instituições que possuem múltiplos usuários com necessidade de acessar aplicações desktops é o Desktop-as-a-Service (DaaS), que caracteriza-se pela entrega de um ambiente desktop que executa remotamente. A virtualização de recursos em conjunto com o balanceamento de carga são amplamente utilizados em infraestruturas que hospedam serviços com demandas sazonais, replicando instâncias e distribuindo as requisições entre elas para alcançar elasticidade. Entretanto o balanceamento de carga não é a solução mais adequada para o DaaS, uma vez que sessões nesse serviço são de longa duração e não são migradas para um novo servidor que seja adicionado ao balanceador, permanecendo a lentidão percebida pelos usuários já conectados a um servidor sobrecarregado. Neste contexto, o redimensionamento dinâmico de recursos em uma instância virtual se mostra como a abordagem mais apropriada. Contudo, soluções tradicionais de virtualização exigem a reinicialização do servidor afetado, e consequentemente, finalizando as sessões DaaS com seus respectivos usuários. Por outro lado, virtualização baseada em contêineres permitem tal redimensionamento, porém exige intervenções manuais do administrador para ajustar a quantidade de recursos mediante à demanda. Este trabalho apresenta o ConManager, um controlador auto-adaptativo para ambientes baseados em contêineres, que tem como propósito o redimensionamento dinâmico de recursos virtualizados para lidar com sobrecargas sazonais. A proposta foi aplicada como estudo de caso nos laboratórios de informática da Escola de Ciências e Tecnologia da Universidade Federal do Rio Grande do Norte. O ConManager monitora a utilização de recursos nos laboratórios, detectando cenários de sobrecarga, e propondo planos de adaptação que são aplicados na infraestrutura de suporte ao serviço DaaS, efetivamente redistribuindo recursos de contêineres subutilizados para os sobrecarregados. A ferramenta se encontra em uso e isso trouxe ganhos perceptíveis como diminuição do tempo de adaptação de recursos e a simplificação do gerenciamento do ambiente, beneficiando a equipe de tecnologia da informação da instituição, responsável por manter o serviço e à comunidade acadêmica que desfruta de um ambiente computacional mais estável.


  • Mostrar Abstract
  • A viable alternative for institutions that have multiple users who need access to desktop applications is Desktop-as-a-Service (DaaS), which is characterized by the delivery of a desktop environment that runs remotely. Resource virtualization and load balancing are widely used techniques in infrastructures that host services with seasonal demands, replicating instances and distributing requests among them to achieve elasticity. However load balancing is not the most suitable solution for DaaS, since sessions in this service are long lasting and are not migrated to a new server that is added to the balancer, remaining the slowness perceived by users already connected to an overloaded server. In this context, the dynamic resizing of resources in a virtual instance is shown as the most appropriate approach. However, traditional virtualization solutions require a reboot of the affected server, and consequently, terminating DaaS sessions with their respective users. On the other hand, container-based virtualization allows such resizing, but requires manual administrator intervention to adjust the amount of resources on demand. This work presents ConManager, a self-adaptive controller for container-based environments, which aims to dynamically resize virtualized resources to handle seasonal loads. The proposal has been applied as a case study in the computer laboratories of the Escola de Ciências e Tecnologia of the Universidade Federal do Rio Grande do Norte. ConManager monitors the use of resources in laboratories, detecting overhead scenarios, and proposing adaptation plans that are applied to the DaaS service support infrastructure, effectively redistributing resources from underutilized containers to overloaded ones. The tool is currently in use and has brought noticeable gains such as reduced time to adapt resources and simplified environmental management, benefiting the institution's information technology team, responsible for maintaining the service and the academic community that enjoys a Stable computing environment.

3
  • SAULO RUFINO DE SA
  • Arquitetura de comunicação entre AVAs e objetos de aprendizagem dinâmicos utilizando a especificação IMS LTI

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • RUMMENIGGE RUDSON DANTAS
  • CLAUDIA MARIA FERNANDES ARAÚJO RIBEIRO
  • Data: 17/08/2017

  • Mostrar Resumo
  • Os Objetos de Aprendizagem (OAs) são recursos modulares reutilizáveis importantes para a Educação a Distância (EaD) e integram os Ambientes Virtuais de Aprendizagem (AVAs), compondo o leque de opções que podem ser utilizadas pelos professores em seu projeto de ensino. Os OAs podem ficar diretamente hospedados em um AVA ou armazenados em um Repositório de Objetos de Aprendizagem (ROA), que são próprios para hospedá-los de forma centralizada, descrevendo suas características e utilizando metadados padronizados com mecanismo de busca eficiente para encontrar o objeto solicitado. Para que os objetos
    sejam acessados e utilizados em mais de um AVA, é necessário a existência de mecanismos que os tornem interoperáveis. Este artigo trata da proposta de uma arquitetura e interface para integração dos objetos de um repositório com o AVA Moodle utilizando a especificação LTI.


  • Mostrar Abstract
  • The Learning Objects (LO) are importants modular and reusable resources to Distance Education thatt composes the Learning Management Systems (LMS), building a tool kit that can be used for teachers in their learning project and a course’s activity fluxs.The LOs can ber hosted directly into LMS or stored into Learning Objects Repositories (LOR), that are suitable to host them in centered form, describing their details using metadata and with eficient search engine for find the requested object. The stored objects in the LOR can be accessed and used in severals LMSs that include them, increasing the resource available variety to mount a course whith their evaluative activities. This dissertation aproachs the proposal of architecture for integration of the Distance Education Secretary’s (DES) LOR of Federal University of Rio Grande do Norte with LMS Moodle using tha LTI especification developed by IMS Global Leaning Consortion.

4
  • HENRIQUE ANDRE BARBOSA BITTENCOURT DUTRA
  • Hermod: Uma plataforma de e-mail para apoiar a comunicação institucional

  • Orientador : SERGIO QUEIROZ DE MEDEIROS
  • MEMBROS DA BANCA :
  • SERGIO QUEIROZ DE MEDEIROS
  • CARLOS EDUARDO DA SILVA
  • UIRA KULESZA
  • BRUNO OLIVEIRA SILVESTRE
  • Data: 24/08/2017

  • Mostrar Resumo
  • As organizações que oferecem serviços à sociedade, sejam elas públicas ou privadas, precisam com frequência estabelecer um canal de comunicação para enviar conteúdo, tais como notícias, ofertas de serviços ou outros tipos de informações. Entre as diversas formas de comunicação institucional, o serviço de e-mail possui papel predominante.

    Para que a comunicação instituicional através de e-mail ocorra maneira satisfatória é necessário que as mensagens sejam envidas com rapidez e que existam alguns mecanismos de feedback, como saber se os e-mails foram entregues aos destinatários.

    Contudo, as soluções comerciais existentes que apresentam as funcionalidades desejadas costumam possuir valores elevados, o que dificulta seu uso por instituições públicas. Assim, apresentamos o Hermod, uma plataforma de e-mail para comunicação institucional que foi desenvolvida como solução para os sistemas da Universidade Federal do Rio Grande do Norte.


  • Mostrar Abstract
  • Organizations that offer services to society, whether public or private, often need to establish a communication channel to send content, such as news, service offerings or other types of information. Among the various forms of institutional communication, the e-mail service has a predominant role.

    For institutional communication via e-mail to take place satisfactorily, messages must be sent quickly and there should be some feedback mechanisms, such as whether e-mails are delivered to recipients.

    However, existing commercial solutions with the desired functionalities tend to have high values, which makes it difficult for them to be used by public institutions. Thus, we present Hermod, an e-mail platform for institutional communication that was developed as a solution for the systems of the Federal University of Rio Grande do Norte.

5
  • EDMILSON PEREIRA DA COSTA JUNIOR
  • Uma Abordagem para Sistema de Firewall Distribuído Auto-Adaptativo

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • MARCOS CESAR MADRUGA ALVES PINHEIRO
  • RAONI KULESZA
  • SILVIO COSTA SAMPAIO
  • Data: 25/08/2017

  • Mostrar Resumo
  • O firewall de borda desempenha um papel fundamental para segurança das redes corporativas, agindo como primeira barreira de defesa ao delimitar um perímetro seguro. Entretanto, a cultura do Bring Your Own Device dificulta a noção de domínio seguro, contribuindo para a criação de vetores de ataques dentro do perímetro seguro. Os sistemas de firewall distribuído surgiram com a proposta de prover proteção de hosts individuais a ataques originados na própria rede interna. Em tais sistemas, as regras são criadas de modo centralizado e então distribuídas e aplicadas em todos os servidores que compõem o firewall, restringindo quais serviços devem estar disponíveis. Não obstante, vulnerabilidades em software podem tornar os serviços de rede vulneráveis a ataques, uma vez que firewalls usualmente não analisam os protocolos de aplicação. Neste sentido, a partir da descoberta da vulnerabilidade até a publicação e aplicação dos patches de correção existe uma janela de exposição que deve ser reduzida. Dado este cenário, o presente trabalho apresenta uma proposta de um sistema de firewall distribuído auto-adaptativo. Esta proposta é baseada no monitoramento de hosts e no uso de um sistema de avaliação de vulnerabilidades para detectar serviços vulneráveis, integrado com componentes capazes de decidir e aplicar regras de firewall nos hosts afetados. Desse modo, nossa abordagem é capaz de responder a
    vulnerabilidades descobertas nesses hosts, contribuindo para mitigar o risco de exploração da vulnerabilidade. Nosso sistema foi avaliado no contexto de um estudo de caso que simula um ambiente de rede corporativa, onde os resultados alcançados demonstram sua viabilidade.


  • Mostrar Abstract
  • The border firewall exercises a fundamental role for corporate network security, acting as the first defense barrier delimiting a secure perimeter. However, the culture of Bring Your Own Device weakens the notion of secure domain, contributing to the creation of attack vectors inside the secure perimeter. Distributed firewall systems emerged with the proposal of protecting individual hosts against attacks originating from inside the network. In such systems, firewall rules are created centrally, then distributed and enforced on all servers that compose the firewall, restricting which services should be available. Meanwhile, software vulnerabilities can make network services vulnerable to attacks, since firewalls usually do not scan application protocols. In this sense, from the discovery of a vulnerability until the publication and application of patches there is an exposure window that must be reduced. Given this scenario, the present work presents a proposal of a self-adaptive distributed firewall system. This proposal is based on monitoring hosts and using a vulnerability assessment system to detect vulnerable services, integrated with components capable of deciding and applying firewall rules on affected hosts. In this way, our approach is able to respond to vulnerabilities discovered in these hosts, helping to mitigate the risk of exploiting the vulnerability. Our system was evaluated in the context of a case study that simulates a corporate network environment, where the results achieved demonstrate its viability.

6
  • ANDRE LUIZ DE SOUZA BRITO
  • Level-up: uma proposta de processo gamificado para a educação

  • Orientador : CHARLES ANDRYE GALVAO MADEIRA
  • MEMBROS DA BANCA :
  • CHARLES ANDRYE GALVAO MADEIRA
  • FERNANDO MARQUES FIGUEIRA FILHO
  • JOSE GUILHERME DA SILVA SANTA ROSA
  • SÉRGIO ANTÔNIO ANDRADE DE FREITAS
  • Data: 25/08/2017

  • Mostrar Resumo
  • A tecnologia é um grande transformador da cultura de uma sociedade. Essa transformação cultural induz, por sua vez, a uma necessidade de revoluções em várias áreas do conhecimento. Uma dessas áreas é a educação, que conta com uma geração de jovens que estão sempre conectados, possuem um acesso a grandes quantidades de informação e podem rapidamente acessá-las e compartilhá-las. Como consequência, os modelos tradicionais de ensino-aprendizagem nos quais o professor assume um papel centralizador e o aluno se encontra passivamente recebendo as informações, passam a ser cada vez mais ineficazes. A inadequação dessas práticas diminui a conexão do aluno com o ambiente escolar e as disciplinas, levando-o mais facilmente a uma desmotivação pelos estudos. Um campo de pesquisa que tem se destacado nos últimos anos quando tratamos da motivação no contexto educacional é o da Gamificação. No entanto, um problema comum ainda persiste na construção de soluções gamificadas para a educação, que consiste na falta de um processo de design claro que norteie de forma eficaz a elaboração de soluções a fim de que os resultados obtidos pela aplicação das mesmas não sejam superficiais e ineficazes e não gerem impacto negativo na motivação dos alunos. Para contribuir com a solução desse problema, este trabalho propõe um processo de gamificação, denominado Level-Up, alicerçado na abordagem do Design Thinking para educadores, que tem como princípio básico o conhecimento prévio profundo sobre a problemática do desinteresse dos alunos a ser tratado antes que qualquer solução venha a ser projetada. Além disso, o framework Octalysis é utilizado para auxiliar na análise dos aspectos motivacionais tratados no cenário do problema e direcionar a escolha dos elementos de jogos para tornar esse cenário agradável e atingir os objetivos almejados com a gamificação. Para validar o processo proposto, um estudo de caso foi efetuado em uma disciplina introdutória de programação de um curso de ensino superior, no qual resultados promissores foram obtidos.


  • Mostrar Abstract
  • Technology is a force for change in the culture of a society. This transformation often requires the evolution of several fields in human knowledge, one of them being the field of Education. As a generation of youngsters are always connected through the use of technological devices, with the possibility of accessing and exchanging a large amount of information in a fast way, the traditional learning models which are teacher-centered and the students play a passive role are gradualy becoming more inneficent. This inadequacy has a big role in student motivation, that is rapidly decreasing by each year as students feel less connected with their learning environment and their practices. One field of research that has become proeminent in past years concerning student motivation in education is that of Gamification. However, a common problem exists with the construction of gamifyied solutions for education: the lack of a clear design process that guides the gamification towards an efficient model capable of effectively attend to the students needs. To contribute in the solution of this problem, this work proposes a gamification process called Level-Up, based on the design thinking for educators approach, which has as a core principle the investigation and gain of knowledge about the problematic of the students and learning environment before any solution is designed and executed. On top of that, the gamification framework Octalysis is used to evaluate how the motivational aspects are taken into account in the investigated scenario, and how the game elements can be used to change and improve student motivation in order to attain the objectives set by the gamification. To validate this gamification process, a case study is executed in a introductory programming class on a college course, in which promising results were obtained.

7
  • ERICK SHARLLS RAMOS DE PONTES
  • Um Método para Extração e Evolução de Linhas de Produto de Software a partir de Sistemas Web Existentes

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • UIRA KULESZA
  • CARLOS EDUARDO DA SILVA
  • EIJI ADACHI MEDEIROS BARBOSA
  • ELDER CIRILO
  • Data: 25/08/2017

  • Mostrar Resumo
  • Uma Linha de produto de software (LPS) representa uma família de sistemas relacionados que compartilham similaridades e variabilidades visando atender às necessidades de um mercado ou missão específica. A adoção de LPS tem sido aplicada em diversas áreas na indústria de software devido aos benefícios alcançados, tais como, redução dos custos no desenvolvimento, aumento da qualidade e redução do tempo de comercialização. No entanto, cenários distintos podem ser encontrados para implementação de uma linha de produtos, caracterizando 3 abordagens para adoção de LPS: (1) abordagem proativa: não existe softwares em produção, e uma LPS é desenvolvida do zero; (2) abordagem reativa: já existe uma LPS em produção que vai sofrer incremento para atender novos requisitos; (3) abordagem extrativa: a LPS é desenvolvida a partir dos artefatos de um sistema ou conjunto de sistemas relacionados que já estão em produção. Nos cenários das abordagens extrativa e reativa, este trabalho propõe um método de desenvolvimento e evolução de LPSs a partir de sistemas existentes implementados na linguagem Java. O método foi extraído de um estudo empírico de desenvolvimento de uma LPS para o domínio de sistemas de controle de espaços físicos utilizados em diferentes centros da UFRN e definiu três atividades: Modelar features da LPS, Projetar e Implementar LPS através da refatoração de um sistema existente, e Realizar Testes para cada um dos produtos atuais existentes. Em seguida, o método foi validado por meio da sua aplicação durante as evoluções da LPS para atender novos requisitos demandados pelos clientes. Um conjunto de diretrizes para refatoração e modularização de features em sistemas implementados em Java são apresentadas como parte do método. 


  • Mostrar Abstract
  • A software product line (SPL) represents a family of related systems that share commonalities and variabilities to meet the needs of a specific market or mission. The adoption of SPL has been applied in several areas in the software industry due to the benefits achieved, such as reduction of development costs, quality improvement and reduction of time to market. However, distinct scenarios can be found when developing a SPL, which lead to 3 approaches for adopting a SPL: (1) proactive approach: there areno software being developed and a SPLis developed from scratch; (2) reactive approach: there is a SPL which is evolved to address new features and products; (3) extractive approach: SPL is developed from the assets of a system or a set of related systems that are already in production. In the context of the extractive and reactive approaches, this dissertation aims to define a method to develop a SPL from existing systems implemented in the Java language. A practical study that extracts and evolves a SPL of the domain of space allocation management is used as a background to define the method.  

8
  • DINARTE ALVES MARTINS FILHO
  • FASTSF: UMA FERRAMENTA DE GERAÇÃO DE CÓDIGO PARA O INCREMENTO DA PRODUTIVIDADE NO DESENVOLVIMENTO SISTEMAS DE INFORMAÇÕES

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • AQUILES MEDEIROS FILGUEIRA BURLAMAQUI
  • FRANCISCO MILTON MENDES NETO
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • JOAO CARLOS XAVIER JUNIOR
  • UIRA KULESZA
  • Data: 29/08/2017

  • Mostrar Resumo
  • A produção de software envolve um complexo processo de produção incluindo a gestão das variáveis tempo, custo e pessoal. A evolução da tecnologia e a competitividade da indústria tem elevado, cada vez mais, a necessidade por maior produtividade combinada com eficiência e qualidade. Neste cenário, há uma tendência crescente do uso de técnicas, padrões e ferramentas que possam tornar o desenvolvimento mais rápido e consequentemente mais barato. Além do uso de frameworks, ferramentas e padrões de projetos, gerar automaticamente partes do código é uma forma de retirar do desenvolvedor o trabalho de codificações repetitivas, além de dinamizar e aumentar a produtividade na implementação do software.  Esta prática vem evoluindo e se difundindo nos últimos anos, com a sua popularização em diversos frameworks de desenvolvimento de aplicações, principalmente frameworks voltados para desenvolvimento web. Este trabalho disserta sobre o estudo dos impactos conseguidos na capacidade produtiva dos desenvolvedores a partir da criação e do uso de uma ferramenta denominada FASTSF, cujo objetivo é, além do incremento de produtividade no desenvolvimento de sistemas de informações web, concentrar o foco da equipe na codificação de problemas mais complexos. 


  • Mostrar Abstract
  • The production of software implies a complex production process, which involves managing the variables of time, cost and personnel. The evolution of technology and the competitiveness of industry has raised the need for greater productivity that should be combined with efficiency and quality. In this scenario, there is a growing tendency to use techniques, standards and tools that can make development faster and therefore cheaper. Besides the use of frameworks, tools and design patterns, the automatically generation of parts of the code is a means to overcome developers’ repetitive coding work and it also increases productivity in software implementation. This practice has been evolving and spreading in the last years, with its popularization in several frameworks of application development, primarily in the web development frameworks. This work discusses the study of effects achieved on the developers' productive capacity in the creation and use of a tool called FASTSF, which has the objective of both increasing productivity in the development of web information systems and keeping the team's focus on coding more complex problems.

9
  • JOÃO VICTOR DE OLIVEIRA NETO
  • Uma abordagem para análise contínua de conflitos indiretos de Software

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Felipe Alves Pereira Pinto
  • Data: 31/08/2017

  • Mostrar Resumo
  • A necessidade de evolução nos softwares, que resolvem problemas relacionados ao cotidiano, tornou-se cada vez mais frequente e a engenharia de software precisou se adaptar para entregar produtos de qualidade em prazos cada vez menores. Para que o software continue sendo útil ao longo do tempo, para o propósito ao qual foi desenvolvimento, é necessário que sejam realizadas mudanças ou incluídas novas funcionalidades para que este acompanhe as mudanças no domínio do negócio. Com essas mudanças, é inevitável que o software passe a aumentar de tamanho e, consequentemente, em complexidade. Essa expansão do software criam  relacionamentos de dependência entre componentes do código-fonte e essas dependências se propagam em uma cadeia de dependências à medida que a aplicação cresce.

     

    Reescrever o mesmo trecho de código é uma prática não recomendada no desenvolvimento de software, pois implica em replicar código de forma distribuída e desordenada. Ao fazer o reuso, o mesmo trecho já escrito é referenciado em diferentes funcionalidades do sistema através da cadeia de dependência e chamadas de métodos, fazendo com que diferentes partes do código que estejam associadas à diferentes funcionalidades passem a depender de um mesmo componente. Alterações de trechos de código que possuem relação direta ou indireta com diferentes casos de uso podem levar a falhas imprevistas da aplicação, pois dependendo do número de artefatos envolvidos e da extensão da cadeia de dependências relacionada ao código alterado, uma mudança pode impactar um outro caso de uso que aparentemente não tem relação com o trecho de código modificado. Prever impactos decorrentes de alterações em um artefato é uma tarefa que exige tempo para análise, profundo conhecimento do código-fonte e esforço de teste.

     

    Este trabalho apresenta uma abordagem parar automatizar a identificação de possíveis conflitos indiretos através de uma ferramenta desenvolvida, capaz de determinar quais casos de uso possuem maior probabilidade de serem impactados por mudanças no código-fonte, podendo assim direcionar os esforços de testes de forma mais eficaz. Um estudo de caso foi elaborado avaliando um projeto real de dimensão extensa que não possui uma suíte de testes automatizados e a ferramenta desenvolvida mostrou-se eficiente para detectar conflitos indiretos em diferentes cenários e também provou, através de um experimento empírico, que a maior parte das falhas decorrentes de conflitos indiretos teriam sido evitados caso a ferramenta tivesse sido utilizada ainda na fase de desenvolvimento.


  • Mostrar Abstract
  • The necessity of software evolution for those which solve daily problems became even more frequent and the software engineering had to be adapted in order to be able to delivery products with good quality in tight dead lines. In order to the software continues being useful during its life cycle, to the main purpose whose was developed, its necessary to apply changes or include new features due to changes which happens in the business.

     

    Rewrite the same block of code is not a recommended approach on software development, because it spreads code in a distributed and disordered way. Applying the code reuse, the same block of code already wrote is referenced by different use cases through the dependency chain and method calls, where different parts of the code, which are being relate to differents funcionalitys, going to depend to the same component. Changes applyed to a block of code which has direct or indirect relation with differents use cases may lead to umpredictable fails, depending on the number of different artifacts related and the extension of dependency chain related to the artifact which was modified, this change may cause a impact on another use case which, by a first look, does not have any relation which the modified block of code. Predict impacts from in a specific artifact is a task which demands time to analysis, deep knowledge of the source-code and test effort.

     

    This paper presents an approach to automatize the identification of possible indirect conflicts using the developed tool, whose can determinate which use cases are more defect prone by source-code changes, providing a more effective direction to the test's efforts. A Study Case was elaborated, assessing a real project of extensive dimension whose doesn't have a automatized test case suite, and the developed tool was able to identify the indirect conflicts on differents cenarios and besides, the tool was able to proof in a empiric experiment which the major failures, caused by indirect conflicts could be avoided if the tool were be used during the development fase.

2016
Dissertações
1
  • EMMANOEL MONTEIRO DE SOUSA JUNIOR
  • Escalonando uma Aplicação Paralela com Demanda Variável em Ambiente de Nuvem


  • Orientador : FREDERICO ARAUJO DA SILVA LOPES
  • MEMBROS DA BANCA :
  • AMÉRICO TADEU FALCONE SAMPAIO
  • CARLOS EDUARDO DA SILVA
  • FREDERICO ARAUJO DA SILVA LOPES
  • IDALMIS MILIAN SARDINA MARTINS
  • Data: 20/01/2016

  • Mostrar Resumo
  • Este trabalho propõe uma arquitetura de software responsável pelo escalonamento para processamento de dados com demanda variável em ambientes de nuvem. O sistema construído observa variáveis específicas ao contexto de negócio de uma empresa incubada no Instituto Metropole Digital da UFRN. Tal sistema gera uma estratégia de identificação e utilização de modelos de máquinas disponíveis em um ambiente de  nuvem, focando no desempenho do processamento, utilizando-se de estratégias de balanceamento de carga de dados e paralelismo de atividades no fluxo de execução do software. O objetivo é atender a demanda sazonal dentro de um limite padrão de tempo definido pela empresa, controlando os custos operacionais com a utilização de serviços de nuvem na camada de IaaS.


  • Mostrar Abstract
  • Este trabalho propõe uma arquitetura de software responsável pelo escalonamento para processamento de dados com demanda variável em ambientes de nuvem. O sistema construído observa variáveis específicas ao contexto de negócio de uma empresa incubada no Instituto Metropole Digital da UFRN. Tal sistema gera uma estratégia de identificação e utilização de modelos de máquinas disponíveis em um ambiente de  nuvem, focando no desempenho do processamento, utilizando-se de estratégias de balanceamento de carga de dados e paralelismo de atividades no fluxo de execução do software. O objetivo é atender a demanda sazonal dentro de um limite padrão de tempo definido pela empresa, controlando os custos operacionais com a utilização de serviços de nuvem na camada de IaaS.

2
  • ÁLVARO HERMANO DA SILVA
  • Jogo Digital Como Ferramenta Facilitadora no Exercício da Matemática Fundamental

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • ANDRE MAURICIO CUNHA CAMPOS
  • CHARLES ANDRYE GALVAO MADEIRA
  • EDUARDO HENRIQUE DA SILVA ARANHA
  • Data: 25/04/2016

  • Mostrar Resumo
  • Para alunos que ingressam no primeiro ano de um curso técnico integrado, a matemática é uma das disciplinas de difícil entendimento. Fatores como falta de atenção, problemas com interpretação de texto e problemas no aprendizado no ensino fundamental, colaboram com as reprovações na disciplina, gerando um aumento no desestímulo do aluno no curso. Com base em relatos dos professores da disciplina de matemática feitos ao setor pedagógico da escola sobre as dificuldades desses alunos em resolver as atividades trabalhadas em sala de aula e após a realização de entrevistas com um grupo de alunos, os referidos fatores de dificuldade foram identificados e possíveis soluções foram traçadas. Uma delas é a implementação de um jogo digital, a ser trabalhado no ambiente escolar, que proporcione o exercício da matemática fundamental, como forma de trabalhar aspectos cognitivos e o conhecimento dos conteúdos da disciplina, gerando dados sobre o desempenho do jogador, proporcionando um feedback ao professor sobre dificuldades e/ou facilidades na resolução das questões. Este trabalho apresenta a proposta de jogo concebida.


  • Mostrar Abstract
  • Para alunos que ingressam no primeiro ano de um curso técnico integrado, a matemática é uma das disciplinas de difícil entendimento. Fatores como falta de atenção, problemas com interpretação de texto e problemas no aprendizado no ensino fundamental, colaboram com as reprovações na disciplina, gerando um aumento no desestímulo do aluno no curso. Com base em relatos dos professores da disciplina de matemática feitos ao setor pedagógico da escola sobre as dificuldades desses alunos em resolver as atividades trabalhadas em sala de aula e após a realização de entrevistas com um grupo de alunos, os referidos fatores de dificuldade foram identificados e possíveis soluções foram traçadas. Uma delas é a implementação de um jogo digital, a ser trabalhado no ambiente escolar, que proporcione o exercício da matemática fundamental, como forma de trabalhar aspectos cognitivos e o conhecimento dos conteúdos da disciplina, gerando dados sobre o desempenho do jogador, proporcionando um feedback ao professor sobre dificuldades e/ou facilidades na resolução das questões. Este trabalho apresenta a proposta de jogo concebida.

3
  • ROMULO FAGUNDES CANTANHEDE
  • Guardião Cloud - Plataforma de Apoio para Internet das Coisas

  • Orientador : CARLOS EDUARDO DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • CARLOS ANDRE GUIMARÃES FERRAZ
  • Data: 27/04/2016

  • Mostrar Resumo
  • A IoT (Internet of Things) propõe que sistemas computacionais sejam formados por diversos dispositivos produtores e/ou consumidores de informação, permitindo o desenvolvimento de diversas soluções baseadas na coleta e análise de dados. Porém, além da coleta e análise de dados, é necessário também tomar decisões e agir com base nas mesmas. Nossa proposta é de desenvolver uma plataforma de suporte para aplicações de IoT permitindo não somente a coleta e análise de dados, mas também seu uso para a tomada de decisão e ação. A plataforma permite que qualquer dispositivo com acesso à Internet possa enviar informações em formato variado, suportando o acompanhamento em tempo real dos dados coletados, assim como a definição de mecanismos de tomada de decisão, como a ativação de um determinado dispositivo ou a geração de alertas. Como estudo de caso, a plataforma foi aplicada para monitorar um ambiente hospitalar. Alguns experimentos controlados foram realizados com o objetivo de avaliar a plataforma, permitindo a definição de alguns parâmetros de dimensionamento para sua implantação.


  • Mostrar Abstract
  • The IoT(Internet of Things) proposes that computer systems are formed by
    several information producers and/or consumer devices, allowing the
    development of various solutions based on data collection and analysis.
    However, in addition to data collection and analysis, it is also
    necessary to make decisions and act on them. This work’s proposal is to
    develop a support platform for IoT applications, not only allowing data
    collection and analysis, but also their use for decision making and
    action. The platform will allow any device with Internet access to send
    information in various formats, supporting real-time monitoring of the
    collected data, as well as the definition of decision-making mechanisms,
    such as the activation of a particular device or the generation of
    alerts. As a case study, the platform was applied to monitor a hospital
    style environment. Some controlled experiments
    were conducted to evaluate the platform, providing the means for the
    definition of some design parameters for its deployment.

4
  • ARTEJOSE REVOREDO DA SILVA
  • Um sistema de controle inteligente de ambientes baseado em rede de sensores e classificação de padrões

  • Orientador : JOAO CARLOS XAVIER JUNIOR
  • MEMBROS DA BANCA :
  • GIBEON SOARES DE AQUINO JUNIOR
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO CARLOS XAVIER JUNIOR
  • LEONARDO AUGUSTO CASILLO
  • Data: 20/07/2016

  • Mostrar Resumo
  • Os laboratórios de análises químicas, por se constituírem em um conjunto de testes e procedimentos, usando produtos e equipamentos específicos para tratar dos resultados nas amostras que são testadas, estão sempre sujeitos aos fatores inerentes ao ambiente. Devido a esse fato, controlar fatores como a temperatura e a umidade relativa do ar é tarefa primordial, para que os processos desenvolvidos dentro de tais ambientes (laboratórios de análises químicas) possam ser repetidos dentro dos parâmetros exigidos.

    Buscando propor mecanismos de controle para ambientes, mais especificamente para laboratórios de análises químicas, neste trabalho, apresentamos um sistema baseado em rede de sensores e reconhecimento de padrões para controle inteligente de ambientes. Nosso protótipo utiliza os próprios dados gerados pelos sensores distribuídos pelo ambiente, para identificar um padrão de comportamente. Através da utilização de algoritmos de aprendizado de máquina, identificam-se as classes contidas nos dados (agrupamento), treina-se e testa-se o sistema (algoritmos de classificação), para que o mesmo consiga generalizar o que foi aprendido. Por último, criam-se regras de controle associadas as classes previamente identificadas, para controlar os aparelhos de ar condicionado, tanto o principal quanto o reserva, e mais o desumificador. Dessa forma, o protótipo mantém temperatura e umidade estaveis de forma inteligente.


  • Mostrar Abstract
  • In general, laboratories or labs are workplaces that provide controlled conditions for experiments and measurements to be performed. For this reason, controlling temperature and humidity is an important requirement that needs to be achieved in order to guarantee the reproducibility of processes carried out in labs.

    Aiming to propose efficient environmental controlling mechanisms, specifically for chemical analysis laboratories, we present in this work an intelligent environmental control system based on sensors network and pattern recognition. Our prototype uses its own data generated by sensors distributed in the environment to identify a pattern of behavior. Through the use of machine learning algorithms, the system identifies the classes within the data (clustering), does the training and testing procedures (classification), so that it can generalize what was learned. Finally, the rules are created in association with previously identified classes in order to control air conditioners, both the main and the spare ones, plus the dehumidifier. In this sense, the prototype keeps temperature and humidity stable and in an effective way.

5
  • LUCIANO ANTÔNIO CORDEIRO DE SOUSA
  • Estudo Exploratório da Atividade de Testes num Sistema de Acompanhamento de Obras

  • Orientador : BRUNO SANTANA DA SILVA
  • MEMBROS DA BANCA :
  • BRUNO SANTANA DA SILVA
  • CLAUDIA MARIA FERNANDES ARAÚJO RIBEIRO
  • FERNANDO MARQUES FIGUEIRA FILHO
  • Data: 04/08/2016

  • Mostrar Resumo
  • Apesar de termos a área de testes de software estar bem estabelecida na academia, algumas equipes de desenvolvimento de software no mercado acabam não dando atenção necessária a esta atividade. Este trabalho apresenta um estudo de caso sobre chamados e testes ao longo de 3 anos de um sistema de controle de obras de uma empresa de energia. Buscou-se identificar relações entre chamados dos usuários, funcionalidades,  testes  automatizados e  modificações no  código-fonte, para compreender algumas consequências de decisões tomadas e identificar oportunidades de melhorias no processo de desenvolvimento do sistema analisado.


  • Mostrar Abstract
  • Although testing area has been established in academy, some software development teams in industry do not take proper care of this activity. This work presents a case study about bug reports and tests of the construction monitoring system of an energy company during 3 years. The aim is to identify relationships between bug reports, features, automated testing and modifications to the source
    code, to understand some consequences of decisions and to identify opportunities for improvement in the analyzed development process.

6
  • RAFAEL DIAS SANTOS
  • Comparação entre métodos de avaliação de IHC durante o projeto de um sistema jurídico para smarphone

  • Orientador : BRUNO SANTANA DA SILVA
  • MEMBROS DA BANCA :
  • BRUNO SANTANA DA SILVA
  • ISABEL DILLMANN NUNES
  • LUCIANA APARECIDA MARTINEZ ZAINA
  • SILVIA AMÉLIA BIM
  • Data: 08/08/2016

  • Mostrar Resumo
  • Qualidade  e  tempo  são  fatores  importantes  no  processo  de  desenvolvimento de software, pois se espera entregar um produto de qualidade com custo e prazo aceitáveis. Esses fatores são ainda mais relevantes em um ambiente de inovação  e de  pequenas  empresas,  como  em  startups.  Muitas  empresas  ainda não  desenvolvem  atividades  para  melhorar  a  qualidade  de  uso  dos  softwares que desenvolvem. O desconhecimento sobre métodos de avaliação e a expectativa de grande aumento no custo e nos prazos têm sido argumentos para manter a cultura atual em algumas empresas. Este trabalho compara três  métodos de avaliação de interface bem difundidos na literatura: método de avaliação heurística, método de avaliação de comunicabilidade e teste de usabilidade. Buscou-se compreender como eles contribuem para o trabalho do designer durante a concepção da solução de interação e interface com usuário. Comparou-se as atividades realizadas, o tempo de execução, os materiais utilizados, perfil e quantidade  de  avaliadores  e  usuários  envolvidos,  os  resultados  e  as  dificuldades  do avaliador durante a execução dos métodos. Tal comparação foi realizada por um designer, como parte do projeto do sistema jurídico da SoftUrbano para  smartphone.  Os  resultados  dessa  comparação  podem  informar  melhor os  profissionais sobre a prática de avaliação de interface com usuário e contribuir para mudar  a  cultura de desenvolvimento de  software em  muitas  empresas,  principalmente pequenas e startups.


  • Mostrar Abstract
  • Quality and time are important factors in software development process, because  we  expect  to  deliver  a  high  quality  product  with  acceptable  cost  and deadline. These factors are even more relevant to innovative environments and small businesses, like a startup. Many companies still don’t carry out activities to improve quality of use of software they had developed. Lack of knowledge of HCI evaluation  methods  and  expectation  of  large  increase  in  coast  and  deadlines have been arguments to maintain the current culture in some companies. This work compares three HCI  evaluation methods well known in literature: heuristic evaluation, communicability evaluation and usability testing. We investigate how they  contribute  to  designer’s  work  during  conception  of  their  interaction  and user interface solution. We compared the activities, time of execution, used materials, profile and number of involved evaluators and users, results and difficulties of evaluators during the execution of methods. This comparison was made by a designer as part of SoftUrbano’s juridical system for smartphone. The results can better inform professionals about the HCI evaluation practice and contribute to changing the software development culture in many companies, especially small businesses and startups.

7
  • THIAGO FERNANDES SILVA DUTRA
  • BEEHIVEIOR MONITOR -Sistema de Controle e Monitoramento de Colmeias de Produção Apícola

  • Orientador : RUMMENIGGE RUDSON DANTAS
  • MEMBROS DA BANCA :
  • RAFAEL VIDAL AROCA
  • RUMMENIGGE RUDSON DANTAS
  • SERGIO QUEIROZ DE MEDEIROS
  • Data: 08/08/2016

  • Mostrar Resumo
  • As abelhas são animais de grande importância para manter o ecossistema
    global, principalmente pelo seu papel ativo no processo de polinização de diversas
    plantas no planeta. A apicultura, definida atualmente como a criação racional de
    abelhas, é uma importante atividade econômica mundial que movimenta anualmente
    um mercado bilionário. O desenvolvimento eficiente da atividade apícola envolve
    inúmeros desafios de diversas áreas de atuação e conhecimento, que vai desde
    operações cotidianas de manutenção do apiário até o monitoramento comportamental
    das abelhas e do ambiente no qual o apiário esta inserido. A UEPA-EAJ (Unidade de
    Extração de Produtos Apícolas, da Escola Agrícola de Jundiaí) é um importante
    centro de atividades, estudos e pesquisas apícolas do RN. Esse trabalho propõe então
    o desenvolvimento de uma ferramenta computacional de automação e controle com os
    objetivos de auxiliar e dar um maior embasamento aos estudos e pesquisas realizadas
    pela UEPA-EAJ, bem como o de facilitar atividades cotidianas presentes no manejo
    do apiário dessa unidade.


  • Mostrar Abstract
  • Bees are very important animals to the global ecosystem, mainly for their
    active role in pollination process of many plants on the planet. Beekeeping, currently
    defined as the rational creation of bees, is a global economic activity that annually
    moves a billionaire market. The efficient development of beekeeping involves
    numerous challenges in many aspects, ranging from daily activities to keep the apiary
    until monitor the behavior of bees and the apiary environment. The UEPA-EAJ (an
    unit for explore bee products at Jundiaí’s agricultural school) is an important center
    for activities, studies and research on beekeeping in Brazil-RN. This work proposes
    the development of a computational tool, composed by automation and control
    devices, with the goal to give a better basis for the studies and researches carried out
    by UEPA-EAJ, as well to improve the daily activities to maintain the apiary of this
    unit.

8
  • EDUARDO LIMA RIBEIRO
  • INTEGRA: Uma solução para integração de sistemas de HelpDesk com sistemas de Issue Tracking em ambientes heterogêneos

  • Orientador : IDALMIS MILIAN SARDINA MARTINS
  • MEMBROS DA BANCA :
  • IDALMIS MILIAN SARDINA MARTINS
  • FREDERICO ARAUJO DA SILVA LOPES
  • UIRA KULESZA
  • CRISTIANO MARCIEL
  • Data: 10/08/2016

  • Mostrar Resumo
  • Independente da área de atuação e devido às necessidades de negócio
    dado o ritmo das inovações, organizações públicas e privadas vêm se
    adaptando constantemente às mudanças tecnológicas, seja com as
    melhores práticas de mercado ou com a atualização de suas tecnologias.
    Estas mudanças frequentes muitas vezes acabam criando na empresa um
    ambiente bastante heterogêneo, onde os sistemas envolvidos no negócio
    e que foram desenvolvidos em diversas plataformas (por exemplo,
    linguagem de programação e/ou banco de dados) operam de maneira
    isolada. Em situações como esta, a empresa precisa adotar estratégias
    para prover a interoperabilidade entre seus sistemas e assim garantir
    uma devida comunicação, visando propiciar o intercâmbio de informações
    entre os departamentos e a integração das regras do negócio. O
    objetivo central deste trabalho foi propor e desenvolver estratégias
    que permitam a integração de sistemas nestes ambientes heterogêneos,
    independente da plataforma e linguagem de desenvolvimento dos
    sistemas.  Com o objetivo de resolver os problemas atuais de
    comunicação e performance entre os diferentes sistemas de informação
    na Secretaria de Ensino a Distância (SEDIS) da Universidade Federal do
    Rio Grande do Norte (UFRN), foi desenvolvido um middleware denominado
    INTEGRA, concebido em uma arquitetura orientada a serviços. A proposta
    foi criada para a SEDIS, entretanto pode ser estendida a outras
    instituições públicas de ensino superior. Uma das vantagens da
    arquitetura proposta é a de proporcionar a adição de novos sistemas
    sem causar fortes impactos de adaptações e mudanças, garantindo a
    manutenibilidade geral do software. O middleware comunica diferentes
    sistemas help desk e issue tracking oferecendo uma gama de serviços
    mediante um protocolo de comunicação que padroniza a troca e o
    roteamento das mensagens. Através da estratégia proposta como mostra o
    estudo de caso, foi possível chegar a um equilíbrio entre o princípio
    do desacoplamento e o princípio da distribuição de responsabilidade de
    maneira uniforme, garantindo assim um baixo acoplamento e uma alta
    coesão, princípios desejáveis na engenharia de software.


  • Mostrar Abstract
  • Regardless of the area of operation and due to business needs, given
    the pace of innovation, public and private organizations are
    constantly adapting to technological changes, either with the best
    market practices or upgrading their technologies. These frequent
    changes often end up creating in the company a very heterogeneous
    environment, where the systems involved in the business were developed
    using various platforms (for example, programming language and / or
    database) operate in an isolated way. In situations like this, the
    company needs to adopt strategies to provide interoperability between
    their systems and thus ensure a good communication, aiming to promote
    the exchange of information between departments and the integration of
    business rules. The main objective of this work was to propose and
    develop strategies enabling the integration of systems in these
    heterogeneous environments, regardless of platform and development
    language of the systems. In order to solve the current communication
    problems and performance between different information systems in the
    Department of Distance Education (SEDIS) of the Federal University of
    Rio Grande do Norte (UFRN), it was developed a so-called middleware
    INTEGRA designed on a service-oriented architecture. The proposal It
    was created for the SEDIS, but can be extended to other public
    institutions of higher education. One of the advantages of the
    architecture proposed is to provide the addition of new systems
    without causing a severe impacts of adjustments and changes, ensuring
    general maintainability of the software. The middleware creates
    communication between different help desk systems and issue tracking
    offering a range of services through a communication protocol that
    standardizes the exchange and routing of messages. Through the
    proposed strategy as showed in the poc, it was possible to get a
    balance between the principle of decoupling and the principle of
    uniformly distributing responsibility, thus guaranteeing a low
    coupling and high cohesion, desirable principles in Software
    Engineering.

9
  • MARCELO VARELA DE SOUZA
  • Domótica de baixo custo usando princípios de IoT

  • Orientador : ANDRE MAURICIO CUNHA CAMPOS
  • MEMBROS DA BANCA :
  • ALBERTO SIGNORETTI
  • ANDRE MAURICIO CUNHA CAMPOS
  • IVANOVITCH MEDEIROS DANTAS DA SILVA
  • JOAO MORENO VILAS BOAS DE SOUZA SILVA
  • Data: 11/08/2016

  • Mostrar Resumo
  • A procura por soluções domésticas abriu caminho para a automação residencial por meio de sistemas que se propõe a melhorar a qualidade devida e economizar recursos. O presente trabalho faz um breve estudo sobre domótica e os componentes eletrônicos necessários para sua aplicação. Descreve ainda o método para o desenvolvimento de um projeto de automação residencial usando conceitos de IoT e a plataforma Arduino. O sistema proposto possui, além do baixo custo, uma interface de fácil utilização, e é composto por uma aplicação para smartphones e sensores de controle para equipamentos domésticos, como lâmpadas e condicionadores de ar. O desenvolvimento deste sistema se deu através da utilização de emissores e receptores infravermelhos, módulos de radiofrequência XBee e plataformas microcontroladas Arduino, nas versões Mega e Uno e microcontroladores ESP8266.


  • Mostrar Abstract
  • Demand for domestic solutions opened the way for the home automation through systems that proposes to improve the quality of life and save resources. This paper makes a brief study of home automation and electronic components required for your application. It also describes the method for the development of a home automation project using concepts of IoT and the Arduino platform. The proposed system has, in addition to low cost, a friendly interface, and consists of an application for smartphones and control sensors for household appliances such as lamps and air conditioners. The development of this system was made through the use of infrared transmitters and receivers, XBee radio frequency modules and Arduino microcontrolled platforms, in some versions, and microcontrolled ESP8266.

10
  • JULIO CESAR LEONCIO DA SILVA
  • Um Estudo Exploratório de Avaliação e Documentação de Arquiteturas de Software em Empresas de Software

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • EDUARDO MARTINS GUERRA
  • Felipe Alves Pereira Pinto
  • FERNANDO MARQUES FIGUEIRA FILHO
  • UIRA KULESZA
  • Data: 25/08/2016

  • Mostrar Resumo
  • Muitas vezes o arquiteto de software responsável pela definição e avaliação da arquitetura de software não consegue estabelecer quais requisitos não-funcionais devem ser priorizados no desenvolvimento de seus sistemas. Com isso, falhas podem ocorrer durante a execução do sistema demandando mais tempo e recursos para que seja corrigido. Em muitos casos, com a inexperiência dos arquitetos ou a necessidade de disponibilização rápida de um sistema, os requisitos não-funcionais não são considerados durante a definição da arquitetura de software e também não é feita a devida documentação da arquitetura, tornando difícil o acesso e entendimento da arquitetura pelos demais integrantes da equipe e dificultando a manutenção de componentes/módulos da arquitetura e respectivos relacionamentos. Este trabalho buscou levantar junto às empresas de software, públicas e privadas, quais as principais estratégias utilizadas na definição e avaliação da arquitetura, principalmente na obtenção e cumprimento dos requisitos não-funcionais, e documentação arquitetural. Nosso estudo contou com a participação de 17 arquitetos de software para responder o questionário proposto. Com a realização do questionário identificamos que os requisitos não-funcionais de desempenho e confiabilidade são os mais importantes a serem atendidos pela arquitetura e que mesmo com a existência de algumas abordagens para a avaliação de arquiteturas, elas não parecem estar bem difundidas e/ou utilizadas entre os arquitetos. Além disso, o trabalho propõe a utilização de um guia que busca auxiliar arquitetos de software na atividade de avaliação do cumprimento dos requisitos não-funcionais pela arquitetura durante a evolução do sistema, priorizando o requisito não-funcional de desempenho


  • Mostrar Abstract
  • Usually, the software architect responsible for the software architecture definition and evaluation cannot rank which non-functional requirements must be prioritized during the development of their systems. Because of that, failures may happen during the system execution requiring more time and resources to fix it. In many cases, due to the inexperience of architects or the need for rapid deployment of a system, the non-functional requirements are not considered in the software architecture definition phase and the its documentation is absent or incomplete, making the software architecture difficult to be accessed and understood by others team members and also more difficult the maintenance of its components/modules and relationships. This work raises with public and private software companies which are their main strategies used to define software architecture in terms of its documentation and to ensure it is suitable for non-functional requirements of interest. Our study had the participation of 17 software architects to answer the survey. With the completion of the survey we identified that the non-functional requirements for performance and reliability are the most important to be addressed by the architecture and even with the existence of some approaches to evaluation architectures, they do not seem to be well disseminated and / or used among architects. Besides that, we propose a guide to help software architects in the task of achieving such non-functional requirements during the evolution of software systems. The proposed guide prioritizes the non-functional requirement of performance.

11
  • ARLINDO RODRIGUES DA SILVA NETO
  • GoldBI: Uma solução de Business Intelligence como serviço

  • Orientador : GLEYDSON DE AZEVEDO FERREIRA LIMA
  • MEMBROS DA BANCA :
  • GLEYDSON DE AZEVEDO FERREIRA LIMA
  • FREDERICO ARAUJO DA SILVA LOPES
  • FRANCISCO DANTAS DE MEDEIROS NETO
  • Data: 26/08/2016

  • Mostrar Resumo
  • A obtenção de resultados concretos com tomada de decisão estratégica exige a análise

    de dados e variáveis bem consolidadas. Nos dias atuais, é praticamente inviável realizar

    uma boa análise sem o auxílio de um software para geração de relatórios e estatísticas.

    Business Intelligence (BI) surgiu com o intuito de simplificar a análise de informações

    gerenciais e estatísticas, gerando uma gama maior de ferramentas analíticas para gerar

    indicadores através de gráficos ou listagem dinâmica de dados gerenciais. Porém muitas

    ferramentas de BI disponíveis no mercado possuem um alto custo e limitam sua utilização

    em redes locais de ambientes desktop, além de ser necessário um nível técnico elevado para

    sua utilização.

    A proposta desde trabalho é criar uma ferramenta BI que seja disponível em nuvem

    (cloud computing) através de SaaS (Software as Service) e que possa ser simples o suficiente

    para que qualquer usuário possa manipulá-lo, de forma eficaz e objetiva. Utilizando

    técnicas de ETL (Extract, Transform, Load) que facilitará a extração e processamento

    desses dados de forma descentralizada, a aplicação deve apresentar-se leve e disponível

    em qualquer ambiente computacional.


  • Mostrar Abstract
  • The achievement of concrete results with strategic decision making requires analysis
    of well established data and variables. Nowadays, it is practically impossible conduct
    a proper analysis without the aid of a software for reporting and statistics. Business
    Intelligence (BI) has emerged in order to simplify the analysis of management information
    and statistics, generating a wider range of analytical tools to identify indicators through
    graphs or dynamic listing of management data. But many BI tools on the market, and
    has a high cost, limited to use in local networks of desktop environments, in addition to
    being required high technical standards for its use.
    The proposal from work is to create a BI tool that is available in the cloud (cloud
    computing) through SaaS (Software as Service) and can be simple enough so that any
    user can manipulate it effectively and objectively. Using techniques of ETL (Extract,
    Transform, Load) to facilitate the extraction and processing of such data in a decentralized
    manner the application should appear light and available in any computing environment.
12
  • THIAGO DAVID DOS SANTOS MARINHO
  • Uma Linguagem Específica de Domínio Extensível para Geração de Testes de Performance

  • Orientador : UIRA KULESZA
  • MEMBROS DA BANCA :
  • Felipe Alves Pereira Pinto
  • FRANKLIN DE SOUZA RAMALHO
  • SERGIO QUEIROZ DE MEDEIROS
  • UIRA KULESZA
  • Data: 30/08/2016

  • Mostrar Resumo
  • Este trabalho apresenta uma ferramenta composta por uma linguagem específica de domínio utilizada para descrever textualmente testes de performance, e por um componente que utiliza os testes descritos para gerar projetos em diferentes plataformas de execução de testes de performance. O objetivo é utilizar os conceitos definidos na linguagem para abstrair os conceitos de cada plataforma, que muitas vezes são modelados diferentemente (quanto à nomenclatura e/ou estrutura) e até dependentes da ferramenta, ao invés de apenas do domínio. A ferramenta proposta oferece suporte para testes de serviços SOAP, REST e de aplicações web para JMeter e Silk Performer. Ela também permite a extensão para novos tipos de testes e plataformas alvo. Foram feitos estudos para avaliar o uso da ferramenta: 3 testes de aplicações Web, REST e SOAP foram reescritos na DSL e então foram gerados projetos nas plataformas de destino, para que fossem executados. A partir dos ajustes e novas implementações necessários para a geração dos projetos, obteve-se feedback referente a capacidade de customização da ferramenta em relação aos tipos de aplicações e características de plataformas e organizações. Além disso, os scripts também foram avaliados em relação à sua concisão: além dos testes implementados com a DSL e com o Silk Performer, foram criados testes com a ferramenta Gatling.io (também baseados no teste da empresa). Comparou-se o total de palavras necessárias para a definição de cada teste, além da relação entre o número de palavras reservadas e o total de palavras, e a relação entre o número de palavras reservadas fora do contexto, e o total de palavras reservadas. Em média, os testes com a DSL apresentaram um percentual de 57,38% de palavras reservadas em relação ao total, contra 40,17% do Silk Performer e 65,11% do Gatling.io. Esta primeira comparação pode ser interpretada como a quantidade de informação adicional que o usuário precisa fornecer pra cada linguagem, além das estruturas fornecidas pela mesma. Já na segunda comparação, que pode interpretada como o quanto a sintaxe da linguagem hospedeira pode interferir na visualização das informações dos testes, a DSL teve em média 23,65% de palavras reservadas fora do contexto em relação ao total de palavras reservadas, contra 39,84% do Silk Performer e 53,98% do Gatling. Dessa forma, foi possível observar a viabilidade de utilizar a DSL para diferentes tipos de aplicações, customizando-a de acordo com determinados conceitos e características de plataformas e organizações.


  • Mostrar Abstract
  • This work presents a tool composed by a domain-specific language used to describe textually performance tests, and by a component that uses those described tests to generate projects in different performance test execution platforms. The purpose is to use concepts defined in the language to abstract the concepts of each platform, which are often modeled differently (regarding nomenclature and/or structure) and even dependent on the tool rather than just the domain. The proposed tool supports SOAP, REST and web applications performance tests to JMeter and Silk Performer. It also allows extension to new test types and target platforms. Studies has been made to evaluate the tool’s usage: tests from a company were rewritten with the DSL and then projects were generated on the target platforms, to be executed. This study also served to help in the development of the tool. It was possible to observe the feasibility of using the DSL to different application types, customizing it according to concepts and characterists of platforms and organizations.

SIGAA | Superintendência de Informática - | | Copyright © 2006-2020 - UFRN - sigaa05-producao.info.ufrn.br.sigaa05-producao