Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2024
Dissertações
1
  • Gleice Louise Garcia Costa dos Santos
  • Análise do Uso de Recursos Educacionais em Ambiente Virtual de Aprendizagem e os Impactos na Evasão de Estudantes

  • Orientador : LETICIA LOPES LEITE
  • MEMBROS DA BANCA :
  • LETICIA LOPES LEITE
  • EDISON ISHIKAWA
  • SERGIO ANTONIO ANDRADE DE FREITAS
  • CINTIA INES BOLL
  • Data: 15/02/2024

  • Mostrar Resumo
  • A resolução dos problemas educacionais, especialmente a evasão, é algo complexo e não há soluções rápidas com respostas imediatas para resolvê-lo. A evasão é um desses problemas e merece atenção especial, o que justifica a necessidade de elaboração de estudos, pesquisas e reflexões críticas acerca de nuances que fundamentam, perpassam e constituem abordagens que podem contribuir para compreender e combater esse fenômeno que ocorre em todas as modalidades de aprendizagem e níveis educacionais, sendo ainda mais prevalente na educação a distância.Vários fatores para esta desistência são apontados por especialistas: situação econômica do estudante, impacto na vida social, uso de tecnologias, dentre outros.Este trabalho se propõe a explorar este último fator, o uso dos recursos educacionais no Ambiente Virtual de Aprendizagem e o impacto na evasão, a partir de um estudo de caso exploratório com abordagem qualitativa, onde a análise de dados identificou os recursos mais usados em cursos de graduação e os relacionou com as taxas de evasão. Os resultados obtidos sugerem que a diversidade de recursos pode impactar nos índices de evasão.


  • Mostrar Abstract
  • Many educational problems are complex and there are no quick fixes with immediate answers to solve them. Evasion is one of these problems and deserves special attention, which justifies the need to carry out studies, research and critical reflections on the nuances that underlie, permeate and constitute approaches that can contribute to understanding and combating this phenomenon.The use of Information and Communication Technology brings people together, even if they are physically distant, but it can create a problem for those who do not have access to technological resources, which makes it an obstacle for people who do not have or have not developed certain skills.The technology resources that Distance Education uses, through Virtual Learning Environments, allow the construction of knowledge to occur in different spaces, with teachers and students developing activities in different places or times. Thus, the use of these educational technology resources available in Virtual Learning Environments will be addressed in this work from a mapping of educational resources used in undergraduate courses of the Open University of Brazil program at the University of Brasília. This research is characterized by being an exploratory case study and a qualitative approach was adopted, in which the data
    analysis carried out identified the most used resources and related them to the dropout rate of the respective courses. The results obtained suggest that the diversity of resources can impact dropout rates.

2
  • Ilo César Duarte Cabral
  • Mineração de Dados Legislativos Federais para Análise e Predição de Aprovação de Projetos de Lei

  • Orientador : GLAUCO VITOR PEDROSA
  • MEMBROS DA BANCA :
  • EDUARDO DE PAULA COSTA
  • GLAUCO VITOR PEDROSA
  • JOHN LENON CARDOSO GARDENGHI
  • LUIS PAULO FAINA GARCIA
  • Data: 26/02/2024

  • Mostrar Resumo
  • A divulgação dos dados legislativos pelo governo brasileiro abriu uma oportunidade para se entender os aspectos relacionados ao processo legislativo.  Ao analisar padrões históricos e variáveis relevantes, é possível antecipar resultados legislativos, otimizando o processo decisório. Prever os votos de órgãos deliberativos, por exemplo, pode levar a uma melhor compreensão das políticas governamentais e, assim, gerar estratégias acionáveis, permitindo que legisladores identifiquem questões críticas, aloquem recursos eficientemente e antecipem possíveis impasses. Este trabalho se propôs a investigar modelos para análise e previsão que maximizem o uso de atributos heterogêneos publicamente acessíveis dos dados legislativos para compreender a aprovação/reprovação de proposições legislativas. Para tal fim, foram desenvolvidos modelos de classificação baseados em algoritmos de aprendizado de máquinas e processamento de linguagem natural sobre os dados categóricos, textuais e de tramitação das Proposições Legislativas, a fim de identificar fatores discriminativos que pudessem influenciar na aprovação de Projetos de Lei e de Emenda. Como contribuição, os modelos de classificação foram avaliados em cinco cenários, utilizando diferentes conjuntos de atributos. Os resultados obtidos mostram um F1-Score de até 70% considerando apenas os dados categóricos das proposições e, ao se agregar os dados de tramitação, é possível obter um F1-Score de até 97%. Os testes realizados demonstram a viabilidade de se prever a aprovação de uma proposição durante seu fluxo no processo legislativo, gerando resultados que agregam conhecimento e levam a uma melhor compreensão dos aspectos relacionados ao processo legislativo brasileiro no âmbito federal.


  • Mostrar Abstract
  • The release of legislative data by the Brazilian government opened an opportunity to understand aspects related to the legislative process. By analyzing historical patterns and relevant variables, it is possible to anticipate legislative results, optimizing the decision-making process. Predicting the votes of deliberative bodies, for example, can lead to a better understanding of government policies and thus generate actionable strategies, allowing legislators to identify critical issues, allocate resources efficiently and anticipate possible impasses. This work set out to investigate models for analysis and prediction that maximize the use of publicly accessible heterogeneous data from legislative data to understand the approval/disapproval of legislative proposals. To this end, classification models based on machine learning algorithms and natural language processing were developed on categorical, textual and processing data of Legislative Proposals, in order to identify discriminatory factors that could influence the approval of Bills and Amendment Projects. As a contribution, the classification models were evaluated in five scenarios, using different sets of attributes. The results obtained show an F1-Score of up to 70\% considering only the categorical data of the propositions and, when aggregating the processing data, it is possible to obtain an F1-Score of up to 97\%. The tests carried out demonstrate the feasibility of predicting the approval of a proposition during its flow in the legislative process, generating results that add knowledge and lead to a better understanding of aspects related to the Brazilian legislative process at the federal level.

3
  • RICARDO CORDEIRO GALVÃO SANT'ANA VAN ERVEN
  • UXAPP: Evaluation of the User Experience of Digital Products through Emotion Recognition

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • ANA PAULA BERNARDI DA SILVA
  • EDNA DIAS CANEDO
  • REJANE MARIA DA COSTA FIGUEIREDO
  • THIAGO DE PAULO FALEIROS
  • Data: 28/02/2024

  • Mostrar Resumo
  • Contexto: medir a experiência do usuário (UX) é essencial para criar valor na transformação digital. A medição permite identificar intenções de compra futuras, fidelidade e retenção do usuário. A forma tradicional de medir a experiência do usuário por meio da autoavaliação apresenta problemas. Portanto, precisamos de uma abordagem mais direta que nos permita medir a experiência do usuário automaticamente.
    Objetivo: implementar e validar o modelo de avaliação de UX através de uma ferramenta que calcule automaticamente a avaliação da experiência do usuário de um produto digital e apresente pontos positivos, neutros e negativos na utilização deste produto. O modelo incluiu um processo de trabalho, um experimento exploratório e um aplicativo, que chamamos de UXAPP.
    Métodos: identificamos e selecionamos o estado da arte relacionado ao reconhecimento de emoções com Inteligência Artificial no contexto da satisfação do usuário. Depois disso, propusemos e implementamos o modelo de avaliação de UX. Desenvolvemos o aplicativo UXAPP e conduzimos o experimento exploratório seguindo o processo de trabalho. Convidamos nove participantes para realizar quatro tarefas cada. Coletamos dados de entrada manual e capturamos emoções do vídeo e da fala do usuário. Em seguida, realizamos uma análise de ambos os dados e geramos um relatório de UX. Por fim, comparamos os resultados obtidos do UXAPP e os dados de entrada do usuário.
    Resultados: a avaliação de UX do UXAPP corresponde diretamente às entradas do usuário em 50\% das tarefas e dá resposta próxima em outros 47,22\% dos resultados. Cada elemento UX, como usabilidade, afeto e valor para o usuário, foi avaliado e analisado de forma independente. A análise de usabilidade do UXAPP tem correspondência direta com a resposta do usuário em 30,56\% das tarefas e dá resposta próxima em outros 33,33\% dos resultados. A análise de afeto do UXAPP tem correspondência direta com a resposta do usuário em 52,78\% das tarefas e dá resposta próxima em outros 41,67\% dos resultados. O UXAPP também identificou 616 pontos de sentimentos positivos ou negativos em vídeo e fala para todas as tarefas. A análise de valor do usuário com UXAPP tem correspondência direta com a resposta do usuário em 36,11\% das tarefas e dá resposta aproximada em 50,00\% dos resultados. Registramos 5h 35m 31s de duração das tarefas. Com base em nossa experiência, estimamos que uma pessoa precisaria de pelo menos quatro vezes a duração dessa tarefa para processar todas as informações apresentadas no relatório de UX, incluindo encontrar todos os pontos de sentimento e distinguir picos de sentimento positivos e negativos.
    Conclusões: as possibilidades de aplicação do reconhecimento de emoções são inúmeras em termos de contextos, técnicas, formas e componentes. Apesar disso, foi possível desenvolver o UXAPP e validar o modelo de avaliação de UX para medir a experiência do usuário de um produto digital através do reconhecimento de emoções e Inteligência Artificial. Descobrimos que a análise UXAPP e a análise de avaliação do usuário são importantes e complementares. A principal contribuição deste trabalho é a entrega de um modelo validado para medir automaticamente a experiência do usuário e identificar pontos positivos, neutros e negativos na utilização de um produto digital. O UXAPP pode ser utilizado diretamente pelo usuário final, possibilitando automatizar todos os esforços para obter uma pontuação de avaliação de UX e identificar os pontos positivos e negativos da interação do usuário. Com isso, ele pode reduzir drasticamente os custos envolvidos no desenvolvimento de uma competência de experiência do usuário em uma organização. Esta pesquisa também define um processo de experimentação de medição que qualquer organização ou pesquisador pode reproduzir.


  • Mostrar Abstract
  • Context: measuring user experience (UX) is essential to create value in digital transformation. Measurement allows you to identify future purchase intentions, user loyalty, and retention. The traditional way of measuring user experience using self-assessment has problems. Therefore, we need a more straightforward approach to allow us to measure user experience automatically.
    Objective: implement and validate the UX evaluation model through a tool that automatically calculates the user experience rating of a digital product and presents positive, neutral, and negative points in using this product. The model included a work process, an exploratory experiment, and an application, which we call UXAPP.
    Methods: we identified and selected the state-of-art related to emotion recognition with Artificial Intelligence in the context of user satisfaction. After that, we proposed and implemented the UX evaluation model. We developed the UXAPP application and conducted the exploratory experiment following the work process. We invite nine participants to perform four tasks each. We collect manual input data and capture emotions from the user's video and speech. Then, we analyze both data and generate a UX report. Finally, we compare the results obtained from UXAPP and the user input data.
    Results: the UXAPP UX evaluation directly matches the user evaluation in 50\% of the tasks and gives a close answer in others 47.22\% of the results. Each UX element, like usability, affect, and user value, was evaluated and analyzed independently. The UXAPP usability analysis matches the user evaluation in 30.56\% of the tasks and gives a close answer in others 33.33\% of the results. The UXAPP affect analysis matches the user evaluation in 52.78\% of the tasks and gives a close answer in others 41.67\% of the results. UXAPP also identified 616 points of positive or negative sentiments in video and speech for all tasks. The UXAPP user value analysis matches the user evaluation in 36.11\% of the tasks and gives a close answer in 50.00\% of the results. We registered 5h 35m 31s of tasks’ duration. Based on our experience, we estimate that a person needed at least four times this task duration to process all the information presented in the UX report, including finding all sentiment points and distinguishing positive and negative sentiment peaks.
    Conclusions: the possibilities of applying emotion recognition are countless in terms of contexts, techniques, forms, and components. Despite this, it was possible to develop UXAPP and validate the UX evaluation model to measure the user experience of a digital product through emotion recognition and Artificial Intelligence. We found that UXAPP analysis and user evaluation analysis are important and complementary. The main contribution of this work is the delivery of a validated model to automatically measure user experience and identify positive, neutral, and negative points in the use of a digital product. UXAPP can be used directly by the final user, making it possible to automate all the efforts to obtain a UX evaluation score and identify user interaction's positive and negative points. It can drastically reduce the costs involved in developing a user experience competence in an organization. This research also defines a measurement experimentation process that any organization or researcher can reproduce.

     

4
  • Luan Borges dos Santos
  • SWPTMAC: Protocolo MAC de Programação Sono-Vigília e Transferência de Energia

  • Orientador : MARCELO ANTONIO MAROTTA
  • MEMBROS DA BANCA :
  • ANTONIO MARCOS ALBERTI
  • LUCAS BONDAN
  • MARCELO ANTONIO MAROTTA
  • MARCOS FAGUNDES CAETANO
  • Data: 28/02/2024

  • Mostrar Resumo
  •  As Redes de Sensores Sem Fio Subterrâneos (RSSFS) são redes formadas por sensores enterrados e utilizam conexão sem fio para comunicarem. As RSSFS são fundamentais para o monitoramento de ambientes subterrâneos, mas enfrentam um problema de baixa Vida Útil da Rede (VUR), por serem limitadas por fontes energéticas baseadas em baterias. A VUR é definida como o tempo máximo para o qual a rede está operacional, ou seja, o tempo em que é possível obter cobertura de rede em uma região observada. Portanto, diante da importância de maximizar a VUR para garantir a cobertura de uma região observada, é apresentado nessa dissertação um protocolo de programação sono-vigília adaptado a transferência sem fio de energia (TSFE) nas RSSFS para a maximização da vida útil destas redes. A pesquisa apresentada nessa dissertação foi realizada através de simulações com o simulador Omnet, utilizando o framework Castália. O resultado alcançado permite estabelecer que o protocolo proposto, chamado SWPTMAC, oferece um ganho médio de cerca de 24% em relação ao estado da arte.


  • Mostrar Abstract
  • Wireless Underground Sensor Networks (WUSNs) are complex systems comprised of subterranean sensors interconnected through wireless communication technologies. These networks fulfill a crucial role in monitoring subsurface environments. However, they grapple with a formidable challenge concerning their Network Lifetime (NL), which can be defined as the maximum duration over which the network remains operational and thus connected to a designated observation area. Given the paramount significance of prolonging NL to ensure comprehensive coverage of the observed region, the deployment of wireless power transfer stands out as a preeminent solution for augmenting NL. Nonetheless, the existing sleep-wakeup protocols have not been originally engineered to support this paradigm, which has subsequently resulted in suboptimal network performance. Therefore, we present a study to introduce a novel sleep-wakeup protocol explicitly tailored for wireless power transfer in WUSNs with the overarching aim of optimizing the network's operational lifetime called Sleep-Wakeup Power-Transfer Media Access Control (SWPTMAC). The evaluation of SWPTMAC has been conducted through comprehensive simulations leveraging the Castália simulator. The empirical findings disclosed an average improvement of approximately 24\% when contrasted against incumbent protocols in the domain.

5
  • Lucilene da Silva Leite
  • GESTÃO DE RISCOS COMO APOIO À MELHORIA DO PROCESSO SELEÇÃO DE STARTUPS EM CONTRATOS PÚBLICOS PARA SOLUÇÕES INOVADORAS

  • Orientador : SIMONE BORGES SIMAO MONTEIRO
  • MEMBROS DA BANCA :
  • SIMONE BORGES SIMAO MONTEIRO
  • ARI MELO MARIANO
  • JOHN LENON CARDOSO GARDENGHI
  • ADRIANA REGINA MARTIN
  • Data: 13/03/2024

  • Mostrar Resumo
  • O estudo abordou o gerenciamento de riscos em contratações de soluções inovadoras pela administração pública, com foco em uma instituição financeira pública brasileira. A pesquisa destacou a falta de métodos específicos para a avaliação de riscos em contratos de soluções inovadoras e a necessidade de integrar melhor a gestão de riscos com a gestão da inovação. A pesquisa revelou que as startups são avaliadas com os mesmos critérios que grandes corporações, resultando em riscos materiais e perda de oportunidades de inovar devido à desclassificação de parceiros mais qualificados na fase de due diligência de riscos. Para tanto, foi realizado o processo de avaliação de riscos com as etapas adaptadas da ISO 31000 – Identificação dos riscos, Análise dos riscos e Avaliação dos riscos - do processo “Seleção de Startups” (AS-IS), fazendo uso das técnicas de Brainstorming, Entrevista com especialistas e aplicação de formulário estruturado, abordadas na ISO 31010. A partir dos resultados da avaliação de riscos, foi elaborada em conjunto com os especialistas a estratégia de tratamento dos riscos classificados com nível alto, bem como a proposta de melhoria do processo “Seleção de Startups”, contemplando definição de classes e categorias de riscos; definição de controles a serem considerados na execução das estratégias de tratamento dos riscos; e aplicação do método Analytic Hierarchy Process (AHP) para suporte ao processo decisório na etapa de julgamento das candidatas. Por ultimo, foi apresentada a modelagem do processo ideal (TO BE) com a incorporação das melhorias propostas, e o protótipo computacional da interface do usuário, que possibilitou a simulação do novo fluxo operacional e a validação da jornada do usuário.


  • Mostrar Abstract
  • The present research focused on the risk management of Public Procurement of Innovative Solutions, specifically of a Brazilian public financial institution. Nowadays, it is rare to observe organizations implementing differentiated risk assessment methods with specific characteristics and a high degree of uncertainty as the public procurements of innovative solutions. Thus, the absence of a particular risk management model to be applied to the procurement of innovative solutions is a gap that must be addressed by public institutions in Brazilian Innovation Ecosystem. Therefore, it was necessary to carry out a study to understand how risk management can be better integrated with innovation management and how it can be applied more adequately to the procurement of innovative solutions in Open Innovation Journeys, to support strategic decision-making and gradually reduce unsuccessful procurement processes. The partial results brought by the case study and the current process (AS-IS) showed that startups are evaluated with the same criteria as other large and mediumsized corporations and companies; that is, the applied evaluation does not consider the size of the solution provider or service provider, nor the nature of the contracted services. In addition, the risk identification process showed that the institution has suffered the consequences of risks materialized, such as the procurement does not bring the expected technological efficiency due to the loss of opportunity to develop an innovative solution through a partnership with a more prepared and mature startup, which was disqualified during the institution's standard risk assessment.

6
  • Renan Silveira Holtermann
  • MODELAGEM DE RISCOS INERENTES AO PROCESSO DE AVALIAÇÃO CAPES PARA O CURSO DE MESTRADO PROFISSIONAL EM ADMINISTRAÇÃO PÚBLICA

  • Orientador : RICARDO MATOS CHAIM
  • MEMBROS DA BANCA :
  • LUCIANO HUGO MIRANDA FILHO
  • MARCELO LADEIRA
  • RICARDO MATOS CHAIM
  • SIMONE BORGES SIMAO MONTEIRO
  • Data: 17/04/2024

  • Mostrar Resumo
  • O Sistema de Avaliação da CAPES é o meio pelo qual a fundação avalia os programas de pós-graduação stricto sensu com o objetivo de assegurar a qualidade dos cursos ofertados. O sistema é segmentado nas avaliações de autorização e de manutenção (Avaliação Quadrienal), onde essa última representa o processo pelo qual a CAPES pondera os cursos, podendo manter, reduzir ou aumentar suas notas. Do ponto de vista das coordenações acadêmicas, a atividade regulatória empregada pela CAPES incide em riscos aos programas uma vez que impacta diretamente em seus objetivos. As coordenações interessadas em manterem seus cursos em funcionamento, bem como aumentar suas avaliações, devem incluir as exigências regulatórias em seu planejamento. Através da literatura foi possível observar estudos que buscaram compreender a avaliação de manutenção da CAPES. Essas pesquisas consideraram a avaliação de maneira ortodoxa, observando os quesitos e itens avaliativos de forma isolada. Contudo, essa pesquisa dissertativa demonstrou que a Avaliação Quadrienal pode ser compreendida como avaliação multifatorial, demanando que suas análises sejam integradas e não isoladas. Por esse motivo, os riscos relacionados à Avaliação Quadrienal foram estudados sob a ótica da Dinâmica de Sistemas, com o intuito de analisar como diferentes itens e variáveis geram influências entre si de acordo com as exigências e orientações da Área de Avaliação nº 27. Para atingimento dos resultados, a pesquisa envolveu a coordenação acadêmica e os docentes permanentes do Mestrado Profissional em Administração Pública do IDP. Os dados foram coletados através de entrevista e formulário de diagnóstico e indicaram oportunidades de melhorias seis itens da Ficha de Avaliação (1.3; 1.4; 2.2; 3.1; 3.2; e 3.3) que estão relacionados aos três quesitos da ficha. Adicionalmente, esses dados foram utilizados como entrada para definição do Diagrama de Estoque e Fluxo, representando de maneira holística o sistema em que o programa está imerso, agregando os interesses da IES, aspectos regulatórios e os principais pontos de melhoria do programa. A pesquisa permitiu relacionar as variáveis “Produção qualificada” e “Convênios Nacionais/Internacionais”, entre outras, que inicialmente são abordadas e descritas em diferentes quesitos da ficha de avaliação, além de destacar potenciais oportunidades para melhoria de nota no próximo ciclo avaliativo.


  • Mostrar Abstract

  • main goal:Mapping the relationships in which a higher education institution is inserted, from the perspective of systems dynamics;Complementarily, the following are identified as specific objectives of the research:Develop a bibliographic review related to the research topic, including specific literature, studies by specialized organizations, decrees, norms and legislation issued by educational regulatory bodies;Understand the risk factors linked to the momentary transition from face-to-face classes to remote ones;Understand the risk factors linked to the return to face-to-face classes;Identify the educational impacts during the transition, based on indicators of stricto sensu graduate students at the studied institution;

7
  • Eliane Cunha Marques
  • SOLUÇÃO DE BUSINESS INTELLIGENCE PARA ANÁLISE CRÍTICA E MONITORAMENTO DE RISCOS DE TECNOLOGIA DA INFORMAÇÃO: ESTUDO DE CASO DA REDE EBSERH

  • Orientador : RICARDO MATOS CHAIM
  • MEMBROS DA BANCA :
  • RICARDO MATOS CHAIM
  • GLADSTON LUIZ DA SILVA
  • MARCELO LADEIRA
  • ROSALVO ERMES STREIT
  • Data: 24/04/2024

  • Mostrar Resumo
  • Este estudo aborda a temática de gestão de riscos de Tecnologia da Informação da Empresa Brasileira de Serviços Hospitalares (Ebserh), que é uma Rede constituída pela Administração Central e suas filiais, compostas por 41 hospitais universitários federais (HUF) distribuídos pelo Brasil.

    A crescente importância da TI para os processos de negócio da Ebserh trouxe a necessidade de proteger os seus ativos de informação dos riscos relacionados à Tecnologia da Informação (TI), e para ter conhecimento dos riscos e saber como tratá-los foi desenvolvido e implantado o Processo de Gestão de Riscos de TI da Rede Ebserh.

    Contudo, a dificuldade para a consolidação, armazenamento e organização das informações devido a grande quantidade de dados, tornou-se um desafio para análise crítica e monitoramento dos riscos para tomada de decisão, tendo em vista, que não havia uma solução automatizada para auxiliar a DTI e nem os HUFs nas atividades de consolidação, análise crítica dos dados e monitoramento dos riscos de TI. Neste sentido, qual solução de Business Intelligence desenvolver para sumarizar os dados e apresentar informações relevantes para análise crítica e monitoramento dos riscos de TI, permitindo tomada de decisão com melhor chance de acerto?

    De acordo com a literatura, o Business Intelligence desempenha um papel essencial na geração de informações que apoiam as decisões operacionais e estratégicas do negócio, englobando um conjunto de técnicas e ferramentas utilizadas para transformar dados brutos em informações relevantes e úteis, permitindo a análise do negócio.

    Sendo assim, o presente estudo aborda um tema relevante para a Ebserh, uma vez que agregará valor ao processo de gestão de riscos dos ativos de TI, por tratar do desenvolvimento de uma solução de Business Intelligence para auxiliar na consolidação, consulta, análise dos dados e monitoramento dos riscos dos ativos de TI da Rede Ebserh, gerando conhecimento para tomada de decisão.

    Para tanto, foi realizada uma pesquisa de natureza bibliográfica e documental, com abordagem qualitativa e quantitativa, classificada como descritiva, com procedimentos metodológicos de estudo de caso e classificada como pesquisa aplicada com intuito de obter o embasamento teórico necessário para desenvolvimento da solução de Business Intelligence e desta forma, obteve-se como solução de Business Intelligence, representadas por Dashboards, que são painéis de controle interativos que incluem gráficos, métricas-chave e widgets permitindo explorar e analisar dados de forma dinâmica.  O painel construído é um software web acessível a partir de um browser.

    Os resultados decorrentes mostraram que a Solução de Business Intelligence apresentada, por meio de dashboards, foi satisfatória, pois permitiu a consolidação, consulta e análise crítica dos dados e monitoramento das incertezas que cercam a realização das estratégias organizacionais de TI da Ebserh, além de, a partir da aplicação do Business Intelligence alinhada a outras ferramentas internas, proporcionar o conhecimento, permitindo à Ebserh obter uma maior acurácia na visualização das informações de seus riscos de TI, o monitoramento em tempo real dos riscos de TI permitindo rápida resposta a eventos críticos; a análise crítica dos riscos de TI permitindo a identificação de padrões e tendências que indicam problemas subjacentes; uma visibilidade integrada dos riscos de TI da Rede, permitindo tomada de decisão, para tratativas em ampla escala; notificação automática de eventos críticos permitindo uma resposta rápida e eficaz a incidentes de TI, no âmbito da Rede, pela DTI e por cada HUF. A pesquisa ainda, contribui significativamente para a compreensão e aplicação de técnicas de design gráfico na visualização de dashboards. Ao destacar a importância da visualização na tomada de decisão e apresentar diversas técnicas de design gráfico para a criação de dashboards, a pesquisa oferece insights valiosos sobre como tornar as informações mais compreensíveis e acessíveis aos gestores. Isso potencialmente contribui para uma tomada de decisão mais eficaz e informada, ao mesmo tempo em que promove a aplicação prática de conceitos de design gráfico em ambientes de Business Intelligence. Assim, esta pesquisa não só oferece uma solução automatizada para a gestão de riscos de TI, mas também amplia o conhecimento sobre o papel da visualização de dados na tomada de decisão na criação de dashboards em geral.


  • Mostrar Abstract
  • This study addresses the issue of risk management in Information Technology at the Brazilian Company of Hospital Services (Ebserh).The Ebserh Network is constituted by the Central Administration and its branches, composed of 41 federal university hospitals distributed throughout Brazil.It is known that there are standards, tools and methods that help companies manage their risks, however it was found that a single methodology would not be able to cover the specificities of Information Technology of all 41 federal university hospitals in the Ebserh Network.Given the above, the objective of this study is to propose a model of Risk Management Process for IT assets for Rede Ebserh.To this end, a bibliographical, documental, basic research was carried out with a qualitative, quantitative and descriptive approach in order to obtain the necessary theoretical basis for the development of the model and, in this way, the IT Risk Management Process of the Ebserh Network was obtained,based on ISO/IEC 31000, ISO/IEC 27005, internal regulations and those of the Federal Government, allowing better management of the uncertainties surrounding the implementation of Ebserh's IT organizational strategies.After preparing the Ebserh Network's IT Risk Management Process Model, it was validated and subsequently published and implemented in the Ebserh Network.For monitoring, techniques related to business intelligence (BI) were used, allowing the visualization of information through reports (dashboard) and generating knowledge for decision making.The resulting results showed that the IT risk management process model was satisfactory and that the data obtained from the BI application aligned with other internal tools, allowed Ebserh to obtain greater accuracy in viewing the information of its IT risks.This study showed that a well-implemented IT risk management process model, combined with BI techniques and quality data, can provide inputs for Ebserh to make better decisions according to the analysis of the company's IT risk levels.Network, as well as being used by other public institutions that need an IT risk management process model.

8
  • Diego Costa Sombra
  • Modelo de Apoio a Decisão para Auditoria de Código Fonte: Um Estudo de Caso

  • Orientador : EDISON ISHIKAWA
  • MEMBROS DA BANCA :
  • EDISON ISHIKAWA
  • JOAO CARLOS FELIX SOUZA
  • MARCIO DE CARVALHO VICTORINO
  • GISLANE PEREIRA SANTANA
  • Data: 10/05/2024

  • Mostrar Resumo
  • Com a crescente demanda no mercado de desenvolvimento de software e prazos cada vez mais apertados, impulsionados pelas metodologias ágeis, os riscos associados a esses softwares têm aumentado nos últimos anos. Os cibercriminosos aproveitam-se de falhas de segurança, qualidade e conformidade para perpetrar crimes cibernéticos contra empresas, resultando em perdas financeiras e danos à reputação das organizações. Assim, é fundamental que as empresas envolvidas no desenvolvimento e fornecimento desses softwares
    possam compreender como identificar e priorizar as questões que exigem tratamento imediato.
    Na literatura, observou-se que os estudos existentes abordam os riscos de software de maneira isolada e não oferecem uma visão consolidada desses riscos, contendo um modelo que auxilie na tomada de decisão para priorizar qual risco e qual parte do software precisam ser tratados prioritariamente.
    Em resposta a esse desafio, este estudo teve como objetivo compreender os riscos envolvidos e explorar os métodos, técnicas e ferramentas disponíveis para a validação desses riscos em um software de mercado. Após a identificação dos riscos, foram aplicados os métodos, técnicas e ferramentas no software que validou a presença desses riscos. Ao confirmar a existência dos riscos, utilizou-se o método multicritério de apoio à decisão FAHP para auxiliar na classificação do risco, determinando qual parte do software e qual risco deveria ser priorizado primeiro.
    Os resultados indicaram que, dentre os nove módulos do software, o módulo Web com 34,57%, em conjunto com o risco de Vulnerabilidade com 50,35%, precisa ser priorizado. Este modelo de apoio à decisão surge como uma contribuição para as tomadas de decisão, especialmente na área da engenharia de software.


  • Mostrar Abstract
  • With the growing demand in the software development market and increasingly tight deadlines driven by agile methodologies, the associated risks to these software have increased in recent years. Cybercriminals exploit security, quality, and compliance vulnerabilities to commit cybercrimes against companies, resulting in financial losses and damage to the organizations’ reputation. Therefore, it is essential for companies involved in the development and supply of such software to understand how to identify and prioritize issues that require immediate attention.
    In the literature, it was observed that existing studies address software risks in isolation and do not provide a consolidated view of these risks, lacking a model to assist in decisionmaking to prioritize which risk and which part of the software need to be addressed urgently.
    In response to this challenge, this study aimed to understand the risks involved and explore the methods, techniques, and tools available for validating these risks in market software. After identifying the risks, methods, techniques, and tools were applied to the software, validating the presence of these risks. Upon confirming the existence of the risks, the FAHP multicriteria decision support method was used to assist in risk classification, determining which part of the software and which risk should be prioritized first.
    The results indicated that, among the nine software modules, the Web module with 34.57%, combined with the Vulnerability risk with 50.35%, needs to be prioritized. This decision support model emerges as a contribution to decision-making, especially in the field of software engineering.

9
  • Denise Soares Magalhães
  • Framework de Avaliação da Maturidade na Gestão de Risco de Modelo em Instituição Financeira

  • Orientador : SIMONE BORGES SIMAO MONTEIRO
  • MEMBROS DA BANCA :
  • ARI MELO MARIANO
  • JOAO MELLO DA SILVA
  • RICARDO COSER MERGULHAO
  • SIMONE BORGES SIMAO MONTEIRO
  • Data: 15/05/2024

  • Mostrar Resumo
  • Em decorrência dos avanços da tecnologia e crescimento exponencial dos dados, o desenvolvimento e uso de modelos analíticos tem se tornado generalizado nas organizações. Paralelo ao aumento quantitativo dos modelos, cresce também a complexidade deles. Embora isso aumente a velocidade da inovação, também aumenta o nível de risco ao qual a organização está exposta, bem como a necessidade de controles e governança específica. Nesse contexto, o presente estudo tem como objetivo propor um método prático de avaliação da maturidade na Gestão de Risco de Modelo considerando as principais fontes de risco de modelo e as melhores práticas de mercado utilizadas como medidas mitigadoras do risco de modelo durante o ciclo de vida dos modelos analíticos, cobrindo tanto aspectos técnicos quanto aspectos organizacionais. Para que esse estudo fosse possível, recorreu-se à metodologia aplicada por meio de um estudo de caso, com abordagem qualitativa, utilizando como técnica de coleta de dados entrevista realizada com especialistas, bem como observação do pesquisador. Foi realizada a modelagem BPMN do processo de Gestão do Ciclo de Vida de Modelos em Instuição financeira e aplicado o processo de avaliação de riscos de acordo com a norma ISO 31000 para identificar, analisar e avaliar as principais fontes de risco de modelo. Com essas informações será possível a indicação de ações mitigadoras para detecção e prevenção do risco de modelo, e elaboração de um framework para avaliação da maturidade da gestão do risco de modelo em Instituição Financeira.


  • Mostrar Abstract
  • As a result of advances in technology and exponential growth of data, the development and use of analytical (quantitative) models has become widespread in organizations. Parallel to the quantitative increase of the models, their complexity also grows. While this increases the speed of innovation, it also increases the level of risk the organization is exposed to, as well as the need for specific controls and governance. In this context, the present study aims to propose a practical method of assessing maturity in Model Risk Management, considering the main model risk factors and the best market practices used as Model Risk mitigating measures, covering technical and organizational. In order for this study to be possible, the methodology applied was used through a case study, with a qualitative approach, using as a data collection technique interviews with experts, as well as the researcher’s observation. Modeling of the Life Cycle Management process of Models in Financial Institutions was carried out, identifying and evaluating the Model Risk Factors, with an indication of actions to detect and predict the Model Risk. And, finally, as a result, a Qualitative method for Maturity Assessment in Model Risk Management in a Financial Institution is presented.

2023
Dissertações
1
  • Jose Carlos Ferrer Simões
  • Avaliação da Eficiência dos Investimentos em Segurança Física numa Instituição Financeira

  • Orientador : JOAO CARLOS FELIX SOUZA
  • MEMBROS DA BANCA :
  • ARI MELO MARIANO
  • JOAO CARLOS FELIX SOUZA
  • JOAO GABRIEL DE MORAES SOUZA
  • PENG YAOHAO
  • Data: 06/01/2023

  • Mostrar Resumo
  • As instituições financeiras investem fortemente em segurança física e patrimonial com a implementação de aparatos de segurança cada vez mais modernos, obras de reforço estrutural em tesourarias e salas cofres e reforço de sistema de vigilância com o propósito de mitigar as perdas decorrentes de roubos externos e fraudes contra as agências. No entanto, tem se observado que o investimento de recursos em determinadas agências, com o viés de segurança física, não garante o mesmo grau de eficiência relativa em relação a outras agências que receberam investimento menor. Desta forma, será realizado uma análise dos investimentos mínimos necessários, com enfoque em segurança física bancária, para que o risco operacional, na modalidade evento externo (roubos externos e fraudes contra o sistema bancário), se mantenha dentro do apetite de risco estabelecido pela instituição. Observar que neste estudo somente serão considerados variáveis e investimentos que tratam de segurança física e patrimonial. A análise será numa instituição financeira brasileira, por meio da modelagem de Análise Envoltória de Dados (DEA), dos investimentos em segurança física e patrimonial, mínimos necessários, em cada agência, também chamada de DMU, de forma a verificar as agências que apresentam melhor eficiência relativa frente às demais agências. Para a aplicação da DEA foram utilizados 4 inputs (investimento em equipamentos de segurança física e patrimonial, investimento em obras de infraestrutura, despesa com vigilância e número de vigilantes por agência) e 2 outputs (perda mitigada e inverso do risco potencial). Por meio desta análise, pode-se verificar as Regiões, UF e DMUs que são eficientes assim como apresentar possíveis reduções de investimento em segurança. Pode-se verificar quais DMUs eficientes atuarão como benchmark para as DMUs menos eficientes. Por fim, utilizou-se a Regressão Tobit com o propósito de verificar possíveis influências de fatores indiretos que podem impactar nos escores de eficiência.


  • Mostrar Abstract
  • Financial institutions invest heavily in physical and property security with the implementation of increasingly modern security devices, structural reinforcement works in treasuries and safe rooms and reinforcement of the surveillance system with the purpose of mitigating losses resulting from external thefts and fraud against agencies. However, it has been observed that the investment of resources in certain agencies, with a physical security bias, does not guarantee the same degree of relative efficiency in relation to other agencies that received less investment. In this way, an analysis of the minimum necessary investments will be carried out, with a focus on physical banking security, so that the operational risk, in the external event modality (external theft and fraud against the banking system), remains within the risk appetite established by the institution.  Note that in this study, only variables and investments that deal with physical and property security will be considered. The analysis will be in a Brazilian financial institution, through the modeling of Data Envelopment Analysis (DEA), of the investments in physical and patrimonial security, minimum necessary, in each branch, also called DMU, in order to verify the branches that present better relative efficiency compared to other agencies. For the application of DEA, 4 inputs were used (investment in physical and property security equipment, investment in infrastructure works, expenditure on surveillance and number of guards per branch) and 2 outputs (mitigated loss and inverse of the potential risk). Through this analysis, it is possible to verify the Regions, UF and DMUs that are efficient as well as to present possible reductions in security investment. It can be verified which efficient DMUs will act as a benchmark for the less efficient DMUs. Finally, the Tobit Regression was used with the purpose of verifying possible influences of indirect factors that can impact the efficiency scores.

2
  • João Laterza
  • Classificação automatizada de reclamações abertas pelos clientes e usuários do Sistema Financeiro Nacional

  • Orientador : THIAGO DE PAULO FALEIROS
  • MEMBROS DA BANCA :
  • GLAUCO VITOR PEDROSA
  • LUIS PAULO FAINA GARCIA
  • NÁDIA FELIX FELIPE DA SILVA
  • THIAGO DE PAULO FALEIROS
  • Data: 10/02/2023

  • Mostrar Resumo
  • Compete ao Banco Central do Brasil (BCB) atender aos clientes e usuários do Sistema Financeiro Nacional (SFN) na apresentação de reclamações contra produtos e serviços oferecidos pelas entidades supervisionadas, e monitorar o atendimento de suas demandas. O processo de tratamento dessas reclamações é feito manualmente, e consiste no seu enquadramento como “procedente” ou “improcedente”, a partir da análise do relato do cidadão, da resposta da entidade reclamada, dos documentos anexados à demanda e de julgamento sobre se houve ou não descumprimento da regulamentação vigente. Contudo, com o recente aumento no volume de demandas, não é possível, com os recursos disponíveis, analisar a integralidade das remessas. Nesse contexto, foi construída, pelo BCB, solução automatizada para filtrar as reclamações com maior possibilidade de serem procedentes, direcionando, assim, os esforços de análise e julgamento promovidos pelos seus servidores. Destarte, esta pesquisa teve como objetivo desenvolver um classificador para a tarefa em questão com desempenho superior ao do modelo vigente. Para isso, foram exploradas abordagens de aprendizagem profunda, em contraponto ao método tradicional empregado anteriormente. Como resultado, foi desenvolvido um classificador baseado em uma estrutura hierárquica combinando um Bidirectional Encoder Representations from Transformers (BERT) e uma Bidirectional Long short-term memory (BiLSTM) para gerar representações únicas dos textos da reclamação do cidadão e da resposta da entidade reclamada. Essa solução alcançou, na validação cruzada, um desempenho médio - calculado pela Área sobre a curva Precisão-Revocação (PRAUC) - de 71,41%, superando em 0,96 pontos percentuais o modelo reproduzido do BCB, e desempenhando 71,92% nos dados de teste. Estimou-se que, caso o classificador proposto fosse utilizado para nortear a tarefa de tratamento das reclamações, seria possível cobrir 90,23% daquelas de fato procedentes avaliando-se apenas 60% do total de demandas. Por fim, foram ainda propostas estratégias multimodais para a combinação das representações textuais descritas com outras variáveis tabulares que compuseram a solução original. No entanto, o ganho obtido pelas estratégias multimodais frente à proposta anterior não foi estatisticamente significante.


  • Mostrar Abstract
  • The Central Bank of Brazil (BCB) is responsible for assisting customers and users of the National Financial System (SFN) with complaints against products and services offered by its supervised entities and ensuring that all demands are appropriately addressed. Each concern is manually handled and classified as “proceeding” or “unfounded” based on a preliminary analysis of the facts described by the customer, the alleged entity’s reply, the attached documents, and according to its compliance with current regulations. However, dealing with an increasing demand with the available resources has turned out to be an unprecedented challenge, being currently impossible to handle all issues accordingly. In this context, the BCB has developed an automated solution to filter complaints more likely to be classified as “proceeding”, thus driving the human activities of examination, analysis and judgment. The present study aims to propose a new classifier for this task with better performance than the current model. To this end, deep learning approaches were explored, differing from the traditional method previously employed. As a result, an experimental classifier was tested, based on a hierarchical structure, and combining Bidirectional Encoder Representations from Transformers (BERT) with Bidirectional Long Short-Term Memory (BiLSTM) to generate unique contempt representations of both the citizen’s complaint and the entity’s reply. In cross-validation, this solution reached an average performance of 71.41%, based on the area under the precision-recall curve (PRAUC), exceeding the current BCB model by 0.96 percentage points, and performing 71.92% on the test dataset. If the proposed classifier was adopted to drive the task of handling complaints, we estimate that approximately 90.23% of the proceeding demands could be identified by evaluating only 60% of the total amount. In addition, multimodal strategies were tested to combine the described textual representations with tabular features of the original classifier. However, when compared to the previous proposed solution, the achieved gain with the multimodal strategies did not reach a statistically significant outcome.

3
  • Diego Marques de Azevedo
  • Uma análise probabilística do desempenho de sistemas ASR para rádios e tvs brasileiras.

  • Orientador : GUILHERME SOUZA RODRIGUES
  • MEMBROS DA BANCA :
  • ANDERSON DA SILVA SOARES
  • GLAUCO VITOR PEDROSA
  • GUILHERME SOUZA RODRIGUES
  • NELSON CRUZ SAMPAIO NETO
  • Data: 03/03/2023

  • Mostrar Resumo
  • Com o uso de tecnologias baseadas em redes neurais artificiais, os sistemas de Reconhecimento Automático de Fala (do inglês, Automatic Speech Recognition – ASR) para o Português Brasileiro (PB) têm apresentado importantes avanços nos últimos anos. Muitos dos trabalhos que alcançaram resultados no estado da arte utilizaram modelos de ponta-a-ponta de código aberto, como o Wav2vec 2.0 e o Whisper. Dentre outras alternativas, estão as ferramentas comerciais, também avaliadas em nosso trabalho. Foram incluídas no estudo as APIs do Google e da Microsoft para a transcrição da fala em texto e também o sistema da VoiceInteraction, chamado Audimus. Nós analisamos o desempenho relativo dessas ferramentas – utilizando como métrica o Word Error Rate (WER) – sobre a transcrição de áudios gravados de rádios e canais de TV. Um modelo linear generalizado (do inglês, Generalized Linear Model – GLM) foi criado para descrever de forma estocástica,
    para cada método em questão, o relacionamento entre as propriedades dos áudios utilizados no experimento (exemplo, formato do arquivo e duração do áudio) e a acurácia da transcrição. Dentre outros usos, essa estratégia permite a análise local da performance de cada método, sendo possível estimar o desempenho esperado para cada áudio. Assim, é possível identificar não apenas a ferramenta com melhor performance global, mas também diagnosticar em quais tipos de áudio cada método teria o melhor desempenho. Essa abordagem possibilita a construção de sistemas ASR otimizados a partir do uso composto de diversos transcritores. Os dados gerados e o código utilizado para construção do modelo estocástico neste experimento estão publicamente disponíveis.


  • Mostrar Abstract
  • With the use of neural network-based technologies, Automatic Speech Recognition (ASR) systems for Brazilian Portuguese (BP) have shown great progress in the last few years. Several state-of-art results were achieved by open-source end-to-end models, such as the Kaldi toolkit and the Wav2vec 2.0. Alternative commercial tools are also available, including the Google and Microsoft speech-to-text APIs and the Audimus System of VoiceInteraction. We analyze the relative performance of such tools – in terms of the so-called Word Error Rate (WER) – when transcribing audio recordings from Brazilian radio and TV channels. A generalized linear model (GLM) is designed to stochastically describe the relationship between some of the audio’s properties (e.g. file format and audio duration) and the resulting WER, for each method under consideration. Among other uses, such strategy enables the analysis of local performances, indicating not only which tool performs better, but when
    exactly it is expected to do so. This, in turn, could be used to design an optimized system composed of several transcribers. The data generated for conducting this experiment and the scripts used to produce the stochastic model are public available.

4
  • Públio Pastrolin Cavalcante
  • Avaliação da mudança na qualidade dos relatórios com a aplicação da gamificação em atividades de inteligência policial

  • Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
  • MEMBROS DA BANCA :
  • ANDRE LUIZ PERON MARTINS LANNA
  • CHARLES ANDRYÊ GALVÃO MADEIRA
  • GEORGE MARSICANO CORREA
  • SERGIO ANTONIO ANDRADE DE FREITAS
  • Data: 23/03/2023

  • Mostrar Resumo
  • A gamificação de atividades não lúdicas ganhou espaço no ambiente industrial, de serviços e educacional. A literatura aponta que, ao introduzir elementos de jogos em um ambi- ente, as atividades podem ser mais atrativas, divertidas e agradáveis. Combinar técnicas de jogo para motivar e envolver as pessoas provou ser uma ferramenta poderosa para os gestores. A Polícia Militar do Distrito Federal é a corporação policial responsável pelo policiamento ostensivo e manutenção da ordem pública na capital federal. A Atividade de Inteligência é utilizada para assessorar em decisões estratégicas, táticas e operacionais. Este trabalho apresenta o Processo Gamificado de Relatórios de Inteligência (PGRI) para ser utilizado no Sistema de Inteligência da Polícia Militar. A gamificação foi estruturada utilizando como base o framework de gamificação Octalysis e valeu-se de conceitos estatís- ticos utilizados em questionários baseados no Intrinsic Motivation Inventory e análise de documentos. O PGRI busca melhorar a qualidade dos relatórios de inteligência com a aplicação de gamificação e é retroalimentado por um ciclo iterativo de planejamento por meio dos resultados da avaliação do processo. Apresenta uma revisão da literatura sobre os conceitos de jogos e gamificação, Atividade de Inteligência e Segurança Pública e um resumo sobre a Polícia Militar do Distrito Federal.


  • Mostrar Abstract
  • The gamification of non-playful activities gained ground in the industrial, service, and educational environment, and the literature points out that by introducing game elements into an environment, activities can be more attractive, fun and more enjoyable. Combining game techniques to motivate and engage people has proven to be a powerful tool for managers. Military Police ́s from Federal District is the police corporation responsible for the ostensible policing and maintenance of public order in the federal capital. The Intelligence Activity is used to advisory on strategic, tactical, and operational decisions. This work presents the Gamified Intelligence Reporting Process (PGRI) to be utilized in Military Police Intelligence System. PGRI was constructed using Octalysis gamification framework base. Built using Intrinsic Motivation Inventory questionnaires and document analysis submited to statistical concepts. The PGRI pursue to improve the quality of intelligence reports with the application of gamification and is fed back by an iterative cycle of planning through the process evaluation results. It presents a literature review about the concepts of games and gamification, Intelligence Activities and Public Security and a summary about the Military Police of the Federal District.

5
  • José Nilo Alves de Sousa Neto
  • Estimativa de Valores de Imóveis da União Administrados pelo Exército Brasileiro com Técnicas de Aprendizagem de Máquina e Componentes Espaciais

  • Orientador : MARCELO LADEIRA
  • MEMBROS DA BANCA :
  • MARCELO LADEIRA
  • ARI MELO MARIANO
  • EDISON ISHIKAWA
  • BERNARDO ALVES FURTADO
  • Data: 18/04/2023

  • Mostrar Resumo
  • A valoração do patrimônio imobilizado de uma instituição representa uma condição necessária a uma gestão eficiente de seus ativos. A execução e a análise dos laudos de avaliação imobiliária são essenciais à consecução de alguns objetivos estratégicos da Força Terrestre do Brasil, mas são, também, bastante onerosas em termos de tempo, mão de obra e recursos financeiros. Ocorre, por vezes, emprego de grande esforço para que as etapas supramencionadas ocorram e o valor de mercado finalmente obtido ser incoerente com o que as autoridades solicitantes imaginavam inicialmente, fazendo com que o estudo técnico realizado não seja efetivamente utilizado em negociações pela organização. Nesse sentido, este trabalho propõe o desenvolvimento de modelos preditivos multiníveis capazes de construir estimativas do valor dos imóveis urbanos e rurais. Os modelos têm razoável nível de assertividade e abrangência geográfica nacional ao gerar valores estimativos de mercado dos imóveis da União. Contemplaram-se variáveis intrínsecas e extrínsecas aos imóveis, incluindo testes de agregação de componentes espaciais sobre algumas delas. Como a interpretabilidade da solução proposta é um requisito importante, tanto nas abordagens lineares quanto nas não lineares, adotou-se o valor de Shapley como ferramenta de apoio à garantia de explicabilidade. Modelos de equações estruturais com mínimos quadrados parciais (PLS-SEM) foram construídos para selecionar atributos de maneira melhor fundamentada e visualmente acessível. Essas duas considerações, associadas à precificação estimativa de propriedades a nível nacional, representam uma inovação deste trabalho em relação à literatura científica analisada.


  • Mostrar Abstract
  • The valuation of an institution’s patrimony represents a necessary condition for an efficient management of its assets. The execution and analysis of real estate appraisal reports areessential to the achievement of some strategic objectives of the Brazilian Army, but theyare also quite costly in terms of time, labor and financial resources. Sometimes, greateffort is required for the aforementioned steps to take place and the market value finally obtained is inconsistent with what was initially imagined by the authorities, causing the technical study carried out to not be effectively used in negotiations by the organization. In this sense, this work proposes the development of multilevel predictive models capable of building estimates of urban and rural real estate values. The models have a reasonable level of assertiveness and national geographic coverage when generate estimated market values of Union real estate assets. Intrinsic and extrinsic variables to the properties were considered, including tests of aggregation of spatial components on some of them. As the interpretability of the proposed solution is an important requirement, in both linear and nonlinear approaches, the Shapley value was adopted as a tool to support the guarantee of explainability. Partial least squares structural equation modeling (PLS-SEM) method was applied in order to select features in a reasoned and visually accessible manner. These two considerations associated with real estate price modeling at a national level represent an innovation of this work in relation to the analyzed scientific literature.

6
  • Rodrigo Pereira Gomes
  • Proposição de uma ferramenta computacional de Gerenciamento de Riscos da Fadiga Humana para Controladores de Tráfego Aéreo

  • Orientador : SIMONE BORGES SIMAO MONTEIRO
  • MEMBROS DA BANCA :
  • SIMONE BORGES SIMAO MONTEIRO
  • ARI MELO MARIANO
  • EDGARD COSTA OLIVEIRA
  • REGIANE MÁXIMO SIQUEIRA
  • Data: 24/04/2023

  • Mostrar Resumo
  • Este trabalho tem como objetivo propor uma ferramenta computacional de Gerenciamento de Riscos relacionados à Fadiga Humana, a partir da abordagem Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS), aplicado ao Primeiro Centro Integrado de Defesa Aérea e Controle de Tráfego Aéreo (CINDACTA I), de forma a minimizar os riscos concernentes à fadiga. Para tal, realizou-se uma pesquisa exploratória, descritiva, de natureza aplicada, com abordagem qualitativa e quantitativa.

    Utilizou-se como técnica de coleta de dados documentos do Comando da Aeronáutica, legislações nacionais e internacionais, aplicação de questionário, brainstorming com especialistas das áreas de investigação e prevenção de acidentes aeronáuticos, e controle de tráfego aéreo. Como resultado deste estudo, foi coletada a percepção dos operadores que atuam em órgãos operacionais. Os profissionais responderam um questionário com 44 questões objetivas, embasadas na literatura, relacionadas diretamente com o tema Fadiga Humana (FH), que podem influenciar o Desempenho Operacional (DO). Para tabular os dados resultantes, aplicou-se a modelagem de equações estruturais de mínimos quadrados parciais (PLS-SEM), a qual revelou que conforme a resposta de 149 operadores, o modelo conceitual elaborado explica o desempenho operacional em 34,7%, as dimensões tempo de reação em 31,2% e estado de alerta em 29,9%. Na etapa de validação, foi apresentada a solução computacional aos especialistas e analistas, por meio de reuniões, objetivando uma validação do Sistema de Gerenciamento de Riscos da Fadiga (SGRF), avaliando a viabilidade de utilização da ferramenta pela instituição. O estudo revelou que, para a melhoria do desempenho operacional dos controladores de tráfego aéreo, deve-se realizar ações quanto à qualidade do sono e ao tempo de reação. Por fim, apresentou-se um protótipo de ferramenta computacional desenvolvido, testado e validado por especialistas da Organização, denominado Sistema de Gerenciamento de Riscos da Fadiga Humana (SGRF), visando contemplar todas as etapas essenciais do processo de gerenciamento de riscos da fadiga para o Air Traffic Control Officer - Controlador de Tráfego Aéreo (ATCO), segundo a abordagem Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS).


  • Mostrar Abstract
  • This work aims to propose a computational tool for Risk Management related to Human Fatigue, based on the Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS) approach, applied to Primeiro Centro Integrado de Defesa Aérea e Controle de Tráfego Aéreo (CINDACTA I), in order to minimize the risks related to fatigue. To this end, exploratory, descriptive, applied research was carried out, with a qualitative and quantitative approach. Documents from the Air Force Command, national and international legislation, application of a questionnaire, brainstorming with specialists in the areas of investigation and prevention of aeronautical accidents, and air traffic control were used as a data collection technique. As a result of this study, the perception of operators who work in operational bodies was collected. Based on the literature, the professionals answered a questionnaire with 44 objective questions directly related to the Human Fatigue (FH) theme, which can influence Operational Performance (OD). To tabulate the resulting data, partial least squares structural equation modeling (PLS-SEM) was applied, which revealed that according to the response of 149 operators, the conceptual model elaborated explains the operational performance in 34.7%, the dimension reaction time in 31.2% and state of alert in 29.9%. In the validation stage, the computational solution was presented to specialists and analysts, through meetings, aiming at validating the Sistema de Gerenciamento de Riscos da Fadiga (SGRF) and evaluating the feasibility of using the tool by the institution. The study revealed that, in order to improve the operational performance of air traffic controllers, actions should be taken regarding sleep quality and reaction time. Finally, a prototype of a computational tool developed, tested, and validated by the Organization’s specialists, called the Sistema de Gerenciamento de Riscos da Fadiga (SGRF), was presented, aiming to contemplate all the essential stages of the fatigue risk management process for the Air Traffic Control Officer (ATCO), according to the Fatigue Risk Management System (FRMS) approach.

7
  • Marcella Guarnieri Mercês
  • Predição de evasão de militares do Exército Brasileiro utilizando técnicas de machine learning

  • Orientador : MARCIO DE CARVALHO VICTORINO
  • MEMBROS DA BANCA :
  • EDISON ISHIKAWA
  • MARCIO DE CARVALHO VICTORINO
  • MARIA CLÁUDIA REIS CAVALCANTI
  • THIAGO DE PAULO FALEIROS
  • Data: 22/06/2023

  • Mostrar Resumo
  • Esse trabalho tem por objetivo realizar uma análise do quadro demissionário de oficiais do Exército Brasileiro ao longo dos anos e propor um conjunto de técnicas que possibilitem identificar os oficiais com maior probabilidade de se tornarem demissionários, de forma a permitir que o Exército aja proativamente a fim de evitar as perdas que esse ato causa para a Força Terrestre. As abordagens utilizadas levam em consideração as técnicas de aprendizado de máquina mais utilizadas para a predição de demissão voluntária de empregados em empresas dos mais diversos ramos de atuação, como os algoritmos de classificação K Nearest Neighbors (KNN), Naive Bayes, Suport Vector Machines (SVM), Árvores de Decisão e Random Forest. A utilização de outros tipos de técnicas e de melhorias no conjunto de dados é avaliada com a intenção de melhorar os resultados obtidos.


  • Mostrar Abstract
  • This research aims to analyse the turnover of Brazilian Army’s officers over the years and propose a set of techniques that allow the identification of those officers more likely to resign. This result can help the Brazilian Army to act so that these resignations have a lesser impact in it’s productivity. The aproaches chosen considered the most common techniques used to predict employee churn in other areas. Common classification algorithms, such as K Nearest Neighbors (KNN), Naive Bayes, Suport Vector Machines (SVM), Decision Trees and Random Forest were used. Techniques that could improve the first results found were also studied so that they can be applied in the continuation of this research.

8
  • EDMILSON COSME DA SILVA
  • Previsão da evasão acadêmica no ensino superior: O caso dos cursos de graduação presencial da Universidade de Brasília

  • Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
  • MEMBROS DA BANCA :
  • SERGIO ANTONIO ANDRADE DE FREITAS
  • ANDRE LUIZ PERON MARTINS LANNA
  • ANDREA FELIPPE CABELLO
  • RAFAEL FERREIRA LEITE DE MELLO
  • Data: 03/07/2023

  • Mostrar Resumo
  • Já há algum tempo, pesquisadores (inter)nacionais têm estudado a evasão nos cursos de ensino superior, classificando-a em dois tipos: estudantes que abandonam a universidade; e estudantes que abandonam o ensino superior. Ambas as situações causam danos à instituição, aos alunos e à sociedade em geral. A partir de 1995, com a criação da ANDIFES, os estudos começaram a se tornar mais frequentes no Brasil. Essa comissão elaborou relatórios que analisaram os índices de diplomação, retenção e evasão nos cursos de graduação nas Universidades Brasileiras. A evasão institucional foi um dos temas de estudo, sendo descrita como a saída do aluno de seu curso de origem, sem finalizar o curso. A Universidade de Brasília (UnB), tendo em vista a problemática que envolve a evasão do curso pelos estudantes, tem criado mecanismos que permitam aumentar a permanência dos estudantes nos cursos de graduação. O objetivo deste trabalho foi elaborar e avaliar um modelo de análise que permita utilizar os dados acadêmicos para previsão de evasão nos cursos de graduação presencial. A Revisão Sistemática da Literatura foi realizada com o propósito de identificar os fatores que impactam na evasão, a partir desses fatores, definir indicadores que possam ser extraídos dos sistemas acadêmicos da UnB. Ela também contribuiu na para selecionar algoritmos/ferramentas que deram suporte nas análises. O principal resultado da revisão sistemática foi a identificação de 29 fatores usados pelos pesquisadores, onde a pontuação média, gênero, notas do curso foram os mais utilizados. Sobre as ferramentas, a Regressão, a Árvore de Decisão e a Rede Neural foram os algoritmos mais usados. A partir desse resultado preliminar, foi criado o Modelo de Análise na Graduação (MAGRA), que utiliza os indicadores existentes nos sistemas acadêmicos da UnB em conjunto com ferramentas de aprendizagem de máquina para prever alunos com potencial de risco de evasão. A pesquisa se desenvolveu em um ambiente que contempla dois cenários. O primeiro foi desenvolvido na Faculdade do Gama (FGA), que serviu de protótipo para a criação do MAGRA, e o segundo na UnB. Nas etapas de testes, nas quais foram usadas somente as disciplinas cursadas pelos alunos, mostrou-se que o número de vezes que os alunos cursam uma disciplina pode ser um indicador da dificuldade desse aluno em cumprir a disciplina no tempo determinado. Empregando as novas variáveis, houve um aumento no número de modelos válidos e, consequentemente, um aumento nos cursos e turmas analisados, o que resultou em um número maior de previsões. A situação foi percebida ao conduzir os estudos na Faculdade do Gama e na Universidade de Brasília. Para melhorar a identificação precoce dos alunos com características de evasão, é necessário criar mecanismos de feedback por parte dos coordenadores de cursos, incluir novos sistemas, melhorar a qualidade dos dados e ajustar os parâmetros dos algoritmos.


  • Mostrar Abstract
  • For some time now, (inter)national researchers have been studying dropout rates in higher education courses, classifying them into two types: students who drop out of the university, and students who drop out of higher education. Both situations cause damage to the institution, students, and society at large. Starting in 1995, with the creation of ANDIFES, studies began to be more frequent in Brazil. This commission developed reports that analyzed graduation rates, retention, and dropout rates in undergraduate courses at Brazilian universities. Institutional dropout was one of the study subjects, described as a student leaving their original course without completing it. The University of Brasília (UnB), considering the issues surrounding student dropout, has created mechanisms to increase student retention in undergraduate courses. The objective of this work was to develop and evaluate an analytical model that allows the use of academic data for predicting dropout rates in face-to-face undergraduate courses. A Systematic Literature Review was conducted to identify the factors that impact dropout rates and define indicators that can be extracted from UnB's academic systems. It also helped in selecting algorithms/tools to support the analysis. The main result of the systematic review was the identification of 29 factors used by researchers, where average score, gender, and course grades were the most commonly used ones. Regarding tools, Regression, Decision Tree, and Neural Network were the most frequently used algorithms. Based on this preliminary result, the Undergraduate Analysis Model (MAGRA) was created, which utilizes existing indicators in UnB's academic systems in conjunction with machine learning tools to predict students at risk of dropout. The research was conducted in an environment that encompasses two scenarios. The first was developed at the Faculty of Gama (FGA), which served as a prototype for MAGRA's creation, and the second at UnB. In the testing stages, where only the courses taken by students were considered, it was shown that the number of times a student takes a course can be an indicator of their difficulty in completing it within the designated time frame. By employing the new variables, there was an increase in the number of valid models and, consequently, an increase in the analyzed courses and classes, resulting in a higher number of predictions. This situation was observed during the studies conducted at the Faculty of Gama and the University of Brasília. To improve early identification of students with dropout characteristics, it is necessary to create feedback mechanisms from course coordinators, introduce new systems, improve data quality, and adjust algorithm parameters.

9
  • Amilton Lôbo Mendes Junior
  • A utilização de técnicas de classificação aplicadas ao perfilamento de trabalhadores do Sistema Nacional de Emprego: uma abordagem de aprendizado de máquina

  • Orientador : GLADSTON LUIZ DA SILVA
  • MEMBROS DA BANCA :
  • FRANCISCO JOSÉ DA SILVA E SILVA
  • GLADSTON LUIZ DA SILVA
  • MARCELO LADEIRA
  • MARISTELA TERTO DE HOLANDA
  • Data: 04/07/2023

  • Mostrar Resumo
  • O presente trabalho propõe a utilização de aprendizado de máquina no perfilamento de trabalhadores do sistema público de emprego brasileiro, o Sistema Nacional de Emprego - Sine. Autilização de um mecanismo automatizado de perfilamento de trabalhadores permitirá que esforços sejam direcionados no tratamento preventivo a trabalhadores mais propensos a permanecerem por mais tempo fora do mercado formal de trabalho. A acurá- cia e o f1-scoreforam as métricas utilizadas na avaliação dos modelos propostos. No experimento, o modelo com os melhores resultados apresentados foi o Extreme Gradient Boosting. Melhorias futuras podem incluir a adição de variáveis relacionadas ao perfis dos trabalhadores, ao mercado local de trabalho e às transições de setores econômicos, de ocupações e de residência.


  • Mostrar Abstract
  • The present work proposes the application of machine learning in the profiling of workers of brazilian public employment system, the National Employment System - NES ( Sine in portuguese ). The use of an automated mechanism of workers profiling will allow efforts to be directed to the preventive treatment of those workers most likely to remain outside the formal labor market longer. Accuracy and F1-Score were used as metrics in the evaluation of the proposed models. The model with the best results in the experiments was the Extreme Gradient Boosting. Future improvements may include the addition of features related to workers profile, to local labor market and to transitions of occupations, economic sectors and residence

10
  • Eric Hans Messias da Silva
  • Sumarização Abstrativa de Documentos Longos Utilizados em Fiscalizações e Instruções Processuais

  • Orientador : MARCELO LADEIRA
  • MEMBROS DA BANCA :
  • ANDREI LIMA QUEIROZ
  • MARCELO LADEIRA
  • THIAGO ALEXANDRE SALGUEIRO PARDO
  • THIAGO DE PAULO FALEIROS
  • Data: 13/07/2023

  • Mostrar Resumo
  • O Tribunal de Contas da União tem seu trabalho organizado por processos e, ao longo do ciclo de vida deles, cada processo chega geralmente a conter de dezenas a centenas peças. Cada peça atinge facilmente algumas dezenas de páginas. A quantidade de processos e documentos só tende a crescer ao longo do tempo, o que gera uma quantidade enorme de material para leitura e com conteúdo bem rico, mas de difícil consumo, pois é necessário um tempo considerável para a leitura de cada processo. Os processos costumam ser lidos para verificar se possuem conteúdo relevante para alguma fiscalização ou instrução processual em curso. Além do custo alto para ler um processo, parte desse conteúdo é descartado pelo auditor por não estar atrelado ao seu trabalho corrente, o que gera um desperdício de tempo nesta atividade. Para melhorar a eficiência deste processo, é proposto neste trabalho o desenvolvimento de uma solução de sumarização automática de texto usando aprendizado de máquina aplicado ao processamento de linguagem natural. Essa solução usará a abordagem de sumarização abstrativa aplicada a documentos longos e com conteúdo jurídico, usando modelos que estão no estado da arte na tarefa e baseados em transformers com mecanismo de atenção linear. A solução será disponibilizada como uma Aplicação Web com microsserviço para melhor integração com aplicações que compõem o processo de trabalho do auditor. Os resumos gerados pelos modelos serão avaliados principalmente por métricas que foquem mais na semântica do texto gerado e, em decorrência disso, terão uma melhor aderência ao conteúdo desejado. O usuário fornecerá feedback dos resumos gerados e eles serão usados para retroalimentar o modelo posteriormente.


  • Mostrar Abstract
  • The Brazilian Federal Court of Accounts organizes its work by processes and, throughout their life cycle, each of them usually contains from tens to hundreds of legal documents. Each document easily reaches a few dozen pages. The number of processes and documents only tends to grow over time, which generates a huge amount of material for reading and with a very rich content, but difficult to consume, as it takes considerable time to read each process. The processes are usually read to verify if they have relevant content for any fiscalization or procedural instruction in progress. In addition to the high cost of reading a process, part of this content is discarded by the auditor because it is not linked to their current work, which generates a waste of time in this activity. To improve the efficiency of this process, we proposed in this work the development of an automatic text summarization solution using machine learning applied to natural language processing. This solution will use the abstractive summarization approach applied to long documents and with legal content, using models that are state-of-the-art in the task and based on transformers with linear attention mechanism. The solution will be made available as an Web Apllication with a microservice for better integration with applications that make up the auditor’s work process. The summaries generated by the models will be evaluated mainly by metrics that focus more on the semantics of the generated text and, as a result, will have a better adherence to the desired content. The user will provide feedback on the generated summaries and they will be used to feed back the model later.

11
  • Marcos Paulo Pereira da Silva
  •  

    Diagnóstico de Ecossistema Digital: um estudo de caso

  • Orientador : REJANE MARIA DA COSTA FIGUEIREDO
  • MEMBROS DA BANCA :
  • BRUNA DIIRR GONCALVES DA SILVA
  • EDNA DIAS CANEDO
  • ELAINE VENSON
  • REJANE MARIA DA COSTA FIGUEIREDO
  • Data: 14/07/2023

  • Mostrar Resumo
  •  

    Os governos de diversos países têm buscado se adequar ao mundo digital empregando a transformação digital visando aumentar a entrega de valor para a sociedade. O Tribunal de Contas da União (TCU) aprovou sua Estratégia Digital em 2020, com o objetivo de redesenhar a forma de atuação do TCU no mundo digital para aumentar o impacto das ações de controle para a sociedade. Entender e diagnosticar as características do estado atual de seu ecossistema digital e definir diretrizes de melhorias são ações essenciais na jornada de transformação. Nesse contexto, o objetivo deste trabalho foi propor diretrizes para um Ecossistema Digital no contexto da transformação digital do TCU. A técnica de estudo de caso foi empregada para o diagnóstico de uma área temática da estratégia digital do TCU, com abordagem qualitativa dos dados. A área selecionada foi a Fiscalização de Pessoal, e um instrumento específico de avaliação para o diagnóstico foi gerado a partir da adaptação do modelo de avaliação de ecossistemas, o SEG-M². Este processo e os resultados do diagnóstico foram validados pelo TCU aplicando a técnica de grupo focal. O instrumento possibilitou identificar os pontos de atenção e de possíveis melhorias da estratégia do ecossistema do TCU. Como trabalhos futuros, vislumbra-se a oportunidade de aplicar o processo nas demais áreas temáticas da Estratégia Digital do TCU para a obtenção de uma visão global do ecossistema digital. Ademais, a oportunidade de aplicação do instrumento em outros órgãos públicos, permitindo inclusive que as experiências e conhecimentos sejam compartilhados, e que contribua para a definição de um instrumento adaptado às características das organizações públicas brasileiras.


  • Mostrar Abstract
  • The governments of several countries have sought to adapt to the digital world by employing digital transformation to increase the delivery of value to society. The Federal Court of Accounts – Brazil (TCU) approved its Digital Strategy in 2020, aiming to sway its operation in the digital world to increase the impact of control actions for society. Understanding and diagnosing the characteristics of the current state of their digital ecosystem and defining improvement guidelines are essential in TCU’s transformation journey. In this context, the objective of this work was to propose guidelines for a Digital Ecosystem in the context of digital transformation at TCU. The case study technique was used to diagnose a thematic area of the TCU digital strategy, with a qualitative data approach. The selected thematic area of TCU’s strategy, Federal Union Personnel Inspection and a specific assessment instrument was generated from the adaptation of the ecosystem assessment model, the SEG-M². This process and the diagnosis results were validated by the TCU through the focus group technique, allowing a portrait of TCU’s digital ecosystem. The adapted instrument enabled the identification of points of attention and possible improvements in the TCU ecosystem’s strategy in this thematic area. In future work, there is an opportunity to apply the process in the other thematic areas of TCU’s Digital Strategy to obtain a global vision of the digital ecosystem. Moreover, there is an opportunity to apply the instrument in other public bodies, allowing for the sharing of experiences and knowledge and contributing to the definition of an instrument adapted to the characteristics of Brazilian public organizations.

     
12
  • MICHAEL RODRIGUES DA SILVA
  • Arquitetura Reativa Cognitiva Baseada em Microsserviços e Micro-Frontends para Melhorar a Experiência do Usuário em Aplicações Bancárias por Meio de Interfaces Adaptativas

  • Orientador : LETICIA LOPES LEITE
  • MEMBROS DA BANCA :
  • ANDRE LUIZ PERON MARTINS LANNA
  • EDISON ISHIKAWA
  • LETICIA LOPES LEITE
  • MÁRCIA CRISTINA MORAES
  • Data: 01/08/2023

  • Mostrar Resumo
  • O avanço nas tecnologias de comunicação e computação potencializou o uso da internet, afetando a vida da sociedade e desempenhando um papel importante nos negócios. A indústria bancária tem acompanhado essa evolução, oferecendo serviços essenciais por meio da internet para milhões de clientes. Além disso, a concorrência entre esses bancos tem crescido cada vez mais. Nesse cenário, observa-se que a Experiência do Usuário (UX) é um fator importante na percepção da qualidade pelos clientes dessas instituições, influenciando, inclusive, na escolha entre um banco e outro. Como a arquitetura do software é um elemento importante que afeta a usabilidade, é essencial garantir que critérios de usabilidade e experiência do usuário sejam suportados no planejamento dessa arquitetura. Sendo assim, este trabalho propõe uma arquitetura para sistemas bancários via web que permita melhorar a experiência dos usuários utilizando os conceitos de sistemas reativos que se integram com serviços e bases de dados heterogêneas, com interface que se adapta ao usuário baseada no comportamento e nas características deste. Por esse motivo, interfaces adaptativas tendem a oferecer melhor experiência de utilização, buscando adaptar-se às necessidades e desejos dos usuários. Este trabalho seguiu o modelo de micro-frontends para renderizar o frontend, pois gera bases de código menores, mais coesas e sustentáveis, o que possibilita trabalhar com equipes autônomas e tecnologias diferentes. Essas características são importantes, principalmente, para corporações maiores, as quais sustentam grupos de profissionais e equipes em maior número. A arquitetura proposta por este trabalho utiliza o algoritmo de Aprendizado por Reforço, somado ao algoritmo Monte Carlo Tree Search (MCTS) e à técnica de Aprendizado Profundo para a criação de aplicações adaptativas. Por fim, um sistema backend robusto tem que ser desenvolvido para extrair, armazenar e processar os dados dos usuários, por isso foi adotada a arquitetura de microsserviços, a qual possibilita que as aplicações sejam formadas por serviços pequenos, coesos e independentes.


  • Mostrar Abstract
  • Advances in communication and computing technologies have boosted the use of the internet, affecting the life of society and playing an important role in business. The banking industry has followed this evolution, offering essential services through the internet to millions of customers. In addition, competition between banks that offer services through the internet has grown more and more. In this scenario, it is observed that the User Experience (UX) is an important factor in the perception of quality by the customers of these institutions, even influencing the choice between one bank and another. As the software architecture is an important element that affects usability, it is essential to ensure that usability and user experience criteria are supported when planning this architecture. Therefore, this work proposes an architecture for banking systems based on concepts of reactive systems, providing for integration with services and heterogeneous data sources to improve the UX, with an interface that adapts to the user based on their behavior and characteristics. For this reason, adaptive interfaces tend to offer a better user expe- rience, as they seek to adapt to the needs and desires of users. There are several ways to render adaptive applications, this work follows the micro-frontends model, as it gener- ates smaller, more cohesive and sustainable code bases, making it possible to work with autonomous teams and different technologies. These characteristics are important, espe- cially for larger corporations, which support larger groups of professionals and teams. The architecture proposed by this work uses the Reinforcement Learning algorithm, added to the Monte Carlo Tree Search (MCTS) algorithm and the Deep Learning technique, to create adaptive applications. Finally, a robust backend system has to be developed to extract, store and process user data, so the microservices’ architecture was adopted, which allows applications to be formed by small, cohesive and independent services.

13
  • Rogério Gabriel Nogalha de Lima
  • Modelo de priorização de gastos em TI no contexto de restrição orçamentária: uma abordagem com PLS-SEM no âmbito do Ministério da Economia

  • Orientador : ARI MELO MARIANO
  • MEMBROS DA BANCA :
  • ARI MELO MARIANO
  • JOAO GABRIEL DE MORAES SOUZA
  • REGIANE MÁXIMO SIQUEIRA
  • RICARDO MATOS CHAIM
  • Data: 30/08/2023

  • Mostrar Resumo
  • Este trabalho tem por objetivo propor um framework para avaliar a priorização de gastos de tecnologia da informação, em um cenário de restrição orçamentária, como fator influenciador na governança e gestão de TI no Ministério da Economia. Houve a revisão da literatura, desenvolvida a partir da Teoria do Enfoque Meta-Analítico Consolidado – TEMAC, e, posteriormente, foi realizado levantamento de dados de pesquisa com 112 respostas coletadas de dirigentes do Ministério, impactados por esse contingenciamento. O modelo da pesquisa foi calculado via equações estruturais, cujos resultados revelaram ser adequado para mensurar o ambiente pesquisado. Neste estudo, o modelo resultante conseguiu explicar em 47,2% a Governança e Gestão, 34% o uso da Tecnologia e 11,3% a Consistência em Investimento, sendo a Oportunidade para o Negócio e o e-Government (Governo Eletrônico) as variáveis mais importantes como fator de priorização em um ambiente de contingenciamento orçamentário e financeiro.


  • Mostrar Abstract
  • This study aims to propose a framework for evaluating the prioritization of information technology expenditures in a budget-constrained scenario as an influencing factor in IT governance and management at the Ministry of Economy. A literature review was conducted, based on the Consolidated Meta-Analytic Focus Theory - TEMAC, followed by a survey that collected 112 responses from Ministry executives impacted by this budgetary restriction. The research model was computed using structural equations, and the results indicated its suitability for assessing the researched environment. In this study, the resulting model successfully accounted for 47.2% of Governance and Management, 34% of Technology utilization, and 11.3% of Investment Consistency, with Business Opportunity and e-Government (Electronic Government) identified as the most significant variables influencing prioritization in a budgetary and financial constraint environment.

14
  • DANIELA DE OLIVEIRA MORAES
  • FATORES DE RISCOS NO USO DE SISTEMAS DE INFORMAÇÃO DO MINISTÉRIO DA AGRICULTURA E PECUÁRIA: UM ESTUDO DAS RELAÇÕES DIRETAS E MODERADORAS

  • Orientador : ARI MELO MARIANO
  • MEMBROS DA BANCA :
  • ARI MELO MARIANO
  • DANIEL JUGEND
  • JOAO GABRIEL DE MORAES SOUZA
  • VIVIANE VASCONCELLOS FERREIRA GRUBISIC
  • Data: 31/08/2023

  • Mostrar Resumo
  • O uso do sistema de informação traz constantes benefícios para quem o utiliza, devido ao aumento de dados gerados. O agrupamento dessas informações pode ser útil para as atividades diárias em qualquer ambiente de trabalho, e até mesmo na vida pessoal. Ao falar em sistema de informação, não necessariamente fala-se em sistema informatizado, e sim em organização, seja através de alguma plataforma automatizada ou simplesmente em um arquivo manual. Juntamente com o uso do SI, tem-se os riscos que envolvem o seu desenvolvimento e que poderão afetar a sua utilidade percebida. Desta forma, o objetivo desta dissertação foi propor etapas para minimizar os fatores de riscos que impactam o uso dos sistemas de informação entregues pela Subsecretaria de Tecnologia da Informação do Ministério da Agricultura e Pecuária. Inicialmente, foi importante buscar na literatura quais as variáveis de riscos que os autores entendem como sendo mais relevantes. Posteriormente, foi aplicado o modelo de equações estruturais para relacionar essas variáveis e assim identificar os fatores com maior impacto no uso do SI. Com relação às implicações práticas, primeiramente foi feita a aplicação de um questionário, onde foram coletadas 71 respostas. Como principais resultados, tem-se que: a Utilidade Percebida influencia o Uso do SI em 38,24% dos casos; e a Facilidade de Uso influencia a Utilidade Percebida em 15,21% das vezes. Além disso, foi gerado o mapa de importância-desempenho (IPMA) para enriquecer os resultados do modelo PLS-SEM e auxiliar na priorização das variáveis de maior relevância e impacto. Por ordem de alta importância e alto desempenho, os indicadores utilidade percebida e riscos serão priorizados. Ademais, a moderação do modelo revelou a variável Idade como ponto de atenção por ser uma variável de impacto na utilidade percebida dos sistemas de informação.


  • Mostrar Abstract
  • The use of the information system brings constant benefits to those who use it, due to the increase in data generated. Grouping this information can be useful for daily activities in any work environment, and even in personal life. When talking about information system, we do not necessarily talk about computerized system, but organization, either through some automated platform or simply in a manual file. Along with the use of SI, there are risks that involve its development and that may affect its perceived usefulness. Thus, the objective of this dissertation was to propose steps to minimize the risk factors that impact the use of use of information systems delivered by the Undersecretariat of Information Technology of the Ministry of Agriculture and Livestock. Initially, it was important to search the literature for the risk variables that the authors understand to be most relevant. Subsequently, the structural equations model was applied to relate these variables and thus identify the factors with the greatest impact on the use of the IS. Regarding the practical implications, a questionnaire was first applied, where 71 responses were collected. The main results are: Perceived Utility influences the use of IS in 38.24% of cases; and Ease of Use influences Perceived Utility 15.21% of the time. In addition, the importance-performance map (IPMA) was generated to enrich the results of the PLS-SEM model and assist in the prioritization of the variables of greatest relevance and impact. In order of high importance and high performance, the indicators perceived utility and risks will be prioritized. Moreover, the moderation of the model revealed the variable Age as a point of attention because it is a variable of impact on the perceived usefulness of information systems.

15
  • Rafael Bruno Peccatiello
  • Detecção de comportamentos maliciosos de usuários internos em redes utilizando análise de fluxos de dados

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • LUIS PAULO FAINA GARCIA
  • MARCOS FAGUNDES CAETANO
  • SYLVIO BARBON JÚNIOR
  • THIAGO DE PAULO FALEIROS
  • Data: 01/09/2023

  • Mostrar Resumo
  • O presente estudo aborda o problema de detecção de ameaças internas. Uma ameaça interna é qualquer pessoa que tenha acesso legítimo a rede de uma determinada organização e utiliza esse acesso para causar danos à essa organização. O estudo apresenta uma forma de resolução do problema através da proposição de um modelo que congrega diferentes técnicas de Ciência de Dados. Dentre elas estão o emprego de Aprendizado de Máquina supervisionado e utilização da abordagem de análise de fluxo de dados. Esta última, desenvolvida com a aplicação de uma forma para o tratamento de fluxos de dados desbalanceados, já que o desbalanceamento é uma variável presente no domínio do problema em questão. O desbalanceamento do fluxo será tratado por meio de propagação de amostras minoritárias para composição equilibrada de uma janela de treinamento deslizante. Os atributos e a forma com a qual foram extraídos são oriundos de fontes presentes na literatura. Os algoritmos utilizados foram o Random Forest (RF), Light Gradient Boosting Machine (LGBM) e K-Nearest Neighborhoods (KNN). O desempenho do modelo foi avaliado segundo os valores obtidos pelas métricas precision, recall e F1-Score. Os resultados obtidos evidenciam que o tratamento do desbalanceamento permite alcançar desempenho superior aos obtidos pela literatura, para a detecção de ameaças internas.


  • Mostrar Abstract
  • The present study addresses the problem of detecting insider threats. An insider threat is anyone who has legitimate access to a particular organization's network and uses that access to harm that organization. The study presents a way of solving the problem through the proposition of a model that brings together different Data Science techniques. Among them are the use of supervised Machine Learning and the use of the data flow analysis approach. The latter was developed with the application of a way for the treatment of unbalanced data flows, since the unbalance is a variable present in the domain of the problem. The unbalance of the flow will be treated through propagation of minority samples for balanced composition of a sliding training window. The attributes and the way in which they were extracted come from sources present in the literature. The algorithms used were Random Forest (RF), Light Gradient Boosting Machine (LGBM) and K-Nearest Neighborhoods (KNN). The performance of the model was evaluated according to the values obtained by the metrics precision, recall, F1-Score and kappa. The results obtained show that the treatment of unbalance allows achieving superior performance to those obtained in the literature, for insider threat detection.

16
  • William Oliveira Camelo
  • Ponderação do efeito das externalidades climáticas no risco de crédito

  • Orientador : JOAO GABRIEL DE MORAES SOUZA
  • MEMBROS DA BANCA :
  • JOAO CARLOS FELIX SOUZA
  • JOAO GABRIEL DE MORAES SOUZA
  • MATHIAS SCHNEID TESSMANN
  • PENG YAOHAO
  • Data: 14/09/2023

  • Mostrar Resumo
  • Investimentos em operações financeiras podem gerar impactos nos setores sociais, econômicos e ambientais que não foram incorporados ao preço final de seus contratos. Tais impactos são chamados de externalidades e entende-se que elas podem produzir efeitos positivos ou negativos. A análise do risco de crédito associado ao socioambiental reside na possibilidade de atividades econômicas gerarem impactos ou danos socioambientais em proporções capazes de gerarem perdas financeiras que comprometam a capacidade de pagamento de financiamentos, bem como a corresponsabilidade do agente financeiro de recuperação do dano socioambiental. No caso do risco climático, o empreendimento golfe estar exposto diretamente ou indiretamente a eventos climáticos extremos capazes de comprometer o seu fluxo de caixa e capacidade de pagamento de financiamentos. Desse modo, veio a necessidade de instrumentos de medição capazes de avaliar o comportamento das externalidades em relação ao risco de crédito das operações. O objetivo deste estudo é avaliar o impacto da incorporação da medição do risco climático às operações financeiras no processo estratégico de fornecimento de crédito das operações. Para isso, foi realizada medição do risco climático e aplicada metodologia —— para aferir a importância das variáveis que o compõem e inferir sua capacidade de influenciar a análise de crédito. Como resultado do presente estudo, foi fornecida medição do risco climático das operações e a avaliação de risco climático em relação às variáveis.


  • Mostrar Abstract
  • Investments in financial operations can generate impacts on the social, economic, and environmental sectors that were not incorporated into the final price of their contracts. Such impacts are called externalities and it is understood that they can produce positive or adverse effects. The analysis of the credit risk associated with the socio-environmental concerns the possibility of economic activities generating socio-environmental impacts or damages capable of generating financial losses that compromise the ability to pay the financing, as well as the co-responsibility of the financial agent for the recovery of socio-environmental damage. In the case of climate risk, the golf venture is directly or indirectly exposed to extreme weather events capable of jeopardizing its cash flow and ability to pay to finance. Thus, there was a need for measurement instruments capable of evaluating the behavior of externalities in relation to the credit risk of operations. The objective of this study is to assess the impact of incorporating climate risk measurement into financial operations in the strategic process of providing credit for operations. For this, a measurement of the climate risk was carried out and a methodology was applied —— to assess the importance of the variables that compose it and infer their ability to influence the credit analysis. As a result of the present study, measurement of climate risk of operations and assessment of climate risk in relation to variables were provided.

17
  • Daniel Ferreira Schulz
  • Detecção de Falhas em um Aplicativo Móvel Bancário

  • Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • GERALDO PEREIRA ROCHA FILHO
  • THIAGO DE PAULO FALEIROS
  • ALAN DEMÉTRIUS BARIA VALEJO
  • Data: 10/11/2023

  • Mostrar Resumo
  • A alta disponibilidade é um requisito cada vez mais importante nos sistemas de TI. Uma das estratégias implementadas para alcançar um ambiente estável é o monitoramento contínuo dos serviços, conforme descrito pelo ITIL. Diante do exposto, este trabalho propõe uma abordagem de detecção de falhas por meio de técnicas de mineração de dados. A abordagem foi modelada usando o modelo de referência CRISP-DM. Os modelos de aprendizado de máquina treinados usaram dados extraídos de uma ferramenta Web Analytics que armazena as interações do usuário com um aplicativo de mobile banking. Os efeitos de diferentes técnicas de engenharia de atributos, como filtragem de variáveis, padronização de dados e geração de amostras sintéticas, também foram avaliados. Por fim, os resultados foram comparados entre sete algoritmos, sendo que a máquina de vetores de suporte foi a que obteve o melhor resultado, com F1-Score de 0,954 e ROC-AUC de 0,989.


  • Mostrar Abstract
  • High availability is an increasingly important requirement in IT systems. One of the strategies implemented to achieve a stable environment is the continuous monitoring of services, as described by ITIL. Given the above, this work proposes a failure detection approach through data mining techniques. The approach was modeled using the CRISPDM reference model. The trained models used data extracted from a Web Analytics tool that stores user interactions with a mobile banking application. The effects of different attribute engineering techniques, such as variable filtering, data standardization and generation of synthetic samples, were also evaluated. Finally, the results were compared between seven algorithms, and the support vector machine was the one that obtained the best result, with an F1-Score of 0.954 and a ROC-AUC of 0.989

18
  • Luís Augusto Vieira Ribeiro
  • Aplicação da Análise de Decisão Multicritério e Otimização na Tomada de Decisão: Um Estudo das Demandas da Tecnologia da Informação no Governo Federal

  • Orientador : JOAO CARLOS FELIX SOUZA
  • MEMBROS DA BANCA :
  • JOAO CARLOS FELIX SOUZA
  • ARI MELO MARIANO
  • JOAO GABRIEL DE MORAES SOUZA
  • Lena Lúcia de Moraes
  • Data: 14/11/2023

  • Mostrar Resumo
  • Em um ambiente cada vez mais dinâmico, a velocidade da tomada de decisão passou a ser um diferencial, principalmente em um cenário que possui muitos entraves, como o governo. Interesses de diferentes esferas (municipal, estadual e federal) e diferentes atores (partidos políticos, bancadas, mobilização de grupos populares), devem consolidarse na decisão mais assertiva para a sociedade. Desse modo, métodos que garantam a diminuição da subjetividade e aumento da consolidação de diversos pontos de vista são necessários. Assim, o objetivo deste estudo é demonstrar um modelo de tomada de decisão por meio da utilização do processo hierárquico analítico (AHP) em parceria com o método Promethee II aplicando a otimização por meio do Risk Simulator para priorizar as demandas de tecnologia da informação do Ministério Público Federal. Esta pesquisa é do tipo exploratória com abordagem qualitativa-quantitativa com uso de análise multicritério e otimização. Como resultado preliminar do estudo, estabeleceu-se os critérios Suporte, Estratégicos e Partes Interessadas, com os respectivos pesos aproximados de 65%, 28% e 7%. Definiu-se 8 alternativas, onde a de maior destaque foi "Conhecimento técnico da equipe de TIC" com peso aproximado de 24,5%. A combinação dos critérios e alternativas aplicada durante a pesquisa resultou na demanda de Segurança como a mais prioritária e a demanda de BI como a menos prioritária dentre as 12 selecionadas. Cabe ainda a aplicação computacional da ferramenta Risk Simulator para a realização da priorização otimizada conforme restrições definidas pela alta administração.


  • Mostrar Abstract
  • In an increasingly dynamic environment, the speed of decision-making has become a differential, especially in a scenario that has many obstacles, such as the government. Interests from different spheres (municipal, state and federal) and different actors (political parties, benches, mobilization of popular groups), must be consolidated in the most assertive decision for society. Thus, methods that guarantee the decrease of subjectivity and increase the consolidation of different points of view are necessary. Thus, the objective of this study is to demonstrate a decision-making model through the use of the hierarchical analytical process (AHP) in partnership with the Promethee II method, applying optimization through Risk Simulator to prioritize the information technology demands of the Ministry Federal Public. This is an exploratory research with a qualitative-quantitative approach using multicriteria analysis and optimization. As a preliminary result of the study, the criteria Support, Strategic and Interested Parties were established, with the respective approximate weights of 65%, 28% and 7%. Eight alternatives were defined, where the most prominent was "Technical knowledge of the ICT team" with an approximate weight of 24.5%. The combination of criteria and alternatives applied during the research resulted in the demand for Security being the highest priority and the demand for BI being the lowest priority among the 12 selected. It is also up to the computational application of the Risk Simulator tool to carry out the optimized prioritization according to restrictions defined by senior management.

19
  • José Anderson de Freitas Silva
  • Automação Robótica de Processos em uma Instituição Federal de Ensino: Um Estudo de Caso

  • Orientador : REJANE MARIA DA COSTA FIGUEIREDO
  • MEMBROS DA BANCA :
  • REJANE MARIA DA COSTA FIGUEIREDO
  • ANDRE BARROS DE SALES
  • EDNA DIAS CANEDO
  • GLAUCO HENRIQUE DE SOUSA MENDES
  • Data: 18/12/2023

  • Mostrar Resumo
  • A transformação digital engloba o emprego de tecnologias e como essas podem impactar os modelos de negócios de uma organização, gerando mudanças de produtos, de estruturas organizacionais e a automação de processos. A adoação de recursos invadores pode contribuir para o aprimoramento dos processos de trabalho, em especial quanto à redução de tarefas repetitivas, erros e problemas recorrentes. Neste contexto, a digitização está relacionada ao desenvolvimento de negócios, com processos sendo suportados por soluções ou funções digitais; já a automação de processos é aplicada com o uso de tecnologias digitais para aumentar a eficiência, reduzindo etapas nos fluxos de trabalho e possibilitando a automação de tarefas humanas repetitivas. A área de gestão de pessoas do Instituto Federal de Educação, Ciência e Tecnologia de Brasília (IFB) enfrenta os desafios da modernização dos métodos tradicionais utilizados na gestão de seus processos. A área utiliza o meio eletrônico para a realização de processos administrativos, além de plataformas tecnológicas estruturantes. A pluralidade de soluções com baixa ou nenhuma integração provoca a realização repetitiva de atividades de baixa complexidade, com consumo demasiado de tempo. O objetivo deste trabalho é definir um abordagem de transformação digital para processos repetitivos da área de gestão de pessoas do IFB. A metodologia de pesquisa adotada é do tipo descritiva com o emprego da técnica Estudo de Caso. A abordagem será baseada na Automação Robótica de Processos, uma tecnologia emergente para automação de processos, que foi selecionada a partir da execução de uma revisão sistemática de literatura para a identificação de técnicas, ferramentas, soluções e implementações empregadas na digitização com ênfase na automação de processos 


  • Mostrar Abstract
  • Digital transformation encompasses the use of technologies and their impact on organization’s business models, resulting in changes in products, organizational structures or process automation. The adoption of innovative resources can contribute to the improvement of work processes, especially regarding the reduction of repetitive tasks, errors and recurring problems. In this context, digitization is related to business development, with processes being supported by digital solutions or functions; while process automation is applied with the use of digital technologies to increase efficiency, reducing steps in workflows and enabling the automation of repetitive human tasks. The people management area of the Federal Institute of Education, Science and Technology of Brasília (IFB) faces the challenges of modernizing the traditional methods used in its processes management. The area uses electronic means to carry out administrative processes, in addition to structuring technological platforms. The plurality of solutions with low or no integration causes repetitive activities of low complexity, with excessive consumption of time. The objective of this work is to define a digital transformation approach for repetitive processes in the people management area of the IFB. The adopted research methodology is descriptive with the use of the Case Study technique. The approach will be based on Robotic Process Automation, an emerging technology for process automation, which was selected from the execution of a systematic literature review to identify techniques, tools, solutions and implementations used in digitalization with emphasis on process automation

     
20
  • Wagner Miranda Costa
  • Similaridade Semântica entre Acórdãos para Apoio na Formulação de Jurisprudência do TCU

  • Orientador : GLAUCO VITOR PEDROSA
  • MEMBROS DA BANCA :
  • BRUNO CESAR RIBAS
  • EDUARDO DE PAULA COSTA
  • GLAUCO VITOR PEDROSA
  • THIAGO DE PAULO FALEIROS
  • Data: 21/12/2023
    Ata de defesa assinada:

  • Mostrar Resumo
  • Jurisprudência se refere ao conjunto de decisões reiteradas sobre determinado assunto, constituindo uma espécie de precedente judicial. No âmbito do Tribunal de Contas da União (TCU), órgão responsável por exercer o controle externo da Administração Pública Federal, a jurisprudência representa as interpretações consolidadas das normas aplicáveis à fiscalização financeira e operacional das contas públicas dos órgãos e entidades da União. Uma vez que a elaboração da jurisprudência é definida a partir de um agrupamento de acórdãos similares, é relevante desenvolver ferramentas automatizadas que auxiliem os especialistas responsáveis por esta atividade. Porém, essa é uma tarefa desafiadora para a área da computação, devido às especificidades do vocabulário presente nos textos dos acórdãos e ao volume massivo de dados a serem processados. Sendo assim, é necessário desenvolver abordagens escaláveis, eficazes e eficientes, e que possuam baixo custo computacional. Este trabalho apresenta o estudo e implementação de algumas abordagens para a representação desses documentos textuais, tanto em nível de palavra quanto em nível de conceito. Como contribuição, foi proposta uma nova abordagem denominada BoC-Th (Bag of Concepts with Thesaurus), que gera histogramas ponderados de conceitos definidos a partir da distância das palavras do documento ao seu respectivo termo similar dentro de um tesauro. Esta abordagem permite enfatizar palavras com maior significado no contexto, gerando, assim, vetores mais discriminativos. Realizaram-se avaliações experimentais comparando a abordagem proposta com as abordagens tradicionais para representação de documentos. O método proposto obteve resultados superiores entre as técnicas avaliadas para recuperação de documentos jurisprudenciais. O BoC-Th aumentou a precisão média em comparação às abordagens tradicionais, incluindo a versão original BoC (Bag of Concepts), ao mesmo tempo que foi mais rápido que as representações tradicionais BoW, BM25 e TF-IDF. A abordagem proposta contribuiu para enriquecer uma área com características peculiares, fornecendo um recurso para recuperação de informações textuais de forma mais precisa e rápida do que outras técnicas baseadas em processamento de linguagem natural.


  • Mostrar Abstract
  • Jurisprudence refers to the set of repeated decisions on a given subject, constituting a type of judicial precedent. Within the scope of the Federal Audit Court (TCU), the body responsible for exercising external control of the Federal Public Administration, jurisprudence represents the consolidated interpretations of the rules applicable to the financial and operational supervision of the public accounts of the Union’s bodies and entities. Since the elaboration of jurisprudence is defined based on a grouping of similar rulings, it is important to develop automated tools that assist the specialists responsible for this activity. However, this is a challenging task for the area of computing, due to the specificities of the vocabulary present in the texts of the rulings and the massive volume of data to be processed. Therefore, it is necessary to develop scalable, effective and efficient approaches that have low computational cost. This work presents the study and implementation of some approaches for representing these textual documents, both at the word level and at the concept level. As a contribution, a new approach called BoC-Th (Bag of Concepts with Thesaurus) was proposed, which generates weighted histograms of concepts defined based on the distance of the words in the document to their respective similar term within a thesaurus. This approach allows us to emphasize words with greater meaning in the context, thus generating more discriminative vectors. Experimental evaluations were carried out comparing the proposed approach with traditional approaches for document representation. The proposed method obtained superior results among the techniques evaluated for recovering jurisprudential documents. BoC-Th increased average accuracy compared to traditional approaches, including the original BoC (Bag of Concepts), while also being faster than traditional BoW, BM25, and TF-IDF representations. The proposed approach contributed to enriching an area with peculiar characteristics, providing a resource for retrieving textual information more accurately and quickly than other techniques based on natural language processing.

21
  • Luciana Santos de Assis
  • Gamificação em Ambientes Organizacionais: Um Estudo de Caso em uma Empresa Pública

  • Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
  • MEMBROS DA BANCA :
  • ANDRE LUIZ PERON MARTINS LANNA
  • CHARLES ANDRYÊ GALVÃO MADEIRA
  • SERGIO ANTONIO ANDRADE DE FREITAS
  • TIAGO BARROS PONTES E SILVA
  • Data: 21/12/2023

  • Mostrar Resumo
  • A gamificação é uma forma de utilizar elementos de jogos e aplicá-los em contextos do mundo real para motivar as pessoas e obter um ambiente mais produtivo. Por ser considerada uma ferramenta destinada a ampliar o engajamento, a gamificação pode ser aplicada em diversas áreas, dentre elas em atividades organizacionais. A proposta deste trabalho consiste na realização de um Estudo de Caso na Empresa Brasileira de Pesquisa Agropecuária (Embrapa) por meio da análise dos efeitos de uma solução gamificada aplicada ao Macroprocesso de Inovação (MPI), responsável pela gestão das soluções de pesquisa, desenvolvimento e inovação para a sustentabilidade do agronegócio brasileiro. O principal objetivo consiste em avaliar a efetividade da gamificação para ampliar o engajamento, colaboração e motivação dos empregados quanto ao uso do Sistema de Gestão de Ativos (Gestec), ferramenta computacional que implementa parte do MPI. Inicialmente, foi realizado um estudo dos fundamentos teóricos em gamificação, seguido de um trabalho de Revisão Sistemática da Literatura (RSL) para a investigação dos principais frameworks, técnicas e efeitos observados nas soluções gamificadas aplicadas em ambientes organizacionais. Posteriormente, foi realizado um Estudo de Caso, envolvendo um grupo de vinte e sete participantes para avaliar os efeitos que uma solução de gamificação pode proporcionar.


  • Mostrar Abstract
  • Gamification is a way of using game elements and applying them in real-world contexts to motivate people and achieve a more productive environment. As it is considered a tool designed to increase engagement, gamification can be applied in several areas, including organizational activities. The purpose of this work consists of carrying out a Case Study at the Brazilian Agricultural Research Corporation (Embrapa) through the analysis of the effects of a gamified solution applied to the Innovation Macroprocess (MPI), responsible for managing research, development and innovation solutions for the sustainability of Brazilian agribusiness. The main objective is to evaluate the effectiveness of gamification to increase employee engagement, collaboration and motivation regarding the use of the Asset Management System (Gestec), a computational tool that implements part of the MPI. Initially, a study of the theoretical foundations of gamification was carried out, followed by a Systematic Literature Review (SLR) to investigate the main frameworks, techniques and effects observed in gamified solutions applied in organizational environments. Afterwards, a Case Study was carried out, involving a group of twenty seven participants to evaluate the effects that a gamification solution can provide.

2022
Dissertações
1
  • Javan de Oliveira Cruz
  • Uma Arquitetura da Informação para a Organização de Informações de Eventos de Campo em Operações Militares do Exército Brasileiro com o Emprego de Ontologias

  • Orientador : MARCIO DE CARVALHO VICTORINO
  • MEMBROS DA BANCA :
  • EDISON ISHIKAWA
  • MARCIO DE CARVALHO VICTORINO
  • MARISTELA TERTO DE HOLANDA
  • WALLACE ANACLETO PINHEIRO
  • Data: 03/08/2022

  • Mostrar Resumo
  • O Centro de Coordenação de Operações Móvel (CCOp Mv) é um projeto estratégico do Exército Brasileiro que está em desenvolvimento, tendo por objetivo apoiar um Grande Comando Operacional em situações de guerra e não guerra. O CCOp Mv será composto por tecnologias, sistemas e recursos diversos, de forma a possibilitar o alcance de seu objetivo. Dentre suas principais funcionalidades podem ser destacadas a obtenção e o fornecimento de informações de eventos de campo, que além de direcionarem a construção da consciência situacional, representam parâmetros essenciais para o processo de tomada de decisão das autoridades, em operações militares. A despeito dos avanços tecnológicos experimentados nos dias de hoje, a natureza dos conflitos atuais permite a percepção da relevância em obter dados por meio de observadores humanos. Porém, a simples obtenção de dados não é julgada suficiente para a formação de conhecimentos específicos sobre um determinado domínio, sendo necessária a construção de uma base de informações estruturada, que permita a recuperação de conhecimentos de forma otimizada. Nesse contexto, a proposta desta pesquisa é fornecer uma Arquitetura da Informação voltada à obtenção de dados por meio de observadores de campo, além de disponibilizar conhecimentos gerados, tendo como parâmetros a organização e a estruturação de relatórios informacionais, empregando ontologias para a sua representação semântica. Além disso, está sendo proposta a construção de um protótipo de ontologia, com o intuito de fornecer suporte à Arquitetura da Informação desenvolvida, uma vez que o domínio de eventos militares possui uma considerável especificidade. Como contribuições podem ser destacados o fornecimento de uma Arquitetura da Informação, que visa auxiliar na otimização da obtenção de informações em operações militares, bem como o protótipo de ontologia que foi desenvolvido, que poderá servir como base para o desenvolvimento outras aplicações dentro do Exército Brasileiro.


  • Mostrar Abstract
  • The Centro de Coordenação de Operações Móvel (CCOp Mv) is a strategic project of the Brazilian Army that is under development, with the aim to support a Large Operational Command in war and non-war situations. CCOp Mv will be composed of different technologies, systems and resources, in order to achieve its objective. Among its main functionalities can be highlighted the acquisition and provision of information of field events, which in addition to directing the construction of situational awareness, represent the essential parameters for the decision-making process of authorities, in military operations. Despite the technological advances experienced today, the nature of current conflicts allows for the perception of the relevance of obtaining data through human observers. However, simply obtaining data is not considered sufficient for the formation of specific knowledge about a given domain, requiring the construction of a structured information base, which allows the recovery of knowledge in an optimized way. In this context, the proposal of this research is to provide an Information Architecture aimed at obtaining data through field observers, in addition to providing generated knowledge, having as parameters the organization and informational reports structuring, employing ontologies for its semantic representation. Furthermore, the construction of an ontology prototype is being proposed, in order to support the developed information architecture, since the domain of military events has a considerable specificity. As contributions can be highlighted the provision of an Information Architecture, which aims to assist in the optimization of obtaining information in military operations, as well as the prototype of ontology that was developed, which could be used as a basis for the development of other applications within the Brazilian Army.

2
  • Ingrid Palma Araújo
  • Modelo de Apoio à Decisão para Avaliar Dados Governamentais Abertos do Setor Elétrico

  • Orientador : ANA CARLA BITTENCOURT REIS
  • MEMBROS DA BANCA :
  • ALTINO JOSÉ MENTZINGEN DE MORAES
  • ANA CARLA BITTENCOURT REIS
  • ARI MELO MARIANO
  • PATRICIO ESTEBAN RAMIREZ CORREA
  • Data: 05/08/2022

  • Mostrar Resumo
  • Tomar decisões mais assertivas e eficientes, frente à escassez dos recursos públicos, considerando, ainda, todas as alternativas potenciais, tornou-se um dos problemas mais comuns para gestores responsáveis por dados abertos governamentais. Ecossistemas de dados abertos em todo o mundo estão introduzindo diretrizes e metas com foco em energia elétrica, tendo em vista a crescente conscientização sobre tópicos como crise hídrica, mudanças climáticas, recursos renováveis e iniciativas para aumentar a eficiência energética1.Além disso, a subjetividade e imprecisão no processo de abertura de dados desse setor pode tornar essa tarefa ainda mais complexa, principalmente quando não se possuem medidas específicas para subsidiar a tomada de decisão. Assim, este estudo propõe simplificar esse processo, combinando dois diferentes métodos de apoio à decisão por análise multicritério em um modelo capaz de julgar e priorizar critérios de riscos do contexto Open Data, apresentando os resultados via dashboards online interativos desenvolvido em R Shiny. A metodologia combina os métodos AHP e TOPSIS-2N, criando um ranking do conjunto de dados governamentais abertos do setor elétrico, à luz dos critérios de riscos avaliados pelo modelo proposto. O método AHP foi utilizado para avaliar a importância dos critérios de riscos definidos e o método TOPSIS-2N para ordenação desses datasets. Os resultados apresentam o desempenho de cada conjunto de dados que devem ser aprimorados em relação aos respectivos critérios de risco e aos temas priorizados, a fim de tornar mais ágil e assertiva a tomada de decisão para o gerenciamento dessas bases. O modelo proposto é útil não apenas para gestores responsáveis por decisões que envolvam aporte de recursos para aprimorar os datasets já disponibilizados, mas também para priorizar tópicos mais relevantes para a abertura de dados. Dados abertos relacionados ao planejamento do setor elétrico (BD46 e BD45) e à tarifa de energia (BD47) se destacaram na ordem priorizada pelo modelo, inferindo um potencial valor agregado relacionados a essas bases.


  • Mostrar Abstract
  • Making more assertive and efficient decisions in the face of scarce public resources while considering all potential alternatives has become one of the most common problems for managers responsible for open government data. Open data ecosystems around the world are introducing guidelines and targets with a focus on electric power, given the growing awareness of topics such as the water crisis, climate change, renewable resources, and initiatives to increase energy efficiency2 . Moreover, the subjectivity and imprecision in the process of opening data from this sector can make this task even more complex, especially when there are no specific measures to support decision-making. Thus, this study proposes to simplify and automate this process, combining two different methods of decision support through multicriteria analysis in a model capable of assessing and prioritizing risk criteria in the context of Open Data, presenting the results via iterative online dashboards developed in R3 . The methodology followed combines the AHP and TOPSIS-2N methods, creating a ranking of the open governmental dataset of the electricity sector in light of the risk criteria evaluated by the proposed model. The AHP technique was used to specify and normalize the importance of each criterion, considering the consistency aspects of the decision matrix. The next step was to apply the TOPSIS-2N method to sort and prioritize these datasets. The results present the datasets that should be improved concerning the respective metadata and the prioritized topics to make the decision-making for the management of these bases more agile and assertive. Different types of metadata are used to measure the 5 identified risk criteria. The proposed model is useful not only for managers responsible for decisions involving the contribution of resources to improve the datasets already available but also to prioritize the most relevant topics for data opening. Open data related to power sector planning (BD46 and BD45) and energy tax (BD47) stood outon the top of the model, inferring potential added value generated by these bases.

3
  • Murilo Góes de Almeida
  • Implementação do Protocolo OAuth2 e OpenID Connect em uma Arquitetura Orientada a Microserviços

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • EDUARDO LUZEIRO FEITOSA
  • RODRIGO BONIFACIO DE ALMEIDA
  • SERGIO ANTONIO ANDRADE DE FREITAS
  • Data: 29/08/2022

  • Mostrar Resumo
  • O Centro de Inteligência da Polícia Militar do Estado de São Paulo (CIPM/PMESP) passou por um estágio evolutivo em seus sistemas legados, que atualmente se encontram em uma arquitetura de microsserviços. Tal arquitetura divide um aplicativo em pequenos serviços, que são implementados de forma independente, com sua própria unidade de deployment. Essa arquitetura pode trazer benefícios, no entanto, também apresenta desafios, principalmente quanto aos aspectos de segurança. Portanto, surge a importância de explorar o conhecimento sobre questões de segurança em microsserviços, principalmente nos aspectos de autenticação e autorização. Soma-se ainda a natureza da atividade de inteligência que obrigatoriamente deve atingir uma série de princípios por conta da natureza sensível dessa atividade. Um desses princípios é a compartimentação, que objetiva restringir o acesso a determinadas informações somente para profissionais que tenham necessidade de conhecer. Reforça-se assim que é preciso verificar se o ambiente atual se encontra adequado em questões de autenticação e autorização, para garantir o cumprimento de tal princípio.
    Este trabalho tem o objetivo de propor e avaliar a segurança de uma solução orientada a microsserviços para realizar a autenticação e autorização nos Sistemas de Inteligência da Polícia Militar do Estado de São Paulo. Para tal, é feita uma Revisão Sistemática de Literatura para checar quais são os principais desafios em autenticação e autorização na arquitetura de microsserviço, os mecanismos que lidam com tais desafios e as tecnologias open source que implementam tais mecanismos. Com esses achados, é apresentado um questionário de validação, para verificar se tais descobertas são observadas na indústria. O objetivo é confirmar a utilização prática do que foi encontrado, além de procurar apurar novas respostas que não foram encontradas anteriormente. Por fim, é realizada uma execução no ambiente de inteligência da PMESP com a tecnologia open-source que utiliza os mecanismos encontrados, aplicando testes de segurança no ambiente atual e o novo, com vistas a verificar se esses mecanismos melhoraram sua segurança.


  • Mostrar Abstract
  • The Intelligence Department of the Military Police of São Paulo State (CIPM/PMESP) has been evolving their legacy systems, which are currently in a microservices architecture. This architecture splits an application into small services, which are implemented independently, with their own deployment unit. The microservice architecture can bring benefits, however, it also presents challenges, especially regarding security aspects. Therefore, it brings a need to explore knowledge about security issues in microservices, especially in authentication and authorization aspects. In addition, the characteristic of the intelligence activity must necessarily reach a series of principles, such as compartmentalization, which aims to restrict access to certain information only to professionals who need to know. This reinforces the need to verify whether the current environment is adequate in terms of authentication and authorization, to ensure compliance with this principle. This work aims to propose and evaluate the security of a microservices-oriented solution to perform authentication and authorization in the Intelligence Systems of the Military Police of the State of São Paulo. To this end, a Systematic Literature Review is carried out to check what are the main challenges in authentication and authorization in the microservice architecture, the mechanisms that deal with such challenges and the open-source technologies that implement such mechanisms. With the SLR findings, a validation survey is carried out, verifying whether such findings are observed in the industry, to confirm the practical use of what was found, in addition to seeking to verify new answers that were not found in the SLR. Finally, an implementation is carried out in the PMESP intelligence environment with the open-source technology that implements the mechanisms found, applying security tests in the current and new environment, to verify if the applied mechanisms improved the security of the application.

4
  • Nivando Araujo Cavalcante
  • Um Modelo de Negócio para Prover Interoperabilidade entre Órgãos em Ambiente Interagências




  • Orientador : MARCELO ANTONIO MAROTTA
  • MEMBROS DA BANCA :
  • EDISON ISHIKAWA
  • MARCELO ANTONIO MAROTTA
  • MARCIO DE CARVALHO VICTORINO
  • MARIA CLÁUDIA REIS CAVALCANTI
  • Data: 15/09/2022

  • Mostrar Resumo
  • Operações em Ambiente Interagências com a participação das Forças Armadas (FA) e de órgãos civis são cada vez mais frequentes. Nesse contexto, para obtenção do sucesso é necessário que ocorra uma interoperabilidade entre as entidades envolvidas com o  compartilhamento de informações em prol de alcançar o objetivo comum de uma operação.  No entanto, para possibilitar essa interoperação, várias barreiras precisam ser superadas, o que diminui o interesse das instituições em compartilhar seus dados. Apesar da existência de vários estudos na literatura acerca do assunto, ainda há lacunas a serem abordadas. Dentre elas, há a necessidade de criação de um modelo de negócio que possibilite uma abrangência maior, quanto aos participantes e aos dados, e que utilize uma estratégia para fomentar a adesão dos órgãos em compartilhar suas informações. Neste trabalho, é proposto um novo modelo de negócio, baseado em uma arquitetura que tem como elemento central um Gateway de API e, entre outros, o módulo de Tarifação e Controle Financeiro. O objetivo principal é prover a interoperabilidade necessária para o compartilhamento monetizado de informações entre as entidades envolvidas, direta ou indiretamente, em Operações Interagências com a participação das FA e órgãos civis. Pretende-se, ainda, possibilitar que o compartilhamento de dados seja realizado de forma abrangente e ser uma ferramenta de incentivo à integração, de forma a minorar os obstáculos gerados com os dispêndios dos recursos para disponibilizar os dados. O incentivo será proporcionado com a implementação da monetização sempre que ocorrer o compartilhamento entre as entidades. Para validar o modelo proposto, implementou-se um protótipo e foram realizados testes em um ambiente controlado. Os resultados obtidos com esses testes foram analisados com a finalidade de verificar a correta execução das funcionalidades previstas no modelo conceitual. Foi verificado, também, o desempenho do protótipo durante a execução. Por fim, realizou-se uma análise quanto à viabilidade econômica do modelo proposto.


  • Mostrar Abstract
  • Operations in Interagency Environments with the participation of the Armed Forces (AF) and civilian agencies are increasingly frequent. In this context, in order to achieve success, it is necessary that there is interoperability between the agencies involved with the sharing of information in order to achieve the common objective of the operation. However, to make this integration possible, several barriers need to be overcome, which reduces the interest of institutions in sharing their data. Despite the existence of several studies in the literature on the subject, there are still gaps to be addressed. Among them, there is the need to create a business model that allows for a greater scope, in terms of participants and data, and that uses a strategy to encourage agencies to share their information. In this work, a new business model is proposed, based on an architecture that has as its central element an API Gateway and, among others, the Pricing and Financial Control module. The main objective is to provide the necessary interoperability for the monetized sharing of information between the entities involved, directly or indirectly, in Interagency Operations with the participation of military and civilian agencies. It is also intended to enable the sharing of data to be carried out in a comprehensive way and to be a tool to encourage integration, in order to alleviate the obstacles generated with the expenditure of resources to make the data available. The incentive will be provided with the implementation of monetization whenever sharing occurs between entities. To validate the proposed model, a prototype was implemented and tests were carried out in a controlled environment. The results obtained with these tests were analyzed in order to verify the correct execution of the functionalities foreseen in the conceptual model. The performance of the prototype during the execution was also analyzed. Finally, an analysis was carried out regarding the economic viability of the proposed model.

5
  • Daniele Adriana Goulart Lopes
  • Detecção de botnets baseada na análise de fluxos de rede utilizando estatística inversa

  • Orientador : JOAO JOSE COSTA GONDIM
  • MEMBROS DA BANCA :
  • JOAO JOSE COSTA GONDIM
  • LUIS PAULO FAINA GARCIA
  • Camila Ferreira Thé Pontes
  • LUCAS BONDAN
  • Data: 22/09/2022

  • Mostrar Resumo
  • Botnet é uma rede de computadores infectados, os quais são controlados remotamente
    por um cybercriminal, denominado botmaster e que tem como objetivo realizar ataques
    cibernéticos massivos, como DDoS, SPAM e roubo de informações. Os métodos tradi-
    cionais de detecção de botnets, normalmente baseados em assinatura, são incapazes de
    detectar botnets desconhecidas. A análise baseada em comportamento tem sido promis-
    sora para a detecção de tendências atuais de botnets, as quais estão em constante evolução.
    Considerando que um ataque de botnet à infraestrutura de TI do Centro de Coordenação
    de Operações Móvel (CCOp Mv) do Exército Brasileiro pode prejudicar o sucesso das
    operações, através do furto de informações sensíveis ou mesmo causando interrupção à
    sistemas críticos do CCOp Mv, esta dissertação propõe um mecanismo de detecção de
    botnets baseado na análise do comportamento de fluxos de rede. O objetivo principal é
    propor uma camada adicional de proteção cibernética à infraestrutura de TI do CCOp Mv.
    A técnica utilizada para detecção de botnets foi recentemente desenvolvida por Pontes et
    al. [1] e é denominada Energy-based Flow Classifier (EFC). Essa técnica utiliza estatística
    inversa para detecção de anomalias e possui uma importante característica que é a sua
    fácil adaptação a novos domínios. Devido à essa característica, o EFC se mostra uma
    técnica promissora para detecção de botnets desconhecidas. Além disso, o EFC é um
    algoritmo considerado interpretável, o que permitiu realizar uma seleção dos atributos
    mais informativos para a detecção de botnets, através da análise dos acoplamentos entre
    pares de atributos. Dois conjuntos de dados heterogêneos, CTU-13 e ISOT HTTP, foram
    utilizados para avaliar a eficiência do modelo gerado e os resultados foram comparados
    com diversos modelos gerados por algoritmos tradicionais. Os testes realizados mostram
    que o EFC apresentou resultados satisfatórios quando testado no mesmo domínio e os
    testes realizados em domínios diferentes mostram que o EFC consegue manter resultados
    mais estáveis, independente do domínio, ao contrário dos demais algoritmos testados. Um
    terceiro conjunto de dados, ISCX-Bot-2014, foi utilizado para validação dos atributos se-
    lecionados pelo EFC e os resultados foram comparados com outras duas abordagens para
    seleção de atributos.



  • Mostrar Abstract
  • otnet is a network of infected computers, which are remotely controlled by a cyber-
    criminal, called botmaster, whose objective is to carry out massive cyber attacks, such
    as DDoS, SPAM and information theft. Traditional botnet detection methods, usually
    signature-based, are unable to detect unknown botnets. Behavior-based analytics has held
    promise for detecting current botnet trends, which are constantly evolving. Considering
    that Botnet attacks on the IT infrastructure of the Brazilian Army’s Mobile Operations
    Coordination Center (CCOp Mv) may harm the success of operations, through theft of
    sensitive information or even causing interruption to critical CCOp Mv systems, this dis-
    sertation proposes a botnet detection mechanism based on network flow behavior analisys.
    The main objective is to propose an additional layer of cyber protection to the CCOp
    Mv IT infrastructure. The technique used to detect botnets was recently developed and
    it is called Energy-based Flow Classifier (EFC). This technique uses inverse statistics to
    detect anomalies and has an important characteristic which is its easy adaptation to new
    domains. Due to this characteristic, EFC is a promising technique for detecting unknown
    botnets. EFC uses only benign data to infer the detection model and classifies as mali-
    cious any flow that deviates from the normal traffic pattern learned during model training.
    Thus, in addition to flows related to botnet activities, other types of malicious activities
    may be detected, making further verification necessary to identify the type of malicious
    activity detected. Two heterogeneous datasets, CTU-13 and ISOT HTTP were used to
    evaluate the efficiency of the model and the results were compared with several traditional
    algorithms. Preliminary results show that EFC presented good results when tested in the
    same domain and the tests performed in different domains show that the EFC manages
    to maintain stable results, regardless of the domain, unlike the other models tested.

6
  • Yuri Rodrigues Fialho
  • Interoperabilidade Organizacional: uma abordagem com Ontologia de Processos Intensivos em Conhecimento e Sistemas Multiagentes

  • Orientador : EDISON ISHIKAWA
  • MEMBROS DA BANCA :
  • RICARDO CHOREN NOYA
  • EDISON ISHIKAWA
  • LETICIA LOPES LEITE
  • MARCIO DE CARVALHO VICTORINO
  • Data: 27/09/2022

  • Mostrar Resumo
  • A interoperabilidade organizacional é importante para que as organizações consigam trabalhar em conjunto e de maneira colaborativa, de modo a alcançar um objetivo em comum. A interoperabilidade neste nível envolve a integração de diversos órgãos, com aquisição, compartilhamento, armazenamento e uso de conhecimento que, normalmente, dependem de seus executores. Dessa forma, os processos desse nível são considerados Processos Intensivos em Conhecimento (PIC). Os estudos neste nível de interoperabilidade são restritos aos processos estruturados, havendo carência em trabalhos cuja abordagem seja processos não estruturados. Este trabalho seguiu a metodologia Design Science Research, focando na resolução desta lacuna de pesquisa, utilizando Knowledge-intensive Processes Ontology e Sistemas Multiagentes. Para isso, é apresentado o modelo Motirõ que é capaz de estabelecer a interoperabilidade em todos os níveis, atendendo, ainda, os PIC e os processos estruturado em contextos dinâmicos e voláteis. A avaliação foi realizada em três diferentes cenários, sendo o Plano de Contingência da prefeitura de Belo Horizonte um deles, o qual foi aplicado um questionário com as características do Maturity Model for Enterprise Interoperability para verificar a capacidade do protótipo do modelo em realizar a interoperabilidade operacional. Por fim, após realizada a avaliação, concluiu-se que o modelo consegue realizar a interoperabilidade organizacional em contextos dinâmicos e voláteis, além de apoiar os executores do PIC na tomada de decisão.


  • Mostrar Abstract
  • Organizational interoperability is important for organizations to be able to work together and collaboratively to achieve a common goal. Interoperability at this level involves the integration of different agencies, with acquisition, sharing, storage and use of knowledge that normally depend on their performers. Thus, processes at this level are considered Knowledge-Intensive Processes (KIP). Studies at this level of interoperability are restricted to structured processes, with a lack of studies that approach unstructured processes. This work followed the Design Science Research methodology, focusing on solving this research gap, using Knowledge-intensive Processes Ontology and Multi-Agent Systems. For this, the Motirõ model is presented, which is capable of establishing interoperability at all levels, also meeting the KIPs and processes structured in dynamic and volatile contexts. The evaluation was carried out in three different scenarios, one of them being the Belo Horizonte City Contingency Plan, in which a questionnaire with the characteristics of the Maturity Model for Enterprise Interoperability was applied to verify the ability of the model prototype to perform operational interoperability. Finally, after carrying out the evaluation, it was concluded that the model is able to achieve organizational interoperability in dynamic and volatile contexts, in addition to supporting PIC executors in decision making.

7
  • Marcos Francisco da Silva
  • MFOG: Uma Arquitetura em Névoa para a Infraestrutura de Aplicações do CCOp Mv

  • Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • ALEXANDRE DA COSTA SENA
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • Data: 04/11/2022

  • Mostrar Resumo
  • Em Operações de resposta a desastres é necessária uma grande coordenação de vários agentes e instituições. O uso de software tático e operacional é de grande importância para o êxito da operação. No entanto, as operações podem ocorrer em locais adversos com recursos escassos de acesso à Internet. Essa limitação pode gerar problemas no fornecimento de serviços, uma vez que tais aplicações utilizam processamento remoto, o qual é tipicamente realizado em datacenter distantes. Neste contexto, este projeto de pesquisa propõe uma arquitetura, denominada MFog, que explora os conceitos de computação em névoa com foco na resiliência das aplicações. Essa arquitetura pode ser utilizada em lugares onde, apesar de existirem estruturas com recursos computacionais próximos ao usuário final, o acesso à Internet é limitado (similar ao que ocorre nessas operações). Para isso, são definidos componentes mínimos da arquitetura e mecanismos de orquestração com base em modelos de migração de aplicações em contêiner. Os resultados obtidos, a partir de um estudo de caso, indicam que a arquitetura proposta consegue ser resiliente aos problemas enfrentados nos cenários dessas operações.


  • Mostrar Abstract
  • In disaster response operations, a great deal of coordination of various agents and institutions is required. The use of tactical and operational software is of great importance for the success of the operation. However, operations can take place in adverse locations with scarce Internet access resources. This limitation can generate problems in the provision of services, since such applications use remote processing, which is typically performed a distant datacenter. In this context, this research project proposes an architecture that explores the concepts of fog computing called MFog, with a focus on application resilience, this architecture can be used in places where, despite the existence of structures with computational resources close to the end user, access to the Internet is limited (similar to what happens in these operations). For this, minimal architecture components and orchestration mechanisms are defined based on container application migration models. The results obtained from a case study indicate that the proposed architecture can be resilient to the problems faced in the scenarios of these operations.

8
  • Tiago Pereira Vidigal
  • When Technical Solutions are not Enough: Analysing Challenges at Delivery in Mixed-Signal projects inside Design Houses - Software Engineering Research Perspective

  • Orientador : CARLA SILVA ROCHA AGUIAR
  • MEMBROS DA BANCA :
  • CARLA SILVA ROCHA AGUIAR
  • GEORGE MARSICANO CORREA
  • RENATO CORAL SAMPAIO
  • PAULO ROBERTO MIRANDA MEIRELLES
  • Data: 12/12/2022

  • Mostrar Resumo
  • Pesquisas em Engenharia de Software estão evoluindo na analise sócio-técnica e métodos de pesquisa para tratar desafios na indústria. Outros setores de tecnologia que não apresentam tantos trabalhos neste assunto, como circuitos integrados, podem se beneficiar destes estudos. Este trabalho é um caso de estudo para identificar desafios nos processos de entrega entre as disciplinas digital e analógico em projetos de sinais mistos em uma design house específica, considerando perspectivas técnicas e sociais. Nós realizamos 17 entrevistas semi-estruturadas e examinamos os documentos de processos disponíveis, analisando o dado com Teoria Fundamentada Socio-Técnica. Nós mapeamos 14 construtos, 13 proposições e duas explicações para identificar estes desafios enfrentados por times de sinais mistos. Este estudo contribui para a discussão de aspectos sociais em trabalho científicos sobre Semicondutores e apresenta uma lista de possíveis desafios nas entregas no contexto da empresa focada. As causas raiz propostas são os processos de especificação incipientes no contexto de times multidisciplinares e a falta de práticas relacionadas à colaboração em times cross-functional. Estudos sobre Engenharia de Requisitos e DevOps proporcionam reflexões para definir implicações para melhorias na organização.
     
     
     

  • Mostrar Abstract
  • Research on Software Engineering is evolving in the socio-technical analysis and research methods to address the challenges in the industry. Other technology sectors that do not present much research on this topic, like integrated circuits, could benefit from those studies. This work is a case study to identify challenges in delivery processes on mixed-signal projects at a specific design house, considering both technical and social perspectives. We performed 17 semi-structured interviews and examined the available process documents.We analyzed the data using Socio-Technical Grounded Theory. We mapped 14 constructs, 13 propositions, and two explanations to identify those challenges faced by mixed-signal teams. This study discusses the social aspects of Semiconductor’s research, and we propose a list of possible delivery challenges in the context of the focal company. The suggested root causes of challenges in mixed signal projects are the incipient processes specification and the lack of practices related to collaboration in cross-functional teams. Requirement Engineering and DevOps studies provide insights into the organization's implications for improvement.


SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app21_Prod.sigaa15