|
Dissertações |
|
1
|
-
Jose Carlos Ferrer Simões
-
Avaliação da Eficiência dos Investimentos em Segurança Física numa Instituição Financeira
-
Orientador : JOAO CARLOS FELIX SOUZA
-
MEMBROS DA BANCA :
-
ARI MELO MARIANO
-
JOAO CARLOS FELIX SOUZA
-
JOAO GABRIEL DE MORAES SOUZA
-
PENG YAOHAO
-
Data: 06/01/2023
-
-
Mostrar Resumo
-
As instituições financeiras investem fortemente em segurança física e patrimonial com a implementação de aparatos de segurança cada vez mais modernos, obras de reforço estrutural em tesourarias e salas cofres e reforço de sistema de vigilância com o propósito de mitigar as perdas decorrentes de roubos externos e fraudes contra as agências. No entanto, tem se observado que o investimento de recursos em determinadas agências, com o viés de segurança física, não garante o mesmo grau de eficiência relativa em relação a outras agências que receberam investimento menor. Desta forma, será realizado uma análise dos investimentos mínimos necessários, com enfoque em segurança física bancária, para que o risco operacional, na modalidade evento externo (roubos externos e fraudes contra o sistema bancário), se mantenha dentro do apetite de risco estabelecido pela instituição. Observar que neste estudo somente serão considerados variáveis e investimentos que tratam de segurança física e patrimonial. A análise será numa instituição financeira brasileira, por meio da modelagem de Análise Envoltória de Dados (DEA), dos investimentos em segurança física e patrimonial, mínimos necessários, em cada agência, também chamada de DMU, de forma a verificar as agências que apresentam melhor eficiência relativa frente às demais agências. Para a aplicação da DEA foram utilizados 4 inputs (investimento em equipamentos de segurança física e patrimonial, investimento em obras de infraestrutura, despesa com vigilância e número de vigilantes por agência) e 2 outputs (perda mitigada e inverso do risco potencial). Por meio desta análise, pode-se verificar as Regiões, UF e DMUs que são eficientes assim como apresentar possíveis reduções de investimento em segurança. Pode-se verificar quais DMUs eficientes atuarão como benchmark para as DMUs menos eficientes. Por fim, utilizou-se a Regressão Tobit com o propósito de verificar possíveis influências de fatores indiretos que podem impactar nos escores de eficiência.
-
Mostrar Abstract
-
Financial institutions invest heavily in physical and property security with the implementation of increasingly modern security devices, structural reinforcement works in treasuries and safe rooms and reinforcement of the surveillance system with the purpose of mitigating losses resulting from external thefts and fraud against agencies. However, it has been observed that the investment of resources in certain agencies, with a physical security bias, does not guarantee the same degree of relative efficiency in relation to other agencies that received less investment. In this way, an analysis of the minimum necessary investments will be carried out, with a focus on physical banking security, so that the operational risk, in the external event modality (external theft and fraud against the banking system), remains within the risk appetite established by the institution. Note that in this study, only variables and investments that deal with physical and property security will be considered. The analysis will be in a Brazilian financial institution, through the modeling of Data Envelopment Analysis (DEA), of the investments in physical and patrimonial security, minimum necessary, in each branch, also called DMU, in order to verify the branches that present better relative efficiency compared to other agencies. For the application of DEA, 4 inputs were used (investment in physical and property security equipment, investment in infrastructure works, expenditure on surveillance and number of guards per branch) and 2 outputs (mitigated loss and inverse of the potential risk). Through this analysis, it is possible to verify the Regions, UF and DMUs that are efficient as well as to present possible reductions in security investment. It can be verified which efficient DMUs will act as a benchmark for the less efficient DMUs. Finally, the Tobit Regression was used with the purpose of verifying possible influences of indirect factors that can impact the efficiency scores.
|
|
2
|
-
João Laterza
-
Classificação automatizada de reclamações abertas pelos clientes e usuários do Sistema Financeiro Nacional
-
Orientador : THIAGO DE PAULO FALEIROS
-
MEMBROS DA BANCA :
-
GLAUCO VITOR PEDROSA
-
LUIS PAULO FAINA GARCIA
-
NÁDIA FELIX FELIPE DA SILVA
-
THIAGO DE PAULO FALEIROS
-
Data: 10/02/2023
-
-
Mostrar Resumo
-
Compete ao Banco Central do Brasil (BCB) atender aos clientes e usuários do Sistema Financeiro Nacional (SFN) na apresentação de reclamações contra produtos e serviços oferecidos pelas entidades supervisionadas, e monitorar o atendimento de suas demandas. O processo de tratamento dessas reclamações é feito manualmente, e consiste no seu enquadramento como “procedente” ou “improcedente”, a partir da análise do relato do cidadão, da resposta da entidade reclamada, dos documentos anexados à demanda e de julgamento sobre se houve ou não descumprimento da regulamentação vigente. Contudo, com o recente aumento no volume de demandas, não é possível, com os recursos disponíveis, analisar a integralidade das remessas. Nesse contexto, foi construída, pelo BCB, solução automatizada para filtrar as reclamações com maior possibilidade de serem procedentes, direcionando, assim, os esforços de análise e julgamento promovidos pelos seus servidores. Destarte, esta pesquisa teve como objetivo desenvolver um classificador para a tarefa em questão com desempenho superior ao do modelo vigente. Para isso, foram exploradas abordagens de aprendizagem profunda, em contraponto ao método tradicional empregado anteriormente. Como resultado, foi desenvolvido um classificador baseado em uma estrutura hierárquica combinando um Bidirectional Encoder Representations from Transformers (BERT) e uma Bidirectional Long short-term memory (BiLSTM) para gerar representações únicas dos textos da reclamação do cidadão e da resposta da entidade reclamada. Essa solução alcançou, na validação cruzada, um desempenho médio - calculado pela Área sobre a curva Precisão-Revocação (PRAUC) - de 71,41%, superando em 0,96 pontos percentuais o modelo reproduzido do BCB, e desempenhando 71,92% nos dados de teste. Estimou-se que, caso o classificador proposto fosse utilizado para nortear a tarefa de tratamento das reclamações, seria possível cobrir 90,23% daquelas de fato procedentes avaliando-se apenas 60% do total de demandas. Por fim, foram ainda propostas estratégias multimodais para a combinação das representações textuais descritas com outras variáveis tabulares que compuseram a solução original. No entanto, o ganho obtido pelas estratégias multimodais frente à proposta anterior não foi estatisticamente significante.
-
Mostrar Abstract
-
The Central Bank of Brazil (BCB) is responsible for assisting customers and users of the National Financial System (SFN) with complaints against products and services offered by its supervised entities and ensuring that all demands are appropriately addressed. Each concern is manually handled and classified as “proceeding” or “unfounded” based on a preliminary analysis of the facts described by the customer, the alleged entity’s reply, the attached documents, and according to its compliance with current regulations. However, dealing with an increasing demand with the available resources has turned out to be an unprecedented challenge, being currently impossible to handle all issues accordingly. In this context, the BCB has developed an automated solution to filter complaints more likely to be classified as “proceeding”, thus driving the human activities of examination, analysis and judgment. The present study aims to propose a new classifier for this task with better performance than the current model. To this end, deep learning approaches were explored, differing from the traditional method previously employed. As a result, an experimental classifier was tested, based on a hierarchical structure, and combining Bidirectional Encoder Representations from Transformers (BERT) with Bidirectional Long Short-Term Memory (BiLSTM) to generate unique contempt representations of both the citizen’s complaint and the entity’s reply. In cross-validation, this solution reached an average performance of 71.41%, based on the area under the precision-recall curve (PRAUC), exceeding the current BCB model by 0.96 percentage points, and performing 71.92% on the test dataset. If the proposed classifier was adopted to drive the task of handling complaints, we estimate that approximately 90.23% of the proceeding demands could be identified by evaluating only 60% of the total amount. In addition, multimodal strategies were tested to combine the described textual representations with tabular features of the original classifier. However, when compared to the previous proposed solution, the achieved gain with the multimodal strategies did not reach a statistically significant outcome.
|
|
3
|
-
Diego Marques de Azevedo
-
Uma análise probabilística do desempenho de sistemas ASR para rádios e tvs brasileiras.
-
Orientador : GUILHERME SOUZA RODRIGUES
-
MEMBROS DA BANCA :
-
ANDERSON DA SILVA SOARES
-
GLAUCO VITOR PEDROSA
-
GUILHERME SOUZA RODRIGUES
-
NELSON CRUZ SAMPAIO NETO
-
Data: 03/03/2023
-
-
Mostrar Resumo
-
Com o uso de tecnologias baseadas em redes neurais artificiais, os sistemas de Reconhecimento Automático de Fala (do inglês, Automatic Speech Recognition – ASR) para o Português Brasileiro (PB) têm apresentado importantes avanços nos últimos anos. Muitos dos trabalhos que alcançaram resultados no estado da arte utilizaram modelos de ponta-a-ponta de código aberto, como o Wav2vec 2.0 e o Whisper. Dentre outras alternativas, estão as ferramentas comerciais, também avaliadas em nosso trabalho. Foram incluídas no estudo as APIs do Google e da Microsoft para a transcrição da fala em texto e também o sistema da VoiceInteraction, chamado Audimus. Nós analisamos o desempenho relativo dessas ferramentas – utilizando como métrica o Word Error Rate (WER) – sobre a transcrição de áudios gravados de rádios e canais de TV. Um modelo linear generalizado (do inglês, Generalized Linear Model – GLM) foi criado para descrever de forma estocástica, para cada método em questão, o relacionamento entre as propriedades dos áudios utilizados no experimento (exemplo, formato do arquivo e duração do áudio) e a acurácia da transcrição. Dentre outros usos, essa estratégia permite a análise local da performance de cada método, sendo possível estimar o desempenho esperado para cada áudio. Assim, é possível identificar não apenas a ferramenta com melhor performance global, mas também diagnosticar em quais tipos de áudio cada método teria o melhor desempenho. Essa abordagem possibilita a construção de sistemas ASR otimizados a partir do uso composto de diversos transcritores. Os dados gerados e o código utilizado para construção do modelo estocástico neste experimento estão publicamente disponíveis.
-
Mostrar Abstract
-
With the use of neural network-based technologies, Automatic Speech Recognition (ASR) systems for Brazilian Portuguese (BP) have shown great progress in the last few years. Several state-of-art results were achieved by open-source end-to-end models, such as the Kaldi toolkit and the Wav2vec 2.0. Alternative commercial tools are also available, including the Google and Microsoft speech-to-text APIs and the Audimus System of VoiceInteraction. We analyze the relative performance of such tools – in terms of the so-called Word Error Rate (WER) – when transcribing audio recordings from Brazilian radio and TV channels. A generalized linear model (GLM) is designed to stochastically describe the relationship between some of the audio’s properties (e.g. file format and audio duration) and the resulting WER, for each method under consideration. Among other uses, such strategy enables the analysis of local performances, indicating not only which tool performs better, but when exactly it is expected to do so. This, in turn, could be used to design an optimized system composed of several transcribers. The data generated for conducting this experiment and the scripts used to produce the stochastic model are public available.
|
|
4
|
-
Públio Pastrolin Cavalcante
-
Avaliação da mudança na qualidade dos relatórios com a aplicação da gamificação em atividades de inteligência policial
-
Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
-
MEMBROS DA BANCA :
-
ANDRE LUIZ PERON MARTINS LANNA
-
CHARLES ANDRYÊ GALVÃO MADEIRA
-
GEORGE MARSICANO CORREA
-
SERGIO ANTONIO ANDRADE DE FREITAS
-
Data: 23/03/2023
-
-
Mostrar Resumo
-
A gamificação de atividades não lúdicas ganhou espaço no ambiente industrial, de serviços e educacional. A literatura aponta que, ao introduzir elementos de jogos em um ambi- ente, as atividades podem ser mais atrativas, divertidas e agradáveis. Combinar técnicas de jogo para motivar e envolver as pessoas provou ser uma ferramenta poderosa para os gestores. A Polícia Militar do Distrito Federal é a corporação policial responsável pelo policiamento ostensivo e manutenção da ordem pública na capital federal. A Atividade de Inteligência é utilizada para assessorar em decisões estratégicas, táticas e operacionais. Este trabalho apresenta o Processo Gamificado de Relatórios de Inteligência (PGRI) para ser utilizado no Sistema de Inteligência da Polícia Militar. A gamificação foi estruturada utilizando como base o framework de gamificação Octalysis e valeu-se de conceitos estatís- ticos utilizados em questionários baseados no Intrinsic Motivation Inventory e análise de documentos. O PGRI busca melhorar a qualidade dos relatórios de inteligência com a aplicação de gamificação e é retroalimentado por um ciclo iterativo de planejamento por meio dos resultados da avaliação do processo. Apresenta uma revisão da literatura sobre os conceitos de jogos e gamificação, Atividade de Inteligência e Segurança Pública e um resumo sobre a Polícia Militar do Distrito Federal.
-
Mostrar Abstract
-
The gamification of non-playful activities gained ground in the industrial, service, and educational environment, and the literature points out that by introducing game elements into an environment, activities can be more attractive, fun and more enjoyable. Combining game techniques to motivate and engage people has proven to be a powerful tool for managers. Military Police ́s from Federal District is the police corporation responsible for the ostensible policing and maintenance of public order in the federal capital. The Intelligence Activity is used to advisory on strategic, tactical, and operational decisions. This work presents the Gamified Intelligence Reporting Process (PGRI) to be utilized in Military Police Intelligence System. PGRI was constructed using Octalysis gamification framework base. Built using Intrinsic Motivation Inventory questionnaires and document analysis submited to statistical concepts. The PGRI pursue to improve the quality of intelligence reports with the application of gamification and is fed back by an iterative cycle of planning through the process evaluation results. It presents a literature review about the concepts of games and gamification, Intelligence Activities and Public Security and a summary about the Military Police of the Federal District.
|
|
5
|
-
José Nilo Alves de Sousa Neto
-
Estimativa de Valores de Imóveis da União Administrados pelo Exército Brasileiro com Técnicas de Aprendizagem de Máquina e Componentes Espaciais
-
Orientador : MARCELO LADEIRA
-
MEMBROS DA BANCA :
-
MARCELO LADEIRA
-
ARI MELO MARIANO
-
EDISON ISHIKAWA
-
BERNARDO ALVES FURTADO
-
Data: 18/04/2023
-
-
Mostrar Resumo
-
A valoração do patrimônio imobilizado de uma instituição representa uma condição necessária a uma gestão eficiente de seus ativos. A execução e a análise dos laudos de avaliação imobiliária são essenciais à consecução de alguns objetivos estratégicos da Força Terrestre do Brasil, mas são, também, bastante onerosas em termos de tempo, mão de obra e recursos financeiros. Ocorre, por vezes, emprego de grande esforço para que as etapas supramencionadas ocorram e o valor de mercado finalmente obtido ser incoerente com o que as autoridades solicitantes imaginavam inicialmente, fazendo com que o estudo técnico realizado não seja efetivamente utilizado em negociações pela organização. Nesse sentido, este trabalho propõe o desenvolvimento de modelos preditivos multiníveis capazes de construir estimativas do valor dos imóveis urbanos e rurais. Os modelos têm razoável nível de assertividade e abrangência geográfica nacional ao gerar valores estimativos de mercado dos imóveis da União. Contemplaram-se variáveis intrínsecas e extrínsecas aos imóveis, incluindo testes de agregação de componentes espaciais sobre algumas delas. Como a interpretabilidade da solução proposta é um requisito importante, tanto nas abordagens lineares quanto nas não lineares, adotou-se o valor de Shapley como ferramenta de apoio à garantia de explicabilidade. Modelos de equações estruturais com mínimos quadrados parciais (PLS-SEM) foram construídos para selecionar atributos de maneira melhor fundamentada e visualmente acessível. Essas duas considerações, associadas à precificação estimativa de propriedades a nível nacional, representam uma inovação deste trabalho em relação à literatura científica analisada.
-
Mostrar Abstract
-
The valuation of an institution’s patrimony represents a necessary condition for an efficient management of its assets. The execution and analysis of real estate appraisal reports areessential to the achievement of some strategic objectives of the Brazilian Army, but theyare also quite costly in terms of time, labor and financial resources. Sometimes, greateffort is required for the aforementioned steps to take place and the market value finally obtained is inconsistent with what was initially imagined by the authorities, causing the technical study carried out to not be effectively used in negotiations by the organization. In this sense, this work proposes the development of multilevel predictive models capable of building estimates of urban and rural real estate values. The models have a reasonable level of assertiveness and national geographic coverage when generate estimated market values of Union real estate assets. Intrinsic and extrinsic variables to the properties were considered, including tests of aggregation of spatial components on some of them. As the interpretability of the proposed solution is an important requirement, in both linear and nonlinear approaches, the Shapley value was adopted as a tool to support the guarantee of explainability. Partial least squares structural equation modeling (PLS-SEM) method was applied in order to select features in a reasoned and visually accessible manner. These two considerations associated with real estate price modeling at a national level represent an innovation of this work in relation to the analyzed scientific literature.
|
|
6
|
-
Rodrigo Pereira Gomes
-
Proposição de uma ferramenta computacional de Gerenciamento de Riscos da Fadiga Humana para Controladores de Tráfego Aéreo
-
Orientador : SIMONE BORGES SIMAO MONTEIRO
-
MEMBROS DA BANCA :
-
SIMONE BORGES SIMAO MONTEIRO
-
ARI MELO MARIANO
-
EDGARD COSTA OLIVEIRA
-
REGIANE MÁXIMO SIQUEIRA
-
Data: 24/04/2023
-
-
Mostrar Resumo
-
Este trabalho tem como objetivo propor uma ferramenta computacional de Gerenciamento de Riscos relacionados à Fadiga Humana, a partir da abordagem Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS), aplicado ao Primeiro Centro Integrado de Defesa Aérea e Controle de Tráfego Aéreo (CINDACTA I), de forma a minimizar os riscos concernentes à fadiga. Para tal, realizou-se uma pesquisa exploratória, descritiva, de natureza aplicada, com abordagem qualitativa e quantitativa.
Utilizou-se como técnica de coleta de dados documentos do Comando da Aeronáutica, legislações nacionais e internacionais, aplicação de questionário, brainstorming com especialistas das áreas de investigação e prevenção de acidentes aeronáuticos, e controle de tráfego aéreo. Como resultado deste estudo, foi coletada a percepção dos operadores que atuam em órgãos operacionais. Os profissionais responderam um questionário com 44 questões objetivas, embasadas na literatura, relacionadas diretamente com o tema Fadiga Humana (FH), que podem influenciar o Desempenho Operacional (DO). Para tabular os dados resultantes, aplicou-se a modelagem de equações estruturais de mínimos quadrados parciais (PLS-SEM), a qual revelou que conforme a resposta de 149 operadores, o modelo conceitual elaborado explica o desempenho operacional em 34,7%, as dimensões tempo de reação em 31,2% e estado de alerta em 29,9%. Na etapa de validação, foi apresentada a solução computacional aos especialistas e analistas, por meio de reuniões, objetivando uma validação do Sistema de Gerenciamento de Riscos da Fadiga (SGRF), avaliando a viabilidade de utilização da ferramenta pela instituição. O estudo revelou que, para a melhoria do desempenho operacional dos controladores de tráfego aéreo, deve-se realizar ações quanto à qualidade do sono e ao tempo de reação. Por fim, apresentou-se um protótipo de ferramenta computacional desenvolvido, testado e validado por especialistas da Organização, denominado Sistema de Gerenciamento de Riscos da Fadiga Humana (SGRF), visando contemplar todas as etapas essenciais do processo de gerenciamento de riscos da fadiga para o Air Traffic Control Officer - Controlador de Tráfego Aéreo (ATCO), segundo a abordagem Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS).
-
Mostrar Abstract
-
This work aims to propose a computational tool for Risk Management related to Human Fatigue, based on the Fatigue Risk Management System - Sistema de Gerenciamento do Risco à Fadiga (FRMS) approach, applied to Primeiro Centro Integrado de Defesa Aérea e Controle de Tráfego Aéreo (CINDACTA I), in order to minimize the risks related to fatigue. To this end, exploratory, descriptive, applied research was carried out, with a qualitative and quantitative approach. Documents from the Air Force Command, national and international legislation, application of a questionnaire, brainstorming with specialists in the areas of investigation and prevention of aeronautical accidents, and air traffic control were used as a data collection technique. As a result of this study, the perception of operators who work in operational bodies was collected. Based on the literature, the professionals answered a questionnaire with 44 objective questions directly related to the Human Fatigue (FH) theme, which can influence Operational Performance (OD). To tabulate the resulting data, partial least squares structural equation modeling (PLS-SEM) was applied, which revealed that according to the response of 149 operators, the conceptual model elaborated explains the operational performance in 34.7%, the dimension reaction time in 31.2% and state of alert in 29.9%. In the validation stage, the computational solution was presented to specialists and analysts, through meetings, aiming at validating the Sistema de Gerenciamento de Riscos da Fadiga (SGRF) and evaluating the feasibility of using the tool by the institution. The study revealed that, in order to improve the operational performance of air traffic controllers, actions should be taken regarding sleep quality and reaction time. Finally, a prototype of a computational tool developed, tested, and validated by the Organization’s specialists, called the Sistema de Gerenciamento de Riscos da Fadiga (SGRF), was presented, aiming to contemplate all the essential stages of the fatigue risk management process for the Air Traffic Control Officer (ATCO), according to the Fatigue Risk Management System (FRMS) approach.
|
|
7
|
-
Marcella Guarnieri Mercês
-
Predição de evasão de militares do Exército Brasileiro utilizando técnicas de machine learning
-
Orientador : MARCIO DE CARVALHO VICTORINO
-
MEMBROS DA BANCA :
-
EDISON ISHIKAWA
-
MARCIO DE CARVALHO VICTORINO
-
MARIA CLÁUDIA REIS CAVALCANTI
-
THIAGO DE PAULO FALEIROS
-
Data: 22/06/2023
-
-
Mostrar Resumo
-
Esse trabalho tem por objetivo realizar uma análise do quadro demissionário de oficiais do Exército Brasileiro ao longo dos anos e propor um conjunto de técnicas que possibilitem identificar os oficiais com maior probabilidade de se tornarem demissionários, de forma a permitir que o Exército aja proativamente a fim de evitar as perdas que esse ato causa para a Força Terrestre. As abordagens utilizadas levam em consideração as técnicas de aprendizado de máquina mais utilizadas para a predição de demissão voluntária de empregados em empresas dos mais diversos ramos de atuação, como os algoritmos de classificação K Nearest Neighbors (KNN), Naive Bayes, Suport Vector Machines (SVM), Árvores de Decisão e Random Forest. A utilização de outros tipos de técnicas e de melhorias no conjunto de dados é avaliada com a intenção de melhorar os resultados obtidos.
-
Mostrar Abstract
-
This research aims to analyse the turnover of Brazilian Army’s officers over the years and propose a set of techniques that allow the identification of those officers more likely to resign. This result can help the Brazilian Army to act so that these resignations have a lesser impact in it’s productivity. The aproaches chosen considered the most common techniques used to predict employee churn in other areas. Common classification algorithms, such as K Nearest Neighbors (KNN), Naive Bayes, Suport Vector Machines (SVM), Decision Trees and Random Forest were used. Techniques that could improve the first results found were also studied so that they can be applied in the continuation of this research.
|
|
8
|
-
EDMILSON COSME DA SILVA
-
Previsão da evasão acadêmica no ensino superior: O caso dos cursos de graduação presencial da Universidade de Brasília
-
Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
-
MEMBROS DA BANCA :
-
SERGIO ANTONIO ANDRADE DE FREITAS
-
ANDRE LUIZ PERON MARTINS LANNA
-
ANDREA FELIPPE CABELLO
-
RAFAEL FERREIRA LEITE DE MELLO
-
Data: 03/07/2023
-
-
Mostrar Resumo
-
Já há algum tempo, pesquisadores (inter)nacionais têm estudado a evasão nos cursos de ensino superior, classificando-a em dois tipos: estudantes que abandonam a universidade; e estudantes que abandonam o ensino superior. Ambas as situações causam danos à instituição, aos alunos e à sociedade em geral. A partir de 1995, com a criação da ANDIFES, os estudos começaram a se tornar mais frequentes no Brasil. Essa comissão elaborou relatórios que analisaram os índices de diplomação, retenção e evasão nos cursos de graduação nas Universidades Brasileiras. A evasão institucional foi um dos temas de estudo, sendo descrita como a saída do aluno de seu curso de origem, sem finalizar o curso. A Universidade de Brasília (UnB), tendo em vista a problemática que envolve a evasão do curso pelos estudantes, tem criado mecanismos que permitam aumentar a permanência dos estudantes nos cursos de graduação. O objetivo deste trabalho foi elaborar e avaliar um modelo de análise que permita utilizar os dados acadêmicos para previsão de evasão nos cursos de graduação presencial. A Revisão Sistemática da Literatura foi realizada com o propósito de identificar os fatores que impactam na evasão, a partir desses fatores, definir indicadores que possam ser extraídos dos sistemas acadêmicos da UnB. Ela também contribuiu na para selecionar algoritmos/ferramentas que deram suporte nas análises. O principal resultado da revisão sistemática foi a identificação de 29 fatores usados pelos pesquisadores, onde a pontuação média, gênero, notas do curso foram os mais utilizados. Sobre as ferramentas, a Regressão, a Árvore de Decisão e a Rede Neural foram os algoritmos mais usados. A partir desse resultado preliminar, foi criado o Modelo de Análise na Graduação (MAGRA), que utiliza os indicadores existentes nos sistemas acadêmicos da UnB em conjunto com ferramentas de aprendizagem de máquina para prever alunos com potencial de risco de evasão. A pesquisa se desenvolveu em um ambiente que contempla dois cenários. O primeiro foi desenvolvido na Faculdade do Gama (FGA), que serviu de protótipo para a criação do MAGRA, e o segundo na UnB. Nas etapas de testes, nas quais foram usadas somente as disciplinas cursadas pelos alunos, mostrou-se que o número de vezes que os alunos cursam uma disciplina pode ser um indicador da dificuldade desse aluno em cumprir a disciplina no tempo determinado. Empregando as novas variáveis, houve um aumento no número de modelos válidos e, consequentemente, um aumento nos cursos e turmas analisados, o que resultou em um número maior de previsões. A situação foi percebida ao conduzir os estudos na Faculdade do Gama e na Universidade de Brasília. Para melhorar a identificação precoce dos alunos com características de evasão, é necessário criar mecanismos de feedback por parte dos coordenadores de cursos, incluir novos sistemas, melhorar a qualidade dos dados e ajustar os parâmetros dos algoritmos.
-
Mostrar Abstract
-
For some time now, (inter)national researchers have been studying dropout rates in higher education courses, classifying them into two types: students who drop out of the university, and students who drop out of higher education. Both situations cause damage to the institution, students, and society at large. Starting in 1995, with the creation of ANDIFES, studies began to be more frequent in Brazil. This commission developed reports that analyzed graduation rates, retention, and dropout rates in undergraduate courses at Brazilian universities. Institutional dropout was one of the study subjects, described as a student leaving their original course without completing it. The University of Brasília (UnB), considering the issues surrounding student dropout, has created mechanisms to increase student retention in undergraduate courses. The objective of this work was to develop and evaluate an analytical model that allows the use of academic data for predicting dropout rates in face-to-face undergraduate courses. A Systematic Literature Review was conducted to identify the factors that impact dropout rates and define indicators that can be extracted from UnB's academic systems. It also helped in selecting algorithms/tools to support the analysis. The main result of the systematic review was the identification of 29 factors used by researchers, where average score, gender, and course grades were the most commonly used ones. Regarding tools, Regression, Decision Tree, and Neural Network were the most frequently used algorithms. Based on this preliminary result, the Undergraduate Analysis Model (MAGRA) was created, which utilizes existing indicators in UnB's academic systems in conjunction with machine learning tools to predict students at risk of dropout. The research was conducted in an environment that encompasses two scenarios. The first was developed at the Faculty of Gama (FGA), which served as a prototype for MAGRA's creation, and the second at UnB. In the testing stages, where only the courses taken by students were considered, it was shown that the number of times a student takes a course can be an indicator of their difficulty in completing it within the designated time frame. By employing the new variables, there was an increase in the number of valid models and, consequently, an increase in the analyzed courses and classes, resulting in a higher number of predictions. This situation was observed during the studies conducted at the Faculty of Gama and the University of Brasília. To improve early identification of students with dropout characteristics, it is necessary to create feedback mechanisms from course coordinators, introduce new systems, improve data quality, and adjust algorithm parameters.
|
|
9
|
-
Amilton Lôbo Mendes Junior
-
A utilização de técnicas de classificação aplicadas ao perfilamento de trabalhadores do Sistema Nacional de Emprego: uma abordagem de aprendizado de máquina
-
Orientador : GLADSTON LUIZ DA SILVA
-
MEMBROS DA BANCA :
-
FRANCISCO JOSÉ DA SILVA E SILVA
-
GLADSTON LUIZ DA SILVA
-
MARCELO LADEIRA
-
MARISTELA TERTO DE HOLANDA
-
Data: 04/07/2023
-
-
Mostrar Resumo
-
O presente trabalho propõe a utilização de aprendizado de máquina no perfilamento de trabalhadores do sistema público de emprego brasileiro, o Sistema Nacional de Emprego - Sine. Autilização de um mecanismo automatizado de perfilamento de trabalhadores permitirá que esforços sejam direcionados no tratamento preventivo a trabalhadores mais propensos a permanecerem por mais tempo fora do mercado formal de trabalho. A acurá- cia e o f1-scoreforam as métricas utilizadas na avaliação dos modelos propostos. No experimento, o modelo com os melhores resultados apresentados foi o Extreme Gradient Boosting. Melhorias futuras podem incluir a adição de variáveis relacionadas ao perfis dos trabalhadores, ao mercado local de trabalho e às transições de setores econômicos, de ocupações e de residência.
-
Mostrar Abstract
-
The present work proposes the application of machine learning in the profiling of workers of brazilian public employment system, the National Employment System - NES ( Sine in portuguese ). The use of an automated mechanism of workers profiling will allow efforts to be directed to the preventive treatment of those workers most likely to remain outside the formal labor market longer. Accuracy and F1-Score were used as metrics in the evaluation of the proposed models. The model with the best results in the experiments was the Extreme Gradient Boosting. Future improvements may include the addition of features related to workers profile, to local labor market and to transitions of occupations, economic sectors and residence
|
|
10
|
-
Eric Hans Messias da Silva
-
Sumarização Abstrativa de Documentos Longos Utilizados em Fiscalizações e Instruções Processuais
-
Orientador : MARCELO LADEIRA
-
MEMBROS DA BANCA :
-
ANDREI LIMA QUEIROZ
-
MARCELO LADEIRA
-
THIAGO ALEXANDRE SALGUEIRO PARDO
-
THIAGO DE PAULO FALEIROS
-
Data: 13/07/2023
-
-
Mostrar Resumo
-
O Tribunal de Contas da União tem seu trabalho organizado por processos e, ao longo do ciclo de vida deles, cada processo chega geralmente a conter de dezenas a centenas peças. Cada peça atinge facilmente algumas dezenas de páginas. A quantidade de processos e documentos só tende a crescer ao longo do tempo, o que gera uma quantidade enorme de material para leitura e com conteúdo bem rico, mas de difícil consumo, pois é necessário um tempo considerável para a leitura de cada processo. Os processos costumam ser lidos para verificar se possuem conteúdo relevante para alguma fiscalização ou instrução processual em curso. Além do custo alto para ler um processo, parte desse conteúdo é descartado pelo auditor por não estar atrelado ao seu trabalho corrente, o que gera um desperdício de tempo nesta atividade. Para melhorar a eficiência deste processo, é proposto neste trabalho o desenvolvimento de uma solução de sumarização automática de texto usando aprendizado de máquina aplicado ao processamento de linguagem natural. Essa solução usará a abordagem de sumarização abstrativa aplicada a documentos longos e com conteúdo jurídico, usando modelos que estão no estado da arte na tarefa e baseados em transformers com mecanismo de atenção linear. A solução será disponibilizada como uma Aplicação Web com microsserviço para melhor integração com aplicações que compõem o processo de trabalho do auditor. Os resumos gerados pelos modelos serão avaliados principalmente por métricas que foquem mais na semântica do texto gerado e, em decorrência disso, terão uma melhor aderência ao conteúdo desejado. O usuário fornecerá feedback dos resumos gerados e eles serão usados para retroalimentar o modelo posteriormente.
-
Mostrar Abstract
-
The Brazilian Federal Court of Accounts organizes its work by processes and, throughout their life cycle, each of them usually contains from tens to hundreds of legal documents. Each document easily reaches a few dozen pages. The number of processes and documents only tends to grow over time, which generates a huge amount of material for reading and with a very rich content, but difficult to consume, as it takes considerable time to read each process. The processes are usually read to verify if they have relevant content for any fiscalization or procedural instruction in progress. In addition to the high cost of reading a process, part of this content is discarded by the auditor because it is not linked to their current work, which generates a waste of time in this activity. To improve the efficiency of this process, we proposed in this work the development of an automatic text summarization solution using machine learning applied to natural language processing. This solution will use the abstractive summarization approach applied to long documents and with legal content, using models that are state-of-the-art in the task and based on transformers with linear attention mechanism. The solution will be made available as an Web Apllication with a microservice for better integration with applications that make up the auditor’s work process. The summaries generated by the models will be evaluated mainly by metrics that focus more on the semantics of the generated text and, as a result, will have a better adherence to the desired content. The user will provide feedback on the generated summaries and they will be used to feed back the model later.
|
|
11
|
-
Marcos Paulo Pereira da Silva
-
Diagnóstico de Ecossistema Digital: um estudo de caso
-
Orientador : REJANE MARIA DA COSTA FIGUEIREDO
-
MEMBROS DA BANCA :
-
BRUNA DIIRR GONCALVES DA SILVA
-
EDNA DIAS CANEDO
-
ELAINE VENSON
-
REJANE MARIA DA COSTA FIGUEIREDO
-
Data: 14/07/2023
-
-
Mostrar Resumo
-
Os governos de diversos países têm buscado se adequar ao mundo digital empregando a transformação digital visando aumentar a entrega de valor para a sociedade. O Tribunal de Contas da União (TCU) aprovou sua Estratégia Digital em 2020, com o objetivo de redesenhar a forma de atuação do TCU no mundo digital para aumentar o impacto das ações de controle para a sociedade. Entender e diagnosticar as características do estado atual de seu ecossistema digital e definir diretrizes de melhorias são ações essenciais na jornada de transformação. Nesse contexto, o objetivo deste trabalho foi propor diretrizes para um Ecossistema Digital no contexto da transformação digital do TCU. A técnica de estudo de caso foi empregada para o diagnóstico de uma área temática da estratégia digital do TCU, com abordagem qualitativa dos dados. A área selecionada foi a Fiscalização de Pessoal, e um instrumento específico de avaliação para o diagnóstico foi gerado a partir da adaptação do modelo de avaliação de ecossistemas, o SEG-M². Este processo e os resultados do diagnóstico foram validados pelo TCU aplicando a técnica de grupo focal. O instrumento possibilitou identificar os pontos de atenção e de possíveis melhorias da estratégia do ecossistema do TCU. Como trabalhos futuros, vislumbra-se a oportunidade de aplicar o processo nas demais áreas temáticas da Estratégia Digital do TCU para a obtenção de uma visão global do ecossistema digital. Ademais, a oportunidade de aplicação do instrumento em outros órgãos públicos, permitindo inclusive que as experiências e conhecimentos sejam compartilhados, e que contribua para a definição de um instrumento adaptado às características das organizações públicas brasileiras.
-
Mostrar Abstract
-
The governments of several countries have sought to adapt to the digital world by employing digital transformation to increase the delivery of value to society. The Federal Court of Accounts – Brazil (TCU) approved its Digital Strategy in 2020, aiming to sway its operation in the digital world to increase the impact of control actions for society. Understanding and diagnosing the characteristics of the current state of their digital ecosystem and defining improvement guidelines are essential in TCU’s transformation journey. In this context, the objective of this work was to propose guidelines for a Digital Ecosystem in the context of digital transformation at TCU. The case study technique was used to diagnose a thematic area of the TCU digital strategy, with a qualitative data approach. The selected thematic area of TCU’s strategy, Federal Union Personnel Inspection and a specific assessment instrument was generated from the adaptation of the ecosystem assessment model, the SEG-M². This process and the diagnosis results were validated by the TCU through the focus group technique, allowing a portrait of TCU’s digital ecosystem. The adapted instrument enabled the identification of points of attention and possible improvements in the TCU ecosystem’s strategy in this thematic area. In future work, there is an opportunity to apply the process in the other thematic areas of TCU’s Digital Strategy to obtain a global vision of the digital ecosystem. Moreover, there is an opportunity to apply the instrument in other public bodies, allowing for the sharing of experiences and knowledge and contributing to the definition of an instrument adapted to the characteristics of Brazilian public organizations.
|
|
12
|
-
MICHAEL RODRIGUES DA SILVA
-
Arquitetura Reativa Cognitiva Baseada em Microsserviços e Micro-Frontends para Melhorar a Experiência do Usuário em Aplicações Bancárias por Meio de Interfaces Adaptativas
-
Orientador : LETICIA LOPES LEITE
-
MEMBROS DA BANCA :
-
ANDRE LUIZ PERON MARTINS LANNA
-
EDISON ISHIKAWA
-
LETICIA LOPES LEITE
-
MÁRCIA CRISTINA MORAES
-
Data: 01/08/2023
-
-
Mostrar Resumo
-
O avanço nas tecnologias de comunicação e computação potencializou o uso da internet, afetando a vida da sociedade e desempenhando um papel importante nos negócios. A indústria bancária tem acompanhado essa evolução, oferecendo serviços essenciais por meio da internet para milhões de clientes. Além disso, a concorrência entre esses bancos tem crescido cada vez mais. Nesse cenário, observa-se que a Experiência do Usuário (UX) é um fator importante na percepção da qualidade pelos clientes dessas instituições, influenciando, inclusive, na escolha entre um banco e outro. Como a arquitetura do software é um elemento importante que afeta a usabilidade, é essencial garantir que critérios de usabilidade e experiência do usuário sejam suportados no planejamento dessa arquitetura. Sendo assim, este trabalho propõe uma arquitetura para sistemas bancários via web que permita melhorar a experiência dos usuários utilizando os conceitos de sistemas reativos que se integram com serviços e bases de dados heterogêneas, com interface que se adapta ao usuário baseada no comportamento e nas características deste. Por esse motivo, interfaces adaptativas tendem a oferecer melhor experiência de utilização, buscando adaptar-se às necessidades e desejos dos usuários. Este trabalho seguiu o modelo de micro-frontends para renderizar o frontend, pois gera bases de código menores, mais coesas e sustentáveis, o que possibilita trabalhar com equipes autônomas e tecnologias diferentes. Essas características são importantes, principalmente, para corporações maiores, as quais sustentam grupos de profissionais e equipes em maior número. A arquitetura proposta por este trabalho utiliza o algoritmo de Aprendizado por Reforço, somado ao algoritmo Monte Carlo Tree Search (MCTS) e à técnica de Aprendizado Profundo para a criação de aplicações adaptativas. Por fim, um sistema backend robusto tem que ser desenvolvido para extrair, armazenar e processar os dados dos usuários, por isso foi adotada a arquitetura de microsserviços, a qual possibilita que as aplicações sejam formadas por serviços pequenos, coesos e independentes.
-
Mostrar Abstract
-
Advances in communication and computing technologies have boosted the use of the internet, affecting the life of society and playing an important role in business. The banking industry has followed this evolution, offering essential services through the internet to millions of customers. In addition, competition between banks that offer services through the internet has grown more and more. In this scenario, it is observed that the User Experience (UX) is an important factor in the perception of quality by the customers of these institutions, even influencing the choice between one bank and another. As the software architecture is an important element that affects usability, it is essential to ensure that usability and user experience criteria are supported when planning this architecture. Therefore, this work proposes an architecture for banking systems based on concepts of reactive systems, providing for integration with services and heterogeneous data sources to improve the UX, with an interface that adapts to the user based on their behavior and characteristics. For this reason, adaptive interfaces tend to offer a better user expe- rience, as they seek to adapt to the needs and desires of users. There are several ways to render adaptive applications, this work follows the micro-frontends model, as it gener- ates smaller, more cohesive and sustainable code bases, making it possible to work with autonomous teams and different technologies. These characteristics are important, espe- cially for larger corporations, which support larger groups of professionals and teams. The architecture proposed by this work uses the Reinforcement Learning algorithm, added to the Monte Carlo Tree Search (MCTS) algorithm and the Deep Learning technique, to create adaptive applications. Finally, a robust backend system has to be developed to extract, store and process user data, so the microservices’ architecture was adopted, which allows applications to be formed by small, cohesive and independent services.
|
|
13
|
-
Rogério Gabriel Nogalha de Lima
-
Modelo de priorização de gastos em TI no contexto de restrição orçamentária: uma abordagem com PLS-SEM no âmbito do Ministério da Economia
-
Orientador : ARI MELO MARIANO
-
MEMBROS DA BANCA :
-
ARI MELO MARIANO
-
JOAO GABRIEL DE MORAES SOUZA
-
REGIANE MÁXIMO SIQUEIRA
-
RICARDO MATOS CHAIM
-
Data: 30/08/2023
-
-
Mostrar Resumo
-
Este trabalho tem por objetivo propor um framework para avaliar a priorização de gastos de tecnologia da informação, em um cenário de restrição orçamentária, como fator influenciador na governança e gestão de TI no Ministério da Economia. Houve a revisão da literatura, desenvolvida a partir da Teoria do Enfoque Meta-Analítico Consolidado – TEMAC, e, posteriormente, foi realizado levantamento de dados de pesquisa com 112 respostas coletadas de dirigentes do Ministério, impactados por esse contingenciamento. O modelo da pesquisa foi calculado via equações estruturais, cujos resultados revelaram ser adequado para mensurar o ambiente pesquisado. Neste estudo, o modelo resultante conseguiu explicar em 47,2% a Governança e Gestão, 34% o uso da Tecnologia e 11,3% a Consistência em Investimento, sendo a Oportunidade para o Negócio e o e-Government (Governo Eletrônico) as variáveis mais importantes como fator de priorização em um ambiente de contingenciamento orçamentário e financeiro.
-
Mostrar Abstract
-
This study aims to propose a framework for evaluating the prioritization of information technology expenditures in a budget-constrained scenario as an influencing factor in IT governance and management at the Ministry of Economy. A literature review was conducted, based on the Consolidated Meta-Analytic Focus Theory - TEMAC, followed by a survey that collected 112 responses from Ministry executives impacted by this budgetary restriction. The research model was computed using structural equations, and the results indicated its suitability for assessing the researched environment. In this study, the resulting model successfully accounted for 47.2% of Governance and Management, 34% of Technology utilization, and 11.3% of Investment Consistency, with Business Opportunity and e-Government (Electronic Government) identified as the most significant variables influencing prioritization in a budgetary and financial constraint environment.
|
|
14
|
-
DANIELA DE OLIVEIRA MORAES
-
FATORES DE RISCOS NO USO DE SISTEMAS DE INFORMAÇÃO DO MINISTÉRIO DA AGRICULTURA E PECUÁRIA: UM ESTUDO DAS RELAÇÕES DIRETAS E MODERADORAS
-
Orientador : ARI MELO MARIANO
-
MEMBROS DA BANCA :
-
ARI MELO MARIANO
-
DANIEL JUGEND
-
JOAO GABRIEL DE MORAES SOUZA
-
VIVIANE VASCONCELLOS FERREIRA GRUBISIC
-
Data: 31/08/2023
-
-
Mostrar Resumo
-
O uso do sistema de informação traz constantes benefícios para quem o utiliza, devido ao aumento de dados gerados. O agrupamento dessas informações pode ser útil para as atividades diárias em qualquer ambiente de trabalho, e até mesmo na vida pessoal. Ao falar em sistema de informação, não necessariamente fala-se em sistema informatizado, e sim em organização, seja através de alguma plataforma automatizada ou simplesmente em um arquivo manual. Juntamente com o uso do SI, tem-se os riscos que envolvem o seu desenvolvimento e que poderão afetar a sua utilidade percebida. Desta forma, o objetivo desta dissertação foi propor etapas para minimizar os fatores de riscos que impactam o uso dos sistemas de informação entregues pela Subsecretaria de Tecnologia da Informação do Ministério da Agricultura e Pecuária. Inicialmente, foi importante buscar na literatura quais as variáveis de riscos que os autores entendem como sendo mais relevantes. Posteriormente, foi aplicado o modelo de equações estruturais para relacionar essas variáveis e assim identificar os fatores com maior impacto no uso do SI. Com relação às implicações práticas, primeiramente foi feita a aplicação de um questionário, onde foram coletadas 71 respostas. Como principais resultados, tem-se que: a Utilidade Percebida influencia o Uso do SI em 38,24% dos casos; e a Facilidade de Uso influencia a Utilidade Percebida em 15,21% das vezes. Além disso, foi gerado o mapa de importância-desempenho (IPMA) para enriquecer os resultados do modelo PLS-SEM e auxiliar na priorização das variáveis de maior relevância e impacto. Por ordem de alta importância e alto desempenho, os indicadores utilidade percebida e riscos serão priorizados. Ademais, a moderação do modelo revelou a variável Idade como ponto de atenção por ser uma variável de impacto na utilidade percebida dos sistemas de informação.
-
Mostrar Abstract
-
The use of the information system brings constant benefits to those who use it, due to the increase in data generated. Grouping this information can be useful for daily activities in any work environment, and even in personal life. When talking about information system, we do not necessarily talk about computerized system, but organization, either through some automated platform or simply in a manual file. Along with the use of SI, there are risks that involve its development and that may affect its perceived usefulness. Thus, the objective of this dissertation was to propose steps to minimize the risk factors that impact the use of use of information systems delivered by the Undersecretariat of Information Technology of the Ministry of Agriculture and Livestock. Initially, it was important to search the literature for the risk variables that the authors understand to be most relevant. Subsequently, the structural equations model was applied to relate these variables and thus identify the factors with the greatest impact on the use of the IS. Regarding the practical implications, a questionnaire was first applied, where 71 responses were collected. The main results are: Perceived Utility influences the use of IS in 38.24% of cases; and Ease of Use influences Perceived Utility 15.21% of the time. In addition, the importance-performance map (IPMA) was generated to enrich the results of the PLS-SEM model and assist in the prioritization of the variables of greatest relevance and impact. In order of high importance and high performance, the indicators perceived utility and risks will be prioritized. Moreover, the moderation of the model revealed the variable Age as a point of attention because it is a variable of impact on the perceived usefulness of information systems.
|
|
15
|
-
Rafael Bruno Peccatiello
-
Detecção de comportamentos maliciosos de usuários internos em redes utilizando análise de fluxos de dados
-
Orientador : LUIS PAULO FAINA GARCIA
-
MEMBROS DA BANCA :
-
LUIS PAULO FAINA GARCIA
-
MARCOS FAGUNDES CAETANO
-
SYLVIO BARBON JÚNIOR
-
THIAGO DE PAULO FALEIROS
-
Data: 01/09/2023
-
-
Mostrar Resumo
-
O presente estudo aborda o problema de detecção de ameaças internas. Uma ameaça interna é qualquer pessoa que tenha acesso legítimo a rede de uma determinada organização e utiliza esse acesso para causar danos à essa organização. O estudo apresenta uma forma de resolução do problema através da proposição de um modelo que congrega diferentes técnicas de Ciência de Dados. Dentre elas estão o emprego de Aprendizado de Máquina supervisionado e utilização da abordagem de análise de fluxo de dados. Esta última, desenvolvida com a aplicação de uma forma para o tratamento de fluxos de dados desbalanceados, já que o desbalanceamento é uma variável presente no domínio do problema em questão. O desbalanceamento do fluxo será tratado por meio de propagação de amostras minoritárias para composição equilibrada de uma janela de treinamento deslizante. Os atributos e a forma com a qual foram extraídos são oriundos de fontes presentes na literatura. Os algoritmos utilizados foram o Random Forest (RF), Light Gradient Boosting Machine (LGBM) e K-Nearest Neighborhoods (KNN). O desempenho do modelo foi avaliado segundo os valores obtidos pelas métricas precision, recall e F1-Score. Os resultados obtidos evidenciam que o tratamento do desbalanceamento permite alcançar desempenho superior aos obtidos pela literatura, para a detecção de ameaças internas.
-
Mostrar Abstract
-
The present study addresses the problem of detecting insider threats. An insider threat is anyone who has legitimate access to a particular organization's network and uses that access to harm that organization. The study presents a way of solving the problem through the proposition of a model that brings together different Data Science techniques. Among them are the use of supervised Machine Learning and the use of the data flow analysis approach. The latter was developed with the application of a way for the treatment of unbalanced data flows, since the unbalance is a variable present in the domain of the problem. The unbalance of the flow will be treated through propagation of minority samples for balanced composition of a sliding training window. The attributes and the way in which they were extracted come from sources present in the literature. The algorithms used were Random Forest (RF), Light Gradient Boosting Machine (LGBM) and K-Nearest Neighborhoods (KNN). The performance of the model was evaluated according to the values obtained by the metrics precision, recall, F1-Score and kappa. The results obtained show that the treatment of unbalance allows achieving superior performance to those obtained in the literature, for insider threat detection.
|
|
16
|
-
William Oliveira Camelo
-
Ponderação do efeito das externalidades climáticas no risco de crédito
-
Orientador : JOAO GABRIEL DE MORAES SOUZA
-
MEMBROS DA BANCA :
-
JOAO CARLOS FELIX SOUZA
-
JOAO GABRIEL DE MORAES SOUZA
-
MATHIAS SCHNEID TESSMANN
-
PENG YAOHAO
-
Data: 14/09/2023
-
-
Mostrar Resumo
-
Investimentos em operações financeiras podem gerar impactos nos setores sociais, econômicos e ambientais que não foram incorporados ao preço final de seus contratos. Tais impactos são chamados de externalidades e entende-se que elas podem produzir efeitos positivos ou negativos. A análise do risco de crédito associado ao socioambiental reside na possibilidade de atividades econômicas gerarem impactos ou danos socioambientais em proporções capazes de gerarem perdas financeiras que comprometam a capacidade de pagamento de financiamentos, bem como a corresponsabilidade do agente financeiro de recuperação do dano socioambiental. No caso do risco climático, o empreendimento golfe estar exposto diretamente ou indiretamente a eventos climáticos extremos capazes de comprometer o seu fluxo de caixa e capacidade de pagamento de financiamentos. Desse modo, veio a necessidade de instrumentos de medição capazes de avaliar o comportamento das externalidades em relação ao risco de crédito das operações. O objetivo deste estudo é avaliar o impacto da incorporação da medição do risco climático às operações financeiras no processo estratégico de fornecimento de crédito das operações. Para isso, foi realizada medição do risco climático e aplicada metodologia —— para aferir a importância das variáveis que o compõem e inferir sua capacidade de influenciar a análise de crédito. Como resultado do presente estudo, foi fornecida medição do risco climático das operações e a avaliação de risco climático em relação às variáveis.
-
Mostrar Abstract
-
Investments in financial operations can generate impacts on the social, economic, and environmental sectors that were not incorporated into the final price of their contracts. Such impacts are called externalities and it is understood that they can produce positive or adverse effects. The analysis of the credit risk associated with the socio-environmental concerns the possibility of economic activities generating socio-environmental impacts or damages capable of generating financial losses that compromise the ability to pay the financing, as well as the co-responsibility of the financial agent for the recovery of socio-environmental damage. In the case of climate risk, the golf venture is directly or indirectly exposed to extreme weather events capable of jeopardizing its cash flow and ability to pay to finance. Thus, there was a need for measurement instruments capable of evaluating the behavior of externalities in relation to the credit risk of operations. The objective of this study is to assess the impact of incorporating climate risk measurement into financial operations in the strategic process of providing credit for operations. For this, a measurement of the climate risk was carried out and a methodology was applied —— to assess the importance of the variables that compose it and infer their ability to influence the credit analysis. As a result of the present study, measurement of climate risk of operations and assessment of climate risk in relation to variables were provided.
|
|
17
|
-
Daniel Ferreira Schulz
-
Detecção de Falhas em um Aplicativo Móvel Bancário
-
Orientador : ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
MEMBROS DA BANCA :
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
GERALDO PEREIRA ROCHA FILHO
-
THIAGO DE PAULO FALEIROS
-
ALAN DEMÉTRIUS BARIA VALEJO
-
Data: 10/11/2023
-
-
Mostrar Resumo
-
A alta disponibilidade é um requisito cada vez mais importante nos sistemas de TI. Uma das estratégias implementadas para alcançar um ambiente estável é o monitoramento contínuo dos serviços, conforme descrito pelo ITIL. Diante do exposto, este trabalho propõe uma abordagem de detecção de falhas por meio de técnicas de mineração de dados. A abordagem foi modelada usando o modelo de referência CRISP-DM. Os modelos de aprendizado de máquina treinados usaram dados extraídos de uma ferramenta Web Analytics que armazena as interações do usuário com um aplicativo de mobile banking. Os efeitos de diferentes técnicas de engenharia de atributos, como filtragem de variáveis, padronização de dados e geração de amostras sintéticas, também foram avaliados. Por fim, os resultados foram comparados entre sete algoritmos, sendo que a máquina de vetores de suporte foi a que obteve o melhor resultado, com F1-Score de 0,954 e ROC-AUC de 0,989.
-
Mostrar Abstract
-
High availability is an increasingly important requirement in IT systems. One of the strategies implemented to achieve a stable environment is the continuous monitoring of services, as described by ITIL. Given the above, this work proposes a failure detection approach through data mining techniques. The approach was modeled using the CRISPDM reference model. The trained models used data extracted from a Web Analytics tool that stores user interactions with a mobile banking application. The effects of different attribute engineering techniques, such as variable filtering, data standardization and generation of synthetic samples, were also evaluated. Finally, the results were compared between seven algorithms, and the support vector machine was the one that obtained the best result, with an F1-Score of 0.954 and a ROC-AUC of 0.989
|
|
18
|
-
Luís Augusto Vieira Ribeiro
-
Aplicação da Análise de Decisão Multicritério e Otimização na Tomada de Decisão: Um Estudo das Demandas da Tecnologia da Informação no Governo Federal
-
Orientador : JOAO CARLOS FELIX SOUZA
-
MEMBROS DA BANCA :
-
JOAO CARLOS FELIX SOUZA
-
ARI MELO MARIANO
-
JOAO GABRIEL DE MORAES SOUZA
-
Lena Lúcia de Moraes
-
Data: 14/11/2023
-
-
Mostrar Resumo
-
Em um ambiente cada vez mais dinâmico, a velocidade da tomada de decisão passou a ser um diferencial, principalmente em um cenário que possui muitos entraves, como o governo. Interesses de diferentes esferas (municipal, estadual e federal) e diferentes atores (partidos políticos, bancadas, mobilização de grupos populares), devem consolidarse na decisão mais assertiva para a sociedade. Desse modo, métodos que garantam a diminuição da subjetividade e aumento da consolidação de diversos pontos de vista são necessários. Assim, o objetivo deste estudo é demonstrar um modelo de tomada de decisão por meio da utilização do processo hierárquico analítico (AHP) em parceria com o método Promethee II aplicando a otimização por meio do Risk Simulator para priorizar as demandas de tecnologia da informação do Ministério Público Federal. Esta pesquisa é do tipo exploratória com abordagem qualitativa-quantitativa com uso de análise multicritério e otimização. Como resultado preliminar do estudo, estabeleceu-se os critérios Suporte, Estratégicos e Partes Interessadas, com os respectivos pesos aproximados de 65%, 28% e 7%. Definiu-se 8 alternativas, onde a de maior destaque foi "Conhecimento técnico da equipe de TIC" com peso aproximado de 24,5%. A combinação dos critérios e alternativas aplicada durante a pesquisa resultou na demanda de Segurança como a mais prioritária e a demanda de BI como a menos prioritária dentre as 12 selecionadas. Cabe ainda a aplicação computacional da ferramenta Risk Simulator para a realização da priorização otimizada conforme restrições definidas pela alta administração.
-
Mostrar Abstract
-
In an increasingly dynamic environment, the speed of decision-making has become a differential, especially in a scenario that has many obstacles, such as the government. Interests from different spheres (municipal, state and federal) and different actors (political parties, benches, mobilization of popular groups), must be consolidated in the most assertive decision for society. Thus, methods that guarantee the decrease of subjectivity and increase the consolidation of different points of view are necessary. Thus, the objective of this study is to demonstrate a decision-making model through the use of the hierarchical analytical process (AHP) in partnership with the Promethee II method, applying optimization through Risk Simulator to prioritize the information technology demands of the Ministry Federal Public. This is an exploratory research with a qualitative-quantitative approach using multicriteria analysis and optimization. As a preliminary result of the study, the criteria Support, Strategic and Interested Parties were established, with the respective approximate weights of 65%, 28% and 7%. Eight alternatives were defined, where the most prominent was "Technical knowledge of the ICT team" with an approximate weight of 24.5%. The combination of criteria and alternatives applied during the research resulted in the demand for Security being the highest priority and the demand for BI being the lowest priority among the 12 selected. It is also up to the computational application of the Risk Simulator tool to carry out the optimized prioritization according to restrictions defined by senior management.
|
|
19
|
-
José Anderson de Freitas Silva
-
Automação Robótica de Processos em uma Instituição Federal de Ensino: Um Estudo de Caso
-
Orientador : REJANE MARIA DA COSTA FIGUEIREDO
-
MEMBROS DA BANCA :
-
REJANE MARIA DA COSTA FIGUEIREDO
-
ANDRE BARROS DE SALES
-
EDNA DIAS CANEDO
-
GLAUCO HENRIQUE DE SOUSA MENDES
-
Data: 18/12/2023
-
-
Mostrar Resumo
-
A transformação digital engloba o emprego de tecnologias e como essas podem impactar os modelos de negócios de uma organização, gerando mudanças de produtos, de estruturas organizacionais e a automação de processos. A adoação de recursos invadores pode contribuir para o aprimoramento dos processos de trabalho, em especial quanto à redução de tarefas repetitivas, erros e problemas recorrentes. Neste contexto, a digitização está relacionada ao desenvolvimento de negócios, com processos sendo suportados por soluções ou funções digitais; já a automação de processos é aplicada com o uso de tecnologias digitais para aumentar a eficiência, reduzindo etapas nos fluxos de trabalho e possibilitando a automação de tarefas humanas repetitivas. A área de gestão de pessoas do Instituto Federal de Educação, Ciência e Tecnologia de Brasília (IFB) enfrenta os desafios da modernização dos métodos tradicionais utilizados na gestão de seus processos. A área utiliza o meio eletrônico para a realização de processos administrativos, além de plataformas tecnológicas estruturantes. A pluralidade de soluções com baixa ou nenhuma integração provoca a realização repetitiva de atividades de baixa complexidade, com consumo demasiado de tempo. O objetivo deste trabalho é definir um abordagem de transformação digital para processos repetitivos da área de gestão de pessoas do IFB. A metodologia de pesquisa adotada é do tipo descritiva com o emprego da técnica Estudo de Caso. A abordagem será baseada na Automação Robótica de Processos, uma tecnologia emergente para automação de processos, que foi selecionada a partir da execução de uma revisão sistemática de literatura para a identificação de técnicas, ferramentas, soluções e implementações empregadas na digitização com ênfase na automação de processos
-
Mostrar Abstract
-
Digital transformation encompasses the use of technologies and their impact on organization’s business models, resulting in changes in products, organizational structures or process automation. The adoption of innovative resources can contribute to the improvement of work processes, especially regarding the reduction of repetitive tasks, errors and recurring problems. In this context, digitization is related to business development, with processes being supported by digital solutions or functions; while process automation is applied with the use of digital technologies to increase efficiency, reducing steps in workflows and enabling the automation of repetitive human tasks. The people management area of the Federal Institute of Education, Science and Technology of Brasília (IFB) faces the challenges of modernizing the traditional methods used in its processes management. The area uses electronic means to carry out administrative processes, in addition to structuring technological platforms. The plurality of solutions with low or no integration causes repetitive activities of low complexity, with excessive consumption of time. The objective of this work is to define a digital transformation approach for repetitive processes in the people management area of the IFB. The adopted research methodology is descriptive with the use of the Case Study technique. The approach will be based on Robotic Process Automation, an emerging technology for process automation, which was selected from the execution of a systematic literature review to identify techniques, tools, solutions and implementations used in digitalization with emphasis on process automation
|
|
20
|
-
Wagner Miranda Costa
-
Similaridade Semântica entre Acórdãos para Apoio na Formulação de Jurisprudência do TCU
-
Orientador : GLAUCO VITOR PEDROSA
-
MEMBROS DA BANCA :
-
BRUNO CESAR RIBAS
-
EDUARDO DE PAULA COSTA
-
GLAUCO VITOR PEDROSA
-
THIAGO DE PAULO FALEIROS
-
Data: 21/12/2023
Ata de defesa assinada:
-
-
Mostrar Resumo
-
Jurisprudência se refere ao conjunto de decisões reiteradas sobre determinado assunto, constituindo uma espécie de precedente judicial. No âmbito do Tribunal de Contas da União (TCU), órgão responsável por exercer o controle externo da Administração Pública Federal, a jurisprudência representa as interpretações consolidadas das normas aplicáveis à fiscalização financeira e operacional das contas públicas dos órgãos e entidades da União. Uma vez que a elaboração da jurisprudência é definida a partir de um agrupamento de acórdãos similares, é relevante desenvolver ferramentas automatizadas que auxiliem os especialistas responsáveis por esta atividade. Porém, essa é uma tarefa desafiadora para a área da computação, devido às especificidades do vocabulário presente nos textos dos acórdãos e ao volume massivo de dados a serem processados. Sendo assim, é necessário desenvolver abordagens escaláveis, eficazes e eficientes, e que possuam baixo custo computacional. Este trabalho apresenta o estudo e implementação de algumas abordagens para a representação desses documentos textuais, tanto em nível de palavra quanto em nível de conceito. Como contribuição, foi proposta uma nova abordagem denominada BoC-Th (Bag of Concepts with Thesaurus), que gera histogramas ponderados de conceitos definidos a partir da distância das palavras do documento ao seu respectivo termo similar dentro de um tesauro. Esta abordagem permite enfatizar palavras com maior significado no contexto, gerando, assim, vetores mais discriminativos. Realizaram-se avaliações experimentais comparando a abordagem proposta com as abordagens tradicionais para representação de documentos. O método proposto obteve resultados superiores entre as técnicas avaliadas para recuperação de documentos jurisprudenciais. O BoC-Th aumentou a precisão média em comparação às abordagens tradicionais, incluindo a versão original BoC (Bag of Concepts), ao mesmo tempo que foi mais rápido que as representações tradicionais BoW, BM25 e TF-IDF. A abordagem proposta contribuiu para enriquecer uma área com características peculiares, fornecendo um recurso para recuperação de informações textuais de forma mais precisa e rápida do que outras técnicas baseadas em processamento de linguagem natural.
-
Mostrar Abstract
-
Jurisprudence refers to the set of repeated decisions on a given subject, constituting a type of judicial precedent. Within the scope of the Federal Audit Court (TCU), the body responsible for exercising external control of the Federal Public Administration, jurisprudence represents the consolidated interpretations of the rules applicable to the financial and operational supervision of the public accounts of the Union’s bodies and entities. Since the elaboration of jurisprudence is defined based on a grouping of similar rulings, it is important to develop automated tools that assist the specialists responsible for this activity. However, this is a challenging task for the area of computing, due to the specificities of the vocabulary present in the texts of the rulings and the massive volume of data to be processed. Therefore, it is necessary to develop scalable, effective and efficient approaches that have low computational cost. This work presents the study and implementation of some approaches for representing these textual documents, both at the word level and at the concept level. As a contribution, a new approach called BoC-Th (Bag of Concepts with Thesaurus) was proposed, which generates weighted histograms of concepts defined based on the distance of the words in the document to their respective similar term within a thesaurus. This approach allows us to emphasize words with greater meaning in the context, thus generating more discriminative vectors. Experimental evaluations were carried out comparing the proposed approach with traditional approaches for document representation. The proposed method obtained superior results among the techniques evaluated for recovering jurisprudential documents. BoC-Th increased average accuracy compared to traditional approaches, including the original BoC (Bag of Concepts), while also being faster than traditional BoW, BM25, and TF-IDF representations. The proposed approach contributed to enriching an area with peculiar characteristics, providing a resource for retrieving textual information more accurately and quickly than other techniques based on natural language processing.
|
|
21
|
-
Luciana Santos de Assis
-
Gamificação em Ambientes Organizacionais: Um Estudo de Caso em uma Empresa Pública
-
Orientador : SERGIO ANTONIO ANDRADE DE FREITAS
-
MEMBROS DA BANCA :
-
ANDRE LUIZ PERON MARTINS LANNA
-
CHARLES ANDRYÊ GALVÃO MADEIRA
-
SERGIO ANTONIO ANDRADE DE FREITAS
-
TIAGO BARROS PONTES E SILVA
-
Data: 21/12/2023
-
-
Mostrar Resumo
-
A gamificação é uma forma de utilizar elementos de jogos e aplicá-los em contextos do mundo real para motivar as pessoas e obter um ambiente mais produtivo. Por ser considerada uma ferramenta destinada a ampliar o engajamento, a gamificação pode ser aplicada em diversas áreas, dentre elas em atividades organizacionais. A proposta deste trabalho consiste na realização de um Estudo de Caso na Empresa Brasileira de Pesquisa Agropecuária (Embrapa) por meio da análise dos efeitos de uma solução gamificada aplicada ao Macroprocesso de Inovação (MPI), responsável pela gestão das soluções de pesquisa, desenvolvimento e inovação para a sustentabilidade do agronegócio brasileiro. O principal objetivo consiste em avaliar a efetividade da gamificação para ampliar o engajamento, colaboração e motivação dos empregados quanto ao uso do Sistema de Gestão de Ativos (Gestec), ferramenta computacional que implementa parte do MPI. Inicialmente, foi realizado um estudo dos fundamentos teóricos em gamificação, seguido de um trabalho de Revisão Sistemática da Literatura (RSL) para a investigação dos principais frameworks, técnicas e efeitos observados nas soluções gamificadas aplicadas em ambientes organizacionais. Posteriormente, foi realizado um Estudo de Caso, envolvendo um grupo de vinte e sete participantes para avaliar os efeitos que uma solução de gamificação pode proporcionar.
-
Mostrar Abstract
-
Gamification is a way of using game elements and applying them in real-world contexts to motivate people and achieve a more productive environment. As it is considered a tool designed to increase engagement, gamification can be applied in several areas, including organizational activities. The purpose of this work consists of carrying out a Case Study at the Brazilian Agricultural Research Corporation (Embrapa) through the analysis of the effects of a gamified solution applied to the Innovation Macroprocess (MPI), responsible for managing research, development and innovation solutions for the sustainability of Brazilian agribusiness. The main objective is to evaluate the effectiveness of gamification to increase employee engagement, collaboration and motivation regarding the use of the Asset Management System (Gestec), a computational tool that implements part of the MPI. Initially, a study of the theoretical foundations of gamification was carried out, followed by a Systematic Literature Review (SLR) to investigate the main frameworks, techniques and effects observed in gamified solutions applied in organizational environments. Afterwards, a Case Study was carried out, involving a group of twenty seven participants to evaluate the effects that a gamification solution can provide.
|
|