Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2024
Dissertações
1
  • DIEGO MARTINS DE OLIVEIRA
  • PROPOSTA DE ESQUEMA DE MONITORAMENTO E GERENCIAMENTO REMOTO DE REDES COMO PRESTAÇÃO DE SERVIÇO

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • RAIMUNDO CLAUDIO DA SILVA VASCONCELOS
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 11/01/2024

  • Mostrar Resumo
  • A dependência de recursos de Tecnologia da Informação e Comunicação por parte de pequenas e médias empresas tem crescido cada vez mais, as facilidades e oportunidades que esses recursostrazem se tonaram essenciais para as empresas. No Brasil, por exemplo, um simples vendedor capaz de aceitar o sistema de pagamentos eletrônico PIX, tem mais chances de vender do que outro que não utilize esse sistema. A dependência dos recursos de TIC vai dos menores negócios até médias e grandes empresas. No caso de pequenas e médias empresas, apesar da necessidadede se manter os recursos de TIC funcionando, manter uma equipe de manutenção local não é compatível com o porte da empresa, ao mesmo tempo, em que deixar para acionar um profissional apenas quando um problema já tiver acontecido, pode gerar um tempo de reparo indisponibilidade alto e causar prejuízos financeiros. Neste sentido, a contratação de uma equipe externa para realizar o monitoramento dos recursos pode ajudar a prevenir problemas e reduzir o tempo de reação em caso de problemas. Este trabalho tem em vista propor uma arquitetura que envolve uma gama de softwares gratuitos, que possibilitem o monitoramento e gerenciamento remoto de redes e aplicações, de modo a permitir que uma equipe externa possa oferecer este monitoramento com serviço a outras empresas. Para atingir os objetivos foi preciso buscar por opções de soluções gratuitas não só para o monitoramento, mas também para contornar problemas de conexão ponto a ponto com IPv4 passando por CGNAT das operadoras. Foram criados cenários virtuais, físicos e mistos, comobjetivo de efetuar testes de conexão, transmissão e estabilidade entre as redes, monitoramento de dispositivos e enlaces, envio de alerta, segurança e detecção de ataques. E por fim validar a proposta. Após os testes e a análise dos resultados, conclui-se que é possível não só estabelecer conexão estável entre redes remotas sobre IPv4, sem custos adicionais com o provedor, como também, com um conjunto de soluções em software gratuitos, monitorar e gerenciar ativos e serviços emredes remotas. Possibilitando assim a utilização desses recursos para a criação de centrais de monitoramento remoto, capazes de oferecer seus serviços a várias redes clientes.


  • Mostrar Abstract
  • The reliance on Information and Communication Technology resources by small and mediumsized businesses has grown more and more, and the facilities and opportunities that these resources bring have become essential for companies. In Brazil, for example, a simple vendor who is able to accept the PIX electronic payment system is more likely to sell than one who doesn’t use this system. The dependence on ICT resources extends from the smallest businesses to mediumsized and large companies. In the case of small and medium-sized businesses, despite the need to keep ICT resources up and running, maintaining an on-site maintenance team is not compa-tible with the size of the company, while leaving it to a professional to be called in only when a problem has already occurred can lead to a high level of downtime and cause financial losses. In this sense, hiring an external team to monitor resources can help prevent problems and reduce reaction times in the event of problems. The aim of this work is to propose an architecture involving a range of free software that enables remote monitoring and management of networks and applications, so that an external team can offer this monitoring service to other companies. In order to achieve the objectives, it was necessary to look for free solutions not only for monitoring, but also to get around point-topoint connection problems with IPv4 passing through the operators’ CGNATs. Virtual, physical and mixed scenarios were created in order to carry out connection, transmission and stability tests between the networks, monitoring devices and links, sending alerts, security and detecting attacks. And finally to validate the proposal. After testing and analyzing the results, it is concluded that it is possible not only to establish a stable connection between remote networks over IPv4, without additional costs from the provider, but also, with a set of free software solutions, to monitor and manage assets and services in remote networks. This makes it possible to use these resources to create remote monitoring centers, capable of offering their services to several client networks. server that performs continuous (24/7) temperature monitoring in distributed freezers. in several health institutions in Brazil, in order to identify signs of failure through the use of a statistical method using predictive models for time series

2
  • JONATHAN GOMES PEREIRA DOS SANTOS
  • SARIK: Uma proposta de framework para o aprimoramento da segurança em Kubernetes por meio de políticas de rede

  • Orientador : VINICIUS PEREIRA GONCALVES
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • GERALDO PEREIRA ROCHA FILHO
  • LOURENÇO ALVES PEREIRA JUNIOR
  • VINICIUS PEREIRA GONCALVES
  • Data: 18/01/2024

  • Mostrar Resumo
  • A evolução das tecnologias de contêineres e orquestração, especialmente o Kubernetes, trouxe inúmeras vantagens para a implantação de aplicativos em ambientes distribuídos, mas também apresentou desafios significativos em termos de segurança. Esta dissertação introduz o framework SARIK (Segurança Automática de Regras de Iptables no Kubernetes), uma solução projetada para aprimorar a segurança em ambientes Kubernetes. O SARIK aborda as vulnerabilidades associadas ao tráfego de rede em clusters Kubernetes, implementando políticas de rede de forma eficiente e automatizada. Este estudo não apenas explora as limitações das abordagens tradicionais de segurança em Kubernetes, mas também oferece uma análise empírica da eficácia do SARIK, utilizando métricas como latência, taxa de resposta e taxa de transmissão. Os resultados confirmam que o SARIK não compromete o desempenho das aplicações enquanto fortalece a segurança. Além disso, são discutidas as implicações práticas, desafios futuros e melhores práticas para a segurança em ambientes Kubernetes. O trabalho também destaca a influência da escolha do sistema operacional e da configuração do cluster na eficácia das políticas de segurança. Em resumo, o SARIK representa um avanço significativo na segurança de ambientes Kubernetes, oferecendo uma abordagem prática e automatizada para mitigar riscos e aprimorar a proteção de clusters em um cenário tecnológico cada vez mais complexo e vulnerável.


  • Mostrar Abstract
  • The evolution of container and orchestration technologies, especially Kubernetes, has brought numerous advantages to deploying applications in distributed environments, but it has also presented significant challenges in terms of security. This dissertation introduces the SARIK framework (Security Automated Rules for Iptables in Kubernetes), a solution designed to enhance security in Kubernetes environments. SARIK addresses vulnerabilities associated with network traffic in Kubernetes clusters by implementing network policies efficiently and automatically. This study not only explores the limitations of traditional security approaches in Kubernetes but also empirically analyzes the effectiveness of SARIK, using metrics such as latency, response rate, and transmission rate. The results confirm that SARIK does not compromise application performance while strengthening security. In addition, we discuss practical implications, future challenges, and best practices for security in Kubernetes environments. The work also highlights the influence of the choice of the operating system and cluster configuration on the effectiveness of security policies. In summary, SARIK represents a significant advancement in Kubernetes security, offering a practical and automated approach to mitigating risks and enhancing cluster protection in an increasingly complex and vulnerable technological landscape.

3
  • André Luiz Lourenço de Andrade
  • Estudo de Controle de Acesso Baseado em Papéis em Arquitetura de Microsserviços

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • DINO MACEDO AMARAL
  • FABIO LUCIO LOPES DE MENDONCA
  • JOAO JOSE COSTA GONDIM
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 24/01/2024

  • Mostrar Resumo
  • Como consequência da evolução do desenvolvimento de sistemas monolíticos para os microsserviços, distribui-se junto com a aplicação, a responsabilidade de garantir chamadas de rede que sejam devidamente autenticadas e autorizadas. Para este trabalho, foi analisado o processo de implementação de autorização utilizando 3 arquiteturas de microsserviços: mesh, com autorização descentralizada, gateways de API e, por ultimo, uma arquitetura associada ao serviço de nuvem authorization as a service, destacando as principais vantagens e limitações na implementação de cada cenário.


  • Mostrar Abstract
  • As a consequence of the evolution from monolithic system development to microservices, the responsibility for ensuring properly authenticated and authorized network calls is distributed along with the application. In this work, the process of implementing authorization using three microservices architectures was analy- zed: mesh with decentralized authorization, API gateways, and, finally, an architecture associated with the authorization-as-a-service cloud service. This analysis highlights the main advantages and limitations in the implementation of each scenario.

4
  • Jonathas Alves de Oliveira
  • F-NIDS – Sistema de Detecção de Intrusão Baseado em Aprendizado Federado

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • MIGUEL ELIAS MITRE CAMPISTA
  • GERALDO PEREIRA ROCHA FILHO
  • JOAO JOSE COSTA GONDIM
  • VINICIUS PEREIRA GONCALVES
  • Data: 25/01/2024

  • Mostrar Resumo
  • O aumento das redes de IoT apresentou novos desafios em termos de escalabilidade e segurança para os sistemas de detecção de intrusão de rede (NIDS) distribuídos devido a preocupações com a privacidade. Embora tenha havido algum progresso na abordagem desses desafios, ainda há perguntas não respondidas sobre como alcançar um equilíbrio entre desempenho e robustez para garantir a privacidade de forma distribuída. Além disso, é necessário desenvolver uma arquitetura confiável e dimensionável para NIDS distribuídos que possam ser implantados com eficiência em vários cenários de IoT. Essas questões sobre robustez se basearam principalmente na escolha de técnicas de aprendizado de máquina distribuídas e com proteção da privacidade. Neste trabalho, propomos o F-NIDS, um detector de intrusão que utiliza inteligência artificial federada e técnicas de comunicação assíncrona entre as entidades do sistema para proporcionar escalabilidade horizontal, juntamente com técnicas de privacidade diferencial para tratar de questões de confidencialidade de dados. A arquitetura do F-NIDS foi projetada para ser adaptável ao uso em redes de IoT, adequada para ser usada em ambientes baseados em nuvem ou neblina. Os resultados de nossos experimentos mostraram que o modelo de detecção confidencial empregado no F-NIDS - considerando as métricas de acurácia multiclasse, acurácia binária, precisão e recall - foi capaz de prever e determinar a natureza dos ataques quando eles ocorrem. Para determinar os parâmetros ideais que atingem um equilíbrio entre a privacidade dos dados e o desempenho da classificação, foram empregadas três estratégias, cada uma avaliada pelo desempenho de robustez correspondente. Em primeiro lugar, os modelos foram treinados com valores variáveis de ruído gaussiano e submetidos a ataques de inferência de membros baseados em regras de caixa preta. Em segundo lugar, foram realizados ataques regulares de inferência de membros, utilizando diferentes amostras com tamanhos variados para determinar a quantidade máxima de dados que poderiam ser armazenados com segurança nos agentes de detecção, para tarefas de treinamento. Por fim, a robustez dos modelos treinados foi avaliada contra ataque de inversão de modelo, e os resultados foram comparados por meio de comparações gráficas. Com base nessas avaliações, o valor do nível de ruído gaussiano para o treino dos modelos locais foi determinado em 21, com tamanhos de amostra para cada agente de treino variando entre 10K a 25K.


  • Mostrar Abstract
  • The rise of IoT networks has presented fresh challenges in terms of scalability and security for distributed Network Intrusion Detection Systems (NIDS) due to privacy concerns. While some progress has been made in addressing these challenges, there are still unanswered questions regarding how to achieve a balance between performance and robustness to ensure privacy in a distributed manner. Additionally, there is a need to develop a reliable and scalable architecture for distributed NIDS that can be effectively deployed in various IoT scenarios. These questions about robustness relied mainly on choosing privacy-secured and distributed Machine Learning techniques. In this work, we propose the F-NIDS, an intrusion detector that utilizes federated artificial intelligence and asynchronous communication techniques between system entities to provide horizontal scalability, along with differential privacy techniques to address data confidentiality concerns. The architecture of F-NIDS is designed to be adaptable for usage in IoT networks, suited to be used in cloud or fog-based environments. Results from our experiments have shown that the confidential detection model employed in F-NIDS – considering multi-class accuracy, binary accuracy, precision, and recall metrics – was capable of predicting and determining the nature of attacks when they occur. In order to determine optimal parameters that strike a balance between data privacy and classification performance, three strategies were employed, each evaluated for its corresponding robustness performance. Firstly, models were trained with varying Gaussian noise values, and subjected to membership inference black box rule-based attacks. Secondly, regular membership inference black box attacks were performed, utilizing different stolen samples with varying sizes to determine the maximum amount of data that could be securely stored on the detection agents for training tasks. Lastly, the robustness of the trained models was evaluated against a model inversion attack, and the results were compared through graphical comparisons. Based on these evaluations, Gaussian noise level and sample size values of 21 were obtained for each detection agent in the system, with sample sizes ranging from 10K to 25K.

5
  • Danilo Anderson de Moura Chagas
  • Detecção de Ataques de Negação de Serviço em SGBDs a Partir de Logs Internos Usando Abordagens Supervisionada e Não Supervisionada

  • Orientador : VINICIUS PEREIRA GONCALVES
  • MEMBROS DA BANCA :
  • GERALDO PEREIRA ROCHA FILHO
  • JOSE RODRIGUES TORRES NETO
  • RAFAEL RABELO NUNES
  • VINICIUS PEREIRA GONCALVES
  • Data: 30/01/2024

  • Mostrar Resumo
  • Ataques de Negação de Serviço (Denialof-Service – DoS) impõem ameaças ao cumprimento dos propósitos de uma organização, uma vez que resultam em sérios problemas relacionados à disponibilidade dos sistemas de informação. Os ataques DoS têm sido extensivamente estudados na literatura, entretanto os trabalhos existentes geralmente focam nas camadas de rede e transporte ou em protocolos como o HTTP. Banco de dados, infraestrutura crítica para provimento de serviços, possui mecanismos de gravação de informações (logs) de consultas SQL e sessões, o que gera grandes volumes de dados. Embora os bancos de dados sejam vulneráveis ao DoS, eles não são totalmente cobertos por ferramentas comerciais ou por pesquisas sobre a detecção de tais ataques. As técnicas de Aprendizado de Máquina (AM) são altamente eficazes na identificação de padrões em grandes quantidades de dados, tais como os logs SQL de banco de dados. Assim, este trabalho desenvolveu a aplicação de AM na detecção de ataques DoS a banco de dados a partir dos logs de consultas nele executadas. Faz uso de duas abordagens complementares de AM diferentes: supervisionado e não supervisionado. Como resultado, a classificação de registros obteve um F1- score de 94,44% e a Detecção de Anomalias atingiu um F1-score de 75,75%, indicando a efetividade das abordagens desenvolvidas.


  • Mostrar Abstract
  • Denial-of-Service (DoS) attacks impose threats to the accomplishment of an organization’s purposes once they result in serious issues related to the availability of information systems. DoS attacks have been extensively studied in the literature, especially in their most dangerous form, the Distributed Denialof-Service (DDoS). However, existing works usually focus on the network and transport layers or protocols like HTTP. Database, a critical infrastructure for service provision, has mechanisms for recording information (logs) of SQL queries and sessions, which generates large volumes of data. Although databases are vulnerable to DDoS, they are not entirely covered by commercial tools or research on detecting such attacks. Machine Learning (ML) techniques are highly effective in identifying patterns in large amounts of data, such as database SQL logs. Thus, this work developed the application of ML to detect DDoS attacks on a database from the logs of queries executed on it. It makes use of two complimentary approaches of ML: supervised and unsupervised. As a result, the classification of records obtained an F1-score of 94.44\% and the Anomaly Detection achieved an F1- score of 75.75\%, which indicates the effectiveness of the developed approaches.

6
  • Renato Solimar Alves
  • Proposta de uma Linha de Base de Controles de Segurança da Informação para Mitigação dos Riscos de Negócio do Poder Judiciário Brasileiro

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • JOAO SOUZA NETO
  • RAFAEL RABELO NUNES
  • TRÍCIA NAVARRO XAVIER CABRAL
  • Data: 31/01/2024

  • Mostrar Resumo
  • O Poder Judiciário Brasileiro, responsável por funções vitais como o controle de constitucionalidade, condução do processo eleitoral, gestão de elevados valores em depósitos judiciais e precatórios, e manuseio de um grande volume de informações sensíveis de pessoas e organizações, enfrenta novos desafios com a digitalização intensiva de seus serviços. Riscos cibernéticos emergentes incluem interrupções nas prestação jurisdicional, emissões indevidas de sentenças, desvios de valores e a inserção de conteúdo inadequado de decisões. Este estudo visa propor um conjunto de medidas de controle de segurança da informação necessárias para mitigar os principais riscos às funções essenciais da Justiça. A metodologia aplicada engloba revisão bibliográfica e entrevistas com profissionais das áreas jurídica, de tecnologia da informação, gestão de riscos e segurança cibernética. Foi adotado um framework de referência para a seleção de controles, complementado por medidas adicionais específicas ao contexto judiciário, e realizadas sessões de grupo focal para análise e validação dos resultados. A Técnicas de classificação, análise de dados e business intelligence foram empregadas para auxiliar no diagnóstico de prioridades. Os resultados apontam para os 10 riscos de negócio mais significativos, 40 causas potenciais, 22 consequências impactantes, além de 232 medidas de segurança eficazes para mitigação dos riscos, com ênfase no diagnóstico de ações e de prioridades de implementação. Este trabalho oferece uma contribuição valiosa para a gestão de riscos e o estabelecimento de estratégias de segurança da informação no Judiciário, aprimorando a comunicação entre as áreas técnicas e a alta administração e fornecendo uma visão detalhada para direcionar e otimizar os investimentos em segurança da informação, com recomendações práticas e adaptáveis a diferentes contextos institucionais.


  • Mostrar Abstract
  • The Brazilian Judiciary, responsible for vital functions such as constitutional control, electoral process management, handling of significant values in judicial deposits and court orders, and managing a large volume of sensitive information from individuals and organizations, faces new challenges with the intensive digitalization of its services. Emerging cyber risks include interruptions in judicial services, wrongful issuance of sentences, diversion of funds, and inappropriate insertion of content in decisions. This study aims to propose a set of information security control measures necessary to mitigate the main risks to the essential functions of Justice. The applied methodology encompasses bibliographic review and interviews with professionals from the legal, information technology, risk management, and cybersecurity areas. A reference framework was adopted for the selection of controls, complemented by additional measures specific to the judicial context, and focus group sessions were conducted for analysis and validation of the results. Classification techniques, data analysis, and business intelligence were employed to assist in the diagnosis of priorities. The results point to the 10 most significant business risks, 40 potential causes, and 22 impactful consequences, in addition to 232 effective security measures for risk mitigation, with an emphasis on diagnosing actions and implementation priorities. This work provides a valuable contribution to risk management and the establishment of information security strategies in the Judiciary, improving communication between technical areas and top management, and offering a detailed view to direct and optimize investments in information security, with practical recommendations adaptable to different institutional contexts

7
  • Atila Batista Bandeira
  • FINGERPRINTS DE SISTEMAS OPERACIONAIS PARA IDENTIFICAR EQUIPAMENTOS IOT ESPÚRIOS NA AUSÊNCIA DE CONTROLE DE ADMISSÃO À REDE, UMA PROPOSTA E IMPLEMENTAÇÃO.

  • Orientador : CLOVIS NEUMANN
  • MEMBROS DA BANCA :
  • CLOVIS NEUMANN
  • DANIEL ALVES DA SILVA
  • FABIO LUCIO LOPES DE MENDONCA
  • LAERTE PEOTTA DE MELO
  • Data: 29/02/2024

  • Mostrar Resumo
  • A proliferação de dispositivos da Internet das Coisas (IoT) apresenta desafios significativos para a segurança da rede. Detectar e responder a conexões não autorizadas para esses dispositivos é fundamental para manter a integridade e a segurança das redes, principalmente em situações em que o controle de admissão de rede (NAC) ainda não foi implementado. Este artigo propõe um modelo que utiliza fingerprints de sistema operacional (SO) para identificar dispositivos IoT não autorizados em uma rede e bloqueá-los. O modelo incorpora um conjunto abrangente de testes para avaliar a eficácia da abordagem proposta na resposta a diferentes cenários adversários. Os resultados demonstram a capacidade do modelo de identificar dispositivos não autorizados e abrir caminho para uma resposta adequada, aprimorando a segurança da rede mesmo na ausência de NAC, ou enquanto essa tecnologia de proteção não for passível de implantação.


  • Mostrar Abstract
  • The proliferation of Internet of Things (IoT) devices presents significant challenges for network security. Detecting and responding to unauthorised connections to these devices is key to maintaining the integrity and security of networks, especially in situations where network admission control (NAC) has not yet been implemented. This article proposes a model that uses operating system (OS) fingerprints to identify unauthorised IoT devices on a network and block them. The model incorporates a comprehensive set of tests to evaluate the effectiveness of the proposed approach in responding to different adversary scenarios. The results demonstrate the model's ability to identify unauthorised IoT devices and respond appropriately, improving network security even in the absence of NAC, or as long as this protection technology is not deployable.

8
  • Rodrigo Franco de Souza
  • Identificação de fatores de riscos associados ao processo de desenvolvimento de softwares provedores dos programas sociais: o caso do Programa Social Brasileiro Alfa

  • Orientador : CARLOS ANDRE DE MELO ALVES
  • MEMBROS DA BANCA :
  • CARLOS ANDRE DE MELO ALVES
  • FABIANA FREITAS MENDES
  • RAFAEL RABELO NUNES
  • ROSALVO ERMES STREIT
  • Data: 28/03/2024

  • Mostrar Resumo
  • O desenvolvimento de softwares em contextos governamentais, particularmente para programas sociais, enfrenta desafios que enfatizam a importância da gestão de riscos para melhor assegurar o sucesso e a entrega efetiva de serviços à população. O objetivo geral desta pesquisa é identificar os principais riscos associados às etapas do processo de desenvolvimento de softwares provedores do Programa Social Brasileiro Alfa. A pesquisa, de natureza descritiva e aplicada, adota uma abordagem qualitativa, empregando como estratégia metodológica o estudo de caso. Os dados coletados abrangem entrevistas com desenvolvedores, arquitetos, gestores de projeto, complementados por coleta de documentos internos da Empresa Alfa. O tratamento dos dados abrangeu análise documental e análise de conteúdo, considerando 64 atributos, 13 elementos de classe e 3 classes descritas na taxonomia de risco hierárquica proposta pelo Software Engineering Institute - SEI. Após detalhar as fases de desenvolvimento de softwares provedores do referido programa social, os principais resultados das análises permitiram a identificação de 39 atributos, sendo 17 vinculados à classe ‘Engenharia de Produto’ 12 vinculados à classe ‘Ambiente de Desenvolvimento’ e 10 vinculados à classe ‘Restrições do Programa’. O exame dos atributos identificados enfatizou a classe ‘Restrições do Programa’, mostrando a influência de fatores externos no processo de desenvolvimento de softwares, em consonância com achados de estudos anteriores. Adicionalmente, as análises permitiram detalhar os atributos segundo elementos de classe, destacando-se o atributo ‘Cronograma’, vinculado ao elemento de classe ‘Recursos’. Este trabalho contribui para o campo da gestão de riscos e da engenharia de software, oferecendo evidências sobre o uso de atributos que podem ajudar a identificar riscos no processo de desenvolvimento de softwares de programas sociais e destacando a importância de uma identificação de riscos que considere as especificidades de cada etapa do desenvolvimento de software. Os resultados, também, podem contribuir para reflexões sobre a gestão de riscos em processos de desenvolvimento de software de programas sociais no País.


  • Mostrar Abstract
  • The development of software in governmental contexts, particularly for social programs, faces challenges that emphasize the importance of risk management to better ensure success and the effective delivery of services to the population. The general objective of this research is to identify the main risks associated with the stages of the software development process for providers of the Brazilian Social Program Alfa. The research, descriptive and applied in nature, adopts a qualitative approach, using a case study as the methodological strategy. The collected data include interviews with developers, architects, project managers, complemented by the collection of internal documents from Company Alfa. The data treatment covered document analysis and content analysis, considering 64 attributes, 13 class elements, and 3 classes described in the hierarchical risk taxonomy proposed by the Software Engineering Institute - SEI. After detailing the phases of software development for providers of the said social program, the main results of the analyses allowed the identification of 39 attributes, with 17 linked to the 'Product Engineering' class, 12 linked to the 'Development Environment' class, and 10 linked to the 'Program Constraints' class. The examination of the identified attributes emphasized the 'Program Constraints' class, showing the influence of external factors on the software development process, in line with findings from previous studies. Additionally, the analyses allowed the detailing of attributes according to class elements, highlighting the 'Schedule' attribute, linked to the 'Resources' class element. This work contributes to the field of risk management and software engineering, offering evidence on the use of attributes that can help identify risks in the process of developing software for social programs and highlighting the importance of risk identification that considers the specificities of each stage of software development. The results can also contribute to reflections on risk management in software development processes for social programs in the country.

9
  • Edilson de Oliveira Caldas
  • PROPOSTA DE SOLUCAO E ARQUITETURA PARA AVALIACAO DE CONDUCAO SEGURA DE USUARIOS DE VEICULOS AUTOMOTORES PARA BENEFICIOS EM SEGUROS VEICULARES

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • DANIEL ALVES DA SILVA
  • EDNA DIAS CANEDO
  • FABIO LUCIO LOPES DE MENDONCA
  • Gilmar dos Santos Marques
  • Data: 19/04/2024

  • Mostrar Resumo
  • Os diversos aplicativos existentes hoje em dia, podem trazer benefícios para o ser humano, como produtividade, saúde financeira e assistências em atividades diárias a serem executadas. Neles, diversos dados podem ser coletados e comparados para chegar a um objetivo útil a sociedade. Como exemplo, temos a redução de acidentes com veículos automotores, que é um número alarmante, pois são dedicados altos recursos financeiros para reparar danos materiais e físicos causados as pessoas e infraestruturas atingidas. Programa de Pós-Graduação Profissional em Engenharia Elétrica (PPEE) | Departamento de Engenharia Elétrica (ENE) | Faculdade de Tecnologia (FT) | Universidade de Brasília (UnB) | CEP: 70910 -900 Brasília-DF sec@ppee.unb.br | +55 61 3107-5597 | ppee.unb.br 2 Para auxiliar a prevenção, este trabalho propõe uma arquitetura para desenvolvimento de um aplicativo de avaliação de condução segura de veículos automotores, que coletara dados do veículo, somados a dados coletados de um aparelho Smartfone e posteriormente processados, definindo uma pontuação diária para o condutor, assim, de forma direta, o condutor será alertado sobre condições inseguras de direção, a fim de gerar uma melhor educação no trânsito, bem como definira seu Score, podendo transformá-lo em bônus de seguro veiculares, melhores condições de venda de veículos e defesas em possíveis crimes de trânsito.


  • Mostrar Abstract
  • The various applications that exist today can bring benefits to human beings, such as productivity, financial health and assistance in daily activities. In them, various data can be collected and compared in order to achieve a useful goal for society. An example of this is the reduction in accidents involving motor vehicles, which is an alarming figure, as a great deal of money is spent on repairing the material and physical damage caused to the people and infrastructure affected. In order to aid prevention, this work proposes an architecture for the development of a safe driving assessment application for motor vehicles, which will Programa de Pós-Graduação Profissional em Engenharia Elétrica (PPEE) | Departamento de Engenharia Elétrica (ENE) | Faculdade de Tecnologia (FT) | Universidade de Brasília (UnB) | CEP: 70910 -900 Brasília-DF sec@ppee.unb.br | +55 61 3107-5597 | ppee.unb.br 3 collect data from the vehicle, add it to data collected from a smartphone and then process it, defining a daily score for the driver, thus directly alerting the driver to unsafe driving conditions, in order to generate better traffic education, as well as defining their score, which can be transformed into vehicle insurance bonuses, better conditions for selling vehicles and defenses in possible traffic crimes.

2023
Dissertações
1
  • Renato Luiz Alves Tavares
  • Avaliação da Efetividade de Sistemas de Segurança de Instalações Nucleares em Cenários de Ataques Cibernéticos e Físicos

  • Orientador : WILLIAM FERREIRA GIOZZA
  • MEMBROS DA BANCA :
  • ANTONIO TEIXEIRA E SILVA
  • FABIO LUCIO LOPES DE MENDONCA
  • JOAO JOSE COSTA GONDIM
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 09/02/2023

  • Mostrar Resumo
  • Este trabalho tem como objetivo avaliar a efetividade probabilística do sistema de segurança em um modelo de instalação nuclear, sob cenários de ataque envolvendo ameaças híbridas, ou seja, com capacidades cibernéticas e físicas. Em um contexto global propício ao aumento de ataques a infraestruturas críticas, inclusive envolvendo acesso ilícito e sabotagem sobre materiais nucleares, aliado à rápida evolução e diversidade de ataques cibernéticos em diversos setores da sociedade, configura-se notável desafio avaliar a segurança das infraestruturas críticas. Tendo em vista aspectos de confidencialidade sobre o projeto de sistemas de segurança de instalações nucleares reais, foi modelada uma instalação hipotética (Instituto de Ciências Nucleares do Cerrado), considerando o arcabouço legal e regulatório vigente no Brasil e modelos similares em uso pela Agência Internacional de Energia Atômica (AIEA) para o propósito de treinamento. O modelo descreve a caracterização da ameaça, do sistema de segurança e dos cenários de ataque ciberfísicos, sendo utilizados parâmetros probabilísticos de desempenho na literatura para o cálculo da efetividade (PE) do sistema de segurança, comparando cenários de ataques puramente físicos a outros no qual há o comprometimento de ativos digitais críticos à segurança. Os resultados mostraram um decréscimo significativo na efetividade do sistema, indicando a necessidade de melhorias nas medidas de segurança de instalações nucleares, do ponto de vista regulatório e operacional. Ademais, a metodologia usada no trabalho é geral e aplicável a outros tipos de infraestruturas críticas.


  • Mostrar Abstract
  • The present work aims to perform an evaluation on the probabilistic effectiveness of the security system for a nuclear facility model, under attack scenarios involving hybrid threats, i.e. with both cyber and physical capabilities. Amid a global context propitious to the increase in attacks over critical infrastructure, including those involving illicit access and sabotage on nuclear materials, combined with the rapid evolution and diversity of cyber-attacks in various sectors of society, it is a notable challenge to assess the security of critical infrastructure. Considering aspects of confidentiality on security systems designs for real nuclear facilities, a hypothetical one (Instituto de Ciências Nucleares do Cerrado) was modelled, considering the legal and regulatory framework in force in Brazil and similar models in use by the International Agency of Atomic Energy (IAEA) for training purposes. The model describes the characterization of the threat, the security system and the cyber-physical attack scenarios, using probabilistic performance parameters from the literature to calculate the effectiveness (P E) of the security system, comparing scenarios of purely physical attacks to others in which security-critical digital assets are compromised. The results showed a significant decrease in the effectiveness of the system, indicating the need for improvements in the safety measures of nuclear installations, from a regulatory and operational point of view. Furthermore, the methodology used in the work is general and appli

2
  • Luiz Henrique Filadelfo Cardoso
  • Gestão do Risco Cibernético à Implantação ADS-B no âmbito do SISCEAB por meio do método de Gerenciamento de Riscos à Segurança Operacional (GRSO).

  • Orientador : GEORGES DANIEL AMVAME NZE
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • RAFAEL RABELO NUNES
  • VINICIUS PEREIRA GONCALVES
  • MCWILLIAN DE OLIVEIRA
  • Data: 15/02/2023

  • Mostrar Resumo
  • Dentre as mais modernas tecnologias empregadas em sistemas de vigilância do tráfego aéreo, a ADS-B é mais em destaque atualmente. Tal tecnologia consiste em um conjunto de equipamentos e protocolos destinados a prover meios para determinar a posição de aeronaves em voo a partir de sistemas de navegação via satélite, bem como periodicamente radiodifundir informações de interesse para outras aeronaves em rota e sensores em solo dentro da sua zona de alcance. No entanto, residem sérias vulnerabilidades de segurança no cerne do protocolo ADS-B, assim como a literatura não é clara quanto ao impacto da exploração de tais brechas na atuação direta de controladores de tráfego Aéreo e pilotos de aeronaves, sobretudo nas fases críticas do voo. Este estudo objetiva lançar um olhar analítico sobre as vulnerabilidades presentes no sistema ADS-B, não só ao mapear as ameaças ao referido protocolo, mas também ao buscar identificar, analisar, avaliar e classificar os riscos cibernéticos inerentes à manutenção da segurança operacional quanto da sua implantação no âmbito do SISCEAB, por meio de específica modelagem de ameaças cibernéticas e método de gerenciamento de riscos, qual seja o método GRSO, com o foco nos potenciais impactos ao processo decisório dos principais usuários, quais sejam: controladores ATC e tripulações a bordo de aeronaves.


  • Mostrar Abstract
  • Among the most modern technologies used in air traffic surveillance systems, the ADS-B System is the one that stands out today. Such technology consists of a set of equipments and protocols designed to provide the means to determine the position of aircraft in flight from satellite navigation systems, as well as to periodically broadcast information of interest to other aircrafts en route and sensors on the ground within your range. However, serious security vulnerabilities lie at the heart of the ADS-B protocol, and the literature is unclear about the impact of exploitations in these breaches on the direct action of ATCOs and aircraft pilots. This study aims to take an analytical look at the vulnerabilities present in the ADS-B system, not only when mapping attacks to that protocol, but also when seeking to identify, analyze, evaluate and classify the cyber risks inherent in maintaining operational security and its implementation within the scope of SISCEAB, through specific cyber threats modeling and risk management method, which is the GRSO method, focusing on the impact on the decision-making process of the main users, namely: air traffic controllers and crews on board aircraft.

3
  • ALINE DOS SANTOS PEREIRA
  • Proposta de criação de banco de imagens de desaparecidos e progressão de idade facial automática usando Aprendizado de Máquina

  • Orientador : DANIEL CHAVES CAFE
  • MEMBROS DA BANCA :
  • MAURÍCIO DA SILVA SERCHELI
  • DANIEL CHAVES CAFE
  • DEMETRIO ANTONIO DA SILVA FILHO
  • RAFAEL RABELO NUNES
  • Data: 30/03/2023

  • Mostrar Resumo
  • Nos últimos 5 anos, no Brasil, em média 200 pessoas desaparecem por dia. Quando uma pessoa desaparece, as autoridades policiais realizam um levantamento a respeito da aparência da pessoa em questão e resulta em uma fotografia para a divulgação de desaparecimento ou em um retrato falado. Com o passar do tempo, esses registros fotográficos se tornam desatualizados por conta do envelhecimento natural, principalmente em caso de crianças desaparecidas. Existem diversas técnicas de progressão de idade para acompanhar essas mudanças. No Brasil, a legislação obriga a atualização de imagens de progressão de idade para todos os desaparecidos. Para aqueles com menos de 18 anos com uma frequência a cada três anos e após 18 anos, a cada cinco anos. Porém, existem vários fatores que dificultam esse processo de atualização dessas imagens, como volume de imagens e ausência de um banco de dados unificado. Para estes problemas, automação utilizando aprendizado de máquina pode ser uma alternativa adicional, mais especificamente, utilização das Redes Neurais Adversárias (GANs). Para isso, é necessário um banco de dados padronizado dos cidadãos brasileiros nesta situação de desaparecimento. Apesar de existir uma lei que institui a unificação dessas informações de desaparecidos, incluindo imagens, o Governo Brasileiro e os órgãos envolvidos neste processo ainda estão longe de atingir o resultado final do que a lei impõe. Este trabalho demonstra como forças de segurança pública Brasileiras lidam com dados de pessoas desapareci- das, e realça a importância e a urgência da existência de um banco de dados unificado. Adicionalmente, demonstra como a utilização de novas técnicas de manipulação de imagem, incluindo as Redes Neurais, podem auxiliar forças policias durante a investigação de crianças e jovens desaparecidos. Foi possível demonstrar como a informação é disseminada pelo país de acordo com cada estado. Adicionalmente, obter resultados promissores em questão de acurácia entre imagens manipuladas por redes neurais e criar um banco de imagens de vítimas brasileiras.


  • Mostrar Abstract
  • Within the last five year, in Brazil, an average of 200 people disappeared per day. When someone disappears, the policial authorities make a research about the person’s physical appearance. This research may result in a photography for divulgation purposes about the persons’s missing or a police sketch. Through the pass of time, theses portraits get outdated due to aging, specially in cases of missing children. There is a multitude of techniques for age progressing of all of the missing people. Brazilian’s legislation demands an update of the images of age progressing for all of the missing people. For those who are less than 18 years-old the update must be made every three year, and after 18 years-old every five years. However, there are a lot of factors that make this procedure difficult such as the volume of images and the absence of a database. These problems may be approached by using automation through machine’s learning, more specifically using Generative Adversarial Networks (GANs). For this purpose, a data bank of missing Brazilian citizens would be necessary. Even though there is Brazilian legislation instituting the unification of missing people’s information, including images, the Brazilian government and the authorities involved in this procedure are yet far from getting the final results imposed by law. This paper demonstrates how Brazilian authorities deal with missing people’s data and emphasizes the importance and urgency of a unified database. Furthermore, this paper demonstrates how the usage of new techniques of image’s manipulation may aid policial authorities during a missing investigation of children and teenagers. It was possible to demonstrate how the disappearances information is disseminated across the country. In addition, it was possible to obtain promising results in terms of accuracy between images generated by neural networks and to create an image database of Brazilian victims.

4
  • Juliano Rodrigues Ferreira
  • Aplicação da Lei Geral de Proteção de Dados com Utilização de Modelos de Anonimização de Dados em Ambiente de Nuvem Pública

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • LAERTE PEOTTA DE MELO
  • Data: 17/04/2023

  • Mostrar Resumo
  • Este estudo pretende avaliar e aplicar técnicas de proteção de dados, considerando as diretrizes indicadas na Lei Geral de Proteção de dados (LGPD). Através de procedimentos práticos e análise de resultados buscando uma proteção adequada dessas informações com técnicas de criptografia e anonimização de dados, garantindo, além de adesão à legislação, a manutenção de performance e transparência para o usuário final. Trata-se de um desafio adicional à aplicação desse modelo de proteção de dados considerando o ambiente de nuvem pública e suas características específicas de acesso, armazenamento, gerenciamento de chaves criptográficas, manipulação de informações e de desempenho de tal ambiente.


  • Mostrar Abstract
  • This study aims to evaluate and apply data protection technology, considering the guidelines indicated in the General Personal Data Protection Law (LGPD). Through practical procedures and analysis of results seeking adequate protection of this information with encryption techniques and anonymization of data, ensuring, in addition to adherence with legislation, the maintenance of performance and transparency for the end user. It is an additional challenge to apply this data protection model considering the public cloud environment and its specific characteristics of access, storage, cryptographic key management, information manipulation, and performance of that environment.

5
  • Marcio da Mota Ribeiro
  • A atividade de Inteligência de Estado brasileira está em xeque com a promulgação da Emenda Constitucional n. 115/2022? Uma avaliação de riscos e impactos e proposta de uma agenda de soluções

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • RAFAEL RABELO NUNES
  • FABIANA FREITAS MENDES
  • GEORGES DANIEL AMVAME NZE
  • JOSÉ DOS SANTOS CARVALHO FILHO
  • Data: 27/04/2023

  • Mostrar Resumo
  • Embora a Lei Geral de Proteção de Dados Pessoais (LGPD) estabeleça que suas disposições não são aplicáveis ao tratamento de dados pessoais realizados para fins exclusivos de segurança do Estado, as normas definidoras dos direitos e garantias fundamentais possuem aplicação imediata, razão pela qual o direito fundamental à proteção dos dados pessoais e a LGPD incidem na atividade de Inteligência de Estado e, em particular, nas aplicações de análise de grande volume de dados (big data analytics) utilizadas pelo serviço de Inteligência brasileiro para a produção da Inteligência de fontes abertas (open source Intelligence - Osint). Esta dissertação objetiva identificar os possíveis fatores de risco para a Inteligência de Estado decorrentes dessa incidência, analisar suas consequências e propor medidas para mitigá-los. O procedimento metodológico científico empregado foi a pesquisa aplicada, explicativa, bibliográfica e documental. Os principais resultados deste trabalho consistem na identificação dos possíveis fatores de risco, na sua análise e na proposição de medidas para mitigá-los, e na demonstração de que aquele direito fundamental pode ser limitado pela restrição constitucional do acesso a informações cujo sigilo seja imprescindível à segurança da sociedade e do Estado. As principais contribuições desta dissertação são as sugestões para futuro anteprojeto de lei de proteção de dados pessoais para segurança do Estado e a proposta de como o órgão de Inteligência brasileiro poderia implementar a engenharia de privacidade no desenvolvimento de aplicações de big data analytics para produção da Osint.


  • Mostrar Abstract
  • Although The General Personal Data Protection Law (LGPD) establishes that its provisions are not applicable to the processing of personal data carried out for exclusive purposes of State security, the rules that define fundamental rights and guarantees have immediate application, which is why the fundamental right to the protection of personal data and the LGPD affect the State Intelligence activity and, in particular, the analysis of big data (big data analytics) used by the Brazilian Intelligence service for the production of open source intelligence (Osint). This dissertation aims to identify the possible risk factors for State Intelligence arising from this fundamental right incidence, analyze their consequences and propose measures to mitigate them. The methodological scientific procedure used was applied, explanatory, bibliographical and documental research. The main results of this work consist in the identification of possible risk factors, in their analysis and proposition of measures to mitigate them, and in the demonstration that the fundamental right to the protection of personal data may be limited by the constitutional restriction on access to information, whose secrecy is essential to the security of society and of the State. The main contributions of this dissertation are suggestions for future draft law on the protection of personal data for State security and the proposal on how the Brazilian Intelligence Agency could implement privacy engineering in the development of big data analytics applications for the production of Osint.

6
  • Renato Carvalho Raposo de Melo
  • Modelo para Mapeamento de Ameaças Cibernéticas

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • RAIMUNDO CLAUDIO DA SILVA VASCONCELOS
  • EDNA DIAS CANEDO
  • FABIO LUCIO LOPES DE MENDONCA
  • RAFAEL RABELO NUNES
  • Data: 26/05/2023

  • Mostrar Resumo
  • Os conflitos travados entre grandes corporações e governos, iniciados nos tradicionais universos de disputas comerciais, políticas e ideológicas, foram carreados para o Campo de Batalha Cibernético. As organizações se veem impelidas a buscar eficiência por meio dos diversos recursos de Tecnologia da Informação disponíveis, ao mesmo tempo que buscam se proteger de ameaças cibernéticas cada vez mais complexas. Nesta dissertação, propomos um Modelo para Mapeamento de Ameaças Cibernéticas de alta complexidade voltado às esferas decisórias de grandes corporações e governos. O Modelo orienta os processos de reunião e análise de dados que caracterizam fundamentalmente ameaças cibernéticas adversariais, permitindo que as organizações percebam de maneira melhor estruturada o cenário de riscos nos quais estão inseridas.


  • Mostrar Abstract
  • The conflicts involving governments and multinational corporations traditionally carried out on the fields of economics, politics and ideology have been transferred to Cyber Space as a new battlefield. Both public and private organizations are driven to achieve efficiency through digitalization while also having to defend themselves from ever evolving risks presented by different cyber threats. This work proposes a Cyber Threat Assessment Framework focused on highly complex adversarial threats and is dedicated to support the decisionmaking process of governments and high value corporations. The proposed Framework organizes the efforts of collecting and analyzing data concerning adversarial cyber threats in order to provide useful intelligence on risks that affect the system to be defended.

7
  • Virgínia de Melo Dantas Trinks
  • STRATEGIC ASSESSMENT OF CYBER SECURITY CONTENDERS TO THE BRAZILIAN AGRIBUSINESS IN THE BEEF SECTOR

  • Orientador : ROBSON DE OLIVEIRA ALBUQUERQUE
  • MEMBROS DA BANCA :
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • CARLOS ANDRE DE MELO ALVES
  • FABIO LUCIO LOPES DE MENDONCA
  • ANA LUCILA SANDOVAL OROZCO
  • Data: 02/06/2023

  • Mostrar Resumo
  • A atual estrutura comercial mundial coloca o Agronegócio brasileiro em constante conflito para proteger seus interesses perante outras nações no mercado global. As inovações tecnológicas são utilizadas em todas as etapas, desde as tarefas de produção mais simples até o desenho de táticas de negociação em assuntos de alto nível. Este trabalho tem como objetivo encontrar concorrentes brasileiros no mercado de carne bovina com capacidades cibernéticas e interesse comercial para atuar em favor de seus interesses. Para chegar a tal lista, é apresentada uma revisão da literatura sobre Inteligência de Ameaças e Ameaças Cibernéticas, seguida de uma apresentação dos antecedentes de como a tecnologia embarcada está hoje na agricultura e nas cadeias de suprimentos em geral, e a real necessidade desses setores serem vistos como infra-estrutura crítica pelos governos em geral. Também como informações básicas, casos recentes de ataques cibernéticos e países atacantes são mostrados. É apresentado um método multidisciplinar passo a passo que envolve a extensão do comércio internacional, o interesse em mercados específicos e a interseção do índice de capacidade cibernética do país. Após a aplicação do método e dos critérios, gerou-se uma lista de cinco países candidatos à carne bovina brasileira no mercado internacional que possuem capacidade de ataques cibernéticos. A lista inclui os EUA, Austrália, China, Holanda e Rússia. O método pode ser replicado e/ou aplicado, considerando a avaliação adequada da fonte de dados e seguindo as especificidades de cada setor.


  • Mostrar Abstract
  • Current world commercial structure places Brazilian Agribusiness at constant conflict to protect its interests before other nations in the global market. Technological innovations are used in all stages from the simplest production tasks, up to the design of negotiation tactics at highlevel affairs. This paper has the objective of finding Brazilian contenders in the beef market with cyber capabilities and commercial interest to act in favor of their interests. To reach such a list, a review of the literature on Threat and Cyber Threat Intelligence is presented, followed by a background presentation of how embedded technology is in nowadays agriculture and supply chains in general, and the real necessity for those sectors to be seen as critical infrastructure by governments in general. Also as background information recent cyber attack cases and attacker countries are shown. A Step-by-Step multidisciplinary method is presented that involves the extent of international trade, the interest on specific markets, and the intersection of country cyber capacity index. After applying the method and criteria, it generated a list of five contender countries to the Brazilian Beef in the International Market that hold cyber attack capacities. The list includes the USA, Australia, China, Netherlands and Russia. The method may be replicated and/or applied, considering adequate data source assessment and following specifics of each sector.

8
  • Cileno de Magalhães Ribeiro
  • Uma Proposta de Otimização da Comunicação Sigilosa no Sisbin com o Uso da Computação em Nuvem Privada.

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • RAFAEL RABELO NUNES
  • SELMA LUCIA DE MOURA GONZALES
  • WILLIAM FERREIRA GIOZZA
  • Data: 15/06/2023

  • Mostrar Resumo
  • O Sistema Brasileiro de Inteligência (Sisbin) é considerado elemento fundamental para o assessoramento em informações ao chefe do poder executivo e atualmente é uma ferramenta utilizada para troca de conhecimentos e dados que não vêm atendendo a agilidade necessária aos interesses do Estado. Nesse intuito, este trabalho teve como objetivo propor procedimentos e uma arquitetura para a otimização do processo de comunicação sigilosa entre os órgãos do Sistema Brasileiro de Inteligência (Sisbin) com a proposta de utilização da computação em nuvem privada. Para alcançar o objetivo proposto, primeiramente foi elaborado um canvas do processo de comunicação sigilosa como forma de compreensão da situação atua contando com envolvimento de dezessete servidores de seis órgãos federais integrantes do sistema.

    Em prosseguimento, foi desenvolvido e aplicado um questionário para cento e trinta e sete pessoas de treze órgãos do Sisbin, como meio de valorar e obter apreciações técnicas sobre as informações do canvas. As opiniões e fundamentação teórica foram analisadas com base na Doutrina de Inteligência, Normativos e legislações específicas que tratam sobre a segurança da informação, cibernética e protocolos atuais, tudo diretamente relacionado ao fluxo de informações. Os resultados demonstram a necessidade da adoção de uma ferramenta tecnológica para otimização da troca de informações, motivo pelo qual, foi proposto uma arquitetura de referência como uma solução utilizando nuvem privada. Como principal contribuição do trabalho, tem-se estabelecida a diretriz para o emprego de uma ferramenta de compartilhamento de trabalho integrado sobre uma proposta de nuvem privada, com possibilidade de elaboração conjunta, armazenamento seguro e suporte tecnológico centralizado.


  • Mostrar Abstract
  • The Brazilian Intelligence System (Sisbin) is considered a fundamental element for advising the head of the executive branch Currently, it is a tool used to exchange knowledge and data that has not been attending the necessary agility to the interests of the State. In this sense, this work aimed to propose procedures and an architecture to optimize the secret communication process between the agencies of the Brazilian Intelligence System (Sisbin) with the proposed use of private cloud computing. To achieve the proposed goal, we first developed a canvas of the intelligence communication process in order to reach the proposed objective, first a canvas of the secret communication process was elaborated as a way to understand the current situation, with the involvement of seventeen servers from six federal agencies that are part of the system. Next, a questionnaire was developed and applied to one hundred and thirtyseven people from thirteen organs of the Sisbin, as a means of evaluating and obtaining technical appraisals about the information in the canvas. The opinions and theoretical foundation were analyzed based on the Intelligence Doctrine, Normative and specific legislation that deal with information security, cybernetics and current protocols, all directly related to the flow of information. The results demonstrate the need to adopt a technological tool to optimize information exchange, which is why a reference architecture was proposed as a solution using a private cloud. As the main contribution of the work, a guideline has been established for the use of a work sharing tool integrated on a private cloud proposal, with the possibility of joint elaboration, secure storage and centralized technological support.

9
  • FELIPE BARRETO DE OLIVEIRA
  • Framework para detecção de ataques DoS em dispositivos IoT, utilizando abordagens de aprendizado de máquinas.

  • Orientador : GEORGES DANIEL AMVAME NZE
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • LAERTE PEOTTA DE MELO
  • RAFAEL RABELO NUNES
  • Data: 16/06/2023

  • Mostrar Resumo
  • A Internet das Coisas (IoT) é um dos paradigmas mais importantes dos últimos anos, pois a sua principal característica é a possibilidade de fundir o mundo real com o mundo virtual, utilizando o conceito das “coisas”. Por um lado, apresenta uma grande comodidade no nosso cotidiano, revolucionando a comunicação entre pessoas e objetos. Por outro lado, as vulnerabilidades apresentadas e os ataques que têm ocorrido indicam que esta tecnologia continua a ser uma expectativa para o futuro em diversa empresas, submergindo, assim, os benefícios que nos poderia proporcionar. Neste trabalho, propomos um framework composto de um sistema de detecção de intrusão em tempo real para dispositivos IoT, onde os ataques DoS serão detectados, identificados e classificados, seguindo a literatura atual. Para isso, é utilizado técnicas de aprendizado de máquinas para identificar ataques, através de anomalias ocorridas no monitoramento de dispositivos IoT na suíte ELK com o plugin Wazuh. O primeiro resultado experimental com o dataset NSL-KDD mostra a eficiência da nossa proposta, com 91,90% de acurácia, 0,9217 de precisão, 0,9190 de recall e 0,9168 de F1-score. O segundo resultado experimental com o ataque DoS de syn flood em tempo real, criado pelo metasploit, mostra uma acurácia de 99,89%, uma precisão de 1,0000, um recall de 0,9953 e um F1-score de 0,9977.


  • Mostrar Abstract
  • The Internet of Things is one of the most important paradigms of the last years, because its main characteristic is the possibility of merging the real world with the virtual world, using the concept of “things”. On the one hand, it presents a great convenience in our daily lives, revolutionizing the communication between people and objects. On the other hand, the vulnerabilities presented and the attacks that have occurred indicate that this technology remains an expectation for the future, thus submerging the benefits it could provide us. In this paper, we propose a framework for real time intrusion detection system in IoT devices, where the DoS attacks will be detected, identified, and classified, following the present literature. For this purpose, machine learning is used to identify attacks through anomalies that occurred in monitoring IoT devices on the ELK suite with the Wazuh plugin. The first experimental result with the NSL-KDD dataset show our proposal's efficiency, with 91.90% accuracy, 0.9217 precision, 0.9190 recall, and 0.9168 F1-score. The second experimental result with real time syn flood attack, created by metasploit, show accuracy of 99,89%, precision of 1.0000, recall of 0.9953, F1-Score of 0.9977.

10
  • Marcelo Garcia
  • Fatores de sucesso para uma Política Nacional de Cibersegurança e Ciberinteligência

  • Orientador : ROBSON DE OLIVEIRA ALBUQUERQUE
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • LUIZ OCTAVIO GAVIÃO
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 19/06/2023

  • Mostrar Resumo
  • Este trabalho visa entender o estado atual da capacidade cibernética nacional brasileira e identificar caminhos promissores para sua melhoria por meio da avaliação de fatores de sucesso para uma Política Nacional de Cibersegurança e Inteligência Cibernética no Brasil. O setor apresenta grande demanda do Estado; muitos países usam essa demanda para mobilizar seu empreendedorismo de inovação, com políticas públicas de apoio e investimentos privados de capital de risco. Esta estratégia combina o atendimento de importantes necessidades de defesa e segurança com o desenvolvimento tecnológico, econômico e social do país. No âmbito da defesa, o Brasil possui um Centro de Defesa Cibernética, mas que opera em um paradigma de dependência de ferramentas e tecnologias estrangeiras. No âmbito da segurança pública e inteligência, a atuação do Estado no ambiente cibernético ainda não está claramente organizada e regulamentada e a atual Estratégia Nacional de Cibersegurança carece de melhores definições. Portanto, há uma oportunidade de formular uma política que consolide e organize a demanda estatal e a direcione para ser suprida pelo empreendedorismo nacional de inovação. Os potenciais aspectos críticos de tal política são avaliados à luz da literatura e da opinião de especialistas brasileiros pertencentes aos grupos de interesse na matéria, a saber, agentes estatais, gestores de fomento, gestores de capital de risco, empresários, especialistas e pesquisadores, por meio de entrevistas e questionário. Os resultados indicam que é possível para o Brasil parametrizar uma política nacional de cibersegurança e ciberinteligência que contorne os obstáculos existentes e impulsione uma indústria do setor no país.


  • Mostrar Abstract
  • This work aims to understand of the current state of the Brazilian national cyber capability and identify promising avenues for its improvement through the evaluation of key success factors for a national Cybersecurity and Cyber Intelligence Policy in Brazil. The sector presents great demand from the State; many countries use this demand to mobilize their innovation entrepreneurship, with public support policies and private venture capital investments. This strategy combines the supply of important defense and security needs with the country's technological, economic and social development. In defense, Brazil has a Cyber Defense Center that nevertheless operates in a paradigm of d e p e n d e n c e o n f o r e i g n t o o l s a n d technologies. In the sphere of public security and intelligence, state action in the cyber environment is still not clearly organized and regulated and the current National Cybersecurity Strategy lacks better definitions. Therefore, there is an opportunity to formulate a policy that consolidates and organizes state demand and directs it to be s u p p l i e d b y n a t i o n a l i n n o v a t i o n entrepreneurship. The potential critical aspects of such a policy are evaluated in the light of the literature and the opinion of Brazilian experts belonging to the interest groups in the matter, namely, state agents, development managers, venture capital managers, entrepreneurs, specialists and researchers, through interviews and questionnaire. The results indicate that it is possible for Brazil to parameterize a national policy to promote cyber security and intelligence that circumvents existing obstacles and boosts a cybersecurity and cyberintelligence industry in the country.

11
  • Rogerio Machado da Silva
  • Proposta de um framework para melhoria da qualidade na produção de inteligência de ameaça cibernética

  • Orientador : JOAO JOSE COSTA GONDIM
  • MEMBROS DA BANCA :
  • DINO MACEDO AMARAL
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • RAFAEL RABELO NUNES
  • Data: 20/06/2023

  • Mostrar Resumo
  • No espaço cibernético, os limites estão constantemente sendo ultrapassados em nome do progresso e comodidade, invariavelmente abrindo caminho para novas vulnerabilidades e ataques em potencial. As abordagens tradicionais de segurança não são capazes de conter a natureza dinâmica das novas técnicas e ameaças, cada vez mais adaptativas e complexas. Nesse cenário, o compartilhamento de inteligência de ameaça vem crescendo. Contudo, a heterogeneidade e o grande volume de dados de ameaças dificultam a identificação dos dados relevantes, o que impõe grande limitação aos analistas de segurança. Dentre os fatores que contribuem para a baixa qualidade da Cyber Threat Intelligence (CTI), destacase a falta de direção e planejamento, cuja consequência é a produção de informações imprecisas, incompletas ou desatualizadas, que tornam as ações reativas. Porém, inteligência de ameaça de qualidade tem impacto positivo no tempo de resposta a um incidente. A proposta para contornar essa limitação é a adoção de um processo de produção de conhecimento baseado no ciclo de inteligência, apoiado pela consciência situacional e o modelo 5W3H para criação de contexto. A fase de direção e planejamento é a fase menos abordada nas pesquisas científicas, mas, quando bem executada tem relação direta para que a inteligência produzida seja relevante, precisa e oportuna, pois define o propósito e o escopo das etapas seguintes. As próximas fases do processo visam o refinamento progressivo de dados, que iniciam com grande volume e baixa relevância e por meio de avaliação, busca por correlações, análises, formação de contexto e interpretações terminam com baixo volume, porém capazes de serem empregados para tomada de decisões.


  • Mostrar Abstract
  • In cyberspace, boundaries are constantly being crossed in the name of progress and convenience, invariably paving the way for new vulnerabilities and potential attacks. Traditional security approaches are not able to contain the dynamic nature of new techniques and threats, which are increasingly adaptive and complex. In this scenario, threat intelligence sharing is growing. However, the heterogeneity and the large volume of threat data make it difficult to identify the relevant data, imposing significant limitations on security analysts. Among the factors contributing to the low quality of Cyber Threat Intelligence (CTI), the lack of direction and planning stands out, resulting in the production of inaccurate, incomplete, or outdated information that leads to reactive actions. However, quality threat intelligence has a positive impact on the response time to an incident. The proposed solution to overcome this limitation is the adoption of a knowledge production process based on the intelligence cycle, supported by situational awareness and the 5W3H model for context creation. The direction and planning phase isthe least addressed phase in scientific research, but when executed properly it directly contributes to the relevance, accuracy and timeliness of the intelligence produced, as it defines the purpose and scope of the subsequent steps. The next phases of the process aims at the progressive refinement of data, which starts with a large volume and low relevance and, by means of evaluation, search for correlations, analysis, context formation, and interpretation, ends up with a low volume, but capable of being used for decision making.

12
  • Rodrigo Vilela Fonseca de Souza
  • IDENTIFICAÇÃO AUTOMÁTICA DE CONLUIO EM PREGÕES DO COMPRASNET COM APRENDIZADO DE MÁQUINA

  • Orientador : ALEXANDRE SOLON NERY
  • MEMBROS DA BANCA :
  • FABIANO CAVALCANTI FERNANDES
  • DANIEL ALVES DA SILVA
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • Data: 20/06/2023

  • Mostrar Resumo
  • O Governo Federal Brasileiro executa um grande volume de licitações públicas da modalidade pregão através do Portal de Compras Comprasnet. No período de 2018 a 2021, aproximadamente R$ 144 bilhões foram licitados com a execução de mais de 122 mil processos desta modalidade. A auditoria destes certames é uma das atribuições da Controladoria Geral da União - CGU, que desenvolveu ferramentas para apoiar esta atividade, envolvendo o processamento de um grande volume de dados. Isso possibilita que os pregões eletrônicos sejam auditados e diversas irregularidades identificadas em tempo de serem sanadas. Entre os anos de 2019 e 2020, após atuações preventivas da CGU, licitações que totalizaram mais de R$ 6,7 bilhões foram revogadas, suspensas ou ajustadas. Entre as irregularidades que a CGU busca combater, a identificação de conluio entre os participantes de um certame é de difícil identificação, dado o volume diário de novas licitações e o conjunto de variáveis envolvidas no processo. A Inteligência Artificial aplicada à análise de dados, a partir de algoritmos de aprendizado de máquina, se apresenta como promissora na indicação de conluio entre os participantes de uma licitação. Neste trabalho foi realizado o estudo de um conjunto de algoritmos de aprendizado de máquina aplicados na identificação de conluio, em 4 cenários distintos, sobre dois datasets gerados a partir do Comprasnet e outros datasets de conluio publicados. De forma geral, nos melhores cenários, os algoritmos baseados em ensemble methods obtiveram uma acurácia maior que 87%. Considerando todas as métricas adotadas no experimento, o algoritmo de melhor desempenho foi o Extra Trees, capaz de indicar novos possíveis casos de conluio em itens de pregões realizados no Comprasnet.


  • Mostrar Abstract
  • The Brazilian Federal Government executes a large volume of public procurements through the Comprasnet Procurement Portal, which is a website for electronic auctions available for bidders nationwide and abroad. In the period from 2018 to 2021, approximately R\$144 billion bids were applied within Comprasnet, with the execution of more than 122 thousand processes of this modality. The audit of these events is one of the duties of the Federal Comptroller General (Controladoria Geral da União - CGU) agency, which has developed tools to support such audit activities, especially involving a large volume of data processing. Thus, it is possible for electronic trading sessions to be audited in time to identify irregularities and rectify them. Between 2019 e 2020, following CGU preventive actions, around R$ 6.7 billion auctions were revoked, suspended or adjusted. Among the irregularities, collusion is difficult to identify, given the set of variables involved in the process. Artificial Intelligence applied to data analysis, through Machine Learning algorithms, presents itself as a promising method towards the detection of collusion between the auction's participants. In this work, a study of machine learning algorithms was carried out, in 4 different scenarios, on two datasets extracted from Comprasnet and other published collusion datasets. In the best scenarios, ensemble methods algorithms achieved an accuracy greater than 87%. Considering all metrics applied, Extra Trees was the algorithm with the best performance, capable of indicating new possible collusion cases.

13
  • Maickel Josué Trinks
  • Arquitetura multiagente para detecção passiva de rootkits com enriquecimento de dados

  • Orientador : JOAO JOSE COSTA GONDIM
  • MEMBROS DA BANCA :
  • DINO MACEDO AMARAL
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • RAFAEL RABELO NUNES
  • Data: 22/06/2023

  • Mostrar Resumo
  • O crescente valor agregado das informações trafegadas em meio cibernético acarretou em um cenário de sofisticação de ações maliciosas que visam a exfiltração de dados e, no atual ambiente de ameaças cibernéticos avançado e dinâmico, as organizações precisam produzir novos métodos para lidar com sua defesa cibernética. Em situações com atores maliciosos não convencionais, como Advanced Persistent Threats (APTs), técnicas de ofuscação de atividades danosas são utilizadas para garantir manutenção nos alvos estratégicos, evitando detecção por sistemas de defesa conhecidos e encaminhando os dados de interesse para elementos externos com o menor ruído possível. As arquiteturas MADEX e NERD propuseram soluções de análise de fluxos para detecção de rootkits que ocultam o tráfego de rede; entretanto, apresentam algum custo operacional, seja em volume de tráfego, seja por falta de informação  agregada. Nesse sentido, esse trabalho altera e aprimora as técnicas de análise de fluxos ofuscados de forma a eliminar os impactos no tráfego rede, com enriquecimento de dados em bases locais e remotas, detecção de domínios consultados por rootkits e agregação de informações para geração de inteligência de ameaças, mantendo alta performance e permitindo uso concomitante com os sistemas de defesa cibernética previamente existentes. Os resultados demonstram a possibilidade de agregar informações aos fluxos de dados utilizados por rootkits para ações de defesa mais efetivas contra ameaças cibernéticas sem impactos significativos à infraestrutura de rede existente.


  • Mostrar Abstract
  • The added value of the information transmitted in a cybernetic environment has resulted in a sophisticated malicious actions scenario aimed at data exfiltration, and, in today’s advanced and dynamic cyber threat environment, organizations need yeld new methods to address their cyber defenses. In situations with unconventional malicious actors, like APTs, obfuscating harmful activity techniques are used to ensure maintenance on strategic targets, avoiding detection by known defense systems and forwarding data of interest to external elements with as little noise as possible.The MADEX and NERD architectures proposed flow analysis solutions to detect rootkits that hide network traffic; however, it presents some operational cost, either in traffic volume or due to lack of aggregated information. In that regard, this work  changes and improves user flow analysis techniques to eliminate impacts on network traffic, with data enrichment on local and remote bases, detection of domains consulted by rootkits and aggregation of information to generate threat intelligence, while maintaining high performance and allowing concomitant use with previously existing cyber defense systems. The results show the possibility of aggregating information to data flows used by rootkits in order to have effective cyber defense actions against cybernetic threats without major impacts on the existing network infrastructure.

14
  • Alcides Francinaldo Souza Macêdo
  • FRAMEWORK DE INTELIGÊNCIA CIBERNÉTICA PARA INTERAÇÃO HUMANA UTILIZANDO AS MELHORES PRÁTICAS DE FONTES ABERTAS

  • Orientador : FLAVIO ELIAS GOMES DE DEUS
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • FELIPE LOPES DA CRUZ
  • FLAVIO ELIAS GOMES DE DEUS
  • GEORGES DANIEL AMVAME NZE
  • Data: 23/06/2023

  • Mostrar Resumo
  • Os conceitos tradicionais e doutrinários da cibersegurança envolvem, de forma simplificada, as camadas física, lógica e social. Esta pesquisa objetiva abordar um terceiro aspecto para utilização de coleta de informações sobre usuários no mundo virtual visando obter colaboração para fornecimento de informações de maior qualidade para incrementar medidas de segurança cibernética, inclusive, aplicando métodos utilizados pela chamada engenharia social para reunir as melhores práticas de coleta de informações baseadas num framework envolvendo técnicas de inteligência de fontes humanas (HUMINT) e inteligência de fontes abertas (OSINT) para aumentar a capacidade das estruturas organizacionais de cibersegurança, privadas ou públicas, na identificação e prevenção de ameaças a partir da colaboração de usuários previamente identificados. Na consecução deste objetivo, esta pesquisa buscou investigar a aplicabilidade de técnicas de gerenciamento de fontes humanas e fontes abertas através da proposição de um framework de boas práticas para ações de coleta em fontes abertas, a partir dos seguintes objetivos: 1) revisar a literatura recente sobre os ataques baseados em engenharia social; 2) revisar os conceitos empregados em HUMINT; 3) revisar os conceitos empregados em OSINT; 4) propor um framework de boas práticas para orientar os profissionais de segurança cibernética a interagirem com eventuais perpetradores de ataques; 5) validar o framework a partir de entrevistas com profissionais em cibersegurança. A partir da metodologia de um estudo de caso, foram selecionadas 26 boas práticas, agrupadas nas categorias analíticas procedimental e psicológica, que foram depuradas por 15 especialistas, agentes policiais, que atuam na coleta de informações em fontes abertas.


  • Mostrar Abstract
  • The traditional and doctrinal concepts of cybersecurity, in a simplified form, the physical, logical and social federations. This research aims to address a third aspect for the use of collecting information about users in the virtual world in order to obtain collaboration to provide higher quality information to increase cybersecurity measures, including applying methods used by the so-called social engineering to gather the best practices of collection of information captured in a framework involving human source intelligence (HUMINT) and open source intelligence (OSINT) techniques to increase the capacity of organizational cybersecurity structures, private or public, in identifying and preventing threats based on user collaboration previously identified. In achieving this objective, this research sought to investigate the applicability of management techniques for human sources and open sources by proposing a framework of good practices for collection actions in open sources, based on the following objectives: 1) review the recent literature about attacks based on social engineering; 2) review the concepts used in HUMINT; 3) review the concepts used in OSINT; 4) propose a framework of best practices to guide cybersecurity professionals in interacting with adverse attack aggressors; 5) validate the framework based on interviews with cybersecurity professionals. Based on the methodology of a case study, 26 good practices were selected, grouped in procedural and psychological analytical categories, which were debugged by 15 specialists, waiting agents, who work in the collection of information from open sources.

15
  • Luiz Guilherme Schiefler de Arruda
  • Proposta de método de priorização de controles para implementação da arquitetura Zero Trust utilizando métodos multicritérios

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • CLOVIS NEUMANN
  • DINO MACEDO AMARAL
  • RAFAEL RABELO NUNES
  • VINICIUS PEREIRA GONCALVES
  • Data: 27/06/2023

  • Mostrar Resumo
  • A evolução das redes de computadores fez com que elas se tornassem cada vez mais complexas e aumentassem sua superfície de ataque, tornando a proteção de bordas menos eficaz. Nesse contexto, surgiu o conceito de Zero Trust (ZT), que é um novo modelo de confiança. Esse conceito amplo apresenta diversos controles para sua implementação, o que torna a gestão de riscos um desafio, pois os gestores precisam priorizar esses controles. De acordo com a ISO 31000, a metodologia multicritério de apoio à decisão pode auxiliar os decisores na modelagem de problemas e na priorização de ações a serem tomadas. O conceito multicritério é baseado em duas escolas: a americana, que foca na precisão dos cálculos para priorizar os controles, e a europeia, que considera a decisão como uma atividade humana. O MCDA-C, que vem da escola europeia, tem a capacidade de agregar diversos níveis dentro de uma organização na busca pela construção do conhecimento, facilitando a tomada de decisão pelos decisores. Neste trabalho, propõe-se a utilização dos controles descritos no Modelo de Maturidade de ZT da CISA em conjunto com o MCDA-C, pois isso permite a clareza na visualização do desempenho ideal, na perspectiva dos decisores, e na priorização para a implementação dos controles da ZT. Por fim, considerando os controles propostos, este estudo demonstra a capacidade do MCDA-C em auxiliar na compreensão do problema dentro da organização e na construção do conhecimento por meio da análise dos dados coletados. Dessa forma, foi possível apresentar aos decisores quais controles devem ser priorizados no início da implementação da ZT.


  • Mostrar Abstract
  • The evolution of computer networks has made them increasingly complex and expanded their attack surface, rendering traditional perimeter protection less secure. In this context, a new trust model called Zero Trust (ZT) emerged. This concept, encompassing various controls for its implementation, makes risk management a challenging task, as managers face the challenge of prioritizing these controls. ISO 31000 describes how the multicriteria decision-making methodology can assist decision-makers in problem modeling and action prioritization. The multicriteria concept is based on two schools of thought: the American approach, which focuses on precise calculations to prioritize controls, and the European approach, which views decision-making as a human activity. MCDA-C, originating from the European school, has the capability to incorporate multiple levels within an organization to facilitate knowledge construction and decisionmaking for decision-makers. This study proposes the utilization of controls described in the CISA's Zero Trust Architecture (ZTA) Maturity Model in conjunction with MCDA-C. This approach provides clarity in visualizing the ideal performance from decision-makers' perspectives and facilitates prioritization for ZTA control implementation. Finally, considering the proposed controls, this study demonstrates the capability of MCDA-C in aiding the understanding of the problem within the organization and constructing knowledge through the analysis of collected data. Consequently, it becomes possible to present decision-makers with the controls that should be prioritized at the outset of a ZTA implementation.

16
  • Paulo Magno de Melo Rodrigues Alves
  • FRAMEWORK PARA CLASSIFICAÇÃO DE TTP BASEADO EM TRANSFORMADAS BERT

  • Orientador : VINICIUS PEREIRA GONCALVES
  • MEMBROS DA BANCA :
  • VINICIUS PEREIRA GONCALVES
  • FABIO LUCIO LOPES DE MENDONCA
  • JOAO JOSE COSTA GONDIM
  • JOSE RODRIGUES TORRES NETO
  • Data: 27/06/2023

  • Mostrar Resumo
  • Informações relativas às Táticas Técnicas e Procedimentos (TTP) observados em um ataque são importantes para os profissionais de segurança cibernética. Contudo, elas essas informações são costumeiramente disseminadas na forma de textos não estruturados, dificultando a acesso e, portanto, o trabalho dos ciberanalistas. Esse trabalho apresenta um frameworkpara o enfrentamento desse problema por meio do BERT (Bidirectional Encoder Representations from Transformers), modelo de NLP derivado da Arquitetura de Tranformadas. Utilizamos 11 variantes BERT, estado da arte no campo de NLP, para classificar sentenças de acordo com o framework MITRE ATT\&CK para TTP. O dataset utilizado inicialmente é a base de sentenças do instituto MITRE, sendo uma parte usada no treinamento e outra na avaliação dos modelos. Posteriormente é realizada validação em um conjunto de sentenças manualmente anotadas extraído de relatórios de CTI (Cyber Threat Intelligence) públicos. Investiga-se também os efeitos de alguns hiperparâmeros escolhidos no treinamento de ajuste fino dos modelos. O objetivo é identificar o modelo e a combinação de hiperparâmetros que melhor se adequam à tarefa de classificação proposta. Como resultado, verificouse que os melhores modelos apresentaram acurácia de 0,8264 e 0,7875 nos dois conjuntos de dados utilizados, demonstrando a viabilidade e o potencial do uso dos modelos BERT nessa complexa tarefa do domínio cibernético. Por fim, realiza-se análise qualitativa de algumas das sentenças erroneamente classificadas pelo framework, de modo a compreender melhor porque o modelo erra e obter insights que potencialmente ajudem a melhorar a performance.


  • Mostrar Abstract
  • Information upon Tactics, Techniques and Procedures (TTP) observed in an attack are important to cybersecurity defenders. However, they are mostly disseminated through unstructured text, hindering access and the job of ciberanalysts. This work presents a framework for tackling this problem by using BERT (Bidirectional Encoder Representations from Transformers), a model derived from the Transformers Architecture. We use 11 variants of BERT, a state-of-theart approach in Natural Language Processing, to classify sentences according to MITRE ATT\&CK framework for TTP. The dataset used is MITRE's database of sentences (examples) and part of it is used in training and part in the models evaluation. Validation is also done against a set of manually annotated sentences extracted from public CTI reports. The effect of some chosen hyperparameters on the fine-tuning of the models are also investigated. The purpose is to identify the best model and the finest combination of hyperparameters for the proposed classification task. As a result, we observed that the best models presented an accuracy of 82.64\% and 78.75\% on the two datasets tested, demonstrating the feasibility and potential of the application of BERT models in the complex task of TTP classification. At last, we analyze some of the sentences misclassified by the framework to better understand why the models are missing and thus gather insights about possibilites to further improve performance.

17
  • Renata Colares Policarpo
  • Implementação em FPGA de um mecanismo de encapsulamento de chave pós-quântico utilizando HLS

  • Orientador : ALEXANDRE SOLON NERY
  • MEMBROS DA BANCA :
  • EVANDER PEREIRA DE REZENDE
  • ALEXANDRE SOLON NERY
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • Data: 27/06/2023

  • Mostrar Resumo
  • Essa dissertação apresenta a especificação de um acelerador para o CRYSTALS-Kyber, o primeiro mecanismo de encapsulamento de chaves (KEM) padronizado pelo National Institute of Standards and Technology (NIST) como criptografia pós-quântica (PQC). O acelerador, que foi desenvolvido com síntese de alto nível (HLS), é composto pelas operações de cifração e decifração presentes nos algoritmos de encapsulamento e desencapsulamento do KEM Kyber. A arquitetura desenvolvida faz uso de 33733 LUTs, 22810 FFs e 151 DSPs, sendo implementada em uma FPGA de baixo custo PYNQ-Z1 (XC7Z020- 1 CLG400C). Em uma simulação de troca de chaves realizada com a ferramenta Vitis HLS, o acelerador gastou o tempo total de aproximadamente 3,81 milissegundos, operando a 100MHz. Nessa mesma simulação, a arquitetura desenvolvida teve um consumo estimado de 2,243W de potência. Com a implementação do acelerador na FPGA, o tempo observado para realização das operações de cifração e decifração foi de 5,01 e 2,24 milissegundos, respectivamente. O consumo de energia nesse processo foi de aproximadamente 6,2 Joules.


  • Mostrar Abstract
  • This dissertation presents the specification of an accelerator for CRYSTALS-Kyber, the first Key Encapsulation Mechanism (KEM) standardized by the National Institute of Standards and Technology (NIST) as Post-Quantum Cryptography (PQC). The accelerator was developed with high-level synthesis (HLS) and it is composed of the encryption and decryption operations present in the KEM Kyber encapsulation and decapsulation algorithms. The developed architecture makes use of 33733 LUTs, 22810 FFs and 151 DSPs, being implemented in a low cost FPGA PYNQ-Z1 (XC7Z020-1 CLG400C). In a key exchange simulation performed with the Vitis HLS tool, the accelerator spent a total time of approximately 3.81 milliseconds, operating at 100MHz. In this simulation, the architecture developed had an estimated consumption of 2.243W of power. With the implementation of the accelerator in the FPGA, the observed time to perform the encryption and decryption operations was 5.01 and 2.24 milliseconds, respectively. The energy consumption in this process was approximately 6.2 Joules

18
  • MARCUS AURÉLIO CARVALHO GEORG
  • Proposta de Modelo de Mensuração de Apetite a Riscos Cibernéticos: Uso do Método AHP e da Estrutura Básica de Segurança Cibernética

  • Orientador : DEMETRIO ANTONIO DA SILVA FILHO
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • JOAO SOUZA NETO
  • RAFAEL RABELO NUNES
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 29/06/2023

  • Mostrar Resumo
  • Realizar escolhas em relação aos desafios que o mundo cibernético tem apresentado tem sido uma das tarefas mais árduas dos gestores, sejam do setor privado como do setor público. Os prejuízos relacionados a não conformidade legal, à descontinuidade dos serviços prestados, às perdas de informações estratégicas, aos desafios relacionados à cadeia de suprimentos cibernéticos e aos custos relacionados aos controles com foco minimização de riscos, entre outros, têm trazido a necessidade, por parte de gestores, de escolhas mais adequadas, com critérios e alternativas que falem mais dos contextos em que se encontram. Este estudo visa à mensuração do apetite a risco cibernético proposto pela alta gestão, em um primeiro momento, assim como apontar uma estratégia de alcance desse objetivo por meio da implantação de uma série de controles que representem às decisões calcadas nos pesos de critérios e alternativas defendidas por seus gestores. O modelo foi aplicado à realidade de um órgão público brasileiro, o Superior Tribunal de Justiça (STJ), onde é possível observar o apetite a risco por meio da escolha de controles que se compreendeu desejados, assim como a identificação daqueles que ainda não estão sendo implementados. A pesquisa demonstrou que é possível mensurar quantitativamente o apetite a risco de uma organização e que a escolha adequada de critérios, alternativas e controles pode tornar o modelo proposto uma ferramenta de apoio à decisão bastante promissora, permitindo um alinhamento entre a alta gestão e a área operacional de uma empresa.


  • Mostrar Abstract
  • Making choices regarding the challenges that the cyber world has presented has been one of the most arduous tasks for managers, whether in the private or public sector. The losses related to legal noncompliance, discontinuity of services provided, loss of strategic information challenges related to the cyber supply chain, and costs related to controls focused on risk minimization, among others, have brought about the need, by managers, for more appropriate choices, with criteria and alternatives that speak more to the contexts in which they find themselves. This study aims to measure the cyber risk appetite proposed by top management, in a first moment, as well as to point out a strategy to reach this goal through the implementation of a series of controls that represent decisions based on the weights of criteria and alternatives defended by their managers. The model was applied to the reality of a Brazilian public agency, the Superior Court of Justice (STJ), where it is possible to observe the risk appetite through the choice of controls that are understood to be desired, as well as the identification of those that are not yet being implemented. The research demonstrated that it is possible to quantitatively measure an organization's risk appetite and that the appropriate choice of criteria, alternatives, and controls can make the proposed model a very promising decision support tool, allowing for an alignment between top management and the operational area of a company.

19
  • RICARDO CINCINATO FREITAS DE OLIVEIRA
  • EMPREGO DO 5G NA DEFESA E SEGURANÇA NACIONAL: POSSIBILIDADES, LIMITAÇÕES E UMA PROPOSTA CONCEITUAL DE ARQUITETURA PARA O EXÉRCITO BRASILEIRO

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • FABIO LUCIO LOPES DE MENDONCA
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • DAVID FERNANDES CRUZ MOURA
  • Data: 29/06/2023

  • Mostrar Resumo
  • O Brasil é um importante ator global por diversas características: físicas, econômicas, políticas e militares. Ocupa 43,7% do continente sul-americano com 8.510.417,771 de Km² de território e dispõe de aproximadamente de 15.719 Km de fronteiras terrestres e mais 7.400 Km de fronteiras marítimas. Detém diversos recursos naturais estratégicos no seu subsolo e solo e na sua extensa costa marítima no Oceano Atlântico Sul. Além disso, dispõe de cerca de 207.750.291 habitantes, segundo o censo de 25/12/2022, e todo esse patrimônio humano, territorial e recursos estratégicos devem ser salvaguardados de ameaças externas e internas. Atualmente, na Era da Informação, e com o advento do Ecossistema 5G no mundo, as ameaças se tornaram mais abrangentes por causa do Poder Cibernético das outras nações estrangeiras. Por isso, este trabalho abordou alguns conceitos doutrinários nacionais e internacionais sobre Segurança da Informação e das Comunicações, Segurança Cibernética, e sobre os Ecossistemas 5G Global e 5G Brasileiro. Foi realizada uma ampla pesquisa bibliográfica e documental entre os anos 2012 a 2023, de natureza aplicada com abordagem qualitativa, com objetivo exploratório nas diversas fontes acadêmicas internacionais e nacionais. Também foi aplicado um questionário on-line para grupos de militares do Exército Brasileiro sobre o emprego dual – civil e militar – do Ecossistema 5G Brasil na Defesa e Segurança nacional. Ainda foi realizada uma simulação eletrônica no software HTZ Warfare para a cobertura 5G das áreas estratégicas do Setor Militar Urbano, no Distrito Federal, a qual serviu de base para a minha proposta de arquitetura conceitual do 5G para o Exército Brasileiro.


  • Mostrar Abstract
  • Brazil is an important global player due to several characteristics: physical, economic, political and military. It occupies 43.7% of the South American continent with 8,510,417.771 Km² of territory and has approximately 15,719 Km of land borders and another 7,400 Km of maritime borders. It holds several strategic natural resources in its subsoil and soil and on its extensive coastline in the South Atlantic Ocean. In addition, it has about 207,750,291 inhabitants, according to the census of 12/25/2022, and all this human and territorial heritage and strategic resources must be safeguarded from external and internal threats. Nowadays, in the Information Age, and with the advent of 5G Ecosystem in the world, the threats have become more comprehensive because of the Cyber Power of other foreign nations. Therefore, this work addressed some national and international doctrinal concepts on Information and Communications Security, Cybernetic Security, and on the 5G Global and 5G Brazilian Ecosystems. A wide bibliographical and documentary research was carried out between the years 2012 to 2023, of an applied nature with a qualitative approach, with an exploratory objective in the various international and national academic sources. An online questionnaire was also applied to groups of Brazilian Army soldiers about the dual use – civil and military – of the 5G Brazil Ecosystem in National Defense and Security. An electronic simulation was also carried out in HTZ Warfare software for the 5G coverage of the strategic areas of the Urban Military Sector, in the Federal District, which served as the basis for my proposal for a conceptual architecture of 5G for the Brazilian Army.

20
  • Alexandre Cabral Godinho
  • STALLA: UM FRAMEWORK PARA ANÁLISE DE FONTES ABERTAS DURANTE A PANDEMIA DO COVID19

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • FABIO LUCIO LOPES DE MENDONCA
  • GERALDO PEREIRA ROCHA FILHO
  • JOSE RODRIGUES TORRES NETO
  • Data: 29/06/2023

  • Mostrar Resumo
  • A expansão das redes sociais resultou em um aumento na distribuição de campanhas de desinformação, que colocam em risco a estabilidade democrática nacional, tornando-se um elemento desfavorável para a produção do conhecimento de Inteligência. Com o objetivo de mitigar este óbice, foi proposto o framework STALLA para coleta, tratamento, rotulação automatizada e análise de informações, proporcionando maior eficiência na produção do conhecimento. Assim, o estudo tem por escopo a pandemia do Covid-19, a partir de dados coletados de textos curtos (tweets), no idioma português, da rede social Twitter. Considerandose os trabalhos correlatos, as Redes Neurais Recorrentes (RNN) apresentam-se como as mais vocacionadas para análises textuais. A partir dessa premissa, o desempenho do STALLA foi analisado comparando-se as implementações das redes LSTM e BiLSTM, resultando em uma acurácia de aproximadamente 70\%, valor considerado expressivo para a definição da relevância da informação.


  • Mostrar Abstract
  • The spread of social networks has resulted in an increase in the distribution of disinformation campaigns, which put national democratic stability at risk, becoming an unfavorable element for the intelligence knowledge production. In order to mitigate this bottleneck, the STALLA framework was proposed for the collection, treatment, automated labeling and analysis of information, providing greater efficiency in knowledge production. Thus, the study has as scope the Covid-19 pandemic, from data collected from short texts (tweets), in the Portuguese language, from the social network Twitter. Considering the related works, Recurrent Neural Networks (RNN) present themselves as the most suitable for textual analysis. Based on this premise, the performance of STALLA was analyzed by comparing the implementations of LSTM and BiLSTM networks, resulting in an accuracy of approximately 70\%, a value considered significant for the definition of information relevance.

21
  • Ricardo Ramos Sampaio
  • A POSSIBILIDADE DA REALIZAÇÃO DE VIGILÂNCIA POR MEIO DE GEOLOCALIZAÇÃO EM TEMPO REAL PELA AGÊNCIA BRASILEIRA DE INTELIGÊNCIA

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • LUIZ HENRIQUE DINIZ ARAUJO
  • EDNA DIAS CANEDO
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • UGO SILVA DIAS
  • Data: 30/06/2023

  • Mostrar Resumo
  • O avanço tecnológico tem produzido um processo de mudança nas técnicas operacionais utilizadas pelos serviços de inteligência ao redor do mundo. A obtenção de informações por meio de fotografias, comunicações, sinais, imagens, ondas, radiações e assinaturas eletromagnéticas desenvolveu-se rapidamente e tornou-se uma rotineira prática dos serviços de inteligência. A própria coleta de informações em fontes abertas, em conjunto com a capacidade de análise de big data, alcançou estágio singular. As técnicas operacionais antigas têm sido convertidas em meios de busca e coleta com uso de mecanismos tecnológicos, imprimindo um alcance e amplitude de dados sem precedentes. A geolocalização ou determinação em tempo real da localização de um indivíduo, o correspondente eletrônico da vigilância, vem sendo utilizada, sem maiores questionamentos, em diversos países. Essa constatação impulsiona o desenvolvimento desta pesquisa, que se volta a verificar se a geolocalização em tempo real pode ser utilizada pela ABIN, sem que isso afronte a legislação pátria e a privacidade dos indivíduos. É nesse contexto que se apresenta essencial esmiuçar as características dos serviços de inteligência e a evolução do direito à privacidade e da proteção de dados, traçando-se, ainda, um comparativo entre a instrumentalidade da coleta de dados pelo Estado com as empresas de tecnologia. Outro ponto importante para atingir conclusões robustas sobre o assunto é verificar se a legislação, a cadeia e competência de autorização para atuação e os mecanismos de controle dos serviços de inteligência estrangeiros se aproximam ou se distanciam do brasileiro. Por fim, um exame aprofundado de decisões judiciais do Supremo Tribunal Federal e do Superior Tribunal de Justiça a respeito da privacidade, compartilhamento de dados, da ponderação de interesses e da geolocalização estática tem como finalidade reforçar o raciocínio a respeito da possibilidade do uso da geolocalização em tempo real.


  • Mostrar Abstract
  • Technological advances have produced a process of change in the operational techniques used by intelligence services around the world. Obtaining information through photographs, communications, signals, images, waves, radiation and electromagnetic signatures developed rapidly and became a routine practice for intelligence services. The collection of information from open sources itself, together with the ability to analyze big data, has reached a unique stage. Old operational techniques have been converted into means of search and collection using technological mechanisms, giving an unprecedented range and breadth of data. Geolocation or determination in real time of an individual’s location, the electronic correspondent of surveillance, has been used, without further questioning, in several countries. This finding drives the development of this research, which once again verifies whether real-time geolocation can be used by ABIN, without this infringing national legislation and the privacy of individuals. It is in this context that it is essential to scrutinize the characteristics of intelligence services and the evolution of the right to privacy and data protection, also drawing a comparison between the instrumentality of data collection by the State with technology companies. Another important point to reach robust conclusions on the subject is to verify if the legislation, the chain and competence of authorization to act and the control mechanisms of the foreign intelligence services approach or distance themselves from the Brazilian one. Finally, an indepth examination of judicial decisions of the Federal Supreme Court and the Superior Court of Justice regarding privacy, data sharing, balancing of interests and static geolocation aims to reinforce the reasoning regarding the possibility of using geolocation in real time.

22
  • Alexandre Henrique Radis
  • PROTOCOLO SEGURO PARA INJEÇÃO DE CÓDIGO EM CUBESATS

  • Orientador : DANIEL CHAVES CAFE
  • MEMBROS DA BANCA :
  • JOAO JOSE COSTA GONDIM
  • DANIEL ALVES DA SILVA
  • GEORGES DANIEL AMVAME NZE
  • JANAINA GONCALVES GUIMARAES
  • Data: 30/06/2023

  • Mostrar Resumo
  • Um projeto de satélite do tipo CubeSat começa com a identificação de suas necessidades
    e continua com seu desenvolvimento, montagem, lançamento, operação e obsolescência.
    No entanto, as necessidades podem mudar ao longo do ciclo de vida do satélite, como em
    qualquer projeto. Nos satélites do tipo CubeSat, a inclusão de novos serviços se torna um
    grande desafio, devido à impossibilidade de acesso físico aos equipamentos.
    Injeção de código é uma solução que permite a inclusão de novos serviços em um satélite
    após seu lançamento. A inclusão de novos serviços em equipamentos microcontrolados
    apresenta diversos desafios de segurança, principalmente em satélites do tipo CubeSat, que
    possuem restrições de energia, 

    comunicação, processamento, memória, entre outros. É necessário
    proteger o sistema microcontrolado contra ataques de negação de serviço, violação
    de dados, desativação de equipamentos e sequestro. Não é possível usar técnicas como firewall,
    antivírus ou inteligência artificial.
    Como a inclusão de novos serviços nos microcontroladores significa a inclusão de novos
    códigos, e isso significa abrir uma grande oportunidade para ataques. É necessário mitigar
    esses ataques. Assim, o trabalho apresenta uma proposta de inclusão de novos códigos
    mitigando a possibilidade de ataques efetivos. Esta proposta é composta por medidas de
    segurança, protocolos de comunicação, utilização de HMAC para garantir o cumprimento e
    integridade dos novos códigos, e um sistema operativo em tempo real preparado para este
    desafio.
    O trabalho apresenta um estudo do estado da arte e um referencial bibliográfico sobre
    o assunto. Segue-se a proposta conceptual, a metodologia de implementação e teste dos
    conceitos, resultados e conclusões obtidos. Entre os resultados obtidos, foi possível observar
    a viabilidade das medidas proposta, a defesa de ataques de tentativa de injeção de códigos
    mau formados ou não autênticos e melhoria na execussão do SHA3 para o MSP430FR5994.
    Onde foi possível concluir a eficácia das medidas adotadas.


  • Mostrar Abstract
  • A CubeSat-type satellite project starts with identifying your needs and continues with
    its development, assembly, launch, operation and obsolescence. However, needs can change
    over the lifecycle of the satellite, as with any project. In CubeSat-type satellites, the inclusion
    of new services becomes a major access challenge, due to the physical impossibility of the
    equipment.
    Code injection is a solution that allows the inclusion of new services in a satellite after its
    launch. The inclusion of new services in microcontrolled equipment presents several security
    challenges, mainly in CubeSat-type satellites, which have restrictions on energy, communication,
    processing, memory, among others. It is necessary to protect the microcontrolled
    system against denial of service attacks, data breach, equipment deactivation and hijacking.
    It is not possible to use techniques such as firewall, antivirus or artificial intelligence.
    As the inclusion of new services in the microcontrollers means the inclusion of new
    codes, and this means opening up a great opportunity for attacks. It is necessary to mitigate
    these attacks. Thus, the work presents a proposal for the inclusion of new codes mitigating 

    the possibility of effective attacks. This proposal comprises security measures, communication
    protocols, the use of HMAC to ensure compliance and integrity of the new codes, and a
    real-time operating system prepared for this challenge.
    The work presents a study of the state of the art and a bibliographic reference on the
    subject. The conceptual proposal follows, the methodology for implementing and testing
    the concepts, results and conclusions obtained. Among the results obtained, it was possible
    to observe the viability of the proposed measures, the defense of attempted injection
    attacks of malformed or non-authentic codes and improvement in the execution of SHA3
    for the MSP430FR5994. Where it was possible to conclude the effectiveness of the adopted
    measures.

23
  • Liomar de Miranda Leite
  • PLATAFORMA IoT PARA SUPERVISÃO DE USINA FOTOVOLTAICA E AUTOMAÇÃO PREDIAL NO MINISTÉRIO DA DEFESA

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • DANIEL ALVES DA SILVA
  • EDNA DIAS CANEDO
  • Gilmar dos Santos Marques
  • Data: 30/06/2023

  • Mostrar Resumo
  • A energia elétrica hoje em dia é fundamental para o desenvolvimento da sociedade. Ela fornece luz, ajudano armazenamento de alimentos, permite o funcionamento de eletrônicos e eletrodomésticos e aumenta a qualidade de vida das pessoas, por meio da utilização de aparelhos de ar-condicionado, dentro outras maquinas. Devido os grandes problemas que o Brasil e o Mundo vem enfrentando com fontes energéticas, principalmente devido à escassez de chuvas e à consequente redução dos níveis dos reservatórios das hidrelétricas, além de escassez de fontes minerais como, carvão muito utilizado na china e gás natural muito utilizado em toda a a Europa. Dessa forma, as pequenas e grandes organizações tem realizado nos últimos anos grandes investimentosem fontes alternativas de energia, como eólica, energia solar, dentre outras. Tendo como objetivo central, a desoneração financeira a médio prazo e previsibilidade no planejamento de consumo energético. Porém as soluções comumente empregadas não preveem um acompanhamento amplo e não integram as mais diversas informações de consumo e operacionalidade. O presente trabalho tem como objetivo geral, a implementação de uma plataforma de supervisão IoTcom supervisório baseado em Sistemas tipo SCADA (Supervisory Control And Data Acquisition), para aintegração da usina de energia fotovoltaica instalada no Ministério da Defesa (MD) localizada na Esplanada dos Ministérios, Brasília-DF, estabelecendo indicadores e dados de operacionalidade predial, com autilização de recursos do Protocolo HTTP/Web, computação em nuvem e as orientações do Modelo de Arquitetura de Software RESTful. A plataforma integra os componentes inteligentes da usina fotovoltaica instalada no MD, como Inversores, otimizadores de potência, microcontroladores, sensores de temperatura e umidade, por exemplo, monitorando remotamente a planta de geração e os dispositivos de integração predial disponíveis. Além do desenvolvimento de um sistema de monitoramento via WEB Services (WS) e dispositivos móveis, o presente trabalho também apresenta análises de desempenho da usina fotovoltaica, permitindoo monitoramento contínuo e em tempo real dos dispositivos, detecção de falhas, análise financeira da produção de energia e fatores de economia.


  • Mostrar Abstract
  • In recent years, large organizations have made major investments in alternative energy sources, with thecentral objective of medium-term financial tax and predictability in energy consumption planning. However, the commonly used solutions do not provide for broad monitoring and do not integrate the most diverseinformation on consumption and operability. The present work has as a general objective, the implementation of a IoT supervision platform with supervisory based on SCADA type systems (Supervisory Control And Data Acquisition), for the integration of the photovoltaic power plant installed in the Ministry of Defense (MD) located on the Esplanade of Ministries, Brasília-DF, establishing indicators and data of building operability, with the use of resourcesof the HTTP/Web Protocol, cloud computing and the guidelines of the RESTful Software Architecture Model. The platform integrates the intelligent components of the photovoltaic plant installed in the MD, such as inverters, power optimizers, microcontrollers, temperature and humidity sensors, for example, remotely monitoring the generation plant and the available building integration devices. In addition to the development of a monitoring system via WEB Services (WS) and mobile devices, the present work also presents performance analysis of the photovoltaic plant, allowing continuous and real-time monitoring of devices, fault detection, financial analysis of energy production and saving factors

24
  • Flávio Garcia Praciano
  • Análise de integridade de dados e desempenho em cursos online utilizando métodos de aprendizado de máquina

  • Orientador : DANIEL ALVES DA SILVA
  • MEMBROS DA BANCA :
  • DANIEL ALVES DA SILVA
  • EDNA DIAS CANEDO
  • Gilmar dos Santos Marques
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 28/07/2023

  • Mostrar Resumo
  • Este trabalho objetiva uma pesquisa que se concentra na análise de integridade de dados e desempenho em cursos online, utilizando métodos de aprendizado de máquina. A minha proposta é desenvolver uma ferramenta capaz de prever o número de alunos que concluem o curso e identificar possíveis casos de abandono ou desistência. Para isso, utiliza algoritmos de aprendizado de máquina supervisionados, como máquinas vetoriais de suporte (SVM) e redes neurais artificiais (ANNs), que possibilitam uma análise detalhada e preditiva dos dados. A abordagem que adotei para a minha pesquisa foi a bibliográfica qualitativa, explorando dados de cursos online e utilizando técnicas de análise de dados. Por meio desses métodos de aprendizado da máquina, pude identificar padrões e tendências nos dados, permitindo uma compreensão mais aprofundada da integridade dos registros e do desempenho dos alunos. Isso fornece uma base sólida para a tomada de decisões estratégicas por parte dos gestores pela capacitação de pessoal. O objetivo principal dessa análise é melhorar a eficiência e a qualidade dos cursos online. Com a ferramenta que estou propondo, é possível antecipar resultados de conclusão de curso, identificar fatores que influenciam o abandono ou desistência dos alunos e implementar estratégias para aumentar a taxa de conclusão. Ao ter uma visão mais precisa do perfil dos alunos e dos desafios enfrentados, podemos tomar medidas proativas para aprimorar a oferta de cursos e proporcionar uma experiência de aprendizado mais satisfatória.


  • Mostrar Abstract
  • This work aims a research that focuses on analyzing data integrity and performance in online courses, using machine learning methods. My proposal is to develop a tool capable of predicting the number of students who complete the course and identify possible cases of dropout or withdrawal. For this, it uses supervised machine learning algorithms, such as support vector machines (SVM) and artificial neural networks (ANNs), which enable a detailed and predictive analysis of the data. The approach I adopted for my research was qualitative bibliographic, exploring data from online courses and using data analysis techniques. Through these machine learning methods, i was able to identify patterns and trends in the data, allowing for a deeper understanding of the integrity of the records and student performance. This provides a solid basis for strategic decision-making by managers for staff training. The main goal of this analysis is to improve the efficiency and quality of online courses. With the tool I am proposing, it is possible to anticipate course completion results, identify factors that influence student dropout and implement strategies to increase the completion rate. By having a more accurate view of the students’ profile and the challenges they face, we can take proactive measures to improve course delivery and provide a more satisfying learning experience

25
  • Bruno Soares Rabelo
  • Plataforma IoT para predição de falhas em freezers de vacinas a partir do monitoramento  contínuo da temperatura interna

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • DANIEL ALVES DA SILVA
  • EDNA DIAS CANEDO
  • FABIO LUCIO LOPES DE MENDONCA
  • NILMAR DE SOUZA
  • Data: 30/08/2023

  • Mostrar Resumo
  • A estrutura geral das redes da Internet das Coisas (IoT) ainda é um assunto interessante para pesquisa e inovação. O monitoramento geral de dispositivos em redes se torna um desafio grande nessas redes. Este artigo propõe um o estudo através de uma plataforma  de IoT para o monitoramento preventivo e contínuo da temperatura interna em freezers ultra-low, utilizados em armazenamento de vacinas. O objetivo é realizar um estudo de predição de alhas e paradas inesperadas através de tecnologias de Inteligência Artifícial. A proposta é a criação de um modelo de arquitetura de sistema IoT composto por uma unidade física Hardware para coleta local de da dos e envio e sensores de temperatura, uma camada de middleware através de um servidor cloud que realiza a coleta de dados dos dispositivos realizando um monitoramento contínuo (24/7) de temperatura em freezers que encontra se distribuídos em diversas instituições de saúde no Brasil. Além disso, possui uma camada de aplicação a fim de identificar indícios de falha através da utilização de métodos estatísticos com algoritimos específicos, utilizando modelos preditivos para series temporais.


  • Mostrar Abstract
  • The general structure of Internet of Things (IoT) networks is still an interesting subject for research and innovation. The general monitoring of devices in networks becomes a big challenge in these networks. This article proposes a study of an IoT platform for continuous monitoring of the internal temperature in ultra-low freezers used in vaccine storage to predict failures and unexpected stops. The proposal is to create an IoT system architecture model composed of a physical unit (Hardware) for local data collection and sending, temperature sensors and a cloud server that performs continuous (24/7) temperature monitoring in distributed freezers. in several health institutions in Brazil, in order to identify signs of failure through the use of a statistical method using predictive models for time series.

26
  • MOISES SILVA DE SOUSA
  • O uso da engenharia de atributos para otimizar o desempenho de modelos de aprendizado de máquina supervisionado aplicados a sistemas de detecção de intrusão.

  • Orientador : WILLIAM FERREIRA GIOZZA
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • LEANDRO ALVES NEVES
  • WILLIAM FERREIRA GIOZZA
  • Data: 20/12/2023

  • Mostrar Resumo
  • O uso de técnicas de aprendizado de máquina (ML) para a construção de sistemas de detecção de intrusão (IDS) vem crescendo a cada ano. Numerosas tecnologias de ML surgiram, permitindo construir modelos preditivos de aprendizado para identificar e detectar anomalias de tráfego de rede. Parte das técnicas de ML é uma abordagem não parametrizada, extraindo dados de grandes conjuntos de dados de forma indiscriminada que inclui dados irrelevantes e redundantes, afetando negativamente o de-sempenho dos algoritmos de classificação de ML. No entanto, é possível fornecer a uma técnica de ML a capacidade de extrair dados adequadamente do conjunto de dados selecionando um subconjunto apropri-ado de atributos, ou seja, por meio de engenharia de atributos (FE – feature engineering), que permite melhorar o desempenho da extração de dados, processos de ML de formação e classificação. Este trabalho discute como a engenharia de atributos pode ser usada para melhorar os processos de ML em sistemas IDS. Em particular, demonstra que com uma seleção adequada de atributos, o processo de treinamento pode ser reduzido, melhorando a velocidade de processamento e mantendo a precisão de classificação desejada. Os experimentos de avaliação de desempenho são baseados na plataforma de software WEKA usando os conjuntos de dados NSL-KDD e CID-IDS, além do SupportVector Machine (SVM) como algoritmo de classificação de aprendizado de má-quina. Utilizando diferentes razões de divisão testetreinamento de dados (60-40, 70- 30 e 80- 20) e técnicas de seleção de atributos (Information Gain, Correlation e Correlationbased Feature Selection – CFS) este trabalho alcança resultados que permitem entender como a engenharia de atributos pode impactar positivamente o desempenho de um sistema ML-IDS


  • Mostrar Abstract
  • The use of machine learning (ML) techniques for building intrusion detection systems (IDS) has been growing every year. Numerous ML technologies have been emerged allowing to build predictive learning models in order to identify and detect network traffic anomalies using IDS. A part of the ML techniques is a nonparameterized approach, extracting data from large datasets in an undiscriminated way which includes irrelevant and redundant data, affecting adversely the performance of the ML classification algorithms. However, it is possible to provide to a ML technique the ability to properly extract data from the dataset by selecting an appropriate subset of attributes, i.e., by means of feature engineering (FE), that allows to improve the performance of the data extraction, training and classification ML processes. This work discusses how feature engineering can be used to improve the ML processes in IDS systems. In particular, it demonstrates that with an appropriate selection of attributes, the training process can be disrupted, improving the processing speed while maintaining the desired classification accuracy. The performance evaluation experiments are based on the WEKA software platform using the dataset NSL-KDD and the Support-Vector Machine (SVM) as machine learning classification algorithm. By using different data testtraining division ratios (60- 40, 70- 30 and 80-20) and attribute selection techniques (Information Gain, Correlation Gain and Correlation-based Feature Selection – CFS) this work achieves results that allow to understand how feature engineering may impact positively the performance of an ML-IDS system.

2022
Dissertações
1
  • SÂMMARA ELLEN RENNER FERRÃO
  • Proposta de uma Taxonomia de Requisitos de Privacidade Baseada na LGPD e ISO/IEC 29100: Aplicação Prática no Open Banking Brasil

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • FABIANA FREITAS MENDES
  • JOAO PAULO ABREU MARANHAO
  • Data: 12/07/2022

  • Mostrar Resumo
  • Contexto: A preocupação com a privacidade de dados é algo que vem se destacando ao longo dos anos no mundo. No Brasil a Lei Geral de Proteção de Dados (LGPD) [42] foi publicada em agosto de 2018 e entrou em vigor dois anos após a sua publicação. Porém, algumas dificuldades ainda são enfrentadas pelas equipes de desenvolvimento na adequação dos mecanismos tecnológicos por parte das organizações que ainda estão em processo inicial de conformidade à LGPD [56]. Objetivo: Este trabalho propõe uma taxonomia de requisitos de privacidade baseada na LGPD e na ISO/IEC 29100 com o objetivo de apoiar as equipes de desenvolvimento de software no alcance da conformidade com os princípios da LGPD. Método: Foi realizada uma revisão sistemática de literatura (RSL) para identificar as taxonomias de privacidade de dados existentes na literatura com o objetivo de apoiar a elaboração da taxonomia proposta neste trabalho e a sua aplicação no projeto do Open Banking Brasil (OPB). Esse projeto é adequado pois compartilha os dados dos seus clientes a partir de seu consentimento, que está fundamentado na LGPD, tornando-se um projeto interessante para avaliação da aderência à legislação. A aplicação prática da taxonomia proposta foi realizada no processo de solicitação de consentimento e nos termos e condições de três bancos brasileiros a partir da aplicação da taxonomia proposta através de um formulário. Resultado: A RSL identificou 10 estudos primários, mas nenhum deles propuseram uma taxonomia de requisitos de privacidade no contexto da LGPD. A taxonomia proposta gerou 129 requisitos, divididos em 10 categorias e 5 contextos. Conclusão: A aplicação prática da taxonomia resultou em um percentual satisfatório de aderência aos requisitos de privacidade. Portanto, a aplicação da taxonomia em um contexto real demonstrou que a taxonomia pode apoiar as equipes de desenvolvimento de software na busca pela adequação à LGPD dos requisitos de privacidade especificados pelas equipes de desenvolvimento.


  • Mostrar Abstract
  • Context: The concerning about data privacy has been highlighted over the years on the world. In Brazil the General Data Protection Law (LGPD) [42] was published in August 2018 and entered into force two years after its publication. However, some primor difficulties are still faced into the institution by the praticioners in the process of complying to LGPD [56] yet. Goal: This work proposes a taxonomy of privacy requirements based on LGPD and ISO/IEC 29100 in order to support software development teams in achieving compliance with LGPD principles. Method: A Systematic Literature Review (SLR) was carried out to identify existing data privacy taxonomies in the literature in order to support the elaboration of the taxonomy proposed in this work and its application in the Open Banking Brazil project (OPB). This project is suitable as it shares its customers’ data based on their consent, which is based on LGPD, making it an interesting project to assess compliance with the legislation. The practical application of the proposed taxonomy was carried out in the consent request process and in the terms and conditions of three Brazilian banks from the application of the proposed taxonomy through a form. Result: The SLR identified 10 primary studies, but none of them proposed a taxonomy of privacy requirements in the context of LGPD. The proposed taxonomy generated 129 requirements, divided into 10 categories and 5 contexts. Conclusion: The practical application of the taxonomy resulted in a satisfactory percentage of adherence to privacy requirements. Therefore, the application of the taxonomy in a real context demonstrated that the taxonomy can support software development teams in the search for compliance with LGPD of the privacy requirements specified by the development teams.

2
  • André Luiz Bandeira Molina
  • WEAPON: Uma Arquitetura de Aprendizado Não Supervisionado para Detecção de Anomalias de Comportamento de Usuários

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • DEMETRIO ANTONIO DA SILVA FILHO
  • FELIPE TALIAR GIUNTINI
  • GERALDO PEREIRA ROCHA FILHO
  • LAURO CÉSAR ARAÚJO
  • Data: 15/09/2022

  • Mostrar Resumo
  • Nos últimos anos, a detecção de anomalias de comportamento do usuário tem conquistado a atenção em segurança cibernética. Um dos desafios cruciais que têm sido pesquisados na literatura é que modelos supervisionados que utilizam grandes quantidades de dados para treinamento não se aplicam a cenários reais de detecção de anomalias. Em contrapartida, modelos não supervisionados tendem a apresentar problemas de escalabilidade com relação ao número de usuários do dataset, uma vez que abordam os aspectos comportamentais de forma individual para cada usuário. Dentro deste contexto, a necessidade de obter datasets rotulados com anomalias de comportamento provou ser um fator limitante para avaliar diferentes modelos, e esta limitação é explorada nesta pesquisa. Este trabalho apresenta WEAPON, uma arquitetura para a detecção de anomalias de comportamento de usuários baseada Wide and Deep Convolutional LSTM Autoencoders. O WEAPON utiliza aprendizado não supervisionado e requer uma pequena quantidade de dados para construir perfis de comportamento considerando a individualidade de cada usuário. Além disso, o WEAPON implementa uma abordagem de supervisão fraca para rotulação de anomalias de comportamento a partir do Snorkel. Quando comparado com outras abordagens, o WEAPON provou ser mais eficiente superando o segundo melhor modelo em 4,31% na curva ROC. Além disso, WEAPON supera os métodos baseados em regras ao encontrar anomalias que um especialista não anteciparia.


  • Mostrar Abstract
  • In recent years, user behavior anomaly detection has been gaining attention in cybersecurity. A crucial challenge that has been discussed in the literature is that supervised models that use vast amounts of data for training do not apply to real scenarios for anomaly detection. In contrast, unsupervised models tend to face scalability problems with respect to the number of users in the dataset, since they address behavioral aspects on an individual basis for each user. Within this context, the requirement to gather datasets with labeled behavior anomalies has proven to be a significant limiting factor for evaluating different models, and this limitation is explored in this research. This work presents WEAPON, an architecture for user behavior anomaly detection based on Wide and Deep Convolutional LSTM Autoencoders. WEAPON uses unsupervised learning and requires a small amount of data to build behavior profiles considering the individuality of each user. Furthermore, WEAPON implements weak supervision-based behavior anomaly labeling approach using Snorkel. When compared to other approaches, WEAPON proved to be more efficient, surpassing the ROC curve of the second best model by 4.31%. Furthermore, WEAPON outperforms rule-based methods by finding anomalies that an expert would not anticipate

3
  • Márcio Aurélio de Souza Fernandes
  • REPOSITÓRIO SEGURO E O IMPACTO GERADO PELA LEI GERAL DE PROTEÇÃO DE DADOS PESSOAIS (LGPD)


  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • ALTAIR OLIVO SANTIN
  • EDNA DIAS CANEDO
  • GEORGES DANIEL AMVAME NZE
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 19/09/2022

  • Mostrar Resumo
  • Diversos trabalhos têm investigado como realizar a adequação à Lei Geral de Proteção de Dados Pessoais (LGPD) em relação à privacidade dos dados dos usuários. Diante desse cenário de adequação à LGPD, esse trabalho tem como objetivo realizar uma análise dos princípios da LGPD e investigar o nível de conhecimento dos profissionais de tecnologias da informação e da comunicação (TIC) que trabalham direta e indiretamente com a lei. Além disso, procura-se investigar se repositório digitais seguros, em conformidade com a ISO 16363:2012 [1], também estão em conformidade com as diretrizes da LGPD. Para alcançar o objetivo dessa dissertação, foram estabelecidas três etapas de execução, a saber: 1) uma análise das legislações sobre a privacidade de dados; 2) a condução de um survey com 43 profissionais de ICT que atuam em organizações públicas e privadas - o survey contém 21 questões que abrangem legislação e tecnologia; e 3) uma análise técnica do Archivematica através de testes práticos, estáticos e dinâmicos com o auxílio de soluções open-source para realizar uma varredura de vulnerabilidades em sistemas. Os resultados demonstram que, mesmo após a LGPD entrar em vigor, 10% dos profissionais de ICT não conhecem os princípios da lei. Em relação à forma de armazenamento seguro, 45% dos profissionais de ICT afirmaram não ter conhecimento de como suas organizações realizam o armazenamento dos dados dos usuários ou o compartilhamento desses dados. 25% dos profissionais de ICT afirmaram que estão cientes que seus dados podem ser compartilhados pelas organizações. A análise realizada pela ferramenta Archivematica apresentou alguns problemas que podem indicar vulnerabilidades. A maioria dos problemas identificados pela ferramenta foram classificados como de níveis baixos e médios e podem resultar em oportunidades para possíveis atacantes, embora eles precisem de uma série de variantes para obter sucesso no ataque. Os resultados também demonstraram que os profissionais de ICT responsáveis pela adequação/conformidade da organização à LGPD precisam de cursos de aperfeiçoamento para realizar as atividades relacionadas à privacidade de dados e segurança da informação, e que o repositório seguro Archivematica, apesar de cumprir os requisitos definidos pelo órgão legislador para ser considerado seguro, não está em conformidade com a LGPD em relação às diretrizes relacionadas à Segurança e Privacidade de Dados. Dessa forma, faz-se necessária a realização de ajustes nos processos organizações e soluções de software das organizações. Sendo importante destacar dois pontos: o primeiro é a restruturação organizacional, que visa melhorar a integração entre áreas e departamentos; e o segundo é a transparência, pois a LGPD destaca que regras precisam ficar explicitas para os usuários, inclusive acessos e permissões.


  • Mostrar Abstract
  • Several studies have researched how to adapt the General Data Protection Law (GDPL) according to the privacy of the user’s data. Facing this compliance scenario, this study aims to conduct an analysis of the principles of the LGPD and investigate the knowledge level of information and communications technology (ICT) professionals working directly and indirectly with this law. In addition, investigate whether Archivematica secure storage service is in accordance with the GDPL guidelines. To achieve this essay’s purposes, three execution stages were established as follows: 1) an analysis of data privacy laws; 2) conducting a survey with 43 ICT professionals working in public and private organizations; and 3) a technical analysis of Archivematica through practical, static, and dynamic tests with the help of open-source solutions to perform a vulnerability scan. The results show that even after the GDPL enters into force, 10% of those ICT professionals do not know the principles of the law. Regarding the storage service, 45% of the ICT professionals stated they have no knowledge on how their organizations store user data or share them and 25% of the ICT professionals claimed they are aware that their data can be shared by the organizations. The analysis performed by Archivematica evidenced issues that may indicate vulnerabilities. Majority of the issues identified by the tool were classified as low and medium risks and could result in opportunities for attackers, although they would need a series of variants to succeed. The results also showed that the ICT professionals responsible for the adequacy/compliance of the organizations need further training courses to conduct activities related to data privacy and information security, and that the Archivematica secure storage service, whilst meets with the defined requirements by the legislating body to be considered safe, does not comply with the GDPL guidelines related to data security and privacy. Therefore, it is necessary to highlight two points: the first is the organizational restructuring, which aims to improve the integration between areas and departments, and the second is the transparency, as GLPD emphasizes that rules need to be explicit to users, including access and permissions.

4
  • Fábio Galvão Ferreira Tabosa
  • Avaliação da evolução pós-pandemia da propensão ao enfrentamento de riscos de computação em nuvem por gestores da Administração Pública Federal

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • RAFAEL RABELO NUNES
  • DEMETRIO ANTONIO DA SILVA FILHO
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • SÉRGIO AUGUSTO SANTOS DE MORAES
  • Data: 22/09/2022

  • Mostrar Resumo
  • Este trabalho teve como objetivo avaliar o enfrentamento dos riscos ao se implantar serviços de computação em nuvem sob a ótica dos gestores de órgãos públicos federais no Brasil. Para alcançar o objetivo proposto, foram realizadas entrevistas semiestruturadas com servidores de nível estratégico, tático e operacional, envolvidos com a gestão de tecnologia da informação de vinte e três órgãos da Administração Pública Federal por meio de um estudo longitudinal pré e pós-pandemia de COVID-19. Os dados foram analisados com base nas recomendações de entidades internacionais para enfrentamento de riscos dessa natureza, fundamentados em nove dimensões: legislação e regulamentações; governança de TIC; privacidade e proteção de dados; segurança das operações e comunicações; isolamento de cliente em nuvem; gestão de identidade e de acessos; resposta a incidentes; continuidade dos negócios; e conformidade e auditoria. Os resultados demonstraram que ainda há um caminho a ser percorrido para a completa implementação desses serviços na Administração Pública Federal, principalmente no que se refere a questionamentos acerca dos riscos que estão atrelados ao seu uso, com atenção ao tratamento de dados sensíveis, governança e segurança. Em complemento, para se implementar o serviço de computação em nuvem como proposto pela Lei de Governo Digital, os achados sugerem a necessidade de enfrentar riscos de transposição complexa que ainda não foram superados por completo, uma vez que o momento atual demonstra que a implantação já ocorreu e a fase agora é de operação dos serviços em computação em nuvem.


  • Mostrar Abstract
  • This work aimed to evaluate the facing of risks when deploying Cloud Computing services from the perspective of managers of federal public agencies in Brazil. To achieve the proposed objective, semi-structured interviews were conducted with servers at strategic, tactical and operational levels, involved with the management of information technology in twenty-three federal public administration agencies through a longitudinal study before and after the COVID-19 pandemic. The data were analyzed based on the recommendations of international entities to face risks of this nature, based on nine dimensions: legislation and regulations; ICT governance; data privacy and protection; operations and communications security; cloud client isolation; identity and access management; incident response; business continuity; and compliance and auditing. The results showed that there is still a way to go for the complete implementation of these services in the Public Administration, especially when it comes to questions about the risks that are linked to their use, with attention to the treatment of sensitive data, governance and security. In addition, to implement the cloud computing service as proposed by the Digital Government Law, the findings suggest the need to face complex transposition risks that have not yet been completely overcome, since the current moment shows that the implementation has already occurred and the phase now is the operation of cloud computing services

5
  • Lucas José Borges Amaro
  • METHODOLOGICAL FRAMEWORK TO COLLECT, PROCESS, ANALYZE AND VISUALIZE CYBER THREAT INTELLIGENCE DATA

  • Orientador : WILLIAM FERREIRA GIOZZA
  • MEMBROS DA BANCA :
  • Adriano Mauro Cansian
  • FABIO LUCIO LOPES DE MENDONCA
  • JOAO JOSE COSTA GONDIM
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 05/10/2022

  • Mostrar Resumo
  • Os ataques cibernéticos têm aumentado em frequência nos últimos anos, afetando pequenas, médias e grandes empresas, criando uma necessidade urgente de soluções e ferramentas capazes de auxiliar na mitigação e resposta às ameaças. Assim, com o aumento do número de ataques cibernéticos, temos uma grande quantidade de dados de ameaças de fontes heterogêneas que precisam ser ingeridos, processados e analisados a fim de obter percepções úteis para sua mitigação. Este trabalho propõe uma estrutura metodológica para coletar, organizar, filtrar, compartilhar e visualizar dados de ameaças cibernéticas para mitigar ataques e corrigir vulnerabilidades, com base em um modelo de inteligência de ameaças cibernéticas de oito etapas com visualização em linha do tempo de informações de ameaças e insights de dados analíticos. Desenvolvemos uma ferramenta para atender a essas necessidades em que o analista de segurança cibernética pode inserir dados de ameaças, analisá-los e criar uma linha do tempo para obter insights e uma melhor contextualização de uma ameaça. Os resultados mostram a facilitação da compreensão do contexto em que as ameaças e os atacantes estão inseridos, tornando o uso de Cyber Threat Inteligence mais amigável ao usuário final.


  • Mostrar Abstract
  • Cyber attacks have increased in frequency in recent years, affecting small, medium and large companies, creating an urgent need for solutions capable of helping on the mitigation and response of such threats. Thus, with the increasing number of cyber attacks, we have a large amount of threat data from heterogeneous sources that needs to be ingested, processed and analyzed to obtain useful insights for their mitigation. This work proposes a methodological framework to collect, organize, filter, share and visualize cyber-threat data to mitigate attacks and fix vulnerabilities, based on an eight-step Cyber Threat Intelligence model with timeline visualization of threats information and analytic data insights. We developed a tool to address those needs in which the cyber security analyst can insert threat data, analyze them and create a timeline to get insights and a better contextualization of a threat. Results show the facilitation of understanding the context in which the threats are inserted, making the mitigation of vulnerabilities more effective.

6
  • Israel Barbosa de Brito
  • Um banco de testes de código aberto baseado no Protocolo Modbus para análise de segurança cibernética de usinas de energia nuclear.

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • DEMETRIO ANTONIO DA SILVA FILHO
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • RODNEY APARECIDO BUSQUIM E SILVA
  • WILLIAM FERREIRA GIOZZA
  • Data: 07/11/2022

  • Mostrar Resumo
  • A possibilidade de ataques cibernéticos contra infra-estruturas críticas, e em particular contra centrais nucleares, tem suscitado vários esforços por parte dos meios académicos. Muitos destes trabalhos visam captar as vulnerabilidades dos sistemas de controle industrial utilizados nas centrais por meio de simulações de computador e hardware. Contudo, os resultados gerais nesta área são limitados pelo custo e diversidade do equipamento comercial e protocolos existentes, bem como pela complexidade inerente das centrais nucleares.

    Esta situação motiva a presente dissertação a introduzir banco de ensaio para o estudo de ataques cibernéticos contra uma simulação realista de central nuclear. A nossa abordagem consiste em examiar questões relativas a simulações de centrais nucleares e em conceber e validar experimentalmente um banco de ensaio de software para a análise controlada de ataques cibernéticos contra a central nuclear simulada.

    A proposta integra ambiente de rede Modbus/TCP simulado contendo elementos básicos de controle industrial implementados com componentes de software de código-fonte aberto.

    Validamos a arquitetura do banco de ensaios proposto realizando e analisando um ataque cibernético representativo no ambiente desenvolvido.

    O ataque cibernético escolhido, realizado por agente interno, foi bem sucedido na modificação de uma variável operacional que é utilizada para gerir a central nuclear, enquanto o valor não modificado era apresentado aos operadores de controle da usina. Este ataque também permite explicar como o banco de ensaio proposto pode ser utilizado para a análise de outros ataques cibernéticos.

    A potencial utilização do banco de ensaio proposto para estudar a detecção de intrusão também foi explorada. Para mostrar como as técnicas de Inteligência Artificial poderiam ser utilizadas para detectar ataques; extraímos 6 conjuntos de dados do nosso banco de ensaio, cada um contendo dados de funcionamento normal, bem como de diferentes ataques. Estes conjuntos de dados foram utilizados para treinar 5 diferentes algoritmos de Aprendizagem de Máquina, e a sua relativa precisão foi avaliada.

    Este tipo de análise promete novas utilizações e orientações futuras para o trabalho, como por exemplo, para a implementação de mecanismos defensivos na topologia de rede do sistema de controle industrial para melhor proteger a central nuclear dos ataques cibernéticos.


  • Mostrar Abstract
  • The possibility of cyber-attacks against critical infrastructure, and in particular nuclear power plants, has prompted several efforts by academia. Many of these works aim to capture the vulnerabilities of the industrial control systems used in these plants through computer simulations and hardware in the loop configurations. However, general results in this area are limited by the cost and diversity of existing commercial equipment and protocols, as well as by the inherent complexity of the nuclear plants. In this context, this work introduces a testbed for the study of cyber-attacks against a realistic simulation of a nuclear power plant. Our approach consists in surveying issues regarding realistic simulations of nuclear power plants and to design and experimentally validate a software testbed for the controlled analysis of cyberattacks against the simulated nuclear plant. The proposal integrates a simulated Modbus/TCP network environment containing basic industrial control elements implemented with open-source software components. We validate the proposed testbed architecture by performing and analyzing a representative cyberattack in the developed environment, thus showing the principles for the analysis of other possible cybernetic attacks. Finally, we discuss the possibility of using the testbed for studying intrusion detection techniques, especially through machine learning, and for implementing defensive capabilities.

7
  • Igor Forain de Sá Freire
  • Data Collection and Processing Pipeline for Cyber Vulnerability Intelligence

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • MARIO ANTONIO RIBEIRO DANTAS
  • RAFAEL RABELO NUNES
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 18/11/2022

  • Mostrar Resumo
  • Os ataques cibernéticos são uma realidade onipresente hoje em dia, afetando organizações e países em todo o mundo. Em 2021, os incidentes de segurança da informação resultaram em bilhões de dólares em perdas. A maioria desses eventos resulta de vulnerabilidades conhecidas em ativos de tecnologia da informação. Entretanto, vários bancos de dados e fontes heterogêneos hospedam informações sobre essas falhas, tornando a avaliação de risco difícil. Apesar de bancos de dados de vulnerabilidades respectivamente apoiados pelos governos dos EUA e da China, eles diferem em operação e cobertura, o que dificulta e torna custosos os processos de avaliação de vulnerabilidades. Este trabalho propõe uma metodologia para comparar o National Vulnerability Database (NVD) dos EUA, o China National Vulnerability Database (CNVD), o China National Vulnerability Database of Information Security (CNNVD), e o Exploit Database (EDB). Os resultados revelam que o CNNVD tem mais 1.661 registros de vulnerabilidades do que o NVD e pelo menos mais 40 registros relativos a fornecedores chineses. Além disso, eles mostram uma correlação temporal de 0,917560 com 70% de similaridade de texto entre o NVD e o CNNVD, indicando que apesar do último seguir o primeiro, não é uma tradução automática dele. Além disso, uma correlação temporal de 0,917560 com 70% de similaridade de texto entre o NVD e o CNNVD mostra que o último não é uma tradução automática do primeiro. Além disso, este trabalho propõe um Recommender Exploitation-Vulnerability System (REVS) com a Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) para ordenar a vulnerabilidades. O REVS funciona como um sistema de varredura e priorização de vulnerabilidades, utilizando orquestradamente bancos de dados governamentais e registros de exploits. As provas de conceito no emulador GNS3 mostram que a proposta deste trabalho identifica mais nove vulnerabilidades do que a ferramenta comercial Vulners e que os atributos dos exploits são critérios mais importante do que os parâmetros do Common Vulnerability Scoring System (CVSS) para priorizar vulnerabilidades. De acordo com o referncial bibliográfico utilizado, este trabalho é o primeiro a normalizar e comparar o NVD, CNVD, CNNVD e EDB, mostrando que as bancos de dados de vulnerabilidades patrocinados pela China estão empregando exploits para inferir CVEs de status reservado


  • Mostrar Abstract
  • Cyber attacks are a ubiquitous reality nowadays, affecting organizations and countries worldwide. In 2021, information security incidents resulted in billions of dollars in losses. Most of those events result from known vulnerabilities in information technology assets. However, several heterogeneous databases and sources host information about those flaws, turning the risk assessment difficult. Despite massive vulnerability databases that are respectively supported by the USA and China governments, they differ in operation and coverage, which hinders and turns uncertain risk assessment processes. This work proposes a methodology to compare the USA National Vulnerability Database (NVD), the China National Vulnerability Database (CNVD), the China National Vulnerability Database of Information Security (CNNVD), and the Exploit Database (EDB). The results reveal that the CNNVD has 1,661 vulnerabilities entries more than the NVD and at least 40 more entries regarding Chinese vendors. Besides, they show a temporal correlation of 0.917560 with 70% of text similarity between the NVD and CNNVD, indicating that despite the latter tracking the former, it is not an automatic translation of the NVD. Moreover, this work proposes a Recommender Exploitation-Vulnerability System (REVS) with the Technique for Order Preference by Similarity to Ideal Solution (TOPSIS) using entropy-based weighting to rank vulnerability-exploit. REVS works as a network scanning and recommender system leveraging a mix of national vulnerability and exploit databases. Experiments evaluated in the GNS3 emulator show that this work approach identifies nine more vulnerabilities than the commercial tool Vulners and that the exploit features are more important criteria than the Common Vulnerability Scoring System (CVSS) parameters to rank vulnerabilities. To the best of the authors’ knowledge, this work is the first to normalize and compare the NVD, CNVD, CNNVD, and EDB, showing that the Chinese national vulnerability databases are leveraging exploit data to infer reserved status CVEs.

8
  • EDUARDO DE OLIVEIRA LIMA
  • UMA AVALIAÇÃO DO CENÁRIO DA GESTÃO DE RISCOS CIBERNÉTICOS NO SETOR ELÉTRICO BRASILEIRO SOB A ÓTICA DA ROTINA OPERACIONAL DO ONS RO-CB.BR.01

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • RAFAEL RABELO NUNES
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • WILLIAM FERREIRA GIOZZA
  • IONY PATRIOTA DE SIQUEIRA
  • Data: 25/11/2022

  • Mostrar Resumo
  • O avanço tecnológico pelo qual o Sistema Elétrico de Potência – SEP vem passando inseriu uma série
    de novas variáveis e questões importantes nesse ambiente que devem ser consideradas. Uma delas é a
    segurança dos dados trafegados entre as geradoras, transmissoras e distribuidoras de energia elétrica e seus
    Sistemas de Proteção, Comando, Aquisição de Dados e Supervisão (SPCS/SCADA). O planejamento e
    a gestão de riscos cibernéticos passaram a atuar fortemente em prevenção e recuperação. O Operador
    Nacional do Sistema Elétrico – ONS, visando estabelecer controles mínimos de segurança cibernética
    a serem implementados pelos agentes e pelo próprio ONS, definiu o Ambiente Regulado Cibernético –
    ARCiber, inserido no Manual de Procedimentos da Operação - Módulo 5 – Submódulo 5.13, por meio
    da Rotina Operacional RO-CB.BR.01 R00, de 09/07/2022, o qual estipulou uma série de orientações que
    deverão ser obrigatoriamente seguidas pelos agentes do Setor Elétrico Brasileiro – SEB. Com base no
    ambiente de Segurança Cibernética ARCiber, este trabalho tem por objetivo analisar o cenário da gestão
    de riscos cibernéticos do SEB. Para tanto, se buscou dois objetivos específicos, quais sejam: em primeiro
    plano a realização de uma comparação qualitativa entre os controles propostos pelo Framework CIS CSC e
    os controles mínimos necessários definidos pelo ARCiber e, em segundo plano, a realização de uma análise
    de conteúdo do Manual SCADA da Siemens [1] para avaliar a abrangência dos procedimentos de backup e
    recuperação de dados do sistema SCADA e sua conformidade com os controles definidos no Macrocontrole
    11 – Recuperação de Dados do Framework CIS CSC. Os resultados mostram que apenas um dos dezoito
    grupos de controle que o ONS recomenda excede as exigências desse Framework. Em contraponto, cinco
    outros grupos de controle não são mencionados pelas recomendações do ONS, dentre eles o Macrocontrole
    11 – Recuperação de Dados, e, para os outros grupos, os requisitos do ONS ficam aquém da estrutura do
    CIS CSC. Apesar de se ter verificado a conformidade entre o Framework CIS CSC e os aspectos funcionais
    e tecnológicos existentes no processo de recuperação de dados do sistema SCADA, não é possível garantir
    que empresas do setor elétrico brasileiro executem as rotinas de recuperação de forma sistemática. A
    relevância desse trabalho está na possibilidade da construção de um debate acerca do tema, diante das
    recentes ações do ONS para enfrentar os riscos cibernéticos associados à infraestrutura operacional do
    SEB, que, conforme os resultados, ainda necessitam de melhorias em sua maturidade operacional e de
    gestão.


  • Mostrar Abstract
  • The technological advance through which the Power Electric System - SEP has been going through has
    inserted a series of new variables and essential issues in this environment that must consider. One is the

    security of the data exchanged between power generators, transmitters, and distributors and their Protec-
    tion, Command, Data Acquisition, and Supervision Systems (SPCS/SCADA). Cyber risk planning and

    management have moved firmly into prevention. The National Electric System Operator - ONS, aiming to 

    establish minimum cyber security controls to be implemented by the agents and by ONS itself, has defined
    the Regulated Cyber Environment - ARCiber, inserted in the Manual of Operating Procedures - Module 5
    - Submodule 5.13, through the Operational Routine RO-CB.BR.01 R00, of 07/09/2022, which stipulated
    a series of guidelines that must be compulsorily followed by the agents of the Brazilian Electric Sector -
    SEB. Based on the ARCiber CyberSecurity environment, this work aims to analyze the SEB’s cyber risk
    management scenario. For this purpose, two specific objectives were sought: in the first place realization
    of a qualitative comparison between the controls proposed by the CIS CSC Framework and the minimum
    necessary controls defined by ARCiber and, in the background, the awareness of a content analysis of the
    Siemens SCADA Manual [1] to evaluate the scope of the procedures for backup and recovery of data of
    the SCADA system and its compliance with the defined controls in Macro Control 11 - Data Recovery of

    the CIS CSC Framework. The results show that only one of the eighteen control groups that ONS recom-
    mends exceeds the requirements of this Framework. In contrast, ONS does not mention five other control

    group recommendations, including Macro control 11 - Data Recovery. For the other groups, the ONS re-
    quirements fall short of the CIS CSC Framework. Despite verifying the conformity between the CIS CSC

    Framework and the functional and technological aspects of the SCADA system’s data recovery process, it
    is impossible to guarantee that companies in the Brazilian electric power sector systematically execute the
    recovery routines. The relevance of this work lies in the possibility of building a debate about the theme,
    given the recent actions of ONS to address the cyber risks associated with the operational infrastructure
    of the Brazilian Electric System (SEB), which, according to the results, still need improvements in their
    operating and management maturity.

9
  • Francisco Luziaro de Sousa
  • Transformação Digital no Contexto da Inteligência de Estado: Análise e Mitigação das Vulnerabilidades do Documento Digital

  • Orientador : RAFAEL RABELO NUNES
  • MEMBROS DA BANCA :
  • RAFAEL RABELO NUNES
  • DANIEL CHAVES CAFE
  • JOAO JOSE COSTA GONDIM
  • WASHINGTON LUÍS RIBEIRO DE CARVALHO SEGUNDO
  • Data: 09/12/2022

  • Mostrar Resumo
  • Esta pesquisa tem natureza aplicada, seu objetivo é propor medidas que assegurem as propriedades imprescindíveis ao documento de inteligência frente às vulnerabilidades advindas do documento digital. O trabalho emprega metodologia exploratória de abordagem qualitativa por meio de análise de conteúdo documental de trabalhos acadêmicos selecionados a partir de Revisão Sistemática de Literatura combinada com método TEMAC. O estudo identifica relação entre vulnerabilidades do documento digital e propriedades imprescindíveis ao documento de inteligência; valida medidas eficazes na mitigação destas vulnerabilidades, entre elas a Cadeia de Custódia Digital e a Curadoria Digital previstas na hipótese de pesquisa; apresenta proposta de diretrizes aplicáveis à arquitetura de governança do órgão para a implantação das medidas de mitigação; aponta lacunas técnicas a superar para a efetiva integração entre Sistema Informatizado de Gestão Arquivística de Documento (SIGAD) e Repositório Digital Confiável (RDC-Arq); lança bases para estudos de caso voltados para implantação de repositórios digitais com certificação de confiabilidade; e sugere estudos aprofundados sobre Long Term Digital Preservation as a Service (LTDPaaS) como plataforma de armazenamento confiável para arquitetura de nuvem


  • Mostrar Abstract
  • This research has an applied nature, its objective is to propose measures that ensure the essential properties of the intelligence document against the vulnerabilities arising from the digital document. The work employs an exploratory methodology with a qualitative approach through the analysis of documental content of academic papers selected from the Systematic Literature Review. The study identifies a relationship between vulnerabilities of the digital document and essential properties of the intelligence document; validates effective measures to mitigate these vulnerabilities, including the Digital Chain of Custody and Digital Curation foreseen in the research hypothesis; presents a proposal for guidelines applicable to the institution’s governance architecture for the implementation of mitigation measures; points out technical gaps to be overcome for the effective integration between the Document Management Systems and the Trusted Digital Repositories; launches bases for case studies focused on the implantation and certification of trusted digital repositories; and suggests in-depth studies on Long Term Digital Preservation as a Service (LTDPaaS) as a storage platform in cloud architecture.

10
  • Bruno Carneiro da Rocha
  • Prevenindo ameaças persistentes avançadas em redes corporativas utilizando um modelo de segurança baseado em zero trust e UEBA

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • DINO MACEDO AMARAL
  • EDNA DIAS CANEDO
  • FLAVIO ELIAS GOMES DE DEUS
  • GEORGES DANIEL AMVAME NZE
  • Data: 13/12/2022

  • Mostrar Resumo
  • Muitas organizações estão sendo alvos de diversos tipos de ataques. Um dos ataques mais perigosos é o chamado Ameaças Persistentes Avançadas (Advanced Persistent Threats - APT) pois ele é silencioso e focado na espionagem e roubo de informações, diferentemente de um ataque de negação de serviço (DoS), por exemplo. A solução proposta aborda a implementação de um modelo de segurança baseado em zero trust em conjunto com UEBA para traçar o perfil de comportamento do usuário e encontrar os comportamentos anômalos dos adversários com o objetivo de prevenir ataques APT em redes corporativas. A proposta consiste em utilizar os conceitos de machine learning especificamente dentro de cada microsegmentação e analisar se houve a redução de falsos negativos.


  • Mostrar Abstract
  • Many organizations are being targeted by various types of attacks. One of the most dangerous attacks is called Advanced Persistent Threats (APT) as it is silent and it’s main goal is spying and stealing information, different from a denial of service (DoS) attack, por example. The proposed solution addresses the implementation of a security model based on zero trust in conjunction with UEBA to profile user behavior and find anomalous behaviors of adversaries in order to prevent APT attacks on corporate networks. The proposal consists of using machine learning concepts specifically within each micro-segmentation and analyzing whether there was a reduction in false negatives.

11
  • Lorena de Souza Bezerra Borges
  • SOLUÇÃO PARA DETECÇÃO DE TUNELAMENTO DNS EM AMBIENTE DE NUVEM COMPUTACIONAL

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • JOAO JOSE COSTA GONDIM
  • RAFAEL RABELO NUNES
  • SANDRA ELIZA FONTES DE AVILA
  • Data: 13/12/2022

  • Mostrar Resumo
  • O tunelamento DNS usa recursos do protocolo DNS para estabelecer canais de comando e controle, podendo ser utilizado como uma ferramenta maliciosa para exfiltração de dados. Atualmente, as ameaças cibernéticas usando túneis DNS afetam sistemas multiplataforma, explorando recursos computacionais locais e em nuvem. Muitos estudos de detecção de tunelamento DNS combinam técnicas de extração de parâmetros e algoritmos de machine learning (ML), alcançando elevados níveis de acurácia. Entretanto, treinar modelos de ML em larga escala e em tempo real, continua sendo um desafio operacional e de alto custo computacional para muitas instituições. Este artigo propõe uma metodologia eficaz para detecção de tunelamento DNS, através de coletas de recursos híbridos, utilizando algoritmos não-supervisionados para identificação de anomalias. O modelo proposto tem uma abordagem operacional, podendo ser adaptado para compor sistemas de controles de segurança nas organizações.


  • Mostrar Abstract
  • DNS tunneling uses DNS protocol features to establish command and control channels, thus being possibly exploited as a malicious tool for data exfiltration. Nowadays, security threats using DNS tunneling affect cross-platform systems within local and cloud computing resources. Many DNS tunnel detection studies combine feature extraction techniques and machine learning (ML) algorithms to achieve high levels of accuracy. However, training ML models on a large scale and in real-time, remains an operational challenge and high computational cost for many institutions. This article proposes a methodology for DNS tunneling detection through hybrid resource collections using unsupervised anomaly detection algorithms. The proposed model has an operational approach and can be adapted to compose security control systems in organizations.

12
  • Roberto Tanabe
  • PROPOSTA DE UM MÉTODO PARA INTELIGÊNCIA DE FONTES ABERTAS: VALORES E PRINCÍPIOS PARA UMA ATIVIDADE ÉTICA E PROFISSIONAL

  • Orientador : ROBSON DE OLIVEIRA ALBUQUERQUE
  • MEMBROS DA BANCA :
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • FABIO LUCIO LOPES DE MENDONCA
  • RAFAEL RABELO NUNES
  • LEANDRO ALVES NEVES
  • Data: 14/12/2022

  • Mostrar Resumo
  • A Inteligência de fontes abertas (OSINT) tem sido definida na literatura de várias maneiras diferentes. Não há consenso sobre o assunto dada a variedade de tipos de informações, usos, métodos e técnicas envolvidas. Para a comunidade de Inteligência, ela é reconhecida principalmente como uma disciplina de coleta com foco em fontes abertas. Para os praticantes de OSINT, há uma forte associação do termo com ferramentas. A comunidade científica, por sua vez, tenta aproximar o conceito de OSINT das técnicas e métodos especializados, não apenas no panorama da coleta, mas também na análise. Considerando estes aspectos, o objetivo desta dissertação é propor um método que aproxime OSINT da atividade profissional suportado por valores, princípios e técnicas especializadas. O conceito de OSINT, neste sentido está mais orientado para um fluxo de trabalho que descreve como os requisitos definidos por um usuário são atendidos para assessorar um processo de tomada de decisão. Dessa forma, OSINT como um método é orientado por um conjunto de princípios que orienta um padrão de comportamento baseado na ética e em uma metodologia que pretende atingir um desempenho profissional. Este comportamento é sustentado por valores que são padrões morais em benefício da sociedade. Com estes pressupostos em mente, este trabalho posiciona o OSINT no ciclo de inteligência e apresenta os princípios que a apoiam como disciplina, amplia o escopo do que a literatura de referência apresenta como ferramentas de OSINT, e fornece argumentação para que a função de coleta tenha a mesma atenção dada à análise. Os resultados demonstram que: os princípios encontrados na literatura de referência não são suficientes e precisam de outros norteadores como a prevenção de burnout, a flexibilidade e a prontidão; ao contrário do que se costuma associar, as disciplinas de coleta também são de processamento e análise, e OSINT não deve ser a primeira fonte de coleta, mas sim o arquivo interno de cada organização; o problema da sustentabilidade das ferramentas pode ser minimizado com critérios objetivos de segurança, confiabilidade e legalidade; é preciso reconhecer a importância de coletores de Inteligência assim como é feito com os analistas; e que o método proposto organiza a execução de OSINT dentro de um ciclo de Inteligência que considera múltiplas fontes.


  • Mostrar Abstract
  • Open Source Intelligence (OSINT) has been defined in the literature in several different ways. There is no consensus on the subject, given the variety of information types, uses, methods, and techniques involved. To the Intelligence community, it is primarily recognized as a collection discipline with a focus on opensources. For OSINT practitioners, there is a strong association of the term with tools. The scientific community, in turn, tries to bring the OSINT concept closer to specialized techniques and methods, not only in the collection landscape, but also in analysis. Considering these aspects, the aim of this dissertation is to bring the practice of OSINT closer to specific methods supported by specialized values, principles and techniques. The concept of OSINT, in this sense is more oriented towards a workflow that describes how user-defined requirements are met to assist a decision-making process. Thus, OSINT as a method is guided by a set of principles that drives a pattern of behavior based on ethics and a methodology that aims to achieve professional performance. This behavior is underpinned by values that are moral standards for the benefit of society. With these assumptions in mind, this work places OSINT in the intelligence cycle and presents the principles that support it as a discipline, expands the scope of what the reference literature presents as OSINT tools, and provides argumentation for giving the collection function the same attention given to analysis. The results show that: the principles found in the reference literature are not sufficient and need other guideposts such as burnout prevention, flexibility and readiness; contrary to what is usually associated, collection disciplines are also processing and analysis disciplines, and OSINT should not be the first collection source, but rather the internal archive of each organization; the problem of tool sustainability can be minimized with objective criteria of security, reliability and legality; the importance of Intelligence collectors must be recognized just as it is done with analysts; and that the proposed method organizes OSINT execution within an Intelligence cycle that considers multiple sources.

13
  • Sávio Levy Rocha
  • Proposta de um framework para detecção de intrusão em clusters de orquestração de contêineres utilizando machine learning para identificação de anomalias em system calls

  • Orientador : GEORGES DANIEL AMVAME NZE
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • FABIO LUCIO LOPES DE MENDONCA
  • RAFAEL RABELO NUNES
  • Luiz Fernando Sirotheau Serique Junior
  • Data: 15/12/2022

  • Mostrar Resumo
  • A computação em nuvem introduziu novas tecnologias que permitiram a construção de um modelo mais ágil de integração e entrega contínua (CI/CD) no pipeline de desenvolvimento de aplicações. Uma dessas tecnologias é a utilização de contêineres em substituição às tradicionais máquinas virtuais. Além dos benefícios trazidos pelo uso dos contêineres, ameaças e riscos de ataques voltados para esses ambientes cresceram em igual proporção à sua adoção. Sistemas de Detecção de Intrusão (IDS) têm sido empregados para garantir a segurança de ambientes de nuvem, contudo, as características inerentes a esses ambientes têm apresentados novos desafios para alcançar bons resultados na detecção de intrusão. Estritamente, no que diz respeito à detecção de intrusão em ambientes de contêineres, poucos estudos foram conduzidos até o momento visando o seu aprimoramento. Neste trabalho, é proposto um framework contendo uma arquitetura composta por cinco camadas e suas ferramentas para implementação de um IDS baseado em Host (HIDS) voltado para plataformas de orquestração de contêineres através da identificação de anomalias em system calls. O framework implementado em uma topologia de rede corporativa funcional emulada no software GNS3 foi testado com um dataset de system calls público demonstrando a viabilidade de seu funcionamento. Através do experimento realizado, foi possível validar a integração entre as camadas do framework e os resultados de detecção obtidos utilizando um modelo de machine learning não supervisionado superaram os do trabalho que originou o dataset público utilizado. Os datasets são carregados, transformados e extraídos de uma plataforma gratuita e aberta com front-end para visualização de alertas de detecção de anomalias que podem ser analisados pela equipe do SOC em um dashboard criado para monitoramento do IDS e auxílio na tomada de decisão.


  • Mostrar Abstract
  • Cloud computing has introduced new technologies that have enabled a more agile continuous integration and continuous delivery (CI/CD) model to be built into the application development pipeline. One such technology is the use of containers in replacement to the traditional virtual machines. In addition to the benefits brought by the use of containers, threats and risks of attacks aimed at these environments have grown in equal proportion to their adoption. Intrusion Detection Systems (IDS) have been employed to secure cloud environments, however, the inherent characteristics of these environments have presented new challenges to achieving good intrusion detection results. Strictly, regarding intrusion detection in container environments, few studies have been conducted so far aiming at its improvement. In this work, a framework containing an architecture composed of five layers and its tools is proposed to implement a Host-based IDS (HIDS) aimed at container orchestration platforms through the identification of anomalies in system calls. The framework implemented in a functional corporate network topology emulated in the GNS3 software was tested with a public dataset of system calls demonstrating the viability of its operation. Through the experiment, it was possible to validate the integration between the layers of the framework vi and the detection results obtained using an unsupervised machine learning model surpassed those of the work that originated the public dataset used. The datasets are loaded, transformed and extracted from a free and open platform with front-end for visualization of anomaly detection alerts that can be analyzed by the SOC team in a dashboard created for IDS monitoring and decision making support.

14
  • Jeferson Nascimento Aquilar Pey
  • Estudo sobre Emprego de Drones em Operações de Inteligência de Segurança Pública

  • Orientador : GEORGES DANIEL AMVAME NZE
  • MEMBROS DA BANCA :
  • GEORGES DANIEL AMVAME NZE
  • FABIO LUCIO LOPES DE MENDONCA
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • CHRISTIANO CRUZ AMBROS
  • Data: 15/12/2022

  • Mostrar Resumo
  • O emprego de Aeronaves Remotamente Pilotadas (RPA), Unmanned Aerial Vehicle (UAV), Unmanned Aircraft Systems (UAS) ou mais conhecidos como “drones” tem crescido nos últimos anos e isso se deve à sua versatilidade de uso. Esses veículos aéreos possuem uma variedade de tecnologias embarcadas que fazem com que sejam atrativos e de fácil utilização. Este trabalho, em particular, almejou contribuir com a análise de RPA em apoio à atividade de Inteligência de Segurança Pública, agregando achados acerca de requisitos técnicos, vulnerabilidades cibernéticas e melhores práticas empregadas por equipes operacionais de Segurança Pública. Por fim, esta dissertação propõe metodologia aderente à legislação brasileira para o emprego de drones em proveito das Instituições que trabalham com a temática de Inteligência de Segurança Pública e aponta alguns direcionamentos futuros de estudos sobre o emprego dessas aeronaves. Os resultados da pesquisa exploratória e aplicada, conduzida com base no método de investigação hipotético dedutivo, demonstram que as RPA são ferramentas capazes de contribuir com a otimização dos trabalhos de segurança pública, conferindo celeridade e segurança nas ações operacionais, além de proporcionar maior grau de eficiência quanto aos resultados almejados. Em conclusão, este estudo demonstra que o emprego sistematizado de RPA para realizar atividades de ISP é uma forma inovadora de transformação das atividades das instituições de segurança pública


  • Mostrar Abstract
  • Use of Remotely Piloted Aircraft (RPA), Unmanned Aerial Vehicle (UAV), Unmanned Aircraft Systems (UAS) or better known as “drones” has been increasing in recent years and this is due to their versatility of use. These aerial vehicles have a variety of embedded technologies that make them exciting and userfriendly. This work, in particular, has always contributed with RPA analysis in support of Public Security Intelligence (ISP) activity, adding findings on technical requirements, cybernetic vulnerabilities and best practices employed by Public Security operational teams. Finally, this dissertation proposes a methodology that adheres to Brazilian legislation for the use of drones for the benefit of Institutions that work with the theme of ISP and points out some future directions for studies on the use of these aircraft. The results of exploratory and applied research, conducted based on the method deductive hypothetical investigation, demonstrating that RPA tools are capable of contributing to the optimization of public safety work, providing speed and security in operational actions, in addition to providing a greater degree of efficiency in terms of the desired results. In conclusion, this study demonstrates that the systematic use of RPA to carry out ISP activities is an innovative way of transforming the activities of public security institutions.

15
  • Lucas Coelho de Almeida
  • PROPOSTA DE UM MOTOR DE BUSCA METASEMÂNTICA COMO FERRAMENTA DE INVESTIGAÇÃO DE DADOS OBTIDOS ATRAVÉS DA INTERNET

  • Orientador : FABIO LUCIO LOPES DE MENDONCA
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • DANIEL ALVES DA SILVA
  • GEORGES DANIEL AMVAME NZE
  • ANDERSON CLAYTON ALVES NASCIMENTO
  • Data: 16/12/2022

  • Mostrar Resumo
  • A digitalização das relações e da informação têm aumentado a capacidade do ser humano de produzir dados de forma exponencial. Contudo, na mesma taxa em que novos dados são criados, é cada vez mais necessário também compreender e garimpar grandes bases de dados, inclusive sem qualquer estrutura ou formatação e com propósitos diversos. Nesse contexto, o uso de técnicas de indexação de dados usando motores de busca (do inglês Search Engines) e de interpretação de conjuntos de dados com o objetivo de classificá-los e categorizá-los se mostra indispensável para cenários de Big Data e Data Lake, em que a informação pode vir de diversas fontes com características técnicas e semânticas diferentes, exigindo classificações multi-classe e técnicas de processamento de linguagem natural, comumente designadas por técnicas de NLP (do inglês Natural Language Processing). Adicionalmente, é preciso entender se as ferramentas de classificação têm viés e se os resultados são úteis e condizentes com o esperado, especialmente em contextos de investigação de crimes digitais. Esse é o problema da transparência da tomada de decisão, ou seja, da clara e/ou legível representação dos parâmetros que levaram a máquina a uma determinada decisão/classificação. Um sistema de investigação ideal, portanto, deveria ser capaz de indexar grandes bases de dados, entender a semântica e ser passível de adaptação/aprendizagem para atuar em diferentes cenários, e ao final do processo, ainda fornecer resultados enriquecidos com os parâmetros que levaram a máquina a tomar determinadas decisões para posterior auditoria da transparência no processo. Portanto, esta dissertação tem como objetivo propor uma arquitetura fim a fim de um motor de busca que indexe e use interpretações metasemânticas baseadas em técnicas de processamento de linguagem natural em dados oriundos de páginas Web, de forma a prover, também, exemplos de parâmetros similares às classificações derivadas das amostras. O prefixo ”meta” no termo ”metasemântica” se refere a um conjunto de técnicas de classificação, predição e enriquecimento de dados aplicados para emular o processo de indexação semântica, porém preservando a auditabilidade do processo. Para efeito de validação da proposta, foram criadas amostras de páginas Web e utilizou-se bases de dados oficiais para treinamentos de instâncias de aprendizado de máquina para simulação de contextos reais de aplicação do projeto. Como resultado, a validação mostra como o motor de busca proposto permite o armazenamento e processamento de dados sem formatação originários de páginas Web e aumenta a velocidade e objetividade com que investigações passam a ser realizadas e auditadas em contextos de processamento de linguagem natural, especialmente relevantes para contextos de crimes digitais.


  • Mostrar Abstract
  • The digitization of relationships and information has increased human beings’ ability to produce data exponentially. However, at the same rate at which new data is created, it is increasingly necessary to understand and mine large databases, even without any structure or formatting and with different purposes. In this context, the use of data indexing techniques using search engines (from English Search Engines) and the interpretation of datasets with the aim of classifying and categorizing them proves to be indispensable for scenarios of textitBig Data and Data Lake, where information can come from different sources with different technical and semantic characteristics, requiring multi-class classifications and natural language processing techniques, commonly known as NLP techniques (from English Natural Language Processing). Additionally, it is necessary to understand whether the classification tools are biased and whether the results are useful and consistent with expectations, especially in cybercrime investigation contexts. This is the problem of decision-making transparency, that is, the clear and/or legible representation of the parameters that led the machine to a certain decision/classification. An ideal research system, therefore, should be able to index large databases, understand the semantics and be subject to adaptation/learning to act in different scenarios, and at the end of the process, still provide results enriched with the parameters that led to machine to make certain decisions for subsequent auditing of transparency in the process. Therefore, this dissertation aims to propose an end-to-end architecture of a search engine that indexes and uses metasemantic interpretations based on natural language processing techniques on data from Web pages, in order to also provide examples of parameters similar to the classifications derived from the samples. The ”meta” prefix in the term ”metasemantics” refers to a set of classification, prediction and data enrichment techniques applied to emulate the semantic indexing process, while preserving the auditability of the process. For the purpose of validating the proposal, samples of Web pages were created and official databases were used to train instances of machine learning to simulate real contexts of application of the project. As a result, the validation shows how the proposed search engine allows the storage and processing of plain data originating from Web pages and increases the speed and objectivity with which investigations are carried out and audited in language processing contexts natural, especially relevant to cybercrime contexts.

16
  • João Alberto Pincovscy
  • Metodologia para Inteligência de Ameaças Cibernéticas com Integração de Sensores

  • Orientador : JOAO JOSE COSTA GONDIM
  • MEMBROS DA BANCA :
  • JOAO JOSE COSTA GONDIM
  • FABIO LUCIO LOPES DE MENDONCA
  • RAFAEL RABELO NUNES
  • ANDRE RICARDO ABED GREGIO
  • Data: 19/12/2022

  • Mostrar Resumo
  • Identificar ataques em redes de computadores é uma tarefa complexa, dada a enorme quantidade de máquinas, diversidade dos dados e grande volume de dados. A Inteligência de Ameaças Cibernéticas consiste na coleta, classificação, enriquecimento, classificação dos dados e produção de conhecimento sobre ameaças nos sistemas de defesa das redes. Neste cenário encontramos os Sistemas de Detecção de Intrusão de rede que especificamente analisam o tráfego de rede e através de assinaturas detectam anomalias, gerando registros para os operadores do sistema. A proposta deste trabalho é apresentar uma metodologia para gerar conhecimento sobre Inteligência de Ameaças, a partir dos registros de sensores de rede, coletando Indicadores de Ameaças ou Comprometimento e enriquecendo-os para alimentar Plataformas de Compartilhamento de Inteligência de Ameaças. Nossa metodologia acelera o processo de tomada de decisão, pois incorpora um repositório público e atualizado de assinaturas já no coletor, eliminando a fase de identificação de ameaças em uma etapa adicional. Para a demonstração e avaliação da metodologia foi realizada uma prova de conceito que contemplou todo o ciclo da identificação de ameaças.


  • Mostrar Abstract
  • Identifying attacks on computer networks is a complex task, given the huge number of machines, data diversity, and a large volume of data. Cyber Threat Intelligence consists of collecting, classifying, enriching, classifying data, and producing knowledge about threats in network defense systems. In this scenario, we find network Intrusion Detection Systems that specifically analyze network traffic and detect anomalies through signatures, generating records for system operators. The purpose of this work is to present a methodology to generate knowledge about Threat Intelligence, from the records of network sensors, collecting Threat or Compromise Indicators and enriching them to feed Threat Intelligence Sharing Platforms. Our methodology accelerates the decision-making process, as it incorporates an up-to-date, public repository of signatures already in the collector, eliminating the threat identification phase in an additional step. For the demonstration and evaluation of the methodology, a proof of concept was carried out that covered the entire threat identification cycle.

17
  • Thiago Melo Stuckert do Amaral
  • Proposta de Integração de Controles de Segurança Baseados nos Princípios Zero Trust em uma Cyber Supply Chain

  • Orientador : JOAO JOSE COSTA GONDIM
  • MEMBROS DA BANCA :
  • DINO MACEDO AMARAL
  • GEORGES DANIEL AMVAME NZE
  • JOAO JOSE COSTA GONDIM
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • Data: 20/12/2022

  • Mostrar Resumo
  • Ataques sofisticados tem ocorrido na cyber supply chain por meio da exploração de vulnerabilidades em componentes que antes eram considerados seguros devido às relações de confiança existentes. Uma das opções para se mitigar este tipo de risco cibernético é por meio da implantação de uma arquitetura Zero Trust. Esse tipo de abordagem realiza uma revisão de todas as relações de confiança. Desconsidera a confiança implícita em qualquer componente e baseia-se na premissa da existência de ameaças internas à rede corporativa. O presente trabalho propõe a integração de uma arquitetura Zero Trust em uma cyber supply chain. A principal contribuição deste estudo é propor uma organização de controles de segurança para uma cyber supply chain em domínios, permitindo melhorias de segurança por meio da aplicação de princípios de uma arquitetura Zero Trust. O estudo também fornece um checklist que permite uma análise de gap e sugere algumas formas de visualização desse resultado.


  • Mostrar Abstract
  • The cyber supply chain has been a target of sophisticated attacks. Vulnerabilities in components that were once considered secure due to perceived trusting relationships are being exploited. One way to reduce this type of cyber risk is through the use of a Zero Trust architecture. This type of approach revises trust in all relationships. It disregards the implicit trust in any component and is based on the premise of the existence of internal threats to the corporate network. The present work proposes to integrate a Zero Trust architecture in a cyber supply chain. The main contribution of this study is to propose an organization of security controls for a cyber supply chain in domains, enabling improvements in the security of the cyber supply chain by applying the principles of a Zero Trust architecture. The study also provides a checklist of controls that allows a gap analysis and suggests some ways of visualizing this result.

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app19_Prod.sigaa13