Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2024
Dissertações
1
  • Gisela Sousa Ferreira
  • An Alternative Differential Protection Scheme for Electrical Microgrids

  • Orientador : FRANCIS ARODY MORENO VASQUEZ
  • MEMBROS DA BANCA :
  • FRANCIS ARODY MORENO VASQUEZ
  • FERNANDO CARDOSO MELO
  • KLEBER MELO E SILVA
  • JOSE CARLOS DE MELO VIEIRA JUNIOR
  • Data: 13/05/2024

  • Mostrar Resumo
  • A integração de microrredes de produção distribuída (GD) no sistema elétrico de energia tem provocado alterações significativas na abordagem à proteção do sistema elétrico, nomeadamente no que diz respeito à dinâmica do fluxo de potência. À luz destas transformações, este estudo teve como objetivo avaliar um mecanismo de proteção baseado na corrente diferencial. Em microrredes activas, esta função diferencial é colaborada por um elemento incremental para reforçar as medidas de segurança. Para atingir este objetivo, uma microrrede de média tensão (MT) foi concebida e simulada utilizando o software EMTP por zonas de proteção. O esquema de relés foi avaliado exaustivamente e foram efectuadas simulações para testar a sua eficácia. Os resultados demonstraram que o algoritmo proposto responde de forma fiável e segura a vários tipos de curto-circuitos que ocorrem em diferentes locais da microrrede, com diferentes valores de impendância, em tempo simultâneo. Além disso, o seu desempenho robusto foi confirmado em diferentes condições operacionais, incluindo os modos on-grid e off-grid, bem como topologias em anel e radiais. O método de proteção proposto constitui uma alternativa viável para a proteção de microrredes, devido à sua simplicidade, à menor necessidade de transformadores de corrente (TC) em comparação com os esquemas de proteção diferencial tradicionais e à sua fiabilidade e segurança globais. 


  • Mostrar Abstract
  • The integration of distributed generation (DG) microgrids into the electrical power system has brought about significant changes in the approach to electrical system protection, particularly concerning power flow dynamics. In light of these transformations, this study aimed to assess a protection mechanism based on differential current. In active microgrids, this differential function is collaborated by an incremental element to enhance security measures. To achieve this objective, a medium voltage (MV) microgrid was designed and simulated using EMTP software by protection zones. The relay scheme was thoroughly evaluated, and simulations were conducted to test its efficacy. Results demonstrated that the proposed algorithm reliably and safely responds to various types of short circuits occurring at different locations within the microgrid, with different values of impendance, in simultaneous time. Furthermore, its robust performance was confirmed under different operational conditions, including on-grid and off-grid modes, as well as ring and radial topologies. The proposed protection method offers a viable alternative for microgrid protection attributable to its simplicity, reduced requirement for current transformers (CT) compared to traditional differential protection schemes, and its overall reliability and safety.

2
  • Andrey Otacilio Oliveira dos Reis
  • ARTIFACT REDUCTION IN JPEG IMAGE CLASSIFICATION BY NEURAL NETWORKS: A MULTI-OBJECTIVE APPROACH

  • Orientador : DANIEL GUERREIRO E SILVA
  • MEMBROS DA BANCA :
  • HUGO VALADARES SIQUEIRA
  • DANIEL GUERREIRO E SILVA
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • Data: 27/05/2024

  • Mostrar Resumo
  • A classificação refinada de imagens é uma modalidade de inferência muito importante em visão computacional devido a sua utilidade em abordar problemas que possuem um número elevado de classes. Além de exigir modelos com maior capacidade de aprendizado, o conjunto de imagens usadas no treinamento deve conter uma grande quantidade de amostras de boa qualidade. A presença de compressão com perdas, porém, ao degradar a qualidade do sinal pode dificultar drasticamente a tarefa do classificador. Por se tratar de algo que até mesmo viabiliza a composição dos conjuntos de treinamento dos modelos, a compressão e os seus impactos nesse tipo de aplicação não pode ser ignorada. Nesse trabalho propomos uma arquitetura de Rede Neural (RN) capaz de mitigar significativamente os prejuízos causados pela compressão JPEG, para tanto ela conta com uma dupla ramificação de redes que serão treinadas em conjunto. Os dois ramos, um para Redução de Artefatos da Compressão (RAC) e outro para classificação, são conectados de forma que a saída do primeira é a entrada do segundo. O ramo de RAC consiste em uma RN de geração de imagens responsável pela redução dos efeitos de perdas no sinal comprimido. O ramo de classificação, por sua vez, se utiliza de uma RN pré-treinada para receber essas imagens reconstruídas como entrada e executar a classificação. Dessa forma, o treinamento multi-objetivo é capaz tanto de melhorar a qualidade do sinal priorizando características importantes para a classificação quanto de se adaptar a receber imagens restauradas com certa degradação para realizar a inferência. Nos dois conjuntos de imagens que utilizamos, Caltech 200 Cub e Oxford 102 Flower, aumentamos a acurácia média para 10 fatores de qualidade (FQs) diferentes em 45.6% e 5.81%, respectivamente. Apesar da pouca flexibilidade do modelo em relação aos FQs e a necessidade de um treinamento adicional, o nosso trabalho evidencia uma forte correlação entre a eficiência do codificador e o desempenho do classificador. Além de apresentar uma arquitetura que extrai grande proveito desse aspecto para melhorar o processo de classificação de imagens comprimidas


  • Mostrar Abstract
  • Fine-grained image classification is a very important category of classification in computer vision due to its usefulness in tackling problems with a large number of classes. As well as requiring models with greater learning capacity, the datasets used for training must contain a large number of good quality samples. However lossy compression can drastically hinder the classifier’s task by degrading the signal quality. Compression and its impact on this type of application cannot be ignored, as it is something that even makes it possible to compose the training datasets for the models. In this work, we propose a Neural Network (NN) architecture capable of significantly mitigating the damage caused by JPEG compression. To do so, it relies on a double branch of structures that will be trained together. The two branches, one for Compression Artifacts Reduction (CAR) and the other for classification, are connected in such a way that the output of the first is the input of the second. The CAR branch consists of an image generation NN responsible for reducing the losses effects in the compressed signal. In turn, the classification branch uses a pre-trained NN to receive these reconstructed images as input and perform the classification. In this way, multi-objective training is able both to improve the signal quality by prioritizing important features for classification and to adapt to receiving restored images with a certain amount of degradation in order to carry out inference. In the two datasets we used, Caltech 200 Cub and Oxford 102 Flower, we increased the average accuracy for 10 different quality factors (QFs) by 45.6% and 5.81%, respectively. Despite the model’s lack of flexibility with regard to QFs and the need for additional training, our work shows a strong correlation between codec efficiency and classifier performance. It also presents an architecture that takes great advantage of this aspect to improve the compressed image classification process.

3
  • Gabriel Pimenta de Freitas Cardoso
  • DEEP REINFORCEMENT LEARNING AND HYPER HEURISTICS APPLIED TO RESOURCE ALLOCATION IN 6G COMMUNICATIONS SYSTEMS WITH D2D COMMUNICATIONS AND SENSING

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • JOSE MARCOS CAMARA BRITO
  • HUGERLES SALES SILVA
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • PAULO ROBERTO DE LIRA GONDIM
  • Data: 28/05/2024

  • Mostrar Resumo
  • Este trabalho propõe uma estratégia para a realização conjunta da alocação de espectro e do controle de potências em sistemas de comunicações móveis de 5G e gerações futuras com sensoreamento integrado. A aplicação tratada neste trabalho se situa em um contexto relacionado à Indústria 4.0, abarcando um cenário industrial com comunicações primárias, comunicações D2D e sensores. A solução proposta para realizar a alocação de recursos nesse sistema é composta pela conjunção de duas técnicas no estado da arte: algoritmos de Deep Reinforcement Learning (DRL) e Hiper-Heurísticas (HH). O primeiro algoritmo que forma a estratégia conjunta proposta neste trabalho foi desenvolvido utilizando-se redes neurais treinadas por meio de técnicas de DRL para controle de potências. O segundo algoritmo, que completa a estratégia proposta, foi desenvolvido através de técnicas relacionadas à aplicação de HHs em conjunção com algoritmos de DRL, para realização da alocação do espectro disponível. A estratégia conjunta teve como objetivos principais: proteger as comunicações primárias, almejando-se reduzir a taxa de outage para garantia de uma comunicação de qualidade; além de proteger os sensores do sistema, objetivando-se reduzir a taxa de outage dos sensores para garantir que a probabilidade de detecção estivesse acima de um limiar pré definido. Como objetivo secundário, o algoritmo proposto buscou-se maximizar a taxa de transmissão das comunicações D2D. Os resultados mostraram que o algoritmo de controle de potências que obteve o melhor desempenho, em comparação com outros algoritmos da área no estado da arte, foi o Proximal Policy Optimization (PPO). Esse algoritmo proposto, separadamente ao de alocação do espectro, foi capaz, em um Resource Block (RB), de reduzir a taxa de outage das comunicações primárias de 64.35% para 11.75%, reduzir a taxa de outage dos sensores de 38.5% para 4.4% e aumentar a SNIR das comunicações D2Ds de -25.6 dB para -7.5 dB, se comparado com os resultados obtidos por um algoritmo aleatório. Para a estratégia completa, isto é, com algoritmos de DRL e HH realizando tanto o controle de potências quanto a alocação do espectro, os resultados indicaram que, em comparação com uma alocação de recursos baseada em escolhas aleatórias, a estratégia conjunta foi capaz de reduzir a taxa de outage das comunicações primárias de 65.8% para 13.3%, reduzir a taxa de outage dos sensores de 48.1% para 3.3% e aumentar a SNIR das comunicações D2Ds de -24.3 dB para -11.2 dB em sistemas com múltiplos RBs. Além disso, o algoritmo se mostrou escalável para sistemas com diferentes quantidades de comunicações, sensores e RBs, sendo aplicável em diferentes configurações do sistema. 


  • Mostrar Abstract
  • This work proposes a strategy for the joint execution of spectrum allocation and power control in 5G mobile communication systems and future generations with integrated sensing. The application addressed in this work is situated in a context related to Industry 4.0, encompassing an industrial scenario with primary communications, D2D communications, and sensors. The proposed solution for resource allocation in this system consists of the conjunction of two state-of-the-art techniques: Deep Reinforcement Learning (DRL) algorithms and Hyper-Heuristics (HH). The first algorithm that forms the proposed joint strategy in this work was developed using neural networks trained through DRL techniques for power control. The second algorithm, which completes the proposed strategy, was developed using techniques related to the application of HHs in conjunction with DRL algorithms for the allocation of available spectrum. The main objectives of the joint strategy were: to protect primary communications, aiming to reduce the outage rate to ensure quality communication; and to protect the system’s sensors, aiming to reduce the sensor outage rate to ensure that the detection probability was above a predefined threshold. As a secondary objective, the proposed algorithm sought to maximize the transmission rate of D2D communications. The results showed that the power control algorithm that performed best, compared to other state-of-the-art algorithms in the area, was Proximal Policy Optimization (PPO). This proposed algorithm, separately from the spectrum allocation algorithm, was able, in a Resource Block (RB), to reduce the primary communications outage rate from 64.35% to 11.75%, reduce the sensor outage rate from 38.5% to 4.4%, and increase the SNIR of D2D communications from -25.6 dB to -7.5 dB, compared with the results obtained by a random algorithm. For the complete strategy, that is, with DRL and HH algorithms performing both power control and spectrum allocation, the results showed that, compared to a resource allocation based on random choices, the joint strategy was able to reduce the primary communications outage rate from 65.8% to 13.3%, reduce the sensor outage rate from 48.1% to 3.3%, and increase the SNIR of D2D communications from -24.3 dB to -11.2 dB in systems with multiple RBs. Additionally, the algorithm proved scalable for systems with varying amounts of communications, sensors, and RBs, being applicable in different system configurations.

4
  • Gabriel Helbourn Bastos
  • Proposal for an Energy Management System for a Microgrid with Photovoltaic Generation, Biogas and Energy Storage

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FERNANDO CARDOSO MELO
  • FRANCIS ARODY MORENO VASQUEZ
  • LUCAS PEREIRA PIRES
  • Data: 31/05/2024

  • Mostrar Resumo
  • Microrredes representam o futuro dos sistemas elétricos de potência, e para que funcione adequadamente, um sistema de gerenciamento de energia da microrrede (MEMS) deve ser projetado para encontrar a melhor maneira de lidar com a carga de forma confiável. Este estudo tem como objetivo propor e simular um MEMS de uma microrrede localizada na Universidade de Brasília e composta por três recursos energéticos distribuídos (REDs): painéis fotovoltaicos, usina termelétrica a biogás e um sistema de armazenamento de energia em bateria. Para a simulação foi preciso recolher informações de perfil de consumo da unidade consumidora e do potencial energético para que os REDs pudessem ser bem dimensionados. O algoritmo sugerido foi desenvolvido para os modos conectado e ilhado, buscando priorizar o sistema fotovoltaico e considerando o estado de carga na tomada de decisão. O horário também deve ser monitorado de modo a reduzir ou cortar a contribuição da rede para carga em período de pico, como serviço ancilar. Simulações foram realizadas para semanas específicas e para o ano inteiro de 2023, com o intuito de validar o sistema de gerenciamento de energia e verificar possíveis desligamentos. Considerando o cenário anual, a mínima e máxima geração fotovoltaica foi de 30,33 e 41,59 MWh nos meses de abril e novembro, respectivamente, enquanto a maior carga consumida foi no mês de maio, atingindo 78,56 MWh. A potência fornecida pela rede oscilou entre 12,63 MWh e 33,21 MWh, tendo uma redução de mais de 60%. Além disso, foi avaliado o custo total da energia consumida por cada fonte, pela microrrede e o quanto seria gasto pelo sistema sem a microrrede. Os resultados das simulações foram muito positivos, com boas respostas às interrupções da rede e alcançando uma economia de R$ 318.579,49 no ano de 2023.


  • Mostrar Abstract
  • Microgrids represent the future of electrical power systems, and for them to function properly, a microgrid energy management system (MEMS) must be designed to find the best way to handle the load reliably. This study aims to objective to propose and simulate a MEMS for a microgrid located at the University of Brasília and composed of three distributed energy resources (REDs): photovoltaic panels, biogas thermoelectric plant and a battery energy storage system. For the simulation it was necessary collect information on the consumer unit’s consumption profile and energy potential to so that REDs could be scaled well. The suggested algorithm was developed for connected and islanded modes, seeking to prioritize the photovoltaic system and considering the state of burden on decision making. The schedule must also be monitored in order to reduce or cut the network's contribution to peak period load, as an ancillary service. Simulations were carried out for specific weeks and for the entire year 2023, with the aim of validating the system power management system and check for possible shutdowns. Considering the annual scenario, the minimum and maximum photovoltaic generation was 30.33 and 41.59 MWh in the months of April and November, respectively, while the largest load consumed was in the month of May, reaching 78.56 MWh. The power supplied by the grid ranged between 12.63 MWh and 33.21 MWh, with a reduction of more than 60%. Furthermore, the total cost of energy consumed by each source was evaluated, by microgrid and how much would be spent by the system without the microgrid. The results of the simulations were very positive, with good responses to network interruptions and achieving savings in R$318,579.49 in 2023.

Teses
1
  • Stephanie Miranda Soares
  • An analytical model for IEEE 802.11ah networks under the restricted access window mechanism and Rayleigh fading channel

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • PAULO ROBERTO DE LIRA GONDIM
  • JULIANA FREITAG BORIN
  • RENATO MARIZ DE MORAES
  • Data: 01/04/2024

  • Mostrar Resumo
  • The IEEE 802.11ah is an amendment to the IEEE 802.11 standard to support the growth
    of the Internet of Things (IoT). One of its main novelties is the restricted access window
    (RAW), which is a channel access feature designed to reduce channel contention by dividing
    stations into RAW groups. Each RAW group is further divided into RAW slots, and stations
    only attempt channel access during the RAW slot they were assigned to. In this paper, we
    propose a discrete-time Markov chain model to evaluate the average aggregate throughput of
    IEEE 802.11ah networks using the RAW mechanism under saturated traffic and ideal channel conditions. The proposed analytical model describes the behavior of an active station
    within its assigned RAW slot. A key aspect of the model is the consideration of the event of
    RAW slot time completion during a station’s backoff operation. We study the average aggregate network throughput for various numbers of RAW slots and stations in the network. The
    numerical results derived from our analytical model are compared to computer simulations
    based on an IEEE 802.11ah model developed for the ns-3 simulator by other researchers,
    and its performance is also compared to two other analytical models proposed in the literature. The presented results indicate that the proposed analytical model reaches the closest
    agreement with independently-derived computer simulations.


  • Mostrar Abstract
  • The IEEE 802.11ah is an amendment to the IEEE 802.11 standard to support the growth
    of the Internet of Things (IoT). One of its main novelties is the restricted access window
    (RAW), which is a channel access feature designed to reduce channel contention by dividing
    stations into RAW groups. Each RAW group is further divided into RAW slots, and stations
    only attempt channel access during the RAW slot they were assigned to. In this paper, we
    propose a discrete-time Markov chain model to evaluate the average aggregate throughput of
    IEEE 802.11ah networks using the RAW mechanism under saturated traffic and ideal channel conditions. The proposed analytical model describes the behavior of an active station
    within its assigned RAW slot. A key aspect of the model is the consideration of the event of
    RAW slot time completion during a station’s backoff operation. We study the average aggregate network throughput for various numbers of RAW slots and stations in the network. The
    numerical results derived from our analytical model are compared to computer simulations
    based on an IEEE 802.11ah model developed for the ns-3 simulator by other researchers,
    and its performance is also compared to two other analytical models proposed in the literature. The presented results indicate that the proposed analytical model reaches the closest
    agreement with independently-derived computer simulations.

2
  • Mayana Wanderley Pereira
  • ADVANCING FAIRNESS AND DIFFERENTIAL PRIVACY IN MACHINE LEARNING FOR SOCIALLY RELEVANT APPLICATIONS

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • FABIO LUCIO LOPES DE MENDONCA
  • GEORGES DANIEL AMVAME NZE
  • MARIO LARANGEIRA
  • RICARDO FELIPE CUSTODIO
  • WILLIAM FERREIRA GIOZZA
  • Data: 26/04/2024

  • Mostrar Resumo
  • Esta tese investiga técnicas de aprendizado de máquina que preservam a privacidade para aplicações socialmente relevantes, focando em duas áreas específicas: detecção e identificação de Mídia de Abuso Sexual Infantil (CSAM) e geração de conjuntos de dados sintéticos que com foco em desenvolvimento ético e privado de inteligencia artifical. Abordamos o desafio de desenvolver soluções baseadas em aprendizado de máquina para detecção de CSAM enquanto consideramos as restrições éticas e legais do uso de imagens explícitas para treinamento do modelo. Para contornar essas limitações, propomos uma nova estrutura que utiliza metadados de arquivo para identificação de CSAM. Nossa abordagem envolve o treinamento e avaliação de modelos de aprendizado de máquina prontos para implantação baseados em caminhos de arquivo, demonstrando sua eficácia em um conjunto de dados de mais de um milhão de caminhos de arquivo coletados em investigações reais. Além disso, avaliamos a robustez de nossa solução contra ataques adversáriais e exploramos o uso de privacidade diferencial para proteger o modelo de ataques de inferência de modelo sem sacrificar a utilidade. Na segunda parte desta tese, investigamos as oportunidades e desafios do uso da geração de dados sintéticos no contexto do aumento da adoção de regulamentações globais de privacidade. Dados sintéticos são dados que imitam dados reais sem replicar informações pessoais, e oferecem diversas possibilidades para análise de dados e tarefas de aprendizado de máquina. No entanto, pouco se sabe sobre os impactos do uso de conjuntos de dados sintéticos em pipelines de aprendizado de máquina, especialmente quando apenas dados sintéticos estão disponíveis para treinamento e avaliação de modelo. Este estudo examina a relação entre privacidade diferencial e viés social dos algoritmos aprendizado de máquina, explorando como diferentes métodos de geração de dados sintéticos afetam o viés social dos algoritmos e comparando o desempenho de modelos treinados e testados com dados sintéticos versus dados reais. Os resultados contribuem para uma melhor compreensão do uso de dados sintéticos em pipelines de aprendizado de máquina e seu potencial para avançar o estado da arte em diversas áreas.

    Como trabalho futuro, pretendemos desenvolver protocolos para a geração de conjuntos de dados sintéticos a partir de fontes distribuídas com garantias de privacidade diferencial, sem a necessidade de uma parte confiável. O objetivo desta abordagem é permitir que detentores de dados compartilhem seus dados sem violar restrições éticas e legais.


  • Mostrar Abstract
  • This thesis investigates privacy-preserving machine learning techniques for socially relevant applications, focusing on two specific areas: the detection and identification of Child Sexual Abuse Media (CSAM) and the generation of synthetic datasets that respect privacy and fairness concerns. We address the challenge of developing machine learning-based solutions for CSAM detection while considering the ethical and legal constraints of using explicit imagery for model training. To circumvent these limitations, we propose a novel framework that leverages file metadata for CSAM identification. Our approach involves training and evaluating deploymentready machine learning models based on file paths, demonstrating its effectiveness on a dataset of over one million file paths collected from actual investigations. Additionally, we assess the robustness of our solution against adversarial attacks and explore the use of differential privacy to protect the model from model inference attacks without sacrificing utility. In the second part of this thesis, we investigate the opportunities and challenges of utilizing synthetic data generation in the context of increasing global privacy regulations. Synthetic data, which mimics real data without replicating personal information, offers various possibilities for data analysis and machine learning tasks. However, little is understood about the impacts of using synthetic data sets in machine learning pipelines, especially when only synthetic data is available for training and evaluation. This study examines the relationship between differential privacy and machine learning fairness, exploring how different synthetic data generation methods affect fairness and comparing the performance of models trained and tested with synthetic data versus real data. The findings contribute to a better understanding of synthetic data usage in machine learning pipelines and its potential to advance research across various fields. As future work, we aim to develop protocols for generation of synthetic data sets from distributed sources with differentially private guarantees, without the need for a trusted dealer. The goal of this approach is to enable data holders to share data without violating legal and ethical restrictions.

2023
Dissertações
1
  • Daniele Dias Sousa
  • Métodos para Reconstrução de Imagens Hiperespectrais para a Costa Brasileira Baseados em Compressive Sensing

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • HUGERLES SALES SILVA
  • LEONARDO AGUAYO
  • ROBSON DE OLIVEIRA ALBUQUERQUE
  • UGO SILVA DIAS
  • Data: 31/01/2023

  • Mostrar Resumo
  • A imagem hiperespectral surgiu como uma nova geração de tecnologia para observação da Terra e exploração espacial desde o início deste milênio e amplamente utilizada em várias disciplinas e aplicações. A informação espectral detalhada é adquirida por imageadores hiperespectrais, nos quais, geralmente produzem resultados impossíveis de serem obtidos com imagens multiespectrais ou outros tipos de satélites. Muitas técnicas para análise de qualidade dos dados foram desenvolvidas ao longo dos anos, e adaptadas para imagens hiperespectrais de acordo com o objetivo, como o NDVI e o NDWI. A grande limitação deste tipo de tecnologia é o armazenamento dos dados devido a limitação de peso que satélites possuem. Desta forma, técnicas de compressão passaram-se a ser utilizadas, como o \textit{Compressive Sensing} (CS) criado para imageamento médico, gerando imagens com alta qualidade a partir de linhas radiais no espaço-$k$ mesmo quando a relação de Shannon-Nyquist não é obtida. Assim, este trabalho combinou a técnica de CS com a de análise de qualidade para reconstruir imagens hiperespectrais da costa brasileira, a partir de estimação de dados no domínio de Fourier e quantificar a qualidade do dado a partir dos dados reais, obtidos pelo satélite PRISMA. Os resultados obtidos apresentam tanto a relação sinal-ruído da reconstrução, onde há uma variação entre 45~dB e 330~dB comparados a imagem original e que mesmo em imagens o valor de números de radias abaixo do ideal, é visível a ênfase de informação de acordo com o NDWI. Estes resultados sugerem que \textit{Compressive Sensing} com pré-filtragem permite uma melhora em relação à técnica de pré-filtragem para imageamento hiperespectral, analogamente à melhora observada nos últimos anos em problemas de imageamento médico.


  • Mostrar Abstract
  • Hyperspectral imaging has emerged as a new generation of technology for Earth observation and space exploration since the beginning of this millennium and widely used in various disciplines and applications. Detailed spectral information is acquired by hyperspectral imagers, which generally produce results that are impossible to obtain with multispectral images or other types of satellites. Many techniques for data quality analysis have been developed over the years, and adapted for hyperspectral imaging according to the objective, such as NDVI and NDWI. The great limitation of this type of technology is the storage of data due to the weight limitation that satellites have. In this way, compression techniques started to be used, such as \textit{Compressive Sensing} (CS) created for medical imaging, generating high quality images from radial lines in $k$-space even when the ratio of Shannon-Nyquist is not obtainable. Thus, this work combined the CS technique with quality analysis to reconstruct hyperspectral images of the Brazilian coast, based on data estimation in the Fourier domain and to quantify data quality based on real data obtained by the PRISMA satellite. The results obtained show both the signal-to-noise ratio of the reconstruction, where there is a variation between 45~dB and 330~dB compared to the original image and that even in images the value of radiant numbers below the ideal, the emphasis of information is visible according to the NDWI. These results suggest that \textit{Compressive Sensing} with prefiltering allows an improvement over the prefiltering technique for hyperspectral imaging, similarly to the improvement observed in recent years in medical imaging problems.

2
  • JOAO PAULO CARNEIRO RODRIGUES
  • Estudo de Viabilidade Técnico-econômica da Usina Fotovoltaica da Faculdade de Tecnologia na Universidade de Brasília

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • ARTHUR COSTA DE SOUZA
  • Data: 26/05/2023

  • Mostrar Resumo
  • Atualmente, impõe-se preocupante cenário global a respeito do meio ambiente, haja vista que, antes tidos como infinitos ou abundantes, os recursos disponibilizados por ele estão cada vez mais escassos. Nesta seara, ganham destaque os sistemas fotovoltaicos, capazes de produzir energia elétrica a partir do Sol, fonte renovável e sustentável de energia. Neste contexto, encontra-se este trabalho acadêmico, de forma a contribuir com a sociedade, ao se realizar ampla análise técnico-econômica de um sistema fotovoltaico instalado em destacada instituição pública de ensino superior, em consonância com os índices utilizados pela literatura atual, bem como em comparação com outros sistemas similares. Trata-se de sistema inaugurado em 2019, composto por 450 módulos fotovoltaicos, com potência nominal de 150kWp, instalado na Faculdade de Tecnologia da Universidade de Brasília. Em acréscimo, é realizada uma simulação computacional desta usina, por meio do software System Advisor Model – SAM, a fim de se verificar o desempenho teórico do sistema e comparálo com o desempenho real aferido, avaliando-se discrepâncias sob a óptica da análise de fontes de danos e perdas, seja por externalidades, seja por outras questões técnicas. Ademais, avaliam-se, ainda, os parâmetros de qualidade de energia elétrica apresentados por esse sistema, medidos in loco, à luz dos requisitos estabelecidos pelos normativos vigentes. Por derradeiro, considerando as variáveis técnicas e econômicas que norteiam a área de energia solar fotovoltaica, é proposto Plano de Manutenção, Operação e Controle – PMOC, a ser aplicado a estes sistemas, de forma a se colaborar com rotinas de manutenção preditiva e preventiva que permitam a previsão e a identificação de falhas, em tempo adequado para a devida atuação tempestiva.


  • Mostrar Abstract
  • Currently, there is a worrying global scenario regarding the environment, because, previously considered infinite, the avaliable resources are increasingly scarce. In this area, photovoltaic systems stand out, capable of producing electrical energy from the Sun, a renewable and sustainable source of energy. In this context, this academic work is found, in order to contribute to today’s society, by carrying out a broad technical-economic analysis of a photovoltaic system installed in a prominent public institution of education, in line with the indices used in the current literature, as well as comparing it with other similar systems. It is a system inaugurated in 2019, consisting of 450 photovoltaic modules, with a nominal power of 150kWp, installed at the Faculty of Technology of the University of Brasília. In addition, a computational simulation of this plant is carried out, using the System Advisor Model - SAM software, in order to verify the theoretical performance of the system, and compare it with the actual performance measured, evaluating discrepancies from the perspective of the analysis of sources of damage and loss, whether due to externalities or other technical issues. In addition, the parameters of quality of electric energy presented by this system, measured in the place of the installation, in accordance with the requirements established by the current regulations. Lastly, considering the technical and economic variables that guide the area of photovoltaic solar energy, a Maintenance, Operation and Control Plan is proposed, to be applied to these systems, in order to collaborate with predictive and preventive maintenance routines that allow the prediction and identification of failures in adequate time for due action.

3
  • Ivo José de Oliveira
  • ESTUDO SOBRE O PROCESSO DE AQUECIMENTO DA MÃO DIREITA DE VIOLONISTAS

  • Orientador : ADSON FERREIRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
  • MAXWELL DIOGENES BANDEIRA DE MELO
  • Data: 28/06/2023

  • Mostrar Resumo
  • Exercícios de aquecimento são comumente realizados por violonistas acústicos para preparar os músculos envolvidos na execução do instrumento. No entanto, circunstâncias estressantes podem levar a um aquecimento ineficaz ou mesmo ao resfriamento dos dedos, o que pode resultar em redução do desempenho. O objetivo deste estudo foi comparar a eficácia de duas técnicas de aquecimento - uma vigorosa, empregando "com apoio" na pisada das cordas, e uma nova proposta leve, usando "sem apoio" na pisada das cordas, - em violonistas acústicos durante situações estressantes. Nove violonistas acústicos do sexo masculino (idade média: 27,2 anos, experiência média de tocar: 10,0 anos) foram submetidos a uma versão adaptada do teste do pressor frio, que induziu respostas fisiológicas ao estresse imitando o estresse do desempenho, antes de executar cada uma das duas rotinas. A eficácia das duas técnicas de aquecimento foi comparada monitorando a temperatura da mão usando uma câmera infravermelha antes e durante cada exercício por seis minutos. O estudo constatou que a técnica de aquecimento leve foi significativamente mais eficaz (p = 0,002816, tamanho do efeito = 103 1,42) em aumentar o aquecimento das mãos do que a técnica de aquecimento vigorosa (p = 104 0,3417, tamanho do efeito = 0,34). Os resultados deste estudo fornecem novas informações que podem ser usadas para melhorar o desempenho de violonistas acústicos e podem levar a pesquisas adicionais sobre técnicas para aprimorar a execução do violão acústico. As limitações do estudo incluem o pequeno tamanho da amostra e o foco apenas nos participantes do sexo masculino. Pesquisas futuras podem investigar os mecanismos subjacentes e as possíveis aplicações da técnica de aquecimento leve para o ensino e a prática de tocar violão.


  • Mostrar Abstract
  • Warm-up exercises are commonly performed by acoustic guitarists to prepare the muscles involved in playing the instrument. However, stressful circumstances can lead to ineffective warming up or even cooling down of the fingers, which can result in reduced  performance. The objective of this study was to compare the effectiveness of two warming-up techniques - a vigorous one, employing "support" in the string fretting, and a new light proposal,  using "no support" in the string fretting - in acoustic guitarists during stressful situations. Nine male acoustic guitarists (average age: 27.2 years, average playing experience: 10.0 years) were  subjected to an adapted version of the cold pressor test, which induced physiological stress responses mimicking performance stress, before performing each of the two routines. The effectiveness of the two warming-up techniques was compared by monitoring hand temperature using an infrared camera before and during each exercise for six minutes. The study found that  the light warming-up technique was significantly more effective (p = 0.002816, effect size = 135 1.42) in increasing hand warming than the vigorous warming-up technique (p = 0.3417, effect 136 size = 0.34). The results of this study provide new information that can be used to improve the performance of acoustic guitarists and may lead to further research on techniques to enhance acoustic guitar playing. The limitations of the study include the small sample size and the focus  only on male participants. Future research could investigate the underlying mechanisms and possible applications of the light warming-up technique for teaching and practicing guitar playing

4
  • Caio Missiaggia Moraes
  • MODAL PARAMETERS AND FAULT TRANSIENTS IN DOUBLE-CIRCUIT TRANSMISSION LINES: ON THE EFFECTS OF CONDUCTOR TRANSPOSITION, SHIELD WIRES, AND LOSSY SOIL MODELING

  • Orientador : AMAURI GUTIERREZ MARTINS BRITTO
  • MEMBROS DA BANCA :
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • FRANCISCO DAMASCENO FREITAS
  • EDUARDO COELHO MARQUES DA COSTA
  • Data: 28/06/2023

  • Mostrar Resumo
  • Este trabalho analisa o impacto da transposição de condutores, cabos para-raio e modelagem do solo nos parâmetros modais de uma linha de transmissão em circuito duplo. Foram desenvolvidas rotinas de modelagem computacional para representar os parâmetros modais da linha de transmissão, considerando a variação dos parâmetros ao longo da faixa de servidão. O modelo circuital é construído usando software do tipo EMTP, sendo consideradas as impedâncias e admitâncias calculadas para levar em conta os efeitos de corrente condutiva e de dispersão em solos variantes na frequência. Foram realizados estudos transitórios em uma linha de transmissão real de 500 kV em duplo circuito, considerando diversos cenários de resistividade do solo, transposição e modelagem do cabos para-raio. As faltas foram aplicadas a cada 1% da linha de transmissão, o que representa 100 faltas por cenário. Os resultados mostram que um único valor de resistividade sendo a média das resistividades da camada profunda representa com precisão a distribuição heterogênea de resistividade ao longo da linha, com uma discrepância inferior a 1%. Os esquemas de transposição que giram as fases dos circuitos em direções opostas resultam em correntes de curto-circuito mais baixas, melhorando a segurança do sistema de transmissão. O uso da redução de Kron, como é tradicionalmente realizada nos cálculos dos parâmetros da linha, produz resultados conservadores em comparação com o modelo modal-descomposto realista, com a superestimação das correntes do ramo de falta e das correntes de contribuição de curto-circuito em 0,9 p.u. (600 A). As correntes nos cabos para-raios podem atingir até 1,8 kA, destacando a importância de sua modelagem na linha de transmissão.


  • Mostrar Abstract
  • This work analyzes the impact of conductor transposition, shield wires, and soil modeling on modal parameters of a double-circuit transmission line. Computational modeling routines are developed to represent transmission line parameters span by span, capturing parameter variation along the right-of-way. The circuit model is constructed using EMTP-type software, considering impedances and admittances calculated to account for conductive and displacement current eects on lossy earth. Transient studies are performed on a real 500 kV double-circuit transmission line, considering various scenarios of soil resistivity, transposition and shield wire modeling. Faults are applied at every 1% of the power line, which represents 100 faults per scenario. Results shows that a single average of deep-layer resistivity accurately represents heterogeneous resistivity distribution along the line, with less than 1% discrepancy. Transposition schemes rotating phases in opposite directions result in lower short-circuit currents, improving safety. The use of Kron reduction, as traditionally performed in line parameters calculations, yields conservative results in comparison with the realistic modal-decomposed model, overestimating fault branch currents and short-circuit contribution currents by 0.9 p.u. (600 A). Shield wire currents can reach up to 1.8 kA, highlighting their signicance in transmission line modeling.

5
  • Marcos Paulo Caballero Victorio
  • Modelagem e Simulação do Sistema de Controle de uma Microrrede de Corrente Alternada Integrando Sistemas Fotovoltaicos e Armazenamento de Energia

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • FERNANDO CARDOSO MELO
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FRANCIS ARODY MORENO VASQUEZ
  • CAMILA SEIBEL GEHRKE
  • Data: 29/06/2023

  • Mostrar Resumo
  • Na última década, a busca pela sustentabilidade e pela redução da emissão de gases causadores do efeito estufa tem levado muitos países a aumentarem significativamente o uso de fontes renováveis de energia. Seguindo essa tendência mundial, entre 2012 e 2022, o Brasil aumentou expressivamente sua capacidade instalada de energia eólica e solar, a primeira de 1,89GW para 21,5GW, e a segunda de 6,61MW para 22,3GW. Nesse contexto, algumas regulamentações importantes foram recentemente promulgadas, a exemplo da Lei nº 14.300, de 6 de janeiro de 2022, que instituiu o marco legal da micro e minigeração distribuída, bem como permitiu que os consumidores produzam a própria energia a partir de fontes renováveis e criou o Sistema de Compensação de Energia Elétrica e o Programa de Energia Renovável Social. Também, há a Portaria nº 140/2022, do INMETRO, que representou um grande avanço para o setor elétrico, permitindo o uso de inversores híbridos de até 75kW. Ademais, em 2020, a COPEL lançou um projeto piloto que visa a compra de energia de geradores conectados ao sistema de distribuição, desde que atendam ao requisito de constituir uma microrrede. Com a evolução dos regulamentos e das tecnologias, espera-se que o uso de microrredes se torne cada vez mais comum e acessível no Brasil. Por isso, este trabalho realizou o estudo da modelagem dos componentes e dos controles necessários para o correto funcionamento de uma microrrede capaz de operar conectada à rede ou ilhada, validando as modelagens por meio de simulações computacionais no software Simulink®. A microrrede implementada é trifásica a quatro fios, com sistemas fotovoltaicos de dois estágios e bancos de baterias. No estágio CC-CC do sistema fotovoltaico, foi utilizado um conversor Boost com o algoritmo de MPPT da Condutância Incremental. Para o estágio CCCA, utilizou-se um inversor NPC de três níveis com a modulação Space Vector. Para controlar o fluxo de potência dos bancos de baterias, foi utilizado um conversor Buck-Boost bidirecional. Por fim, também foram implementados os seguintes controles: redução do desequilíbrio de tensão dos capacitores do barramento CC, redução do desequilíbrio de tensão no lado CA, limitação da potência dos módulos fotovoltaicos, detecção de ilhamento, sincronismo para a reconexão, controles secundários de tensão, de frequência e de potência ativa, e gerenciamento de energia.


  • Mostrar Abstract
  • In the last decade, the search for sustainability and the reduction of greenhouse gas emissions has led many countries to significantly increase the use of renewable energy sources. Following this global trend, between 2012 and 2022, Brazil significantly increased its installed capacity of wind and solar energy, the former from 1.89 GW to 21.5 GW, and the latter from 6.61 MW to 22.3 GW. In this context, some important regulations have recently been enacted, such as Law No. 14,300 of January 6, 2022, which established the legal framework for micro and mini distributed generation, allowed consumers to produce their own energy from renewable sources, and created the Energy Compensation System and the Social Renewable Energy Program. Also, there is Ordinance No. 140/2022, from INMETRO, which represented a major breakthrough for the electricity sector, allowing the use of hybrid inverters of up to 75 kW. Furthermore, in 2020, COPEL launched a pilot project aimed at purchasing energy from generators connected to the distribution system, provided they meet the requirement of constituting a microgrid. With the evolution of regulations and technologies, it is expected that the use of microgrids will become increasingly common and accessible in Brazil. Therefore, this work carried out the study of modeling the components and controls necessary for the correct operation of a microgrid capable of operating connected to or islanded from the grid, validating the models through computer simulations in the Simulink® software. The implemented microgrid is three-phase four-wire, with two-stage photovoltaic systems and battery banks. In the CC-CC stage of the photovoltaic system, a Boost converter with the Incremental Conductance MPPT algorithm was used. For the CC-CA stage, a three-level NPC inverter with Space Vector modulation was used. To control the power flow of the battery banks, a bidirectional Buck-Boost converter was used. Finally, the following controls were also implemented: reduction of voltage unbalance of the CC bus capacitors, reduction of voltage unbalance on the AC side, limitation of the power of the photovoltaic modules, detection of islanding, synchronization for reconnection, secondary voltage, frequency, and active power controls, and energy management.

6
  • Gabriel de Castro Araújo
  • 360EAVP: The Edition-Aware 360-degree Video Player.

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • PAULO ROBERTO DE LIRA GONDIM
  • PEDRO GARCIA FREITAS
  • DEBORA CHRISTINA MUCHALUAT SAADE
  • Data: 27/07/2023

  • Mostrar Resumo
  • Comparados aos vídeos tradicionais, que estão sendo estudados a mais de um século, vídeos em 360 graus (vídeos omnidirecionais) representam um tipo de mídia relativamente novo. A exploração da criação de vídeos mais complexos com narrativas no formato de 360 graus ainda está em andamento. No entanto, devido às características únicas dos vídeos em 360 graus, os cineástas ainda estão estabelecendo sua própria identidade e métodos para contar narrativas complexas. Nesses casos, eles enfrentam o desafio de direcionar a atenção dos usuários para as principais cenas e garantir que a mensagem pretendida não seja perdida, sem a capacidade de contar com as técnicas de edição tradicionais devido à falta do controle da câmera.
    Para enfrentar esse problema, este trabalho apresenta o 360EAVP, uma aplicação de código aberto para navegadores web para transmissão e visualização em "Head-mounted Displays" (HMDs) de vídeos em 360 graus editados. A plataforma permite direcionar a atenção dos usuários para as principais cenas-chave, estando ciente dessas cenas antes do início do vídeo. Este trabalho apresenta as principais características introduzidas pelo 360EAVP, que são: 1) operação em HMDs com base no viewport do usuário em tempo real; 2) edição dinâmica por meio das técnicas de snap-change ou fade-rotation combinadas com "piscar dos olhos"; 3) avaliação da visibilidade do viewport do usuário em relação à projeção cúbica do player (para fins de solicitações de segmentos); 4) incorporação das informações das edições na operação do algoritmo ABR; 5) módulo de previsão do viewport do usuário com base em algoritmos de regressão de ridge ou linear; e 6) coleta de dados durante a reprodução do vídeo. A aplicação introduzida pode ser usada para apoiar pesquisas em diversos temas, como otimização da transmissão de vídeo em 360 graus editado com base em segmentos, experimentos psicofísicos, geração de base de dados, desenvolvimento de algoritmos ABR, etc. Para avaliar as capacidades da plataforma, foram realizados experimentos como prova de conceito para exemplificar como as técnicas de edição impactam a experiência do usuário e a transmissão do vídeo.

  • Mostrar Abstract
  • Compared to traditional videos (2D), which have been studied for over a century, 360-degree videos (omnidirectional videos) represent a relatively new type of media. The exploration of creating more complex videos with storytelling in the 360-degree format is still ongoing. However, due to the fact that 360-degree videos have their own unique characteristics, filmmakers are still establishing their own identity and methods for telling complex narratives. In such cases, they face the challenge of guiding users' attention towards key scenes and ensuring that the intended message is not missed, without the ability to rely on traditional editing techniques due to their lack of control over the camera.
    To address this problem, this work introduces 360EAVP, an open-source Web browser-based application for streaming and visualization of 360-degree edited videos on head-mounted displays (HMD). The platform enables guiding users' attention to the main key scenes, being aware of these scenes before the video starts. This work explains the main features introduced by 360EAVP, which are: 1) operation on HMDs based on real-time user's viewport; 2) dynamic editing via ``snap-change'' or ``fade-rotation'' combined with ``blinking''; 3) visibility evaluation of user's Field of View with respect to the player's cubic projection (for purposes of tile requests); 4) incorporation of editing timing information into the operation of the ABR algorithm; 5) viewport prediction module based on either linear regression or ridge regression algorithms; and 6) data collection and log module during video playback. The introduced application can be freely used to support research on many topics such as optimization of tile-based 360-degree edited video streaming, psycho-physical experiments, dataset generation, and ABR algorithm development, to name a few. To evaluate the platform capabilities, some proof of concept experiments were made to show how editing techniques can impact the user's experience and the video streaming.
7
  • HELTON ALVES DE AZEVEDO
  • Reconstrução de Campos Eletromagnéticos  Utilizando Regularização de  Tikhonov-Phillips e Inteligência Artificial

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • ADONIRAN JUDSON DE BARROS BRAGA
  • DANIEL ORQUIZA DE CARVALHO
  • GEFESON MENDES PACHECO
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • Data: 28/11/2023

  • Mostrar Resumo
  • A caracterização experimental de antenas vem ao longo dos anos tornando-se um importante campo de estudo do eletromagnetismo aplicado. Isso fica mais evidente devido ao fato que o projeto de elementos irradiantes estão cada vez mais complexos devido ao significante aumento das demandas eletrônicas, influência do ambiente circundante, especificações de operação e banda e funcionalidades adicionais aumentam a ainda mais a necessidade de investigações e estudos mais profundos dos elementos radiantes. No entanto, apesar do fato de tal área ter uma vasta quantidade de estudos conduzidos, ela ainda possui desafios. O problema de reconstrução do campo magnético por caracterização pode ser considerado como NP-difícil e não convexo, e quantidade de dados e as estratégias de aquisição de dados possuem um grande impacto no sucesso final do processo. Neste contexto, esse trabalho possui como objetivo apresentar novas estratégias de reconstrução do campo eletromagnético utilizado estratégias interpoladas baseadas na regularização de Thikonov-Philips, que otimizada as posições de amostragem paralelo-equatorial do campo, em que o número de condicionamento é métrica utilizada para atingir tal objetivo. Tal estratégia permite a reconstrução do campo eletromagnético com dados faltantes, em que os efeitos de Gibbs nos limites da janela utilizada são praticamente desprezíveis. Além disso, uma nova abordagem de reconstrução do campo eletromagnético baseado na resolução do problema de recuperação de fase utilizando inteligência artificial também é apresentada, permitindo obter o campo eletromagnético irradiado em uma determinada esfera usando apenas os dados de amplitude e suas posições angulares. Para a primeira técnica, os resultados foram comparados com medições, e o processo de interpolação é computacionalmente eficiente e mostrou-se extremamente relevante para aplicações em que a quantidade de dados é limitada e é contaminado por ruído de maneira considerável. Todos esses resultados foram obtidos de maneira estatisticamente sólida e garantem que o processo é estável, rápido e robusto. Já para o segundo item deste trabalho, os resultados obtidos mostram que os modelos de inteligência artificial conseguem recuperar a distribuição de fase do campo eletromagnético para reconstrução do mesmo, e performam de maneira satisfatória para relações sinal ruído de medição acima de 5 dB. Tais resultados também são consolidados com análises estatísticas robustas.


  • Mostrar Abstract
  • A caracterização experimental de antenas vem ao longo dos anos tornando-se um importante campo de estudo do eletromagnetismo aplicado. Isso fica mais evidente devido ao fato que o projeto de elementos irradiantes estão cada vez mais complexos devido ao significante aumento das demandas eletrônicas, influência do ambiente circundante, especificações de operação e banda e funcionalidades adicionais aumentam a ainda mais a necessidade de investigações e estudos mais profundos dos elementos radiantes. No entanto, apesar do fato de tal área ter uma vasta quantidade de estudos conduzidos, ela ainda possui desafios. O problema de reconstrução do campo magnético por caracterização pode ser considerado como NP-difícil e não convexo, e quantidade de dados e as estratégias de aquisição de dados possuem um grande impacto no sucesso final do processo. Neste contexto, esse trabalho possui como objetivo apresentar novas estratégias de reconstrução do campo eletromagnético utilizado estratégias interpoladas baseadas na regularização de Thikonov-Philips, que otimizada as posições de amostragem paralelo-equatorial do campo, em que o número de condicionamento é métrica utilizada para atingir tal objetivo. Tal estratégia permite a reconstrução do campo eletromagnético com dados faltantes, em que os efeitos de Gibbs nos limites da janela utilizada são praticamente desprezíveis. Além disso, uma nova abordagem de reconstrução do campo eletromagnético baseado na resolução do problema de recuperação de fase utilizando inteligência artificial também é apresentada, permitindo obter o campo eletromagnético irradiado em uma determinada esfera usando apenas os dados de amplitude e suas posições angulares. Para a primeira técnica, os resultados foram comparados com medições, e o processo de interpolação é computacionalmente eficiente e mostrou-se extremamente relevante para aplicações em que a quantidade de dados é limitada e é contaminado por ruído de maneira considerável. Todos esses resultados foram obtidos de maneira estatisticamente sólida e garantem que o processo é estável, rápido e robusto. Já para o segundo item deste trabalho, os resultados obtidos mostram que os modelos de inteligência artificial conseguem recuperar a distribuição de fase do campo eletromagnético para reconstrução do mesmo, e performam de maneira satisfatória para relações sinal ruído de medição acima de 5 dB. Tais resultados também são consolidados com análises estatísticas robustas.

8
  • Jose Antonio de França Junior
  • An NS-3 Module for Simulation of Simultaneous Wireless Information and Power Transfer (SWIPT) over IEEE 802.11 Networks

  • Orientador : MARCELO MENEZES DE CARVALHO
  • MEMBROS DA BANCA :
  • MARCELO MENEZES DE CARVALHO
  • HUGERLES SALES SILVA
  • UGO SILVA DIAS
  • MARCOS AUGUSTO MENEZES VIEIRA
  • Data: 28/11/2023

  • Mostrar Resumo
  • Em meio a um mundo complexo que abrange, por um lado, profundos avanços tecnológicos conquistados pela humanidade por meio do uso do conhecimento científico, exemplificados pelo desenvolvimento de máquinas capazes de imitar a interação humana com o mundo. Por outro lado, a humanidade retrocede a eras primitivas e utiliza tecnologias relacionadas para matar crianças em uma guerra tecnológica. Nesse contexto, apresentamos uma pesquisa realizada em outra frente, que poderá contribuir para o avanço da autonomia das máquinas, permitindo que se tornem fontes autossustentáveis de energia. Apesar do grande desafio que essa proposta representa dentro de um amplo espectro de dispositivos eletrônicos que anseiam por fontes que os tornem autossustentáveis do ponto de vista energético, nossa proposta tem como objetivo atender inicialmente a dispositivos de Internet das Coisas, que podem ser implantados em arquiteturas de redes padronizadas. Portanto, nossa pesquisa científica resultou no desenvolvimento de uma extensão para a biblioteca do "Network Simulator 3" (NS-3), a fim de possibilitar a simulação do "Simultaneous Wireless Information and Power Transfer" (SWIPT) em redes IEEE 802.11. Nas páginas a seguir, fornecemos uma descrição detalhada sobre a extensão proposta em relação aos seus principais blocos de construção, seus mecanismos subjacentes e sua resposta aos parâmetros e modos de operação da camada física (PHY). Além disso, discutimos o desenvolvimento de novas classes e outros tipos de dados de acordo com o padrão adotado pelo NS-3. No final do nosso trabalho, avaliamos o desempenho da nossa implementação utilizando métricas padronizadas que nos permitem concluir que nossa implementação funciona nos cenários predeterminados para sua implementação. O resultado desta investigação é um ambiente de simulação SWIPT completo que pode ser usado para o projeto e avaliação de desempenho de novos protocolos de eficiência energética baseados em SWIPT para a tecnologia IEEE 802.11.


  • Mostrar Abstract
  • In the midst of a complex word that comprises at one end profound technological advancements mankind has achieved through the usage of scientific knowledge, exemplified by the development of machines that can mimic human interaction to the the world. On another end, mankind regress to primitive stages and use adjacent technologies to kill children in technological war. In this context, we propose to contribute on a different front which may help to extend the autonomy of machines by enabling them to become self-sustaining independent generators of energy for their own usage. Which represents quite a challenge considering the spectrum of devices that relentless demand reliable source of energy. Nonetheless, in our work we set sight on IoT devices that can be deployed in a standardized network architecture where our contribution could fit best. Therefore, through our research we implement an extension into the library of the Network Simulator 3 (NS-3) to enable the simulation of Simultaneous Wireless Information and Power Transfer (SWIPT) over IEEE 802.11 networks. In the following pages we provide a detailed description about the proposed extension regarding its major building blocks, its underlying mechanisms, and its response to Physical layer (PHY) parameters and modes of operation. Further, we discuss the development of new classes and other data types into the namespace of NS-3. Toward the end of our work we evaluate the performance of our implementation using standardized metrics that allow us to conclude that our implementation works in the scenarios used for its assessment. The outcome of this investigation is a full-featured SWIPT simulation environment that can be used for the design and performance evaluation of new SWIPT-based energy-efficient protocols based on IEEE 802.11 technology.

9
  • Bruno Tunes de Mello
  • Adaptive Kalman Filtering for Small Satellite Attitude Estimation.

  • Orientador : RENATO ALVES BORGES
  • MEMBROS DA BANCA :
  • RENATO ALVES BORGES
  • GEOVANY ARAUJO BORGES
  • WILLIAM REIS SILVA
  • VALDEMIR CARRARA
  • Data: 30/11/2023

  • Mostrar Resumo
  • Devido à evolução da tecnologia, particularmente a eletrônica, o desenvolvimento de satélites tornou-se mais acessível, permitindo sua construção por empresas startups e universidades. Tais satélites utilizam componentes de baixo custo, de uso geral, onde busca-se trocar uma plataforma de alto custo e confiabilidade por uma constelação de veículos de baixo custo, menos confiáveis, mais avançados tecnologicamente, e de fácil reposição. Neste contexto, um sistema de determinação de atitude adaptativo é uma alternativa para lidar com sensores que possuem estatísticas que variam ao longo do tempo ou que não são completamente conhecidas. Um ADCS adaptável garantiria maior confiabilidade à plataforma, aumentando a vida útil e reduzindo o custo de reposição. Tendo isto como motivação, o presente trabalho apresenta a análise de algoritmos para adaptação do método de filtragem em medições de sensores na estimação da atitude de um pequeno satélite. Limita-se ao estudo de métodos estocásticos para tal fim, como a estimação das matrizes de covariância dos ruídos do processo e observação, e a adaptação de tais matrizes por múltiplos fatores de escala. Os resultados obtidos mostram que a adaptação das matrizes de covariância permite acomodar as medidas degradadas, diminuindo a sua influência no filtro e proporcionando a manutenção da precisão da atitude do satélite em relação ao estimador sem mecanismo de adaptação.


  • Mostrar Abstract
  • Due to the technology progress, particularly in electronics the satellite development has become more accessible, allowing its manufacturing by startup companies and universities. Such satellites use low cost components, for general purpose, where one seeks for exchanging a high cost and high reliability platform for a low cost vehicle constellation, less reliable, more advanced technologically and with easy replacement. In this context, an adaptive attitude determination system is an alternative deal with sensors that have time-varying statistics or they are not completely known. An adaptive ADCS grants more reliability to the platform, increasing its life-cycle and reducing the replacement cost. Taking it as motivation, the work presents the analysis of algorithms for adaptation of the filtering method in sensor measurements in the attitude estimation of a small satellite. It is limited to the study of stochastic methods for such goal, as the estimation of the process and observation noise covariance matrices, along with the hypothesis test regarding the fault occurrence and the matrices adaptation by multiple scale factors. The results obtained show that the covariance matrices adaptation allows the faulty measurements to be accommodated, reducing their influence in the filter and providing the attitude accuracy preservation for the satellite when comparing with the estimator without the fault detection and isolation mechanism.

10
  • Natalia Oliveira Borges
  • Controle de Consenso para Formação de Robôs Multiagentes

  • Orientador : JOAO YOSHIYUKI ISHIHARA
  • MEMBROS DA BANCA :
  • JOAO YOSHIYUKI ISHIHARA
  • HENRIQUE CEZAR FERREIRA
  • RENATO ALVES BORGES
  • MARCO HENRIQUE TERRA
  • Data: 01/12/2023

  • Mostrar Resumo
  • O desenvolvimento de técnicas de controle de consenso possui inúmeras aplicabilidades em sistemas multiagentes robóticos. Este trabalho visa estabelecer protocolos para projeto de controladores de consenso robusto de sistemas multiagentes lineares a partir do compartilhamento de saídas entre os agentes. Considera-se, nesse contexto, as possíveis incertezas relacionadas à topologia de comunicação entre os agentes e a presença de entradas de distúrbios que podem afetar tanto a dinâmica dos agentes quanto a medição de suas saídas. O projeto de controladores de consenso robusto é posteriormente utilizado para desenvolver leis de controle que solucionam o problema de formação entre os agentes em duas propostas distintas: no caso em que a formação é relativa entre os agentes e invariante no tempo e no caso em que se pretende rastrear uma formação variante no tempo. Para o controle de formação também são consideradas as possibilidades de incertezas na topologia de comunicação e atuação de distúrbios. Por m, o projeto de controlador linear desenvolvido é aplicado em simulação robótica com um grupo de robôs móveis diferenciais do tipo Pineer P3-DX. Neste caso é necessário linearizar a dinâmica do robô a partir da técnica de linearização por realimentação de entrada-saída. Os resultados obtidos na aplicação do controle de formação multi-robôs são discutidos, destacando as principais vantagens e limitações.


  • Mostrar Abstract
  • The development of consensus control techniques has numerous applications in robotic multi-agent systems. This work aims to establish protocols for the design of robust consensus controller for linear multi-agent systems, based on output sharing among the agents. In this context, considerations are made regarding possible uncertainties related to the communication topology and the presence of disturbance inputs that can affect both the agents' dynamics and the measurement of their outputs. The design of the robust consensus controller is subsequently used to develop control laws that solve the formation problem in two distinct proposals: in the case where the formation is relative among the agents and time-invariant, and in the case where it is desired to track a time-variant formation, while maintaining the same conditions of uncertainties and disturbance effects. Finally, the developed linear controller design is applied in a robotic simulation with a group ofPioneer P3-DXmobile robots. In this scenario, it is necessary to linearize the robot's dynamics using the input-output feedback linearization technique. The results obtained from the application of multi-robot formation control are discussed, highlighting the main advantages and limitations.

Teses
1
  • LETÍCIA MOREIRA VALLE
  • A new machine learning based framework to classify and analyze industry-specific regulations

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • DIEGO LISBOA CARDOSO
  • FERNANDO DE BARROS FILGUEIRAS
  • GEORGES DANIEL AMVAME NZE
  • UGO SILVA DIAS
  • VINICIUS PEREIRA GONCALVES
  • Data: 09/05/2023

  • Mostrar Resumo
  • Transparência e abertura de governo são fatores-chave para a modernização do estado. A combinação entre transparência e informação digital deu origem ao conceito de Governo Aberto, que aumenta o entendimento do cidadão sobre processos governamentais e como consequência o monitoramento das ações do governo, o que, por sua vez, melhora a qualidade dos serviços públicos e do processo decisório governamental. Com o objetivo de melhorar a transparência legislativa e o entendimento do processo regulatório brasileiro e suas características, este trabalho apresenta o RegBR, o primeiro framework nacional para centralizar, classificar e analisar as regulamentações do governo brasileiro. Foi criada uma base de dados centralizada da legislação Federal Brasileira construída a partir de rotinas de ETL automatizadas e processadas com técnicas de mineração de dados e aprendizado de máquina. Esta estrutura avalia diferentes modelos de processamento de linguagem natural (PLN) em uma tarefa de classificação de texto em um novo corpus jurídico português e realiza análises regulatórias com base em métricas que dizem respeito à complexidade linguística, restritividade, popularidade e relevância de citação específica dos setores da economia. Assim, este trabalho é um projeto inovador e único que propõe métricas que podem ser utilizadas pelos formuladores de políticas públicas para mensurar seu próprio trabalho e que visa aumentar a abertura e transparência do processo público, mas também apoiar novos estudos na área de impacto regulatório brasileiro .


  • Mostrar Abstract
  • Government transparency and openness are key factors to bring forth the modernization of the state. The combination of transparency and digital information has given rise to the concept of Open Government, that increases citizen understanding and monitoring of government actions, which in turn improves the quality of public services and of the government decision making process. With the goal of improving legislative transparency and the understanding of the Brazilian regulatory process and its characteristics, this work introduces RegBR, the first national framework to centralize, classify and analyze regulations from the Brazilian government. A centralized database of Brazilian federal legislation built from automated ETL routines and processed with data mining and machine learning techniques was created. This framework evaluates different natural language processing (NLP) models in a text classification task on a novel Portuguese legal corpus and performs regulatory analysis based on metrics that concern linguistic complexity, restrictiveness, popularity, and industry-specific citation relevance. Hence, this work is an innovative and unique project that proposes metrics that can be used by policy makers to measure their own work and which aims to increase openness and transparency of the public process, but also supports new studies in the area of Brazilian regulatory impact.

2
  • Luis Fernando Arias Roman
  • Proposal of Authentication and Authorization Protocols for Electric Vehicles Charging Stations

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • PAULO ROBERTO DE LIRA GONDIM
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • MARCELO MENEZES DE CARVALHO
  • LUIZ CARLOS PESSOA ALBINI
  • RENATO MARIZ DE MORAES
  • Data: 29/06/2023

  • Mostrar Resumo
  • O carregamento sem fio para veículos elétricos (“Electrical Vehicles” - EV)
    enquanto o veículo está em movimento ganhou atenção especial como um novo serviço.
    Este serviço é suportado por tecnologias de transferência de energia sem fio (“Wireless
    Power Transfer” - WPT), que promovem o carregamento durante a condução (“Charging
    while Drive” - CWD) por meio de indução magnética de bobinas instaladas no solo. No
    entanto, o serviço também trouxe novos desafios, incluindo a segurança do sistema, que
    devem ser resolvidos.
    O sistema de carga CWD-WPT deve garantir a privacidade, o anonimato, a
    integridade e a disponibilidade dos dados armazenados ou em trânsito pelo sistema,
    sendo necessária a implementação de um controle de acesso por meio da autenticação
    do usuário para garantir a segurança e privacidade dos dados. O processo de
    autenticação do usuário é fundamental para o sistema de carga CWD-WPT, e os
    protocolos utilizados para esta tarefa devem garantir o acesso de usuários válidos ao
    sistema e resistir a ataques de segurança.
    Esta tese de doutorado aborda o projeto de protocolos de autenticação e
    autorização de uma estação de carregamento CWD-WDP baseada em nuvem, que
    garante a segurança da informação de forma mais eficiente, na maioria dos casos, em
    termos de custos de comunicação, computação e energia, em comparação a outros
    protocolos publicados. Esta tese apresenta 4 (quatro) protocolos para autenticação e
    controle de acesso de EVs em uma estação de carregamento CWD-WPT integrada em
    uma infraestrutura VANET (“Vehicular Ad Hoc Network”) baseada em nuvem.
    O 1o, 2o e 4o protocolos foram projetados com base em uma estação de
    carregamento com controle centralizado, enquanto o 3o protocolo projetado com base
    em uma estação de carregamento com controle descentralizado. O 1o protocolo foi
    construído principalmente com o uso de criptografia baseada em emparelhamento
    bilinear e cadeia de hash. O 2o protocolo é uma variante do primeiro, cujo principal
    diferencial é a adoção de um novo esquema criptográfico baseado em mapas caóticos e
    árvore binária para controle de acesso no sistema. Seu desempenho em relação a
    métricas como custos computacionais, de comunicação e de energia é melhor do que
    outros esquemas e garante a autenticação mútua entre os EVs e todas as entidades do
    sistema.
    Por outro lado, o 3o protocolo foi projetado em uma arquitetura de carregamento
    CWD-WPT descentralizada, e os esquemas criptográficos utilizados são mapas caóticos
    e cadeia de “hash”. Foi empregado “blockchain” para a criação e gerenciamento de

    grupos e autenticação e controle de acesso do EV na estação de carregamento CWD-
    WPT. De acordo com os resultados, o protocolo baseado em “blockchain” obteve melhor

    desempenho computacional, energia e recursos de segurança em comparação com
    outros protocolos.
    A arquitetura do sistema considerada para o desenho do 4o protocolo possui um
    esquema hierárquico segundo o qual o sistema de confiança, o blockchain e o sistema
    de cobrança CWD-WPT são gerenciados na nuvem tradicional, enquanto a computação
    em névoa gerencia as RSUs (“Road Side Units”) das estações de carregamento. O
    protocolo usa confiança computacional para validar a forma de autenticação no sistema.

    Se a confiança do usuário estiver acima de certo nível, o processo de autenticação no
    sistema torna-se mais leve e rápido, sem descuidar da segurança das comunicações. A
    utilização de mapas caóticos se mostrou vantajosa em termos de desempenho de
    execução e tem promovido uma rápida criação de chaves de sessão e assinaturas
    digitais com baixo custo computacional. Por outro lado, o blockchain fornece às redes
    VANET transparência em seu funcionamento, resistência a ataques e uma validação
    rápida e eficiente das credenciais do usuário no processo de autenticação para autorizar
    ou negar seu acesso ao sistema. Também garante uma alta disponibilidade do serviço
    devido ao seu design descentralizado.
    A segurança dos protocolos propostos foi verificada analiticamente, sendo
    garantidas propriedades como autenticação mútua, acordo de chaves, confidencialidade,
    integridade, privacidade, sigilo direto perfeito e sigilo perfeito reverso; além disso, a
    análise destaca a resistência a ataques ao sistema, como injeção, repetição (“replay”) de
    mensagens, chave conhecida, negação de serviço (DoS, modelo OSI de 2-3 camadas),
    Homem no meio (“Man in the Middle” – MitM), mascaramento, personificação,
    desvinculabilidade (“unlinkability”), gastos duplos, resistência à adivinhação de senhas,
    vazamento de números aleatórios e informações privilegiadas. Finalmente, uma
    verificação formal de segurança foi realizada usando a ferramenta AVISPA.


  • Mostrar Abstract
  • Wireless charging for electric vehicles (EV), while the vehicle is in motion, has gained
    special attention as a new service for such vehicles. It is supported by wireless power
    transfer (WPT) technologies, which promote charging while driving (CWD) through
    magnetic induction from coils installed on the ground. However, the service has also led
    to new challenges, including system security, which must be met.
    The CWD-WPT charging system must guarantee the privacy, anonymity, integrity, and
    availability of data stored or in transit through the system, thus requiring the
    implementation of an access control through user authentication towards ensuring data
    security and privacy.
    The user authentication process is fundamental for the CWD-WPT charging system,
    and the protocols used for this task must guarantee the access of valid users to the
    system and resist security attacks.
    This doctoral thesis addresses the design of authentication and authorization protocols
    of a cloud-based CWD-WDP charging station, which guarantees the security of
    information, in most cases, in a more efficient way in terms of costs in communication,
    computing and energy, compared to other published protocols.
    This thesis presents 4 (four) protocols for the authentication and access control of EVs
    in a CWD-WPT charging station integrated in a cloud-based VANET (Vehicular Ad Hoc
    Network) infrastructure. The 1st, 2nd, and 4th ones were designed on the basis of a
    charging station with centralized control, whereas the 3rd is devoted to a decentralized
    control.
    The 1st protocol was built primarily with the use of bilinear pairing based cryptography
    and hash chaining. The 2nd is a variant of the first, whose main difference is the adoption
    of a new cryptographic scheme based on chaotic maps and a binary tree for access
    control in the system. Their performance regarding metrics such as computational,
    communication, and energy costs is better than that of other schemes, and ensures
    mutual authentication among EVs and all entities in the system.
    On the other hand, the 3rd protocol was designed on a decentralized CWD-WPT
    charging architecture, and the used cryptographic schemes are chaotic maps and hash
    chain. Blockchain was employed for the creation and management of groups and
    authentication and access control of the EV in the CWD-WPT charging station. According
    to the results, the blockchain-based protocol achieved better computational performance,
    energy, and security features compared to other protocols.
    The system architecture considered for the design of the 4th protocol has a hierarchical
    scheme according to which the trust system, the blockchain, and the CWD-WPT billing
    system are managed in the traditional cloud, while fog computing manages the RSUs
    (Road Side Units) of the charging stations. The protocol uses computational trust to
    validate the form of authentication in the system. If the user's confidence is above a
    certain level, the authentication process in the system becomes lighter and faster, without
    neglecting the security of communications.
    The use of chaotic maps has been advantageous in terms of execution performance
    and has promoted a fast creation of session keys and digital signatures at low
    computational costs. On the other hand, blockchain provides VANET networks with
    transparency in their functioning, resistance to attacks, and a quick and efficient
    validation of the user's credentials in the authentication process for authorizing or denying
    their access to the system. It also guarantees a high availability of the service due to its
    decentralized design.
    The security of the proposed protocols was analytically verified, and properties such
    as mutual authentication, key agreement, confidentiality, integrity, privacy, perfect forward
    secrecy and perfect backward secrecy have been guaranteed; additionally, the analysis

    highlights resistance to system attacks such as injection, replay, known key, Denial-of-
    Service (DoS, 2-3 layers OSI model), Man-in-the-Middle (MitM), masquerade,

    impersonation, unlinkability, double spending, resistance password-guessing, random
    number leakage, and privileged insider. Finally, a formal security check has been carried
    out using AVISPA tool.

3
  • JUAN CARLOS GONZALEZ GOMEZ
  • SYNCHRONIZATION OF UNDERACTUATED CHAOTIC SYSTEMS WITH APPLICATIONS TO INFORMATION SECURITY

     

  • Orientador : JOSE ALFREDO RUIZ VARGAS
  • MEMBROS DA BANCA :
  • BISMARK CLAURE TORRICO
  • ELMER ROLANDO LLANOS VILLARREAL
  • GUILLERMO ALVAREZ BESTARD
  • JOAO PAULO JAVIDI DA COSTA
  • JOSE ALFREDO RUIZ VARGAS
  • Data: 30/06/2023

  • Mostrar Resumo
  • Recentemente, vários estudos sobre a sincronização de sistemas caóticos foram publicados. Geralmente, na literatura, encontram-se sincronizadores onde o controle está presente em todas as equações de estado do sistema escravo. Por outro lado, trabalhos sobre comunicação segura baseada em sincronização mínima são muito raros. Motivado pelas possibilidades de melhoria, esta tese de doutorado propõe múltiplos esquemas de sincronização para sistemas caóticos e hipercaóticos, onde cada sistema possui uma metodologia de prova, estrutura e processo de criptografia e descriptografia distintos na comunicação segura. Consequentemente, cada sistema tem uma contribuição diferente. O capítulo 3 propõe um esquema de sincronização e antissincronização projetiva baseado em controle subatuado. O esquema é caracterizado por garantir a limitação e a convergência dos erros de sincronização ou antissincronização projetiva usando a teoria de Lyapunov. O capítulo 4 propõe um esquema de sincronização subatuado de um sistema financeiro hipercaótico capaz de considerar distúrbios limitados de qualquer natureza. O projeto do sistema usa a teoria de Lyapunov para garantir que o sistema seja robusto. O capítulo 5 propõe um sincronizador baseado em um sistema caótico de Liu. Ele usa um sinal de controle subatuado baseado na teoria de Lyapunov para sincronizar todos os estados na presença de perturbações com erros limitados. O sistema apresenta uma estrutura conveniente, aliada a uma função candidata à Lyapunov não trivial, para permitir a sincronização com apenas um sinal de controle na segunda equação de estado do sistema escravo. No capítulo 6 desta tese, o autor propõe um esquema simples de sincronização para o circuito de Chua, considerando perturbações, com controle proporcional em apenas uma das equações de estado do sistema. Além disso, é mostrado um esquema de comunicação segura com criptografia paralela, em que a dimensão das mensagens é a mesma que a dimensão dos estados. O capítulo 7 propõe uma sincronização subatuada robusta de um sistema hipercaótico de Lorenz. Adicionalmente, o esquema proposto é aplicado em telecomunicações seguras. Finalmente, o capítulo 8 propõe um esquema de sincronização subatuada para um sistema hipercaótico perturbado usando uma prova alternativa de Lyapunov. A abordagem proposta é mínima na forma que o sincronizador é simplificado ao máximo, uma vez que o controle é escalar e atua em apenas um estado. Os esquemas propostos em todos os capítulos consideram a presença de distúrbios em todos os estados na análise de estabilidade.


  • Mostrar Abstract
  • Recently, several studies on the synchronization of chaotic systems have been published. Generally, synchronizers in which control is present in all the state equations of the slave system are widely found in the literature. On the other hand, works on secure communication based on minimal synchronization are very rare. Motivated by the improvement possibilities, this doctoral thesis proposes multiple synchronization schemes for chaotic and hyperchaotic systems, where each system has a different proofing methodology, structure, and encryption and decryption process in secure communication. Consequently, each system has a different contribution. Chapter 3 proposes a projective synchronization and antisynchronization scheme based on underactuated control. The scheme is characterized by guaranteeing the boundedness and convergence of the projective synchronization or antisynchronization errors using the Lyapunov theory. Chapter 4 proposes an underactuated synchronization scheme of a hyperchaotic financial system capable of considering bounded disturbances of any nature. The system design uses Lyapunov theory to ensure that the system is robust. Chapter 5 proposes a synchronizer based on a Liu chaotic system. It uses a signal of an underactuated control based on Lyapunov theory to synchronize all states in the presence of perturbations with bounded errors. It has a convenient structure, in conjunction with a nontrivial Lyapunov candidate, to allow synchronization with only a control signal in the second state equation of the slave system. In Chapter 6 of this thesis, the author proposes a simple synchronization scheme for the Chua circuit, considering perturbations, with proportional control in only one of the state equations of the system. In addition, a secure communication scheme with parallel encryption is shown, in which the dimension of the messages is the same as the dimension of the states. Chapter 7 proposes a robust underactuated synchronization of a hyperchaotic Lorenz system. Furthermore, the proposed scheme is applied in secure telecommunications. Finally, Chapter 8 proposes an underactuated synchronization scheme for a perturbed hyperchaotic system using an alternative Lyapunov proof. The proposed approach is minimal in the way that the synchronizer is simplified to the maximum since the control is scalar and acts in only one state. The proposed schemes in all chapters consider the presence of disturbances in all states in the stability analysis.

4
  • ARTHUR AMARAL FERREIRA
  • Análise e predição de eventos de clima espacial e seus impactos nos sistemas comunicação por satélite

  • Orientador : RENATO ALVES BORGES
  • MEMBROS DA BANCA :
  • RENATO ALVES BORGES
  • DANIEL GUERREIRO E SILVA
  • ADOLFO BAUCHSPIESS
  • JOÃO FRANCISCO GALERA MONICO
  • NORBERT JAKOWSKI
  • Data: 07/07/2023

  • Mostrar Resumo
  • Os eventos de clima espacial podem afetar a operação de sistemas tecnológicos modernos dos quais a humanidade depende atualmente, incluindo redes de energia elétrica, veículos espaciais, comunicação por ondas de rádio e sistemas de navegação. Portanto, qualquer nova informação que nos ajude a prever e entender melhor os fenômenos do clima espacial e seus impactos em nossa infraestrutura e serviços é do maior interesse. Nesse contexto, este manuscrito apresenta os resultados da investigação de diferentes fenômenos do clima espacial, abordando principalmente os distúrbios ionosféricos propagantes de larga escala (Large Scale Travelling Ionospheric Disturbances, LSTIDs), as subtempestades (avaliadas aqui por meio do índice de eletrojato auroral (Auroral Electrojet, AE) e os efeitos da rotação de Faraday e da cintilação na comunicação por satélite na banda UHF. Na primeira parte deste manuscrito, é realizada uma análise estatística dos LSTIDs observados em médias latitudes na região Européia durante a fase descendente do ciclo solar 24. Além disso, é apresentada uma investigação sobre os possíveis índices derivados de dados de GNSS que podem servir como precursores para a ocorrência de LSTIDs. Os resultados indicam que o índice AATR (Along Arc TEC Rate) e os gradientes ionosféricos são candidatos promissores que podem auxiliar o monitoramento em tempo real de tais distúrbios. Esse manuscrito também apresenta metodologias para prever as subtempestades e os LSTIDs usando dados de vento solar coletados no Ponto Lagrangiano L1. Para prever o índice AE, é proposto um modelo de rede neural artificial feed-forward, e os resultados sugerem que a irradiância solar pode não influenciar as estimativas. Além disso, os resultados mostraram que as informações combinadas do campo magnético interplanetário (Interplanetary Magnetic Field, IMF) e da velocidade do vento solar fornecem as melhores estimativas do índice AE. As informações do IMF são, no entanto, dominantes quando comparadas à velocidade do vento solar. Com relação aos LSTIDs, diferentes metodologias são investigadas visando permitir a previsão de tais distúrbios sobre a região europeia usando o dados de vento solar. Nesse caso, é proposto um novo modelo que, de acordo com o melhor conhecimendo do autor, é o primeiro modelo desenvolvido para a predição do nível de atividade dos LSTIDs. A última parte deste manuscrito é dedicada à investigação dos efeitos da rotação de Faraday e da cintilação ionosférica no planejamento da missão AlfaCrux, que é uma missão educacional e de rádio amador coordenada pelo Laboratório de Simulação e Controle de Sistemas Aeroespaciais da Universidade de Brasília, Brasil. Como o Brasil está localizado em uma região com alta ocorrência de bolhas e irregularidades no plasma ionosférico, a avaliação do risco de interrupção da comunicação devido à cintilação ionosférica é essencial para o planejamento e o uso eficiente do canal de comunicação. Nesse cenário, é proposta uma nova metodologia para avaliar o risco de interrupção da comunicação com base na análise de risco da teoria da decisão. A metodologia proposta pode ser útil não apenas para a missão AlfaCrux, mas para qualquer outra missão de comunicação por satélite que opere na faixa de frequência UHF. As principais contribuições da pesquisa apresentada neste manuscrito são, portanto, o aprimoramento da compreensão desses fenômenos de clima espacial e seus respectivos impactos, e o desenvolvimento de estratégias para prevê-los.


  • Mostrar Abstract
  • Space weather events can affect the operation of modern technological systems that humankind currently relies on, including electric power grids, spaceborne vehicles, radio wave communication, and navigation systems. Therefore, any new information that helps us to predict and better understand the space weather phenomena and their impact on our infrastructure and services is of the highest interest. In this framework, this manuscript presents the results of the investigation of different space weather phenomena, addressing primarily the large scale travelling ionospheric disturbances (LSTIDs), the substorms (assessed here via the Auroral Electrojet index, AE), and the effects of Faraday rotation and scintillation on UHF satellite communication. In the first part of this manuscript, a statistical analysis of the LSTIDs observed over mid-latitude Europe during the descending phase of solar cycle 24 is performed. In addition, an investigation on potential GNSS based indices that can serve as precursors for the occurrence of LSTIDs is presented. The results indicate that the Along Arc TEC Rate (AATR) index and ionospheric gradients are promising candidates that may support real-time monitoring of such disturbances. This manuscript also presents methodologies for predicting the substorms and the LSTIDs using solar wind data from Lagrangian Point L1. For predicting the AE index, a feed-forward artificial neural network model is proposed, and the results suggest that the solar irradiance may not influence the estimates. In addition, the results have shown that the combined information of interplanetary magnetic field (IMF) and solar wind velocity provide better estimates of the AE index. The IMF information is, however, dominant when compared to the solar wind velocity. Regarding the LSTIDs, different methodologies for their prediction over the European region using solar wind are investigated, and a new model is proposed, which to the best of the author’s knowledge, is the first model for LSTIDs activity prediction. The last part of this manuscript is devoted to investigating the effects of the Faraday Rotation and the ionospheric scintillation in the planning of the AlfaCrux mission, which is an amateur radio and educational mission coordinated by the Laboratory of Simulation and Control of Aerospace Systems of the University of Brasília, Brazil. Since Brazil is located in a region with high occurrence of ionospheric plasma bubbles and irregularities, assessing the risk of communication outage due to ionospheric scintillation is essential for planning and efficient use of the communication channel. In this framework, a new methodology for assessing the risk of communication outage based on the risk analysis from decision theory is proposed. This proposed methodology may be useful not only for the AlfaCrux mission, but for any other satellite communication mission operating in the UHF frequency band. The main contributions of the investigation presented in this manuscript are, therefore, the improvement in understanding of these SWe phenomena and their impacts and the development of strategies to predict them.

5
  • Leticia Almeida Gama
  • A Time-Domain Cross-Differential Protection Algorithm For Double Circuit Transmission Lines

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • KLEBER MELO E SILVA
  • FERNANDO CARDOSO MELO
  • FRANCISCO DAMASCENO FREITAS
  • FELIPE VIGOLVINO LOPES
  • JOSE CARLOS DE MELO VIEIRA JUNIOR
  • Data: 01/09/2023

  • Mostrar Resumo
  • A disponibilidade de energia elétrica está ligada ao desenvolvimento socioeconômico da sociedade.
    No Brasil, o consumo de energia elétrica cresceu 10% em uma década, devido ao
    progresso tecnológico, além disso, a previsão média de crescimento de carga no Brasil de 2023
    a 2027 é de 3,3%. A operação coletiva eficiente dos equipamentos que compõem os sistemas de
    energia elétrica é essencial para garantir níveis de energia confiáveis e seguros para os consumidores.
    No entanto, para garantir a continuidade na entrega desse serviço os sistemas de energia
    elétrica são conduzidos a se expandir, o que geralmente implica num aumento na complexidade
    do sistema de transmissão, devido à inevitabilidade da construção de linhas de transmissão
    adicionais. Por contribuirem para aumentar a segurança e a confiabilidade do sistema, há interesse
    em linhas de transmissão de circuito duplo. No entanto, a proximidade dos circuitos
    gera acoplamento mútuo, desafiando os esquemas de proteção. Devido à sua grande extensão
    e exposição climática, as linhas de transmissão são suscetíveis a defeitos. Portanto, sistemas
    de proteção eficientes são vitais para garantir a integridade dos equipamentos, a estabilidade
    do sistema e evitar apagões generalizados. A proteção de linhas de transmissão de circuito
    duplo é crucial para garantir a confiabilidade do sistema elétrico. As abordagens tradicionais,
    como esquemas de teleproteção e proteção diferencial, dependem da existência de canais de
    comunicação e sincronização de dados, o que pode aumentar os custos e a complexidade do
    sistema. Uma alternativa eficaz é a proteção de distância, que opera com base em um único
    terminal, não depende de comunicações entre terminais, mas pode ter atrasos na detecção de
    faltas. Uma solução promissora que está sendo investigada é a proteção diferencial cruzada, a
    qual elimina a dependência de canal de comunicação, mas por necessitar da estimação fasorial
    pode refletir em atrasos na sua atuação. Dada a crescente demanda por eletricidade, há uma
    busca contínua por elementos de proteção mais rápidos, como os fundamentados no domínio do tempo, com o objetivo de assegurar tempos de eliminação de faltas mais curtos e, assim,

    preservar a estabilidade do sistema elétrico. Nesse contexto, o algoritmo proposto representa
    uma solução inovadora para a proteção de linhas de circuito duplo. Ele combina a eficácia da
    proteção diferencial cruzada, conhecida por sua alta cobertura instantânea de proteção, com
    a agilidade do domínio do tempo, caracterizado por tempos de operação rápidos. O conjunto
    de entrada do algoritmo proposto é composto por correntes secundárias provenientes do TCs
    instalado em cada fase, no mesmo terminal, para ambos os circuitos da linha de transmissão
    do circuito duplo em análise. Esses sinais são normalizados na mesma base, a fim de eliminar
    as diferenças na relação de transformação dos TCs e nos parâmetros da linha, para os casos
    em que os circuitos não compartilham a mesma torre de transmissão. Após a normalização,
    novos sinais de corrente são inseridos diretamente no bloco de cálculo de valor incremental,
    geralmente chamado de filtro delta. Para eliminar os efeitos da componente CC de decaimento
    exponencial, são calculadas correntes de réplica incremental. Após esse procedimento, as correntes
    de operação e restrição são obtidas de maneira analogada à função de proteção diferencial
    cruzada e condições de operação são avaliadas. Para facilitar isso, as condições examinadas são
    integradas e referidas como energias operacionais dos circuitos 1 e 2. Ao mesmo tempo, um
    sinal senoidal, que representa a corrente de pickup escolhida, também é integrado. Finalmente,
    o bloco que representa a lógica de trip usa as quantidades integradas como entrada, para que o
    elemento diferencial proposto determine se um comando de trip deve ser emitido ou não. Dos
    resultados percebe-se que o desempenho do algoritmo proposto não é afetado pela variação da
    intensidade do acoplamento de sequência zero entre os circuitos. O algoritmo proposto exibiu
    também um desempenho superior em relação ao tempo de operação e à cobertura de proteção
    instantânea da linha de transmissão, mesmo em cenários com variações na localização da falta
    e na força das fontes. Além disso, o algoritmo não tem seu desempenho prejudicado pela variação
    da resistência de falta, ao considerar a faixa de avaliação avaliada, e opera corretamente
    para todos os casos simulados. Notavelmente, sua operação não requer comunicação entre os
    terminais da linha de transmissão nem a utilização de sinal GPS e sincronização de dados, por
    utilizar dados provenientes de um único terminal.


  • Mostrar Abstract
  • Zero-sequence mutual coupling in double-circuit transmission lines leads to challenges related
    to protection systems dependability and security. When it comes to protecting double
    circuit lines, differential and distance protection functions present disadvantages such as the
    requirement of communication channel and data synchronization, which increases the complexity
    and cost of the protection scheme implementation, and the presence of underreaching
    elements, caused by zero-sequence coupling. The solution presented by the cross-protection
    function is based on only one terminal and it is immune to the effects of zero-sequence coupling.
    However, its operation is limited by the inherent delay regarding phasor estimation.
    Thus, this thesis proposes a new cross-differential time domain-based protection algorithm for
    double circuit transmission lines. For this purpose, concepts of time domain-based incremental
    elements are combined with the principle of phasor-based cross-differential protection. Incremental
    replica currents are used for each phase of both circuits of the evaluated double circuit
    line. Then, operating and restraining currents are obtained similarly to the cross-differential
    protection function. The ATP/EMTP software was used to simulate a real 200 km 500 kV
    transmission line subjected to different fault scenarios. The simulated cases were experimentally
    evaluated using real commercially available relays. In this manner, the performance of the
    proposed algorithm could be compared with native functions of the relays under analysis. The
    use of the proposed algorithm results in secure, wide-ranging and fast operations. Thus, adoption
    of the proposed cross-differential time domain-based algorithm alongside readily available
    device-embedded protection functions represents a promising and appropriate alternative for
    protecting double circuit transmission lines.

    .

6
  • BRUNO RODOLFO DE OLIVEIRA FLORIANO
  • Neural-network-based model predictive control for consensus of nonlinear systems

  • Orientador : HENRIQUE CEZAR FERREIRA
  • MEMBROS DA BANCA :
  • HENRIQUE CEZAR FERREIRA
  • EDUARDO STOCKLER TOGNETTI
  • JOSE ALFREDO RUIZ VARGAS
  • ATILA MADUREIRA BUENO
  • MARCO HENRIQUE TERRA
  • Data: 15/12/2023

  • Mostrar Resumo
  • Este trabalho aborda, através do método de controle preditivo, o problema de consenso para sistemas multiagentes não lineares a tempo discreto sujeitos a topologias de comunicação chaveadas. Para sistemas multiagentes não lineares que seguem uma lei de chaveamento aleatório, não há soluções baseadas em controle preditivo que resultam em uma otimização confiável em tempo real. Nós propomos um novo algoritmo baseado em redes neurais que reduz os efeitos das deficiências de comunicação, causasdos pelo chaveamento Markoviano, aproximando e minimizando, em tempo real, a função de custo do controle preditivo. A conveniência do método proposto é certificada em simulações para diferentes cenários e aplicações. Finalmente, os passos futuros da atual pesquisa são detalhados.


  • Mostrar Abstract
  • This work addresses, through a model predictive control (MPC) approach, the consensus problem for discrete-time nonlinear multi-agent systems subjected to switching communication topologies. For systems following a random switching law, there is not any MPC solution that results in a reliable optimization in real-time. We propose a new neural-network-based algorithm that reduces the effects of communication deficiencies, caused by Markovian switching, by approximating and minimizing, in real-time, the MPC’s cost function. The convenience of the proposed method is certified in simulations for different applications and scenarios. Finally, the future steps of the current research are detailed.

7
  • RAIMUNDO GUIMARAES SARAIVA JUNIOR
  • INTELIGÊNCIA COMPUTACIONAL NO APOIO AO DIAGNÓSTICO DA DOENÇA DE ALZHEIMER

  • Orientador : FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • DANIEL GUERREIRO E SILVA
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • HENRIQUE SARMENTO MALVAR
  • JOSE ANTONIO APOLINARIO JUNIOR
  • Data: 15/12/2023

  • Mostrar Resumo
  • O diagnóstico preciso da doença de Alzheimer ainda é um campo aberto para a ciência, tendo em vista se tratar de uma doença multifatorial e com difícil identificação das causas. As demências estão cada vez mais presentes na população mundial, que experimenta um aumento significativo na expectativa de vida e explica, em parte, o aumento do diagnóstico de Alzheimer, que é o tipo de demência mais frequente. A decadência neurológica faz parte do processo natural do envelhecimento, mas a doença de Alzheimer acelera o processo de degeneração neurológica trazendo grandes transtornos ao paciente e seus familiares, onerando os serviços públicos de saúde e causando óbitos precoces. Nesse contexto, este trabalho investiga técnicas de inteligência artificial que busquem auxiliar no diagnóstico da doença de Alzheimer, utilizando dados de natureza clinica e imagens de ressonância magnética. Mediante licenciamento para utilização, foram buscadas informações primárias nos estudos científicos Australian Imaging, Biomarker & Lifestyle Flagship Study of Ageing (AIBL), Alzheimers Disease Neuroimaging Initiative (ADNI) e no Open Access Series of Imaging Studies (OASIS). Para tratamento dos dados dados clínicos foi proposto um novo método de seleção de atributos, criadas bases de dados reduzidas, e feita a avaliação pelos modelos de classificação de aprendizado de máquina. Também foi investigado o uso de imagens obtidas em exames de ressonância magnética. Foram propostas diferentes estratégias construção de um banco de imagens adequados para a aplicação de técnicas de aprendizado profundo. Métricas de avaliação foram computadas sobre as estratégias propostas, e resultados de diagnóstico foram obtidos para os casos de indivíduo normal e com Alzheimer estabelecido. Também foi avaliado o caso de individuo com comprometimento cognitivo leve. Como parte da avaliação de desempenho, os resultados alcançados foram comparados com os resultados obtidos em outros trabalhos de pesquisa e que estão disponíveis na literatura.


  • Mostrar Abstract
  • Since Alzheimer’s disease is complex, difficult to diagnose, and can be mistaken with other forms of dementia, the specific diagnosis of the condition is yet unknown to science. Dementias are becoming more prevalent among the world’s population, which is also living longer, which partly explains the rise in Alzheimer’s disease diagnoses, the most common type of dementia. While neurological deterioration is a normal part of aging, Alzheimer’s disease quickens the process, putting a strain on public health services, causing early mortality, and causing tremendous inconvenience for the patient and his or her family. In this context, this work investigates artificial intelligence techniques that seek to aid in the diagnosis of Alzheimer’s disease, using clinical data and magnetic resonance images. Under licensing for use, primary information was obtained from Australian Imaging, Biomarker & Lifestyle Flagship Study of Ageing (AIBL), Alzheimer’s Disease Neuroimaging Initiative (ADNI), and the Open Access Series of Imaging Studies (OASIS). To treat the clinical data, a new method of attribute selection was proposed, reduced databases were created, and evaluation was performed by machine learning classification models. The use of images obtained from MRI scans was also investigated. Different strategies were proposed to build an image bank suitable for the application of deep learning techniques. Evaluation metrics were computed on the proposed strategies, and diagnostic results were obtained for the cases of normal and established Alzheimer’s individuals. The case of individuals with mild cognitive impairment was also evaluated. As part of the performance evaluation, the achieved results were compared with the results obtained in other research works that are available in the literature.

8
  • Victor do Prado Brasil
  • Effects of the Voltage Unbalance on Power Factors Considering the Fairness Perspective for Billing Purposes

  • Orientador : JOAO YOSHIYUKI ISHIHARA
  • MEMBROS DA BANCA :
  • JOAO YOSHIYUKI ISHIHARA
  • FRANCISCO DAMASCENO FREITAS
  • KLEBER MELO E SILVA
  • IVAN NUNES SANTOS
  • RODRIGO ANDRADE RAMOS
  • Data: 21/12/2023

  • Mostrar Resumo
  • O esperado crescimento de geradores fotovoltaicos distribuídos e veículos elétricos nos próximos anos traz desafios para a qualidade da energia em redes de distribuição, como o aumento potencial da distorção harmônica e desequilíbrio de tensão. Esses fenômenos têm vários efeitos indesejados nos equipamentos conectados à rede, especialmente motores de indução. No entanto, ainda não há um consenso sobre as definições corretas relacionadas à potência, como potência reativa e fator de potência (FP), bem como seus métodos de medição apropriados quando a tensão é desequilibrada ou não senoidal. Como resultado, medidores comerciais podem fornecer medidas diferentes para a mesma carga e condições de fornecimento, potencialmente levando a cobranças injustas de FP.

    Este trabalho avalia definições de FP existentes e seus métodos de medição, considerando a perspectiva de
    justiça para fins de faturamento em condições de tensão não senoidal e desequilibrada. Aqui, a noção de justiça
    é no sentido de que o medidor (construído com base em uma definição e método de medição específicos) sob
    um fornecimento não ideal deve levar a valores muito próximos aos obtidos caso estivesse submetido a tensões
    senoidais equilibradas ideais. Em outras palavras, uma definição justa de FP deve depender exclusivamente
    dos parâmetros da carga, não da qualidade do fornecimento. A investigação de justiça considerou simulações
    computacionais com a aplicação de diferentes condições de tensão no ponto de conexão de duas cargas de
    impedância constante, um motor de indução trifásico (MIT) e um conjunto desequilibrado de lâmpadas de
    diodo emissor de luz (LED). Em seguida, os resultados das simulações foram examinados experimentalmente
    usando uma fonte de tensão controlada, um motor de indução trifásico, uma carga mecânica (gerador DC e
    um resistor configurável), um computador e um sensor de velocidade. Por fim, uma investigação analítica foi
    realizada com uma carga de impedância constante.
    Os resultados das simulações e experimentos mostram que uma definição de FP que leva a uma cobrança
    justa para uma impedância constante equilibrada pode não proporcionar uma cobrança justa para um MIT
    ou um conjunto de lâmpadas LED quando alimentado com tensões de qualidade inferior. Além disso, este
    trabalho determinou as definições mais justas de FP e caracterizou a classe de seus algoritmos de medição
    correspondentes para medir o FP de uma impedância constante equilibrada e um MIT submetido a uma ampla gama de tensões desequilibradas não senoidais. Para as lâmpadas LED, nenhuma das definições existentes mostrou-se independente do fornecimento de tensão. Notavelmente, apesar de ser recomendado pelo IEEE Standard 1459-2010, o fator de potência efetivo não foi uma definição adequada para as condições de fornecimento investigadas aplicadas ao MIT.

    Os resultados da investigação analítica revelam que todas as definições investigadas são, na verdade, funções
    não lineares do fator de desequilíbrio de tensão (VUF) e das admitâncias da carga. Em outras palavras, utilizar
    essas cinco definições de FP na presença de desequilíbrios de tensão e carga pode levar a cenários de cobrança
    injusta tanto para a concessionária quanto para o cliente. Também são propostos novos fatores de admitância
    que podem ser utilizados para fins de faturamento, pois não dependem do desequilíbrio de tensão, mas apenas das características da carga.


  • Mostrar Abstract
  • Voltage unbalance and harmonic distortion have several undesired effects on the grid-connected
    equipment, especially induction motors. However, there is not yet a consensus regarding the correct
    power-related definitions, such as reactive power and power factor (PF), as well as their appropriate
    measurement methods when the voltage is unbalanced or nonsinusoidal. As a result, commercial
    meters can give different measurements for the same load and supply conditions, potentially leading
    to unfair PF charges.


    This work evaluates existing PF definitions and their measurement methods, considering the
    fairness perspective for billing purposes under unbalanced nonsinusoidal voltage conditions. Here,
    the fairness notion is in the sense that the meter (built based on a particular definition and measurement method) under a nonideal supply should lead to very close values as if it was submitted to
    ideal balanced sinusoidal voltages. In other words, a fair PF definition should depend exclusively
    on the load’s parameters, not supply quality. The fairness investigation considered computational
    simulations with the application of 35280 different voltage conditions at the point of connection
    of a constant impedance load and a three-phase induction motor (TIM) represented by their respective electrical models. In the sequel, the simulations’ findings were experimentally examined
    in 3978 voltage conditions employing a controlled voltage source, a three-phase induction motor,
    a mechanical load (DC generator and a variable resistor), a computer, and a speed sensor.


    The results show that a PF definition that leads to a fair billing for a constant impedance (the
    main load investigated in the literature) may not provide a fair billing for a TIM when supplied
    with poor quality voltages. Additionally, this work has determined the fairest PF definitions and
    characterized the class of their corresponding measurement algorithms for metering the PF of a
    balanced constant impedance and a TIM submitted to a wide range of unbalanced nonsinusoidal
    voltages. Notably, despite being recommended by IEEE Standard 1459-2010, the effective power
    factor was not an adequate definition for the investigated supply conditions applied to the TIM.

2022
Dissertações
1
  • Gabriel Luis de Araujo e Freitas
  • Novel Approach for Direct Methods in Medical Imaging using Compressive Sensing

  • Orientador : VINICIUS PEREIRA GONCALVES
  • MEMBROS DA BANCA :
  • VINICIUS PEREIRA GONCALVES
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • VINICIUS DE CARVALHO RISPOLI
  • HOMERO SCHIABEL
  • Data: 15/07/2022

  • Mostrar Resumo
  • A partir das tecnologias de imageamento médico, profissionais de saúde conseguem informações relevantes sobre o estado de um paciente para o planejamento e acompanhamento de seu tratamento. A Tomografia Computadorizada por raios-x (CT) e a Ressonância Magnética (MR) são duas das tecnologias mais bem consolidadas no meio. Estas técnicas permitem a obtenção de imagens anatômicas de planos específicos ou volumes. Apesar de a CT e a MR explorarem princípios físicos diferentes, ambas coletam medidas que podem ser modeladas como coeficientes da Transformada de Fourier da imagem a ser reconstruída. O processo de reconstrução refere-se a etapa de calcular a imagem desejada a partir das medidas adquiridas pelos equipamentos médicos. A aquisição geralmente requer que o paciente permaneça em uma mesma posição por longos períodos e, no caso da CT, há a emissão de radiação ionizante. Assim, é de interesse que tais procedimentos ocorram da forma mais segura e rápida possível. Uma maneira de abordar este problema é o desenvolvimento de algoritmos de reconstrução que consigam gerar imagens úteis para a atividade clínica usando uma quantidade reduzida de medidas. Conceitos de Compressive Sensing (CS) vem sendo adotados na elaboração de novos algoritmos para reconstrução de imagens médicas em vista de uma aquisição mais eficiente. Esta área de conhecimento estuda a reconstrução de sinais a partir de medidas incompletas por meio da resolução de sistemas lineares subdeterminados. O sinal de interesse é a solução cuja maior parte dos coeficientes é nula. Ou seja, considera-se que o sinal reconstruído possui uma representação esparsa em algum domínio conhecido. A minimização de `p (0 < p ≤ 1) é uma estratégia frequentemente explorada por algoritmos de CS. Adotar métricas `p com menores valores de p, apesar de recair em problemas não-convexos, pode possibilitar uma redução ainda maior de medidas. Imagens são sinais de grande dimensão. Por esta razão, técnicas de reconstrução que se baseiam em CS recorrem a métodos indiretos para a realização de operações matriciais, já que o armazenamento das matrizes que modelam o problema é inviável durante a execução dos algoritmos. A estabilidade e a convergência dos métodos indiretos são afetadas pela redução do valor de p de modo que esta estratégia não pode ser bem explorada ao executar as operações matriciais indiretamente.

    Neste contexto, a presente pesquisa desenvolve a Estrutura de Reconstrução Direta (DRS) para formação de imagens médicas por meio da composição de sinais de menor dimensão, que são obtidos através de minimização de `p. Inicialmente, apresentamos o formalismo matemático para implementações genéricas dessa estrutura, em que não se assume nenhuma operação específica para a composição. Em um segundo momento, derivamos o modelo matemático e o problema de minimização para uma formulação que compõe a imagem a partir de sinais unidimensionais, que contém a informação de uma linha de medidas no plano de frequências. Implementamos esta formulação específica do DRS usando o IRLS (Iteratively Reweighted Least Squares) como algoritmo de minimização e a pré-filtragem para a representação esparsa. Realizamos quatro experimentos numéricos com o objetivo de investigar o comportamento dos algoritmos de CS ao reduzirmos o valor de p e avaliar a performance do DRS em comparação às técnicas que usam método indireto. Em nossos testes usamos tanto sinais artificiais como dados de imagens reais. Os resultados apontam que o DRS reconstrói satisfatoriamente as imagens médicas em condições favoráveis de esparsidade. A pré-filtragem não obteve a mesma eficiência em esparsificar os sinais reconstruídos pelo DRS em comparação ao que é verificado no caso dos algoritmos que usam método indireto.


  • Mostrar Abstract
  • ABSTRACT Title: Novel Approach for Direct Methods in Medical Imaging using Compressive Sensing Author: Gabriel Luis de Araújo e Freitas Supervisor: Vinícius Pereira Gonçalves, PhD. Co-Supervisor: Cristiano Jacques Miosso, PhD. Graduate Program in Electronic and Automation Systems Engineering Brasília, XXXXX XXXX, 2022 With the support of medical imaging technologies, healthcare workers are provided with relevant information about a patient’s condition when planning and following up on treatment. X-ray Computed Tomography (CT) and Magnetic Resonance (MR) are two of the most consolidated technologies in the field. These techniques yield anatomical images of specific planes or volumes. Although CT and MR exploit different physical principles, both collect measurements that can be modeled as the Fourier Transform coefficients of the image to be reconstructed. The reconstruction procedure refers to the stage of computing the desired image from the measurements acquired by the medical equipment. The acquisition usually requires the patient to stay in the same position for long periods, and, in the case of CT, there is the emission of ionizing radiation. Thus, such procedures should take place as safely and quickly as possible. A possible approach to address this issue is the development of reconstruction algorithms that can generate meaningful images for clinical practice from a reduced amount of measurements. Concepts of Compressive Sensing (CS) have been adopted in the devising of new algorithms for medical imaging to achieve a more efficient acquisition. This area of knowledge studies the reconstruction of signals from incomplete measurements by solving underdetermined linear systems. The signal of interest is the solution whose most of the coefficients are null. That is, the reconstructed signal is assumed to have a sparse representation in a known domain. Minimizing `p (0 < p ≤ 1) is a strategy often exploited by CS algorithms. Adopting `p metrics with smaller values of p, even leading to non-convex problems, opens up the possibility of further reductions in the number of measurements. Images are large signals. For this reason, CS-based reconstruction techniques rely on indirect methods to perform matrix operations because the storage of the matrices that model the problem is impractical during the execution of the algorithms. The stability and convergence of indirect methods are affected by reducing the value of p so that this strategy cannot be well exploited when performing matrix operations indirectly.

    In this background, the present research devises the Direct Reconstruction Structure (DRS) for medical image formation through the composition of lower-dimensional signals, which are obtained through `p minimization. First, we present the mathematical formalism for generic implementations of this structure, which makes no assumptions about the operation for composition. Following, we derive the mathematical model and the minimization problem for a formulation that composes the image from onedimensional signals, which contain the information of a row of measurements in the frequency plane. We implemented that specific DRS formulation using the Iteratively Reweighted Least Squares (IRLS) as the minimization algorithm and prefiltering for sparse representation. We conducted four numerical experiments to investigate the behavior of the CS algorithms when reducing the value of p and evaluate the performance of DRS compared to techniques using an indirect method. In our tests, we used both artificial signals and actual image data. The results suggest that DRS can satisfactorily reconstruct medical images in good sparsity conditions. Prefiltering did not achieve the same effect in sparsifying the signals reconstructed by DRS compared to the case of algorithms using the indirect method. 

2
  • FREDERICO CARVALHO FONTES DO AMARAL
  • Information-Theoretic Analysis of Convolutional Autoencoders

  • Orientador : DANIEL GUERREIRO E SILVA
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • EDUARDO PEIXOTO FERNANDES DA SILVA
  • JUGURTA ROSA MONTALVÃO FILHO
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • Data: 31/08/2022

  • Mostrar Resumo
  • O uso de conceitos da Teoria da Informação para entender redes neurais profundas tem sido amplamente explorado nos últimos anos. O framework de Aprendizagem Teórica da Informação que resultou desse uso tem sido reconhecido como uma ferramenta potencialmente importante para compreender os mecanismos de aprendizagem empregados durante o processo de treinamento de redes neurais profundas, para o estudo dos quais ainda faltam métodos teóricos e sistemáticos de análise. A utilização de medidas estatísticas derivadas da Teoria da Informação, tais como entropia e informação mútua, permitiu um melhor entendimento de como a informação flui através das referidas redes durante seu treinamento. Também possibilitou a criação de métodos sistemáticos para projetar e analisar essas redes de forma mais rigorosa, o que, por sua vez, permite a criação de arquiteturas mais eficientes e robustas. Este trabalho visa investigar a possibilidade de aplicação de um método baseado no framework supracitado para a detecção automática da dimensão do gargalo de um autocodificador convolucional, cujo objetivo é encontrar a compressão ótima para as imagens a ele apresentadas.


  • Mostrar Abstract
  • The use of Information Theory concepts to understand deep neural networks has been extensively explored in recent years. The Information Theoretic Learning framework that resulted from such use has been acknowledged as a potentially important tool to comprehend the learning mechanisms employed during the deep neural networks’ training process, for the study of which theoretical and systematic methods of analysis are still lacking. The use of statistical measurements derived from Information Theory such as entropy and mutual information has allowed for a better understanding of how the information flows through the aforementioned networks during their training. It also enabled the creation of systematic methods to design and analyze these networks in a more rigorous manner, which in turn allows the creation of more efficient and robust architectures. This work aims to investigate the possibility of application of a method based on the aforementioned framework for the automatic detection of the bottleneck dimension of a convolutional autoencoder, whose objective is to find the optimal compression for the
    images presented to it.

3
  • Tarcísio Aurélio Bakaus
  • CONVIVÊNCIA ENTRE SISTEMAS IMT-2020 E TVRO EM BANDA C

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • DANIEL GUERREIRO E SILVA
  • HUGERLES SALES SILVA
  • RAUSLEY ADRIANO AMARAL DE SOUZA
  • Data: 13/09/2022

  • Mostrar Resumo
  • Este trabalho apresenta estudo de convivência entre sistemas IMT-2020 (sistemas de comunicação móveis de 5ª Geração - 5G), utilizando antenas com conformação de feixe e setoriais, e estações de recepção doméstica de televisão via satélite (TVRO) na Banda C. Demonstra-se que a maior diretividade das antenas com conformação de feixe utilizadas em sistemas IMT-2020, combinada com a utilização de filtros com rejeição de pelo menos 30 dB ou a utilização de receptores modernos de TVRO, com limiares de saturação superiores a -30 dBm, torna a convivência entre os sistemas IMT-2020 e TVRO possível, devido à baixa probabilidade de interferência prejudicial. Esses resultados são extremamente importantes, tendo em vista a entrada de sistemas móveis 5G no mercado e o número de receptores TVRO utilizados no Brasil que podem ter sua operação impactada pelo sistema entrante.


  • Mostrar Abstract
  • This work presents a study of coexistence between IMT-2020 systems (5th Generation mobile systems - 5G), using beamforming and sector antennas, and domestic satellite television reception stations (TVRO) in the C Band. It is proven that the greater directivity of beamforming antennas used in IMT-2020 systems, combined with the use of filters with rejection of at least 30 dB or the use of modern TVRO receivers, with saturation thresholds above -30 dBm, makes coexistence between IMT2020 and TVRO systems possible, due to the low probability of harmful interference. These results are extremely important, given the deployment of 5G mobile networks and the number of TVRO receptors, which could have their operations impacted by the new systems in operation in Brazil

4
  • ALINE ALVES SOARES THOMAZ
  • RECONSTRUÇÃO DE IMAGENS UTILIZANDO APRENDIZADO PROFUNDO E TÉCNICAS DE COMPRESSIVE SENSING

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • PEDRO GARCIA FREITAS
  • VINICIUS DE CARVALHO RISPOLI
  • Data: 23/09/2022

  • Mostrar Resumo
  • O uso de imagens de ressonância magnética (IMR) é amplamente difundido no diagnóstico de tumores e auxilia no tratamento de câncer. É sempre importante considerar que a qualidade das imagens obtidas é de suma importância para o diagnóstico de doenças. A Engenharia, através de linhas de pesquisa como o processamento de sinais, fornece meios de aumentar a robustez frente a interferências no processamento de imagens com ferramentas como Aprendizado Profundo. Dentro desta vertente, o uso de RNC’s, como a U-NET, alinhados ao Detecção de Compressão tem extrema valia no desenvolvimento de sistemas de diagnósticos mais acurados a doenças tão oprobriosas.


  • Mostrar Abstract
  • The use of magnetic resonance imaging (MRI) is widespread in the diagnosis of tumors and aids in the treatment of cancer. It is always important to consider that the quality of the images obtained is of paramount importance for the diagnosis of diseases. Engineering, through lines of research such as signal processing, provides ways to increase robustness against interference in image processing with tools such as Deep Learning. Within this aspect, the use of CNN’s, as U-NET, aligned with Compressive Sensisng is extremely valuable in the development of more accurate diagnostic systems for such oprobrious diseases.

5
  • Paulo Henrique de Castro Oliveira
  • Detecção de Tumores Cerebrais Utilizando Redes Neurais Convolucionais Guiadas por Mapas de Saliência

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
  • FÁTIMA NELSIZEUMA SOMBRA DE MEDEIROS
  • PEDRO GARCIA FREITAS
  • Data: 31/10/2022

  • Mostrar Resumo
  • O processo de diagnóstico de tumores cerebrais por ressonância magnética (RM) é muitas vezes demorado. Assim, uma análise rápida através de um sistema automatizado pode ajudar a melhorar as possibilidades de tratamento e otimizar os recursos hospitalares. Este trabalho propõe um método para a classificação de tumores cerebrais por meio da pré-seleção da região de tumor. Estimou-se a região de interesse usando algoritmos de atenção visual e em seguida as regiões com maior nível de energia foram inseridas em uma rede neural que as classificou quanto à existência de tumor cerebral. Pré-selecionando a região de interesse, em vez de usar a imagem inteira, o framework teve uma acurácia de classificação final de 91,68%, 92,58%, 92,69% e 93,4% com os modelos Resnet18, Resnet34, VGG16 e Alexnet, respectivamente. Uma vez que o espaço dimensional do imagem de entrada é reduzida, as redes neurais são capazes de capturar detalhes adicionais das regiões do tumor durante a etapa de treinamento. Este estudo demonstra a importância dos mapas de saliência para a identificação de regiões tumorais em imagens de ressonância magnética. Adicionalmente investigou-se o efeito de 5 artefatos nas métricas de classificação de uma rede neural: ruído Gaussiano, blurring, ringing, contraste e ghosting. Essa análise contou com a geração de 20 níveis de degradação com cada um dos 5 artefatos e o registro dos resultados de acurácia com cada um destes níveis. Concluiu-se que no cenário simulado com os artefatos: de ruído Gaussiano, blurring e ringing geraram deterioração houve um decréscimo exponencial das métricas de classificação, ao passo que as alterações gradativas de contraste e ghosting, diferentemente, geraram um comportamento aleatórios das métricas de classificação classificação.


  • Mostrar Abstract
  • O processo de diagnóstico de tumores cerebrais por ressonância magnética (RM) é muitas vezes demorado. Assim, uma análise rápida através de um sistema automatizado pode ajudar a melhorar as possibilidades de tratamento e otimizar os recursos hospitalares. Este trabalho propõe um método para a classificação de tumores cerebrais por meio da pré-seleção da região de tumor. Estimou-se a região de interesse usando algoritmos de atenção visual e em seguida as regiões com maior nível de energia foram inseridas em uma rede neural que as classificou quanto à existência de tumor cerebral. Pré-selecionando a região de interesse, em vez de usar a imagem inteira, o framework teve uma acurácia de classificação final de 91,68%, 92,58%, 92,69% e 93,4% com os modelos Resnet18, Resnet34, VGG16 e Alexnet, respectivamente. Uma vez que o espaço dimensional do imagem de entrada é reduzida, as redes neurais são capazes de capturar detalhes adicionais das regiões do tumor durante a etapa de treinamento. Este estudo demonstra a importância dos mapas de saliência para a identificação de regiões tumorais em imagens de ressonância magnética. Adicionalmente investigou-se o efeito de 5 artefatos nas métricas de classificação de uma rede neural: ruído Gaussiano, blurring, ringing, contraste e ghosting. Essa análise contou com a geração de 20 níveis de degradação com cada um dos 5 artefatos e o registro dos resultados de acurácia com cada um destes níveis. Concluiu-se que no cenário simulado com os artefatos: de ruído Gaussiano, blurring e ringing geraram deterioração houve um decréscimo exponencial das métricas de classificação, ao passo que as alterações gradativas de contraste e ghosting, diferentemente, geraram um comportamento aleatórios das métricas de classificação classificação.

6
  • Isabelle Queiroz de Oliveira Lopes
  • Estudo de um Sistema de Geração Distribuída a partir de uma Usina Fotovoltaica de 2.408 kWp Conectado a um Sistema Elétrico de Média Tensão

  • Orientador : FERNANDO CARDOSO MELO
  • MEMBROS DA BANCA :
  • AMAURI GUTIERREZ MARTINS BRITTO
  • FERNANDO CARDOSO MELO
  • FRANCIS ARODY MORENO VASQUEZ
  • LUCAS PEREIRA PIRES
  • Data: 02/12/2022

  • Mostrar Resumo
  • O aumento dos investimentos em todo o mundo na diversificação da matriz energética baseada em fontes renováveis de energia, trouxe a expansão da capacidade instalada da geração distribuída (GD) ao longo dos anos. No Brasil, têm-se como principais fontes de GD a geração fotovoltaica e eólica. Com a diminuição dos preços dos módulos fotovoltaicos e das Unidades de Condicionamento de Potência (UCP) para a geração da energia fotovoltaica e a aplicação de uma política energética adequada, o país tem atraído investimentos públicos e privados para o aproveitamento da energia solar. Dessa forma, o presente trabalho realiza um estudo acerca da contribuição econômica de um sistema de minigeração distribuída, a partir de uma usina fotovoltaica de 2.408 kWp, conectado a um sistema elétrico de Média Tensão, bem como avalia seus parâmetros técnicos. Após a execução de simulações computacionais utilizando o software SAM, da NREL, com a minigeração distribuída em questão, o consumidor apresentou uma redução no consumo do primeiro ano de 45,72%. Além disso, o resultado anual obtido por simulação é de 4.382.247 kWh de energia, um fator de capacidade (FC) de 20,7%, taxa de desempenho (TD) de 82%, rendimento de energia (Yf) de 1.817 kWh/kWp, custo nivelado de energia (LCOE) de R$ 0,18/kWh e um período de retorno de 4,6 anos. Por fim, após o funcionamento da usina fotovoltaica por 8 meses, de abril a novembro, obtiveram-se os seguintes indicadores reais de desempenho técnicos e econômicos nesse período: produção energética de 2.517.047 kWh, representando uma diferença de 4,73% em relação a produção energética teórica simulada nesses referidos meses de operação, um fator de capacidade (FC) de 20,35%, taxa de desempenho (TD) de 84,39%, rendimento de energia (Yf) de 1.045,29 kWh/kWp e uma redução no consumo da unidade consumidora de 45,21%.


  • Mostrar Abstract
  • The increase in investments around the world in the diversification of the energy matrix based on renewable energy sources, brought the expansion of the installed capacity of distributed generation (DG) over the years. In Brazil, the main sources of DG are photovoltaic and wind generation. With the decrease in the prices of photovoltaic modules and Power Conditioning Units (PCU) for the generation of photovoltaic energy and the application of an adequate energy policy, the country has attracted public and private investments for the use of solar energy. Thus, the present work conducts a study on the economic contribution of a distributed minigeneration system, from a 2,408 kWp photovoltaic plant, connected to a medium voltage electrical system, as well as evaluates its technical parameters. After running computer simulations using NREL's SAM software, with the distributed mini-generation in question, the consumer showed a reduction in consumption in the first year of 45.72%. In addition, the annual result obtained by simulation is 4,382,247 kWh of energy, a capacity factor (CF) of 20.7%, performance ratio (PR) of 82%, energy yield (Yf) of 1,817 kWh/kWp, Levelized Cost of Energy (LCOE) of $3.51¢/kWh and a payback period of 4.6 years. Finally, after operating the photovoltaic plant for 8 months, from April to November, the following real technical and economic performance indicators were obtained in this period: energy production of 2,517,047 kWh, representing a difference of 4.73% in in relation to the theoretical energy production simulated in these months of operation, a capacity factor (CF) of 20.35%, performance ratio (PR) of 84.39%, energy yield (Yf) of 1,045.29 kWh/kWp and a reduction in consumption of the consumer unit of 45.21%.

7
  • Samuel Ribeiro Castro
  • Filmes espessos de PEDOT:PSS/KDP/PVA para uso em atuadores orgânicos flexíveis

  • Orientador : ARTEMIS MARTI CESCHIN
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • ALEXANDRE RICARDO SOARES ROMARIZ
  • ARTEMIS MARTI CESCHIN
  • NIZAMARA SIMENREMIS PEREIRA
  • Data: 13/12/2022

  • Mostrar Resumo
  • Como alternativa para os processos de atuação convencionais são utilizados
    atuadores poliméricos. Eles podem apresentar características como leveza, boa
    mimetização, biocompatibilidade e suavidade, não encontradas nos atuadores
    convencionais. A confecção de atuadores poliméricos, entretanto, muitas vezes apresenta
    processos de fabricação que utilizam solventes agressivosao meio ambiente. Além disso,
    uma das dificuldades encontradas na fabricação e uso de atuadores poliméricos é a
    desagregação das partes. Isso acontece principalmente no caso dos atuadores depositados
    sobre substratos.


    Neste trabalho é apresentado o processo de fabricação de um filme espesso de
    poli (3, 4 - etileno dioxitiofeno) poli (estireno sulfonado) (PEDOT:PSS), dihidrogeno
    fosfato de Potássio (KDP) e álcool polivinílico (PVA) para possível uso em atuadores.
    Todos os componentes são solúveis em água.


    A partir da investigação dos componentes da solução para um atuador
    polimérico com as características desejadas, foram elaboradas sete metodologias de
    preparação distintas. Para observar-se qual o grau de influência da ordem de adição dos
    componentes na solução no desempenho final dos filmes. Assim, foi possível elaborar
    um método de construção aliado às análises do filme espesso formado.
    Foram buscadas características como: simplicidade de reagentes e processos,
    não toxicidade de solventes, autossustentação do filme espesso.
    Os filmes formados a partir da deposição da solução de PEDOT:PSS/KDP/PVA
    foram caracterizados em sua morfologia, espessura, resistência de folha, composição e
    deslocamento.


    Ao fim do trabalho pode-se obter um filme capaz de deslocar 2mm sob tensão
    DC de até 4,2 V.


  • Mostrar Abstract
  • Polymeric actuators are used as an alternative to conventional actuation
    processes. They can present characteristics such as lightness, good mimicry,
    biocompatibility and softness, not found in conventional actuators. The manufacture of
    polymeric actuators, however, often has manufacturing processes that use
    environmentally aggressive solvents. In addition, one of the difficulties encountered in
    the manufacture and use of polymeric actuators is the disaggregation of the parts. This
    happens mainly in the case of actuators deposited on substrates.


    This work presents the manufacturing process of a thick film of poly (3, 4 -
    ethylene dioxythiophene) poly (styrene sulfonate) (PEDOT:PSS), potassium dihydrogen
    phosphate (KDP) and polyvinyl alcohol (PVA) for possible use in actuators. All
    components are water soluble.


    From the investigation of the components of the solution for a polymeric
    actuator with the desired characteristics, seven different preparation methodologies were
    developed. To observe the degree of influence of the addition order of the components
    in the solution. Thus, it was possible to perform a construction method allied to the
    analysis of the formed thick film.


    Characteristics such as: simplicity of reagents and processes, non-toxicity of
    solvents, self-support of the thick film were sought.
    The films formed from the deposition of the PEDOT:PSS/KDP/PVA solution
    were characterized in terms of their morphology, thickness, sheet resistance,
    composition and displacement.


    At the end of the work, it was possible to obtain a thick film capable of
    displacing 2 mm under 4.2 V DC voltage.

8
  • Caio Cesar Goulart Bomfim
  • ANÁLISE DA POTÊNCIA DE RECEPÇÃO DO BEACON DO SGDC EM BANDA KA NA PRESENÇA DE CHUVA

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • GILBERTO ARANTES CARRIJO
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • RENATO ALVES BORGES
  • UGO SILVA DIAS
  • Data: 15/12/2022

  • Mostrar Resumo
  • Os sistemas de comunicação via satélite têm tido um crescimento vertiginoso nos últimos anos devido ao surgimentos e expansão de novas tecnologias que demandam cada vez mais banda. Essa constante evolução tem impulsionado a indústria no sentido de desenvolver tecnologias de comunicação com maior capilaridade, eficiência e inteligência. Pautado nesta constatação, este trabalho realiza a análise dos efeitos da atenuação devido à chuva em banda Ka no enlace de recepção da antena gateway de Brasília. Inicialmente, descreve-se a penetrabilidade do acesso à internet nas regiões do Brasil e o atual cenário das comunicações via satélite no país. É realizada a contextualização histórica dos sistemas espaciais, a descrição das órbitas e aplicações e a explanação sobre os sistemas espacial, de controle, usuário e a arquitetura do sistema SGDC, incluindo a cadeia de rastreamento e os recursos utilizados para extração e tratamento dos dados manipulados. Medidas do sinal do beacon foram obtidas por meio da gateway de Brasilia durante todo o ano de 2021 e tais medidas embasaram o desenvolvimento deste trabalho. Volumes pluviométricos mensais foram obtidos entre os anos de 2010 e 2020 foram confrontados com os volumes verificados no ano de 2021 a fim de constatar a representatividade dos dados de potência recebida do beacon obtidos para a elaboração deste trabalho. Por meio dos dados obtidos, propôs-se o valor de clear sky a partir do qual foi construída uma tabela descrevendo tempos de atenuação, número de eventos e porcentagem de tempo anual para a faixa de atenuação 1 a 30 dB. Estuda-se ainda a correlação entre a quantidade de eventos de chuva e a porcentagem de tempo em que o sinal do beacon é atenuado abaixo do nível de clear sky durante as estações do ano. Por fim, obtémse uma tabela que considera os intervalos de tempo de 30-60, 60-120, 120-300 e 300-1200 segundos, por nível de atenuação considerado. Utilizando-se desses dados, é demonstrado o comportamento temporal anual de atenuação do sinal de beacon por faixa de atenuação e é proposto um modelo matemático capaz de representar, com uma boa precisão, o intervalo de referência considerado, que é o intervalo de 30-60 segundos. Além disso, são propostos fatores de escalonamento capazes de reduzir os demais intervalos estudados, ao intervalo de referência considerado. A presente investigação propõe um modelo estatístico capaz de representar fidedignamente o comportamento anual do sinal de beacon na presença de chuva, na região de Brasilia. Os resultados comprovam a aplicabilidade e precisão do modelo proposto no dimensionamento de sistemas de radiofrequência que operam em banda Ka.


  • Mostrar Abstract
  • The satellite communication systems has had a vertiginous growth in recent years due to the emergence and expansion of new technologies that demand more and more bandwidth. This constant evolution has driven the industry to develop communication technologies with higher capillarity, efficiency and intelligence. Based on this finding, this work performs the analysis of the effects of attenuation due to rain in Ka band on the reception link of the gateway antenna in Brasilia. Initially, the penetrability of internet access in the regions of Brazil and the current scenario of satellite communications in the country are described. The historical contextualization of the space systems, the description of the orbits and its applications and the explanation of the space, control, user segments and the architecture of the SGDC system are carried out, including the tracking chain and the resources used to extract and process the manipulated data. Beacon signal measurements were obtained through the Brasilia gateway throughout 2021 and such measurements supported the development of this work. Monthly rainfall volumes were obtained between the years 2010 and 2020 and were compared with the volumes verified in the year 2021 in order to check the representativeness of the power data measured from the beacon. Through the data obtained, the clear sky value was proposed, from which a table was constructed describing attenuation times, number of events and percentage of annual time for the attenuation range 1 to 30 dB. The correlation between the amount of rain events and the percentage of time in which the beacon signal is attenuated below the clear sky level during seasons, is also studied. Finally, a table is obtained that considers the time intervals of 30-60, 60-120, 120-300 and 300-1200 seconds, per considered attenuation level. Using these data, the annual temporal behavior of attenuation of the beacon signal by attenuation range is demonstrated and a mathematical model capable of representing, with good precision, the reference interval considered, which is the interval of 30-60 seconds. In addition, scaling factors capable of reducing the other studied intervals to the reference interval are proposed. The present investigation proposes a statistical model capable of reliably representing the annual behavior of the beacon signal in the presence of rain, in the region of Brasilia. The results prove the applicability and precision of the proposed model in the dimensioning of radiofrequency systems that operate in Ka band.

9
  • JOSÉ RICARDO DA ASSUNÇÃO FERREIRA
  • Atualização da Tecnologia LMR para a LTE em Aplicações das Forças Armadas

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • UGO SILVA DIAS
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • GEORGES DANIEL AMVAME NZE
  • TERCIO BRUM
  • Data: 15/12/2022

  • Mostrar Resumo
  • Este trabalho apresenta uma investigação prática dos serviços que podem ser disponibilizados com a tecnologia 4G/LTE em proveito dos órgãos da Defesa Nacional, neles englobados as Forças Armadas e os Órgão de Segurança Publicada. Nesse sentido, foi realizado e apresentado um estudo a respeito das características específicas dos serviços de telefonia celular para a segurança pública. Características como segurança e continuidade. Nesse contexto, analisou-se também quais funcionalidades seriam possíveis serem implementadas pela tecnologia 4G/LTE. Por outro lado, verificou-se a integração dessa tecnologias aos sistemas já existentes, verificando as possibilidades de coexistência entre os sistemas. Além disso, realizou-se um estudo de caso para verificar a possibilidade de instalação de uma estrutura de banda larga para utilização dos Órgãos de Segurança Pública com base na implantação realizada nos Estados Unidos. Finalizando, foram realizados testes com os sistemas de telefonia celular privada 4G do Exército com o objetivo de coletar dados para a conclusão do presente trabalho. Esses resultados mostraram um excelente desempenho do ponto de vista de atendimento as demandas das Forças Armadas nos quesitos de segurança, confiabilidade e continuidade.


  • Mostrar Abstract
  • This work presents a practical investigation of the services that can be made available with the 4G/LTE technology for the benefit of National Defense bodies, including the Armed Forces and Published Security Agency. In this sense, a study was carried out and presented regarding the specific characteristics of cellular services for public safety. Features like security and continuity. In this context, it was also analyzed which functionalities would be possible be implemented by 4G/LTE technology. On the other hand, the integration of these technologies existing systems, verifying the possibilities of coexistence between the systems. Furthermore, a case study was carried out to verify the possibility of installing a broadband structure for use by Public Safety Agencies based on the implementation carried out in the United States. Finally, tests were carried out with the Army's private 4G cell phone systems with the objective of collecting data for the conclusion of this work. These results showed an excellent performance from the point of view of meeting the demands of the Armed Forces in terms of security, reliability and continuity.


10
  • Thiago Aguiar Soares
  • SPECTRUM AVAILABILITY IN THE VHF AND UHF BANDS FOR THE DEPLOYMENT OF SECOND-GENERATION DIGITAL TERRESTRIAL TELEVISION SYSTEMS IN BRAZIL

  • Orientador : UGO SILVA DIAS
  • MEMBROS DA BANCA :
  • CRISTIANO AKAMINE
  • HUGERLES SALES SILVA
  • LEONARDO AGUAYO
  • UGO SILVA DIAS
  • Data: 20/12/2022

  • Mostrar Resumo
  • Digital Terrestrial Television (DTT) services still play an important role in Brazil in delivering media content to a large number of people. Besides the growing penetration of broadband connectivity and overthe-top services, television broadcasting is still the main platform for providing information, entertainment, and culture, especially in economically less favored regions. Furthermore, second-generation DTT systems are already internationally standardized and in operation in many countries. These new technologies provide essential enhancements such as High Definition (UHDTV) video transmissions with High Dynamic Range (HDR) and Wide Color Gamut (WCG) capabilities, immersive audio techniques, and new generations of middleware platforms, which will bring new converged broadcasting-broadband experiences to viewers. To allow the evolution of DTT services, spectrum availability should be deemed for deploying new technologies. Hence, in this work we study the current and future spectrum availability of the 174-216 MHz VHF band and 470-698 MHz UHF band in Brazil for the deployment of second-generation Digital Terrestrial Television Systems, which are being studied under the “TV 3.0 Project” initiative, coordinated by The Brazilian Digital Terrestrial Television System Forum (SBTVD Forum). Coverage simulations using the Recommendation ITU-R P.1812 were computed for all expected operating television stations, in different scenarios, to estimate the spectrum usage over the Brazilian territory. Results indicate that even after the analog TV switch-off there will be no spectrum availability in the main metropolitan regions for simulcast transmissions between the current ISDB-Tb System and the future TV 3.0. Hence, hybrid approaches should be implemented to smoothly introduce a new digital television system in Brazil.


  • Mostrar Abstract
  • Digital Terrestrial Television (DTT) services still play an important role in Brazil in delivering media content to a large number of people. Besides the growing penetration of broadband connectivity and overthe-top services, television broadcasting is still the main platform for providing information, entertainment, and culture, especially in economically less favored regions. Furthermore, second-generation DTT systems are already internationally standardized and in operation in many countries. These new technologies provide essential enhancements such as High Definition (UHDTV) video transmissions with High Dynamic Range (HDR) and Wide Color Gamut (WCG) capabilities, immersive audio techniques, and new generations of middleware platforms, which will bring new converged broadcasting-broadband experiences to viewers. To allow the evolution of DTT services, spectrum availability should be deemed for deploying new technologies. Hence, in this work we study the current and future spectrum availability of the 174-216 MHz VHF band and 470-698 MHz UHF band in Brazil for the deployment of second-generation Digital Terrestrial Television Systems, which are being studied under the “TV 3.0 Project” initiative, coordinated by The Brazilian Digital Terrestrial Television System Forum (SBTVD Forum). Coverage simulations using the Recommendation ITU-R P.1812 were computed for all expected operating television stations, in different scenarios, to estimate the spectrum usage over the Brazilian territory. Results indicate that even after the analog TV switch-off there will be no spectrum availability in the main metropolitan regions for simulcast transmissions between the current ISDB-Tb System and the future TV 3.0. Hence, hybrid approaches should be implemented to smoothly introduce a new digital television system in Brazil.

11
  • Raphael Alves Bruce
  • PROPOSIÇÃO DE UM MODELO DE BLOCKCHAIN PARA OPERAÇÕES INTERBANCÁRIAS

  • Orientador : KLEBER MELO E SILVA
  • MEMBROS DA BANCA :
  • DANIEL GUERREIRO E SILVA
  • UGO SILVA DIAS
  • GEORGES DANIEL AMVAME NZE
  • DANIEL ALVES DA SILVA
  • Data: 20/12/2022

  • Mostrar Resumo
  • A tecnologia blockchain surgiu como o principal mecanismo das criptomoedas e por mantér um banco de dados distribuído que depende de processos de consenso para a persistência dos dados passou a ter seu uso considerado em várias outras aplicações, principalmente devido às suas características de disponibilidade, segurança e descentralização. O momento para a tecnologia também se mostra bastante favorável devido aos cenários atuais em que negocialmente se exige cada vez mais integração e compartilhamento de dados entre parceiros de negócios. Como a rede peer-to-peer blockchain provê um ledger distribuído entre os nós participantes compartilhado com transparência, imutabilidade e confiabilidade, logo os investimentos nesta aumentaram, credenciandoa como solução tecnológica. Considerando esta abordagem, essa dissertação propõe um modelo de uso de blockchain de consórcio para comunicação de operações interbancárias entre entidades financeiras parceiras, substituindo interfaces legadas baseadas no processamento de arquivos em lotes. Este modelo tem preocupação com escalabilidade e desempenho e possui como principais contribuições: a) a utilização do Patricia Merkle Tree para estabelecer um processo de encadeamento dos blocos na cadeia que permita melhor escalabilidade quando comparado com às soluções mais disseminadas em blockchain, b) a proposição de um mecanismo de consenso híbrido, que mantenha as vantagens e supere os problemas do prova de autoridade e da tolerência às falhas bizantinas práticas (PBFT) principalmente, tendo desempenho superior ao mecanismo de prova de trabalho, geralmente implementado nos blockchains, e c) a adoção de diretrizes para privacidade de dados adicional para manter o sigilo das informações em um contexto de transparência e distribuição, atendendo a exigência de que todos os dados pessoais e informações sensíveis permaneçam confidenciais. E camada de auditoria para mantér as regras acordadas pelo consórcio com a utilização de smart contracts para monitoramento automático e permanente. A proposta é validada com o desenvolvimento e testes de um protótipo correspondente, considerando a avaliação de funcionalidades propostas e definidas para o modelo, bem como o desempenho em relação aos mecanismos geralmente escolhidos nas implementações mais comuns em blockchain.


  • Mostrar Abstract
  • Blockchain technology has emerged as the primary mechanism of cryptocurrencies and by maintaining a distributed database that relies on consensus processes for data persistence it has been considered for use in many other applications, mainly due to its characteristics of availability, security and decentralization. The timing for technology is also very favorable due to current scenarios where business integration and data sharing between business partners is increasingly required. As the peer-to-peer blockchain network provides a ledger distributed among the participating nodes that is shared with transparency, immutability and reliability, investments in it have increased, crediting it as a technological solution. Considering this approach, this dissertation proposes a model for using consortium blockchain to communicate interbank transactions between partner financial entities, replacing legacy interfaces based on batch file processing. This model is concerned with scalability and performance and has as main contributions: a) the use of Patricia Merkle Tree to establish a chaining process that allows better scalability when compared to the most widespread blockchain solutions, b) the proposition of a hybrid consensus engine that retains the advantages and overcomes the problems of proof of authority and practical byzantine fault tolerance (PBFT) primarily, outperforming the proof of work mechanism, generally implemented in blockchains, and c) adoption additional data privacy guidelines to maintain the confidentiality of information in a context of transparency and distribution, meeting the requirement that all personal data and sensitive information remain confidential. Establishing an audit layer to maintain the rules agreed by the consortium with the use of smart contracts for automatic and permanent monitoring. The proposal is validated by the development and testing of its corresponding prototype, considering the evaluation of the proposed and defined functionalities for the model, as well as the performance in comparasion to the mechanisms generally chosen in the most common blockchain implementations.

12
  • DANIEL CARVALHO DE SOUSA
  • Integration and Design of a Reconfigurable Reflectarray antenna with an RF LoRa-based system for IoT multi-protocol applications

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • DANIEL COSTA ARAUJO
  • DANIEL ORQUIZA DE CARVALHO
  • BAYANMUNKH ENKHBAYAR
  • Data: 23/12/2022

  • Mostrar Resumo
  • O presente trabalho consiste no desenvolvimento de uma antena do tipo Reflectarray(RA) ativa
    reconfigurável. O elemento ativo utilizado nessa antena é o diodo PIN, utilizado para o controle
    da distribuição de fase do elemento irradiante, que consiste de uma estrutura planar retangular do
    tipo microfita.


    A antena foi desenvolvida para aplicações de comunicação via satélite operando na banda Ku,
    devido à sua versatilidade, uma vez que permite o apontamento digital, otimização e conformação de feixe, por meio de diversas técnicas de beamforming (formação de feixe). A técnica de
    otimização convexa é discutida e implementada para o ajuste de fase e otimização de lóbulos secundários. Essa antena pode ser utilizada tanto em satélites de baixa órbita, quanto em estações
    rádio-base.


    Devido às características da topologia apresentada, se faz necessário não só o desenvolvimento
    de circuitos de controle microcontrolados, mas também o projeto das fontes de alimentação eficientes. Nesse sentido, uma nova abordagem para o circuito de controle é apresentada, que foi
    validada por meio de um protótipo funcional.


    Fazendo-se uso da possibilidade de transmissão de dados em longas distâncias, por meio
    dos satélites de baixa órbita, um sistema baseado no protocolo de transmissão LoRaWAN. Esse
    sistema foi projetado visando maximizar o alcance da comunicação entre dois dispositivos LoRa.


  • Mostrar Abstract
  • The present work consists of the development of an active reconfigurable Reflectarray(RA)
    antenna. The active element used in the antenna is the PIN diode, which controls the phase distribution of the antenna. The radiating element is based on a flat rectangular microstrip structure.


    This antenna was developed for satellite communications operating in the Ku band. Its versatility allows for digital beam-scanning, optimization and beamforming, through various techniques,
    such as the convex optimization technique, which is applied for phase-optimization and sidelobe
    minimization. This antenna can be used either in low-orbit satellites or base stations.


    Due to this topology characteristics, the design of the efficient cell control circuit, and efficient
    power supply are desirable. In this sense, a new approach to the control circuit is shown, which
    was validated through a functional prototype.


    Due to the possibility of transmitting data over long distances, through low-orbit satellites,
    a system based on the LoRaWAN protocol was designed. This system aims to maximize the
    communication range between two LoRa devices.

13
  • Guilherme Felix de Andrade
  • Ku Band RF Front End Receiver of a Mobile Terminal for Satellite Communication and IoT Solutions

  • Orientador : SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • MEMBROS DA BANCA :
  • SEBASTIEN ROLAND MARIE JOSEPH RONDINEAU
  • DANIEL ORQUIZA DE CARVALHO
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • GEFESON MENDES PACHECO
  • Data: 30/12/2022

  • Mostrar Resumo
  • Os sistemas de comunicação via satélite precisam recuperar o sinal transmitido, processá-
    lo adequadamente e adicionar o mínimo possível de ruído ao sistema, pois o sinal é bastante
    atenuado pelo espaço livre e pela chuva. Este trabalho apresenta o desenvolvimento, simulações sistêmicos e medições do receptor heteródino de rádio frequência para um terminal
    móvel de comunicação via satélite operando na banda Ku, juntamente com um sistema baseado na comunicação LoRa para dispositivos e adição de funcionalidades IoT ao produto.
    Além disso, é apresentado o projeto e procedimentos de design de filtros passivos, mixer e
    LNA utilizando o software Advanced Design System. Este trabalho apresenta uma compila-
    ção de subitens de três projetos cujo o foco é comunicação satélite e LoRa, desenvolvido ao
    longo do mestrado.



  • Mostrar Abstract
  • Satellite communication systems must recover the transmitted signal, process it correctly,
    and add as little noise as possible, as free space and rain significantly attenuate the signal.
    This work presents the heterodyne radio frequency receiver development, systemic simulations, and measurements for a mobile satellite communication terminal operating in the
    Ku band, along with a system based on the LoRa communication for devices and adding
    IoT functionality to the product. In addition, the passive filters, mixer, and LNA was projected and designed using Advanced Design System software. The work is part of a larger
    project, which deals with the design of the complete mobile terminal. This work presents a
    compilation of sub-items from three projects focused on satellite communication and LoRa,
    developed throughout the master’s degree.


Teses
1
  • Murilo Coutinho Silva
  • Desenvolvimento, Difusão e Criptoanálise de Primitivas Criptográficas Simétricas

  • Orientador : RAFAEL TIMOTEO DE SOUSA JUNIOR
  • MEMBROS DA BANCA :
  • ANDERSON CLAYTON ALVES NASCIMENTO
  • FRANCISCO ASSIS DE OLIVEIRA NASCIMENTO
  • GEORGES DANIEL AMVAME NZE
  • JULIO CÉSAR LÓPEZ HERNANDEZ
  • RAFAEL TIMOTEO DE SOUSA JUNIOR
  • Data: 25/11/2022

  • Mostrar Resumo
  • Nessa tese de doutorado, novas técnicas de criptografia, criptoanálise e de desenvolvimento de algoritmos são estudadas e propostas. Resumidamente, os seguintes resultados são alcançados: • Uma técnica denominada Análise de Difusão Contínua (CDA) é proposta. Utilizandose essa técnica é possível se estudar, desenvolver e comparar algoritmos criptográficos. Com CDA é possível generalizar tais algoritmos a partir da transformação dos bits discretos em probabilidades, de tal forma que o algoritmo é generalizado em uma função matemática contínua. A partir disso, propõe-se três novas métricas de difusão a serem utilizadas nesse novo espaço contínuo, a saber: o Fator de Avalanche Contínuo (CAF), a Métrica de Neutralidade Contínua (CNM), e o Fator de Difusão (DF). Além disso, mostra-se que essas métricas de difusão podem ser utilizadas para avaliar e comparar algoritmos criptográficos. Em particular, o Fator de Difusão pode ser usado para comparar a difusão sem a necessidade de se reduzir o número de rodadas dos algoritmos criptográficos, algo inédito até então na área de criptografia. • Um novo método para avaliar a segurança de algoritmos criptográficos em relação à criptoanálise diferencial, denominado ColoreD, é proposto. Com o ColoreD, ao invés de se considerar apenas diferenças binárias (“pretas e brancas”), passa a ser possível o uso de diferenças contínuas. Isso é possível a partir do uso das generalizações contínuas que permitem que se considere diferenças menores do que 1 bit. Adicionalmente, com o método ColoreD, propõe-se novas ferramentas tais como a Criptoanálise Diferencial Contínua (CDC). Esta ferramenta viabiliza a implementação de ataques de recuperação de chave sem a necessidade de redução do número de rodadas para algoritmos complexos. Para demonstrar a utilidade dessa proposta, utiliza-se o ferramental ColoreD para estudar e comparar os algoritmos AES e PRESENT, duas cifras de bloco bastante conhecidas. Tal análise, leva a conclusão de que o algoritmo AES é mais seguro do que o PRESENT quando se considera a criptoanálise diferencial. Em particular, demonstra-se que o algoritmo PRESENT necessitaria de ao menos 37 rounds para atingir a mesma margem de segurança do AES. Finalmente, aplicando-se o CDC, é proposto um ataque capaz de recuperar chave desses algoritmos, a partir do uso de suas generalizações contínuas e de pares de entradas com diferenças bem pequenas. Novas técnicas de criptoanálise contra algoritmos do tipo ARX são propostas. Primeiramente, uma nova forma de se gerar aproximações lineares é apresentada. Com tal técnica, demonstra-se ser possível encontrar aproximações lineares mais eficientes em cifras tipo ARX. Com tal técnica, propõe-se as primeiras aproximações lineares explicitamente derivadas para 3 e 4 rounds da cifra de fluxo ChaCha. Como consequência, novos ataques contra o ChaCha são apresentados, sendo possível reduzir a complexidade dos ataques para 2 51 e 2 224 bits de complexidade, contra 6 e 7 rodadas da cifra ChaCha, respectivamente. Adicionalmente, propõe-se uma nova técnica denominada Expansões Lineares Bidirecionais (BLE), capaz de aumentar a eficácia de distinguishers do tipo linear-diferencial. Usando a BLE, apresenta-se os primeiros distinguishers da literatura alcançando 7 e 8 rounds do algoritmo Salsa20 com complexidades de 2 108.98 e 2 215.62, respectivamente. Finalmente, demonstra-se que usando os novos diferenciais obtidos via BLE, é possível melhorar ataques de recuperação de chave do tipo Probabilistic Neutral Bits (PNB) contra 7 e 8 rodadas do algoritmo Salsa20, obtendo complexidades de 2 122.63 e 2 219.56, respectivamente. • Novas cifras de fluxo são propostas. Primeiramente, demonstra-se que é possível aplicar uma alteração bastante simples no algoritmo ChaCha, apenas pela alteração dos parâmetros de rotações na função de quarto de round (QRF), tornando o ChaCha mais seguro contra todos os ataques conhecidos sem perda de performance. De fato, com tais mudanças, deixa de ser possível quebrar 7 rounds do ChaCha, restando apenas ataques contra 6 rounds. Na sequência, a cifra Forró é proposta. Demonstra-se que o algoritmo Forró é capaz de atingir segurança maior do que a do ChaCha mesmo aplicando uma menor quantidade de operações matemáticas. Assim, conclui-se que 5 rounds do Forró é tão seguro quanto 7 rounds do ChaCha e que o algoritmo Forró é mais eficiente quando implementado em diversos tipos de processadores.


  • Mostrar Abstract
  • In this PhD thesis, we study and propose new cryptographic techniques and algorithms. The following results are achieved: • We propose a new technique called Continuous Diffusion Analysis (CDA) that can be used to study, design, and compare of cryptographic algorithms. CDA allows us to generalize cryptographic algorithms by transforming the discrete bits into probabilities such that the algorithm is generalized into a continuous mathematical function. We propose three new metrics to measure the diffusion in this generalized continuous space, namely the Continuous Avalanche Factor, the Continuous Neutrality Measure, and the Diffusion Factor. In addition, we show that these measures can be used to analyze the diffusion of cryptographic algorithms, in particular, the Diffusion Factor can be used to compare the diffusion without the need of reducing the number of rounds or considering a small subset of bits. • We propose a new framework, named ColoreD, to evaluate security against differential cryptanalysis. In the proposed framework, instead of considering only binary (black and white) differences, we allow the use of Continuous Differences (ColoreD), which is possible using of continuous generalizations of cryptographic algorithms, allowing us to use differences smaller than one bit. ColoreD incorporates not only continuous generalization of algorithms, but we also propose new theoretical tools such as the Continuous Differential Cryptanalysis (CDC). This tool provides us with a theoretical framework that allows us to mount key recovery attacks without the need of reducing the number of rounds. To showcase the usefulness of the new framework, we use ColoreD to study and compare AES and PRESENT ciphers. This analysis leads to the conclusion that AES is safer than PRESENT when considering differential cryptanalysis, and that PRESENT would need at least 37 rounds to achieve the same security margin of AES. Additionally, applying CDC to both AES and PRESENT we show that is possible to mount a key recovery to both algorithms when considering inputs with very small continuous differences. • We propose new techniques to improve cryptanalysis against ARX ciphers. First, we present a new way to generate linear approximations, which can be used to find better linear approximations in ARX ciphers. Using this technique, we present the first explicitly derived linear approximations for 3 and 4 rounds of ChaCha and, as a consequence, it enables us to improve the recent attacks against ChaCha. More precisely, we our attacks have complexity of 2 51 and 2 224 against 6 and 7 rounds of ChaCha, respectively. Additionally, we propose a technique called Bidirectional Linear Expansions (BLE) to improve the efficacy of differential-linear distinguishers. Using the BLE, we propose the first differential-linear distinguishers ranging 7 and 8 rounds of Salsa20, with time complexities of 2 108.98 and 2 215.62, respectively. Additionally, we show that using the differentials obtained, it is possible to improved Probabilistic Neutral Bits (PNB) key-recovery attacks against 7 and 8 rounds of Salsa20, obtaining time complexities of 2 122.63 and 2 219.56, respectively. • We propose the design of new stream ciphers. First, we show that a simple modification in the algorithm ChaCha, namely changing the rotation distances in the Quarter Round Function, makes it more secure against all the most effective known attacks without any loss in performance. In fact, we show that with these changes, it is only possible to break up to 6 rounds of ChaCha. Therefore, it would be no longer possible to break 7 rounds of ChaCha with the best-known attacks. Finally, we propose a new stream cipher called Forró. We show that Forró is able to achieve more security than Salsa and ChaCha using fewer arithmetic operations. We show that the security of 5 rounds of Forró is equivalent to 7 rounds of ChaCha and that Forró is faster when implemented in several different processors.

2
  • Yarisley Peña Llerena
  • Controller Placement and Radio Resource Allocation for D2D Communications in 5G Wireless Networks

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • PAULO ROBERTO DE LIRA GONDIM
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • CARLOS HUMBERTO LLANOS QUINTERO
  • LUIZ CARLOS PESSOA ALBINI
  • RENATO MARIZ DE MORAES
  • Data: 20/12/2022

  • Mostrar Resumo
  • Next generation cellular networks promise faster data transmission, higher bandwidth, and
    lower latency and the Device-to-Device (D2D) communication technology helps make such promises
    a reality, due to proximity services (ProSe) of communication devices. The advantages of such
    communication include higher throughput, enhanced data rate, lower latency and energy consumption, fairness, and improved spectral efficiency. This research focuses on the influence of
    the management of D2D communications on a cellular network. Two problems, namely Controller Placement Problem (CPP) and Radio Resource Allocation (RRA) were studied.
    The technique proposed for solving the former involves the obtaining of number of D2D communications to be managed and then number of controllers required, their physical location in
    the cellular infrastructure, and the best evolved NodeB (eNB) assignment for them. The problem
    was modeled as an optimization problem one and Artificial Bee Colony (ABC) and Ant Colony
    System with External Memory (ACS-EM) meta-heuristics solved it. They were compared with
    Ant Colony System (ACS) and Particle Swarm Optimization (PSO) algorithms, and the analysis
    revealed the computational complexities of ABC and PSO are lower than of ACS-EM and ACS.
    However, ABC and ACS-EM showed better performance in solving the problem, with characteristics that enable a more efficient exploration of the search space, thus avoiding sub-optimal
    solutions. The best results were obtained with ABC, followed by ACS-EM, then ACS, and lastly
    PSO.
    Regarding the RRA problem, two solution methods were proposed towards obtaining the
    number of D2D connections admitted in the network. In the first RRA solution method, the optimization problem is solved by the Social-aware RRA Artificial Bee Colony (SA-RRA-ABC),
    considering the social relationship between users, a feedback scheme, and maximization of the
    system throughput. A selected-NM Maximum Distance Ratio (MDR) q-bit feedback scheme
    designed reduces feedback overhead, since each D2D receiver sends only q-bit feedback Channel State Information (CSI) among N cellular User Equipment (CUE) and M D2D pairs with
    the largest MDR metric. SA-RRA-ABC was validated through simulations and compared with
    Greedy Resource Allocation Algorithm (GRAA) and Social-aware Greedy Resource Allocation
    Algorithm (SA-GRAA). The simulation results showed its better performance. The selected-NM
    q-feedback model proposed can achieve performance close to that of the full CSI model with
    lower overhead.
    The second RRA solution method deals with the optimization problem in a D2D cellular
    network that offers Ultra-reliable and Low Latency Communication (URLLC) services for the
    sending short packets directly to their destination, thus maximizing the network energy efficiency.
    The problem is solved by three bioinspired algorithms, namely ABC, ACS-EM, and PSO, which
    take into account interference when cellular and D2D users use a same radio resource. The metaheuristics were compared with a greedy heuristic and an exhaustive search algorithm and the
    analysis revealed the computational complexity of Greedy is the lowest and those of ABC and
    PSO are lower than that of ACS-EM. However, ABC showed better performance in solving the
    problem, followed by ACS-EM, then PSO, and lastly Greedy heuristic.


  • Mostrar Abstract
  • Next generation cellular networks promise faster data transmission, higher bandwidth, and
    lower latency and the Device-to-Device (D2D) communication technology helps make such promises
    a reality, due to proximity services (ProSe) of communication devices. The advantages of such
    communication include higher throughput, enhanced data rate, lower latency and energy consumption, fairness, and improved spectral efficiency. This research focuses on the influence of
    the management of D2D communications on a cellular network. Two problems, namely Controller Placement Problem (CPP) and Radio Resource Allocation (RRA) were studied.
    The technique proposed for solving the former involves the obtaining of number of D2D communications to be managed and then number of controllers required, their physical location in
    the cellular infrastructure, and the best evolved NodeB (eNB) assignment for them. The problem
    was modeled as an optimization problem one and Artificial Bee Colony (ABC) and Ant Colony
    System with External Memory (ACS-EM) meta-heuristics solved it. They were compared with
    Ant Colony System (ACS) and Particle Swarm Optimization (PSO) algorithms, and the analysis
    revealed the computational complexities of ABC and PSO are lower than of ACS-EM and ACS.
    However, ABC and ACS-EM showed better performance in solving the problem, with characteristics that enable a more efficient exploration of the search space, thus avoiding sub-optimal
    solutions. The best results were obtained with ABC, followed by ACS-EM, then ACS, and lastly
    PSO.
    Regarding the RRA problem, two solution methods were proposed towards obtaining the
    number of D2D connections admitted in the network. In the first RRA solution method, the optimization problem is solved by the Social-aware RRA Artificial Bee Colony (SA-RRA-ABC),
    considering the social relationship between users, a feedback scheme, and maximization of the
    system throughput. A selected-NM Maximum Distance Ratio (MDR) q-bit feedback scheme
    designed reduces feedback overhead, since each D2D receiver sends only q-bit feedback Channel State Information (CSI) among N cellular User Equipment (CUE) and M D2D pairs with
    the largest MDR metric. SA-RRA-ABC was validated through simulations and compared with
    Greedy Resource Allocation Algorithm (GRAA) and Social-aware Greedy Resource Allocation
    Algorithm (SA-GRAA). The simulation results showed its better performance. The selected-NM
    q-feedback model proposed can achieve performance close to that of the full CSI model with
    lower overhead.
    The second RRA solution method deals with the optimization problem in a D2D cellular
    network that offers Ultra-reliable and Low Latency Communication (URLLC) services for the
    sending short packets directly to their destination, thus maximizing the network energy efficiency.
    The problem is solved by three bioinspired algorithms, namely ABC, ACS-EM, and PSO, which
    take into account interference when cellular and D2D users use a same radio resource. The metaheuristics were compared with a greedy heuristic and an exhaustive search algorithm and the
    analysis revealed the computational complexity of Greedy is the lowest and those of ABC and
    PSO are lower than that of ACS-EM. However, ABC showed better performance in solving the
    problem, followed by ACS-EM, then PSO, and lastly Greedy heuristic.

3
  • Jesús Noel Suárez Rubí
  • A platform and ontologies for environment data sharing and the use of Machine Learning models for wildfire ignition and prediction

  • Orientador : PAULO ROBERTO DE LIRA GONDIM
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • JOEL JOSE PUGA COELHO RODRIGUES
  • LEONARDO RODRIGUES ARAUJO XAVIER DE MENEZES
  • PAULO ROBERTO DE LIRA GONDIM
  • SANDRA SENDRA COMPTE
  • Data: 20/12/2022

  • Mostrar Resumo
  • Ecossistemas, assentamentos e vidas humanas são colocados em risco por incêndios florestais todos os anos, impactando a economia e o desenvolvimento socioeconômico. O Distrito Federal brasileiro, inserido no bioma Cerrado, vem apresentando um aumento desses fenômenos. No entanto, poucos estudos foram realizados na região. Vários modelos têm sido propostos mundialmente para a previsão da ocorrência e comportamento do fogo, permitindo a identificação dos fatores que os favorecem, os riscos e pós-efeitos. A aplicação direta de tais modelos na região do Distrito Federal é desafiadora devido às diferenças nas fontes de dados, características geográficas das regiões e indisponibilidade de dados em alguns casos. Por outro lado, o uso de tecnologias de informação e comunicação e a ampla disseminação de equipamentos eletrônicos (por exemplo, redes de sensores e terminais celulares) são essenciais para o tratamento adequado de grandes volumes de dados com valor substancial para o desenvolvimento de cidades inteligentes. Particularmente, os dados ambientais de cidades inteligentes podem enriquecer os estudos sobre incêndios florestais. No entanto, propostas recentes têm enfrentado a mesma desvantagem, pois os dados são incompletos, seguem diferentes formatos de representação e até possuem diferentes conotações semânticas. A heterogeneidade de objetos inteligentes conectados à Internet (ou seja, interfaces de rede, protocolos de comunicação, estrutura de dados, precisão de aquisição e semântica de dados) tem causado problemas de interoperabilidade, dificultando a eficácia dos sistemas de apoio à decisão intimamente relacionados à qualidade dos dados. A aplicação de algoritmos de big data e aprendizado de máquina para melhorar os processos relacionados a cidades inteligentes são alguns dos exemplos impactados negativamente pela falta de padrões. As soluções para cidades inteligentes devem garantir a interoperabilidade desde a captura de dados até a extração e visualização do conhecimento por meio de tecnologias como Web Semântica e ontologias. Além disso, os componentes envolvidos devem incluir dispositivos IoT, gateways, cloud e fog computing para uma melhor aplicação das técnicas de análise de dados. Nesse sentido, esta tese propõe uma plataforma de cidade inteligente para monitoramento da qualidade ambiental baseada em tecnologias semânticas e ontologias, possibilitando um sistema de coleta e compartilhamento de dados multidefinição e multiprotocolo. Ele também apresenta uma metodologia para a extração de insights sobre os dados coletados e um mecanismo para cálculos baseados em nuvem e neblina. Além disso, são propostas ontologias para a representação semântica e definição do esquema de armazenamento considerando cidade inteligente, internet das coisas florestais (IoFT) e terminologia relacionada ao fogo. Um conjunto de dados foi compilado a partir de dados abertos governamentais brasileiros para a previsão do comportamento de incêndios florestais e usado para o treinamento de vários modelos de Machine Learning que consideram o ponto de ignição do fogo para prever as áreas que serão impactadas. Inclui observações sobre características climáticas de 5 estações de monitoramento e dados de satélite sobre incêndios ocorridos nas últimas duas décadas e foi enriquecido com outras características topográficas, hidrográficas e antropogênicas, como índice de urbanização, distância a rios/estradas e vegetação de diferença normalizada Índice (NDVI). Como resultado, a plataforma de monitoramento ambiental foi desenvolvida e testada quanto à previsão de propagação e comportamento de incêndios florestais em um momento específico e/ou em regiões específicas para auxiliar os órgãos de gestão de incêndios a minimizar os danos causados. Tal estudo de caso mostrou a aplicação do aprendizado de máquina como o principal fator para melhorar os estudos de risco e comportamento de incêndio, impactando diretamente na sustentabilidade dos ecossistemas e promovendo diversas melhorias no estudo de incêndios na região do Distrito Federal.


  • Mostrar Abstract
  • Ecosystems, settlements, and human lives are put at risk by forest fires every year, impacting economy and social-economic development. The Brazilian Federal District, inserted on the Cerrado biome, has shown an increase in such phenomena. However, few studies have been conducted in the region. Several models have been proposed worldwide for the prediction of fire occurrence and behavior, and identification of their conditioning factors, risks, and post-effects. The direct application of such models in the Federal District region is challenging due to differences in data sources, geographic characteristics of the regions, and unavailability of data in some cases. On the other hand, the use of information and communication technologies and the broad dissemination of electronic equipment (e.g., sensor networks and cellular terminals) are essential for the adequate treatment of large volumes of data with substantial value for the development of smart cities. Particularly, environmental smart city data can enrich wildfire studies. However, recent proposals have faced the same downside, since data are incomplete, follow different representation formats, and even have different semantic connotations. The heterogeneity of intelligent objects connected to the Internet (i.e., network interfaces, communication protocols, data structure, acquisition precision, and data semantics) has caused interoperability problems, hindering the effectiveness of decision-support systems closely related to the quality of data. The application of big data and machine learning algorithms for improving smart city-related processes are some of the examples negatively impacted by the lack of standards. Solutions for smart cities should grant interoperability from data capture to knowledge extraction and visualization through technologies such as Semantic Web and ontologies. Moreover, the components involved should include Internet of Things (IoT) devices, gateways, cloud, and fog computing for a better application of data analysis techniques. In this sense, this thesis proposes a smart city platform for environment quality monitoring based on semantic technologies and ontologies, enabling a multi-definition and multi-protocol data collection and sharing system. It also presents a methodology for the extraction of insights into the collected data and a mechanism for cloud- and fog-based computations. Moreover, ontologies are proposed for the semantic representation and storage scheme definition considering Smart Cities (SC), Internet of Forestry Things (IoFT), and fire-related terminology. A dataset was compiled from Brazilian governmental open data for the prediction of the wildfire behavior and used for the training of several Machine Learning models that consider the fire point of ignition to predict the areas that will be impacted. It includes observations on climate features from 5 monitoring stations and satellite data on fires that occurred over the past two decades and was enriched with other topographic, hydrographic, and anthropogenic features, such as urbanization index, distance to rivers/roads, and Normalized Difference Vegetation Index (NDVI). As a result, the environment monitoring platform has been developed and tested regarding the prediction of both spread and behavior of wildfires at a specific time and/or in specific regions for helping fire management agencies minimize the damages caused. Such a case study showed the application of machine learning as the main factor for improving fire risk and behavior studies, directly impacting the sustainability of ecosystems and promoting several improvements in the study of fires in the Federal District region.

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app09_Prod.sigaa03