Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2024
Dissertações
1
  • CARLOS JOEL TAVARES DA SILVA
  • A Multi-robot System Architecture with Multi-agent Planning.

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • GENAINA NUNES RODRIGUES
  • RICARDO PEZZUOL JACOBI
  • YARA A. RIZK
  • Data: 01/02/2024

  • Mostrar Resumo
  • Garantir o cumprimento de objetivos em um Sistema Multi-Robô (SMR) é um desafio, especialmente considerando operações em ambientes dinâmicos. Apesar da literatura sobre Planejamento Multiagente (PMA) apresentar diversas abordagens para resolver esse problema, há espaço para melhorias. Um desafio em aberto em SMR está relacionado com o plano de recuperação. Assim, este trabalho integra o PMA a SMR, apresentando a arquitetura Multi-Robot System Architecture with Planning (MuRoSA-Plan), que tem foco na recuperação de planos. Para ilustrar a arquitetura, um caso de coordenação de missão multi-robô em serviços de saúde utiliza o Robot Operating System (ROS2) e o planejador IPyHOP com redes de tarefas hierárquicas. Experimentos com o protótipo MuRoSA-Plan apresentam melhorias em comparação ao Planning System Framework para ROS2 - framework PlanSys2. Os resultados experimentais mostram que o MuRoSA-Plan gera planos adaptados ao tempo de execução, mitigando interrupções de missão, satisfazendo os objetivos do caso de serviço de saúde, indicando uma solução promissora para recuperação de planos no MRS.


  • Mostrar Abstract
  • Guaranteeing goal achievement in a Multi-Robot System (MRS) is challenging, especially considering operations in dynamic environments. Despite the Multi-Agent Planning (MAP) literature presenting several approaches to solve this problem, there is space for improvement. One open challenge in MRS is related to plan recovery. Thus, this work integrates MAP to MRS, presenting the Multi-Robot System Architecture with Planning (MuRoSA-Plan) focusing on plan recovery. To illustrate the architecture, a multi-robot mission coordination case in healthcare service uses the Robot Operating System (ROS2) and IPyHOP planner with hierarchical task networks. Experiments with the MuRoSA-Plan prototype present improvement compared to the Planning System Framework for ROS2 - PlanSys2 framework. The experimental results show that MuRoSA-Plan generates runtime-adapted plans mitigating mission disruptions, satisfying the goals of the healthcare service case, indicating a promising solution for plan recovery in MRS.

2
  • JAQUELINE GUTIERRI COELHO
  • Um banco de dados contendo RNAs não-codificantes envolvidos em câncer colorretal.

  • Orientador : MARIA EMILIA MACHADO TELLES WALTER
  • MEMBROS DA BANCA :
  • MARIA EMILIA MACHADO TELLES WALTER
  • MARISTELA TERTO DE HOLANDA
  • NALVO FRANCO DE ALMEIDA JUNIOR
  • Data: 04/04/2024

  • Mostrar Resumo
  • Na natureza, existem dois principais ácidos nucleicos: o DNA e o RNA. O dogma central da biologia molecular descreve o processo pelo qual o DNA é transcrito em RNA, que por sua vez é traduzido em proteínas. Contrariando a visão clássica desse dogma, foi descoberto que a transcrição do DNA também gera ácidos nucleicos não codificantes, como os microRNAs e os longos RNAs não codificantes. Esses ncRNAs desempenham papéis essenciais na regulação gênica e em outros processos celulares, destacando a complexidade da maquinaria genética e a diversidade funcional dos ncRNAs na biologia celular. Neste contexto, a otimização e aprimoramento do Banco de Dados Perci, uma fonte centralizada de informações sobre o câncer colorretal (CRC), têm o potencial de impulsionar significativamente a pesquisa nessa área. Esse aprimoramento é importante para facilitar a compreensão dos mecanismos celulares subjacentes à detecção, progressão e prognóstico do tumor. Outrossim, este estudo se propõe a compilar dados relevantes sobre o câncer colorretal, com foco nos ncRNAs, visando disponibilizá-los para consulta pública. Foi desenvolvido um banco de dados online abrangendo cinco descritores de CRC e três categorias específicas de ncRNAs: ncRNAs longos (lncRNAs), ncRNAs circulares longos (circ ncRNAs) e microRNAs (miRNAs), juntamente com características transcriptômicas associadas. Os descritores de câncer contemplados incluem câncer colorretal, câncer de cólon, adenocarcinoma, tumor e metástase hepática de câncer colorretal. Perguntas como "Quais circRNAs estão implicados na neoplasia colorretal?", "Quais circRNAs e miRNAs estão associados à metástase hepática do câncer colorretal?" e "Dado um lncRNA específico (H19), quais descritores de câncer estão relacionados a esse ncRNA?" podem ser respondidas utilizando nosso banco de dados. O sistema web pode ser acessado em: http://percidatabase.com.br/.


  • Mostrar Abstract
  • In nature, there are two main nucleic acids: DNA and RNA. The central dogma of molecular biology describes the process by which DNA is transcribed into RNA, which in turn is translated into proteins. Contrary to the classical view of this dogma, it has been discovered that DNA transcription also generates non-coding nucleic acids, such as microRNAs and long non-coding RNAs. These ncRNAs play essential roles in gene regulation and other cellular processes, highlighting the complexity of the genetic machinery and the functional diversity of ncRNAs in cell biology. In this context, the optimization and enhancement of the Perci Database, a centralized and reliable source of information on colorectal cancer (CRC), has the potential to significantly boost research in this area. This improvement is important to facilitate understanding of the cellular mechanisms underlying tumor detection, progression and prognosis. Furthermore, this study aims to compile relevant data on colorectal cancer, with a focus on ncRNAs, in order to make them available for public consultation. An online database was developed covering five CRC descriptors and three specific categories of ncRNAs: long ncRNAs (lncRNAs), long circular ncRNAs (circ ncRNAs) and microRNAs (miRNAs), along with associated transcriptomic features. The cancer descriptors covered include colorectal cancer, colon cancer, adenocarcinoma, tumor and liver metastasis of colorectal cancer. Questions such as "Which circRNAs are implicated in colorectal neoplasia?", "Which circRNAs and miRNAs are associated with colorectal cancer liver metastasis?" and "Given a specific lncRNA (H19), which cancer descriptors are related to this ncRNA?" can be answered using our database. The web system can be accessed at: http://percidatabase.com.br/.

3
  • Wedrey Nunes da Silva
  • Análise da Cybersickness através de Biosinais: uma abordagem com Machine Learning Simbólico

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • RICARDO PEZZUOL JACOBI
  • CELIA GHEDINI RALHA
  • TIAGO BARROS PONTES E SILVA
  • THIAGO MALHEIROS PORCINO
  • Data: 19/04/2024

  • Mostrar Resumo
  • A Cybersickness (CS) representa um dos principais obstáculos para a utilização e adoção
    da Realidade Virtual (VR). Os sintomas associados à CS podem variar de pessoa para
    pessoa e incluem: náusea, vertigem, fadiga ocular e dor de cabeça, podendo durar de
    alguns minutos até horas após a exposição à VR. Embora a incidência de CS relatada
    entre os usuários de VR varie, estudos indicam que uma grande parcela da população,
    cerca de 40% a 60% podem apresentar sintomas moderados a graves de CS. Um dos
    principais obstáculos para garantir o conforto durante o uso de sistemas imersivos é a
    CS, que ocorre com frequência ao utilizar dispositivos como os Head-mounted Display
    (HMD). Apesar de existirem várias teorias sobre as possíveis causas da CS, não há um
    método fácil ou sistemático para medi-la e quantificá-la. É comum que os pesquisadores
    empreguem medidas subjetivas para identificar a intensidade da CS, podendo ser medida
    por meio de questionários autorrelatados pré e pós-experiência, como o Virtual reality
    sickness questionnaire (VRSQ) [1]. Em estudos anteriores, foram empregadas diversas
    abordagens para mensurar a intensidade da CS, por meio da utilização de medidas sub-
    jetivas e objetivas. Segundo pesquisadores, a CS tem um impacto significativo sobre os
    sinais fisiológicos, incluindo onda delta do EEG, HR, HRV, GSR e EGG, os quais apre-
    sentam uma correlação significativa com essa condição. Este trabalho tem como objetivo
    geral investigar as alterações fisiológicas associadas à CS em jogos de realidade virtual,
    realizando a coleta de informações do perfil do usuário, do jogo e também dos biosinais:
    (ECG, EDA e ACC), do total de 30 pessoas saudáveis. Os participantes ficarão imersos,
    através de dois jogos de VR, sendo o primeiro de carro de corrida e o segundo de voo.
    Será ainda utilizado um classificador de ML Simbólico para detectar as potenciais causas
    de CS ocorridas durante os experimentos de VR, baseado nos dados de perfil, do jogo e
    biosinais. Este trabalho pretende validar a hipótese de que os sinais fisiológicos podem
    ser eficazes na elaboração de estratégias para reduzir os sintomas da CS.


  • Mostrar Abstract
  • Cybersickness (CS) represents one of the main obstacles to the use and adoption of Vir-
    tual Reality (VR). Symptoms associated with CS can vary from person to person and
    include: nausea, vertigo, eyestrain and headache, and can last from a few minutes to
    hours after exposure to RV. Although the reported incidence of CS among users of VR
    varies, studies indicate that a large portion of the population, approximately 40% to 60%
    may experience moderate to severe symptoms of CS. One of the main obstacles to ensure
    comfort when using immersive systems is CS, which often occurs when using devices such
    as Head-mounted Display (HMD). Although there are several theories about the possible
    causes of CS, there is no easy or systematic method to measure and quantify it. It is com-
    mon for researchers to use subjective measures to identify the intensity of CS, which can
    be measured through pre- and post-experience self-reported questionnaires, such as the
    Virtual reality sickness questionnaire (VRSQ) [1]. In previous studies, several approaches
    were used to measure the intensity of CS, using subjective and objective measures. Ac-
    cording to researchers, CS has a significant impact on physiological signals, including
    the delta wave of EEG, HR, HRV, GSR and EGG, which have a significant correlation
    with this condition. The general objective of this work is to investigate the physiological
    alterations associated with CS in virtual reality games, collecting information from user
    profile, game and also biosignals (ECG, EDA and ACC), from the total of 30 healthy
    people. Participants will be immersed through two VR games, the first in a racing car
    and the second in a flight. A Symbolic ML classifier will also be used to detect the poten-
    tial causes of CS that occurred during the VR experiments, based on profile, game and
    biosignal data. This work intends to validate the hypothesis that physiological signals
    can be effective in the elaboration of strategies to reduce the symptoms of CS.

Teses
1
  • Patricia Medyna Lauritzen de Lucena Drumond
  • Fusão de informações visuais e textuais para análise de documentos

  • Orientador : TEOFILO EMIDIO DE CAMPOS
  • MEMBROS DA BANCA :
  • CAROLINA SCARTON
  • FABRICIO ATAIDES BRAZ
  • LI WEIGANG
  • RICARDO MARCONDES MARCACINI
  • TEOFILO EMIDIO DE CAMPOS
  • Data: 18/01/2024

  • Mostrar Resumo
  • Diariamente é produzido um grande volume de documentos nas organizações industriais, comerciais, governamentais, entre outras. Além disso, com o mercado competitivo na internet, as transações de negócios têm crescido numa velocidade imensa. Esses fatos aumentam cada vez mais a necessidade da automação e extração de informações de documentos. Os documentos podem ter sido originados digitalmente como um arquivo eletrônico ou podem ser uma cópia digitalizada de documento impresso em papel. Além disso, esses documentos, geralmente, são ricos de informações visuais e podem estar organizados de diferentes maneiras, desde páginas simples contendo apenas texto, até páginas com layouts de várias colunas de texto e uma ampla variedade de elementos não textuais como figuras e tabelas. Para análise e classificação desses documentos a extração de informações baseadas somente em blocos de texto ou em características visuais nem sempre é eficaz. Em geral, a relação espacial desses elementos e blocos de texto contém informações semânticas cruciais para compreensão de documentos.

    O processo de automação da análise e extração de informações de documentos é desafiador devido aos vários formatos e layouts dos documentos de negócios, e tem atraído a atenção em áreas de pesquisa como Visão Computacional (CV) e Processamento de Linguagem Natural (NLP). Document Intelligence é um termo recente utilizado para aplicações da Inteligência Artificial que envolve a automatização de leitura, compreensão e análise de documentos visualmente ricos de informação. O primeiro workshop de Document Intelligence (DI’2019) foi realizado no dia 14 de dezembro de 2019 na Conferência sobre Sistemas de Processamento de Informações Neurais (NeurIPS) em Vancouver, Canadá. Essas aplicações, também conhecidas como Document AI, são geralmente desenvolvidas para resolver tarefas como análise de layout de documentos, extração de informações visuais, resposta-pergunta visuais de documento e classificação de imagem de documentos, etc.

    Na última década, várias abordagens multimodais unindo técnicas de CV e NLP vêm avançando em tarefas de compreensão de documentos, como por exemplo, análise de layout, segmentação de páginas e classificação de imagens de documentos considerando a junção de pelo menos duas das modalidades de recursos: visuais, textuais e de layout. Existem algumas abordagens que foram propostas para lidar com layouts nas imagens do documento. As abordagens tradicionais baseadas em regras (top-down, bottom-up e híbridas) e as abordagens baseadas em Machine Learning e Deep Learning. No entanto, o surgimento da abordagem Deep Learning, principalmente com as técnicas de pré-treinamento, utilizando Redes Neurais Convolucionais e Arquitetura Transformer tem avançado em pesquisa reduzindo o número de pesquisas com abordagens tradicionais.

    A tecnologia de Deep Learning usada em Document Intelligence envolve a extração de informações de diferentes tipos de documentos através de ferramentas de extração, como OCR, extração de HTML/XML e PDF. As informações de texto, layout e visuais depois de extraídas são pre-treinadas em redes neurais para realizar as tarefas downstream. O modelo de linguagem BERT (Bidirectional Encoder Representations from Transformers) tem sido usado como backbone para outros modelos de pre-treinamento combinando recursos visuais e textuais para tarefas downstream. Apesar do excelente desempenho dos modelos Transformer existem vários desafios associados à sua aplicabilidade para configurações prática. Os gargalos mais importantes incluem requisitos para grandes quantidades de dados de treinamento e altos custos computacionais associados.

    Ao contrário desses modelos, nós propomos um método de codificação de layout espacial simples e tradicional baseado em regras, LayoutQT, que combina informações textuais e espaciais de blocos de texto. Nós mostramos que isso permite que um pipeline de NLP padrão seja significativamente aprimorado sem exigir custos de fusão multimodal de médio ou alto nível. O LayoutQT divide a imagem de documento em quadrantes e associa a cada quadrante um token. Na extração de blocos de texto, são inseridos os tokens relativo às posições de início e fim dos blocos de texto. Além disso, foram inseridos tokens relativos às posições centrais de texto. Para avaliar nosso método, nós realizamos experimentos de classificação de documentos utilizando as redes neurais LSTM e AWD-LSTM em duas bases de dados, Tobacco800 e RVL-CDIP, publicamente acessíveis. Além disso, como baseline realizamos os mesmos experimentos sem o nosso método. A classificação de documentos realizada com nosso método obteve uma precisão de 83,6% na base de dados RVL-CDIP de grande escala e 99,5% na base de dados Tobacco800. RVL-CDIP contém 400.000 imagens de documentos divididos em 16 classes e é utilizada para classificação de documentos, enquanto a Tobacco800, possui 1.290 imagens de documentos dividida em duas classes (FirstPage e NextPage), utilizada para classificar se a imagem é a primeira página de um documento ou se é uma página de continuidade. Em seguida, nós pesquisamos na literatura outras base de dados compatíveis com as já utilizadas em nossa abordagem para o problema de classificação de documentos. As bases de dados encontradas que são disponíveis publicamente foram: Tobacco-3482 e VICTOR. A Tobacco-3482 é composta por 3.482 imagens de documentos dividida em 10 classes sendo um subconjunto da base de dados RVL-CDIP. VICTOR é uma base de dados mais robusta contendo 692.966 documentos de processos judiciais do Supremo Tribunal Federal (STF) do Brasil compreendendo 4.603.784 páginas dividida em 6 classes. Essa base de dados faz parte de um projeto com mesmo nome, resultado da parceria entre a UnB, STF e a Finatec.
    Para trabalhos futuros, iremos realizar mais experimentos com nosso modelo modificando os parâmetros. Nos experimentos realizados anteriormente, nós utilizamos uma quantidade fixa de 24 quadrantes, ou seja, nós dividimos a imagem em regiões verticais por 6 regiões horizontais. Para validar nosso modelo, pretendemos variar a quantidade de quadrantes e comparar os resultados. Além disso, nós iremos utilizar as duas bases de dados já utilizadas, Tobacco800 e RVL-CDIP e acrescentar aos experimentos a base VICTOR por ser mais robusta e diferente das anteriores para tarefa de classificação. 


  • Mostrar Abstract
  • The large volume of documents produced daily in all sectors, such as industry, commerce, and government agencies, has increased the number of researches aimed at  automating the process of reading, understanding, and analyzing documents. Business documents can be born digital, as electronic files, or can be a digitized form that comes from writing or printed on paper. In addition, these documents often come in various layouts and formats. They can be organized in different ways, from plain text, multi- column layouts, and a wide variety of tables/forms/figures. In many documents, the spatial relationship of text blocks usually contains important semantic information for downstream tasks. The relative position of text blocks plays a crucial role in document understanding. However, the task of embedding layout information in the representation of a page instance is not trivial. In the last decade, Computer Vision (CV) and Natural Language Processing (NLP) pre-training techniques have been advancing in extracting content from document images considering visual, textual, and layout features. Deep learning methods, especially the pre-training technique, represented by Transformer architecture, have become a new paradigm for solving various downstream tasks. However, a major drawback of such pre-trained models is that they require a high computational cost. Unlike these models, we propose a simple and traditional rule-based spatial layout encoding method, which combines textual and spatial information from text blocks. We show that this enables a standard NLP pipeline to be significantly enhanced without requiring expensive mid or high-level multimodal fusion. We evaluate our method on two datasets, Tobacco800 and RVL-CDIP, for document image classification tasks. The document classification performed with our method obtained an accuracy of 83.6% on the large-scale RVL-CDIP and 99.5% on the Tobacco800 datasets. In order to validate the effectiveness of our method, we intend to carry out more experiments. First, we will use other more robust datasets. Then we will change parameters such as quadrant amounts, insertion/deletion of positional tokens, and other classifiers.

2
  • Gabriel Ferreira Silva
  • Rumo à unificação nominal AC

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • CHRISTIAN URBAN
  • CÉSAR MUÑOZ
  • JOSÉ MESEGUER
  • MAURICIO AYALA RINCON
  • VANDER RAMOS ALVES
  • Data: 26/01/2024

  • Mostrar Resumo
  • O paradigma nominal estende a sintaxe de primeira ordem e representa adequadamente
    o conceito de variáveis ligadas. Para trabalhar com esse vantajoso paradigma faz-se ne-
    cessário adaptar noções de primeira ordem a ele, como unificação e matching. Esta tese
    é sobre unificação e matching no paradigma nominal na presença de uma teoria equaci-
    onal E e sobre nosso trabalho em progresso para obter um algoritmo de AC-unificação
    nominal. Inicialmente, generalizamos um algoritmo de C-unificação nominal para realizar
    também matching e equality-checking e formalizamos o algoritmo generalizado. Isto foi
    feito por meio da adição de um parâmetro X para lidar com variáveis protegidas e a
    formalização foi usado para testar uma implementação manual em Python do algoritmo.
    Em seguida, como um primeiro passo em direção a AC-unificação nominal, fornecemos a
    primeira formalização de um algoritmo de AC-unificação em primeira ordem. Escolhemos
    formalizar o algoritmo seminal de Stickel. A prova de terminação utiliza uma intrincada
    (mas devidamente motivada) medida lexicográfica, que está baseada na demonstração de
    terminação dada por Fages. Depois disso, adaptamos o algoritmo de AC-unificação em
    primeira ordem para obter o primeiro algoritmo para AC-matching em nominal e verifica-
    mos que o algoritmo termina e é correto e completo. Assim como fizemos em C-unificação
    nominal, usamos um parâmetro X para as variáveis protegidas e essa abordagem nos per-
    mitiu obter um AC-equality-checker como corolário. As 3 formalizações descritas foram
    feitas no assistente de provas PVS e integram a NASALib, o principal repositório de for-
    malizações do PVS. Para cada uma dessas formalizações nós descrevemos os arquivos que
    compõem a formalização, detalhando a estrutura, hierarquia e tamanho. Não foi possível
    propor um algoritmo de AC-unificação nominal, mas mostramos que o problema tem duas
    questões interessantes associadas a ele: gerar as soluções para π · X ≈? X e demonstrar
    terminação. Para a primeira questão, propomos um procedimento não determinístico de
    enumeração e exemplificamos como este calcula soluções não triviais. Para a segunda
    questão demonstramos como o problema f(X, W) ≈? f(π · X, π · Y ) gera um loop e prova-
    mos que é suficiente entrar no loop uma quantidade limitada de vezes, onde esse limite
    depende da ordem da permutação π. Infelizmente, não fomos capazes de generalizar nosso
    raciocínio para problemas semelhantes.


  • Mostrar Abstract
  • The nominal syntax extends first-order syntax and allows us to represent smoothly sys-
    tem with bindings. In order to profit from the nominal setting, we must adapt important
    notions to it, such as unification and matching. This thesis is about nominal unification/-
    matching in the presence of an equational theory E and our efforts towards obtaining a
    nominal AC-unification algorithm. First, we extend and formalise a nominal C-unification
    algorithm to also handle matching and equality checking by adding an extra parameter
    X for protected variables, i.e., variables that cannot be instantiated. The formalised al-
    gorithm is used to test a Python manual implementation of the algorithm. Then, as a
    first step towards nominal AC-unification, we give the first formalisation of a first-order
    AC-unification algorithm. We choose to verify Stickels tried-and-tested algorithm. The
    proof of termination employs an intricate (but duly motivated) lexicographic measure that
    is based on Fages proof of termination. Finally, we adapt the first-order AC-unification
    algorithm to propose the first nominal AC-matching algorithm and formalise it to be
    terminating, sound and complete. As was the case for nominal C-unification, we used a
    parameter X for protected variables and this approach also let us obtain a verified nomi-
    nal AC-equality checker as a byproduct. The 3 formalisations previously described were
    done in the PVS proof assistant and are available in NASALib, PVS main repository of
    formalisations. In each one of the three formalisations we describe the files that compose
    the formalisation, pointing out their structure, hierarchy and size. We were not able to
    propose a nominal AC-unification algorithm, but we show how the problem has two in-
    teresting questions: generating solutions π · X ≈? X and proving termination. For the
    first question we propose a non-deterministic enumeration procedure and exemplify how
    it can compute non-obvious solution. For the second question we demonstrate that the
    problem  f(X, W) ≈? f(π · X, π · Y ) gives rise to a loop and prove that it is enough to
    loop a limited amount of times, where this limit depend on the order of the permutation
    π. Unfortunately, we were not able to generalise our reasoning to similar problems.

3
  • Aldo Henrique Dias Mendes
  • Arquitetura Multiagente com Modelos de Raciocínio Distintos para Gerenciamento de Recursos em Múltiplos Provedores de Nuvem

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • ALEXANDRE DA COSTA SENA
  • CELIA GHEDINI RALHA
  • LUCIA MARIA DE ASSUMPCAO DRUMMOND
  • RICARDO PEZZUOL JACOBI
  • Data: 02/02/2024
    Ata de defesa assinada:

  • Mostrar Resumo
  • Atualmente, as aplicações científicas e comerciais são frequentemente implementadas em ambientes de nuvem que requerem vários tipos de recursos. Este cenário aumenta a necessidade de uma gestão eficiente dos recursos. No entanto, a gestão eficiente de recursos continua a ser um desafio devido à natureza complexa dos sistemas distribuídos em nuvem, uma vez que os recursos envolvem diferentes características, tecnologias e custos financeiros. Assim, o gerenciamento otimizado de recursos em nuvem para suportar a natureza heterogênea das aplicações, equilibrando custo, tempo e desperdício, continua sendo um desafio. A tecnologia multiagente pode oferecer melhorias significativas no gerenciamento de recursos, com agentes inteligentes decidindo de forma autônoma os recursos da Máquina Virtual (MV). Este trabalho propõe MAS-Cloud+, uma arquitetura baseada em agentes inteligentes para predição, provisionamento e monitoramento de recursos otimizados em nuvem computacional. MAS-Cloud+ implementa agentes com três modelos de raciocínio, incluindo heurístico, otimizado e meta-heurístico. O MAS-Cloud+ instancia MVs considerando o Acordo de Nível de Serviço (SLA) em plataformas de nuvem, priorizando as necessidades do usuário considerando tempo, custo e desperdício de recursos, fornecendo seleção apropriada para cargas de trabalho avaliadas. MAS-Cloud+ foi avaliado utilizando uma aplicação de comparação de sequências de DNA submetida a diferentes tamanhos de carga de trabalho e um estudo comparativo com aplicações de benchmark Apache Spark executadas na plataforma AWS EC2. Nossos resultados mostram que para executar a aplicação de comparação de sequências o melhor desempenho foi obtido pelo modelo de otimização, enquanto o modelo heurístico apresentou o melhor custo. Ao fornecer a escolha entre vários modelos de raciocínio, nossos resultados mostram que o MAS-Cloud+ fornece uma seleção mais econômica das instâncias, reduzindo approx 58% do custo médio de execução de cargas de trabalho do WordCount, Sort e PageRank BigDataBench. Quanto ao tempo de execução, o WordCount e o PageRank apresentam redução, este último com approx 58%. Os resultados indicam  uma solução promissora para gerenciamento eficiente de recursos em nuvem.


  • Mostrar Abstract
  • Nowadays, scientific and commercial applications are often deployed to cloud environments requiring multiple resource types. This scenario increases the necessity for efficient resource management. However, efficient resource management remains challenging due to the complex nature of modern cloud-distributed systems since resources involve different characteristics, technologies, and financial costs. Thus, optimized cloud resource management to support the heterogeneous nature of applications balancing cost, time, and waste remains a challenge. Multi-agent technologies can offer noticeable improvements for resource management, with intelligent agents deciding on Virtual Machine (VM) resources. This article proposes MAS-Cloud+, a novel agent-based architecture for predicting, provisioning, and monitoring optimized cloud computing resources. MAS-Cloud+ implements agents with three reasoning models including heuristic, formal optimization, and metaheuristic. MAS-Cloud+ instantiates VMs considering Service Level Agreement (SLA) on cloud platforms, prioritizing user needs considering time, cost, and waste of resources providing appropriate selection for evaluated workloads. To validate MAS-Cloud+, we use a DNA sequence comparison application subjected to different workload sizes and a comparative study with state-of-the-art work with Apache Spark benchmark applications executed on the AWS EC2. Our results show that to execute the sequence comparison application, the best performance was obtained by the optimization model, whereas the heuristic model presented the best cost. By providing the choice among multiple reasoning models, our results show that MAS-Cloud+ could provide a more cost-effective selection of the instances reducing approx 58% of execution average cost of WordCount, Sort and PageRank BigDataBench benchmarking workloads. As for the execution time, the WordCount and PageRank present reduction, the latter with approx 58%. The results indicate a promising solution for efficient cloud resource management.

4
  • Lucas Angelo da Silveira
  • Dynamically Reconfigurable Heterogeneous Parallel Island Model.

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • MAURICIO AYALA RINCON
  • DANIEL MAURICIO MUNOZ ARBOLEDA
  • TELMA WOERLE DE LIMA SOARES
  • CARLOS ARTEMIO COELLO COELLO
  • LEANDRO DOS SANTOS COELHO
  • Data: 26/04/2024

  • Mostrar Resumo
  • Problemas de otimização são encontrados em diversos campos de atividade, e à medida
    que a compreensão e a prática nesses campos avançam, suas complexidades se acentuam.
    Nas últimas décadas, têm sido propostos diversos algoritmos bioinspirados para resolver
    problemas de otimização. Cada um desses algoritmos possui características únicas que
    impactam de maneiras distintas tanto no processo evolutivo quanto na qualidade das
    soluções alcançadas. O modelo de ilhas paralelas é uma estratégia de paralelização de
    algoritmos bioinspirados que proporciona ganhos significativos em termos de acurácia nas
    soluções. Nesse modelo, o conjunto de soluções candidatas é dividido em subpopulações
    denominadas ilhas. Cada ilha evolui seu conjunto de soluções por meio de seu próprio
    algoritmo bioinspirado, operando de forma paralela às outras ilhas. Periodicamente, as
    ilhas trocam soluções entre si através do processo de migração. Esse movimento de soluções
    entre as ilhas é condicionado à topologia do modelo e a um conjunto de regras que
    compõem a política de migração. Este trabalho propõe uma nova abordagem de implementação
    para modelos de ilhas paralelas, inspirada em heterogeneidade e reconfiguração
    algorítmica, denominada modelo de ilhas heterogêneas reconfiguráveis por estagnação.
    A heterogeneidade permite a execução de diferentes algoritmos bioinspirados nas ilhas,
    aumentando a diversidade nos modelos, enquanto a reconfiguração algorítmica é o processo
    de substituição do algoritmo bioinspirado aplicado caso a estagnação de uma ilha
    seja detectada. Durante o processo evolutivo, cada ilha mantém um registro de seu progresso,
    mensurado pelo desempenho do melhor indivíduo em cada ilha, na geração atual
    e nas duas gerações anteriores. Sempre que exista estagnação, ou seja, não se detecte
    progresso, a ilha é reconfigurada para continuar o processo evolutivo executando o melhor
    algoritmo bioinspirado até o momento. Essa abordagem é particularmente útil para lidar
    com problemas de otimização nos quais encontrar soluções ótimas em tempo polinomial é
    impraticável. Além disso, destaca-se pela sua autonomia, pois não demanda intervenção
    do usuário para realizar a reconfiguração.


  • Mostrar Abstract
  • Optimization problems are encountered in various fields of activity, and as the understanding and practice in these fields advance, their complexities become more pronounced. Several bioinspired algorithms have been proposed in recent decades to address optimization problems. Each of these algorithms possesses unique characteristics that impact the evolutionary process and the quality of the solutions achieved in distinct ways.
    The parallel island model is a strategy for parallelizing bioinspired algorithms that yields significant gains in solution accuracy. In this model, the set of candidate solutions is divided into subpopulations known as islands. Each island evolves its set of solutions through its own bioinspired algorithm, operating in parallel with the other islands. Periodically, islands exchange solutions through the migration process. This movement of solutions between islands is conditioned by the model's topology and a set of rules comprising the migration policy.
    This work proposes a new implementation approach for parallel island models inspired by heterogeneity and algorithmic reconfiguration, introducing the stagnation-based reconfigurable heterogeneous island models. Heterogeneity allows the execution of different bioinspired algorithms on islands, increasing model diversity. At the same time, algorithmic reconfiguration replaces the applied bioinspired algorithm when islands' stagnation is detected. During the evolutionary process, each island maintains a record of its progress, measured by the fitness of the best individual in each island in the current and previous two generations. Whenever an island presents \textit{stagnation}, i.e., no progress is detected, the island is \textit{reconfigured} to continue the evolutionary process by executing the best-bioinspired algorithm up to that point. This approach is beneficial for dealing with optimization problems where finding optimal solutions in polynomial time is impractical. Additionally, it stands out for its autonomy, as it does not require user intervention to perform reconfiguration. The automatic adjustment of the model and the decision for reconfiguration are determined by stagnation.

2023
Dissertações
1
  • GEOVANA RAMOS SOUSA SILVA
  • Human Factors in the Design of Chatbot Interactions: Conversational Design Practices

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • GENAINA NUNES RODRIGUES
  • ANA PAULA CHAVES STEINMACHER
  • MAIRIELI SANTOS WESSEL
  • Data: 31/01/2023

  • Mostrar Resumo
  • Os chatbots são agentes inteligentes que imitam o comportamento humano para conduzir conversas significativas. A natureza conversacional dos chatbots apresenta desafios aos designers, pois seu desenvolvimento é diferente de outros softwares e exige a investigação de novas práticas no contexto da interação humano-IA e seus impactos na experiência do usuário. Como os chatbots geralmente atuam como representantes de uma marca, melhorar a experiência de conversação dos usuários impacta diretamente na forma como os usuários percebem a organização que o chatbot representa. Objetivo:  O objetivo desse trabalho é identificar elementos textuais, visuais ou interativos de interações de chatbot baseadas em texto e como esses elementos podem potencializar ou enfraquecer algumas percepções e sentimentos dos usuários, como satisfação, engajamento e confiança, para a criação do guia Diretrizes para Design Conversacional de Chatbots (DDCC). Método: Utilizamos múltiplos métodos de pesquisa com o objetivo de gerar, validar e verificar o guia. Primeiramente, conduzimos uma Revisão Sistemática da Literatura (RSL) para identificar as práticas de design conversacional e seus impactos. Essas práticas foram utilizadas no guia DDCC por meio da análise qualitativa e da codificação dos resultados da RSL. Em seguida, o guia foi validado por meio de um survey com a intenção de implementar melhorias quanto a sua apresentação. Resultado:  A validação do guia com desenvolvedores de software com diferentes níveis de experiência mostrou que eles concordaram fortemente que o guia pode induzir maior satisfação e engajamento dos usuários. Ademais, eles também concordaram fortemente que o guia é claro e compreensível, além de ter um uso fácil e flexível. Embora os particicipantes tenham sugerido algumas melhorias, eles relataram que os principais pontos fortes do guia são a objetividade e a clareza. Conclusão e Trabalhos Futuros: O guia se mostrou útil para desenvolvedores com diferentes níveis de conhecimento, com o potencial de se tornar um forte aliado dos desenvolvedores no processo de design conversacional. Na próxima etapa, será realizado um estudo de caso para verificar a eficácia do guia quando utilizado em conversas de chatbot.


  • Mostrar Abstract
  • Context: Chatbots are intelligent agents that mimic human behavior to carry on meaningful conversations. The conversational nature of chatbots poses challenges to designers since their development is different from other software and requires investigating new practices in the context of human-AI interaction and their impact on user experience. Since chatbots usually act as a brand's representative, improving the conversational experience for users directly impacts how users perceive the organization the chatbot represents. Objective: The objective of this work is to identify textual, visual, or interactive elements of text-based chatbot interactions and how these elements can potentiate or weaken some perceptions and feelings of users, such as satisfaction, engagement, and trust, for the creation of the Guidelines for Chatbot Conversational Design (GCCD) guide. Method: We used multiple research methods to generate, validate and verify the guide. First, we conducted a Systematic Literature Review (SRL) to identify conversational design practices and their impacts. These practices were used in the GCCD guide through qualitative analysis and coding of SLR results. Then, the guide was validated through a survey to implement improvements regarding its presentation. Results: The guide's validation by software developers with different levels of experience showed that they strongly agreed that the guide could induce greater user satisfaction and engagement. Furthermore, they also strongly agreed that the guide is clear and understandable, as well as easy and flexible to use. Although participants suggested some improvements, they reported that the guide's main strengths are objectivity and clarity. Conclusion and Future Work: The guide proved to be useful for developers with different levels of knowledge, with the potential to become a strong ally for developers in the conversational design process. In the next step, a case study will be carried out to verify the guide's effectiveness when used in chatbot conversations.

     
2
  • Danilo José Bispo Galvão
  • An Approach for High-Level Multi-Robot Mission Verification in UPPAAL

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • RODRIGO BONIFACIO DE ALMEIDA
  • VANDER RAMOS ALVES
  • RADU CALINESCU
  • Data: 31/01/2023

  • Mostrar Resumo
  • A necessidade de alavancar meios para especificar missões robóticas a partir de um alto nível de abstração ganhou força devido ao crescimento da popularidade das aplicações robóticas. Como tal, é primordial fornecer meios para garantir que não só a missão robótica seja corretamente especificada, mas que também garanta graus de segurança face à crescente complexidade das tarefas atribuídas aos Sistemas Multi-Robot (MRS). Portanto, as missões do robô agora precisam ser especificadas e verificadas formalmente para robôs e outros agentes envolvidos na operação da missão robótica. No entanto, muitas especificações de missão carecem de um processo de verificação simplificado que garanta que todas as propriedades da missão sejam completamente verificadas por meio da verificação do modelo. Este trabalho propõe um processo de verificação preliminar de modelos para especificação de missão e decomposição de MRS no verificador de modelos UPPAAL. Em particular, apresentamos um modelo semiautomatizado contendo propriedades hierárquicas de definição de domínio transformadas em templates UPPAAL e propriedades de missão formalizadas na linguagem de autômatos temporizados UPPAAL TCTL. No futuro, pretendemos gerar modelos totalmente automaticamente e verificar propriedades de especificação de missão adicionais não cobertas atualmente. Avaliamos nossa abordagem em uma missão robótica de especificação de uma missão logística de alimentos e os resultados mostram que o comportamento esperado é verificado corretamente e as propriedades correspondentes satisfeitas na ferramenta de verificação do modelo UPPAAL.


  • Mostrar Abstract
  • The need to leverage means to specify robotic missions from a high abstraction level has gained momentum due to the popularity growth of robotic applications. As such, it is paramount to provide means to guarantee that not only the robotic mission is correctly specified, but that it also guarantees degrees of safety given the growing complexity of tasks assigned to Multi-Robot Systems (MRS). Therefore, robot missions now need to be specified and formally verified for both robots and other agents involved in the robotic mission operation. However, many mission specifications lack a streamlined verification process that ensures that all mission properties are thoroughly verified through model checking. This work proposes a preliminary model checking process for mission specification and decomposition of MRS in UPPAAL model checker. In particular, we present a semi-automated model containing hierarchical domain definition properties transformed into UPPAAL templates and mission properties formalized into the UPPAAL timed automata language TCTL. In the future, we intend to fully generate models automatically and verify additional mission specification properties not covered currently. We have evaluated our approach in a robotic mission of a food logistic mission specification and results show that the expected behaviour is correctly verified and the corresponding properties satisfied in the UPPAAL model checking tool.

3
  • Guo Ruizhe
  • Melhorando a qualidade da maquina de tradução Chinês para Português com RoBERTa

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • MARISTELA TERTO DE HOLANDA
  • THIAGO DE PAULO FALEIROS
  • ZHAO LIANG
  • Data: 31/01/2023

  • Mostrar Resumo
  • As mudanças contínuas na época da informação promovem o desenvolvimento do campo da tradução e da tradução automática, acompanhadas pelo surgimento da inteligência artificial, mostrando uma tendência e apresentando próspero desenvolvimento. A tradução automática é um tópico importante no processamento de linguagem natural. A aplicação da tradução automática neural na tradução automática foi revivida e desenvolvida nos últimos anos. Com a introdução de algoritmos de excelência e a melhora da capacidade de processamento dos computadores, a tradução automática neural mostrou-se com grande potencial.

         Existem grandes diferenças na forma e na expressão da linguagem entre o português e o chinês. A comunicação entre o chinês e o português está em fase de desenvolvimento, e os materiais básicos de tradução são muito escassos. O estudo da tradução automática entre chinês e português não só servirá no auxílio às populações de língua chinesa e portuguesa, como também é tema de suma importância para a tradução entre idiomas onde os dados básicos são escassos.

         Esta dissertação apresenta um estudo sobre Tradução Automática Neuronal ( Neural Machine Translation) para o par de línguas Português (PT)-Chinês (ZH) e adiciona as direções de tradução Chinês-Português (Brasil) e Português (Brasil)-Chinês. O objetivo é buscar um modelo mais adequado entre as línguas acima com algoritmos e arquiteturas avançadas, de forma a melhorar o nível atual de tradução chinês-português, bem como o nível de tradução Chinês-Português (Brasil).

         Modelos de tradução de última geração são utilizados na tradução automática chinês-português. O algoritmo RoBERTa é o mais avançado e a estrutura de segmentação mistas de palavras é usado para pré-treinamento, e o BERT é usado para tradução seguinte. No corpus paralelo chinês-português disponível e público, seleciona o Opensubtitles2016 que tem maior quantidade dos dados. E usa BLEU e Rouge-dois indicadores de avaliação que são mais versáteis na tradução automática.

         No final, obtivemos os resultados dos impactos de fatores diferentes na tradução automática chinês-português sob os recursos existentes e um modelo melhor de tradução automática chinês-português, ao mesmo tempo, descobrindo alguns trabalhos efetivos que devem ser feitos no campo da tradução automática chinês-português no futuro.


  • Mostrar Abstract
  • The continuous changes in the information age have promoted the development of the translation field, and machine translation, accompanied by the rise of artificial intelligence, is showing a trend of prosperity and development. Machine translation is an important topic in natural language processing. The application of neural machine translation in machine translation has been revived and developed in recent years. With the introduction of excellent algorithms and the improvement of computer computing power, neural machine translation has shown great potential.

         There are big differences in the form and expression of the language between Portuguese and Chinese, and the communication between Chinese and Portuguese is in the development stage, and the basic translation materials are very scarce. The study of automatic translation between Chinese and Portuguese will not only help Chinese and Portuguese speaking populations, but it is also an important topic for translation between languages where basic data are scarce.

         This dissertation presents a study on Neural Machine Translation (Neural Machine Translation) for the language pair Portuguese (PT)-Chinese (ZH) and adds the Chinese-Portuguese (Brazil) and Portuguese (Brazil)-Chinese translation directions. The objective is to seek a more suitable model among the above languages with advanced algorithms and architectures, in order to improve the current level of Chinese-Portuguese translation, as well as the level of Chinese-Portuguese (Brazil) translation.

         State-of-the-art translation models are used in Chinese-Portuguese machine translation. The algorithm RoBERTa is the most advanced, the mixed word segmentation framework is used for pre-training, and BERT is used for subsequent translation. In the available and public Chinese-Portuguese parallel corpus, select the Opensubtitles2016 that has the largest amount of data. And it uses BLEU and Rouge-two evaluation indicators that are more versatile in machine translation.

         In the end, we got the results of the impacts of different factors on Chinese-Portuguese machine translation under existing resources and a better model of Chinese-Portuguese machine translation, at the same time discovering some effective works that should be done in the field of Chinese-Portuguese machine translation in the future.

4
  • Yuri Barcellos Galli
  • Aprendizado de Máquina como auxílio na detecção de sinais de osteoporose analisando radiografias panorâmicas bucais

  • Orientador : BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • MEMBROS DA BANCA :
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • FLAVIO DE BARROS VIDAL
  • PEDRO DE AZEVEDO BERGER
  • FÁBIO WILDSON GURGEL COSTA
  • Data: 08/02/2023

  • Mostrar Resumo
  • A osteoporose é sinônimo de fragilidade óssea, e é uma doença silenciosa que só é detectada
    comumente após já ter causado danos à pessoa que a possui. Essa doença de fragilidade
    óssea torna a fratura mais comum e mais danosa aos seus portadores, e por isso é uma
    questão de saúde pública. Identificar a doença em estágio inicial é essencial para ajudar a
    evitar seus danos, e nessa tarefa a inteligência artificial e o aprendizado de máquina têm
    demonstrado grande ajuda nos últimos anos. Os algoritmos de aprendizado de máquina
    podem prever o risco de osteoporose analisando as imagens do paciente provenientes de
    exames de rotina, como radiografias panorâmicas.
    A metodologia proposta conta com um processo de dois passos, que é composto por
    preprocessamento de imagens e aprendizado de máquina. O preprocessamento de imagens
    consistiu em transformar as imagens panorâmicas bucais originais brutas em regiões de
    interesse reduzidas, mais específicas e mais claras para a classificação. A etapa de apren-
    dizado de máquina consistiu em fornecer essas imagens preprocessadas para algoritmos
    computacionais as classificarem. Este trabalho propõe uma arquitetura de Rede Neural
    Convolucional (CNN), comparada com Support Vector Machine (SVM) e Random Forest
    (RF), que visa identificar sinais de osteoporose nesse tipo de imagem, com objetivo de
    melhorar os resultados de técnica de referência, a CNN do artigo [1], ao utilizar a es-
    trutra CNN modificada para realizar uma detecção automática de osteoporose com alta
    sensibilidade e utilizar o método RF para um sistema com especificidade alta.
    Na sensibilidade, a CNN customizada proposta obteve 77,19%, enquanto que a CNN de
    referência obteve 70,18%. Na especificidade, a Random Forest proposta obteve 75,95%,
    enquanto que a CNN de referência obteve 22,78%. Combinando esses resultados, con-
    seguimos melhorar o que é obtido pela técnica de referência para o conjunto de dados
    apresentado, que é bastante desafiador, de pacientes idosos de comunidades carentes, em
    imagens analógicas com diversos artefatos e características que dificultam a classificação.


  • Mostrar Abstract
  • Osteoporosis is synonymous with bone fragility, and it is a silent disease that is only detected
    commonly after it has already caused harm to the person who has it. This disease of frailty
    bone makes the fracture more common and more harmful to its bearers, and for this reason it is a
    public health issue. Identifying disease at an early stage is essential to help
    prevent its damage, and in this task artificial intelligence and machine learning have
    shown great help in recent years. Machine learning algorithms
    can predict the risk of osteoporosis by analyzing patient images from
    routine tests, such as panoramic radiographs.
    The proposed methodology has a two-step process, which is composed of
    image preprocessing and machine learning. The image preprocessing
    consisted of transforming the raw original panoramic buccal images into regions of
    reduced interest, more specific and clearer for classification. The learning stage
    machine learning consisted of supplying these preprocessed images to algorithms
    computations classify them. This work proposes a Neural Network architecture
    Convolutional (CNN), compared with Support Vector Machine (SVM) and Random Forest
    (RF), which aims to identify signs of osteoporosis in this type of image, with the aim of
    improve the results of reference technique, the CNN of the article [1], when using the s-
    CNN trutra modified to perform an automatic detection of osteoporosis with high
    sensitivity and use the RF method for a system with high specificity.
    In sensitivity, the proposed customized CNN obtained 77.19%, while the CNN of
    reference obtained 70.18%. In specificity, the proposed Random Forest obtained 75.95%,
    while the reference CNN obtained 22.78%. Combining these results,
    we continue to improve what is obtained by the reference technique for the dataset
    presented, which is quite challenging, of elderly patients from poor communities, in
    analog images with various artifacts and characteristics that make classification difficult.

5
  • Beatriz Fragnan Pimento de Oliveira
  • Ciclo de Vida de Data Warehouse Baseado em NoSQL: Adaptações e Análise de Desempenho de Arquiteturas

  • Orientador : MARISTELA TERTO DE HOLANDA
  • MEMBROS DA BANCA :
  • MARISTELA TERTO DE HOLANDA
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • CELIA GHEDINI RALHA
  • DANIEL CARDOSO MORAES DE OLIVEIRA
  • Data: 23/02/2023

  • Mostrar Resumo
  • O contexto de Data Warehouse (DW) encontra-se em constante transformação nas or- ganizações públicas e privadas. Tendo em vista que os DW originalmente se apoiavam nos bancos de dados relacionais, com o surgimento do Big Data, novas propostas para a gestão de grandes volumes de dados têm sido definidas na literatura, motivando um investimento em soluções alternativas por parte de diversas organizações. Como centro de um Sistema de Apoio à Decisão (SAD), o DW precisa extrair valor dessa grande massa de dados disponível. Assim, uma das alternativas existentes é utilizar soluções Not-only SQL (NoSQL) para modelar e processar DW, devido às suas características de flexibilidade e escalabilidade. Nesse contexto, este trabalho tem por objetivo analisar os desafios advindos da adoção do novo paradigma (NoSQL) e sugerir uma adaptação ao ciclo de vida de DW proposto por Kimball, quando se migra para o paradigma NoSQL, para diferentes bancos de dados NoSQL pré-selecionados. Posteriormente, será feito um estudo caso para desenvolver DW baseados em bancos de dados NoSQL com dados abertos do Exército Brasileiro. Com a implementação do estudo de caso será possível não só verificar a influência da modelagem de dados no desempenho das consultas selecionadas, mas também realizar uma comparação de desempenho dos paradigmas relacional e não-relacional.

     

     


  • Mostrar Abstract
  • The Data Warehouse (DW) context is constantly changing in public and private organizations. Considering that DWs originally relied on relational databases, with the emergence of Big Data, new proposals for the management of large volumes of data have been defined in the literature, motivating an investment in alternative solutions by several organizations. As the center of a Decision Support System (DSS), the DW needs to extract value from this large mass of available data. Thus, one of the existing alternatives is to use Not-only SQL (NoSQL) solutions to model and process DW, due to its flexibility and scalability characteristics. In this context, this work aims to analyze the challenges arising from the adoption of the new paradigm (NoSQL) and to suggest an adaptation to the DW life cycle proposed by Kimball, when migrating to the NoSQL paradigm, for different pre-built NoSQL databases. selected. Subsequently, a case study will be carried out to develop DW based on NoSQL databases with open data from the Brazilian Army. With the implementation of the case study, it will be possible not only to verify the influence of data modeling on the performance of the selected queries, but also to perform a performance comparison of the relational and non-relational paradigms.

6
  • PEDRO BORGES PIO
  • Recomendação de algoritmos de detecção de ruído via meta-aprendizado

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • LUIS PAULO FAINA GARCIA
  • THIAGO DE PAULO FALEIROS
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 24/02/2023

  • Mostrar Resumo
  • Este trabalho apresenta uma solução de recomendação de algoritmos de detecção de ruído por meio de técnicas de Meta-Aprendizado (MtL). Primeiramente, foi realizada uma revisão sistemática da literatura referente ao tema de MtL e recomendação de algoritmos de pré-processamento. Na revisão foram verificadas quais as técnicas de pré-processamento, meta-características, algoritmos de Aprendizado de Máquina (AM) e métricas de desempenho são mais utilizados na área de recomendação de algoritmos de pré-processamento. Em seguida foram implementadas duas abordagens diferentes para a recomendação de filtros de ruído por meio de técnicas de MtL. A primeira é uma abordagem de ranqueamento (MtL-Rank), que realiza a sugestão por meio de regressores com objetivo de prever o valor da métrica f1-score. A outra abordagem realiza a recomendação por meio de uma sequência de classificadores encadeados (MtL-Multi). Também foi avaliado o desempenho das abordagens ao realizar a recomendação dos filtros juntamente com seus hiperparâmetros. No total, foram utilizados oito filtros de ruído ou 27 quando consideradas as suas variações de hiperparâmetros, quatro técnicas de AM para se extrair a métrica de desempenho e três meta-ranqueadores ou meta-classificadores para se realizar a sugestão. O sistema é avaliado no nível meta e no nível base. No nível meta é avaliado o desempenho dos algoritmos de recomendação por meio da sua acurácia. Já no nível base é verificado o ganho médio na métrica de desempenho (f1-score) ao aplicar cada uma das abordagens. Os resultados mostraram que a abordagem MtL-Rank obteve um ganho médio maior no desempenho, atingindo resultados significativamente melhores que o filtro utilizado como baseline. Por outro lado, a abordagem MtL-Multi obteve resultados melhores no nível meta, chegando atingir uma acurácia de 49%. Além disso, foi verificado que a recomendação dos hiperparâmetros em conjunto com o filtro pode gerar um ganho no desempenho da recomendação.


  • Mostrar Abstract
  • This work implements a noise detection algorithm recommendation using meta-learning techniques. First, a systematic review of the literature on the subject of meta-learning for preprocessing algorithm recommendation was performed. The review verified which preprocessing techniques, meta-features, machine learning algorithms and performance metrics are commonly used in the area of recommending preprocessing algorithms. Next, two different approaches were implemented for recommending noise filters using meta- learning techniques. The first is a ranking approach (MtL-Rank), which performs the suggestion using regressors and predicts the value of the performance metric f1-score. The other approach performs the recommendation through a sequence of linked classifiers (MtL-Multi). The performance of the approaches was also evaluated when recommending the filters together with their hyperparameters. In total, we used eight noise filters or 27 when considering their hyperparameter variations, four machine learning techniques to extract the performance metric and three meta-rankers or meta-classifiers to perform the recommendation. The system is evaluated at both the meta and base levels. At the meta level, the performance of a meta-learner is evaluated through their accuracy. At the base level, the average gain in the performance metric (f1-score) is verified. The results showed that the MtL-Rank approach obtained a higher average gain at the base level, obtaining significantly better results than the filter used as baseline. On the other hand, the MtL-Multi approach obtained better results at the meta level, reaching an accuracy up to 49%. In addition, it was verified that the suggestion of hyperparameters together with the noise filter can generate a gain in the performance when compared with only recommending the filter.

7
  • Matheus Schmitz Oliveira
  • Modelo Contextual de Negociação no Mercado de Ações Brasileiro com Algoritmo de Aprendizado por Reforço Profundo.

  • Orientador : GERALDO PEREIRA ROCHA FILHO
  • MEMBROS DA BANCA :
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • VINICIUS RUELA PEREIRA BORGES
  • RENATO HIDAKA TORRES
  • Data: 10/03/2023

  • Mostrar Resumo
  • As bolsas de valores estão presentes na sociedade ao longo dos últimos séculos, sendo fundamentais para a movimentação da economia e construção de grandes fortunas. No entanto, os preços das companhias oscilam, tornando desafiadora a tarefa de identificação das melhores oportunidades de compra e venda de suas ações. Nesse sentido, o uso de algoritmos para a negociação automática nas bolsas de valores ganhou evidência, apresentando características positivas como a velocidade e isenção de sentimentos na tomada de decisão. O Aprendizado por Reforço (RL) é aplicado em problemas envolvendo sequências de decisões em ambientes complexos, sendo promissor para a modelagem de ambientes de negociação de ativos. Apesar do grande avanço observado nas publicações recentes, foi identificada uma lacuna relacionada à combinação de dados numéricos do mercado e dados textuais provenientes de múltiplas fontes de informação. Dessa forma, o presente trabalho preenche a lacuna encontrada ao investigar, propor e validar o desenvolvimento de um modelo contextual baseado em Aprendizado por Reforço Profundo (DRL) para a negociação individualizada de ativos no mercado financeiro brasileiro. A proposta foi avaliada em quatro diferentes cenários, a partir de combinações entre a quantidade de dados utilizados e diferentes esquemas de recompensa adotado pelo agente de DRL do modelo contextual treinado. Para a avaliação foram escolhidos três benchmarks: investimento inicial, Buy & Hold da empresa específica e Buy & Hold do BOVA11. Os resultados mostraram que o modelo contextual desenvolvido superou o patrimônio líquido inicial investido em 94.5% dos casos no melhor caso. Além disso, os cenários que utilizaram o índice Sharpe como função de recompensa reportaram mais patrimônios líquidos finais acima dos benchmarks selecionados. Por fim, todos os cenários consideram a simulação de taxas de transação cobradas pelas instituições financeiras, tornando o resultado ainda mais realista.


  • Mostrar Abstract
  • Stock exchanges have been present in society over the last few centuries, being fundamental for moving the economy and building great fortunes. However, company prices fluctuate, making the task of identifying the best opportunities for buying and selling their shares a challenge. In this sense, the use of algorithms for automatic trading on stock exchanges gained evidence, showing positive characteristics such as efficiency and support of feelings in decision-making. Reinforcement Learning is applied to problems involving sequences of decisions in complex environments, being promising for modeling asset trading environments. Despite the significant advance seen in recent news, a gap was identified related to the combination of numerical market data and textual data from multiple sources of information. Thus, the present work fills a gap found when investigating, proposing, and validating the development of a contextual model based on Deep Reinforcement Learning for the individualized trading of assets in the Brazilian financial market. The proposal was evaluated in four different scenarios, based on the combination between the amount of data used and various reward schemes adopted by the DRL agent of the trained contextual model. For the evaluation, three benchmarks were chosen: initial investment, Buy & Hold of the specific company and Buy & Hold of BOVA11. The results appreciated that the developed contextual model outperformed the invested initial equity in 94.5% of cases in the best case. Furthermore, the scenarios that used the Sharpe ratio as the reward function reported more net worth above the selected benchmarks. Finally, all scenarios consider the simulation of transaction fees charged by financial institutions, making the result even more realistic

8
  • Rodrigo Pereira de Mesquita
  • Guide for Elicitation techniques applied to Agile Software Development

  • Orientador : EDNA DIAS CANEDO
  • MEMBROS DA BANCA :
  • EDNA DIAS CANEDO
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • VANDER RAMOS ALVES
  • SABRINA DOS SANTOS MARCZAK
  • Data: 27/04/2023

  • Mostrar Resumo
  • As técnicas de elicitação de requisitos são essenciais para apoiar os engenheiros de requisitos a obter uma melhor compreensão das necessidades dos usuários e das partes interessadas. Embora existam diversas técnicas disponíveis para apoiar as fases da Engenharia de Requisitos (ER), podem ocorrer dúvidas nas equipes de desenvolvimento de software sobre qual técnica utilizar durante a atividade de elicitação de requisitos. Objetivo: O objetivo desse trabalho é identificar as técnicas de elicitação de requisitos mais utilizadas na literatura e comparar com as técnicas mais usadas pelos profissionais na indústria. Além disso, identificam-se os desafios relacionados à elicitação de requisitos, os prós e contras das principais técnicas identificadas na literatura, e baseado nos prós e contras, analisam-se combinações possíveis das técnicas de elicitação de requisitos que podem minimizar os desafios identificados na literatura e na indústria. Método: Realizou-se uma Revisão Sistemática da Literatura (SLR) para identificar as técnicas de elicitação de requisitos e os desafios discutidos na literatura ou na indústria. Ainda dentro da Revisão Sistemática da Literatura, foi realizada a técnica de snowballing, para revisão dos estudos primários encontrados dentro de outras SLR que foram trazidas pela string de busca. Além disso, realizou-se uma pesquisa de opinião (survey) para investigar a percepção dos praticantes da área de desenvolvimento de software (individuos trabalhando na indústria de Software, independentemente da posição ou papel desempenhado) em relação às técnicas identificadas e posteriormente compará-las com os resultados obtidos na SLR. Resultados: Foram identificados 54 estudos primários na SLR e eles demonstraram que as técnicas tradicionais ainda são as mais utilizadas tanto na literatura quanto nos projetos da indústria de software. Além disso, algumas técnicas, como Persona, estão ganhando espaço, ajudando os engenheiros de requisitos a encontrar maneiras diferentes de realizar a elicitação de requisitos junto aos usuários finais e as partes interessadas. Ademais, baseado nos pontos fortes encontrados na literatura para cada técnica, foi possível sugerir combinações de técnicas que pelas forças ou pontos a favor identificados na SLR, podem ser combinadas para superar a maior parte dos desafios identificados. Conclusão: As técnicas mais mencionadas pela literatura e usadas na indústria de software foram: Prototipação, Entrevistas, Estórias de Usuário e Cenários. A combinação do uso dessas técnicas com, por exemplo, a técnica Persona podem ajudar a superar os desafios identificados na literatura.
    O estudo conta com a descrição das principais técnicas identificadas na literatura, contendo seus prós e contras e poderá apoiar os engenheiros de requisitos durante a elicitação de requisitos. A disponibilização online do estudo poderá para apoiar os praticantes de software na elicitação de requisitos, permitirá que a comunidade de engenharia de software possa contribuir com feedbacks relacionados a combinação do uso das técnicas, permitindo assim uma melhoria e divulgação das percepções das combinações realizadas entre as técnicas da ER pelos profissionais das equipes de desenvolvimento de software. Assim, o guia poderá apoiar os praticantes da área de desenvolvimento de software na escolha das técnicas a serem usadas e ou combinadas.


  • Mostrar Abstract
  • Background: Requirements elicitation techniques are essential to support requirements
    engineers to gain a better understanding of the needs of users and stakeholders. Al-
    though there are several techniques available to support the Requirements Engineering
    (RE) software development teams might be doubtful about which technique to use during
    requirements elicitation. Objective: The goal of this work is to identify Requirements
    Elicitation (RE) Techniques most used in the literature and compare with the techniques
    most used by professionals in the industry. In addition, we identified the challenges re-
    lated to requirements elicitation, the pros and cons of the main techniques identified in
    the literature, and based on the pros and cons, analyze possible combinations of require-
    ments elicitation techniques that can minimize the challenges identified in literature and
    industry. Method: We performed a Systematic Literature Review (SLR) to identify
    requirements elicitation techniques and challenges discussed in the literature or industry.
    Moreover, we performed a Survey to investigate the perception of software practitioners
    (individuals working in the software industry in a large variety of roles and positions)
    in relation to the techniques identified and subsequently compare them with the results
    obtained in the SLR. Finally, using Focus Group technique, we executed two validation
    sessions with nineteen specialists to evaluate technique combinations and the findings
    provided on this guide. Results: 54 primary studies were identified in the SLR and they
    demonstrated that traditional techniques are still the most used in both literature and
    software industry projects. In addition, some techniques, such as Persona, are gaining
    ground, helping requirements engineers to find different ways to elicit requirements from
    end users and stakeholders. Moreover, we have investigated combinations of techniques
    already discussed and presented in literature, also based on the strengths found in the
    literature for each technique, it was possible to identify combinations of techniques that
    by the forces or points in favor identified in the SLR, could be combined to overcome most
    of the challenges identified. Furthermore, validation sessions provided the view of special-
    ists that complemented the techniques and combinations under use by the community.
    Conclusion The most mentioned techniques in the literature at the same time they are
    used in the software industry are: Prototyping, Interview, User Stories, Brainstorming,
    Observation, Scenarios, Questionnaires and Mind Mapping. In addition, Ethnography,
    Joint Application Development (JAD) and Workshop have many references in literature
    while are not appealing for real projects in industry. On the other hand, Persona at least
    from the papers retrieved during this search is not largely discussed in literature whereas
    it has shown to be widely used in the industry. Combine the use of RE techniques can
    help overcome the challenges identified in the literature. A guide with a description of all
    techniques identified in the literature, containing their advantages and disadvantages can
    support the requirements engineers during the requirements elicitation. The provision
    of this study to support software practitioners in eliciting requirements, will allow the
    software engineering community to contribute feedback related to the combination of the
    use of techniques, thus allowing an improvement and dissemination of the perceptions of
    the combinations made between the RE techniques by the professionals of the software
    development teams. Hence, the guide can support software practitioners in choosing the
    techniques to be used and (or) combined.

9
  • Cristiano Perez Garcia
  • Uma Solução de Segurança Operacional para a Mobilidade Aérea Urbana com Aprendizado de Reforço Profundo

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • MARCELO ANTONIO MAROTTA
  • MARCELO XAVIER GUTERRES
  • Data: 15/06/2023

  • Mostrar Resumo
  • Aeronaves com propulsão elétrica e com capacidade de efetuar pousos e decolagens na vertical, também conhecidos como eVTOL estão em desenvolvimento por uma série de fabricantes e tem o potencial de revolucionar a mobilidade aérea urbana nos próximos anos. A adoção tende a ser gradual, porém uma vez que um certo nível de maturidade desse tipo de transporte seja atingido, a grande quantidade esperada de aeronaves em voos simultâneos trará desafios para os sistemas de controle de tráfego aéreo. Além disso, estas aeronaves poderão operar sem piloto a bordo. A proposta é de que as aeronaves executem voos em rotas diretas, realizando desvios apenas quando necessário. Portanto é necessário que uma série de sistemas de detecção e resolução de conflitos atuem de forma redundante. Entre eles, está a resolução de tática de conflitos.  Isso exige o desenvolvimento de ferramentas específicas para atender o novo cenário, constituído por aeronaves com características de desempenho até então inexistentes.  Este trabalho investiga a possibilidade de utilização de modelos de aprendizado de reforço profundo para a solução deste problema. A detecção dos conflitos pode ser efetuada de modo independente, a partir de sistemas embarcados como o ADS-B. Após a fase de treinamento, modelos de aprendizado de reforço profundo são capazes de sugerir ações que permitam alcançar o objetivo desejado mesmo em configurações de conflitos que não tenham sido observadas previamente. Isso faz com que estes modelos sejam adequados à resolução do problema de resolução de conflitos, visto que é inviável executar um treinamento com todos os conflitos possíveis. Um sistema baseado nos modelos Deep Q Network foi utilizado para gerenciamento das trajetórias em caso de detecção de conflito, realizando desvios de rota  com o objetivo de solucionar o conflito bem como afastar as aeronaves envolvidas o mínimo necessário de suas trajetórias ideais. Foi implementado um simulador customizado para a realização de testes utilizando diversos agentes de aprendizado de reforço profundo, bem como a comparação com estratégias alternativas. Os resultados indicam que os modelos utilizados são capazes de oferecer manobras capazes de reduzir o número de conflitos sem que as manobras realizadas para os desvios afetem de forma significativa o tempo de deslocamento ou consumo de combustível.


  • Mostrar Abstract
  • Aircraft with electric propulsion and capable of performing vertical takeoff and landings, also known as eVTOL, are under development by several manufacturers and have the potential to revolutionize urban air mobility in the coming years. Adoption tends to be gradual, but once a certain level of maturity of this type of transport is reached, the expected large number of simultaneous flights will pose challenges for air traffic control systems. In addition, these aircraft are expected to be able to operate without a pilot on board. Furthermore, aircraft are supposed to fly on direct routes, making detours only when necessary. Therefore, a set of conflict detection and resolution systems is desired to act redundantly. One of those systems is the one responsible for the tactic conflict resolution. This requires developing specific tools to meet the new scenario, consisting of aircraft with performance characteristics that are not yet existent. This work investigates the possibility of using deep reinforcement learning models to solve this problem. Conflict detection can be performed independently using embedded systems as sensors, such as ADS-B. After the training phase, deep reinforcement learning models can suggest actions to achieve the desired goal even in scenarios that have not been previously observed. This capability makes these models suitable for solving the problem of conflict resolution since it is impracticable to train a system with all possible conflict configurations. A system based on Deep Q Network models was used to manage the trajectories in case of conflict detection. It carried out route deviations to resolve the conflict and deviated the aircraft involved the minimum necessary from their ideal trajectories. A customized simulator was implemented to perform tests using several deep reinforcement learning agents and compare them with alternative strategies. The obtained results indicate that the models can suggest maneuvers capable of reducing the number of conflicts without significantly affecting displacement or fuel consumption.

10
  • Rafael Oliveira Ribeiro
  • Métodos para cálculo de razão de verossimilhança para utilização de sistemas de reconhecimento facial em cenários forenses

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • DAVID MENOTTI GOMES
  • DIBIO LEANDRO BORGES
  • FLAVIO DE BARROS VIDAL
  • JOÃO CARLOS RAPOSO NEVES
  • Data: 19/06/2023

  • Mostrar Resumo
  • Na área forense, o exame pericial de comparação facial tem adquirido maior relevância à medida em que cresce o número de dispositivos com capacidade de gravação de imagens e, por conseguinte, aumenta o número de crimes em que os autores têm suas faces capturadas em imagens. Atualmente esse exame pericial é baseado na análise e comparação manual de elementos morfológicos da face e os resultados são expressos de forma qualitativa, o que dificulta a sua reprodutibilidade e a combinação de seus resultados com outras evidências pela instância julgadora. Este trabalho tem como objetivo avaliar métodos para expressar os resultados do exame de forma quantitativa, com o cálculo de razão de verossimilhança (do inglês Likelihood-Ratio – LR) a partir de escores obtidos de sistemas de reconhecimento facial. Além de facilitar a reprodutibilidade dos resultados, aspecto crítico na área forense, os métodos avaliados permitem a validação empírica de desempenho nas condições de cada caso. Neste trabalho foram avaliados métodos paramétricos e não-paramétricos para cálculo de LR a partir de escores, utilizando dois sistemas de reconhecimento facial de código aberto, ArcFace e FaceNet, e cinco bases com imagens faciais representativas de cenários frequentemente encontrados em casos periciais: imagens de mídias sociais e de câmeras de CFTV. Além disso, foram realizados experimentos relacionados à agregação de embeddings em casos onde há mais de uma imagem do indivíduo de interesse. Estes experimentos demonstraram melhora substancial no cálculo de LR a partir de sistemas de reconhecimento facial, especialmente nos cenários envolvendo imagens de pior qualidade: redução na Cllr em até 95% (de 0,249 para 0,012) para imagens de CFTV e de até 96% (de 0,083 para 0,003) para imagens de mídias sociais.


  • Mostrar Abstract
  • Forensic face comparison is becoming more relevant as the number of devices with image recording capabilities increases, with a consequential increase in the number of crimes in which the face of the perpetrator is recorded. This forensic examination is still based on the manual analysis and comparison of morphological features of the faces. Its results are expressed qualitatively, making it difficult to reproduce and combine with other evidence. This work evaluates methods to obtain a quantitative result for the examination, with the computation of score-based Likelihood-Ratio - LR. Face recognition systems are used to obtain scores that are then converted to an LR. The methods investigated in this work facilitate reproducibility, a critical aspect in forensics, and it also allows for the empirical validation of performance in the conditions of each forensic case. We evaluate parametric and non-parametric methods for LR computation. Two open-source face recognition models were used (ArcFace and FaceNet) on images from five datasets that are representative of common scenarios in forensic casework: images from social media and images from CCTV cameras. We also investigate strategies for embedding aggregation in cases where there is more than one image of the person of interest. These experiments demonstrate substantial improvements in forensic evaluation settings, with improvements in Cllr of up to 95% (from 0.249 to 0.012) for CCTV images and of up to 96% (from 0.083 to 0.003) for social media images.

11
  • Ismael Coelho Medeiros
  • DogeFuzz: um framework extensível para estudos de fuzzing na análise dinâmica de Smart Contracts

  • Orientador : RODRIGO BONIFACIO DE ALMEIDA
  • MEMBROS DA BANCA :
  • RODRIGO BONIFACIO DE ALMEIDA
  • EDUARDO ADILIO PELINSON ALCHIERI
  • GENAINA NUNES RODRIGUES
  • WILKERSON DE LUCENA ANDRADE
  • Data: 07/07/2023

  • Mostrar Resumo
  • Smart contract são programas Turing-completo que são executados em uma rede blockchain. Muitas vezes, este tipo de programa armazena ativos digitais valiosos e em um blockchain como o Ethereum, o binário de cada smart contract está publico e transparente, e por isso pode ser acessado por qualquer um. Isso faz com que este tipo de programa seja alvo constante de ataques e que a segurança de um contrato seja algo crítico. Este trabalho visa experimentar técnicas avançadas de fuzzing na detecção automática de vulnerabili- dades em smart contracts. A técnica que será explorada é a directed greybox fuzzing que tem como objetivo gerar inputs que explorem pontos específicos do código. Para isso, a ferramenta ContractFuzzer será estendida de forma que consiga utilizar esta nova técnica. Para avaliar a performance desta extensão será preciso criar um dataset para experimentar a capacidade exploração das duas versões da ferramenta ContractFuzzer.


  • Mostrar Abstract
  • Smart contracts are Turing-complete programs that are executed in a blockchain network. Many times, this type of program stores valuable digital assets and in a blockchain such as Ethereum, each smart contract’s binary is public and transparent, and that is why it can be accessed by anyone. This makes this type of program to be a constant target for many kinds of attack e its security to be critical. This work aims to experiment advanced fuzzing techniques in automatic vulnerability detection in smart contracts. The technique to be explored is directed greybox fuzzing, which has the objective of generating input that explore specific points of the program. For that, the tool ContractFuzzer will be extended to use this new technique. To evaluate the performance of this version of the tool, it is necessary to create a dataset to experiment the exploration capacity of the two versions of ContractFuzzer.

12
  • Rodrigo Cardoso Aniceto
  • ProjPlag: Uma Aplicação para Auxiliar o Processo de Detecção de Plágio em Cursos Introdutórios de Programação 

  • Orientador : MARISTELA TERTO DE HOLANDA
  • MEMBROS DA BANCA :
  • ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
  • DILMA DA SILVA
  • MARISTELA TERTO DE HOLANDA
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 12/07/2023

  • Mostrar Resumo
  • Este trabalho apresenta a aplicação ProjPlag desenvolvida para auxiliar o professor a identificar alunos suspeitos de plágio em códigos fontes em uma disciplina introdutória de programação. Para criar a aplicação, foi feita uma análise das ferramentas de detecção de plágio Moss e JPlag e dos dados dos alunos extraídos da plataforma de ensino Moo- dle, isso permitiu aprender mais sobre o perfil de alunos que copiam códigos e, com base nisso, é possível traçar estratégias voltadas a reduzir a ocorrência dessa prática. A apli- cação foi então desenvolvida com a funcionalidade de gerar relatórios integrando os dados disponíveis. Esses relatórios contêm percentuais de similaridades entre códigos, notas, padrões de desenvolvimento e padrões de envio dos trabalhos, para uso pelo professor. O ProjPlag também foi testado na automatização da identificação de alunos que plagiaram, apresentando uma taxa de acerto de 90%. Pesquisas futuras podem ser feitas aumentando o volume de dados e aperfeiçoando sua coleta. 


  • Mostrar Abstract
  • This work proposes an application to help teachers identify students suspected of plagiarism in source codes in an introductory programming course with a virtual teaching environment. This is done through the integration of automatic plagiarism detection tools with data on student behavior in the course, for the generation of unified reports. This behavioral data includes the assignment submission pattern and classroom data such as attendance and grades. It can be applied in distance or face-to-face teaching. This application will be tested with real data in order to simplify the plagiarism identification process. It is also expected to learn more about the profile of students who copy source codes to outline policies aimed at reducing the occurrence of this practice.

13
  • RUBENS MARQUES CHAVES
  • Predição de falência utilizando dados sequenciais não estacionários em uma abordagem de fluxo de dados. 

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • LUIS PAULO FAINA GARCIA
  • CELIA GHEDINI RALHA
  • THIAGO DE PAULO FALEIROS
  • RICARDO CERRI
  • Data: 20/07/2023

  • Mostrar Resumo
  • As previsões de falência corporativas são importantes para empresas, investidores e autoridades regulatórias. No entanto, como a maioria dos modelos de previsão de falência em estudos anteriores foram baseados em uma única dimensão de tempo, eles tendem a ignorar as duas principais características de dados de dificuldades financeiras, conjuntos de dados desequilibrados e desvio de conceito do fluxo de dados. Para supera-los, este estudo tenta identificar as técnicas mais adequadas para o tratamento desses problemas em demonstrações financeiras fornecidas trimestralmente a CVM, utilizando um sistema de janelas deslizantes e com mecanismo de esquecimento para evitar a degradação do modelo preditivo. Um experimento empírico foi realizado em uma amostrada de dados coletados do portal de dados abertos da CVM, em um período de 10 anos (2011 a 2020), com 905 corporações distintas, 23.468 registros com 102 indicadores cada, sendo 21.750 de empresas sem dificuldade financeira e 1.718 de empresas com dificuldade financeira. Devido a características do problema, em especial o desbalanceamento, o desempenho do modelo foi medido através de AUC (área sob a curva ROC), G-measure e F-measure.


  • Mostrar Abstract
  • Corporate bankruptcy predictions are important to companies, investors and authorities. However, as most bankruptcy prediction models in previous studies have been based on a single time dimension, they tend to ignore the two main characteristics of financial distress data, unbalanced data sets and data stream concept drift. To overcome them, this study tries to identify the most appropriate techniques for dealing with these problems in financial statements provided quarterly by companies to the CVM, using a system of sliding windows and a forgetting mechanism to avoid the degradation of the predictive model. An empirical experiment was carried out on a sample of data collected from the CVM open data portal, over a period of 10 years (2011 to 2020), with 905 different corporations, 23,468 records with 102 indicators each. The majority, 21,750 companies, have no financial difficulties and 1,718 companies have financial difficulties. Due to characteristics of the problem, especially the data unbalance, the performance of the model was measured through AUC (area under the ROC curve), G-measure and F-measure.

14
  • NIKSON BERNARDES FERNANDES FERREIRA
  • Melhorando a segurança de programas numéricos

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • AARON DUTLE
  • LAURA TITOLO
  • MAURICIO AYALA RINCON
  • VANDER RAMOS ALVES
  • Data: 21/07/2023

  • Mostrar Resumo
  • Este trabalho discute como a precisão dos erros de arredondamento envolvidos em implementações
    reais do sistema de gerenciamento da NASA para veículos não tripulados DAIDALUS afetam a segurança
    geral do sistema. A biblioteca DAIDALUS fornece definições formais para os conceitos de Detecção
    e Evasão em aviônica demonstrados mecanicamente no assistente de provas PVS. No entanto, tais
    verificações são apenas certificados do bom comportamento da especificação do ponto de vista lógico, o
    que não garante a precisão dos algoritmos implementados sob restrições aritméticas de ponto flutuante.
    Nossa análise assume o padrão IEEE 754 de ponto flutuante, implementados em diversas linguagens de
    programação, e a técnica de verificação se baseia na geração de uma especificação de primeira ordem dos
    cálculos numéricos. Uma característica proeminente da abordagem é dividir a especificação em fatias
    definidas de acordo com os diferentes ramos de computação. O fatiamento é crucial para simplificar a
    análise formal das computações com aritmética de ponto flutuante.


  • Mostrar Abstract
  • This work discusses how the presence of round errors involved in real-world implementations of the
    NASA management system for unmanned vehicles DAIDALUS affect the overal safety of the system. The
    DAIDALUS library provides formal definitions for avionics’ Detect and Avoid concepts mechanically
    demonstrated in the proof assistant PVS. However, such verifications are just certificates of the well-
    behavior of the specification from the logical point of view, which do not guarantee the accuracy
    of the algorithms implemented under floating-point arithmetic.Our analysis assumes the IEEE 754
    floating point standards, implemented in several programming languages, and the verification technique
    is grounded on generating a first-order specification of the numerical computations. A prominent feature
    of the approach is splitting the specification into slices defined according to the different computation
    branches. Slicing is crucial to simplify the formal analysis of floating point arithmetic computations

    Nota: Suplente Mariano Miguel Moscato - National Insitute of Airspace - NASA LaRC

15
  • Fernanda Amaral Melo
  • Meta aprendizado para detecção de mudança de conceito não supervisionada

  • Orientador : LUIS PAULO FAINA GARCIA
  • MEMBROS DA BANCA :
  • LUIS PAULO FAINA GARCIA
  • GERALDO PEREIRA ROCHA FILHO
  • VINICIUS RUELA PEREIRA BORGES
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • Data: 30/08/2023

  • Mostrar Resumo
  • O avanço tecnológico na geração e transmissão de dados potencializou a existência de muitas aplicações de fluxos de dados, estes ambientes altamente dinâmicos frequentemente acompanham o problema de mudança de conceito, situação em que as propriedades estatísticas das variáveis se altera ao longo do tempo acarretando na perda de performance de modelos de Aprendizado de Máquina. Este trabalho apresenta uma nova ferramenta para detecção de mudança de conceito por meio do uso de Meta Aprendizado em problemas de fluxo de dados que contenham atraso grande na chegada da variável alvo. Optou-se por utilizar o Meta Aprendizado por se tratar de uma técnica robusta e adaptada para problemas de fluxo de dados, no entanto, em oposição à sua abordagem tradicional de recomendação de algoritmos, fez-se uso de um regressor no nível meta que prevê a cada janela o desempenho do modelo base. Esta predição é então utilizada na geração de alertas de mudança de conceito antes da chegada da variável alvo. O treinamento do meta modelo foi feito com o uso de diversos meta atributos não supervisionados da literatura de Meta Aprendizado, além disso, foram adicionadas medidas não supervisionadas de detecção de mudança de conceito como parte dos atributos como forma de aumentar a capacidade preditiva do modelo gerado. O algoritmo foi aplicado em bases de dados usuais da literatura de fluxo de dados e o desempenho no nível meta é avaliado por meio do ganho acumulado do Erro Quadrático Médio com relação ao algoritmo original de Meta Aprendizado e à baseline, medida a partir da última janela com desempenho conhecido. Por fim, a importância das variáveis para o meta regressor é analisada para entender a contribuição dos novos meta atributos propostos nesta pesquisa. Resultados preliminares mostram que o algoritmo proposto gera, em média, uma redução de 12.8% no erro com relação ao Meta Aprendizado tradicional e de 38% com relação à baseline na predição de desempenho do modelo base. Espera-se, com os próximos passos, efetuar a criação do alerta de mudança de conceito baseado nas predições do meta modelo e comparar a técnica proposta com as métricas existentes de mudança de conceito em bases de dados que possuam mudança de conceito rotulada.


  • Mostrar Abstract
  • Advances in the data generation and transmission have enhanced the existence of many data flows applications, these highly dynamic environments often comes with the concept drift problem, phenomenon in which the statistical properties of the variables change over time, resulting in the performance loss of Machine Learning models. This work presents a new concept drift detection tool for Machine Learning systems through the use of Meta Learning. The algorithm was proposed for data stream like problems containing concept drift with large target arrival delay, Meta Learning was choosen because of its robustness and adaptation to data stream problems, however, unlike the traditional algorithm recommendation Meta Learning approach, a regressor was used at the meta level to predict the base model performance, these predictions can be used to generate concept drift alerts before the target arrival. The meta model training included the use of several unsupervised Meta Features from the Meta Learning literature, in addition, unsupervised concept drift detection metrics were added to the attributes in order to increase the predictive power of the generated meta regressor. The algorithm was applied in commonly used data streams databases and the performance at the meta level is evaluated through the Mean Squared Error compared to the original Meta Learning approach and to the baseline, a measure from the last known performance window. Finally, the importance of the variables for the meta regressor is analyzed to find the real contribution of the MFe proposed in this research, such as the concept change detection measures. Preliminary results show that the proposed algorithm generates, on average, an error reduction of 12.8% compared to the traditional Meta Learning and 38% compared to the baseline in predicting the performance of the base model. Future work includes the concept drift alert definition based on the meta model predictions and the comparison of the proposed technique with existing concept drift metrics databases with labeled concept drift.

16
  • Paulo Victor Gonçalves Farias
  • Proposta de um Protocolo de Disseminação de Mensagens em Redes Veiculares Ad Hoc para Aplicações Sensíveis à Acurácia de Posicionamento

  • Orientador : JACIR LUIZ BORDIM
  • MEMBROS DA BANCA :
  • EDUARDO ADILIO PELINSON ALCHIERI
  • JACIR LUIZ BORDIM
  • JO UEYAMA
  • MARCELO ANTONIO MAROTTA
  • Data: 22/09/2023

  • Mostrar Resumo
  • As aplicações para prevenção de acidentes em Redes Veiculares Ad Hoc (VANETs) desempenham um papel importante para garantir a segurança de motoristas, passageiros e pedestres. Seu funcionamento depende de requisitos rígidos relacionados a acurácia de posicionamento dos veículos. Para atender essas restrições, as aplicações exigem o envio frequente de mensagens periódicas, também conhecidas como beacons, contendo a posição geográfica, velocidade e direção do veículo. Em cenários de tráfego denso, a alta taxa de envio de beacons somada a difusão descoordenada de outras mensagens pode ocasionar em uma congestão na rede. Durante a congestão, o canal de transmissão se torna saturado, aumentando a perda de pacotes por erros ou colisões, bem quanto o atraso de entrega das mensagens. Vários trabalhos têm sido propostos para aliviar a congestão em redes veiculares, porém a maioria não considera a perda de acurácia de posicionamento que pode ocorrer como efeito colateral das estratégias usadas. Este trabalho contribui com um estudo sobre as limitações do canal de transmissão em redes veiculares, bem quanto uma definição detalhada do problema de congestão. Propõe-se um novo protocolo para a disseminação de mensagens em VANETs chamado APGP. O APGP utiliza uma arquitetura de três módulos para controlar a congestão causada por beacons, monitorar os veículos vizinhos e realizar o envio das mensagens de alerta. A proposta utiliza uma abordagem com ajuste de potência de transmissão para o envio de mensagens para grupos de vizinhos chamados de grupos geocast e um ajuste de taxa de envio de mensagens baseado na predição de posição feita localmente. O APGP foi implementado em um ambiente de simulação de redes veiculares e testado sob um cenário veicular urbano. Os resultados indicaram que a proposta conseguiu melhorar a taxa de recepção de pacotes, bem quanto reduzir o atraso de entrega e a taxa de ocupação do canal quando comparado a outros trabalhos relevantes. Por fim, constatou-se que o APGP conseguiu atender aos requisitos de acurácia de posicionamento das aplicações para veículos mais próximos, em detrimento de veículos localizados em regiões mais distantes.


  • Mostrar Abstract
  • Periodic message transmission is one of the possible ways to enable operation of applications in a Vehicular Ad-Hoc Network (VANET). These messages are known as beacons and they consist of information about a vehicle’s position, speed, and direction. Safety applications in VANETs dictate that beacons must be sent at high frequencies to en-
    sure reliable and efficient operation. However, due to the transmission channel restraints, the number of messages being transmitted simultaneously can lead to collisions in environments with high vehicle density. When there is a high number of collisions, new messages will not be sent correctly. This event is called broadcast storm. Congestion
    control algorithms have been proposed with effective solutions to this problem, adjusting parameters like transmission rate and transmission power. Despite this, it was noticed that these techniques can impair the operation of safety applications that rely on positioning information with a certain level of accuracy. In this work, a Proactive Geocast Beacon Transmission Algorithm(PGBTA) is proposed as a solution to control network congestion and ensure application positioning requirements. In PGBTA, beacons are transmitted by geocast, where neighbors of a node are divided into geocast groups according to their distance.PGBTA prioritizes sending more frequent updates to groups of neighbors at near distances through a position prediction mechanism, which considers the position accuracy requirements defined in the literature. Simulations were carried out in a real scenario where it was possible to verify the possibility of implementing the PGBTA algorithm, considering metrics such as number of beacons generated, delay between beacon transmissions, number of neighbors and positioning error.

     
     
17
  • Herval Alexandre Dias Hubner
  • Análise de evolução de linhas de produtos de software

  • Orientador : VANDER RAMOS ALVES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • LEOPOLDO MOTTA TEIXEIRA
  • VANDER RAMOS ALVES
  • VINICIUS RUELA PEREIRA BORGES
  • Data: 26/10/2023

  • Mostrar Resumo
  • No cenário atual da engenharia de software, as Linhas de Produtos de Software (LPS) emergem como uma abordagem fundamental para enfrentar os desafios da customização em massa. LPS permitem a construção de soluções individuais com base em componentes reutilizáveis, proporcionando eficiência e flexibilidade no desenvolvimento de software. As LPS são fundamentais para melhorar a produtividade e a qualidade no desenvolvimento de software, graças à reutilização de componentes e rápida adaptação a novos requisitos. A variabilidade é central em LPS, facilitando a adaptação a diversas situações de produtos através de recursos que podem ser ativados. A análise de LPS é crucial para identificar requisitos comuns e variantes, mas enfrenta desafios de falta de dados concretos e limitações de tempo. No entanto, a análise de LPS enfrenta desafios, como a escassez de estudos empíricos caracterizando e detalhando a evolução de LPS. Neste trabalho, desenvolvemos a ferramenta ASTool (software de análise de alterações na árvore de sintaxe abstrata) para examinar diversas Linhas de Produto de Software e assim, caracterizar a evolução das mesmas. Os resultados obtidos nesta análise revelam que, no que diz respeito à média de profundidade das alterações na Abstract Syntax Tree (AST), as modificações ocorrem em níveis superficiais, ou seja, próximas à raiz da árvore de sintaxe. Em relação à média de arquivos alterados por commit, observou-se uma quantidade significativa de arquivos modificados por commit. Quanto à média de lacunas (gaps) entre as linhas alteradas no código, os valores obtidos indicam uma baixa frequência de alterações. Os resultados deste estudo podem influenciar a decisão de utilizar ou não a técnica de memorização para melhorar a eficácia das análises.


  • Mostrar Abstract
  • In the current software engineering scenario, Software Product Lines (LPS) emerge as a fundamental approach to face the challenges of mass customization. LPS allow the construction of individual solutions based on reusable components, providing efficiency and flexibility in software development. LPS are fundamental for improving productivity and quality in software development, thanks to the reuse of components and rapid adaptation to new requirements. Variability is central to LPS, facilitating adaptation to diverse product situations through features that can be activated. LPS analysis is crucial for identifying common and variant requirements, but faces challenges of lack of hard data and time constraints. However, LPS analysis faces challenges, such as the scarcity of empirical studies characterizing and detailing the evolution of LPS. In this work, we developed the ASTool tool (software for analyzing changes in the abstract syntax tree) to examine several Software Product Lines and thus characterize their evolution. The results obtained in this analysis reveal that, with regard to the average depth of changes in the Abstract Syntax Tree (AST), modifications occur at superficial levels, that is, close to the root of the syntax tree. In relation to the average number of files changed per commit, a significant number of files modified per commit were observed. As for the average number of gaps between changed lines in the code, the values obtained indicate a low frequency of changes. The results of this study may influence the decision whether or not to use the memorization technique to improve the effectiveness of analyses.

18
  • Lucélia Vieira Mota
  • Reconhecimento de Entidades Nomeadas para Conteúdo Publicado em Diários Oficiais com Base em uma Abordagem de Supervisão Fraca

  • Orientador : THIAGO DE PAULO FALEIROS
  • MEMBROS DA BANCA :
  • ALAN DEMÉTRIUS BARIA VALEJO
  • GERALDO PEREIRA ROCHA FILHO
  • LUIS PAULO FAINA GARCIA
  • THIAGO DE PAULO FALEIROS
  • Data: 14/12/2023

  • Mostrar Resumo
  • O Reconhecimento de Entidade Nomeada é uma tarefa desafiadora de Processamento de Linguagem Natural, especialmente quando se trata de uma língua tão rica quanto o português. Quando aplicada em um cenário adequado à linguagem formal e a textos oficiais, a tarefa adquire uma nova camada de complexidade, lidando com um contexto léxico particular ao domínio em questão. Neste estudo será apresentado a geração de um corpus anotado de Licitação e Contratação Pública por meio da abordagem de supervisão fraca. Métodos de Supervisão Fraca podem ser utilizados quando grandes quantidades de dados anotados estão indisponíveis, caros para obter ou impraticáveis para anotar manualmente.
    Além disso, valida-se o conjunto de dados anotados com um corpora formal anotado por rotulação manual, a fim de avaliar se o corpus gerado do domínio poderia melhorar os algoritmos de Reconhecimento de Entidades Nomeadas. Para isso, realizaram-se experimentos com um modelo Conditional Random Fields, um modelo Bidirecional Long-Short Term Memory com uma camada adicional de redes convolucionais e, posteriormente, realizou-se a aplicação da Supervisão Fraca diretamente a geração do corpus a fim de avaliar se os resultados obtidos iriam melhorar a qualidade de geração do corpus.
    Conclui-se que a combinação de Reconhecimento de Entidades Nomeadas e abordagem supervisionada fraca podem alcançar a geração de um corpus com mais qualidade, além reduzir a anotação manual necessários para treinar os modelos de Reconhecimento de Entidades Nomeadas. Em alguns casos, a aplicação da Supervisão Fraca com o Reconhecimento de Entidades Nomeadas e aplicação direta de supervisão ao corpus alcançaram resultados satisfatórios em comparação aos modelos treinados por dados anotados à mão.


  • Mostrar Abstract
  • Training data labeling has become one of the main obstacles to the use of machine learning. Among several data labeling paradigms, weak supervision has shown as an opportunity to alleviate the bottleneck of manual labeling, since from supervision we can programmatically synthesize the training of labels from multiple sources generated by potentially noisy supervision. This dissertation presents experiments on one of the weak supervision application approaches. In particular, a brief literature review was carried out on the theoretical basis that supports the use of this approach and describes in general a learning and labeling workflow within the problem of named entity recognition from weak supervision. Finally, experiments were carried out to evaluate the gains of using this approach to assist in the labeling of bases within the context of Public Administration in Brazil, and thus, to inspire future research directions in the field.

19
  • Leandro Dias Carneiro
  • Avaliando a influência de degradações em imagens nos modelos de aprendizado profundo utilizados em reconhecimento facial.

  • Orientador : FLAVIO DE BARROS VIDAL
  • MEMBROS DA BANCA :
  • FLAVIO DE BARROS VIDAL
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CAMILO CHANG DOREA
  • HELIO PEDRINI
  • Data: 21/12/2023

  • Mostrar Resumo
  • Durante a Persecução Penal, os sistemas de Reconhecimento Facial têm sido cada vez mais utilizados, pois além da acurácia dos sistemas terem aumentado de forma considerável nos últimos anos, observa-se cada vez mais a presença de câmeras nas vias públicas, residências e estabelecimentos comerciais. Atualmente, a maioria dos sistemas comerciais apresenta como resultado uma métrica que representa a similaridade entre duas faces, ou simplesmente uma descrição qualitativa, deixando de lado outras análises a respeito da qualidade e da real utilidade do material utilizado para a comparação. Este trabalho tem como objetivo estimar o impacto que as degradações da imagem causam nos sistemas de reconhecimento facial baseados em aprendizado profundo, a fim de minimizar equívocos cometidos na análise do resultado. Para atingir este objetivo, serão realizadas duas etapas sequencias, sendo a primeira, a criação de uma base de dados e, a segunda, um modelo capaz de identificar a degradação (e a intensidade) presente na imagem. A base de dados será criada a partir de 3 algoritmos de detecção facial, 8 algoritmos de reconhecimento facial, 14 tipos de degradações com 6 níveis de intensidade em cada, e 4 bases de dados de faces, sendo calculados os escores para as métricas acurácia, precision e recall. Após a criação da base de dados, será desenvolvido um modelo de aprendizado profundo, capaz de identificar a degradação presente na imagem. Com esta identificação, será possível consultar os resultados da base de dados e estimar a queda de desempenho para as imagens novas. Para as bases de dados de faces analisadas, os modelos de reconhecimento facial tiveram um impacto mínimo de 17%, em média, e um impacto máximo de 43%, em média. Ainda, os modelos treinados na tarefa de detecção de degradação tiveram uma acurácia variando entre 71% e 94%, aproximadamente. Tanto os algoritmos quanto as bases de dados de faces são públicos. O objetivo final do projeto se dá pela identificação dos limites de qualidade necessários para um resultado considerado robusto por parte dos sistemas de reconhecimento facial. Ainda, a criação de um modelo capaz de estimar, com razoável acurácia, o tipo de degradação presente em uma imagem.


  • Mostrar Abstract
  • During criminal prosecution, facial recognition systems have been increasingly used, as in addition to the accuracy of the systems increasing considerably in recent years, cameras are growing on public roads, homes, and commercial establishments. Currently, most commercial systems present, as a result, a metric that represents the similarity between two faces or simply a qualitative description, leaving aside other analyses regarding the quality and actual usefulness of the material used for comparison. This work aims to estimate the impact of image degradations on facial recognition systems based on deep learning to minimize mistakes made when analyzing the result. To achieve this objective, two sequential steps will be carried out: the creation of a database and, the second, a model capable of identifying the degradation (and intensity) present in the image. The database will be created from 3 facial detection algorithms, eight facial recognition algorithms, 14 types of degradations with six intensity levels in each, and four face databases, with scores calculated for the accuracy metrics, precision, and recall. After creating the database, a deep learning model will be developed, capable of identifying the degradation present in the image. With this identification, it will be possible to consult the database results and estimate the drop in performance for new images. For the face databases analyzed, facial recognition models had a minimum impact of 17% on average and a maximum impact of 43% on average. Furthermore, the models trained in the degradation detection task had approximately 71% and 94% accuracy. Both the algorithms and the face databases are public. The project's final objective is to identify the quality limits necessary for a result considered robust by facial recognition systems. Furthermore, it creates a model capable of estimating, with reasonable accuracy, the type of degradation present in an image.

Teses
1
  • Lucas Maciel Vieira
  • Exploring relevant features of colorectal cancer from clinical and biological data: a bioinformatics approach

  • Orientador : MARIA EMILIA MACHADO TELLES WALTER
  • MEMBROS DA BANCA :
  • MARIA EMILIA MACHADO TELLES WALTER
  • CELIA GHEDINI RALHA
  • ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
  • JOÃO CARLOS SETUBAL
  • PETER FLORIAN STADLER
  • Data: 28/02/2023

  • Mostrar Resumo
  • O câncer colorretal (CRC) é um dos tipos de câncer mais comuns e letais em todo o mundo, sendo o segundo câncer mais comum no Brasil [1]. O CRC é um câncer heterogêneo, que se instala na parte inferior do intestino grosso e pode ser classificado de acordo com seu campo anatômico, como câncer de cólon, de reto ou na junção retossigmoide. O tipo mais frequente de CRC é o adenocarcinoma, que corresponde a 90% dos casos. A maioria das mortes causadas por CRC acontece quando esse entra em estado de metástase. No entanto, se detectado em seus estágios iniciais, a sobrevida do paciente com CRC pode melhorar consideravelmente. Esta doença pode ser influenciada por diversos aspectos ambientais, tais como:hábitos alimentares, idade e peso. Normalmente, o tratamento recomendado para pacientes com CRC é a cirurgia para sua remoção e, depois, o uso de quimioterapia, porém o tratamento pode diferir de acordo com seu campo anatômico. O diagnóstico do CRC em um campo anatômico incorreto pode levar o médico a prescrever um tratamento não recomendado ao paciente, o que pode afetar a sua taxa de mortalidade. Para auxiliar o prognóstico, prevenção e tratamento de CRC, é fundamental entender os mecanismos moleculares e os indicadores clínicos que afetam o desenvolvimento do CRC.

    Quanto aos aspectos biológicos do CRC, podemos descrever o impacto dos RNAs codificadores e não-codificadores nos mecanismos subjacentes à doença. Em específico, podemos destacar três moléculas: RNAs longos não codificadores (em inglês, long non-coding RNAs - lncRNAs), micro RNAs (miRNAs) e RNAs mensageiros (em inglês,messenger RNAs - mRNAs). Nos eucariotos, os mRNAs maduros são formados a partir do pré-mRNA que, por sua vez, é produzido a partir do processo de transcrição passar por um processo conhecido como excisão (em inglês, splicing), que remove algumas regiões (íntrons) do pré-mRNA e liga outras regiões (exons), formando assim o mRNA maduro. O processo de splicing possibilita gerar mais de uma proteína a partir de um único gene, em um processo conhecido como excisão alternativa (em inglês, alternative splicing). Por sua vez, as proteínas coordenam quase todos os processos vitais no organismo, sendo utilizadas em reações metabólicas e afetando diversos processos biológicos, como o desenvolvimento de doenças.

    Os miRNAs desempenham um papel essencial na expressão gênica, mais especificamente, ligando-se aos mRNAs e iniciando os processos de inibição ou degradação de seu alvo. Por sua vez, os lncRNAs não estão diretamente presentes neste processo de regulação da expressão de mRNA, mas desempenham papéis essenciais no organismo, como a alteração das funções de outras moléculas e, assim, afetam a expressão de proteínas indiretamente, o que pode contribuir para o surgimento e supressão de doenças. Considerando o papel específico de cada uma das moléculas descritas no desenvolvimento de doenças, estudos recentes destacaram a importância de um mecanismo conhecido como redes de RNAs endógenos concorrentes (em inglês, competing endogenous RNAs - ceRNAs), nos quais os lncRNAs, os miRNAs e osmRNAs interagem entre si. Nesse mecanismo, osmiRNAs, que se ligam aos mRNAs pelos binding sites, podem também se ligar aos ceRNAs, assim, regulando indiretamente a expressão dosmRNAs. A identificação de redes ceRNA relacionadas ao surgimento do CRC e seus mecanismos subjacentes podem auxiliar os médicos a entender melhor a doença e realizar um melhor prognóstico do paciente. Na literatura, podemos encontrar alguns estudos que usam abordagens baseadas em bioinformática para criar redes ceRNAs e auxiliar a identificação de biomarcadores para o câncer de cólon, reto e o câncer colorretal em geral. 

    Embora alguns estudos tenham foco na construção de redesceRNA, até onde sabemos, nosso estudo foi o primeiro a estabelecer redes ceRNAs específicas para: (i) cólon; (ii) reto; e (iii) junção retossigmóide, além de relacioná-los com mecanismos biológicos específicos, a fim de esclarecer as diferenças e fatores comuns entre essas diferentes localizações anatômicas.

    Por outro lado, alguns estudos sugerem o uso de métodos de aprendizagem de máquina e também o uso de características clínicas para predizer marcadores que podem ser usados para prognóstico de pacientes com CRC [9, 10, 11]. Especificamente, Gründner et al. [9] sugeriram um método que combina características biológicas e clínicas para predizer marcadores de prognóstico de pacientes com CRC na África do Sul. Esses estudos descreveram bons resultados obtidos a partir de modelos de predição. Tanto quanto saibamos, nosso estudo foi o primeiro que usou dados abertos e métodos de aprendizagem de máquina para predizer a reincidência de CRC e a sobrevivência do paciente usando marcadores biológicos extraídos de redesceRNAsde câncer de cólon, de reto e na junção retossigmoide, combinados com características clínicas.

    Nesta tese, na primeira etapa, propusemos um pipeline utilizando dados de livre acesso de pacientes com CRC, extraídos do banco de dados The Cancer Genome Atlas (TCGA), para construir redes ceRNAs específicas para o CRC e marcadores biológicos que afetam o prognóstico do paciente. Nosso objetivo foi o de realizar uma análise para identificar moléculas que possam ser usadas como marcadores biológicos para os três sítios anatômicos do CRC, cólon, reto e junção retossigmoide. Para construir tais redes e propor os marcadores biológicos, a expressão de RNA e os dados clínicos dos pacientes com CRC foram coletados. Os perfis de expressão de RNA foram produzidos por meio de ferramentas de análise que utilizam técnicas de bioinformática. Em seguida, encontramos redes ceRNA específicas para cada campo anatômico, para as quais, como dados de saída, obtivemos as redes ceRNA e as moléculas nelas presentes. Após essa etapa, foi realizada uma análise funcional, onde identificamos potenciais vias metabólicas relacionadas ao surgimento de câncer, as quais têm participação das moléculas obtidas na etapa anterior. Finalmente, uma análise de sobrevida global para identificar o impacto dessas moléculas no prognóstico do paciente foi realizada, resultando em uma lista de potenciais marcadores biológicos.

    Nessa etapa, ficaram evidenciados diversos potenciais biomarcadores que afetam o prognóstico do paciente em câncer de cólon, de reto e na junção retossigmoide. Além disso, redes ceRNA específicas para cada campo anatômico foram construídas, e foram identificadas diferentes vias biológicas que destacam diferenças no comportamento do CRC nos diferentes campos anatômicos, reforçando assim, a importância de identificar
    corretamente o campo anatômico em que o tumor ocorre. Como resultados, geramos um grupo de potenciais biomarcadores biológicos que afetam o prognóstico do CRC, em particular, podemos destacar: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16 e hsa-miR-495-3p para câncer de cólon; E2F8para câncer retal; e DMD e  hsa-miR-130b-3p para câncer na junção retossigmoide.

    Com a lista de potenciais marcadores biológicos que podem afetar no prognóstico de CRC, prosseguimos para a segunda etapa desta tese, em que propusemos um pipeline para prever a reinicindiva do CRC e a sobrevida dos pacientes, utilizando métodos de aprendizagem de máquina supervisionados. Fatores clínicos, como idade e peso, assim como fatores biológicos, podem afetar o prognóstico e o surgimento do CRC. Para melhor entender os mecanismos do CRC e identificar o impacto, tanto dos fatores clínicos, quanto dos fatores biológicos em seu prognóstico, usamos as características clínicas do paciente combinadas com os marcadores biológicos encontrados no passo anterior, como características biológicas, para treinar nossos modelos. Para alcançar um maior desempenho na predição e na possibilidade de interpretação dos resultados propostos, avaliamos e comparamos os seguintes algoritmos de aprendizagem de máquina: Random Forest - RF, Logistic Regression - LR, Support Vector Machine - SVM, K-Nearest Neighbors - KNN, Decision Tree - DT e Adaptative Boosting - AB. Para encontrar a importância de cada característica durante a construção dos modelos de predição, primeiro foi realizada uma análise de seleção de características, para filtrar e classificar quais dessas características de fato tinham impacto no modelo de predição construído. Com essas características biológicas e clínicas relevantes selecionadas, construímos os modelos de aprendizagem de máquina e avaliamos seu desempenho. Finalmente, como resultado, geramos modelos de aprendizagem de máquina para prever a reincidência do CRC e a sobrevivência do paciente, e uma lista de potenciais características biológicas e clínicas relevantes para o prognóstico do paciente.


    Nesta etapa, identificamos diversos potenciais marcadores biológicos e clínicos como importantes na reincindiva do CRC e na sobrevida do paciente. Quanto à importância das características, identificamos: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p e KCNQ1OT1 como características biológicas; e idade, etnia, estágio patológico, quimioterapia, altura e peso, contagem positiva de linfonodos e contagem de linfonodos como características clínicas. Finalmente, usando LR e RF, alcançamos uma precisão de 90% e 82% para predição da sobrevivência do paciente e da reincidiva do CRC, respectivamente. Além disso, o uso dos seis algoritmos de apredizagem de máquina propostos mostrou um bom desempenho geral, em específico, o RF apresentou bons resultados, o que também foi destacado em outros estudos [9, 10, 11].

    Por fim, a pesquisa desenvolvida nesta tese mostrou que o uso de técnicas de bioinformática em conjunto com o uso de algoritmos de aprendizagem de máquina pode melhorar a interpretação dos mecanismos presentes no CRC. No entanto, devemos destacar alguns fatores limitantes com os quais nos deparamos, como a quantidade de dados disponíveis para pacientes com câncer de junção rectosigmoide e a especificidade regional dos dados clínicos dos pacientes, visto que o banco de dados utilizado continha informações principalmente de pacientes dos Estados Unidos. Perspectivas de uso dos métodos desenvolvidos nesta tese são, primeiro, os pipelines propostos poderiam fornecer aos médicos um entendimento melhor dos mecanismos subjacentes ao CRC em seus diferentes campos anatômicos. Além disso, nossos modelos poderiam ser usados para auxiliar na predição de prognóstico do paciente. Por fim, executar esses pipelines com dados de pacientes brasileiros poderia ajudar os médicos a entender melhor as características específicas no surgimento do CRC e prognóstico dos pacientes que vivem nas diferentes regiões do Brasil.


  • Mostrar Abstract
  • Colorectal cancer (CRC) is one of the most frequent and lethal types of cancer around the world, being the second most frequent cancer in Brazil [1]. CRC is a heterogenous cancer that settles in the lower part of the large bowel and can be classified according to its anatomical site as:colon, rectum, and rectosigmoid junction cancer. The most common type of CRC is the adenocarcinoma, which accounts for 90% of the cases. Most of CRC deaths are related to its metastases, and if early detected, it improves considerably the patient survival chances. This disease can be impacted by many environmental aspects such as: eating habits, age, and weight. Its treatment can also differ according to its anatomical site and its recommended treatment, usually, first surgery and then chemotherapy. An inaccurate identification of the CRC anatomical site can lead to under or overtreatment, which can impact the patient’s likelihood of mortality. In order to help CRC prognosis, prevention, and treatment, it is crucial to understand the molecular mechanisms and external factors that affect CRC development and progression. 

    Regarding the biological aspects of CRC, we can describe the impact of coding and non-coding RNAs on the disease’s underlying mechanisms. In specific, we can highlight three molecules: long non-coding RNAs (lncRNAs), micro RNAs (miRNAs), and messenger RNAs (mRNAs). In eukaryotes, the mature mRNAs are formed after the pre-mRNA generated from the transcription undergoes a process known as splicing, which removes some regions (introns) of the pre-mRNA, while binding others (exons), thus forming the mature mRNA. The splicing process can generate more than one protein from a single gene in a process known as alternative splicing. The generated proteins then are used to regulate the organism’s functions by being used in metabolic reactions and affecting many biological processes, such as disease development. 

    The miRNAs play an essential role in gene expression, more specifically, by binding to mRNAs and then starting the processes of inhibition or degradation of their target. On the other hand, the lncRNAs are not directly portrayed in this mRNA expression regulation process but play essential roles, such as altering other molecules’ functions and therefore affecting protein expression affecting disease development and suppression. Given the specific role of each described molecule in disease development, recent studies also highlighted the importance of a mechanism known as competing endogenous RNAs (ceRNAs) networks, in which lncRNAs, miRNAs, and mRNAs interact among themselves. In this mechanism, the miRNAs, in addition to their capability of binding to

    the mRNAs, can also bind to the ceRNAs, which then, act as modulators of miRNAs, therefore, indirectly regulating the mRNA expression. The identification of ceRNA networks related to CRC development and its underlying mechanisms can help doctors to understand better the disease and better identify the patient’s prognosis. In literature, we can find some studies that use bioinformatic approaches to analyze and create ceRNA networks and to indicate potential prognosis biomarkers for colon, rectal, and colorectal cancer in general [2, 3, 4, 5, 6, 7, 8].

    Although some studies were done with the ceRNAs networks constructions in mind, to the best of our  knowledge, our study was the first to establish specific ceRNA networks for: (i) colon; (ii) rectum; and (iii) rectosigmoid junction, and to relate them with specific biological mechanisms in order to clarify the differences and common factors between these sites.

    On the other hand, some studies suggest the use of machine learning methods using clinical features to predict CRC patient prognosis [9, 10, 11]. In specific, Gründner et al. [9] explored a method that combined biological and clinical features to predict prognosis aspects for CRC patients from South Africa. These studies showed promising results in predicting CRC patient’s prognosis, but to the best of our knowledge, our study was the
    first one that used open data and machine learning to predict CRC recurrence and patient survival by using biological markers extracted from the colon, rectal and rectosigmoid cancer ceRNA networks combined with clinical features.

    In this thesis, as the first step, we propose a pipeline by using open-access data from patients with CRC extracted from The Cancer Genome Atlas (TCGA) to construct CRC-specific ceRNA networks and potential biological markers that affect patient prognosis. We aim to perform an analysis to identify molecules that can be used as biological markers for the three CRC anatomical sites:colon, rectum, and rectosigmoid junction. To 
    construct these networks and propose the biological markers, RNA raw expression and clinical data from the CRC patients were collected.The RNA expression profiles were assessed by the use of bioinformatic analysis tools, and a ceRNA network was constructed for each CRC anatomical site, where as output we got the ceRNA networks and the molecules present on them. After, a functional enrichment analysis was performed, where we assessed the potential biological pathways activated by the molecules obtained in the previous step. Finally, an overall survival analysis to identify the impact of these molecules on patient prognosis was performed, giving as output a list of potential biological markers. 

    As an overall result of the first pipeline of this thesis, several potential prognostic markers for colon, rectum, and rectosigmoid junction cancer were found.Also, specific ceRNA networks for each anatomical site were constructed, and we identified different biological pathways that highlight differences in CRC behavior at the different anatomical sites, thus reinforcing the importance of correctly identifying the tumor site. As output, a group of potential biological markers involved in CRC prognosis was generated, in specific, we can highlight the site-specific prognosis biomarkers: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16, and hsa-miR-495-3p in the colon;E2F8in the rectum; and DMDand hsa-miR-130b-3p in the rectosigmoid junction.

    With the list of potential biological markers related to CRC prognosis, then we proceeded to the second part of this thesis, the proposal of a pipeline to predict CRC recurrence and patient survival using supervised machine learning (ML) methods. Clinical factors such as age and weight, as well as biological factors, can affect CRC progression and prognosis. To better understand the mechanisms of CRC and to identify the impact of both clinical and biological factors in its prognosis, we used patient clinical features combined with the previously found biological markers as biological features, to train our ML models.In order to achieve higher predictive performance and interpretability of the proposed findings, we evaluated and compared the following ML algorithms: Random Forest (RF), Logistic Regression (LR), Support Vector Machine (SVM), K-Nearest
    Neighbors (KNN), Decision Tree (DT) e Adaptative Boosting (AB). To establish the importance of each feature while building the models to predict CRC recurrence and patient survival, first, a feature extraction analysis was performed, to filter and rank which of these features in fact have an impact on the constructed prediction model. With the selected relevant biological and clinical features in hand, we then constructed the ML models and evaluated their performance. Finally, as output, we generated ML models to predict CRC recurrence and patient survival and a list of potential biological and clinical features relevant to patient prognosis.

    Regarding the overall result from the second pipeline, several potential biological and clinical markers were pointed out as important in CRC recurrence and patient survival. For feature importance, we pointed out: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p, and KCNQ1OT1 as biological features; and age, ethnicity, pathological stage, chemotherapy, height and weight, positive lymph node count and lymph node count as clinical features. Finally, by using LR and RF we achieved the best accuracy of 90% and 82% for predicting
    patient survival and CRC recurrence, respectively. Also, the use of the six proposed ML algorithms showed an overall good performance, in specific, LR and RF displayed good overall results, which was also highlighted in other studies [9, 10, 11].

    This study strongly suggests that the use of bioinformatic approaches should be concurrently used with ML algorithms to enhance the interpretation of CRC mechanisms and patient prognosis. However, we should highlight some limiting factors such as: the amount of available data, as the number of available patients for certain anatomical sites was low; and that the data mainly consisted of patients from the USA. Following the proposed pipelines, doctors can better understand the underlying mechanisms of CRC in its anatomical sites, and also use our model to help predict patient prognosis. Finally, running these pipelines in Brazilian patient data could lead to an increase in CRC data interpretation, especially in a circumstance where there is diversity and inequality in the country’s demographic landscape, which can affect CRC prognosis.

2
  • Willian de Oliveira Barreiros Júnior
  • Efficient Execution of Microscopy Image Analysis on Distributed Memory Hybrid Machines

  • Orientador : GEORGE LUIZ MEDEIROS TEODORO
  • MEMBROS DA BANCA :
  • GEORGE LUIZ MEDEIROS TEODORO
  • RICARDO PEZZUOL JACOBI
  • ALFREDO GOLDMAN VEL LEJBMAN
  • CRISTIANA BARBOSA BENTES
  • RENATO ANTÔNIO CELSO FERREIRA
  • Data: 23/03/2023

  • Mostrar Resumo
  • A análise de imagens de whole slide tissue image (WSIs) é uma tarefa computacionalmente cara, impactando negativamente no uso de dados de patologia em imagens em larga es- cala para pesquisa. Diversas soluções paralelas para otimizar tais aplicações já foram propostas, mirando no uso de dispositivos e ambientes, como CPUs, GPUs e/ou sistemas distribuídos. Porém, a execução eficiente de de código paralelo em máquinas híbridas e/ou distribuídas permanece um problema em aberto para histopatologia digital. Desen- volvedores de aplicações podem precisar implementar múltiplas versões de código para diferentes dispositivos de hardware. Desenvolvedores também precisam lidar com os de- safios de distribuição eficiente de carga para nós computacionais de máquinas de memória distribuída, assim como para os dispositivos de execução de cada nó. Essa tarefa pode ser particularmente difícil para analises de imagens de alta resolução com custo computacional dependente de conteúdo. Esta tese tem como objetivo propor uma solução para a simpli- ficação do desenvolvimento de aplicações de análise de WSI, assegurando o uso eficiente de recursos distribuídos híbridos (CPU-GPU). Para esse fim foi proposto um modelo de execução de alto nível de abstração, em conjunto com um método de particionamento au- tomático de carga. A fim de validar os métodos e algoritmos propostos, uma linguagem de processamento de imagem de alto nível de abstração (Halide) foi utilizada como solução de paralelismo local (CPU/GPU), junto com o Region Templates (RT), um sistema de gestão de coordenação de dados e tarefas entre nós distribuídos. Também foi desenvolvida uma nova estratégia cost-aware de particionamento de dados (CADP) que considera a ir- regularidade de custo de tarefas a fim de minimizar o desbalanceamento de carga. Para tal, dois algoritmos de particionamento foram propostos, o Expected Cost Bisection e o Background Removal Bisection. Resultados experimentais mostram melhorias significa- tivas na performance de execução com recursos híbridos CPU-GPU, comparada com o uso de recursos homogêneos (CPU ou GPU apenas). Os algorithmos de particionamento foram comparados com uma abordagem baseline hierarquica usando KD-Trees (KDT), em ambientes multi-GPU, multi-GPU híbrido e distribuído de larga escala. Os resultados mostraram ganhos de até 2.72× para o ECB e de 4.52× para o BRB, ambos em com- paração ao KDT. Em adição ao modelo simplificado de desenvolvimento de workflows por experts de domínio, a performance vista em ambos ambientes híbridos e de larga escala demonstra a eficácia do sistema proposto para uso em estudos WSI de larga escala. Am- bas melhorias na performance dos algoritmos do CADP como no modelo de estimação de custo de execução são esperadas como trabalhos futuros para o sistema aqui proposto.


  • Mostrar Abstract
  • The analysis of high resolution whole slide tissue images (WSIs) is a computationally expensive task, which cost adversely impacts large scale usage of pathology imaging data in research. Parallel solutions to optimize such applications have been proposed target- ing multiple devices and environments, such as CPUs, GPUs, hybrid compute nodes and distributed systems. However, the generalization of efficiently executing parallel code on hybrid and/or distributed machines remains an open challenge for digital histopathol- ogy. An application developer may have to implement multiple versions of data pro- cessing codes targeted for different compute devices. The developer also has to tackle the challenges of efficiently distributing computational load among the nodes of a dis- tributed memory machine and among computing devices within a node. This can be particularly difficult for analysis of high-resolution images with content-dependent com- puting costs. This thesis aims to provide a solution for simplifying the development of WSI analysis workflows while also enabling efficient use of distributed and hybrid (CPU- GPU) resources. For this end, a high-level execution model, coupled with an automatic workload partitioning method was proposed. In order to validate the proposed meth- ods and algorithms, a high-level image processing language (Halide) was used as a local resource (CPU/GPU) parallel solution, together with Region Templates (RT), a system for managing data/tasks coordination among distributed nodes. A novel cost-aware data partitioning strategy that considers the workload irregularity to minimize load imbalance was also developed. For it, two partitioning algorithm were proposed, the Expected Cost Bisection (ECB) and the Background Removal Bisection (BRB). Experimental results show significant performance improvements on hybrid CPU-GPU machines, as compared with using a single compute device (CPU or GPU), as well as with multi-GPU systems. The partitioning algorithms were compared with a baseline hierarchical KD-Tree (KDT) approach, on multi-GPU-only, hybrid CPU-GPU and large-scale distributed CPU nodes environments. Results show speedups of up to 2.72× for ECB and 4.52× for BRB, both compared to KDT. In addition to the simpler development model for domain experts, the attained performance for both hybrid and large-scale distributed computing environ- ments demonstrates the efficacy of the proposed system for large-scale WSI studies. Both improvements on the CADP algorithms performance and the accuracy of the execution cost estimation model are expected as future works for the proposed system.

3
  • Liriam Michi Enamoto
  • GeMGF - Generic Multimodal Gradient-Based Meta Framework

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • LUIS PAULO FAINA GARCIA
  • JO UEYAMA
  • PAULO CESAR GUERREIRO DA COSTA
  • Data: 13/04/2023

  • Mostrar Resumo
  • O surgimento do Transformer, um modelo pré-treinado utilizando dados em larga escala, e as suas recentes novas versões têm revolucionado pesquisas de Machine Learning em linguagem de processamento natural e visão computacional. Os excelentes resultados obtidos pelos modelos baseados em Transformer dependem de dados rotulados de alta- qualidade de um domínio específico. No entando, devido à diversidade de situações em que esses modelos são utilizados, é desafiador criar modelos que aprendam a partir de um conjunto limitado de dados. O modelo pode apresentar falta de generalização, vieses de linguagem e falta de imparcialidade causados pelos modelos pré-trainados acarretando em resultados inesperados em aplicações do mundo real. Este problema não resolvido nos leva à pesquisa sobre Multimodal Few-Shot Learning.

    Nesta tese, propomos o Generic Multimodal Gradient-Based Meta Framework (GeMGF). Para compensar a falta de dados, utilizamos dados multimodais em que informações su- plementares e complementares de uma modalidade podem auxiliar na representação dos dados. Os dados multimodais são extraídos utilizando modelos de deep leaning e en- tão representados em um espaço vetorial unificado. O framework utiliza o Prototypical Network e o Relation Network para o aprendizado com poucos dados. O Reptile, um meta- aprendizado basado em otimização, auxilia a evitar a degradação do modelo com dados nunca vistos. Adicionalmente ao framework multimodal, propomos a versão unimodal para avaliar a sua flexibilidade e adaptabilidade em diferentes cenários.

    O framework foi validado por meio de dez conjuntos de dados de diversas áreas: textos curtos do Twitter, textos longos da área jurídica, textos com caracteres alfabéticos (inglês e português) e não-alfabéticos (japonês), imagens da área médica e dados multimodais. O framework multimodal superou em 1,43% o modelo estado-da-arte de Munjal et al. [1] com o dataset CUB-200-2011, e superou em 1,93% o modelo de Pahde et al. [2] com o dataset Oxford-102. O resultado do framework multimodal foi 34,68% superior ao frame- work unimodal para imagem com CUB-200-2011, e 13,96% superior com Oxford-102. Os resultados sugerem que a combinação de dados textuais e imagens podem auxiliar no aprendizado e na melhoria da performance do framework como um todo. GeMGF multi- modal é um framework simples e compacto que utiliza somente 14 milhões de parâmetros, uma quantidade 99,8% menor que o Multimodal Transformer. O framework unimodal para texto alcançou resultados excelentes com dados textuais em japonês, superando o modelo Transformer BERT em 58,30% com 90,90% menos parâmetros. Os resultados sugerem que o framework obteve melhor performance com uma redução significativa no consumo de recurso computational.

    As principais contribuições desta pesquisa são: (i) um novo framework FSL multi- modal — GeMGF — que reduz a degradação do modelo quando trainado com poucos dados; (ii) GeMGF é treinado sem utilizar o conhecimento externo evitando vieses de lin- guagem e a falta de imparcialidade; (iii) GeMGF possui extratores de dados multimodais independentes e flexíveis que podem contribuir para aumentar a sua aplicabilidade; e (iv) o framework unimodal para texto pode ser adaptado para idiomas alfabéticos e não- alfabéticos com ótimos resultados.


  • Mostrar Abstract
  • The emergence of Transformer — a model pre-trained over a large-scale dataset — and the recent new versions have revolutionized research in Machine Learning, especially in Natural Language Processing (NLP) and Computer Vision. The excellent results of Tranformer-based models depend on labeled and high-quality domain specific data. How- ever, due to the diversity of contexts in which these models are used, it is challenging to create models that learn from limited data. The model may suffer from a lack of gener- alization, language bias, and fairness issues caused by large pre-trained models, resulting in unexpected outcomes in real-world applications. This open problem leads to research in multimodal Few-Shot Learning (FSL).

    In this thesis, we propose the Generic Multimodal Gradient-Based Meta Framework (GeMGF). To compensate for the scarcity of data, we use multimodal data in which supplementary and complementary information of one modality can help the data repre- sentation. The multimodal data are extracted using deep learning models and represented in a unified vector space. The framework uses the Prototypical Network and Relation Net- work in the FSL. The Reptile — an optimization-based meta-learner — helps the model avoid model degradation with unseen data. In addition to the multimodal framework, we propose the unimodal version to evaluate the flexibility and adaptability of the framework in different scenarios.

    The framework was evaluated using ten datasets from various domains and charac- teristics, including short texts from Twitter, legal domain long text, text with alphabetic (English and Portuguese) and non-alphabetic (Japanese) languages, medical domain im- ages, and multimodal benchmark datasets. Our multimodal framework was evaluated using CUB-200-2011 and Oxford-102 datasets, outperforming the state-of-the-art model of Munjal et al. [1] by 1.43% with CUB-200-2011 and Pahde et al. [2] by 1.93% with Oxford-102. The result of the multimodal framework with CUB-200-2011 was 34.68% higher than the unimodal framework for image and 13.96% higher with Oxford-102. The results suggest that text and image data jointly helped the framework learn rich informa- tion and improve overall performance. The multimodal GeMGF is a simple and compact framework using only 14 million parameters, 99.8% less than the Multimodal Trans former. The unimodal framework for text achieved excellent results with the Japanese dataset, outperforming Transformer BERT by 58.30% with 90.90% fewer parameters. These results suggest that our framework achieved better performance with a significant computational cost reduction.

    The main contributions of our research are: (i) a novel multimodal FSL framework, GeMGF is developed to reduce the model degradation trained over a few data; (ii) GeMGF is trained without external knowledge avoiding language bias and fairness issues; (iii) GeMGF has independent and flexible feature extractors that enhance its applicability; and (iv) the unimodal framework for text can be adapted to process alphabetic and non- alphabetic languages with high performance.

4
  • Lucas Borges Monteiro
  • Detecção e Resolução de Conflitos em ATM utilizando modelagens de trajetórias 4D baseadas em Banco de Dados NoSQL e Algoritmos de Busca

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • VINICIUS RUELA PEREIRA BORGES
  • CLAUDIO BARBIERI DA CUNHA
  • ZHAO LIANG
  • Data: 26/05/2023

  • Mostrar Resumo
  • O progresso da ciência e da tecnologia provocou um aumento na quantidade de dados produzidos em diversas áreas, inclusive no transporte aéreo. O correto tratamento desse grande volume de dados traz resultados importantes, pois pode tornar a tomada de decisão mais precisa. Nesse sentido, com foco no novo paradigma de Operações Baseadas em Trajetórias (TBO) do Gerenciamento de Tráfego Aéreo (ATM), este trabalho apresenta dois modelos de detecção e resolução de conflitos (CDR). O primeiro é baseado em banco de dados NoSQL e algoritmos de busca. O segundo, chamado de 4 DNavMCTS, aplica os conceitos de Monte Carlo Tree Search (MCTS) e Modelo de Espaço Vetorial (MEV) para modelagem baseada em banco de dados NoSQL. Considerando o big data do transporte aéreo, nos testes realizados, os dois modelos foram capazes de realizar o CDR sob o paradigma da inteligência artificial (AI) para encontrar e resolver potenciais conflitos entre aeronaves e melhorar a segurança de voo com previsões razoáveis.

    Os principais objetivos alcançados com a pesquisa foram: i) aumentar da segurança do ATM; ii) processar grandes quantidades de dados gerados pelo tráfego regional e global na navegação 4D; iii) lidar com incertezas de fatores humanos e ambientais, como clima e temperatura; e iv) gerenciar trajetória objetivando garantir cenários livres de conflitos, evitando inclusive potenciais conflitos ocasionados pelo próprio modelo.


  • Mostrar Abstract
  • The progress of science and technology has greatly increased the amount of data produced in various fields, including air transportation. Correctly handling these massive data will bring important results, because it can make decision-making more accurate. In this sense, focusing on the new paradigm of Trajectory-Based Operations (TBO) of Air Traffic Management (ATM), this work presents two models for conflict detection and resolution (CDR). The first one is based on NoSQL database and search algorithms. The second one is called 4 DNavMCTS, which also applies the concepts of Monte Carlo Tree Search (MCTS) and Vector Space Model (VSM) to modeling based on a NoSQL database. Considering the big data of air transport, in the tests carried out, the two models were able to perform the CDR under the paradigm of artificial intelligence (AI) to find and resolve potential conflicts between aircraft and improve flight safety with reasonable predictions.
    The main objectives achieved with the research were:  i) increased security for the ATM; ii) Processing a large amount of data generated by regional and global traffic in four-dimensional navigation; iii) Dealing with uncertainties of human and environmental factors such as climate and temperature; And iv) trajectory management to ensure a conflict-free scenarios even if the model itself occasionally interferes.

5
  • Thiago Mendonça Ferreira Ramos
  • Verificação das propriedades computacionais de um modelo funcional de primeira-ordem.

  • Orientador : MAURICIO AYALA RINCON
  • MEMBROS DA BANCA :
  • DOMINIQUE LARCHEY-WENDLING
  • LAURA TITOLO
  • MAURICIO AYALA RINCON
  • NATARAJAN SHANKAR
  • VANDER RAMOS ALVES
  • Data: 15/06/2023

  • Mostrar Resumo
  • Este trabalho descreve a mecanização de propriedades computacionais de um modelo funcional que tem sido aplicado para automatizar o raciocínio sobre a terminação de programas. A formalização foi desenvolvida no assistente de provas de lógica de ordem superior, chamado Prototype Verification System (PVS). O modelo de linguagem foi projetado para imitar o fragmento de primeira ordem de especificações funcionais e é chamado PVS0. Foram considerados dois modelos computacionais: o primeiro modelo especifica um programa funcional por meio de uma única função (modelo single-function PVS0, ou SF-PVS0), e o segundo modelo permite a especificação simultânea de múltiplas funções (modelo multiple-function} PVS0, ou MF-PVS0). A semântica operacional da recursão na especificação do modelo SF-PVS0 suporta a recursão sobre o programa completo.

    Por outro lado, em programas MF-PVS0, as chamadas funcionais são permitidas para todas as funções especificadas no programa. Este trabalho tem como objetivo certificar matematicamente a robustez dos modelos PVS0 como modelos computacionais universais. Para isso, propriedades cruciais e teoremas foram formalizados, incluindo Turing Completude, a indecidibilidade do Problema da Parada, o teorema da recursão, o teorema de Rice e o teorema do Ponto Fixo. Além disso, o trabalho discute avanços na indecidibilidade do Problema da Palavra e do Problema da Correspondência de Post.

    A indecidibilidade do Problema da Parada foi formalizada considerando a avaliação semântica de programas PVS0 que foram aplicados na verificação da terminação de especificações em PVS. A equivalência entre a avaliação funcional e predicativa de operadores foi fundamental para esse objetivo. Além disso, a composicionalidade de programas MF-PVS0, habilitada diretamente pela possibilidade de chamar diferentes funções, torna fácil a formalização da Turing Completude. Portanto, enriquecer o modelo foi uma decisão de design importante para simplificar a mecanização dessa propriedade e dos teoremas mencionados acima.


  • Mostrar Abstract
  • This work describes the mechanization of the computational properties of a functional-language model that has been applied to reasoning about the automation of program termination. The formalization was developed using the higher-order proof assistant Prototype Verification System (PVS). The language model was designed to mimic the first-order fragment of PVS functional specifications and is called PV0. Two different computational models are considered: the first model specifies functional programs through a unique function (single-function PVS0 model, or SF-PVS0), and the second model allows simultaneous specification of multiple functions (multiple-function PVS0 model, or MF-PVS0). The operational semantics of recursion in single-function PVS0 specification supports recursion over the whole program.

    In contrast, in multiple-function PVS0 programs,  functional calls are allowed to all functions specified in the program. This work aims to mathematically certify the robustness of the PVS0 models as universal computational models. For doing that, crucial properties and theorems were formalized, including Turing Completeness, the undecidability of the Halting Problem,  the Recursion Theorem, Rice's Theorem, and the Fixed Point Theorem. Furthermore,  the work discusses advances in the undecidability of the Word Problem and the Post Correspondence Problem.

    The undecidability of the Halting Problem was formalized considering properties of the semantic evaluation of PVS0 programs that were applied in verifying the termination of PVS specifications. The equivalence between predicative and functional evaluation operators was vital to this aim. Furthermore, the compositionality of multiple-function PVS0 programs, straightforwardly enabled by the possibility of calling different functions, makes it easy formalization of properties as Turing Completeness. Therefore, enriching the model was an important design decision to simplify the mechanization of this property and the theorems mentioned above.

6
  • Aurélio Ribeiro Costa
  • Adaptive Model to Community Detection in Dynamic Social Networks
  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • RICARDO PEZZUOL JACOBI
  • DANIEL RATTON FIGUEIREDO
  • FRANCISCO APARECEIDO RODRIGUES
  • Data: 16/06/2023

  • Mostrar Resumo
  • Um problema vital abordado na análise de rede é a identificação da estrutura de comunidade. No entanto, o uso atual de técnicas de análise de redes concentra-se em analisar estruturas de comunidades estáticas, o que gera uma lacuna em não considerar os aspectos dinâmicos. Algumas soluções para o problema de detecção de comunidades adaptadas à dinamicidade das redes apresentam limitações no desempenho, e outras não se enquadram em tais contextos. Essa situação é agravada quando se considera a demanda por analisar redes sociais em constante crescimento. Esta pesquisa visa preencher a lacuna dos aspectos dinâmicos com foco na mudança de topologia da rede social ao longo do tempo, aplicando a metodologia de aprendizado por reforço profundo como uma solução alternativa para o problema de detecção de comunidades. Propomos um modelo adaptativo para maximizar a densidade de modularidade local de uma estrutura de comunidade. O modelo inclui uma arquitetura baseada em aprendizado por reforço com ator-crítico e rede neural em grafo para lidar com aspectos de mudança em redes sociais dinâmicas. Experimentos realizados usando a arquitetura proposta com conjuntos de dados sintéticos e de mundo real de redes sociais mostram precisão comparável às soluções do estado da arte. Embora os resultados indiquem que a arquitetura lida bem com redes sociais dinâmicas, uma investigação mais profunda faz-se necessário para melhorar o modelo no tocante ao desempenho computacional.


  • Mostrar Abstract
  • A vital problem tackled in network analysis is community structure identification. However, the current use of network analysis techniques concentrates on analyzing static community structures, which generates a gap in not considering the dynamic aspects. Some solutions for the community detection problem adapted to the dynamicity of the networks present limitations on the resulting performance, and others do not fit such contexts. This situation aggravates when considering the demand to analyze constantly growing social networks. This research aims to fulfill this gap by focusing on the topology change along a time frame and applying deep reinforcement learning methodology as an alternative solution to the problem of community detection on dynamic social networks. We propose an adaptive model to maximize the local modularity density of a community structure. Our model includes actor-critic reinforcement learning-based architecture with a graph neural network to cope with changing aspects of large social networks. Experiments conducted using the proposed architecture with synthetic and real-world dynamic social network datasets show accuracy comparable to the state-of-art solutions. Although the results indicate that the architecture copes well with dynamic real-world social networks, further investigation is necessary to improve the architecture with computational performance aspects.

7
  • Leonardo Henrique Moreira
  • Recovery Strategies for Multi-agent Planning in Dynamic Environments

  • Orientador : CELIA GHEDINI RALHA
  • MEMBROS DA BANCA :
  • ANTONÍN KOMENDA
  • CELIA GHEDINI RALHA
  • EDISON PIGNATON DE FREITAS
  • GENAINA NUNES RODRIGUES
  • LI WEIGANG
  • Data: 30/06/2023

  • Mostrar Resumo
  • Em resumo, o objetivo desta tese é apresentar e avaliar um modelo de MAP aplicável a ambientes dinâmicos que a combine a estratégia de replanejamento e de reparo em um modelo MAP. Paralelamente, cabe destacar algumas contribuições para a área de pesquisa em MAP. Em primeiro lugar, ressalta-se um método para comparar o desempenho das estratégias de recuperação de planos em diferentes cenários, considerando tanto o planejamento centralizado quanto o distribuído com níveis variados de acoplamento. Ademais, a revisão da literatura realizada nesta tese traz outra contribuição significativa ao fornecer uma visão abrangente da área de pesquisa do MAP. Ao examinar uma ampla gama de trabalhos acadêmicos, a revisão identificou autores e organizações que fizeram contribuições substanciais para o campo, bem como os documentos mais citados.


  • Mostrar Abstract
  • This thesis explores Multi-Agent Planning (MAP) and its application in dynamic environments. MAP combines artificial intelligence planning with multi-agent systems to coordinate intelligent agents achieving individual or group goals. Planning in dynamic environments introduces challenges in coordination and execution due to non-deterministic outcomes. Plan recovery strategies, like replanning and repairing, aim to handle failures and restore desired conditions. A comprehensive literature review highlighted key contributors and institutions in the MAP research offering insights into concepts, techniques,
    and open challenges. However, the combination of different recovery strategies for MAP models is a research challenge not yet accomplished in the present literature. In this thesis, we address this challenge by proposing an evaluation method for recovery strategies in dynamic environments, combining replanning and repairing. This approach considers planning complexity, coordination allied to execution issues, and agents attempting local repairs before seeking other agents’ assistance. The main objective and results aim to contribute to the MAP field by evaluating the combination of replanning and repairing in planning solution models for dynamic environments.

8
  • Leia Sousa de Sousa
  • Redes Ópticas Metropolitanas: Arquiteturas e Engenharia de Tráfego
  • Orientador : ANDRE COSTA DRUMMOND
  • MEMBROS DA BANCA :
  • ANDRE CASTELO BRANCO SOARES
  • ANDRE COSTA DRUMMOND
  • EDUARDO ADILIO PELINSON ALCHIERI
  • GUSTAVO BITTENCOURT FIGUEIREDO
  • JACIR LUIZ BORDIM
  • Data: 24/08/2023

  • Mostrar Resumo
  • Redes ópticas metropolitanas (do inglês Metropolitan Optical Networks – MONs) são redes de comunicação de alta velocidade que interconectam diferentes locais em uma área metropolitana. Diferentes tipos de aplicações são oferecidas aos clientes através das MONs, desde aplicações de computação em nuvem, cada vez mais próximas do usuários finais, até os recentes serviços de Internet das Coisas. Essas aplicações estão gerando demandas crescentes de clientes empresariais e privados por serviços de largura de banda escaláveis, flexíveis, transparentes, com velocidade de terabit e personalizados.
    As MONs utilizam tecnologia de fibra óptica para transmitir dados em altas velocidades e a partir de qualquer ponto da sua infraestrutura. Diferentemente das redes ópticas de núcleo, as MONs apresentam grande variedade de granularidade de serviços, com arquiteturas e perfis de tráfego heterogêneos e desbalanceada distribuição dos fluxos de tráfego ao longo dos seus nós. Devido a isso, as MONs devem ser tratadas de maneira diferente.
    Para os provedores de rede, é de grande importância determinar as regiões existentes, tais como as áreas residenciais e áreas de negócios, de modo que se possa analisar o comportamento do tráfego local, propondo intervenções na infraestrutura nos pontos críticos da rede.  Atualmente, as MONs estão passando por grandes transformações que incluem a adoção de uma variedade de taxas de transmissão, subdivisão em vários níveis hierárquicos e atribuição de novos papéis aos variados nós. Este trabalho apresenta um levantamento sobre as novas arquiteturas MONs propostas, tanto mono quanto multicamadas.
    Além disso, são discutidas soluções de engenharia de tráfego para MONs baseadas em Redes Ópticas Elástica (do inglês Elastic Optical Networks - EONs), denominadas MEONs, analisando soluções cientes da área que resultam em menor bloqueio de largura da banda (Bandwidth Blocking Ratio - BBR) nas redes. Além da métrica de BBR geral, este trabalho considera o BBR por área e BBR por cluster de área, que são métricas ainda não identificadas na literatura científica atual. As soluções propostas alcançam o dobro de melhorias em comparação com outras soluções cientes da literatura, em termos de bloqueio de largura de banda.

  • Mostrar Abstract
  • Metropolitan Optical Networks (MONs) are high-speed communication networks that interconnect different locations in a metropolitan area. Different types of applications are offered to customers through MONs, from cloud computing applications, increasingly closer to the end user, to the recent Internet of Things services. These applications are driving increasing demands from enterprise and private customers for scalable, flexible, transparent, terabit-speed, and personalized bandwidth services.
    MONs use fiber optic technology to transmit data at high speeds and from any point in your infrastructure. Unlike core optical networks, MONs have a wide variety of service granularity, with heterogeneous architectures and traffic profiles and an unbalanced distribution of traffic flows along their nodes. Because of this, MONs must be handled differently.
    For network providers, it is of great importance to determine the existing regions, such as residential areas and business areas, so that the behavior of local traffic can be analyzed, proposing interventions in the infrastructure at the critical points of the network. Currently, MONs are undergoing major transformations that include the adoption of a variety of transmission rates, subdivision into several hierarchical levels, and assignment of new roles to the various nodes. This work presents a survey of the proposed new MONs architectures, both single and multi-layered.
    In addition, traffic engineering solutions for MONs based in Elastic Optical Networks (EONs), called MEONs, are discussed, analyzing area-aware solutions that result in lower Bandwidth Blocking Rate (BBR) on networks. In addition to the general BBR metric, this work considers BBR by area and BBR by cluster, which are metrics not yet identified in the current scientific literature. The proposed solutions achieve twice the improvements compared to other aware solutions in the literature in terms of blocking bandwidth.
9
  • Lucas dos Santos Althoff
  • Impact of Alignment Edits on the User Experience of 360-degree Videos.

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CELIA GHEDINI RALHA
  • RUDINEI GOULARTE
  • DEBORA CHRISTINA MUCHALUAT SAADE
  • Data: 20/12/2023

  • Mostrar Resumo
  • Experimentos subjetivos fornecem dados para construir soluções adequadas e são essenci-
    ais para o desenvolvimento e aprimoramento de sistemas e aplicativos multimídia. Partic-
    ularmente importante, a avaliação subjetiva da qualidade visual auxilia pesquisadores ao
    estabelecerem referências as soluções de compressão e transmissão de sinais. No entanto,
    o nível de confiabilidade de tais experimentos pode variar dependendo do tipo de mídia.
    Esta dissertação examina os fatores de qualidade para um formato específico utilizados
    em mídias imersivas, os vídeos 360. Em comparação aos vídeos convencionais, ao assistir
    vídeos 360o usuário possui maior controle do conteúdo. Assim, a qualidade sad visual
    convencional não é suficiente para descrever o estímulo, que por sua vez se estende ao
    conceito de qualidade da experiência (QoE). A otimização do QoE enfrenta dois grandes
    obstáculos: previsão imprecisa da janela de visualização e espectadores perdendo o enredo
    de uma história. As edições de alinhamento surgiram como um mecanismo promissor para
    evitar os dois problemas ao mesmo tempo. Essas “edições de redirecionamento” agem no
    conteúdo em tempo real, alinhando a janela de visualização do usuário com uma região
    de interesse no conteúdo do vídeo. Nesta dissertação, investigamos os efeitos das edições
    de alinhamento na QoE do usuário realizando dois experimentos subjetivos, onde intro-
    duzimos edições de alinhamento gradual nos vídeos, inspiradas em uma técnica de jogo de
    RV. Os resultados confirmaram que o alinhamento gradual proposto atinge um nível de
    conforto e presença semelhante ao das edições instantâneas. Além disso, todas as edições
    de alinhamento testadas reduziram a velocidade do cabeçote após a edição, confirmando
    a utilidade dessas edições para streaming de vídeo sob demanda. Além disso, observamos
    que as edições graduais propostas podem atingir uma redução na velocidade do cabeçote
    de 8% maior em comparação com as técnicas de alinhamento instantâneo


  • Mostrar Abstract
  • When watching 360videos, the user has higher content control interactivity, and , thus,
    the conventional visual quality is not enough to describe stimulus, that in turn extends to
    the concept of quality of experience (QoE). This dissertation examines quality factors of
    today‘s most popular immersive media format, the 360videos. Particularly important,
    the subjective assessment of quality of experience. Subjective experiments provide data
    to build adequate solutions and are essential to developing and improving multimedia
    systems and applications. The visual quality assessment support researchers to establish
    baselines for coding, and streaming applications.However, the reliability level of the
    measurement of quality in subjective experiments can vary depending on the type of me-
    dia. The optimization of QoE faces two major roadblocks: inaccurate viewport prediction
    and viewers missing the plot of a story.Alignment edits have emerged as a promising
    mechanism to avoid both issues at once. These “re-targeting edits” act on the content in
    real-time, aligning the user’s viewport with a region of interest in the video content. In
    this dissertation, we investigate the effects of alignment edits on user QoE by conducting
    two subjective experiments, where we introduce gradual alignment editions in the videos,
    inspired by a VR gaming technique.The results confirmed that the proposed gradual
    alignment achieves a level of comfort and presence similar to that of instant editions.
    Moreover, all alignment edits tested reduced the head speed after the edit, confirming
    the usefulness of these edits for streaming video on-demand. Furthermore, we observed
    that the proposed gradual editions can achieve a reduction in head speed of 8% greater
    compared to the instant alignment techniques.

2022
Dissertações
1
  • MARCOS PAULO CAYRES ROSA
  • Ajuste Dinâmico de Dificuldade pelo desempenho e perfil de jogador em jogo de plataforma

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • RICARDO PEZZUOL JACOBI
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • TIAGO BARROS PONTES E SILVA
  • ESTEBAN WALTER GONZALEZ CLUA
  • Data: 29/07/2022

  • Mostrar Resumo
  • O Ajuste Dinâmico de Dificuldade (ADD) dos jogos pode desempenhar um papel impor- tante para aumentar o envolvimento e a diversão do jogador. A dificuldade de jogo pode ser adaptada de acordo com o desempenho do jogador, seu estado afetivo ou usando um modelo híbrido que combina as duas abordagens. Ademais, pode adaptar configurações ou componentes do jogo e utilizar métricas pré-estabelecidas ou aprendizado de máquina para análise do que será adaptado. Este trabalho investiga os distintos mecanismos de um sistema de ADD para um jogo de plataforma adaptar adequadamente seu nível de dificul- dade e manter o jogador em um estado de fluxo. Este trabalho contribui com a definição de um método que estima a dificuldade do jogo a partir de características específicas de componentes comuns ao gênero de plataforma. Também são revisadas métricas para medição do estado do fluxo e do perfil do jogador e propostas regras para criação de níveis ao testar modelos de ADD. O ajuste proposto varia o tamanho da plataforma e a altura do salto, comparando distintas abordagens a partir de sistemas do jogo e verificando a eficiência de cada uma em relação ao monitoramento e análise dos dados e ao controle da adaptação dos componentes. Um jogo de plataforma de código aberto foi adaptado para suportar os algoritmos de ADD e para execução de testes com grupos de amostra, nos quais os participantes respondiam a questionários e tiveram seus dados coletados para fins de investigação. Os resultados indicaram que a dificuldade de jogos de plataforma pode ser estimada pelos componentes dos níveis, incluindo correlação entre a dificuldade e os dados de desempenho dos jogadores. Além disso, perfis de jogadores foram previstos a partir de dados brutos da sessão do jogo e utilizados com métodos de aprendizado de máquina para definir a progressão de dificuldade. Por fim, os modelos de ADD foram capazes de ajustar a dificuldade do jogo aos jogadores, diminuindo a dispersão entre os dados de desempenho e mantendo o jogador em estado de fluxo, especialmente ao utilizar redes neurais diretas para predição da dificuldade experienciada e do perfil do jogador.


  • Mostrar Abstract
  • The Dynamic Difficulty Adjustment (DDA) of games can play an important role in in- creasing the player engagement and fun. Gameplay difficulty can be adapted according to the player’s performance, its affective state or by using a hybrid model that com- bines both approaches. In addition, you can adapt game settings or components and use pre-established metrics or machine learning to analyze what will be adapted. This work investigates the different mechanisms of an DDA system for a platform game to adequately adapt its difficulty level and keep the player in a state of flow. This work contributes with the definition of a method that estimates the game’s difficulty based on specific characteristics of components common to the platform genre. Metrics for measur- ing the flow state and player profile are also reviewed, and rules for creating levels when testing ADD models are proposed. The proposed adjustment varies the size of the plat- form and the height of the jump, comparing different approaches from the game systems and verifying the efficiency of each one in relation to the monitoring and analysis of the data and the control of the components adaptation. An open source platform game was adapted to support the ADD algorithms and to run tests with sample groups, in which participants answered questionnaires and had their data collected for research purposes. The results indicated that the difficulty of platform games can be estimated by the com- ponents of the levels, including correlation between the difficulty and player performance data. In addition, player profiles were predicted from raw game session data and used with machine learning methods to define difficulty progression. Finally, the DDA models were able to adjust the game difficulty to the players, decreasing the dispersion between the performance data and keeping the player in a state of flow, especially when using feedforward neural networks to predict the difficulty experienced and the player’s profile.

2
  • OSMAR LUIZ FERREIRA DE CARVALHO
  • Deep Learning & Remote Sensing: Pushing the Frontiers in Image Segmentation

  • Orientador : DIBIO LEANDRO BORGES
  • MEMBROS DA BANCA :
  • CELIA GHEDINI RALHA
  • DIBIO LEANDRO BORGES
  • ERALDO APARECIDO TRONDOLI MATRICARDI
  • YOSIO EDEMIR SHIMABUKURO
  • Data: 23/09/2022

  • Mostrar Resumo
  • Resumo
    A segmentação de imagens visa simplicar o entendimento de imagens digitais e métodos de
    aprendizado profundo usando redes neurais convolucionais permitem a exploração de diferentes
    tarefas (e.g., segmentação semântica, instância e panóptica). A segmentação semântica atribui
    uma classe a cada pixel em uma imagem, a segmentação de instância classica objetos a nível
    de pixel com um identicador exclusivo para cada alvo e a segmentação panóptica combina
    instâncias com diferentes planos de fundo. Os dados de sensoriamento remoto são muito ade-
    quados para desenvolver novos algoritmos. No entanto, algumas particularidades impedem que o
    sensoriamento remoto com imagens orbitais e aéreas cresça quando comparado às imagens tradi-
    cionais (e.g., fotos de celulares): (1) as imagens são muito extensas, (2) apresenta características
    diferentes (e.g., número de canais e formato de imagem), (3) um grande número de etapas de pré-
    processamento e pós-processamento (e.g., extração de quadros e classicação de cenas grandes) e (4) os softwares para rotulagem e treinamento de modelos não são compatíveis. Esta dissertação visa avançar nas três principais categorias de segmentação de imagens. Dentro do domínio de segmentação de instâncias, propusemos três experimentos.

    Primeiro, aprimoramos a abordagem
    de segmentação de instância baseada em caixa para classicar cenas grandes.Em segundo
    lugar, criamos um método sem caixas delimitadoras para alcançar resultados de segmentação
    de instâncias usando modelos de segmentação semântica em um cenário com objetos esparsos.
    Terceiro, aprimoramos o método anterior para cenas aglomeradas e desenvolvemos o primeiro
    estudo considerando aprendizado semissupervisionado usando sensoriamento remoto e dados
    GIS. Em seguida, no domínio da segmentação panóptica, apresentamos o primeiro conjunto de
    dados de segmentação panóptica de sensoriamento remoto e dispomos de uma metodologia para
    conversão de dados GIS no formato COCO. Como nosso primeiro estudo considerou imagens
    RGB, estendemos essa abordagem para dados multiespectrais. Porm, melhoramos o método
    box-free inicialmente projetado para segmentação de instâncias para a tarefa de segmentação
    panóptica.Esta dissertação analisou vários métodos de segmentação e tipos de imagens, e as
    soluções desenvolvidas permitem a exploração de novas tarefas , a simplicação da rotulagem
    de dados e uma forma simplicada de obter previsões de instância e panópticas usando modelos
    simples de segmentação semântica


  • Mostrar Abstract
  • Image segmentation aims to simplify the understanding of digital images. Deep learning-based
    methods using convolutional neural networks were game-changing, allowing the exploration of
    different tasks (e.g., semantic, instance, and panoptic segmentation).Semantic segmentation
    assigns a class to every pixel in an image, instance segmentation classifes objects at a pixel
    level with a unique identifer for each target, and panoptic segmentation combines instance-
    level predictions with different backgrounds.Remote sensing data largely benefts from those
    methods, being very suitable for developing new DL algorithms and creating solutions using
    top-view images.However, some peculiarities prevent remote sensing using orbital and aerial
    imagery from growing when compared to traditional ground-level images (e.g., camera photos):
    (1) The images are extensive, (2) it presents different characteristics (e.g., number of channels
    and image format), (3) a high number of pre-processes and post-processes steps (e.g., extracting
    patches and classifying large scenes), and (4) most open software for labeling and deep learn-
    ing applications are not friendly to remote sensing due to the aforementioned reasons.This
    dissertation aims to advance in all three main categories of image segmentation. Within the in-
    stance segmentation domain, we proposed three experiments. First, we enhanced the box-based
    instance segmentation approach for classifying large scenes, allowing practical pipelines to be
    implemented. Second, we created a bounding-box free method to reach instance segmentation
    results by using semantic segmentation models in a scenario with sparse objects.Third, we
    improved the previous method for crowded scenes and developed the first study considering
    semi-supervised learning using remote sensing and GIS data. Next, in the panoptic segmenta-
    tion domain, we presented the first remote sensing panoptic segmentation dataset containing
    fourteen classes and disposed of software and methodology for converting GIS data into the
    panoptic segmentation format. Since our first study considered RGB images, we extended this
    approach for multispectral data.Finally, we leveraged the box-free method initially designed
    for instance segmentation to the panoptic segmentation task. This dissertation analyzed various
    segmentation methods and types of images, and the developed solutions enable the exploration
    of new tasks (such as panoptic segmentation), the simplification of labeling data (using the pro-
    posed semi-supervised learning procedure), and a simplified way to obtain instance and panoptic
    predictions using simple semantic segmentation models.

3
  • JOAO PAULO COSTA DE ARAUJO
  • Enhancing Runtime Monitors of Cyber-Physical Systems using Negative Selection

  • Orientador : GENAINA NUNES RODRIGUES
  • MEMBROS DA BANCA :
  • GENAINA NUNES RODRIGUES
  • LUIS PAULO FAINA GARCIA
  • VANDER RAMOS ALVES
  • LARS GRUNSKE
  • Data: 14/11/2022

  • Mostrar Resumo
  • Os sistemas ciberfísicos são uma realidade definitiva na nossa vida quotidiana, especial- mente nos últimos anos. No entanto, a complexidade inerente a estes domínios suscita alguns desafios como por exemplo acontecimentos imprevistos, dificuldades em represen- tar os processos cibernéticos ou físicos, e o conhecimento incompleto dos contextos do ambiente. Tudo isso pode tornar os CPS pouco fiáveis em tempo de execução, causando efeitos desastrosos. Procurar inspiração em processos de outros campos é uma atividade muito comum na Informática. A natureza, especialmente a biologia, há muito que serve como uma fonte frutuosa de metodologias como as abordagens de inteligência artificial. O Algoritmo de Selecção Negativa, por exemplo, é uma técnica de base imunológica com múltiplas aplicações bem sucedidas em CPS, principalmente no campo do diagnóstico de falhas para a identificação de comportamentos anômalos. A explicabilidade do algoritmo pode trazer benefícios expressivos para a concepção e verificação de CPS, ajudando a compreender os padrões de violação de propriedade, e assim melhorar a especificação do sistema. Neste trabalho, é proposta uma metodologia que visa aumentar a fiabilidade de CPS. Isto é feito através de um diagnóstico sistemático das violações das propriedades do sis- tema baseado em dados gerados por um protótipo, realizado nas fases iniciais de desen- volvimento. Um algoritmo de inspiração imunológica chamado Seleção Negativa (NSA) serve como método de redundância analítica para isolar e identificar a causa da viola- ção de propriedade no sistema. É possível que, através do arrazoamento sobre as razões pelas quais as violações de propriedade acontecem, a especificação do sistema e a pró- pria propriedade possam ser refinadas, mecanismos tolerantes a falhas possam ser criados permitindo, assim, o desenvolvimento de aplicações mais seguras e melhores.


  • Mostrar Abstract
  • Cyber-physical systems are a definite reality in our day-to-day lives, especially in recent years. Nevertheless, the complexity inherent in these domains raises some challenges like unforeseen events, difficulties in depicting either the cyber or the physical processes, and the incomplete knowledge of the environmental contexts, for example, might make the CPS unreliable at runtime, which could have disastrous effects. Seeking inspiration in processes from other fields is a very common activity in Computer Science. Nature, especially biology, has long served as a fruitful source of methodologies like artificial intelligence approaches. The Negative Selection Algorithm, for example, is an immuno-based technique with multiple successful applications in the field of CPS, primarily in the field of fault diagnostics for the identification of anomalous behavior. The algorithm’s explainability may bring expressive benefits for the design and verification of CPS by helping understand the property violation patterns, and thus enhance the system specification. In this work, we propose a methodology that aims at increasing the reliability of CPSs. This is achieved by a systematical diagnosis of system property violations based on data generated by a prototype, performed in the early stages of development. An immuno- inspired algorithm called Negative Selection (NSA) serves as an analytical redundancy method to isolate and identify the cause of property violation in the system. We believe that, by reasoning about why the property violations happen, the system specification and the property themselves may be refined, fault-tolerant mechanisms may be added, and, thus, safer and better applications might be written.

4
  • DIEGO SANTOS DA SILVA
  • SCAN-NF: a Machine Learning System for Invoice Product Trasaction Classification Through Short-Text Processing.

  • Orientador : LI WEIGANG
  • MEMBROS DA BANCA :
  • LI WEIGANG
  • GERALDO PEREIRA ROCHA FILHO
  • THIAGO DE PAULO FALEIROS
  • ANNE MAGALY DE PAULA CANUTO
  • Data: 08/12/2022

  • Mostrar Resumo
  • Nota Fiscal Eletrônica (NF-e) é um documento que reporta as transações de bens e serviços de forma eletrônica, tanto na transferência quanto no armazenamento. A utilização de notas fiscais eletrônicas é uma tendência emergente e apresenta uma valiosa fonte de informação para diversas áreas. No entanto, o processamento dessas notas é uma tarefa desafiadora. A informação reportada está geralmente incompleta ou apresenta erros. Antes que qual processamento significativo possa ser feito, é necessária identificar o produto representado em cada documento. A literatura disponível indica que são necessárias arquiteturas especializadas para lidar com este tipo de informação. Esta pesquisa modelo o problema de processamento de notas ficais como um problema de processamento de textos curtos para a correta identificação do produto de cada transação. Este trabalho apresenta tanto um framework contextual para o processamento de notas fiscais quanto uma arquitetura para um sistema de auxilio a auditores fiscais. Um caso de estudo uti- lizando dados reais de notas fiscais é apresentado. Modelos tradicionais baseados em frequência de termos foram comparados a modelos de classificação de sentenças baseado em redes convulsionais artificiais. Experimentos sugerem que embora o texto presente em notas fiscais seja breve e apresente erros e falhas de escrita, modelos simples baseados em frequência de termos apresentam bons resultados para a etiquetagem de código de produtos.


  • Mostrar Abstract
  • An electronic invoice (E-invoice) is a document that records the transactions of goods and services electronically, both in storage and exchanges. E-invoice is an emerging practice and presents a valuable source of information for many areas. Processing these invoices is often a challenging task. Information reported is often incomplete or presents mistakes. Before any meaningful processing of these invoices, it is necessary to identify the product represented in each document. The available literature indicates that specialized archi- tectures are necessary to deal with this type of information. This research frames invoice processing as a short-text processing problem to correctly identify the product of each transaction. This work provides both a contextual framework for invoice processing and the architecture for a system to aid tax auditors. A study case utilizing real-world invoice data is presented. We compare traditional term frequency models to sentence classifi- cation models based on convolutional neural networks . Experiments suggest that even though invoice text descriptions are brief and present many mistakes and typos, simple term frequency models can achieve high baseline results on product code assignments.

Teses
1
  • Aloisio Dourado Neto
  • Towards Complete 3D Indoor Scene Understanding from a Single Point-of-View

  • Orientador : TEOFILO EMIDIO DE CAMPOS
  • MEMBROS DA BANCA :
  • TEOFILO EMIDIO DE CAMPOS
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • VINICIUS RUELA PEREIRA BORGES
  • ANDERSON DE REZENDE ROCHA
  • GABRIELA OTILIA CSURKA KHEDARI
  • Data: 11/10/2022

  • Mostrar Resumo
  •  Realizar inferências sobre cenas em 3D é uma tarefa natural para humanos. A nossa percepção visual é a habilidade de interpretar e inferir informações sobre o ambiente que nos cerca usando a luz refletida que entra em nossos olhos através da córnea e atinge a retina. Por meio do nosso sistema de visão binocular, nós podemos naturalmente realizar tarefas como identificar o tipo de ambiente no qual nos encontramos, estimar a distância dos objetos na cena e ainda identificar quais objetos são estes. Entretanto, em Visão Computacional, este é ainda um problema muito desafiador e com muito espaço para melhorias, para o qual existem inúmeras aplicações, incluindo robótica, segurança, computação assistiva, realidade aumentada e reprodução de áudio espacial imersivo.
    Nesta tese, nós elegemos como foco a tarefa de Complementação Semântica de Cenas (em inglês Semantic Scene Completion), por ser uma das mais completas tarefas relacionadas à compreensão de cenas, já que visa inferir a geometria completa do campo de visão da cena e os rótulos semânticos de cada um dos voxels do espaço 3D sob análise, incluindo regiões oclusas. A entrada para esta tarefa é uma imagem RGB-D, que consiste de uma imagem RGB regular adicionada de uma quarto canal contendo um mapa de profundidade da cena. Tal imagem geralmente é obtida por meio de sensores de luz estruturada como o Microsoft Kinect, mas pode também ser obtida por câmeras estereoscópicas associadas a um algoritmo de estimação de profundidade.

    Nosso objetivo norteador é melhorar os métodos atuais de Complementação Semântica de Cenas, tanto em qualidade quanto no nível de cobertura da cena. Para tanto, nesta tese, nós formulamos e avaliamos uma série de hipóteses utilizando redes convolucionais profundas. 

    Considerando que o estado da arte atual para este problema utiliza redes neurais totalmente convolucionais (em inglês Fully Convolutional Network - FCN), que normalmente requerem quantidades elevadas de dados para treinamento, e considerando também a dificuldade de obtenção de dados totalmente rotulados em 3D, antes de entrar no problema de Complementação Semântica em 3D propriamente dito, nós exploramos alternativas para contornar este dificuldade em um problema mais simples: segmentação semântica em 2D. Em 2D, nós exploramos o uso de Transferência de Aprendizado (\emph{Transfer Learning}) e Adaptação de Domínio (\emph{Domain Adaptation}) na tarefa de segmentação de pele. Tais conceitos foram adaptados para 3D e amplamente explorados posteriormente na tarefa de complementação semântica de cenas.

    No domínio 3D, nós introduzimos e avaliamos uma maneira completamente nova de explorar a informação RGB presente na imagem RGB-D. Utilizando as bordas da imagem RGB, foi possível detectar objetos que não eram detectáveis nas soluções anteriores baseadas exclusivamente no mapa de profundidade, a exemplo de quadros planos ou TVs de tela plana colocados em paredes. Esta solução recebeu o nome de EdgeNet e atingiu resultados promissores na época de seu lançamento.  Posteriormente, nós avançamos no uso dos dados RGB por meio das probabilidades a priori extraídas a partir de uma de rede segmentação semântica 2D. Os dados \emph{a priori} foram usados como guia semântico para a parte 3D da solução em uma rede FCN multi-modal com data augmentation}. 

    Nós completamos nossas contribuições relativas à melhoria da qualidade das inferências, combinado a técnica de Adaptação de Domínio explorada nos estágios iniciais da nossa pesquisa com a nossa rede 3D multi-modal atingindo resultados impressionantes.     

    Em relação à cobertura da cena, que hoje é restrita ao campo de visão limitado de sensores RGB-D convencionais, como o Microsoft Kinect, nós propusemos uma abordagem para estendê-la para 360$^{\circ}$ usando imagens RGB panorâmicas e mapas de profundidade obtidos a partir de sofisticados sensores de 360 graus ou a partir de câmeras panorâmicas de baixo custo, montadas em um configuração estereoscópica. Os resultados promissores obtidos com a abordagem proposta foram usados com sucesso em um sistema de reprodução de áudio espacial imersivo.

    Nossos estudos preliminares em 2D foram publicados na 34th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI 2021). Nossas contribuições no domínio 3D foram publicadas em 3 conferências de visão computacional de alto nível: International Conference on Pattern Recognition (ICPR 2020); IEEE/CVF Winter Conference on Applications of Computer Vision (WACV 2022) e Conference on Computer Vision Theory and Applications (VISAPP 2020).

    O sistema de reprodução de áudio espacial imersivo usando a nossa solução 3D em 360 graus foi publicado na revista Virtual Reality Journal (VIRE). 


  • Mostrar Abstract
  • While reasoning about scenes in 3D is a natural task for humans, it remains a challenging problem in Computer Vision,  despite great advances we have seen in the last few decades. Automatic understanding of the complete 3D geometry of a indoor scene and the semantics of each occupied 3D voxel has many applications, such as robotics,  surveillance,  assistive  computing,  augmented reality and immersive spatial audio reproduction. With this research project, we intend to contribute to enhance the current computational results on scene understanding, both on accuracy and coverage. We focus on the task of Semantic Scene Completion, one of the most complete tasks related to scene understanding, as it aims to infer the complete 3D geometry and the semantic labels of each voxel in a scene, including occluded regions. In this thesis, we formulate and access a series of hypothesis to improve current methods both in quality and in scene coverage. Before getting into the problem of 3D SSC, we explored Domain Adaptation methods to address problems related to scarcity of labeled training data in image segmentation tasks in 2D to further apply to 3D. In the 3D SSC domain, we  introduced and evaluated a completely new way to explore the RGB information provided in the RGB-D input and complement the depth information. We showed that this leads to an enhancement in the segmentation of hard-to-detect objects in the scene. We further advanced in the use of RGB data by using semantic priors from the 2D image as a semantic guidance to the 3D segmentation and completion in a multi-modal data-augmented 3D FCN. We complete the contributions related to the quality improvement by combining a Domain Adaptation technique accessed in the earlier stages of the research to our multi-modal network with impressive results. Regarding the scene coverage, which today is restricted to the limited field of view of regular RGB-D sensors like Microsoft Kinect, we complete our contributions with a new approach to extend the current methods to 360-degree using panoramic RGB images and corresponding depth maps from 360-degree sensors or stereo 3D 360-degree cameras.

2
  • André Lauar Sampaio Meirelles
  • Aprendizado Ativo Efetivo e Eficiente para Análise de Imagens em Patologia Utilizando Aprendizado Profundo

  • Orientador : GEORGE LUIZ MEDEIROS TEODORO
  • MEMBROS DA BANCA :
  • ADRIANO ALONSO VELOSO
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • CELIA GHEDINI RALHA
  • GEORGE LUIZ MEDEIROS TEODORO
  • RENATO ANTÔNIO CELSO FERREIRA
  • Data: 14/10/2022

  • Mostrar Resumo
  • Modelos de aprendizado profundo demonstraram notável desempenho em tarefas de seg-
    mentação e classificação de imagens de patologia. Entretanto, esses modelos demandam
    grandes quantidades de dados anotados para seu treinamento. A geração dessa massa
    de dados em patologia é um processo intensivo em mão de obra, comprometendo muitas
    horas de trabalho por parte de patologistas experientes. O Aprendizado Ativo, ou Active
    Learning (AL), oferece uma abordagem iterativa para a geração dessas bases de dados,
    reduzindo o custo das anotações. Nesse trabalho, foi proposta uma nova solução de apren-
    dizado ativo, denominada Diversity-Aware Data Acquisition (DADA), e foi avaliada sua
    efetividade na classificação baseada em patches de regiões de tecido de histopatologia. O
    DADA usa uma lógica de agrupamento que leva em consideração as características das
    imagens, extraídas de modelos de aprendizado profundo, e a incerteza preditiva desses
    modelos para selecionar exemplos de treinamento significativos. Além de produzir con-
    juntos de treinamento reduzidos, os custos de anotação também são diminuídos com
    ganhos de tempo de processamento, com o uso de uma solução de simplificação de CNNs
    também desenvolvida neste trabalho, o Network Auto-Reduction (NAR). Com o NAR,
    tanto o custo de cálculo das incertezas preditivas, quanto de treinamento de modelos, são
    fortemente reduzidos. Adicionalmente, para viabilizar a utilização da solução na prática,
    uma interface gráfica Web foi adaptada para uso com o DADA. O DADA e o NAR
    foram avaliados experimentalmente sobre uma coleção de imagens de tecido cancerígeno
    e demonstraram que: (i) são selecionados patches que aceleram o processo de treinamento
    ao reduzir o número deles necessários para se atingir um dado nível de Area Under the
    Curve (AUC); (ii) com o uso de subpooling o DADA apresenta significativa redução dos
    tempos de cada iteração de aquisição; e (iii) a combinação do DADA com NAR traz
    os tempos de execução de cada iteração a patamares práticos, mantendo a capacidade
    preditiva dos modelos de deep learning alvo. A generalização tanto do DADA quanto
    do NAR a outros contextos e aplicações são trabalhos futuros previstos, incluindo áreas
    como sensoriamento remoto e problemas de segmentação.


  • Mostrar Abstract
  • Deep learning methods have demonstrated remarkable performance in pathology image
    segmentation and classification tasks. However, these models require a large amount of
    annotated training data. Training data generation is a labor intensive process in digital
    pathology, often requiring substantial time commitment from expert pathologists. Ac-
    tive learning (AL) offers an iterative approach to generate training data needed by deep
    learning models, reducing the cost of manual data annotation. In this work, a new AL
    acquisition method, named Diversity-Aware Data Aquisition (DADA), is proposed and
    evaluated regarding its effectiveness in patch-based detection and classification of tissue
    image regions. The proposed method uses a clustering logic that takes into account image
    features, extracted from the deep learning model being trained, and model prediction un-
    certainty to select meaningful training samples (image patches). Besides reducing training
    set sizes, annotation costs are also diminished by computation time gains using a CNN
    simplification solution also developed in this work, the Network Auto-Reduction (NAR).
    With NAR, both uncertainty calculation costs and model training times are strongly re-
    duced. Additionally, to make these solutions viable in practice, a Web based graphical
    interface was adapted to be used with DADA. The DADA/NAR solutions were exper-
    imentally evaluated with a collection of cancer tissue images and are able to: (i) select
    image patches that accelerate the training process by reducing the number of patches
    required to attain a given Area Under the Curve (AUC) value; (ii) using a subpooling
    approach, DADA dramatically reduces iteration times needed to select a new annota-
    tion set; and (iii) the combination of DADA and NAR brings down the execution times
    even more, reaching practical levels while keeping the predictive capacity of models. The
    generalisation of both DADA and NAR to other contexts and applications are expected
    future work, including application in areas such as remote sensing and image segmentation
    problems.

3
  • Elton Sarmanho Siqueira
  • Uma Abordagem Automatizada para Estimar a Experiência do Jogador em Eventos de Jogo usando Sinais Psicofisiológicos

  • Orientador : RICARDO PEZZUOL JACOBI
  • MEMBROS DA BANCA :
  • BRUNO LUIGGI MACCHIAVELLO ESPINOZA
  • DANIELA GORSKI TREVIZAN
  • ESTEBAN WALTER GONZALEZ CLUA
  • RICARDO PEZZUOL JACOBI
  • TIAGO BARROS PONTES E SILVA
  • Data: 14/11/2022

  • Mostrar Resumo
  • Como os jogos eletrônicos emergem como uma das maiores formas de entretenimento
    no mundo, ocorre a necessidade de uma melhor compreensão da experiência do jogador.
    Assim, os estudos sobre esse tema crescem exponencialmente e concentram-se no desen-
    volvimento de procedimentos para o aperfeiçoamento de diversos aspectos do jogo, como
    o game design, que impactam diretamente na interação do jogador com jogo.
    Existem diversas abordagens para avaliar a experiência do jogador, dentre elas, temos
    as avaliações tradicionais que utilizam autorrelato, observação direta, questionário e
    gravação de vídeo, outras mais sofisticadas, como os métodos psicofisiológicos, que uti-
    lizam biosensores e processamento de imagens. Este último método, vem ganhando força
    no ambiente acadêmico uma vez que abre espaço para diversas linhas de estudo, at-
    ualmente vem contribuindo com resultados que mostram uma melhor compreensão da
    experiência do jogador. As avaliações tradicionais geralmente utilizam amostras peque-
    nas de participantes e alguns estudos mostram que nem sempre é possível capturar a
    verdadeira ou real experiência do jogador durante uma sessão do jogo, principalmente
    quando a sessão é extensa. Nesse caso, o emprego das avaliações usando métodos psicofi-
    siológico vêm reduzir alguns problemas existentes da avaliação tradicional. Desta forma, o
    valor do presente estudo compreende em um processo que avalia a experiência do jogador
    adotando um modelo de predição com uso de redes neurais que utiliza um dataset afetivo
    derivado dos dados psicofisiológicos (EDA, BVP e expressões faciais) dos participantes
    do experimento. Além disso, este estudo compara os resultados gerados pelo modelo pro-
    posto com o modelo de autorrelato do participante, com a finalidade de verificar se ambos
    os resultados possuem concordância e se o modelo desenvolvido viabiliza uma nova forma
    de avaliar a interação do jogador com jogo.
    No geral, esta pesquisa identifica a avaliação da experiência do jogador usando da-
    dos psicofisiológicos como uma abordagem distinta e robusta. O autor propõe algumas
    recomendações para empregar esta abordagem ao lado da avaliação tradicional, criando
    uma abordagem híbrida. Entretanto, existem algumas limitações para o uso da avaliação
    psicofisiológica em termos de seus custos financeiros, processamento e execução. Por fim,
    a metodologia empregada nesse trabalho junto com seus resultados apresentam uma nova
    contribuição para as pesquisas relacionadas ao processo de avaliação da experiência do
    jogador.


  • Mostrar Abstract
  • Electronic games emerge as one of the biggest forms of entertainment in the world. As a
    consequence, a better understanding of the player experience is necessary. Thus, studies
    on this topic growth exponentially and are concentrated in the development of approaches
    for improvement of many aspects of the game, such as game design, which impacts the
    interaction of the player with game directly.
    There are several approaches to evaluate the player’s experience. Among them, we
    have traditional evaluation approaches that make use of self-report, direct observation,
    questionnaire and video recording, as well as more sophisticated approaches, such as
    psychophysiological methods, which make use of biosensors and image processing. This
    last evaluation approach has been gathering strength in the academic field since several
    line of researches emerges from it. Currently, results obtained from psychophysiological
    approaches have contributed for a better understanding of the player’s experience. Gen-
    erally, traditional evaluation approaches make use of small numbers of participants. Due
    that, some studies show that it is not always possible to capture the true or real expe-
    rience of the player during a game session, especially after long sessions of game play.
    In this case, evaluations using psychophysiological methods will reduce some problems
    of the traditional approaches. Thus, the present study proposes a process that evaluates
    the player’s experience by adopting a prediction model developed using a neural network,
    which make use of an affective dataset derived from the psychophysiological data (EDA,
    BVP and facial expressions) of the participants of the experiment. In addition, this study
    compares the proposed model with the participant’s self-report model, in order to verify
    whether the results of those models are in agreement and whether the developed model
    enables a new way of evaluating the player’s interaction with the game.
    In summary, this research performs a player experience evaluation using psychophys-
    iological data as a different and robust approach. The author proposes some recommen-
    dations for employing this approach alongside traditional approach, creating a hybrid
    method. However, there are some limitations to the use of psychophysiological evaluation
    in terms of its financial costs, processing and execution. Finally, the methodology used
    in this work, together with its results, present a new contribution to researches related to
    the process of evaluating the player’s experience.

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app36_Prod.sigaa30