|
Dissertações |
|
1
|
-
GEOVANA RAMOS SOUSA SILVA
-
Human Factors in the Design of Chatbot Interactions: Conversational Design Practices
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
GENAINA NUNES RODRIGUES
-
ANA PAULA CHAVES STEINMACHER
-
MAIRIELI SANTOS WESSEL
-
Data: 31/01/2023
-
-
Mostrar Resumo
-
Os chatbots são agentes inteligentes que imitam o comportamento humano para conduzir conversas significativas. A natureza conversacional dos chatbots apresenta desafios aos designers, pois seu desenvolvimento é diferente de outros softwares e exige a investigação de novas práticas no contexto da interação humano-IA e seus impactos na experiência do usuário. Como os chatbots geralmente atuam como representantes de uma marca, melhorar a experiência de conversação dos usuários impacta diretamente na forma como os usuários percebem a organização que o chatbot representa. Objetivo: O objetivo desse trabalho é identificar elementos textuais, visuais ou interativos de interações de chatbot baseadas em texto e como esses elementos podem potencializar ou enfraquecer algumas percepções e sentimentos dos usuários, como satisfação, engajamento e confiança, para a criação do guia Diretrizes para Design Conversacional de Chatbots (DDCC). Método: Utilizamos múltiplos métodos de pesquisa com o objetivo de gerar, validar e verificar o guia. Primeiramente, conduzimos uma Revisão Sistemática da Literatura (RSL) para identificar as práticas de design conversacional e seus impactos. Essas práticas foram utilizadas no guia DDCC por meio da análise qualitativa e da codificação dos resultados da RSL. Em seguida, o guia foi validado por meio de um survey com a intenção de implementar melhorias quanto a sua apresentação. Resultado: A validação do guia com desenvolvedores de software com diferentes níveis de experiência mostrou que eles concordaram fortemente que o guia pode induzir maior satisfação e engajamento dos usuários. Ademais, eles também concordaram fortemente que o guia é claro e compreensível, além de ter um uso fácil e flexível. Embora os particicipantes tenham sugerido algumas melhorias, eles relataram que os principais pontos fortes do guia são a objetividade e a clareza. Conclusão e Trabalhos Futuros: O guia se mostrou útil para desenvolvedores com diferentes níveis de conhecimento, com o potencial de se tornar um forte aliado dos desenvolvedores no processo de design conversacional. Na próxima etapa, será realizado um estudo de caso para verificar a eficácia do guia quando utilizado em conversas de chatbot.
-
Mostrar Abstract
-
Context: Chatbots are intelligent agents that mimic human behavior to carry on meaningful conversations. The conversational nature of chatbots poses challenges to designers since their development is different from other software and requires investigating new practices in the context of human-AI interaction and their impact on user experience. Since chatbots usually act as a brand's representative, improving the conversational experience for users directly impacts how users perceive the organization the chatbot represents. Objective: The objective of this work is to identify textual, visual, or interactive elements of text-based chatbot interactions and how these elements can potentiate or weaken some perceptions and feelings of users, such as satisfaction, engagement, and trust, for the creation of the Guidelines for Chatbot Conversational Design (GCCD) guide. Method: We used multiple research methods to generate, validate and verify the guide. First, we conducted a Systematic Literature Review (SRL) to identify conversational design practices and their impacts. These practices were used in the GCCD guide through qualitative analysis and coding of SLR results. Then, the guide was validated through a survey to implement improvements regarding its presentation. Results: The guide's validation by software developers with different levels of experience showed that they strongly agreed that the guide could induce greater user satisfaction and engagement. Furthermore, they also strongly agreed that the guide is clear and understandable, as well as easy and flexible to use. Although participants suggested some improvements, they reported that the guide's main strengths are objectivity and clarity. Conclusion and Future Work: The guide proved to be useful for developers with different levels of knowledge, with the potential to become a strong ally for developers in the conversational design process. In the next step, a case study will be carried out to verify the guide's effectiveness when used in chatbot conversations.
|
|
2
|
-
Danilo José Bispo Galvão
-
An Approach for High-Level Multi-Robot Mission Verification in UPPAAL
-
Orientador : GENAINA NUNES RODRIGUES
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
RODRIGO BONIFACIO DE ALMEIDA
-
VANDER RAMOS ALVES
-
RADU CALINESCU
-
Data: 31/01/2023
-
-
Mostrar Resumo
-
A necessidade de alavancar meios para especificar missões robóticas a partir de um alto nível de abstração ganhou força devido ao crescimento da popularidade das aplicações robóticas. Como tal, é primordial fornecer meios para garantir que não só a missão robótica seja corretamente especificada, mas que também garanta graus de segurança face à crescente complexidade das tarefas atribuídas aos Sistemas Multi-Robot (MRS). Portanto, as missões do robô agora precisam ser especificadas e verificadas formalmente para robôs e outros agentes envolvidos na operação da missão robótica. No entanto, muitas especificações de missão carecem de um processo de verificação simplificado que garanta que todas as propriedades da missão sejam completamente verificadas por meio da verificação do modelo. Este trabalho propõe um processo de verificação preliminar de modelos para especificação de missão e decomposição de MRS no verificador de modelos UPPAAL. Em particular, apresentamos um modelo semiautomatizado contendo propriedades hierárquicas de definição de domínio transformadas em templates UPPAAL e propriedades de missão formalizadas na linguagem de autômatos temporizados UPPAAL TCTL. No futuro, pretendemos gerar modelos totalmente automaticamente e verificar propriedades de especificação de missão adicionais não cobertas atualmente. Avaliamos nossa abordagem em uma missão robótica de especificação de uma missão logística de alimentos e os resultados mostram que o comportamento esperado é verificado corretamente e as propriedades correspondentes satisfeitas na ferramenta de verificação do modelo UPPAAL.
-
Mostrar Abstract
-
The need to leverage means to specify robotic missions from a high abstraction level has gained momentum due to the popularity growth of robotic applications. As such, it is paramount to provide means to guarantee that not only the robotic mission is correctly specified, but that it also guarantees degrees of safety given the growing complexity of tasks assigned to Multi-Robot Systems (MRS). Therefore, robot missions now need to be specified and formally verified for both robots and other agents involved in the robotic mission operation. However, many mission specifications lack a streamlined verification process that ensures that all mission properties are thoroughly verified through model checking. This work proposes a preliminary model checking process for mission specification and decomposition of MRS in UPPAAL model checker. In particular, we present a semi-automated model containing hierarchical domain definition properties transformed into UPPAAL templates and mission properties formalized into the UPPAAL timed automata language TCTL. In the future, we intend to fully generate models automatically and verify additional mission specification properties not covered currently. We have evaluated our approach in a robotic mission of a food logistic mission specification and results show that the expected behaviour is correctly verified and the corresponding properties satisfied in the UPPAAL model checking tool.
|
|
3
|
-
Guo Ruizhe
-
Melhorando a qualidade da maquina de tradução Chinês para Português com RoBERTa
-
Orientador : LI WEIGANG
-
MEMBROS DA BANCA :
-
LI WEIGANG
-
MARISTELA TERTO DE HOLANDA
-
THIAGO DE PAULO FALEIROS
-
ZHAO LIANG
-
Data: 31/01/2023
-
-
Mostrar Resumo
-
As mudanças contínuas na época da informação promovem o desenvolvimento do campo da tradução e da tradução automática, acompanhadas pelo surgimento da inteligência artificial, mostrando uma tendência e apresentando próspero desenvolvimento. A tradução automática é um tópico importante no processamento de linguagem natural. A aplicação da tradução automática neural na tradução automática foi revivida e desenvolvida nos últimos anos. Com a introdução de algoritmos de excelência e a melhora da capacidade de processamento dos computadores, a tradução automática neural mostrou-se com grande potencial.
Existem grandes diferenças na forma e na expressão da linguagem entre o português e o chinês. A comunicação entre o chinês e o português está em fase de desenvolvimento, e os materiais básicos de tradução são muito escassos. O estudo da tradução automática entre chinês e português não só servirá no auxílio às populações de língua chinesa e portuguesa, como também é tema de suma importância para a tradução entre idiomas onde os dados básicos são escassos.
Esta dissertação apresenta um estudo sobre Tradução Automática Neuronal ( Neural Machine Translation) para o par de línguas Português (PT)-Chinês (ZH) e adiciona as direções de tradução Chinês-Português (Brasil) e Português (Brasil)-Chinês. O objetivo é buscar um modelo mais adequado entre as línguas acima com algoritmos e arquiteturas avançadas, de forma a melhorar o nível atual de tradução chinês-português, bem como o nível de tradução Chinês-Português (Brasil).
Modelos de tradução de última geração são utilizados na tradução automática chinês-português. O algoritmo RoBERTa é o mais avançado e a estrutura de segmentação mistas de palavras é usado para pré-treinamento, e o BERT é usado para tradução seguinte. No corpus paralelo chinês-português disponível e público, seleciona o Opensubtitles2016 que tem maior quantidade dos dados. E usa BLEU e Rouge-dois indicadores de avaliação que são mais versáteis na tradução automática.
No final, obtivemos os resultados dos impactos de fatores diferentes na tradução automática chinês-português sob os recursos existentes e um modelo melhor de tradução automática chinês-português, ao mesmo tempo, descobrindo alguns trabalhos efetivos que devem ser feitos no campo da tradução automática chinês-português no futuro.
-
Mostrar Abstract
-
The continuous changes in the information age have promoted the development of the translation field, and machine translation, accompanied by the rise of artificial intelligence, is showing a trend of prosperity and development. Machine translation is an important topic in natural language processing. The application of neural machine translation in machine translation has been revived and developed in recent years. With the introduction of excellent algorithms and the improvement of computer computing power, neural machine translation has shown great potential.
There are big differences in the form and expression of the language between Portuguese and Chinese, and the communication between Chinese and Portuguese is in the development stage, and the basic translation materials are very scarce. The study of automatic translation between Chinese and Portuguese will not only help Chinese and Portuguese speaking populations, but it is also an important topic for translation between languages where basic data are scarce.
This dissertation presents a study on Neural Machine Translation (Neural Machine Translation) for the language pair Portuguese (PT)-Chinese (ZH) and adds the Chinese-Portuguese (Brazil) and Portuguese (Brazil)-Chinese translation directions. The objective is to seek a more suitable model among the above languages with advanced algorithms and architectures, in order to improve the current level of Chinese-Portuguese translation, as well as the level of Chinese-Portuguese (Brazil) translation.
State-of-the-art translation models are used in Chinese-Portuguese machine translation. The algorithm RoBERTa is the most advanced, the mixed word segmentation framework is used for pre-training, and BERT is used for subsequent translation. In the available and public Chinese-Portuguese parallel corpus, select the Opensubtitles2016 that has the largest amount of data. And it uses BLEU and Rouge-two evaluation indicators that are more versatile in machine translation.
In the end, we got the results of the impacts of different factors on Chinese-Portuguese machine translation under existing resources and a better model of Chinese-Portuguese machine translation, at the same time discovering some effective works that should be done in the field of Chinese-Portuguese machine translation in the future.
|
|
4
|
-
Yuri Barcellos Galli
-
Aprendizado de Máquina como auxílio na detecção de sinais de osteoporose analisando radiografias panorâmicas bucais
-
Orientador : BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
MEMBROS DA BANCA :
-
BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
FLAVIO DE BARROS VIDAL
-
PEDRO DE AZEVEDO BERGER
-
FÁBIO WILDSON GURGEL COSTA
-
Data: 08/02/2023
-
-
Mostrar Resumo
-
A osteoporose é sinônimo de fragilidade óssea, e é uma doença silenciosa que só é detectada comumente após já ter causado danos à pessoa que a possui. Essa doença de fragilidade óssea torna a fratura mais comum e mais danosa aos seus portadores, e por isso é uma questão de saúde pública. Identificar a doença em estágio inicial é essencial para ajudar a evitar seus danos, e nessa tarefa a inteligência artificial e o aprendizado de máquina têm demonstrado grande ajuda nos últimos anos. Os algoritmos de aprendizado de máquina podem prever o risco de osteoporose analisando as imagens do paciente provenientes de exames de rotina, como radiografias panorâmicas. A metodologia proposta conta com um processo de dois passos, que é composto por preprocessamento de imagens e aprendizado de máquina. O preprocessamento de imagens consistiu em transformar as imagens panorâmicas bucais originais brutas em regiões de interesse reduzidas, mais específicas e mais claras para a classificação. A etapa de apren- dizado de máquina consistiu em fornecer essas imagens preprocessadas para algoritmos computacionais as classificarem. Este trabalho propõe uma arquitetura de Rede Neural Convolucional (CNN), comparada com Support Vector Machine (SVM) e Random Forest (RF), que visa identificar sinais de osteoporose nesse tipo de imagem, com objetivo de melhorar os resultados de técnica de referência, a CNN do artigo [1], ao utilizar a es- trutra CNN modificada para realizar uma detecção automática de osteoporose com alta sensibilidade e utilizar o método RF para um sistema com especificidade alta. Na sensibilidade, a CNN customizada proposta obteve 77,19%, enquanto que a CNN de referência obteve 70,18%. Na especificidade, a Random Forest proposta obteve 75,95%, enquanto que a CNN de referência obteve 22,78%. Combinando esses resultados, con- seguimos melhorar o que é obtido pela técnica de referência para o conjunto de dados apresentado, que é bastante desafiador, de pacientes idosos de comunidades carentes, em imagens analógicas com diversos artefatos e características que dificultam a classificação.
-
Mostrar Abstract
-
Osteoporosis is synonymous with bone fragility, and it is a silent disease that is only detected commonly after it has already caused harm to the person who has it. This disease of frailty bone makes the fracture more common and more harmful to its bearers, and for this reason it is a public health issue. Identifying disease at an early stage is essential to help prevent its damage, and in this task artificial intelligence and machine learning have shown great help in recent years. Machine learning algorithms can predict the risk of osteoporosis by analyzing patient images from routine tests, such as panoramic radiographs. The proposed methodology has a two-step process, which is composed of image preprocessing and machine learning. The image preprocessing consisted of transforming the raw original panoramic buccal images into regions of reduced interest, more specific and clearer for classification. The learning stage machine learning consisted of supplying these preprocessed images to algorithms computations classify them. This work proposes a Neural Network architecture Convolutional (CNN), compared with Support Vector Machine (SVM) and Random Forest (RF), which aims to identify signs of osteoporosis in this type of image, with the aim of improve the results of reference technique, the CNN of the article [1], when using the s- CNN trutra modified to perform an automatic detection of osteoporosis with high sensitivity and use the RF method for a system with high specificity. In sensitivity, the proposed customized CNN obtained 77.19%, while the CNN of reference obtained 70.18%. In specificity, the proposed Random Forest obtained 75.95%, while the reference CNN obtained 22.78%. Combining these results, we continue to improve what is obtained by the reference technique for the dataset presented, which is quite challenging, of elderly patients from poor communities, in analog images with various artifacts and characteristics that make classification difficult.
|
|
5
|
-
Beatriz Fragnan Pimento de Oliveira
-
Ciclo de Vida de Data Warehouse Baseado em NoSQL: Adaptações e Análise de Desempenho de Arquiteturas
-
Orientador : MARISTELA TERTO DE HOLANDA
-
MEMBROS DA BANCA :
-
MARISTELA TERTO DE HOLANDA
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
CELIA GHEDINI RALHA
-
DANIEL CARDOSO MORAES DE OLIVEIRA
-
Data: 23/02/2023
-
-
Mostrar Resumo
-
O contexto de Data Warehouse (DW) encontra-se em constante transformação nas or- ganizações públicas e privadas. Tendo em vista que os DW originalmente se apoiavam nos bancos de dados relacionais, com o surgimento do Big Data, novas propostas para a gestão de grandes volumes de dados têm sido definidas na literatura, motivando um investimento em soluções alternativas por parte de diversas organizações. Como centro de um Sistema de Apoio à Decisão (SAD), o DW precisa extrair valor dessa grande massa de dados disponível. Assim, uma das alternativas existentes é utilizar soluções Not-only SQL (NoSQL) para modelar e processar DW, devido às suas características de flexibilidade e escalabilidade. Nesse contexto, este trabalho tem por objetivo analisar os desafios advindos da adoção do novo paradigma (NoSQL) e sugerir uma adaptação ao ciclo de vida de DW proposto por Kimball, quando se migra para o paradigma NoSQL, para diferentes bancos de dados NoSQL pré-selecionados. Posteriormente, será feito um estudo caso para desenvolver DW baseados em bancos de dados NoSQL com dados abertos do Exército Brasileiro. Com a implementação do estudo de caso será possível não só verificar a influência da modelagem de dados no desempenho das consultas selecionadas, mas também realizar uma comparação de desempenho dos paradigmas relacional e não-relacional.
-
Mostrar Abstract
-
The Data Warehouse (DW) context is constantly changing in public and private organizations. Considering that DWs originally relied on relational databases, with the emergence of Big Data, new proposals for the management of large volumes of data have been defined in the literature, motivating an investment in alternative solutions by several organizations. As the center of a Decision Support System (DSS), the DW needs to extract value from this large mass of available data. Thus, one of the existing alternatives is to use Not-only SQL (NoSQL) solutions to model and process DW, due to its flexibility and scalability characteristics. In this context, this work aims to analyze the challenges arising from the adoption of the new paradigm (NoSQL) and to suggest an adaptation to the DW life cycle proposed by Kimball, when migrating to the NoSQL paradigm, for different pre-built NoSQL databases. selected. Subsequently, a case study will be carried out to develop DW based on NoSQL databases with open data from the Brazilian Army. With the implementation of the case study, it will be possible not only to verify the influence of data modeling on the performance of the selected queries, but also to perform a performance comparison of the relational and non-relational paradigms.
|
|
6
|
-
PEDRO BORGES PIO
-
Recomendação de algoritmos de detecção de ruído via meta-aprendizado
-
Orientador : LUIS PAULO FAINA GARCIA
-
MEMBROS DA BANCA :
-
ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
-
LUIS PAULO FAINA GARCIA
-
THIAGO DE PAULO FALEIROS
-
VINICIUS RUELA PEREIRA BORGES
-
Data: 24/02/2023
-
-
Mostrar Resumo
-
Este trabalho apresenta uma solução de recomendação de algoritmos de detecção de ruído por meio de técnicas de Meta-Aprendizado (MtL). Primeiramente, foi realizada uma revisão sistemática da literatura referente ao tema de MtL e recomendação de algoritmos de pré-processamento. Na revisão foram verificadas quais as técnicas de pré-processamento, meta-características, algoritmos de Aprendizado de Máquina (AM) e métricas de desempenho são mais utilizados na área de recomendação de algoritmos de pré-processamento. Em seguida foram implementadas duas abordagens diferentes para a recomendação de filtros de ruído por meio de técnicas de MtL. A primeira é uma abordagem de ranqueamento (MtL-Rank), que realiza a sugestão por meio de regressores com objetivo de prever o valor da métrica f1-score. A outra abordagem realiza a recomendação por meio de uma sequência de classificadores encadeados (MtL-Multi). Também foi avaliado o desempenho das abordagens ao realizar a recomendação dos filtros juntamente com seus hiperparâmetros. No total, foram utilizados oito filtros de ruído ou 27 quando consideradas as suas variações de hiperparâmetros, quatro técnicas de AM para se extrair a métrica de desempenho e três meta-ranqueadores ou meta-classificadores para se realizar a sugestão. O sistema é avaliado no nível meta e no nível base. No nível meta é avaliado o desempenho dos algoritmos de recomendação por meio da sua acurácia. Já no nível base é verificado o ganho médio na métrica de desempenho (f1-score) ao aplicar cada uma das abordagens. Os resultados mostraram que a abordagem MtL-Rank obteve um ganho médio maior no desempenho, atingindo resultados significativamente melhores que o filtro utilizado como baseline. Por outro lado, a abordagem MtL-Multi obteve resultados melhores no nível meta, chegando atingir uma acurácia de 49%. Além disso, foi verificado que a recomendação dos hiperparâmetros em conjunto com o filtro pode gerar um ganho no desempenho da recomendação.
-
Mostrar Abstract
-
This work implements a noise detection algorithm recommendation using meta-learning techniques. First, a systematic review of the literature on the subject of meta-learning for preprocessing algorithm recommendation was performed. The review verified which preprocessing techniques, meta-features, machine learning algorithms and performance metrics are commonly used in the area of recommending preprocessing algorithms. Next, two different approaches were implemented for recommending noise filters using meta- learning techniques. The first is a ranking approach (MtL-Rank), which performs the suggestion using regressors and predicts the value of the performance metric f1-score. The other approach performs the recommendation through a sequence of linked classifiers (MtL-Multi). The performance of the approaches was also evaluated when recommending the filters together with their hyperparameters. In total, we used eight noise filters or 27 when considering their hyperparameter variations, four machine learning techniques to extract the performance metric and three meta-rankers or meta-classifiers to perform the recommendation. The system is evaluated at both the meta and base levels. At the meta level, the performance of a meta-learner is evaluated through their accuracy. At the base level, the average gain in the performance metric (f1-score) is verified. The results showed that the MtL-Rank approach obtained a higher average gain at the base level, obtaining significantly better results than the filter used as baseline. On the other hand, the MtL-Multi approach obtained better results at the meta level, reaching an accuracy up to 49%. In addition, it was verified that the suggestion of hyperparameters together with the noise filter can generate a gain in the performance when compared with only recommending the filter.
|
|
7
|
-
Matheus Schmitz Oliveira
-
Modelo Contextual de Negociação no Mercado de Ações Brasileiro com Algoritmo de Aprendizado por Reforço Profundo.
-
Orientador : GERALDO PEREIRA ROCHA FILHO
-
MEMBROS DA BANCA :
-
GERALDO PEREIRA ROCHA FILHO
-
MARCELO ANTONIO MAROTTA
-
VINICIUS RUELA PEREIRA BORGES
-
RENATO HIDAKA TORRES
-
Data: 10/03/2023
-
-
Mostrar Resumo
-
As bolsas de valores estão presentes na sociedade ao longo dos últimos séculos, sendo fundamentais para a movimentação da economia e construção de grandes fortunas. No entanto, os preços das companhias oscilam, tornando desafiadora a tarefa de identificação das melhores oportunidades de compra e venda de suas ações. Nesse sentido, o uso de algoritmos para a negociação automática nas bolsas de valores ganhou evidência, apresentando características positivas como a velocidade e isenção de sentimentos na tomada de decisão. O Aprendizado por Reforço (RL) é aplicado em problemas envolvendo sequências de decisões em ambientes complexos, sendo promissor para a modelagem de ambientes de negociação de ativos. Apesar do grande avanço observado nas publicações recentes, foi identificada uma lacuna relacionada à combinação de dados numéricos do mercado e dados textuais provenientes de múltiplas fontes de informação. Dessa forma, o presente trabalho preenche a lacuna encontrada ao investigar, propor e validar o desenvolvimento de um modelo contextual baseado em Aprendizado por Reforço Profundo (DRL) para a negociação individualizada de ativos no mercado financeiro brasileiro. A proposta foi avaliada em quatro diferentes cenários, a partir de combinações entre a quantidade de dados utilizados e diferentes esquemas de recompensa adotado pelo agente de DRL do modelo contextual treinado. Para a avaliação foram escolhidos três benchmarks: investimento inicial, Buy & Hold da empresa específica e Buy & Hold do BOVA11. Os resultados mostraram que o modelo contextual desenvolvido superou o patrimônio líquido inicial investido em 94.5% dos casos no melhor caso. Além disso, os cenários que utilizaram o índice Sharpe como função de recompensa reportaram mais patrimônios líquidos finais acima dos benchmarks selecionados. Por fim, todos os cenários consideram a simulação de taxas de transação cobradas pelas instituições financeiras, tornando o resultado ainda mais realista.
-
Mostrar Abstract
-
Stock exchanges have been present in society over the last few centuries, being fundamental for moving the economy and building great fortunes. However, company prices fluctuate, making the task of identifying the best opportunities for buying and selling their shares a challenge. In this sense, the use of algorithms for automatic trading on stock exchanges gained evidence, showing positive characteristics such as efficiency and support of feelings in decision-making. Reinforcement Learning is applied to problems involving sequences of decisions in complex environments, being promising for modeling asset trading environments. Despite the significant advance seen in recent news, a gap was identified related to the combination of numerical market data and textual data from multiple sources of information. Thus, the present work fills a gap found when investigating, proposing, and validating the development of a contextual model based on Deep Reinforcement Learning for the individualized trading of assets in the Brazilian financial market. The proposal was evaluated in four different scenarios, based on the combination between the amount of data used and various reward schemes adopted by the DRL agent of the trained contextual model. For the evaluation, three benchmarks were chosen: initial investment, Buy & Hold of the specific company and Buy & Hold of BOVA11. The results appreciated that the developed contextual model outperformed the invested initial equity in 94.5% of cases in the best case. Furthermore, the scenarios that used the Sharpe ratio as the reward function reported more net worth above the selected benchmarks. Finally, all scenarios consider the simulation of transaction fees charged by financial institutions, making the result even more realistic
|
|
8
|
-
Rodrigo Pereira de Mesquita
-
Guide for Elicitation techniques applied to Agile Software Development
-
Orientador : EDNA DIAS CANEDO
-
MEMBROS DA BANCA :
-
EDNA DIAS CANEDO
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
VANDER RAMOS ALVES
-
SABRINA DOS SANTOS MARCZAK
-
Data: 27/04/2023
-
-
Mostrar Resumo
-
As técnicas de elicitação de requisitos são essenciais para apoiar os engenheiros de requisitos a obter uma melhor compreensão das necessidades dos usuários e das partes interessadas. Embora existam diversas técnicas disponíveis para apoiar as fases da Engenharia de Requisitos (ER), podem ocorrer dúvidas nas equipes de desenvolvimento de software sobre qual técnica utilizar durante a atividade de elicitação de requisitos. Objetivo: O objetivo desse trabalho é identificar as técnicas de elicitação de requisitos mais utilizadas na literatura e comparar com as técnicas mais usadas pelos profissionais na indústria. Além disso, identificam-se os desafios relacionados à elicitação de requisitos, os prós e contras das principais técnicas identificadas na literatura, e baseado nos prós e contras, analisam-se combinações possíveis das técnicas de elicitação de requisitos que podem minimizar os desafios identificados na literatura e na indústria. Método: Realizou-se uma Revisão Sistemática da Literatura (SLR) para identificar as técnicas de elicitação de requisitos e os desafios discutidos na literatura ou na indústria. Ainda dentro da Revisão Sistemática da Literatura, foi realizada a técnica de snowballing, para revisão dos estudos primários encontrados dentro de outras SLR que foram trazidas pela string de busca. Além disso, realizou-se uma pesquisa de opinião (survey) para investigar a percepção dos praticantes da área de desenvolvimento de software (individuos trabalhando na indústria de Software, independentemente da posição ou papel desempenhado) em relação às técnicas identificadas e posteriormente compará-las com os resultados obtidos na SLR. Resultados: Foram identificados 54 estudos primários na SLR e eles demonstraram que as técnicas tradicionais ainda são as mais utilizadas tanto na literatura quanto nos projetos da indústria de software. Além disso, algumas técnicas, como Persona, estão ganhando espaço, ajudando os engenheiros de requisitos a encontrar maneiras diferentes de realizar a elicitação de requisitos junto aos usuários finais e as partes interessadas. Ademais, baseado nos pontos fortes encontrados na literatura para cada técnica, foi possível sugerir combinações de técnicas que pelas forças ou pontos a favor identificados na SLR, podem ser combinadas para superar a maior parte dos desafios identificados. Conclusão: As técnicas mais mencionadas pela literatura e usadas na indústria de software foram: Prototipação, Entrevistas, Estórias de Usuário e Cenários. A combinação do uso dessas técnicas com, por exemplo, a técnica Persona podem ajudar a superar os desafios identificados na literatura. O estudo conta com a descrição das principais técnicas identificadas na literatura, contendo seus prós e contras e poderá apoiar os engenheiros de requisitos durante a elicitação de requisitos. A disponibilização online do estudo poderá para apoiar os praticantes de software na elicitação de requisitos, permitirá que a comunidade de engenharia de software possa contribuir com feedbacks relacionados a combinação do uso das técnicas, permitindo assim uma melhoria e divulgação das percepções das combinações realizadas entre as técnicas da ER pelos profissionais das equipes de desenvolvimento de software. Assim, o guia poderá apoiar os praticantes da área de desenvolvimento de software na escolha das técnicas a serem usadas e ou combinadas.
-
Mostrar Abstract
-
Background: Requirements elicitation techniques are essential to support requirements engineers to gain a better understanding of the needs of users and stakeholders. Al- though there are several techniques available to support the Requirements Engineering (RE) software development teams might be doubtful about which technique to use during requirements elicitation. Objective: The goal of this work is to identify Requirements Elicitation (RE) Techniques most used in the literature and compare with the techniques most used by professionals in the industry. In addition, we identified the challenges re- lated to requirements elicitation, the pros and cons of the main techniques identified in the literature, and based on the pros and cons, analyze possible combinations of require- ments elicitation techniques that can minimize the challenges identified in literature and industry. Method: We performed a Systematic Literature Review (SLR) to identify requirements elicitation techniques and challenges discussed in the literature or industry. Moreover, we performed a Survey to investigate the perception of software practitioners (individuals working in the software industry in a large variety of roles and positions) in relation to the techniques identified and subsequently compare them with the results obtained in the SLR. Finally, using Focus Group technique, we executed two validation sessions with nineteen specialists to evaluate technique combinations and the findings provided on this guide. Results: 54 primary studies were identified in the SLR and they demonstrated that traditional techniques are still the most used in both literature and software industry projects. In addition, some techniques, such as Persona, are gaining ground, helping requirements engineers to find different ways to elicit requirements from end users and stakeholders. Moreover, we have investigated combinations of techniques already discussed and presented in literature, also based on the strengths found in the literature for each technique, it was possible to identify combinations of techniques that by the forces or points in favor identified in the SLR, could be combined to overcome most of the challenges identified. Furthermore, validation sessions provided the view of special- ists that complemented the techniques and combinations under use by the community. Conclusion The most mentioned techniques in the literature at the same time they are used in the software industry are: Prototyping, Interview, User Stories, Brainstorming, Observation, Scenarios, Questionnaires and Mind Mapping. In addition, Ethnography, Joint Application Development (JAD) and Workshop have many references in literature while are not appealing for real projects in industry. On the other hand, Persona at least from the papers retrieved during this search is not largely discussed in literature whereas it has shown to be widely used in the industry. Combine the use of RE techniques can help overcome the challenges identified in the literature. A guide with a description of all techniques identified in the literature, containing their advantages and disadvantages can support the requirements engineers during the requirements elicitation. The provision of this study to support software practitioners in eliciting requirements, will allow the software engineering community to contribute feedback related to the combination of the use of techniques, thus allowing an improvement and dissemination of the perceptions of the combinations made between the RE techniques by the professionals of the software development teams. Hence, the guide can support software practitioners in choosing the techniques to be used and (or) combined.
|
|
9
|
-
Cristiano Perez Garcia
-
Uma Solução de Segurança Operacional para a Mobilidade Aérea Urbana com Aprendizado de Reforço Profundo
-
Orientador : LI WEIGANG
-
MEMBROS DA BANCA :
-
LI WEIGANG
-
GERALDO PEREIRA ROCHA FILHO
-
MARCELO ANTONIO MAROTTA
-
MARCELO XAVIER GUTERRES
-
Data: 15/06/2023
-
-
Mostrar Resumo
-
Aeronaves com propulsão elétrica e com capacidade de efetuar pousos e decolagens na vertical, também conhecidos como eVTOL estão em desenvolvimento por uma série de fabricantes e tem o potencial de revolucionar a mobilidade aérea urbana nos próximos anos. A adoção tende a ser gradual, porém uma vez que um certo nível de maturidade desse tipo de transporte seja atingido, a grande quantidade esperada de aeronaves em voos simultâneos trará desafios para os sistemas de controle de tráfego aéreo. Além disso, estas aeronaves poderão operar sem piloto a bordo. A proposta é de que as aeronaves executem voos em rotas diretas, realizando desvios apenas quando necessário. Portanto é necessário que uma série de sistemas de detecção e resolução de conflitos atuem de forma redundante. Entre eles, está a resolução de tática de conflitos. Isso exige o desenvolvimento de ferramentas específicas para atender o novo cenário, constituído por aeronaves com características de desempenho até então inexistentes. Este trabalho investiga a possibilidade de utilização de modelos de aprendizado de reforço profundo para a solução deste problema. A detecção dos conflitos pode ser efetuada de modo independente, a partir de sistemas embarcados como o ADS-B. Após a fase de treinamento, modelos de aprendizado de reforço profundo são capazes de sugerir ações que permitam alcançar o objetivo desejado mesmo em configurações de conflitos que não tenham sido observadas previamente. Isso faz com que estes modelos sejam adequados à resolução do problema de resolução de conflitos, visto que é inviável executar um treinamento com todos os conflitos possíveis. Um sistema baseado nos modelos Deep Q Network foi utilizado para gerenciamento das trajetórias em caso de detecção de conflito, realizando desvios de rota com o objetivo de solucionar o conflito bem como afastar as aeronaves envolvidas o mínimo necessário de suas trajetórias ideais. Foi implementado um simulador customizado para a realização de testes utilizando diversos agentes de aprendizado de reforço profundo, bem como a comparação com estratégias alternativas. Os resultados indicam que os modelos utilizados são capazes de oferecer manobras capazes de reduzir o número de conflitos sem que as manobras realizadas para os desvios afetem de forma significativa o tempo de deslocamento ou consumo de combustível.
-
Mostrar Abstract
-
Aircraft with electric propulsion and capable of performing vertical takeoff and landings, also known as eVTOL, are under development by several manufacturers and have the potential to revolutionize urban air mobility in the coming years. Adoption tends to be gradual, but once a certain level of maturity of this type of transport is reached, the expected large number of simultaneous flights will pose challenges for air traffic control systems. In addition, these aircraft are expected to be able to operate without a pilot on board. Furthermore, aircraft are supposed to fly on direct routes, making detours only when necessary. Therefore, a set of conflict detection and resolution systems is desired to act redundantly. One of those systems is the one responsible for the tactic conflict resolution. This requires developing specific tools to meet the new scenario, consisting of aircraft with performance characteristics that are not yet existent. This work investigates the possibility of using deep reinforcement learning models to solve this problem. Conflict detection can be performed independently using embedded systems as sensors, such as ADS-B. After the training phase, deep reinforcement learning models can suggest actions to achieve the desired goal even in scenarios that have not been previously observed. This capability makes these models suitable for solving the problem of conflict resolution since it is impracticable to train a system with all possible conflict configurations. A system based on Deep Q Network models was used to manage the trajectories in case of conflict detection. It carried out route deviations to resolve the conflict and deviated the aircraft involved the minimum necessary from their ideal trajectories. A customized simulator was implemented to perform tests using several deep reinforcement learning agents and compare them with alternative strategies. The obtained results indicate that the models can suggest maneuvers capable of reducing the number of conflicts without significantly affecting displacement or fuel consumption.
|
|
10
|
-
Rafael Oliveira Ribeiro
-
Métodos para cálculo de razão de verossimilhança para utilização de sistemas de reconhecimento facial em cenários forenses
-
Orientador : FLAVIO DE BARROS VIDAL
-
MEMBROS DA BANCA :
-
DAVID MENOTTI GOMES
-
DIBIO LEANDRO BORGES
-
FLAVIO DE BARROS VIDAL
-
JOÃO CARLOS RAPOSO NEVES
-
Data: 19/06/2023
-
-
Mostrar Resumo
-
Na área forense, o exame pericial de comparação facial tem adquirido maior relevância à medida em que cresce o número de dispositivos com capacidade de gravação de imagens e, por conseguinte, aumenta o número de crimes em que os autores têm suas faces capturadas em imagens. Atualmente esse exame pericial é baseado na análise e comparação manual de elementos morfológicos da face e os resultados são expressos de forma qualitativa, o que dificulta a sua reprodutibilidade e a combinação de seus resultados com outras evidências pela instância julgadora. Este trabalho tem como objetivo avaliar métodos para expressar os resultados do exame de forma quantitativa, com o cálculo de razão de verossimilhança (do inglês Likelihood-Ratio – LR) a partir de escores obtidos de sistemas de reconhecimento facial. Além de facilitar a reprodutibilidade dos resultados, aspecto crítico na área forense, os métodos avaliados permitem a validação empírica de desempenho nas condições de cada caso. Neste trabalho foram avaliados métodos paramétricos e não-paramétricos para cálculo de LR a partir de escores, utilizando dois sistemas de reconhecimento facial de código aberto, ArcFace e FaceNet, e cinco bases com imagens faciais representativas de cenários frequentemente encontrados em casos periciais: imagens de mídias sociais e de câmeras de CFTV. Além disso, foram realizados experimentos relacionados à agregação de embeddings em casos onde há mais de uma imagem do indivíduo de interesse. Estes experimentos demonstraram melhora substancial no cálculo de LR a partir de sistemas de reconhecimento facial, especialmente nos cenários envolvendo imagens de pior qualidade: redução na Cllr em até 95% (de 0,249 para 0,012) para imagens de CFTV e de até 96% (de 0,083 para 0,003) para imagens de mídias sociais.
-
Mostrar Abstract
-
Forensic face comparison is becoming more relevant as the number of devices with image recording capabilities increases, with a consequential increase in the number of crimes in which the face of the perpetrator is recorded. This forensic examination is still based on the manual analysis and comparison of morphological features of the faces. Its results are expressed qualitatively, making it difficult to reproduce and combine with other evidence. This work evaluates methods to obtain a quantitative result for the examination, with the computation of score-based Likelihood-Ratio - LR. Face recognition systems are used to obtain scores that are then converted to an LR. The methods investigated in this work facilitate reproducibility, a critical aspect in forensics, and it also allows for the empirical validation of performance in the conditions of each forensic case. We evaluate parametric and non-parametric methods for LR computation. Two open-source face recognition models were used (ArcFace and FaceNet) on images from five datasets that are representative of common scenarios in forensic casework: images from social media and images from CCTV cameras. We also investigate strategies for embedding aggregation in cases where there is more than one image of the person of interest. These experiments demonstrate substantial improvements in forensic evaluation settings, with improvements in Cllr of up to 95% (from 0.249 to 0.012) for CCTV images and of up to 96% (from 0.083 to 0.003) for social media images.
|
|
11
|
-
Ismael Coelho Medeiros
-
DogeFuzz: um framework extensível para estudos de fuzzing na análise dinâmica de Smart Contracts
-
Orientador : RODRIGO BONIFACIO DE ALMEIDA
-
MEMBROS DA BANCA :
-
RODRIGO BONIFACIO DE ALMEIDA
-
EDUARDO ADILIO PELINSON ALCHIERI
-
GENAINA NUNES RODRIGUES
-
WILKERSON DE LUCENA ANDRADE
-
Data: 07/07/2023
-
-
Mostrar Resumo
-
Smart contract são programas Turing-completo que são executados em uma rede blockchain. Muitas vezes, este tipo de programa armazena ativos digitais valiosos e em um blockchain como o Ethereum, o binário de cada smart contract está publico e transparente, e por isso pode ser acessado por qualquer um. Isso faz com que este tipo de programa seja alvo constante de ataques e que a segurança de um contrato seja algo crítico. Este trabalho visa experimentar técnicas avançadas de fuzzing na detecção automática de vulnerabili- dades em smart contracts. A técnica que será explorada é a directed greybox fuzzing que tem como objetivo gerar inputs que explorem pontos específicos do código. Para isso, a ferramenta ContractFuzzer será estendida de forma que consiga utilizar esta nova técnica. Para avaliar a performance desta extensão será preciso criar um dataset para experimentar a capacidade exploração das duas versões da ferramenta ContractFuzzer.
-
Mostrar Abstract
-
Smart contracts are Turing-complete programs that are executed in a blockchain network. Many times, this type of program stores valuable digital assets and in a blockchain such as Ethereum, each smart contract’s binary is public and transparent, and that is why it can be accessed by anyone. This makes this type of program to be a constant target for many kinds of attack e its security to be critical. This work aims to experiment advanced fuzzing techniques in automatic vulnerability detection in smart contracts. The technique to be explored is directed greybox fuzzing, which has the objective of generating input that explore specific points of the program. For that, the tool ContractFuzzer will be extended to use this new technique. To evaluate the performance of this version of the tool, it is necessary to create a dataset to experiment the exploration capacity of the two versions of ContractFuzzer.
|
|
12
|
-
Rodrigo Cardoso Aniceto
-
ProjPlag: Uma Aplicação para Auxiliar o Processo de Detecção de Plágio em Cursos Introdutórios de Programação
-
Orientador : MARISTELA TERTO DE HOLANDA
-
MEMBROS DA BANCA :
-
ALETEIA PATRICIA FAVACHO DE ARAUJO VON PAUMGARTTEN
-
DILMA DA SILVA
-
MARISTELA TERTO DE HOLANDA
-
VINICIUS RUELA PEREIRA BORGES
-
Data: 12/07/2023
-
-
Mostrar Resumo
-
Este trabalho apresenta a aplicação ProjPlag desenvolvida para auxiliar o professor a identificar alunos suspeitos de plágio em códigos fontes em uma disciplina introdutória de programação. Para criar a aplicação, foi feita uma análise das ferramentas de detecção de plágio Moss e JPlag e dos dados dos alunos extraídos da plataforma de ensino Moo- dle, isso permitiu aprender mais sobre o perfil de alunos que copiam códigos e, com base nisso, é possível traçar estratégias voltadas a reduzir a ocorrência dessa prática. A apli- cação foi então desenvolvida com a funcionalidade de gerar relatórios integrando os dados disponíveis. Esses relatórios contêm percentuais de similaridades entre códigos, notas, padrões de desenvolvimento e padrões de envio dos trabalhos, para uso pelo professor. O ProjPlag também foi testado na automatização da identificação de alunos que plagiaram, apresentando uma taxa de acerto de 90%. Pesquisas futuras podem ser feitas aumentando o volume de dados e aperfeiçoando sua coleta.
-
Mostrar Abstract
-
This work proposes an application to help teachers identify students suspected of plagiarism in source codes in an introductory programming course with a virtual teaching environment. This is done through the integration of automatic plagiarism detection tools with data on student behavior in the course, for the generation of unified reports. This behavioral data includes the assignment submission pattern and classroom data such as attendance and grades. It can be applied in distance or face-to-face teaching. This application will be tested with real data in order to simplify the plagiarism identification process. It is also expected to learn more about the profile of students who copy source codes to outline policies aimed at reducing the occurrence of this practice.
|
|
13
|
-
RUBENS MARQUES CHAVES
-
Predição de falência utilizando dados sequenciais não estacionários em uma abordagem de fluxo de dados.
-
Orientador : LUIS PAULO FAINA GARCIA
-
MEMBROS DA BANCA :
-
LUIS PAULO FAINA GARCIA
-
CELIA GHEDINI RALHA
-
THIAGO DE PAULO FALEIROS
-
RICARDO CERRI
-
Data: 20/07/2023
-
-
Mostrar Resumo
-
As previsões de falência corporativas são importantes para empresas, investidores e autoridades regulatórias. No entanto, como a maioria dos modelos de previsão de falência em estudos anteriores foram baseados em uma única dimensão de tempo, eles tendem a ignorar as duas principais características de dados de dificuldades financeiras, conjuntos de dados desequilibrados e desvio de conceito do fluxo de dados. Para supera-los, este estudo tenta identificar as técnicas mais adequadas para o tratamento desses problemas em demonstrações financeiras fornecidas trimestralmente a CVM, utilizando um sistema de janelas deslizantes e com mecanismo de esquecimento para evitar a degradação do modelo preditivo. Um experimento empírico foi realizado em uma amostrada de dados coletados do portal de dados abertos da CVM, em um período de 10 anos (2011 a 2020), com 905 corporações distintas, 23.468 registros com 102 indicadores cada, sendo 21.750 de empresas sem dificuldade financeira e 1.718 de empresas com dificuldade financeira. Devido a características do problema, em especial o desbalanceamento, o desempenho do modelo foi medido através de AUC (área sob a curva ROC), G-measure e F-measure.
-
Mostrar Abstract
-
Corporate bankruptcy predictions are important to companies, investors and authorities. However, as most bankruptcy prediction models in previous studies have been based on a single time dimension, they tend to ignore the two main characteristics of financial distress data, unbalanced data sets and data stream concept drift. To overcome them, this study tries to identify the most appropriate techniques for dealing with these problems in financial statements provided quarterly by companies to the CVM, using a system of sliding windows and a forgetting mechanism to avoid the degradation of the predictive model. An empirical experiment was carried out on a sample of data collected from the CVM open data portal, over a period of 10 years (2011 to 2020), with 905 different corporations, 23,468 records with 102 indicators each. The majority, 21,750 companies, have no financial difficulties and 1,718 companies have financial difficulties. Due to characteristics of the problem, especially the data unbalance, the performance of the model was measured through AUC (area under the ROC curve), G-measure and F-measure.
|
|
14
|
-
NIKSON BERNARDES FERNANDES FERREIRA
-
Melhorando a segurança de programas numéricos
-
Orientador : MAURICIO AYALA RINCON
-
MEMBROS DA BANCA :
-
AARON DUTLE
-
LAURA TITOLO
-
MAURICIO AYALA RINCON
-
VANDER RAMOS ALVES
-
Data: 21/07/2023
-
-
Mostrar Resumo
-
Este trabalho discute como a precisão dos erros de arredondamento envolvidos em implementações reais do sistema de gerenciamento da NASA para veículos não tripulados DAIDALUS afetam a segurança geral do sistema. A biblioteca DAIDALUS fornece definições formais para os conceitos de Detecção e Evasão em aviônica demonstrados mecanicamente no assistente de provas PVS. No entanto, tais verificações são apenas certificados do bom comportamento da especificação do ponto de vista lógico, o que não garante a precisão dos algoritmos implementados sob restrições aritméticas de ponto flutuante. Nossa análise assume o padrão IEEE 754 de ponto flutuante, implementados em diversas linguagens de programação, e a técnica de verificação se baseia na geração de uma especificação de primeira ordem dos cálculos numéricos. Uma característica proeminente da abordagem é dividir a especificação em fatias definidas de acordo com os diferentes ramos de computação. O fatiamento é crucial para simplificar a análise formal das computações com aritmética de ponto flutuante.
-
Mostrar Abstract
-
This work discusses how the presence of round errors involved in real-world implementations of the NASA management system for unmanned vehicles DAIDALUS affect the overal safety of the system. The DAIDALUS library provides formal definitions for avionics’ Detect and Avoid concepts mechanically demonstrated in the proof assistant PVS. However, such verifications are just certificates of the well- behavior of the specification from the logical point of view, which do not guarantee the accuracy of the algorithms implemented under floating-point arithmetic.Our analysis assumes the IEEE 754 floating point standards, implemented in several programming languages, and the verification technique is grounded on generating a first-order specification of the numerical computations. A prominent feature of the approach is splitting the specification into slices defined according to the different computation branches. Slicing is crucial to simplify the formal analysis of floating point arithmetic computations
Nota: Suplente Mariano Miguel Moscato - National Insitute of Airspace - NASA LaRC
|
|
15
|
-
Fernanda Amaral Melo
-
Meta aprendizado para detecção de mudança de conceito não supervisionada
-
Orientador : LUIS PAULO FAINA GARCIA
-
MEMBROS DA BANCA :
-
LUIS PAULO FAINA GARCIA
-
GERALDO PEREIRA ROCHA FILHO
-
VINICIUS RUELA PEREIRA BORGES
-
ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
-
Data: 30/08/2023
-
-
Mostrar Resumo
-
O avanço tecnológico na geração e transmissão de dados potencializou a existência de muitas aplicações de fluxos de dados, estes ambientes altamente dinâmicos frequentemente acompanham o problema de mudança de conceito, situação em que as propriedades estatísticas das variáveis se altera ao longo do tempo acarretando na perda de performance de modelos de Aprendizado de Máquina. Este trabalho apresenta uma nova ferramenta para detecção de mudança de conceito por meio do uso de Meta Aprendizado em problemas de fluxo de dados que contenham atraso grande na chegada da variável alvo. Optou-se por utilizar o Meta Aprendizado por se tratar de uma técnica robusta e adaptada para problemas de fluxo de dados, no entanto, em oposição à sua abordagem tradicional de recomendação de algoritmos, fez-se uso de um regressor no nível meta que prevê a cada janela o desempenho do modelo base. Esta predição é então utilizada na geração de alertas de mudança de conceito antes da chegada da variável alvo. O treinamento do meta modelo foi feito com o uso de diversos meta atributos não supervisionados da literatura de Meta Aprendizado, além disso, foram adicionadas medidas não supervisionadas de detecção de mudança de conceito como parte dos atributos como forma de aumentar a capacidade preditiva do modelo gerado. O algoritmo foi aplicado em bases de dados usuais da literatura de fluxo de dados e o desempenho no nível meta é avaliado por meio do ganho acumulado do Erro Quadrático Médio com relação ao algoritmo original de Meta Aprendizado e à baseline, medida a partir da última janela com desempenho conhecido. Por fim, a importância das variáveis para o meta regressor é analisada para entender a contribuição dos novos meta atributos propostos nesta pesquisa. Resultados preliminares mostram que o algoritmo proposto gera, em média, uma redução de 12.8% no erro com relação ao Meta Aprendizado tradicional e de 38% com relação à baseline na predição de desempenho do modelo base. Espera-se, com os próximos passos, efetuar a criação do alerta de mudança de conceito baseado nas predições do meta modelo e comparar a técnica proposta com as métricas existentes de mudança de conceito em bases de dados que possuam mudança de conceito rotulada.
-
Mostrar Abstract
-
Advances in the data generation and transmission have enhanced the existence of many data flows applications, these highly dynamic environments often comes with the concept drift problem, phenomenon in which the statistical properties of the variables change over time, resulting in the performance loss of Machine Learning models. This work presents a new concept drift detection tool for Machine Learning systems through the use of Meta Learning. The algorithm was proposed for data stream like problems containing concept drift with large target arrival delay, Meta Learning was choosen because of its robustness and adaptation to data stream problems, however, unlike the traditional algorithm recommendation Meta Learning approach, a regressor was used at the meta level to predict the base model performance, these predictions can be used to generate concept drift alerts before the target arrival. The meta model training included the use of several unsupervised Meta Features from the Meta Learning literature, in addition, unsupervised concept drift detection metrics were added to the attributes in order to increase the predictive power of the generated meta regressor. The algorithm was applied in commonly used data streams databases and the performance at the meta level is evaluated through the Mean Squared Error compared to the original Meta Learning approach and to the baseline, a measure from the last known performance window. Finally, the importance of the variables for the meta regressor is analyzed to find the real contribution of the MFe proposed in this research, such as the concept change detection measures. Preliminary results show that the proposed algorithm generates, on average, an error reduction of 12.8% compared to the traditional Meta Learning and 38% compared to the baseline in predicting the performance of the base model. Future work includes the concept drift alert definition based on the meta model predictions and the comparison of the proposed technique with existing concept drift metrics databases with labeled concept drift.
|
|
16
|
-
Paulo Victor Gonçalves Farias
-
Proposta de um Protocolo de Disseminação de Mensagens em Redes Veiculares Ad Hoc para Aplicações Sensíveis à Acurácia de Posicionamento
-
Orientador : JACIR LUIZ BORDIM
-
MEMBROS DA BANCA :
-
EDUARDO ADILIO PELINSON ALCHIERI
-
JACIR LUIZ BORDIM
-
JO UEYAMA
-
MARCELO ANTONIO MAROTTA
-
Data: 22/09/2023
-
-
Mostrar Resumo
-
As aplicações para prevenção de acidentes em Redes Veiculares Ad Hoc (VANETs) desempenham um papel importante para garantir a segurança de motoristas, passageiros e pedestres. Seu funcionamento depende de requisitos rígidos relacionados a acurácia de posicionamento dos veículos. Para atender essas restrições, as aplicações exigem o envio frequente de mensagens periódicas, também conhecidas como beacons, contendo a posição geográfica, velocidade e direção do veículo. Em cenários de tráfego denso, a alta taxa de envio de beacons somada a difusão descoordenada de outras mensagens pode ocasionar em uma congestão na rede. Durante a congestão, o canal de transmissão se torna saturado, aumentando a perda de pacotes por erros ou colisões, bem quanto o atraso de entrega das mensagens. Vários trabalhos têm sido propostos para aliviar a congestão em redes veiculares, porém a maioria não considera a perda de acurácia de posicionamento que pode ocorrer como efeito colateral das estratégias usadas. Este trabalho contribui com um estudo sobre as limitações do canal de transmissão em redes veiculares, bem quanto uma definição detalhada do problema de congestão. Propõe-se um novo protocolo para a disseminação de mensagens em VANETs chamado APGP. O APGP utiliza uma arquitetura de três módulos para controlar a congestão causada por beacons, monitorar os veículos vizinhos e realizar o envio das mensagens de alerta. A proposta utiliza uma abordagem com ajuste de potência de transmissão para o envio de mensagens para grupos de vizinhos chamados de grupos geocast e um ajuste de taxa de envio de mensagens baseado na predição de posição feita localmente. O APGP foi implementado em um ambiente de simulação de redes veiculares e testado sob um cenário veicular urbano. Os resultados indicaram que a proposta conseguiu melhorar a taxa de recepção de pacotes, bem quanto reduzir o atraso de entrega e a taxa de ocupação do canal quando comparado a outros trabalhos relevantes. Por fim, constatou-se que o APGP conseguiu atender aos requisitos de acurácia de posicionamento das aplicações para veículos mais próximos, em detrimento de veículos localizados em regiões mais distantes.
-
Mostrar Abstract
-
Periodic message transmission is one of the possible ways to enable operation of applications in a Vehicular Ad-Hoc Network (VANET). These messages are known as beacons and they consist of information about a vehicle’s position, speed, and direction. Safety applications in VANETs dictate that beacons must be sent at high frequencies to en-sure reliable and efficient operation. However, due to the transmission channel restraints, the number of messages being transmitted simultaneously can lead to collisions in environments with high vehicle density. When there is a high number of collisions, new messages will not be sent correctly. This event is called broadcast storm. Congestioncontrol algorithms have been proposed with effective solutions to this problem, adjusting parameters like transmission rate and transmission power. Despite this, it was noticed that these techniques can impair the operation of safety applications that rely on positioning information with a certain level of accuracy. In this work, a Proactive Geocast Beacon Transmission Algorithm(PGBTA) is proposed as a solution to control network congestion and ensure application positioning requirements. In PGBTA, beacons are transmitted by geocast, where neighbors of a node are divided into geocast groups according to their distance.PGBTA prioritizes sending more frequent updates to groups of neighbors at near distances through a position prediction mechanism, which considers the position accuracy requirements defined in the literature. Simulations were carried out in a real scenario where it was possible to verify the possibility of implementing the PGBTA algorithm, considering metrics such as number of beacons generated, delay between beacon transmissions, number of neighbors and positioning error.
|
|
17
|
-
Herval Alexandre Dias Hubner
-
Análise de evolução de linhas de produtos de software
-
Orientador : VANDER RAMOS ALVES
-
MEMBROS DA BANCA :
-
GENAINA NUNES RODRIGUES
-
LEOPOLDO MOTTA TEIXEIRA
-
VANDER RAMOS ALVES
-
VINICIUS RUELA PEREIRA BORGES
-
Data: 26/10/2023
-
-
Mostrar Resumo
-
No cenário atual da engenharia de software, as Linhas de Produtos de Software (LPS) emergem como uma abordagem fundamental para enfrentar os desafios da customização em massa. LPS permitem a construção de soluções individuais com base em componentes reutilizáveis, proporcionando eficiência e flexibilidade no desenvolvimento de software. As LPS são fundamentais para melhorar a produtividade e a qualidade no desenvolvimento de software, graças à reutilização de componentes e rápida adaptação a novos requisitos. A variabilidade é central em LPS, facilitando a adaptação a diversas situações de produtos através de recursos que podem ser ativados. A análise de LPS é crucial para identificar requisitos comuns e variantes, mas enfrenta desafios de falta de dados concretos e limitações de tempo. No entanto, a análise de LPS enfrenta desafios, como a escassez de estudos empíricos caracterizando e detalhando a evolução de LPS. Neste trabalho, desenvolvemos a ferramenta ASTool (software de análise de alterações na árvore de sintaxe abstrata) para examinar diversas Linhas de Produto de Software e assim, caracterizar a evolução das mesmas. Os resultados obtidos nesta análise revelam que, no que diz respeito à média de profundidade das alterações na Abstract Syntax Tree (AST), as modificações ocorrem em níveis superficiais, ou seja, próximas à raiz da árvore de sintaxe. Em relação à média de arquivos alterados por commit, observou-se uma quantidade significativa de arquivos modificados por commit. Quanto à média de lacunas (gaps) entre as linhas alteradas no código, os valores obtidos indicam uma baixa frequência de alterações. Os resultados deste estudo podem influenciar a decisão de utilizar ou não a técnica de memorização para melhorar a eficácia das análises.
-
Mostrar Abstract
-
In the current software engineering scenario, Software Product Lines (LPS) emerge as a fundamental approach to face the challenges of mass customization. LPS allow the construction of individual solutions based on reusable components, providing efficiency and flexibility in software development. LPS are fundamental for improving productivity and quality in software development, thanks to the reuse of components and rapid adaptation to new requirements. Variability is central to LPS, facilitating adaptation to diverse product situations through features that can be activated. LPS analysis is crucial for identifying common and variant requirements, but faces challenges of lack of hard data and time constraints. However, LPS analysis faces challenges, such as the scarcity of empirical studies characterizing and detailing the evolution of LPS. In this work, we developed the ASTool tool (software for analyzing changes in the abstract syntax tree) to examine several Software Product Lines and thus characterize their evolution. The results obtained in this analysis reveal that, with regard to the average depth of changes in the Abstract Syntax Tree (AST), modifications occur at superficial levels, that is, close to the root of the syntax tree. In relation to the average number of files changed per commit, a significant number of files modified per commit were observed. As for the average number of gaps between changed lines in the code, the values obtained indicate a low frequency of changes. The results of this study may influence the decision whether or not to use the memorization technique to improve the effectiveness of analyses.
|
|
18
|
-
Lucélia Vieira Mota
-
Reconhecimento de Entidades Nomeadas para Conteúdo Publicado em Diários Oficiais com Base em uma Abordagem de Supervisão Fraca
-
Orientador : THIAGO DE PAULO FALEIROS
-
MEMBROS DA BANCA :
-
ALAN DEMÉTRIUS BARIA VALEJO
-
GERALDO PEREIRA ROCHA FILHO
-
LUIS PAULO FAINA GARCIA
-
THIAGO DE PAULO FALEIROS
-
Data: 14/12/2023
-
-
Mostrar Resumo
-
O Reconhecimento de Entidade Nomeada é uma tarefa desafiadora de Processamento de Linguagem Natural, especialmente quando se trata de uma língua tão rica quanto o português. Quando aplicada em um cenário adequado à linguagem formal e a textos oficiais, a tarefa adquire uma nova camada de complexidade, lidando com um contexto léxico particular ao domínio em questão. Neste estudo será apresentado a geração de um corpus anotado de Licitação e Contratação Pública por meio da abordagem de supervisão fraca. Métodos de Supervisão Fraca podem ser utilizados quando grandes quantidades de dados anotados estão indisponíveis, caros para obter ou impraticáveis para anotar manualmente. Além disso, valida-se o conjunto de dados anotados com um corpora formal anotado por rotulação manual, a fim de avaliar se o corpus gerado do domínio poderia melhorar os algoritmos de Reconhecimento de Entidades Nomeadas. Para isso, realizaram-se experimentos com um modelo Conditional Random Fields, um modelo Bidirecional Long-Short Term Memory com uma camada adicional de redes convolucionais e, posteriormente, realizou-se a aplicação da Supervisão Fraca diretamente a geração do corpus a fim de avaliar se os resultados obtidos iriam melhorar a qualidade de geração do corpus. Conclui-se que a combinação de Reconhecimento de Entidades Nomeadas e abordagem supervisionada fraca podem alcançar a geração de um corpus com mais qualidade, além reduzir a anotação manual necessários para treinar os modelos de Reconhecimento de Entidades Nomeadas. Em alguns casos, a aplicação da Supervisão Fraca com o Reconhecimento de Entidades Nomeadas e aplicação direta de supervisão ao corpus alcançaram resultados satisfatórios em comparação aos modelos treinados por dados anotados à mão.
-
Mostrar Abstract
-
Training data labeling has become one of the main obstacles to the use of machine learning. Among several data labeling paradigms, weak supervision has shown as an opportunity to alleviate the bottleneck of manual labeling, since from supervision we can programmatically synthesize the training of labels from multiple sources generated by potentially noisy supervision. This dissertation presents experiments on one of the weak supervision application approaches. In particular, a brief literature review was carried out on the theoretical basis that supports the use of this approach and describes in general a learning and labeling workflow within the problem of named entity recognition from weak supervision. Finally, experiments were carried out to evaluate the gains of using this approach to assist in the labeling of bases within the context of Public Administration in Brazil, and thus, to inspire future research directions in the field.
|
|
19
|
-
Leandro Dias Carneiro
-
Avaliando a influência de degradações em imagens nos modelos de aprendizado profundo utilizados em reconhecimento facial.
-
Orientador : FLAVIO DE BARROS VIDAL
-
MEMBROS DA BANCA :
-
FLAVIO DE BARROS VIDAL
-
BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
CAMILO CHANG DOREA
-
HELIO PEDRINI
-
Data: 21/12/2023
-
-
Mostrar Resumo
-
Durante a Persecução Penal, os sistemas de Reconhecimento Facial têm sido cada vez mais utilizados, pois além da acurácia dos sistemas terem aumentado de forma considerável nos últimos anos, observa-se cada vez mais a presença de câmeras nas vias públicas, residências e estabelecimentos comerciais. Atualmente, a maioria dos sistemas comerciais apresenta como resultado uma métrica que representa a similaridade entre duas faces, ou simplesmente uma descrição qualitativa, deixando de lado outras análises a respeito da qualidade e da real utilidade do material utilizado para a comparação. Este trabalho tem como objetivo estimar o impacto que as degradações da imagem causam nos sistemas de reconhecimento facial baseados em aprendizado profundo, a fim de minimizar equívocos cometidos na análise do resultado. Para atingir este objetivo, serão realizadas duas etapas sequencias, sendo a primeira, a criação de uma base de dados e, a segunda, um modelo capaz de identificar a degradação (e a intensidade) presente na imagem. A base de dados será criada a partir de 3 algoritmos de detecção facial, 8 algoritmos de reconhecimento facial, 14 tipos de degradações com 6 níveis de intensidade em cada, e 4 bases de dados de faces, sendo calculados os escores para as métricas acurácia, precision e recall. Após a criação da base de dados, será desenvolvido um modelo de aprendizado profundo, capaz de identificar a degradação presente na imagem. Com esta identificação, será possível consultar os resultados da base de dados e estimar a queda de desempenho para as imagens novas. Para as bases de dados de faces analisadas, os modelos de reconhecimento facial tiveram um impacto mínimo de 17%, em média, e um impacto máximo de 43%, em média. Ainda, os modelos treinados na tarefa de detecção de degradação tiveram uma acurácia variando entre 71% e 94%, aproximadamente. Tanto os algoritmos quanto as bases de dados de faces são públicos. O objetivo final do projeto se dá pela identificação dos limites de qualidade necessários para um resultado considerado robusto por parte dos sistemas de reconhecimento facial. Ainda, a criação de um modelo capaz de estimar, com razoável acurácia, o tipo de degradação presente em uma imagem.
-
Mostrar Abstract
-
During criminal prosecution, facial recognition systems have been increasingly used, as in addition to the accuracy of the systems increasing considerably in recent years, cameras are growing on public roads, homes, and commercial establishments. Currently, most commercial systems present, as a result, a metric that represents the similarity between two faces or simply a qualitative description, leaving aside other analyses regarding the quality and actual usefulness of the material used for comparison. This work aims to estimate the impact of image degradations on facial recognition systems based on deep learning to minimize mistakes made when analyzing the result. To achieve this objective, two sequential steps will be carried out: the creation of a database and, the second, a model capable of identifying the degradation (and intensity) present in the image. The database will be created from 3 facial detection algorithms, eight facial recognition algorithms, 14 types of degradations with six intensity levels in each, and four face databases, with scores calculated for the accuracy metrics, precision, and recall. After creating the database, a deep learning model will be developed, capable of identifying the degradation present in the image. With this identification, it will be possible to consult the database results and estimate the drop in performance for new images. For the face databases analyzed, facial recognition models had a minimum impact of 17% on average and a maximum impact of 43% on average. Furthermore, the models trained in the degradation detection task had approximately 71% and 94% accuracy. Both the algorithms and the face databases are public. The project's final objective is to identify the quality limits necessary for a result considered robust by facial recognition systems. Furthermore, it creates a model capable of estimating, with reasonable accuracy, the type of degradation present in an image.
|
|
|
Teses |
|
1
|
-
Lucas Maciel Vieira
-
Exploring relevant features of colorectal cancer from clinical and biological data: a bioinformatics approach
-
Orientador : MARIA EMILIA MACHADO TELLES WALTER
-
MEMBROS DA BANCA :
-
MARIA EMILIA MACHADO TELLES WALTER
-
CELIA GHEDINI RALHA
-
ANDRE CARLOS PONCE DE LEON FERREIRA DE CARVALHO
-
JOÃO CARLOS SETUBAL
-
PETER FLORIAN STADLER
-
Data: 28/02/2023
-
-
Mostrar Resumo
-
O câncer colorretal (CRC) é um dos tipos de câncer mais comuns e letais em todo o mundo, sendo o segundo câncer mais comum no Brasil [1]. O CRC é um câncer heterogêneo, que se instala na parte inferior do intestino grosso e pode ser classificado de acordo com seu campo anatômico, como câncer de cólon, de reto ou na junção retossigmoide. O tipo mais frequente de CRC é o adenocarcinoma, que corresponde a 90% dos casos. A maioria das mortes causadas por CRC acontece quando esse entra em estado de metástase. No entanto, se detectado em seus estágios iniciais, a sobrevida do paciente com CRC pode melhorar consideravelmente. Esta doença pode ser influenciada por diversos aspectos ambientais, tais como:hábitos alimentares, idade e peso. Normalmente, o tratamento recomendado para pacientes com CRC é a cirurgia para sua remoção e, depois, o uso de quimioterapia, porém o tratamento pode diferir de acordo com seu campo anatômico. O diagnóstico do CRC em um campo anatômico incorreto pode levar o médico a prescrever um tratamento não recomendado ao paciente, o que pode afetar a sua taxa de mortalidade. Para auxiliar o prognóstico, prevenção e tratamento de CRC, é fundamental entender os mecanismos moleculares e os indicadores clínicos que afetam o desenvolvimento do CRC.
Quanto aos aspectos biológicos do CRC, podemos descrever o impacto dos RNAs codificadores e não-codificadores nos mecanismos subjacentes à doença. Em específico, podemos destacar três moléculas: RNAs longos não codificadores (em inglês, long non-coding RNAs - lncRNAs), micro RNAs (miRNAs) e RNAs mensageiros (em inglês,messenger RNAs - mRNAs). Nos eucariotos, os mRNAs maduros são formados a partir do pré-mRNA que, por sua vez, é produzido a partir do processo de transcrição passar por um processo conhecido como excisão (em inglês, splicing), que remove algumas regiões (íntrons) do pré-mRNA e liga outras regiões (exons), formando assim o mRNA maduro. O processo de splicing possibilita gerar mais de uma proteína a partir de um único gene, em um processo conhecido como excisão alternativa (em inglês, alternative splicing). Por sua vez, as proteínas coordenam quase todos os processos vitais no organismo, sendo utilizadas em reações metabólicas e afetando diversos processos biológicos, como o desenvolvimento de doenças.
Os miRNAs desempenham um papel essencial na expressão gênica, mais especificamente, ligando-se aos mRNAs e iniciando os processos de inibição ou degradação de seu alvo. Por sua vez, os lncRNAs não estão diretamente presentes neste processo de regulação da expressão de mRNA, mas desempenham papéis essenciais no organismo, como a alteração das funções de outras moléculas e, assim, afetam a expressão de proteínas indiretamente, o que pode contribuir para o surgimento e supressão de doenças. Considerando o papel específico de cada uma das moléculas descritas no desenvolvimento de doenças, estudos recentes destacaram a importância de um mecanismo conhecido como redes de RNAs endógenos concorrentes (em inglês, competing endogenous RNAs - ceRNAs), nos quais os lncRNAs, os miRNAs e osmRNAs interagem entre si. Nesse mecanismo, osmiRNAs, que se ligam aos mRNAs pelos binding sites, podem também se ligar aos ceRNAs, assim, regulando indiretamente a expressão dosmRNAs. A identificação de redes ceRNA relacionadas ao surgimento do CRC e seus mecanismos subjacentes podem auxiliar os médicos a entender melhor a doença e realizar um melhor prognóstico do paciente. Na literatura, podemos encontrar alguns estudos que usam abordagens baseadas em bioinformática para criar redes ceRNAs e auxiliar a identificação de biomarcadores para o câncer de cólon, reto e o câncer colorretal em geral.
Embora alguns estudos tenham foco na construção de redesceRNA, até onde sabemos, nosso estudo foi o primeiro a estabelecer redes ceRNAs específicas para: (i) cólon; (ii) reto; e (iii) junção retossigmóide, além de relacioná-los com mecanismos biológicos específicos, a fim de esclarecer as diferenças e fatores comuns entre essas diferentes localizações anatômicas.
Por outro lado, alguns estudos sugerem o uso de métodos de aprendizagem de máquina e também o uso de características clínicas para predizer marcadores que podem ser usados para prognóstico de pacientes com CRC [9, 10, 11]. Especificamente, Gründner et al. [9] sugeriram um método que combina características biológicas e clínicas para predizer marcadores de prognóstico de pacientes com CRC na África do Sul. Esses estudos descreveram bons resultados obtidos a partir de modelos de predição. Tanto quanto saibamos, nosso estudo foi o primeiro que usou dados abertos e métodos de aprendizagem de máquina para predizer a reincidência de CRC e a sobrevivência do paciente usando marcadores biológicos extraídos de redesceRNAsde câncer de cólon, de reto e na junção retossigmoide, combinados com características clínicas.
Nesta tese, na primeira etapa, propusemos um pipeline utilizando dados de livre acesso de pacientes com CRC, extraídos do banco de dados The Cancer Genome Atlas (TCGA), para construir redes ceRNAs específicas para o CRC e marcadores biológicos que afetam o prognóstico do paciente. Nosso objetivo foi o de realizar uma análise para identificar moléculas que possam ser usadas como marcadores biológicos para os três sítios anatômicos do CRC, cólon, reto e junção retossigmoide. Para construir tais redes e propor os marcadores biológicos, a expressão de RNA e os dados clínicos dos pacientes com CRC foram coletados. Os perfis de expressão de RNA foram produzidos por meio de ferramentas de análise que utilizam técnicas de bioinformática. Em seguida, encontramos redes ceRNA específicas para cada campo anatômico, para as quais, como dados de saída, obtivemos as redes ceRNA e as moléculas nelas presentes. Após essa etapa, foi realizada uma análise funcional, onde identificamos potenciais vias metabólicas relacionadas ao surgimento de câncer, as quais têm participação das moléculas obtidas na etapa anterior. Finalmente, uma análise de sobrevida global para identificar o impacto dessas moléculas no prognóstico do paciente foi realizada, resultando em uma lista de potenciais marcadores biológicos.
Nessa etapa, ficaram evidenciados diversos potenciais biomarcadores que afetam o prognóstico do paciente em câncer de cólon, de reto e na junção retossigmoide. Além disso, redes ceRNA específicas para cada campo anatômico foram construídas, e foram identificadas diferentes vias biológicas que destacam diferenças no comportamento do CRC nos diferentes campos anatômicos, reforçando assim, a importância de identificar corretamente o campo anatômico em que o tumor ocorre. Como resultados, geramos um grupo de potenciais biomarcadores biológicos que afetam o prognóstico do CRC, em particular, podemos destacar: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16 e hsa-miR-495-3p para câncer de cólon; E2F8para câncer retal; e DMD e hsa-miR-130b-3p para câncer na junção retossigmoide.
Com a lista de potenciais marcadores biológicos que podem afetar no prognóstico de CRC, prosseguimos para a segunda etapa desta tese, em que propusemos um pipeline para prever a reinicindiva do CRC e a sobrevida dos pacientes, utilizando métodos de aprendizagem de máquina supervisionados. Fatores clínicos, como idade e peso, assim como fatores biológicos, podem afetar o prognóstico e o surgimento do CRC. Para melhor entender os mecanismos do CRC e identificar o impacto, tanto dos fatores clínicos, quanto dos fatores biológicos em seu prognóstico, usamos as características clínicas do paciente combinadas com os marcadores biológicos encontrados no passo anterior, como características biológicas, para treinar nossos modelos. Para alcançar um maior desempenho na predição e na possibilidade de interpretação dos resultados propostos, avaliamos e comparamos os seguintes algoritmos de aprendizagem de máquina: Random Forest - RF, Logistic Regression - LR, Support Vector Machine - SVM, K-Nearest Neighbors - KNN, Decision Tree - DT e Adaptative Boosting - AB. Para encontrar a importância de cada característica durante a construção dos modelos de predição, primeiro foi realizada uma análise de seleção de características, para filtrar e classificar quais dessas características de fato tinham impacto no modelo de predição construído. Com essas características biológicas e clínicas relevantes selecionadas, construímos os modelos de aprendizagem de máquina e avaliamos seu desempenho. Finalmente, como resultado, geramos modelos de aprendizagem de máquina para prever a reincidência do CRC e a sobrevivência do paciente, e uma lista de potenciais características biológicas e clínicas relevantes para o prognóstico do paciente.
Nesta etapa, identificamos diversos potenciais marcadores biológicos e clínicos como importantes na reincindiva do CRC e na sobrevida do paciente. Quanto à importância das características, identificamos: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p e KCNQ1OT1 como características biológicas; e idade, etnia, estágio patológico, quimioterapia, altura e peso, contagem positiva de linfonodos e contagem de linfonodos como características clínicas. Finalmente, usando LR e RF, alcançamos uma precisão de 90% e 82% para predição da sobrevivência do paciente e da reincidiva do CRC, respectivamente. Além disso, o uso dos seis algoritmos de apredizagem de máquina propostos mostrou um bom desempenho geral, em específico, o RF apresentou bons resultados, o que também foi destacado em outros estudos [9, 10, 11].
Por fim, a pesquisa desenvolvida nesta tese mostrou que o uso de técnicas de bioinformática em conjunto com o uso de algoritmos de aprendizagem de máquina pode melhorar a interpretação dos mecanismos presentes no CRC. No entanto, devemos destacar alguns fatores limitantes com os quais nos deparamos, como a quantidade de dados disponíveis para pacientes com câncer de junção rectosigmoide e a especificidade regional dos dados clínicos dos pacientes, visto que o banco de dados utilizado continha informações principalmente de pacientes dos Estados Unidos. Perspectivas de uso dos métodos desenvolvidos nesta tese são, primeiro, os pipelines propostos poderiam fornecer aos médicos um entendimento melhor dos mecanismos subjacentes ao CRC em seus diferentes campos anatômicos. Além disso, nossos modelos poderiam ser usados para auxiliar na predição de prognóstico do paciente. Por fim, executar esses pipelines com dados de pacientes brasileiros poderia ajudar os médicos a entender melhor as características específicas no surgimento do CRC e prognóstico dos pacientes que vivem nas diferentes regiões do Brasil.
-
Mostrar Abstract
-
Colorectal cancer (CRC) is one of the most frequent and lethal types of cancer around the world, being the second most frequent cancer in Brazil [1]. CRC is a heterogenous cancer that settles in the lower part of the large bowel and can be classified according to its anatomical site as:colon, rectum, and rectosigmoid junction cancer. The most common type of CRC is the adenocarcinoma, which accounts for 90% of the cases. Most of CRC deaths are related to its metastases, and if early detected, it improves considerably the patient survival chances. This disease can be impacted by many environmental aspects such as: eating habits, age, and weight. Its treatment can also differ according to its anatomical site and its recommended treatment, usually, first surgery and then chemotherapy. An inaccurate identification of the CRC anatomical site can lead to under or overtreatment, which can impact the patient’s likelihood of mortality. In order to help CRC prognosis, prevention, and treatment, it is crucial to understand the molecular mechanisms and external factors that affect CRC development and progression.
Regarding the biological aspects of CRC, we can describe the impact of coding and non-coding RNAs on the disease’s underlying mechanisms. In specific, we can highlight three molecules: long non-coding RNAs (lncRNAs), micro RNAs (miRNAs), and messenger RNAs (mRNAs). In eukaryotes, the mature mRNAs are formed after the pre-mRNA generated from the transcription undergoes a process known as splicing, which removes some regions (introns) of the pre-mRNA, while binding others (exons), thus forming the mature mRNA. The splicing process can generate more than one protein from a single gene in a process known as alternative splicing. The generated proteins then are used to regulate the organism’s functions by being used in metabolic reactions and affecting many biological processes, such as disease development.
The miRNAs play an essential role in gene expression, more specifically, by binding to mRNAs and then starting the processes of inhibition or degradation of their target. On the other hand, the lncRNAs are not directly portrayed in this mRNA expression regulation process but play essential roles, such as altering other molecules’ functions and therefore affecting protein expression affecting disease development and suppression. Given the specific role of each described molecule in disease development, recent studies also highlighted the importance of a mechanism known as competing endogenous RNAs (ceRNAs) networks, in which lncRNAs, miRNAs, and mRNAs interact among themselves. In this mechanism, the miRNAs, in addition to their capability of binding to
the mRNAs, can also bind to the ceRNAs, which then, act as modulators of miRNAs, therefore, indirectly regulating the mRNA expression. The identification of ceRNA networks related to CRC development and its underlying mechanisms can help doctors to understand better the disease and better identify the patient’s prognosis. In literature, we can find some studies that use bioinformatic approaches to analyze and create ceRNA networks and to indicate potential prognosis biomarkers for colon, rectal, and colorectal cancer in general [2, 3, 4, 5, 6, 7, 8].
Although some studies were done with the ceRNAs networks constructions in mind, to the best of our knowledge, our study was the first to establish specific ceRNA networks for: (i) colon; (ii) rectum; and (iii) rectosigmoid junction, and to relate them with specific biological mechanisms in order to clarify the differences and common factors between these sites.
On the other hand, some studies suggest the use of machine learning methods using clinical features to predict CRC patient prognosis [9, 10, 11]. In specific, Gründner et al. [9] explored a method that combined biological and clinical features to predict prognosis aspects for CRC patients from South Africa. These studies showed promising results in predicting CRC patient’s prognosis, but to the best of our knowledge, our study was the first one that used open data and machine learning to predict CRC recurrence and patient survival by using biological markers extracted from the colon, rectal and rectosigmoid cancer ceRNA networks combined with clinical features.
In this thesis, as the first step, we propose a pipeline by using open-access data from patients with CRC extracted from The Cancer Genome Atlas (TCGA) to construct CRC-specific ceRNA networks and potential biological markers that affect patient prognosis. We aim to perform an analysis to identify molecules that can be used as biological markers for the three CRC anatomical sites:colon, rectum, and rectosigmoid junction. To construct these networks and propose the biological markers, RNA raw expression and clinical data from the CRC patients were collected.The RNA expression profiles were assessed by the use of bioinformatic analysis tools, and a ceRNA network was constructed for each CRC anatomical site, where as output we got the ceRNA networks and the molecules present on them. After, a functional enrichment analysis was performed, where we assessed the potential biological pathways activated by the molecules obtained in the previous step. Finally, an overall survival analysis to identify the impact of these molecules on patient prognosis was performed, giving as output a list of potential biological markers.
As an overall result of the first pipeline of this thesis, several potential prognostic markers for colon, rectum, and rectosigmoid junction cancer were found.Also, specific ceRNA networks for each anatomical site were constructed, and we identified different biological pathways that highlight differences in CRC behavior at the different anatomical sites, thus reinforcing the importance of correctly identifying the tumor site. As output, a group of potential biological markers involved in CRC prognosis was generated, in specific, we can highlight the site-specific prognosis biomarkers: hsa-miR-1271-5p,NRG1, hsa-miR-130a-3p,SNHG16, and hsa-miR-495-3p in the colon;E2F8in the rectum; and DMDand hsa-miR-130b-3p in the rectosigmoid junction.
With the list of potential biological markers related to CRC prognosis, then we proceeded to the second part of this thesis, the proposal of a pipeline to predict CRC recurrence and patient survival using supervised machine learning (ML) methods. Clinical factors such as age and weight, as well as biological factors, can affect CRC progression and prognosis. To better understand the mechanisms of CRC and to identify the impact of both clinical and biological factors in its prognosis, we used patient clinical features combined with the previously found biological markers as biological features, to train our ML models.In order to achieve higher predictive performance and interpretability of the proposed findings, we evaluated and compared the following ML algorithms: Random Forest (RF), Logistic Regression (LR), Support Vector Machine (SVM), K-Nearest Neighbors (KNN), Decision Tree (DT) e Adaptative Boosting (AB). To establish the importance of each feature while building the models to predict CRC recurrence and patient survival, first, a feature extraction analysis was performed, to filter and rank which of these features in fact have an impact on the constructed prediction model. With the selected relevant biological and clinical features in hand, we then constructed the ML models and evaluated their performance. Finally, as output, we generated ML models to predict CRC recurrence and patient survival and a list of potential biological and clinical features relevant to patient prognosis.
Regarding the overall result from the second pipeline, several potential biological and clinical markers were pointed out as important in CRC recurrence and patient survival. For feature importance, we pointed out: SNHG16, hsa-miR-130b-3p, hsa-miR-495-3p, and KCNQ1OT1 as biological features; and age, ethnicity, pathological stage, chemotherapy, height and weight, positive lymph node count and lymph node count as clinical features. Finally, by using LR and RF we achieved the best accuracy of 90% and 82% for predicting patient survival and CRC recurrence, respectively. Also, the use of the six proposed ML algorithms showed an overall good performance, in specific, LR and RF displayed good overall results, which was also highlighted in other studies [9, 10, 11].
This study strongly suggests that the use of bioinformatic approaches should be concurrently used with ML algorithms to enhance the interpretation of CRC mechanisms and patient prognosis. However, we should highlight some limiting factors such as: the amount of available data, as the number of available patients for certain anatomical sites was low; and that the data mainly consisted of patients from the USA. Following the proposed pipelines, doctors can better understand the underlying mechanisms of CRC in its anatomical sites, and also use our model to help predict patient prognosis. Finally, running these pipelines in Brazilian patient data could lead to an increase in CRC data interpretation, especially in a circumstance where there is diversity and inequality in the country’s demographic landscape, which can affect CRC prognosis.
|
|
2
|
-
Willian de Oliveira Barreiros Júnior
-
Efficient Execution of Microscopy Image Analysis on Distributed Memory Hybrid Machines
-
Orientador : GEORGE LUIZ MEDEIROS TEODORO
-
MEMBROS DA BANCA :
-
GEORGE LUIZ MEDEIROS TEODORO
-
RICARDO PEZZUOL JACOBI
-
ALFREDO GOLDMAN VEL LEJBMAN
-
CRISTIANA BARBOSA BENTES
-
RENATO ANTÔNIO CELSO FERREIRA
-
Data: 23/03/2023
-
-
Mostrar Resumo
-
A análise de imagens de whole slide tissue image (WSIs) é uma tarefa computacionalmente cara, impactando negativamente no uso de dados de patologia em imagens em larga es- cala para pesquisa. Diversas soluções paralelas para otimizar tais aplicações já foram propostas, mirando no uso de dispositivos e ambientes, como CPUs, GPUs e/ou sistemas distribuídos. Porém, a execução eficiente de de código paralelo em máquinas híbridas e/ou distribuídas permanece um problema em aberto para histopatologia digital. Desen- volvedores de aplicações podem precisar implementar múltiplas versões de código para diferentes dispositivos de hardware. Desenvolvedores também precisam lidar com os de- safios de distribuição eficiente de carga para nós computacionais de máquinas de memória distribuída, assim como para os dispositivos de execução de cada nó. Essa tarefa pode ser particularmente difícil para analises de imagens de alta resolução com custo computacional dependente de conteúdo. Esta tese tem como objetivo propor uma solução para a simpli- ficação do desenvolvimento de aplicações de análise de WSI, assegurando o uso eficiente de recursos distribuídos híbridos (CPU-GPU). Para esse fim foi proposto um modelo de execução de alto nível de abstração, em conjunto com um método de particionamento au- tomático de carga. A fim de validar os métodos e algoritmos propostos, uma linguagem de processamento de imagem de alto nível de abstração (Halide) foi utilizada como solução de paralelismo local (CPU/GPU), junto com o Region Templates (RT), um sistema de gestão de coordenação de dados e tarefas entre nós distribuídos. Também foi desenvolvida uma nova estratégia cost-aware de particionamento de dados (CADP) que considera a ir- regularidade de custo de tarefas a fim de minimizar o desbalanceamento de carga. Para tal, dois algoritmos de particionamento foram propostos, o Expected Cost Bisection e o Background Removal Bisection. Resultados experimentais mostram melhorias significa- tivas na performance de execução com recursos híbridos CPU-GPU, comparada com o uso de recursos homogêneos (CPU ou GPU apenas). Os algorithmos de particionamento foram comparados com uma abordagem baseline hierarquica usando KD-Trees (KDT), em ambientes multi-GPU, multi-GPU híbrido e distribuído de larga escala. Os resultados mostraram ganhos de até 2.72× para o ECB e de 4.52× para o BRB, ambos em com- paração ao KDT. Em adição ao modelo simplificado de desenvolvimento de workflows por experts de domínio, a performance vista em ambos ambientes híbridos e de larga escala demonstra a eficácia do sistema proposto para uso em estudos WSI de larga escala. Am- bas melhorias na performance dos algoritmos do CADP como no modelo de estimação de custo de execução são esperadas como trabalhos futuros para o sistema aqui proposto.
-
Mostrar Abstract
-
The analysis of high resolution whole slide tissue images (WSIs) is a computationally expensive task, which cost adversely impacts large scale usage of pathology imaging data in research. Parallel solutions to optimize such applications have been proposed target- ing multiple devices and environments, such as CPUs, GPUs, hybrid compute nodes and distributed systems. However, the generalization of efficiently executing parallel code on hybrid and/or distributed machines remains an open challenge for digital histopathol- ogy. An application developer may have to implement multiple versions of data pro- cessing codes targeted for different compute devices. The developer also has to tackle the challenges of efficiently distributing computational load among the nodes of a dis- tributed memory machine and among computing devices within a node. This can be particularly difficult for analysis of high-resolution images with content-dependent com- puting costs. This thesis aims to provide a solution for simplifying the development of WSI analysis workflows while also enabling efficient use of distributed and hybrid (CPU- GPU) resources. For this end, a high-level execution model, coupled with an automatic workload partitioning method was proposed. In order to validate the proposed meth- ods and algorithms, a high-level image processing language (Halide) was used as a local resource (CPU/GPU) parallel solution, together with Region Templates (RT), a system for managing data/tasks coordination among distributed nodes. A novel cost-aware data partitioning strategy that considers the workload irregularity to minimize load imbalance was also developed. For it, two partitioning algorithm were proposed, the Expected Cost Bisection (ECB) and the Background Removal Bisection (BRB). Experimental results show significant performance improvements on hybrid CPU-GPU machines, as compared with using a single compute device (CPU or GPU), as well as with multi-GPU systems. The partitioning algorithms were compared with a baseline hierarchical KD-Tree (KDT) approach, on multi-GPU-only, hybrid CPU-GPU and large-scale distributed CPU nodes environments. Results show speedups of up to 2.72× for ECB and 4.52× for BRB, both compared to KDT. In addition to the simpler development model for domain experts, the attained performance for both hybrid and large-scale distributed computing environ- ments demonstrates the efficacy of the proposed system for large-scale WSI studies. Both improvements on the CADP algorithms performance and the accuracy of the execution cost estimation model are expected as future works for the proposed system.
|
|
3
|
-
Liriam Michi Enamoto
-
GeMGF - Generic Multimodal Gradient-Based Meta Framework
-
Orientador : LI WEIGANG
-
MEMBROS DA BANCA :
-
LI WEIGANG
-
GERALDO PEREIRA ROCHA FILHO
-
LUIS PAULO FAINA GARCIA
-
JO UEYAMA
-
PAULO CESAR GUERREIRO DA COSTA
-
Data: 13/04/2023
-
-
Mostrar Resumo
-
O surgimento do Transformer, um modelo pré-treinado utilizando dados em larga escala, e as suas recentes novas versões têm revolucionado pesquisas de Machine Learning em linguagem de processamento natural e visão computacional. Os excelentes resultados obtidos pelos modelos baseados em Transformer dependem de dados rotulados de alta- qualidade de um domínio específico. No entando, devido à diversidade de situações em que esses modelos são utilizados, é desafiador criar modelos que aprendam a partir de um conjunto limitado de dados. O modelo pode apresentar falta de generalização, vieses de linguagem e falta de imparcialidade causados pelos modelos pré-trainados acarretando em resultados inesperados em aplicações do mundo real. Este problema não resolvido nos leva à pesquisa sobre Multimodal Few-Shot Learning.
Nesta tese, propomos o Generic Multimodal Gradient-Based Meta Framework (GeMGF). Para compensar a falta de dados, utilizamos dados multimodais em que informações su- plementares e complementares de uma modalidade podem auxiliar na representação dos dados. Os dados multimodais são extraídos utilizando modelos de deep leaning e en- tão representados em um espaço vetorial unificado. O framework utiliza o Prototypical Network e o Relation Network para o aprendizado com poucos dados. O Reptile, um meta- aprendizado basado em otimização, auxilia a evitar a degradação do modelo com dados nunca vistos. Adicionalmente ao framework multimodal, propomos a versão unimodal para avaliar a sua flexibilidade e adaptabilidade em diferentes cenários.
O framework foi validado por meio de dez conjuntos de dados de diversas áreas: textos curtos do Twitter, textos longos da área jurídica, textos com caracteres alfabéticos (inglês e português) e não-alfabéticos (japonês), imagens da área médica e dados multimodais. O framework multimodal superou em 1,43% o modelo estado-da-arte de Munjal et al. [1] com o dataset CUB-200-2011, e superou em 1,93% o modelo de Pahde et al. [2] com o dataset Oxford-102. O resultado do framework multimodal foi 34,68% superior ao frame- work unimodal para imagem com CUB-200-2011, e 13,96% superior com Oxford-102. Os resultados sugerem que a combinação de dados textuais e imagens podem auxiliar no aprendizado e na melhoria da performance do framework como um todo. GeMGF multi- modal é um framework simples e compacto que utiliza somente 14 milhões de parâmetros, uma quantidade 99,8% menor que o Multimodal Transformer. O framework unimodal para texto alcançou resultados excelentes com dados textuais em japonês, superando o modelo Transformer BERT em 58,30% com 90,90% menos parâmetros. Os resultados sugerem que o framework obteve melhor performance com uma redução significativa no consumo de recurso computational.
As principais contribuições desta pesquisa são: (i) um novo framework FSL multi- modal — GeMGF — que reduz a degradação do modelo quando trainado com poucos dados; (ii) GeMGF é treinado sem utilizar o conhecimento externo evitando vieses de lin- guagem e a falta de imparcialidade; (iii) GeMGF possui extratores de dados multimodais independentes e flexíveis que podem contribuir para aumentar a sua aplicabilidade; e (iv) o framework unimodal para texto pode ser adaptado para idiomas alfabéticos e não- alfabéticos com ótimos resultados.
-
Mostrar Abstract
-
The emergence of Transformer — a model pre-trained over a large-scale dataset — and the recent new versions have revolutionized research in Machine Learning, especially in Natural Language Processing (NLP) and Computer Vision. The excellent results of Tranformer-based models depend on labeled and high-quality domain specific data. How- ever, due to the diversity of contexts in which these models are used, it is challenging to create models that learn from limited data. The model may suffer from a lack of gener- alization, language bias, and fairness issues caused by large pre-trained models, resulting in unexpected outcomes in real-world applications. This open problem leads to research in multimodal Few-Shot Learning (FSL).
In this thesis, we propose the Generic Multimodal Gradient-Based Meta Framework (GeMGF). To compensate for the scarcity of data, we use multimodal data in which supplementary and complementary information of one modality can help the data repre- sentation. The multimodal data are extracted using deep learning models and represented in a unified vector space. The framework uses the Prototypical Network and Relation Net- work in the FSL. The Reptile — an optimization-based meta-learner — helps the model avoid model degradation with unseen data. In addition to the multimodal framework, we propose the unimodal version to evaluate the flexibility and adaptability of the framework in different scenarios.
The framework was evaluated using ten datasets from various domains and charac- teristics, including short texts from Twitter, legal domain long text, text with alphabetic (English and Portuguese) and non-alphabetic (Japanese) languages, medical domain im- ages, and multimodal benchmark datasets. Our multimodal framework was evaluated using CUB-200-2011 and Oxford-102 datasets, outperforming the state-of-the-art model of Munjal et al. [1] by 1.43% with CUB-200-2011 and Pahde et al. [2] by 1.93% with Oxford-102. The result of the multimodal framework with CUB-200-2011 was 34.68% higher than the unimodal framework for image and 13.96% higher with Oxford-102. The results suggest that text and image data jointly helped the framework learn rich informa- tion and improve overall performance. The multimodal GeMGF is a simple and compact framework using only 14 million parameters, 99.8% less than the Multimodal Trans former. The unimodal framework for text achieved excellent results with the Japanese dataset, outperforming Transformer BERT by 58.30% with 90.90% fewer parameters. These results suggest that our framework achieved better performance with a significant computational cost reduction.
The main contributions of our research are: (i) a novel multimodal FSL framework, GeMGF is developed to reduce the model degradation trained over a few data; (ii) GeMGF is trained without external knowledge avoiding language bias and fairness issues; (iii) GeMGF has independent and flexible feature extractors that enhance its applicability; and (iv) the unimodal framework for text can be adapted to process alphabetic and non- alphabetic languages with high performance.
|
|
4
|
-
Lucas Borges Monteiro
-
Detecção e Resolução de Conflitos em ATM utilizando modelagens de trajetórias 4D baseadas em Banco de Dados NoSQL e Algoritmos de Busca
-
Orientador : LI WEIGANG
-
MEMBROS DA BANCA :
-
LI WEIGANG
-
GERALDO PEREIRA ROCHA FILHO
-
VINICIUS RUELA PEREIRA BORGES
-
CLAUDIO BARBIERI DA CUNHA
-
ZHAO LIANG
-
Data: 26/05/2023
-
-
Mostrar Resumo
-
O progresso da ciência e da tecnologia provocou um aumento na quantidade de dados produzidos em diversas áreas, inclusive no transporte aéreo. O correto tratamento desse grande volume de dados traz resultados importantes, pois pode tornar a tomada de decisão mais precisa. Nesse sentido, com foco no novo paradigma de Operações Baseadas em Trajetórias (TBO) do Gerenciamento de Tráfego Aéreo (ATM), este trabalho apresenta dois modelos de detecção e resolução de conflitos (CDR). O primeiro é baseado em banco de dados NoSQL e algoritmos de busca. O segundo, chamado de 4 DNavMCTS, aplica os conceitos de Monte Carlo Tree Search (MCTS) e Modelo de Espaço Vetorial (MEV) para modelagem baseada em banco de dados NoSQL. Considerando o big data do transporte aéreo, nos testes realizados, os dois modelos foram capazes de realizar o CDR sob o paradigma da inteligência artificial (AI) para encontrar e resolver potenciais conflitos entre aeronaves e melhorar a segurança de voo com previsões razoáveis.
Os principais objetivos alcançados com a pesquisa foram: i) aumentar da segurança do ATM; ii) processar grandes quantidades de dados gerados pelo tráfego regional e global na navegação 4D; iii) lidar com incertezas de fatores humanos e ambientais, como clima e temperatura; e iv) gerenciar trajetória objetivando garantir cenários livres de conflitos, evitando inclusive potenciais conflitos ocasionados pelo próprio modelo.
-
Mostrar Abstract
-
The progress of science and technology has greatly increased the amount of data produced in various fields, including air transportation. Correctly handling these massive data will bring important results, because it can make decision-making more accurate. In this sense, focusing on the new paradigm of Trajectory-Based Operations (TBO) of Air Traffic Management (ATM), this work presents two models for conflict detection and resolution (CDR). The first one is based on NoSQL database and search algorithms. The second one is called 4 DNavMCTS, which also applies the concepts of Monte Carlo Tree Search (MCTS) and Vector Space Model (VSM) to modeling based on a NoSQL database. Considering the big data of air transport, in the tests carried out, the two models were able to perform the CDR under the paradigm of artificial intelligence (AI) to find and resolve potential conflicts between aircraft and improve flight safety with reasonable predictions. The main objectives achieved with the research were: i) increased security for the ATM; ii) Processing a large amount of data generated by regional and global traffic in four-dimensional navigation; iii) Dealing with uncertainties of human and environmental factors such as climate and temperature; And iv) trajectory management to ensure a conflict-free scenarios even if the model itself occasionally interferes.
|
|
5
|
-
Thiago Mendonça Ferreira Ramos
-
Verificação das propriedades computacionais de um modelo funcional de primeira-ordem.
-
Orientador : MAURICIO AYALA RINCON
-
MEMBROS DA BANCA :
-
DOMINIQUE LARCHEY-WENDLING
-
LAURA TITOLO
-
MAURICIO AYALA RINCON
-
NATARAJAN SHANKAR
-
VANDER RAMOS ALVES
-
Data: 15/06/2023
-
-
Mostrar Resumo
-
Este trabalho descreve a mecanização de propriedades computacionais de um modelo funcional que tem sido aplicado para automatizar o raciocínio sobre a terminação de programas. A formalização foi desenvolvida no assistente de provas de lógica de ordem superior, chamado Prototype Verification System (PVS). O modelo de linguagem foi projetado para imitar o fragmento de primeira ordem de especificações funcionais e é chamado PVS0. Foram considerados dois modelos computacionais: o primeiro modelo especifica um programa funcional por meio de uma única função (modelo single-function PVS0, ou SF-PVS0), e o segundo modelo permite a especificação simultânea de múltiplas funções (modelo multiple-function} PVS0, ou MF-PVS0). A semântica operacional da recursão na especificação do modelo SF-PVS0 suporta a recursão sobre o programa completo.
Por outro lado, em programas MF-PVS0, as chamadas funcionais são permitidas para todas as funções especificadas no programa. Este trabalho tem como objetivo certificar matematicamente a robustez dos modelos PVS0 como modelos computacionais universais. Para isso, propriedades cruciais e teoremas foram formalizados, incluindo Turing Completude, a indecidibilidade do Problema da Parada, o teorema da recursão, o teorema de Rice e o teorema do Ponto Fixo. Além disso, o trabalho discute avanços na indecidibilidade do Problema da Palavra e do Problema da Correspondência de Post.
A indecidibilidade do Problema da Parada foi formalizada considerando a avaliação semântica de programas PVS0 que foram aplicados na verificação da terminação de especificações em PVS. A equivalência entre a avaliação funcional e predicativa de operadores foi fundamental para esse objetivo. Além disso, a composicionalidade de programas MF-PVS0, habilitada diretamente pela possibilidade de chamar diferentes funções, torna fácil a formalização da Turing Completude. Portanto, enriquecer o modelo foi uma decisão de design importante para simplificar a mecanização dessa propriedade e dos teoremas mencionados acima.
-
Mostrar Abstract
-
This work describes the mechanization of the computational properties of a functional-language model that has been applied to reasoning about the automation of program termination. The formalization was developed using the higher-order proof assistant Prototype Verification System (PVS). The language model was designed to mimic the first-order fragment of PVS functional specifications and is called PV0. Two different computational models are considered: the first model specifies functional programs through a unique function (single-function PVS0 model, or SF-PVS0), and the second model allows simultaneous specification of multiple functions (multiple-function PVS0 model, or MF-PVS0). The operational semantics of recursion in single-function PVS0 specification supports recursion over the whole program.
In contrast, in multiple-function PVS0 programs, functional calls are allowed to all functions specified in the program. This work aims to mathematically certify the robustness of the PVS0 models as universal computational models. For doing that, crucial properties and theorems were formalized, including Turing Completeness, the undecidability of the Halting Problem, the Recursion Theorem, Rice's Theorem, and the Fixed Point Theorem. Furthermore, the work discusses advances in the undecidability of the Word Problem and the Post Correspondence Problem.
The undecidability of the Halting Problem was formalized considering properties of the semantic evaluation of PVS0 programs that were applied in verifying the termination of PVS specifications. The equivalence between predicative and functional evaluation operators was vital to this aim. Furthermore, the compositionality of multiple-function PVS0 programs, straightforwardly enabled by the possibility of calling different functions, makes it easy formalization of properties as Turing Completeness. Therefore, enriching the model was an important design decision to simplify the mechanization of this property and the theorems mentioned above.
|
|
6
|
-
Aurélio Ribeiro Costa
-
Adaptive Model to Community Detection in Dynamic Social Networks
-
Orientador : CELIA GHEDINI RALHA
-
MEMBROS DA BANCA :
-
CELIA GHEDINI RALHA
-
BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
RICARDO PEZZUOL JACOBI
-
DANIEL RATTON FIGUEIREDO
-
FRANCISCO APARECEIDO RODRIGUES
-
Data: 16/06/2023
-
-
Mostrar Resumo
-
Um problema vital abordado na análise de rede é a identificação da estrutura de comunidade. No entanto, o uso atual de técnicas de análise de redes concentra-se em analisar estruturas de comunidades estáticas, o que gera uma lacuna em não considerar os aspectos dinâmicos. Algumas soluções para o problema de detecção de comunidades adaptadas à dinamicidade das redes apresentam limitações no desempenho, e outras não se enquadram em tais contextos. Essa situação é agravada quando se considera a demanda por analisar redes sociais em constante crescimento. Esta pesquisa visa preencher a lacuna dos aspectos dinâmicos com foco na mudança de topologia da rede social ao longo do tempo, aplicando a metodologia de aprendizado por reforço profundo como uma solução alternativa para o problema de detecção de comunidades. Propomos um modelo adaptativo para maximizar a densidade de modularidade local de uma estrutura de comunidade. O modelo inclui uma arquitetura baseada em aprendizado por reforço com ator-crítico e rede neural em grafo para lidar com aspectos de mudança em redes sociais dinâmicas. Experimentos realizados usando a arquitetura proposta com conjuntos de dados sintéticos e de mundo real de redes sociais mostram precisão comparável às soluções do estado da arte. Embora os resultados indiquem que a arquitetura lida bem com redes sociais dinâmicas, uma investigação mais profunda faz-se necessário para melhorar o modelo no tocante ao desempenho computacional.
-
Mostrar Abstract
-
A vital problem tackled in network analysis is community structure identification. However, the current use of network analysis techniques concentrates on analyzing static community structures, which generates a gap in not considering the dynamic aspects. Some solutions for the community detection problem adapted to the dynamicity of the networks present limitations on the resulting performance, and others do not fit such contexts. This situation aggravates when considering the demand to analyze constantly growing social networks. This research aims to fulfill this gap by focusing on the topology change along a time frame and applying deep reinforcement learning methodology as an alternative solution to the problem of community detection on dynamic social networks. We propose an adaptive model to maximize the local modularity density of a community structure. Our model includes actor-critic reinforcement learning-based architecture with a graph neural network to cope with changing aspects of large social networks. Experiments conducted using the proposed architecture with synthetic and real-world dynamic social network datasets show accuracy comparable to the state-of-art solutions. Although the results indicate that the architecture copes well with dynamic real-world social networks, further investigation is necessary to improve the architecture with computational performance aspects.
|
|
7
|
-
Leonardo Henrique Moreira
-
Recovery Strategies for Multi-agent Planning in Dynamic Environments
-
Orientador : CELIA GHEDINI RALHA
-
MEMBROS DA BANCA :
-
ANTONÍN KOMENDA
-
CELIA GHEDINI RALHA
-
EDISON PIGNATON DE FREITAS
-
GENAINA NUNES RODRIGUES
-
LI WEIGANG
-
Data: 30/06/2023
-
-
Mostrar Resumo
-
Em resumo, o objetivo desta tese é apresentar e avaliar um modelo de MAP aplicável a ambientes dinâmicos que a combine a estratégia de replanejamento e de reparo em um modelo MAP. Paralelamente, cabe destacar algumas contribuições para a área de pesquisa em MAP. Em primeiro lugar, ressalta-se um método para comparar o desempenho das estratégias de recuperação de planos em diferentes cenários, considerando tanto o planejamento centralizado quanto o distribuído com níveis variados de acoplamento. Ademais, a revisão da literatura realizada nesta tese traz outra contribuição significativa ao fornecer uma visão abrangente da área de pesquisa do MAP. Ao examinar uma ampla gama de trabalhos acadêmicos, a revisão identificou autores e organizações que fizeram contribuições substanciais para o campo, bem como os documentos mais citados.
-
Mostrar Abstract
-
This thesis explores Multi-Agent Planning (MAP) and its application in dynamic environments. MAP combines artificial intelligence planning with multi-agent systems to coordinate intelligent agents achieving individual or group goals. Planning in dynamic environments introduces challenges in coordination and execution due to non-deterministic outcomes. Plan recovery strategies, like replanning and repairing, aim to handle failures and restore desired conditions. A comprehensive literature review highlighted key contributors and institutions in the MAP research offering insights into concepts, techniques, and open challenges. However, the combination of different recovery strategies for MAP models is a research challenge not yet accomplished in the present literature. In this thesis, we address this challenge by proposing an evaluation method for recovery strategies in dynamic environments, combining replanning and repairing. This approach considers planning complexity, coordination allied to execution issues, and agents attempting local repairs before seeking other agents’ assistance. The main objective and results aim to contribute to the MAP field by evaluating the combination of replanning and repairing in planning solution models for dynamic environments.
|
|
8
|
-
Leia Sousa de Sousa
-
Redes Ópticas Metropolitanas: Arquiteturas e Engenharia de Tráfego
-
Orientador : ANDRE COSTA DRUMMOND
-
MEMBROS DA BANCA :
-
ANDRE CASTELO BRANCO SOARES
-
ANDRE COSTA DRUMMOND
-
EDUARDO ADILIO PELINSON ALCHIERI
-
GUSTAVO BITTENCOURT FIGUEIREDO
-
JACIR LUIZ BORDIM
-
Data: 24/08/2023
-
-
Mostrar Resumo
-
Redes ópticas metropolitanas (do inglês Metropolitan Optical Networks – MONs) são redes de comunicação de alta velocidade que interconectam diferentes locais em uma área metropolitana. Diferentes tipos de aplicações são oferecidas aos clientes através das MONs, desde aplicações de computação em nuvem, cada vez mais próximas do usuários finais, até os recentes serviços de Internet das Coisas. Essas aplicações estão gerando demandas crescentes de clientes empresariais e privados por serviços de largura de banda escaláveis, flexíveis, transparentes, com velocidade de terabit e personalizados.
As MONs utilizam tecnologia de fibra óptica para transmitir dados em altas velocidades e a partir de qualquer ponto da sua infraestrutura. Diferentemente das redes ópticas de núcleo, as MONs apresentam grande variedade de granularidade de serviços, com arquiteturas e perfis de tráfego heterogêneos e desbalanceada distribuição dos fluxos de tráfego ao longo dos seus nós. Devido a isso, as MONs devem ser tratadas de maneira diferente. Para os provedores de rede, é de grande importância determinar as regiões existentes, tais como as áreas residenciais e áreas de negócios, de modo que se possa analisar o comportamento do tráfego local, propondo intervenções na infraestrutura nos pontos críticos da rede. Atualmente, as MONs estão passando por grandes transformações que incluem a adoção de uma variedade de taxas de transmissão, subdivisão em vários níveis hierárquicos e atribuição de novos papéis aos variados nós. Este trabalho apresenta um levantamento sobre as novas arquiteturas MONs propostas, tanto mono quanto multicamadas. Além disso, são discutidas soluções de engenharia de tráfego para MONs baseadas em Redes Ópticas Elástica (do inglês Elastic Optical Networks - EONs), denominadas MEONs, analisando soluções cientes da área que resultam em menor bloqueio de largura da banda (Bandwidth Blocking Ratio - BBR) nas redes. Além da métrica de BBR geral, este trabalho considera o BBR por área e BBR por cluster de área, que são métricas ainda não identificadas na literatura científica atual. As soluções propostas alcançam o dobro de melhorias em comparação com outras soluções cientes da literatura, em termos de bloqueio de largura de banda.
-
Mostrar Abstract
-
Metropolitan Optical Networks (MONs) are high-speed communication networks that interconnect different locations in a metropolitan area. Different types of applications are offered to customers through MONs, from cloud computing applications, increasingly closer to the end user, to the recent Internet of Things services. These applications are driving increasing demands from enterprise and private customers for scalable, flexible, transparent, terabit-speed, and personalized bandwidth services. MONs use fiber optic technology to transmit data at high speeds and from any point in your infrastructure. Unlike core optical networks, MONs have a wide variety of service granularity, with heterogeneous architectures and traffic profiles and an unbalanced distribution of traffic flows along their nodes. Because of this, MONs must be handled differently. For network providers, it is of great importance to determine the existing regions, such as residential areas and business areas, so that the behavior of local traffic can be analyzed, proposing interventions in the infrastructure at the critical points of the network. Currently, MONs are undergoing major transformations that include the adoption of a variety of transmission rates, subdivision into several hierarchical levels, and assignment of new roles to the various nodes. This work presents a survey of the proposed new MONs architectures, both single and multi-layered. In addition, traffic engineering solutions for MONs based in Elastic Optical Networks (EONs), called MEONs, are discussed, analyzing area-aware solutions that result in lower Bandwidth Blocking Rate (BBR) on networks. In addition to the general BBR metric, this work considers BBR by area and BBR by cluster, which are metrics not yet identified in the current scientific literature. The proposed solutions achieve twice the improvements compared to other aware solutions in the literature in terms of blocking bandwidth.
|
|
9
|
-
Lucas dos Santos Althoff
-
Impact of Alignment Edits on the User Experience of 360-degree Videos.
-
Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
-
MEMBROS DA BANCA :
-
MYLENE CHRISTINE QUEIROZ DE FARIAS
-
BRUNO LUIGGI MACCHIAVELLO ESPINOZA
-
CELIA GHEDINI RALHA
-
RUDINEI GOULARTE
-
DEBORA CHRISTINA MUCHALUAT SAADE
-
Data: 20/12/2023
-
-
Mostrar Resumo
-
Experimentos subjetivos fornecem dados para construir soluções adequadas e são essenci- ais para o desenvolvimento e aprimoramento de sistemas e aplicativos multimídia. Partic- ularmente importante, a avaliação subjetiva da qualidade visual auxilia pesquisadores ao estabelecerem referências as soluções de compressão e transmissão de sinais. No entanto, o nível de confiabilidade de tais experimentos pode variar dependendo do tipo de mídia. Esta dissertação examina os fatores de qualidade para um formato específico utilizados em mídias imersivas, os vídeos 360◦. Em comparação aos vídeos convencionais, ao assistir vídeos 360◦o usuário possui maior controle do conteúdo. Assim, a qualidade sad visual convencional não é suficiente para descrever o estímulo, que por sua vez se estende ao conceito de qualidade da experiência (QoE). A otimização do QoE enfrenta dois grandes obstáculos: previsão imprecisa da janela de visualização e espectadores perdendo o enredo de uma história. As edições de alinhamento surgiram como um mecanismo promissor para evitar os dois problemas ao mesmo tempo. Essas “edições de redirecionamento” agem no conteúdo em tempo real, alinhando a janela de visualização do usuário com uma região de interesse no conteúdo do vídeo. Nesta dissertação, investigamos os efeitos das edições de alinhamento na QoE do usuário realizando dois experimentos subjetivos, onde intro- duzimos edições de alinhamento gradual nos vídeos, inspiradas em uma técnica de jogo de RV. Os resultados confirmaram que o alinhamento gradual proposto atinge um nível de conforto e presença semelhante ao das edições instantâneas. Além disso, todas as edições de alinhamento testadas reduziram a velocidade do cabeçote após a edição, confirmando a utilidade dessas edições para streaming de vídeo sob demanda. Além disso, observamos que as edições graduais propostas podem atingir uma redução na velocidade do cabeçote de 8% maior em comparação com as técnicas de alinhamento instantâneo
-
Mostrar Abstract
-
When watching 360◦videos, the user has higher content control interactivity, and , thus, the conventional visual quality is not enough to describe stimulus, that in turn extends to the concept of quality of experience (QoE). This dissertation examines quality factors of today‘s most popular immersive media format, the 360◦videos. Particularly important, the subjective assessment of quality of experience. Subjective experiments provide data to build adequate solutions and are essential to developing and improving multimedia systems and applications. The visual quality assessment support researchers to establish baselines for coding, and streaming applications.However, the reliability level of the measurement of quality in subjective experiments can vary depending on the type of me- dia. The optimization of QoE faces two major roadblocks: inaccurate viewport prediction and viewers missing the plot of a story.Alignment edits have emerged as a promising mechanism to avoid both issues at once. These “re-targeting edits” act on the content in real-time, aligning the user’s viewport with a region of interest in the video content. In this dissertation, we investigate the effects of alignment edits on user QoE by conducting two subjective experiments, where we introduce gradual alignment editions in the videos, inspired by a VR gaming technique.The results confirmed that the proposed gradual alignment achieves a level of comfort and presence similar to that of instant editions. Moreover, all alignment edits tested reduced the head speed after the edit, confirming the usefulness of these edits for streaming video on-demand. Furthermore, we observed that the proposed gradual editions can achieve a reduction in head speed of 8% greater compared to the instant alignment techniques.
|
|