Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UnB

2023
Teses
1
  • Tony Alexandre Medeiros da Silva
  • Radiômica e aprendizado de máquina para identificação da codeleção cromossômica 1p/19q em gliomas de baixo grau

  • Orientador : JOAO LUIZ AZEVEDO DE CARVALHO
  • MEMBROS DA BANCA :
  • TÚLIO AUGUSTO ALVES MACEDO
  • CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
  • FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
  • JOAO LUIZ AZEVEDO DE CARVALHO
  • JOAO SOUZA NETO
  • Data: 13/02/2023

  • Mostrar Resumo
  • Os gliomas representam em torno de 40% dos tumores cerebrais. Destes, 50% são de baixo grau,
    sendo representados quase que em sua totalidade por oligodendrogliomas e astrocitomas, ambos
    de grau II ou III. Sendo a codeleção cromossômica 1p/19q um importante marcador tumoral de
    fator prognóstico positivo nesses gliomas, propõe-se a utilizar a radiômica na análise de imagens
    como um abrangente quantificador de fenótipos tumorais não invasivos para identificar o status
    da codeleção cromossômica 1p/19q em gliomas de baixo grau. Trata-se de uma abordagem
    potencialmente utilizada em oncologia, auxiliando na detecção, diagnóstico e prognóstico do
    câncer, previsão de resposta ao tratamento e monitoramento do estado da doença. Por meio da
    plataforma PyRadiomics, que extrai características radiômicas que quantifica a intensidade, a
    forma e a textura da imagem do tumor em exames de ressonância magnética, utilizou-se um
    dataset com 159 pacientes diagnósticados com gliomas de baixo grau e extraiu-se 120
    características. Em seguida implementou-se 4 experimentos onde foram aplicadas técnicas de
    pré-processamento de dados, tais como seleção, escalonamento, redimensionamento e aumento
    dados, e aprendizado de máquina supervisionado. Após avaliação de um conjunto de dados de
    teste em cada experimento, obteve-se resultados promissores para acurácia, sensibilidade,
    especificidade, precisão, area sob a curva (AUC) e pontuação F1. Os mesmos se mostram
    competitivos quando comparados ao estado da arte. Os resultados ressaltam que a radiômica em
    conjunto com aprendizado de máquina configura uma abordagem promissora na identificação
    do status da codeleção cromossômica 1p/19q em gliomas de baixo grau.


  • Mostrar Abstract
  • Gliomas represent about 40% of brain tumors. Of these, 50% are low-grade, almost entirely
    represented by oligodendrogliomas and astrocytomas, both grade II or III. Since 1p/19q
    chromosome codelection is an important tumor marker of positive prognostic factor in these
    gliomas, it is proposed to use radiomics in image analysis as a comprehensive quantifier of noninvasive
    tumor phenotypes to identify the status of 1p/19q chromosome codeletion in gliomas
    low grade. This is an approach potentially used in oncology, helping in the detection, diagnosis
    and prognosis of cancer, prediction of response to treatment and monitoring of the state of the
    disease. Using the PyRadiomics platform, which extracts radiomic features that quantify the
    intensity, shape and texture of the tumor image in magnetic resonance imaging, a dataset with
    159 patients diagnosed with low-grade gliomas was used and 120 features were extracted . Then,
    4 experiments were implemented where data pre-processing techniques were applied, such as
    selection, scaling, resizing and data augumentation, and supervised machine learning. After
    evaluating a set of test data in each experiment, promising results were obtained for accuracy,
    sensitivity, specificity, precision, area under the curve (AUC) and F1 score. They are competitive
    when compared to the state of the art. The results underscore that radiomics in conjunction with
    machine learning constitutes a promising approach in identifying the status of 1p/19q
    chromosome codelection in low-grade gliomas.

2022
Teses
1
  • Sana Alamgeer
  • Deep Learning Based Objective Quality Assessment of Multidimensional Visual Content

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • JOAO LUIZ AZEVEDO DE CARVALHO
  • LI WEIGANG
  • CARLOS ALEXANDRE DE BARROS MELLO
  • CARLA LIBERAL PAGLIARI
  • Data: 01/07/2022

  • Mostrar Resumo
  • Na última década, houve um tremendo aumento na popularidade dos aplicativos multimídia, aumentando assim o conteúdo multimídia. Quando esses conteúdos são gerados, transmitidos, reconstruídos e compartilhados, seus valores de pixel originais são transformados. Nesse cenário, torna-se mais crucial e exigente avaliar a qualidade visual do conteúdo visual afetado para que os requisitos dos usuários finais sejam atendidos. Neste trabalho, investigamos recursos espaciais, temporais e angulares eficazes desenvolvendo algoritmos sem referência que avaliam a qualidade visual de conteúdo visual multidimensional distorcido. Usamos algoritmos de aprendizado de máquina e aprendizado profundo para obter precisão de previsão. Para avaliação de qualidade de imagem bidimensional (2D), usamos padrões binários locais multiescala e informações de saliência e treinamos/testamos esses recursos usando o Random Forest Regressor. Para avaliação de qualidade de vídeo 2D, apresentamos um novo conceito de saliência espacial e temporal e pontuações de qualidade objetivas personalizadas. Usamos um modelo leve baseado em Rede Neural Convolucional (CNN) para treinamento e teste em patches selecionados de quadros de vídeo. Para avaliação objetiva da qualidade de imagens de campo de luz (LFI) em quatro dimensões (4D), propomos sete métodos de avaliação de qualidade LFI (LF-IQA) no total. Considerando que o LFI é composto por multi-views densas, Inspired by Human Visual System (HVS), propomos nosso primeiro método LFIQA que é baseado em uma arquitetura CNN de dois fluxos. O segundo e terceiro métodos LF-IQA também são baseados em uma arquitetura de dois fluxos, que incorpora CNN, Long Short-Term Memory (LSTM) e diversos recursos de gargalo. O quarto LF-IQA é baseado nas camadas CNN e Atrous Convolution (ACL), enquanto o quinto método usa as camadas CNN, ACL e LSTM. O sexto método LF-IQA também é baseado em uma arquitetura de dois fluxos, na qual EPIs horizontais e verticais são processados no domínio da frequência. Por último, mas não menos importante, o sétimo método LF-IQA é baseado em uma Rede Neural Convolucional de Gráfico. Para todos os métodos mencionados acima, realizamos experimentos intensivos e os resultados mostram que esses métodos superaram os métodos de última geração em conjuntos de dados de qualidade populares.


  • Mostrar Abstract
  • In the last decade, there has been a tremendous increase in the popularity of multimedia applications, hence increasing multimedia content. When these contents are generated, transmitted, reconstructed and shared, their original pixel values are transformed. In this scenario, it becomes more crucial and demanding to assess visual quality of the affected visual content so that the requirements of end-users are satisfied. In this work, we investigate effective spatial, temporal, and angular features by developing no-reference algorithms that assess the visual quality of distorted multi-dimensional visual content. We use machine learning and deep learning algorithms to obtain prediction accuracy. For two-dimensional (2D) image quality assessment, we use multiscale local binary patterns and saliency information, and train / test these features using Random Forest Regressor. For 2D video quality assessment, we introduce a novel concept of spatial and temporal saliency and custom objective quality scores. We use a Convolutional Neural Network (CNN) based light-weight model for training and testing on selected patches of video frames. For objective quality assessment of four-dimensional (4D) light field images (LFI), we propose seven LFI quality assessment (LF-IQA) methods in total. Considering that LFI is composed of dense multi-views, Inspired by Human Visual System (HVS), we propose our first LF-IQA method that is based on a two-streams CNN architecture. The second and third LF-IQA methods are also based on a two-stream architecture, which incorporates CNN, Long Short-Term Memory (LSTM), and diverse bottleneck features. The fourth LF-IQA is based on CNN and Atrous Convolution layers (ACL), while the fifth method uses CNN, ACL, and LSTM layers. The sixth LF-IQA method is also based on a two-stream architecture, in which, horizontal and vertical EPIs are processed in the frequency domain. Last, but not least, the seventh LF-IQA method is based on a Graph Convolutional Neural Network. For all of the methods mentioned above, we performed intensive experiments, and the results show that these methods outperformed state-of-the-art methods on popular quality datasets.

2
  • Sylvia de Sousa Faria
  • Desenvolvimento de Modelos Computacionais para Prevenção de Fístula Átrio-Esofágica Durante o Procedimento de Radioablação Cardíaca

  • Orientador : ADSON FERREIRA DA ROCHA
  • MEMBROS DA BANCA :
  • ADSON FERREIRA DA ROCHA
  • FLAVIA MARIA GUERRA DE SOUSA ARANHA OLIVEIRA
  • JOAO LUIZ AZEVEDO DE CARVALHO
  • FÁTIMA MRUÉ
  • TALLES MARCELO GONÇALVES DE ANDRADE BARBOSA
  • Data: 04/11/2022

  • Mostrar Resumo
  • A Fibrilação Atrial (FA) é uma doença que acomete cerca de 2,5 % da população mundial. E consiste em uma desordem do ritmo elétrico atrial no coração. Atualmente, a técnica mais utilizada para o tratamento da FA, quando permanente, é a Ablação Cardíaca por Radiofrequência (ACRF). A ACRF é um procedimento pouco invasivo que por meio do eletrodo de ablação, com o uso da Radiofrequência (RF) e o efeito Joule, aquece o tecido e provoca a destruição celular no ponto ablado. Apesar de eficiente, a ACRF pode gerar complicações graves, pois o aquecimento gerado pode atingir os órgãos próximos ao átrio esquerdo (AE), como o esôfago. Entre as lesões térmicas, que podem ocorrer, está a Fístula Átrio-Esofágica (FAE). A FAE é um tubo comunicante entre o AE e o esôfago, que pode surgir devido ao superaquecimento dos órgãos, levando o paciente a óbito. Dessa forma, esta tese propõe desenvolver simulações computacionais da ACRF, com modelos 2D e 3D, com estudos que analisem situações que possam prevenir e/ou evitar a FAE com e sem resfriamento da parede esofágica (PE). Alguns estudos já foram desenvolvidos, o primeiro estudo desenvolvido, uma análise da profundidade da lesão térmica com diferentes espessuras dos tecidos durante a ACRF, com e sem resfriamento esofágico, mostrou: (i) o resfriamento não alterou o procedimento de ACRF – foi possível fazer uma ablação efetiva com resfriamento; (ii) diminuiu o tamanho da lesão e no cenário com o tecido de menor espessura tornou a ACRF possível; e (iii) associou o tamanho da lesão - a temperatura do eletrodo de ablação e ao tempo. O segundo estudo, uma análise da propagação de calor durante o resfriamento da PE, o modelo apresentou fluxo sanguíneo, mostrou que: (i) durante o resfriamento, a temperatura dos órgãos internos diminui, mas não alteram a ACRF; e (ii) o resfriamento retarda a propagação de calor. O terceiro estudo, uma análise do efeito da angulação do eletrodo de ablação na propagação de temperatura durante a ACRF, mostrou a profundidade da lesão é maior nas angulações mais próximas da horizontal. Além de confirmar as descobertas dos outros estudos. A obtenção de dados sobre uma ACRF mais segura, a análise de temperatura interna dos órgãos adjacentes ao átrio esquerdo, o tamanho das lesões térmicas e o melhor posicionamento do eletrodo de ablação mostram uma possibilidade informar e precaver a formação da FAE. Outros estudos vão ser desenvolvidos para maior aprofundamento no tema.


  • Mostrar Abstract
  • Atrial Fibrillation (AF) is a disease that affects about 2.5% of the world population. And it consists of a disorder of the atrial electrical rhythm in the heart. Currently, the most used technique for treating AF, when permanent, is Radiofrequency Cardiac Ablation (RFCA). RFCA is a minimally invasive procedure that uses Radiofrequency (RF) and the Joule effect through the ablation electrode, heats the tissue and causes cellular destruction at the ablated point. Despite being efficient, RFCA can generate serious complications, as the heat generated can reach organs close to the left atrium (LA), such as the esophagus. Among the thermal injuries that can occur is the Atrial-Esophageal Fistula (AEF). The AEF is a communicating tube between the LA and the esophagus, which can arise due to the overheating of the organs, leading the patient to death. Thus, this thesis proposes to develop computer simulations of RFCA, with 2D and 3D models, with studies that analyze situations that can prevent and avoid AEF with and without esophageal wall (EW) cooling. The first study developed, an analysis of the depth of thermal injury with different tissue thicknesses during RFCA, with and without esophageal cooling, showed: (i) cooling did not change the RFCA procedure – it was possible to do an effective ablation with cooling; (ii) it reduced the size of the lesion and, in the scenario with the thinnest tissue, made RFCA possible; and (iii) associated lesion size - ablation electrode temperature and time. The second study, an analysis of heat propagation during EW cooling, the model presented blood flow, showed that: (i) during cooling, the temperature of internal organs decreases, but does not change the RFCA; and (ii) cooling retards the propagation of heat. An analysis of the effect of ablation electrode angulation showed that the lesion depth is more significant at angulations closer to the horizontal during the RFCA. This third study confirmed the findings of the other studies. Obtaining data on a safer RFCA, analyzing the internal temperature of the organs adjacent to the left atrium, the size of the thermal lesions, and the best positioning of the ablation electrode show a possibility to inform and prevent the formation of AEF. Further studies will be carried out to consolidate these results.

3
  • Muhammad Irshad
  • Quality Assessment of Enhanced Underwater Images with Convolutional Neural Networks

  • Orientador : MYLENE CHRISTINE QUEIROZ DE FARIAS
  • MEMBROS DA BANCA :
  • MYLENE CHRISTINE QUEIROZ DE FARIAS
  • JOAO LUIZ AZEVEDO DE CARVALHO
  • CRISTIANO JACQUES MIOSSO RODRIGUES MENDES
  • WAMBERTO JOSÉ LIRA DE QUEIROZ
  • JOSE GABRIEL RODRIGUEZ CARNEIRO GOMES
  • Data: 25/11/2022

  • Mostrar Resumo
  • Image enhancement algorithms have the goal of improving the image quality and, therefore, the usefulness of an image for a given task. Although there are several image enhancement algorithms, there is no consensus on how to estimate the performance of these enhancement algorithms. Since the final consumers of the resulting enhanced visual content are human viewers, the performance of these algorithms should take into account the perceived visual quality of the resulting enhanced images. Unfortunately, although in the last decades a lot of progress has been made in the area of image quality assessment, designing metrics to estimate the quality of enhanced and restored images remains a challenge. This is particularly true for underwater image application, where images frequently need to be restored because of the severity of the degradations introduced by the underwater environment. Therefore, there is a great need for quality metrics that can estimate the quality of enhanced and restored images. In this thesis, our goal is to design metrics for this scenario. First, we have designed a quality metric based on texture operators and saliency. Second, we also designed a quality metric based on a deep learning architecture convolutional Neural Network (CNN). Experimental results on the underwater image database demonstrate that our approaches outperform the state-of-art methods compared. Third, we have developed a new dataset for Underwater image quality assessment. Additionally, we also present a psychophysical study based on crowd-sourcing interface, in which we analyze the perceptual quality of images enhanced with several types of enhancement algorithms. In this experiment, we have developed a database that can be used to train image quality metrics, and also can detect both increments and decrements in the perceived quality.


  • Mostrar Abstract
  • Image enhancement algorithms have the goal of improving the image quality and, therefore, the usefulness of an image for a given task. Although there are several image enhancement algorithms, there is no consensus on how to estimate the performance of these enhancement algorithms. Since the final consumers of the resulting enhanced visual content are human viewers, the performance of these algorithms should take into account the perceived visual quality of the resulting enhanced images. Unfortunately, although in the last decades a lot of progress has been made in the area of image quality assessment, designing metrics to estimate the quality of enhanced and restored images remains a challenge. This is particularly true for underwater image application, where images frequently need to be restored because of the severity of the degradations introduced by the underwater environment. Therefore, there is a great need for quality metrics that can estimate the quality of enhanced and restored images. In this thesis, our goal is to design metrics for this scenario. First, we have designed a quality metric based on texture operators and saliency. Second, we also designed a quality metric based on a deep learning architecture convolutional Neural Network (CNN). Experimental results on the underwater image database demonstrate that our approaches outperform the state-of-art methods compared. Third, we have developed a new dataset for Underwater image quality assessment. Additionally, we also present a psychophysical study based on crowd-sourcing interface, in which we analyze the perceptual quality of images enhanced with several types of enhancement algorithms. In this experiment, we have developed a database that can be used to train image quality metrics, and also can detect both increments and decrements in the perceived quality.

4
  • Tássio Melo Linhares
  • Dynamic output feedback for Takagi-Sugeno fuzzy systems subjected to inexact premise variables matching

  • Orientador : EDUARDO STOCKLER TOGNETTI
  • MEMBROS DA BANCA :
  • EDUARDO STOCKLER TOGNETTI
  • EDVALDO ASSUNÇÃO
  • FLÁVIO ANDRADE FARIA
  • JOAO YOSHIYUKI ISHIHARA
  • RENATO ALVES BORGES
  • Data: 15/12/2022

  • Mostrar Resumo
  • Este trabalho apresenta novas condições de projeto de controladores de realimentação dinâmica de saída de ordem completa para sistemas fuzzy Takagi-Sugeno (T-S) contínuos e discretos no tempo, permitindo a seleção de variávies premissas que serão usadas na lei de controle. O controlador de saída fuzzy pode ter uma quantidade de regras e um conjunto de funções de pertinência diferente do modelo T-S da planta que está sendo controlada. Incluindo os casos em que as variávies premissas são totalmente ou parcialmente não medidas. O principal aspecto da metodologia proposta é apresentar condições em que os ganhos do controlador são independentes das variáveis premissas que não podem ser medidas, permitindo maior flexibilidade para o projetista em cenários reais. As condições são expressas como inequações matriciais lineares combinadas com parâmetros escalares que fornecem graus de liberdade extra. A metodologia de controle proposta também lida com incertezas de modelo para sistemas contínuos e discretos no tempo e uso de funções Lyapunov fuzzy. A efetividade e aplicabilidade das metodologias propostas são verificadas através de exemplos numéricos.


  • Mostrar Abstract
  • This work presents new design conditions of full-order dynamic output feedback controllers for continuous and discrete-time Takagi-Sugeno (T-S) fuzzy systems allowing the selection of premise variables to be used in the control law. The fuzzy output controller is allowed to have a different number of fuzzy rules and a different set of membership functions from the T-S model. This includes the cases of complete or partial immeasurable premise variables. The main aspect of the proposed methodology is to present conditions where the control gains are independent of the premise variables that cannot be measured allowing flexibility for the designer in a realistic output feedback context. Moreover, the design conditions are expressed as linear matrix inequality relaxations combined with scalar parameters that provide extra degrees of freedom. The proposed control methodology also deals with model uncertainties for continuous and discrete-time systems and the use of fuzzy Lyapunov functions. The effectiveness and applicability of the methodology are shown through numerical examples

SIGAA | Secretaria de Tecnologia da Informação - STI - (61) 3107-0102 | Copyright © 2006-2024 - UFRN - app29_Prod.sigaa23