Teses e Dissertações
URI permanente desta comunidadehttps://locus.ufv.br/handle/123456789/1
Teses e dissertações defendidas no contexto dos programas de pós graduação da Instituição.
Navegar
Item Abordagens computacionais baseadas em modelos de aprendizado profundo e voltadas ao deficiente visual para geração e avaliação automática de descrições textuais de cenas de webinários(Universidade Federal de Viçosa, 2024-06-17) Fernandes, Daniel Louzada; Cerqueira, Fabio Ribeiro; http://lattes.cnpq.br/0020032305489581Estudos recentes preveem que pelo menos 2, 2 bilhões de pessoas no mundo sofrem de cegueira ou alguma deficiência visual (como a baixa visão) e que esse número continuará a crescer. Essas pessoas precisarão de algum tipo de cuidado apropriado e o uso de Tecnologias Assistivas é uma forma valiosa para que elas possam mitigar seus obstáculos diários. Nesse contexto, com o rápido avanço da Inteligência Artificial e dos sistemas portáteis embarcados, tem-se testemunhado um aumento no desenvolvimento e oferecimento de vários serviços e tecnologias que proporcionam comodidade e suporte para esse público. Apesar desses avanços, muitas dessas tecnologias têm fatores restritivos, como funcionalidades limitadas ou preços elevados. Além disso, estão disponíveis apenas para uma pequena parcela da população necessitada. Com a pandemia de COVID-19, a vida cotidiana e o local de trabalho tornaram-se mais dependentes das tecnologias, como o consumo intensivo de conteúdos online e o aumento significativo no uso de ferramentas de videoconferência. Embora um mundo altamente conectado permita o trabalho remoto como substituto para o deslocamento e o trabalho de escritório – assim como webinários/videoconferências como sucessores de conferências presenciais, entrevistas, reuniões ou até mesmo aulas – isso também levanta novas barreiras de acessibilidade para as pessoas com deficiência visual. Como a informação visual é complementar à própria mensagem, a baixa ou nenhuma visão impede que essas pessoas capturem informações visuais, o que pode dificultar a compreensão do contexto geral do conteúdo compartilhado em uma apresentação remota. Com isso, aumentou-se a necessidade de prover mais acesso a informações contidas em webinários, em especial, sobre contexto. Para suprir essa necessidade, iniciativas vêm sendo realizadas no sentido de incentivar os usuários da Internet a produzirem descrições textuais de imagens on-line. No entanto, esse é um processo manual e lento que depende da disposição das pessoas com visão em ajudar. Como consequência, muitas imagens carecem de descrições ou apresentam explicações de baixa qualidade. A maioria dos métodos existentes na literatura sobre descrição automática de imagens baseados em Inteligência Artificial, quando utilizados como Tecnologias Assistivas, negligencia as necessidades de indivíduos cegos ou com baixa visão. Esses métodos tendem a comprimir todos os elementos visuais em legendas breves, criar frases desconexas para cada região da imagem ou fornecer descrições extensas, não se concentrando no fornecimento das informações pertinentes para esse grupo específico. Isso ocorre também devido à escassez de conjuntos de dados específicos para atender necessidades de deficientes visuais; logo, esses métodos são treinados em conjuntos para domínios de dados gerais, considerando o uso por pessoas com visão. Para lidar com essas limitações, nesta tese, propõe-se um conjunto de metodologias por meio da integração de técnicas de Visão Computacional e Processamento de Linguagem Natural que possibilitam a implementação e avaliação de uma abordagem para construir descrições de imagens baseada em normas e diretrizes de acessibilidade direcionadas a pessoas com deficiência visual, focando em cenas de webinários. Como parte do processo, o trabalho também desenvolve um conjunto de dados direcionado para este público e propõe uma métrica de avaliação de adequabilidade de descrição textual, levando em conta os aspectos importantes para pessoas cegas ou de baixa visão. Os experimentos demonstraram estatisticamente que a abordagem proposta produziu descrições alinhadas com o conteúdo das imagens, com características linguísticas escritas por humanos e com as diretrizes de acessibilidade para deficientes visuais, apresentando melhor desempenho nesses aspectos quando comparada a métodos anteriores de descrição de imagens. Palavras-chave: Inteligência artificial. Visão computacional. Processamento de linguagem natural. Descrição de imagens. Tecnologias assistivas. Deficiente visual.Item Artificial Intelligence as a Service Architecture: an innovative approach for Computer Vision applications(Universidade Federal de Uberlândia, 2024-09-23) Moreira, Larissa Ferreira Rodrigues; Backes, André Ricardo; http://lattes.cnpq.br/7340824843708398In recent years, Artificial Intelligence (AI) has experienced exponential growth across various domains of daily life, including transportation, healthcare, and security. However, the current implementation of conceiving and implementing intelligent services makes it challenging to increase the personalized, organized, and large-scale use of AI, particularly to deal with complex tasks to create intelligent resources. In this context, this thesis proposes and evaluates an AI as a Service (AIaaS) architecture that aims to address the lack of current methods for deploying and delivering intelligent services for heterogeneous devices and multiple users. The main goal of this project is to research, develop, and validate an Artificial Intelligence as a Service (AIaaS) architecture that offers AI-based solutions and resources on demand for users and applications. To this end, we proposed a hypothesis regarding the feasibility and suitability of efficiently delivering AI resources in the field of computer vision, allowing the handling of cognitive service delivery and em- bodiment for devices and users. In this thesis, we deduced our hypothesis and validated different aspects of AIaaS Architecture. We explored the capabilities of our AIaaS for edge computing, including low-cost and conventional devices. Our results demonstrate that despite their simplicity, lightweight AI models are well suited for deployment on low- cost devices, whereas deeper models can be used for prediction tasks on these devices. The results indicate that the proposed edge-intelligence control framework effectively facilitates communication and manages the lifecycle of the AI models in a distributed en- vironment. In addition, we exploited platform management, model training, and dataset management functionalities through experiments that considered federated learning. Our proposed approach provides a flexible and scalable environment that supports various AI paradigms and enables efficient deployment and management of models across heteroge- neous devices while balancing computational efficiency with model performance. Finally, we demonstrated the model optimizer functionality of the AIaaS architecture using hyper- parameter optimization with strategies based on a Genetic Algorithm, Random Search, and Bayesian Optimization. Our findings are in line with the aim of AIaaS Architecture, which is to provide users and applications with easily accessible intelligent solutions and resources. By incorporating hyperparameter optimization, users can take advantage of ef- ficient AIaaS facilities and create high-performance classifiers without requiring extensive manual configurations or specialized knowledge. Furthermore, our approach facilitates personalized and scalable AI solutions, fostering innovation and expediting the deploy- ment of intelligent applications across diverse contexts, making it suitable for real-world scenarios. Keywords: Artificial Intelligence as a Service. AIaaS. Computer Vision. Deep Learning. Edge Computing. Optimizing.Item Code Smells and refactorings for Elixir(Universidade Federal de Minas Gerais, 2024-12-10) Vegi, Lucas Francisco da Matta; Valente, Marco Túlio de Oliveira; http://lattes.cnpq.br/9490696653295454Elixir é uma linguagem de programação funcional moderna, criada em 2012, cuja pop- ularidade vem crescendo na indústria. No entanto, até onde sabemos, existem poucos estudos na literatura que abordem a qualidade interna de sistemas implementados com essa linguagem. Particularmente, nenhum estudo até o momento investigou code smells ou refatorações específicos para Elixir. Portanto, para aproveitar essas oportunidades de pesquisa, nos inspiramos no conhecido livro de Fowler sobre code smells e refatorações para prospectar, estudar, documentar e avaliar code smells e estratégias de refatoração adaptadas especificamente a Elixir. Em um primeiro estudo, utilizamos uma abordagem metodológica mista para catalogar 35 code smells, dos quais 23 são novos e específicos para Elixir, enquanto 12 são code smells tradicionais catalogados por Fowler e Beck, que também afetam códigos implementados nessa linguagem. Esse catálogo foi validado por meio de questionários respondidos por 181 desenvolvedores experientes em Elixir, oriun- dos de 37 países e de todos os continentes. Em um segundo estudo, também adotamos uma abordagem metodológica mista, que incluiu uma revisão sistemática da literatura, para catalogar 82 estratégias de refatoração compatíveis com Elixir, sendo 14 delas in- éditas e específicas para essa linguagem. Todas essas refatorações foram validadas por meio de novos questionários respondidos por 151 desenvolvedores de 42 países diferentes. Para documentar os code smells e as refatorações catalogadas, além de descrições textuais estruturadas, produzimos exemplos de código que os representam. Por fim, conduzimos um terceiro estudo, no qual os code smells e as refatorações para Elixir foram correla- cionados, permitindo assim a definição de diretrizes práticas sobre como cada code smell pode ser removido de forma disciplinada com a ajuda de estratégias de refatoração. Nesse último estudo, também catalogamos cinco novas refatorações compostas para Elixir. De maneira geral, os resultados desta tese têm implicações práticas relacionadas à prevenção e remoção de code smells em Elixir, bem como à priorização do entendimento e uso das estratégias de refatoração para essa linguagem. Palavras-chave: code smells; refatoração; Elixir; programação funcional; mineração de repositórios de software; revisão da literatura cinza; revisão sistemática da literatura.Item Geração automática de aceleradores de domínio específico em FPGA(Universidade Federal de Viçosa, 2024-05-03) Silva, Lucas Bragança da; Nacif, Jose Augusto Miranda; http://lattes.cnpq.br/9858970345247106Devido à sua eficiência energética e alta flexibilidade, os FPGAs (Field Programmable Gate Arrays), ou Arranjos de Portas Programáveis em Campo, têm desempenhado um papel relevante na computação, atuando como aceleradores de hardware especializados. No entanto, a programação e implantação de aceleradores em plataformas com FPGA ainda representam um desafio. Esta tese apresenta uma metodologia que visa automatizar o projeto de aceleradores em FPGAs por meio de um conjunto de ferramentas para geração de arquiteturas com um fluxo de síntese programável e flexível. A metodologia proposta foi desenvolvida em três etapas. Na primeira etapa, o objetivo foi entender os principais desafios relacionados ao projeto de aceleradores em FPGAs. Para isso, foram desenvolvidas duas abordagens que tratam de geradores de aceleradores para duas aplicações específicas. Na primeira abordagem, apresentamos um gerador de aceleradores em FPGA para o algoritmo K-means. O framework proposto é altamente parametrizável e gera código HDL (Hardware Description Language), ou Linguagem de Descrição de Hardware, para o projeto completo, pronto para ser implantado em uma plataforma de FPGA na nuvem. Como resultado, o acelerador proposto apresentou ganhos de tempo de execução de 1,98 vezes quando comparado com outro acelerador em uma plataforma com FPGA altamente acoplada. Na segunda abordagem, propomos um gerador de aceleradores para simulações de GRNs (Genes Regulator Networks), ou Redes Reguladoras de Genes, usando FPGAs na nuvem. Este gerador cria automaticamente todo o conjunto de hardware/software a partir de uma descrição em alto nível de um modelo de GRN. Utilizamos seis modelos GRN propostos na literatura para comparar o desempenho e o custo com implementações em CPU (Central Processing Unit), ou Unidade Central de Processamento, GPU (Graphics Processing Unit), ou Unidade de Processamento Gráfico, e FPGA. Como resultado, o acelerador em FPGA é pelo menos 12 vezes mais rápido do que o melhor acelerador em GPU avaliado, e oferece o melhor desempenho por dólar em serviços em nuvem, pelo menos 5 vezes melhor do que o melhor acelerador em GPU. Na segunda etapa desta tese, apresentamos um framework chamado REconfigurable Accelerator DeploY (READY), o primeiro framework a oferecer suporte ao mapeamento de aplicações em grafo de fluxo de dados em plataformas CPU-FPGA de alto desempenho em tempo de execução. READY introduz um mapeamento eficiente em uma arquitetura de CGRA (Coarse Grained Reconfigurable Architecture), ou Arquitetura Reconfigurável de Granularidade Grossa, que oculta a latência da rede de interconexão global executando múltiplas tarefas. Além disso, demonstramos como esse sistema contribui para resolver alguns dos desafios relacionados à adoção de aceleradores de domínio específico em FPGAs. Os resultados dessa abordagem mostraram que é possível mapear e executar aplicações de grafo de fluxo de dados de forma eficiente, e o desempenho do sistema resulta em uma aceleração de até 2 vezes em comparação com uma CPU moderna. E, por fim, a terceira e última etapa desta tese apresenta o High Performance Coarse Grained Reconfigurable Accelerator (HPCGRA), uma ferramenta projetada para gerar aceleradores de domínio específico com interconexões multidimensionais de forma flexível. O CGRA é gerado utilizando os principais blocos de construção, como unidades funcionais, padrões de interconexão, roteamento e recursos de filas elásticas, palavras de configuração e memórias. O HPCGRA otimiza e simplifica o processo de criação de arquiteturas por meio de uma descrição portátil, gerando um código Verilog RTL genérico e eficiente. Os resultados da síntese mostram que, mesmo aumentando o número de PEs (Processing Elements), ou Elementos de Processamento, das arquiteturas geradas pelo HPCGRA, a frequência de clock e a relação do uso de recursos por PE permanecem estáveis. Foi possível sintetizar arquiteturas de CGRAs com 3036 PEs, com desempenho teórico de 1,2 TOPS. Palavras-chave: fpga; cgra; dsa; rdsa; hpcgraItem ISiM: proposta de uma métrica para simplificação de sentenças em linguagem natural(Universidade Federal de Viçosa, 2024-06-03) Costa, Lucas Mucida; Oliveira, Alcione de Paiva; http://lattes.cnpq.br/4192005936413557Em uma sociedade complexa, a habilidade de simplificar textos pode ser bastante útil. Uma comunicação clara, concisa e de fácil compreensão são características bem-vindas na interação entre pessoas. Em virtude dessa necessidade, pesquisas voltadas ao desen- volvimento de modelos capazes de produzir textos mais simples importantes, e a busca por corpus adequados para treinar e aperfeiçoar esses modelos é um campo de pesquisa ativo. No entanto, para cumprirmos essa exigência, é necessário que possamos desenvolver métricas que possibilitem verificar o quanto uma sentença é mais simples que outra com significado similar. Nesta pesquisa, desenvolvemos uma métrica de simplificação de textos para a área de Processamento de Linguagem Natural (PLN), denominada ISiM. A mé- trica proposta supera as limitações das métricas existentes, oferecendo uma abordagem rápida, simples, livre de intervenção humana e independente da língua contribuindo na avaliação da qualidade da simplificação textual. Além disso, ISiM se demonstrou eficiente na criação e no refinamento de corpora de pares de sentenças complexo/simples, sendo essa uma contribuição para as pesquisas na área. Também, foi criado nesta pesquisa, um modelo gerador de textos simplificados, utilizando para Ąne tunning um corpus otimizado pela métrica ISiM. Durante os experimentos, a métrica demonstrou sua eficácia em di- versas aplicações, como sua velocidade ao gerar resultados em poucos segundos, obtendo uma taxa de acerto de 96,94% ao ser testada em um corpus existente de pares de frase complexo/simples, 77,5% de acerto ao confrontada com um formulário respondido por humanos, e também superando outros modelos de geração de frases simplificadas da li- teratura. Além disso, a pesquisa destaca a relevância social da simplificação de textos, especialmente em um contexto como o do Brasil, onde o analfabetismo funcional atinge mais de 62 milhões de pessoas, sendo um desafio significativo a ser superado. A dificuldade de compreensão de textos complexos devido à deficiências na educação da população mos- tra o quanto ainda precisamos melhorar nosso sistema de ensino, e reforça a importância de desenvolver ferramentas como a ISiM para ajudar a tornar a informação mais acessível e compreensível para todos. Palavras-chave: Inteligência Artificial; Processamento de Linguagem Natural; Simplifi- cação de Texto; Métrica; ISiM; Mucimples.Item Métodos híbridos de otimização combinatória e aprendizado por reforço para problemas integrados de produção e distribuição(Universidade Federal de Viçosa, 2024-10-09) Araújo, Matheus de Freitas; Nogueira, Thiago Henrique; http://lattes.cnpq.br/3969976723526958Item Remoção de nuvens e reconstrução de imagens de satélite usando deep learning(Universidade Federal de Uberlândia, 2025-04-15) Silva, Leandro Henrique Furtado Pinto; Backes, André Ricardo; http://lattes.cnpq.br/4534176583993364O sensoriamento remoto tem se demonstrado uma importante ferramenta para aplicações fundamentais, como preservação ambiental, monitoramento e prevenção de desastres naturais, planejamento urbano e agricultura de precisão. Os satélites são fontes de aquisição de dados preponderantes para realização do sensoriamento remoto, em virtude da sua capacidade de oferecer imageamento em várias bandas espectrais e em alta qualidade. Entretanto, as imagens de satélite podem ser sensíveis a presença de artefatos, tais como nuvens, sombras e neve, que interferem nas aplicações mencionadas. Diante disso, este trabalho apresenta quatro principais contribuições. (i) Uma revisão sistemática da literatura, com estabelecimento de uma taxonomia, desafios, perspectivas e tendências para pesquisas relacionadas a tarefa de remoção de nuvens. (ii) Apresenta-se uma nova abordagem de difusão latente com a combinação de canal de atenção e bloco residual para remoção de nuvens, a qual possui entre 48% a 82% menos parâmetros que o estado da arte para a tarefa e preserva a qualidade da reconstrução em termos quantitativos e qualitativos. Além disso, (iii) investigou-se também como a interação entre otimizadores e funções de perda influenciam o processo de aprendizagem para reconstrução de áreas nubladas através de modelo de difusão latente. Por fim, (iv) apresenta-se também um estudo abrangente sobre o comportamento e impacto de diferentes arquiteturas e modelos de segmentação para um cenário de imagens de satélite com nuvens. Palavras-chave: Imagens de Satélite. Modelos de Difusão. Deep Learning. Remoção de Nuvens.Item Spatial data integration from heterogeneous sources for urban computing(Universidade Federal de Minas Gerais, 2023-04-26) Silva, Rodrigo Smarzaro da; Davis Júnior, Clodoveu Augusto; http://lattes.cnpq.br/4642453166241929Global urbanization is creating increasingly populous cities, and their services must be- come more efficient. Public transport is one of those essential services that directly affect the quality of living among the population. Today, various government and transportation agencies generate large volumes of data. At the same time, users of social networks, using smartphones, can enrich official sources with a range of information, from objective data to personal opinions and sentiments. There is an essential challenge in integrating such diverse and heterogeneous data sources. This work aims to propose, develop, and validate methods and techniques for integrating multiple heterogeneous urban data sources within the conceptual framework of Urban Computing. The methods developed were used in a case study to build a multimodal transportation network for Belo Horizonte. To test the results, a set of routes were determined using the multimodal transport network created and Google Maps, obtaining results close to time and distance. A case study was created to determine the urban quality of life indexes from integrated data from different sources to demonstrate the possibility of using the multimodal transport network. The data model and methods developed in this work can be used to obtain relevant information about the city and to subsidize analysis and decision-making in the various disciplines that deal with urban problems. Keywords: Spatial data integration. Urban computing