Use este identificador para citar ou linkar para este item: http://repositorio.ufla.br/jspui/handle/1/59176
Registro completo de metadados
Campo DCValorIdioma
dc.creatorFortunato, Danielle Abreu-
dc.date.accessioned2024-07-19T13:00:23Z-
dc.date.available2024-07-19-
dc.date.available2024-07-19T13:00:23Z-
dc.date.issued2024-07-19-
dc.date.submitted2024-03-04-
dc.identifier.citationFORTUNATO, Danielle Abreu. Modelagem granular convolucional evolutiva para classificação de fluxo de imagens. 2024. 68p. Dissertação (Mestrado em m Engenharia de Sistemas e Automação) – Universidade Federal de Lavras, Lavras, 2024.pt_BR
dc.identifier.urihttp://repositorio.ufla.br/jspui/handle/1/59176-
dc.description.abstractRecent advances in machine learning for computer vision and image classification emphasize two main aspects: (i) the explainability or interpretability of deep neural models for classification; and (ii) the ability for continuous online learning of the model after its deployment in a dynamic environment, as observed in a stream of images. In this work, we present a framework of Convolutional Evolving Granular Neural Network aimed at advancing the understanding and application of machine learning in computer vision, specifically in image recognition and classification. The network is equipped with an incremental algorithm, which addresses both issues (i) and (ii), providing a higher level of interpretability to the neural model and enabling lifelong continuous learning. The proposed modeling, named Convolutional Evolving Granular Neural Network (CEGNN), combines part of a Convolutional Neural Network (CNN) called VGG-16 with an evolving granular network (EGNN). The connectionist structure and the information granule parameters of EGNN are gradually developed and updated based on the analysis of principal components (PCAs) of latent variables that may represent features that are not directly observable, such as edges, textures, shapes, or objects, extracted from the stream of images. In particular, the VGG-16 CNN is exploited to generate a compact feature space, which refers to a representation of data features in a lower-dimensional space that preserves relevant information for a specific task, such as image classification, while the EGNN, composed of trapezoidal fuzzy granules and T-norm and S-norm aggregation functions, is used to capture patterns and classify images. The Principal Component Analysis (PCA) technique is implemented at the integration point between VGG-EGNN, aiming to represent the abstract features that influence the observed data, reducing data processing and online training time. This approach not only allows for efficient handling of images or video frames at relatively higher frequencies but also highlights that the accuracy and interpretability of the global model are enhanced by the reconfiguration of connections resulting from PCA transformation in the latent space. This is possible because by reducing the dimensionality of the data, information loss is minimized. The results obtained indicate that the CEGNN model is efficient and interpretable in the task of classifying images into ten distinct classes, achieving an accuracy of 78.88% and a precision of 0,79 in image classification. These results highlight the effectiveness of the proposed approach in dealing with the complexity of classification tasks, emphasizing its viability and relevance in various practical applications, such as analysis of brain images, radiological images, satellite images, mobile robots, and autonomous vehicles, among others.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Lavraspt_BR
dc.rightsacesso abertopt_BR
dc.rightsAttribution 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.subjectVisão computacionalpt_BR
dc.subjectReconhecimento de imagenspt_BR
dc.subjectSistemas inteligentes evolutivospt_BR
dc.subjectAprendizado profundopt_BR
dc.subjectComputação granularpt_BR
dc.subjectComputer visionpt_BR
dc.subjectImage recognitionpt_BR
dc.subjectEvolving intelligent systemspt_BR
dc.subjectDeep learningpt_BR
dc.subjectGranular computingpt_BR
dc.titleModelagem granular convolucional evolutiva para classificação de fluxo de imagenspt_BR
dc.title.alternativeEvolving convolutional granular modeling for image stream classificationpt_BR
dc.typedissertaçãopt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia de Sistemas e Automaçãopt_BR
dc.publisher.initialsUFLApt_BR
dc.publisher.countrybrasilpt_BR
dc.contributor.advisor1Ferreira, Sílvia Costa-
dc.contributor.advisor-co1Leite, Daniel Furtado-
dc.contributor.advisor-co2Ferraz, Patrícia Ferreira Ponciano-
dc.contributor.referee1Lima, Danilo Alves de-
dc.contributor.referee2Ferreira, Sílvia Costa-
dc.contributor.referee3Alvarenga, Tatiane Carvalho-
dc.description.resumoOs avanços recentes em aprendizado de máquina para visão computacional e classificação de imagens trouxeram, dentre outros desafios, os seguintes: (i) a explicabilidade ou interpretabilidade do modelo neural profundo para classificação; e (ii) a capacidade de aprendizado contínuo online do modelo após sua implementação em um ambiente dinâmico, conforme observado em um fluxo de imagens. Neste trabalho, é apresentada uma estrutura de Rede Neural Granular Evolutiva Convolucional que se destina a avançar a compreensão e aplicação de aprendizado de máquina em visão computacional, especificamente no reconhecimento e classificação de imagens. A rede é equipada com um algoritmo incremental, que aborda ambas as questões (i) e (ii), proporcionando um nível mais elevado de interpretabilidade ao modelo neural e permitindo aprendizado contínuo ao longo da vida. A modelagem proposta, denominada Convolutional Evolutionary Granular Neural Network (CEGNN) combina parte de uma Rede Neural Convolucional (CNN) denominada VGG-16 com uma rede granular evolutiva (EGNN). A estrutura conexionista e os parâmetros de grânulos de informação da EGNN são gradualmente desenvolvidos e atualizados com base na análise dos componentes principais (PCAs) de variáveis latentes que podem representar características que não são diretamente observáveis, como bordas, texturas, formas ou objetos, extraídas do fluxo de imagens. Em particular, a CNN VGG-16 é explorada para gerar um espaço característico compacto, o qual refere-se a uma representação de características de dados em um espaço de menor dimensionalidade que preserva as informações relevantes para uma tarefa específica, como classificação de imagens, enquanto a EGNN, composta por grânulos fuzzy trapezoidais e funções de agregação T-norma e S-norma, é utilizada para capturar padrões e classificar imagens. A técnica de Análise de Componentes Principais (PCA) é implementada no ponto de integração entre a VGG-EGNN, visando representar as características abstratas que influenciam os dados observados, reduzir o tempo de processamento dos dados e do treinamento online. Essa abordagem não só permite lidar eficientemente com imagens ou frames de vídeo em frequências relativamente mais elevadas, mas também destaca que a precisão e a interpretabilidade do modelo global são aprimoradas pela reconfiguração das conexões resultantes da transformação PCA no espaço latente. Isso é possível, pois ao se reduzir a dimensionalidade dos dados, a perda de informação é minimizada. Os resultados obtidos indicam que o modelo CEGNN é eficiente e interpretável na tarefa de classificação de imagens em dez classes distintas, apresentando uma acurácia de 78,88% e uma precisão de 0,79 na classificação das imagens. Esses resultados destacam a eficácia da abordagem proposta em lidar com a complexidade das tarefas de classificação ressaltando sua viabilidade e relevância em diversas aplicações práticas, como análise de imagens do cérebro, radiológicas, de satélite, de robôs móveis e veículos autônomos, entre outras.pt_BR
dc.publisher.departmentDepartamento de Automáticapt_BR
dc.subject.cnpqCiencia da computaçãopt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7176392695314632pt_BR
Aparece nas coleções:Engenharia de Sistemas e automação (Dissertações)



Este item está licenciada sob uma Licença Creative Commons Creative Commons