Mostrar registro simples

dc.contributor.advisorRodrigues, Paulo Sérgio Silva
dc.contributor.authorLima, Amanda Maciel de
dc.date.accessioned2023-06-08T15:28:14Z
dc.date.accessioned2024-02-27T16:29:33Z
dc.date.available2023-06-08T15:28:14Z
dc.date.available2024-02-27T16:29:33Z
dc.date.issued2023
dc.identifier.citationLIMA, Amanda Maciel de. <b> Aplicação da arquitetura transformer para sumarização de artigoscientíficos. </b> 2023. 96 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2023. Disponível em: https://doi.org/10.31414/EE.2023.D.131625.
dc.identifier.urihttps://hdl.handle.net/20.500.12032/122126
dc.description.abstractO processo de pesquisa científica tem como sua fase inicial a exploração de artigos para o conhecimento do estado da arte do tema a ser investigado. Em virtude do crescimento de dados em artigos científicos e do curso constante da informatização, tornam-se necessários mecanismos que sejam capazes de resumir artigos científicos com a finalidade de melhorar o processo de aquisição de pesquisas e direcionar a pessoa pesquisadora a acessar conteúdos relevantes. Os trabalhos de sumarização de artigos científicos, de modo geral, apresentam métodos de relevância de sentenças e aprendizado de máquina. Nos últimos anos, mecanismos de atenção associados a redes neurais e processamento de linguagem natural vêm sendo propostos para interpretare contextualizar atividades de processamento de linguagens, sendo uma delas a textual. Paralelamente, a arquitetura Transformer sugere uma modelagem de transdução com mecanismos de autoatenção - prescindindo de convoluções e recorrências - é aplicada a diversos campos da Inteligência Articial com resultados considerados promissores. Este trabalho propôs empregar o modelo pré-treinado Longformer para a atividade de sumarização de artigos científicos da base de dados SciSummNet através de etapas de pré-processamento, fine-tuning e geração dos resumos. Os resultados obtidos indicaram melhoria de 20,8% para ROUGE-2 recall e 22,69% para ROUGE-2 F-Measure em relação ao trabalho original da base SciSummNet através do modelo ComAbstract
dc.description.abstractThe scientific research process has as its initial phase the exploration of articles for the knowledge of the state of the art of the theme to be investigated. Due to the growth of data in scientific articles and the constant course of computerization, mechanisms that are capable of summarizing scientific articles become necessary in order to improve the research acquisition process and direct the researcher to access relevant content. Scientific articles summarizing works, in general, present sentence relevance and machine learning methods. In recent years, attention mechanisms associated with neural networks and natural language processing have been proposed to interpret and contextualize language processing activities, one of which is textual. In recent years, attention mechanisms associated with neural networks and natural language processing have been proposed to interpret and contextualize language processing activities, one of which is textual. At the same time, the Transformer architecture suggests a transduction modeling with self-attention mechanisms - dispensing with convolutions and recurrences - is applied to several fields of Artificial Intelligence with results considered promising. This work proposes to use the Longformer pre-trained model for summarizing scientific articles from the SciSummNet database through pre-processing, fine-tuning and summary generation steps. The results obtained indicated an improvement of 20.8% for ROUGE-2 recall and 22.69% for ROUGE-2 F-Measure in relation to the original work of the base SciSummNet through the variation model called WithAbstract
dc.languagepor
dc.language.isopt_BR
dc.publisherCentro Universitário FEI, São Bernardo do Campo
dc.subjectProcessamento de linguagem natural (Computação)
dc.subjectSumarização Abstrativa de Texto
dc.subjectArtigos científicos
dc.subjectArquitetura transformer
dc.subjectLongformer
dc.titleAplicação da arquitetura transformer para sumarização de artigoscientíficospt_BR
dc.typeDissertaçãopt_BR


Arquivos deste item

ArquivosTamanhoFormatoVisualização
fulltext.pdf1.757Mbapplication/pdfVisualizar/Abrir

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples


© AUSJAL 2022

Asociación de Universidades Confiadas a la Compañía de Jesús en América Latina, AUSJAL
Av. Santa Teresa de Jesús Edif. Cerpe, Piso 2, Oficina AUSJAL Urb.
La Castellana, Chacao (1060) Caracas - Venezuela
Tel/Fax (+58-212)-266-13-41 /(+58-212)-266-85-62

Nuestras redes sociales

facebook Facebook

twitter Twitter

youtube Youtube

Asociaciones Jesuitas en el mundo
Ausjal en el mundo AJCU AUSJAL JESAM JCEP JCS JCAP