O que é resumo de textos?

6 de maio de 2024

Autores

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Program Manager

O resumo de textos condensa um ou mais textos em resumos mais curtos, facilitando a extração de informações.

A sumarização automática de textos (ou sumarização de documentos) é um método de processamento de linguagem natural (NLP) que condensa informações de um ou mais documentos de entrada em um texto original de saída. O quanto do texto de entrada aparece na saída é debatido. Algumas definições afirmam apenas 10%, outras 50%.1 Os algoritmos de sumarização de textos costumam usar arquiteturas de deep learning (especificamente, transformadores) para analisar documentos e gerar resumos de textos.

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionadas por especialistas sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Tipos de resumo automático de textos

Existem dois tipos principais de resumo: extrativo e abstrativo.

Resumo extrativo extrai frases não modificadas dos documentos de texto originais. Uma diferença fundamental entre os algoritmos extrativos é como eles avaliam a importância das sentenças enquanto reduzem a redundância de tópicos. As diferenças na pontuação das frases determinam quais frases serão extraídas e quais serão mantidas.

A sumarização abstrativa gera resumos originais com sentenças que não estão presentes nos documentos de texto originais. Essa geração requer redes neurais e grandes modelos de linguagem (LLMs) para produzir sequências de texto semanticamente significativas.

Como se pode imaginar, a sumarização abstrativa é mais cara computacionalmente do que a extrativa, exigindo um entendimento mais especializado de inteligência artificial e sistemas generativos. É evidente que a sumarização extrativa de textos também pode fazer uso de redes neurais e transformadores, como GPT, BERT e BART, na criação de resumos. No entanto, as abordagens extrativas não requerem redes neurais.2

Resumo extrativo versus abstrativo

Avaliações comparativas entre as técnicas extrativa e abstrativa mostram resultados variados. Por exemplo, algumas pesquisas indicam que a sumarização abstrativa é mais suscetível a alucinações, ou seja, informações enganosas ou factualmente incorretas.3 No entanto, pesquisas adicionais sugerem que as alucinações abstrativas, na verdade, estão alinhadas com o conhecimento geral, sendo derivadas do próprio material de origem da própria sumarização.4 Outras análises das técnicas extrativa e abstrativa revelam que cada uma oferece benefícios específicos. Embora os usuários humanos vejam os resumos abstrativos como mais coerentes, eles também consideram os resumos extrativos mais informativos e relevantes.5 As pesquisas também sugerem que a controversialidade do tema do texto influencia a forma como os usuários percebem os diferentes tipos de resumos.6 Assim, pode não haver uma comparação avaliativa individual direta entre esses tipos de sumarizações.

Mistura de Especialistas | Podcast

Decodificando a IA: resumo semanal das notícias

Junte-se a nosso renomado painel de engenheiros, pesquisadores, líderes de produtos e outros enquanto filtram as informações sobre IA para trazerem a você as mais recentes notícias e insights sobre IA.

Como funciona o resumo de texto extrativo

Assim como ocorre com outras tarefas de NLP, a sumarização de textos requer que os dados textuais passem por um pré-processamento inicial. Isso inclui a tokenização, a remoção de palavras irrelevantes e o stemming ou lematização para tornar o conjunto de dados compreensível para um modelo de aprendizado de máquina. Após o pré-processamento, todos os métodos de sumarização extrativa de textos seguem três etapas gerais e independentes: representação, pontuação de sentenças e seleção de sentenças.

Representação

No estágio de representação, um algoritmo segmenta e representa os dados textuais pré-processados para comparação. Muitas dessas representações são baseadas em modelos de bag of words, que representam segmentos de texto, como palavras ou sentenças, como pontos de dados em um espaço vetorial. Grandes conjuntos de dados de múltiplos documentos podem usar a frequência de termo-frequência inversa de documentos (TF-IDF), uma variante do bag of words que pondera cada termo para refletir sua importância dentro de um conjunto de textos. Ferramentas de modelagem de tópicos, como a análise semântica latente (LSA), são outro método de representação que produz grupos de palavras-chave resumidas ponderadas entre documentos. Outros algoritmos, como o LexRank e TextRank, utilizam gráficos. Essas abordagens baseadas em gráficos representam sentenças como nós (ou vértices) conectados por linhas de acordo com as pontuações de similaridade semântica. Como os algoritmos avaliam a similaridade semântica?7

Pontuação de frases

A pontuação de sentenças, como o nome sugere, atribui uma pontuação a cada sentença de um texto de acordo com sua importância para o mesmo. Diferentes representações utilizam métodos de pontuação distintos. Por exemplo, abordagens de representação de tópicos pontuam cada sentença de acordo com o grau em que elas expressam individualmente ou combinam os principais tópicos. Mais especificamente, isso pode envolver a atribuição de pesos às sentenças de acordo com a cofrequência de palavras-chave dos tópicos. Abordagens baseadas em gráficos calculam a centralidade das sentenças. Esses algoritmos determinam a centralidade usando o TF-IDF para calcular o quanto um nó da sentença está distante do centroide de um documento no espaço vetorial.8

Seleção de frase

A etapa geral final nos algoritmos extrativos é a seleção de sentenças. Após atribuir pesos às sentenças de acordo com sua importância, os algoritmos selecionam as n sentenças mais importantes para um documento ou coleção de documentos. Essas sentenças compõem o resumo gerado. Mas o que acontece se essas sentenças tiverem sobreposição semântica e temática? A etapa de seleção de sentenças busca reduzir a redundância nos resumos finais. Os métodos de relevância marginal máxima utilizam uma abordagem iterativa. Especificamente, eles recalculam as pontuações de importância das sentenças de acordo com a similaridade dessas sentenças com as já selecionadas. Métodos de seleção global escolhem um subconjunto das sentenças mais importantes para maximizar a importância geral e reduzir a redundância.9

Como essa visão geral ilustra, a sumarização extrativa de textos é, em última análise, uma questão de classificação de textos (e, na maioria das vezes, de sentenças). As técnicas de sumarização extrativa de textos classificam documentos e seus trechos de textos (como, por exemplo, sentenças) para produzir um resumo que melhor corresponda aos tópicos centrais identificados nos textos fornecidos. Dessa forma, a sumarização extrativa pode ser entendida como uma forma de recuperação de informações.10

Como funciona o resumo abstrativo de textos.

Como já mencionado, as técnicas de sumarização abstrativa de textos utilizam redes neurais para gerar um texto original que resume um ou mais documentos. Embora existam diversos tipos de métodos de sumarização abstrativa de textos, a literatura não adota um sistema de classificação abrangente para descrevê-los.11 No entanto, é possível apresentar uma visão dos objetivos gerais desses métodos.

Compressão de frases

Assim como em muitas aplicações de inteligência artificial, o objetivo final da sumarização abstrativa de textos é imitar os resumos gerados por seres humanos. Uma característica principal dos resumos gerados por humanos é a compactação de sentenças, em que textos e sentenças mais longos são resumidos por meio de encurtamento. Existem duas abordagens gerais para a compactação de sentenças: métodos baseados em regras e métodos estatísticos.

A primeira abordagem aproveita o conhecimento sintático para analisar segmentos gramaticais. Esses métodos utilizam palavras-chave, pistas sintáticas ou até rótulos de classes gramaticais para extrair trechos de texto, que são então combinados, frequentemente seguindo um modelo predefinido. Esse modelo pode ser extraído de análises automatizadas de textos adicionais ou de regras definidas pelo usuário.2

Em métodos estatísticos, um modelo (seja adquirido por pré-treinamento ou ajuste fino) aprende a identificar quais segmentos da sentença devem ser eliminados. Por exemplo, um analisador em árvore pode identificar sentenças similares em um texto de entrada e preencher sentenças comparáveis em uma estrutura de árvore. Uma árvore de dependência é uma dessas estruturas que modela sentenças de acordo com a relação percebida entre as palavras, alinhando-se com os arranjos sujeito-predicado. Uma sentença nessa estrutura pode ter o verbo como seu nó central, com sujeitos, objetos (ou seja, substantivos) e conjunções se ramificando. Outros verbos se ramificarão a partir dos substantivos aos quais estão ligados. Após o texto ser representado em uma estrutura de árvore, o algoritmo seleciona palavras ou frases comuns para serem utilizadas por uma rede generativa na criação de um novo resumo.12

Fusão de informação

Como este breve resumo sobre compactação de sentenças sugere, a fusão de informações é outro aspecto importante da sumarização abstrativa. As pessoas resumem documentos ao concatenar informações de vários trechos em uma única sentença ou frase.2 Uma abordagem proposta para imitar isso é a fusão de sentenças em um conjunto de múltiplos documentos. Essa abordagem identifica frases comuns em um conjunto de documentos e as funde por meio de uma técnica chamada computação na rede para produzir um resumo em inglês gramaticalmente coerente.13 Outro método proposto utiliza modelos de tópicos neurais para gerar termos-chave que, por sua vez, orientam a geração do resumo. Nessa abordagem, palavras-chave que ocorrem com frequência e que abordam os principais pontos em vários documentos são combinadas em uma única sentença ou grupo delas.14

Ordem das informações

Uma preocupação final na sumarização abstrativa de textos é a ordem das informações. As informações resumidas não seguem necessariamente a mesma ordem do documento de origem inicial. Quando as pessoas escrevem resumos, por exemplo, elas podem organizar as informações de forma temática. Um método usado para organização temática são os clusters. Especificamente, as sentenças extraídas são organizadas em grupos de acordo com o conteúdo temático (conforme determinado pelas palavras-chave que ocorrem em conjunto). Nesse sentido, os modelos de tópicos neurais são outra abordagem potencial que ordena as informações de forma temática.2

Métricas de avaliação

Os desenvolvedores usam várias métricas de avaliação para resumo de texto. As diferenças nas métricas geralmente dependem do tipo de resumo, assim como da funcionalidade do resumo que se deseja medir.

O BLEU (bilíngue evaluation understudy) é uma métrica de avaliação comumente usada em tradução automática. Ele mede a similaridade entre a verdade fundamentale a saída do modelo para uma sequência de n palavras, conhecidas como n-gramas. Na sumarização de textos, o BLEU mede a frequência e a extensão da sobreposição dos n-gramas em um resumo automático com os de um resumo gerado por um ser humano, levando em conta repetições errôneas de palavras no primeiro. Em seguida, utiliza essas pontuações de precisão para n-gramas individuais para calcular uma precisão geral do texto, chamada de média geométrica da precisão. Esse valor final varia entre 0 e 1, sendo que 1 indica um alinhamento perfeito entre os resumos de texto gerados por máquinas e por seres humanos.15

O ROUGE (recall-oriented understudy for gisting evaluation) é uma métrica desenvolvida a partir do BLEU, especificamente para a avaliação de tarefas de sumarização. Assim como o BLEU, ele compara resumos gerados por máquinas com resumos feitos por seres humanos utilizando n-gramas. Mas, enquanto o BLEU avalia a precisão das máquinas, o ROUGE mede o recall das máquinas. Em outras palavras, o ROUGE calcula a precisão de um resumo automático com base na quantidade de n-gramas da sumarização gerada por seres humanos encontrados no resumo automático. A pontuação do ROUGE, assim como a do BLEU, varia entre 0 e 1, sendo que 1 indica um alinhamento perfeito entre os resumos de texto gerados por máquinas e por seres humanos.16

Observe que essas métricas avaliam o texto final resumido gerado. Essas métricas são diferentes dos inúmeros métodos de pontuação de sentenças empregados em algoritmos de resumo de texto, que escolhem sentenças e palavras-chave adequadas para gerar o output final resumido.

Casos de uso

Várias bibliotecas permitem que os usuários implementem facilmente ferramentas de resumo de textos em Python. Por exemplo, a HuggingFace Transformers Library, uma arquitetura de transformação do tipo encoder-decoder, destinada à geração de resumos de texto. A OneAI’s Language Skills API também oferece ferramentas para gerar resumos de texto com facilidade.

A aplicação mais evidente do resumo de texto é a aceleração da pesquisa. Isso tem aplicações potenciais em diversas áreas, como jurídica, acadêmica e de marketing. No entanto, os pesquisadores também mostram como os transformadores de resumo de texto podem contribuir para o avanço de outras tarefas.

Notícias Os artigos de notícias são um conjunto de dados comum para testar e comparar técnicas de sumarização de textos. No entanto, a sumarização nem sempre é o objetivo final. Um pequeno número de estudos investiga o papel dos resumos de textos derivados de transformadores como uma forma de extração de funcionalidades para impulsionar modelos de detecção de fake news.17 Essa pesquisa mostra um potencial promissor e ilustra como os resumos de textos podem ser utilizados para aplicações mais amplas do que apenas economizar tempo na leitura de vários textos.

Tradução A sumarização cruzada entre idiomas é um ramo da sumarização de textos que se sobrepõe à tradução automática. É verdade que essa área de pesquisa não é tão extensa quanto as de sumarização ou tradução propriamente ditas. No entanto, o objetivo de resumir um texto em língua de origem ou uma coleção de textos em uma língua-alvo diferente apresenta uma série de novos desafios.18 Um dos que foi publicado explora a sumarização entre idiomas com textos históricos. Nesta tarefa, variantes históricas do idioma (por exemplo, o chinês antigo em comparação com o chinês moderno, ou o grego ático em relação ao grego moderno) são tratadas como línguas distintas. O experimento específico usa incorporações de palavras juntamente com métodos de sumarização e aprendizado por transferência extrativos e abstrativos para produzir sumarizações modernas de documentos em idiomas antigos.19

Soluções relacionadas
IBM watsonx Orchestrate

Projete assistentes e agentes de IA escaláveis com facilidade, automatize tarefas repetitivas e simplifique processos complexos com o IBM® watsonx Orchestrate.

Conheça o watsonx Orchestrate
Ferramentas e APIs de processamento de linguagem natural

Acelere o valor comercial da inteligência artificial com um portfólio poderoso e flexível de bibliotecas, serviços e aplicativos.

Explore as soluções de PNL
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Projete assistentes e agentes de IA escaláveis com facilidade, automatize tarefas repetitivas e simplifique processos complexos com o IBM® watsonx Orchestrate.

Conheça o watsonx Orchestrate Explore as soluções de PLN
Notas de rodapé

1 Juan-Manuel Torres-Moreno, Automatic Text Summarization, Wiley, 2014.

2 Aggarwal, Machine Learning for Text, Springer. Bettina Berendt, “Text Mining for News and Blogs Analysis,” Encyclopedia of Machine Learning and Data Science, Springer, 2020.

3 Haopeng Zhang, Xiao Liu, and Jiawei Zhang, “Extractive Summarization via ChatGPT for Faithful Summary Generation,” Findings of the Association for Computational Linguistics: EMNLP 2023, https://aclanthology.org/2023.findings-emnlp.214

4 Meng Cao, Yue Dong, and Jackie Cheung, “Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization,” Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 2022, https://aclanthology.org/2022.acl-long.236

5 Jonathan Pilault, Raymond Li, Sandeep Subramanian, and Chris Pal, “On Extractive and Abstractive Neural Document Summarization with Transformer Language Models,” Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020, https://aclanthology.org/2020.emnlp-main.748

6 Giuseppe Carenini and Jackie C. K. Cheung, “Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality,” Proceedings of the Fifth International Natural Language Generation Conference, 2008, https://aclanthology.org/W08-1106

7 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, and Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey,” Expert Systems with Applications, 165, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 

8 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner, and Liz Merkhofe, “Automated Text Summarization: A Review and Recommendations,” Technical Report, MITRE Corporation, 2020.

9 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012.

10 Jade Goldsteiny, Mark Kantrowitz, Vibhu Mittal, and Jaime Carbonell, “Summarizing Text Documents: Sentence Selection and Evaluation Metrics,” Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, 1999, pp. 121-128, https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf 

11 Som Gupta and S.K. Gupta, “Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, and Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey,” Expert Systems With Applications, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 . Hui Lin and Vincent Ng, “Abstractive Summarization: A Survey of the State of the Art,” Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 1, 2019, pp. 9815-9822, https://ojs.aaai.org/index.php/AAAI/article/view/5056 

12 Som Gupta and S.K. Gupta, “Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay and Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, pp. 297-328, https://aclanthology.org/J05-3002

13 Regina Barzilay and Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, pp. 297-328, https://aclanthology.org/J05-3002

14 Peng Cui and Le Hu, “Topic-Guided Abstractive Multi-Document Summarization,” Findings of the Association for Computational Linguistics: EMNLP 2021, https://aclanthology.org/2021.findings-emnlp.126

15 Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu, “Bleu: a Method for Automatic Evaluation of Machine Translation,” Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002, https://aclanthology.org/P02-1040/

16 Chin-Yew Lin, “ROUGE: A Package for Automatic Evaluation of Summaries,” Text Summarization Branches Out, https://aclanthology.org/W04-1013

17 Soheil Esmaeilzadeh, Gao Xian Peh, and Angela Xu, “Neural Abstractive Text Summarization and Fake News Detection,” 2019, https://arxiv.org/abs/1904.00788 . Philipp Hartl and Udo Kruschwitz, “Applying Automatic Text Summarization for Fake News Detection,” Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022, https://aclanthology.org/2022.lrec-1.289

18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu, and Jie Zhou, “A Survey on Cross-Lingual Summarization,” Transactions of the Association for Computational Linguistics, Vol. 10, 2022, https://aclanthology.org/2022.tacl-1.75

19 Xutan Peng, Yi Zheng, Chenghua Lin, and Advaith Siddharthan, “Summarising Historical Text in Modern Languages,” Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, 2021, https://aclanthology.org/2021.eacl-main.273