¿Qué es el resumen de textos?

6 de mayo de 2024

Autores

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Program Manager

El resumen de textos condensa uno o varios textos en resúmenes más breves para mejorar la extracción de información.

El resumen automático de texto (o resumen de documentos) es un método de procesamiento del lenguaje natural (PLN) que condensa la información de uno o más documentos de texto de entrada en un texto de salida original. Se debate qué parte del texto de entrada aparece en el de salida: algunas definiciones dicen solo el 10 %, otras el 50 %1. Los algoritmos de resumen de texto suelen utilizar arquitecturas de deep learning (en concreto, transformadores) para analizar documentos y generar resúmenes de texto.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

Tipos de resumen automático de texto

Hay dos tipos principales de resumen: extractivo y abstracto.

El resumen extractivo extrae frases no modificadas de los documentos de texto originales. Una diferencia clave entre los algoritmos extractivos es cómo puntúan la importancia de las oraciones y reducen la redundancia tópica. Las diferencias en la puntuación de las frases determinan qué frases extraer y cuáles conservar.

El resumen abstractivo genera resúmenes originales con frases que no se encuentran en los documentos de texto originales. Dicha generación requiere redes neuronales y modelos de lenguaje de gran tamaño (LLM) para producir secuencias de texto semánticamente significativas.

Como se puede suponer, el resumen de texto abstractivo es más costoso desde el punto de vista computacional que el extractivo, y requiere un conocimiento más especializado de la inteligencia artificial y los sistemas generativos. Por supuesto, el resumen de texto extractivo también puede utilizar transformadores de redes neuronales (como GPT, BERT y BART) para crear resúmenes. Sin embargo, los enfoques extractivos no requieren redes neuronales2.

Resumen extractivo frente a resumen abstracto

Las evaluaciones comparativas de las técnicas extractivas y abstractivas muestran resultados mixtos. Por ejemplo, mientras que algunas investigaciones sugieren que el resumen abstractivo es más propenso a las alucinaciones, es decir, a la información engañosa u objetivamente falsa3. Sin embargo, investigaciones adicionales sugieren que las alucinaciones abstractivas en realidad se alinean con el conocimiento del mundo, ya que se derivan del propio material de origen del resumen4. Otras comparaciones de técnicas extractivas y abstractivas muestran que cada una tiene sus beneficios comparativos. Mientras que los usuarios humanos consideran que los resúmenes abstractivos son más coherentes, también consideran que los resúmenes extractivos son más informativos y relevantes5. La investigación también sugiere que la controversia del tema del texto afecta a la forma en que los usuarios ven los respectivos tipos de resumen6. Por lo tanto, es posible que no haya una comparación evaluativa directa uno a uno entre estos tipos de resumen.

Mixture of Experts | Pódcast

Descifrar la IA: resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el bullicio de la IA para ofrecerle las últimas noticias y conocimientos al respecto.

Cómo funciona el resumen de texto extractivo

Al igual que con otras tareas de PLN, el resumen de texto requiere que los datos se sometan primero a un preprocesamiento. Esto incluye la tokenización, la eliminación de palabras vacías y el stemming o lematización para que el conjunto de datos sea legible por un modelo de machine learning. Después del preprocesamiento, todos los métodos de resumen de texto extractivo siguen tres pasos generales e independientes: representación, puntuación de oraciones y selección de oraciones.

Representación

En la etapa de representación, un algoritmo segmenta y representa datos de texto preprocesados para compararlos. Muchas de estas representaciones se construyen a partir de modelos de bag of words, que representan segmentos de texto (como palabras o frases) como puntos de datos en un espacio vectorial. Los grandes conjuntos de datos con múltiples documentos suelen utilizar la frecuencia de término-frecuencia inversa de documento (TF-IDF), una variante de bag of words que pondera cada término para reflejar su importancia dentro de un conjunto de textos. Las herramientas de modelado de temas, como el análisis semántico latente (LSA), son otro método de representación que produce grupos de palabras clave de resumen ponderadas en todos los documentos. Otros algoritmos, como LexRank y TextRank, utilizan gráficos. Estos enfoques basados en gráficos representan oraciones como nodos (o vértices) que están conectados por líneas de acuerdo con puntuaciones de similitud semántica. ¿Cómo miden los algoritmos la similitud semántica?7

Puntuación de oraciones

La puntuación de oraciones, como su nombre indica, puntúa cada oración de un texto en función de su importancia para el mismo. Las diferentes representaciones implementan distintos métodos de puntuación. Por ejemplo, los enfoques de representación de temas puntúan cada oración según el grado en que expresan o combinan individualmente los temas clave. De manera más específica, esto puede implicar ponderar las oraciones en función de la cofrecuencia de las palabras clave temáticas. Los enfoques basados en gráficos calculan la centralidad de las frases. Estos algoritmos determinan la centralidad mediante TF-IDF para calcular a qué distancia puede estar un nodo de una oración dada del centroide de un documento en el espacio vectorial8.

Selección de oraciones

El último paso general en los algoritmos extractivos es la selección de oraciones. Tras ponderar las oraciones por importancia, los algoritmos seleccionan las n oraciones más importantes para un documento o colección de los mismos. Estas oraciones componen el resumen generado. Pero, ¿y si hay superposición semántica y temática en estas oraciones? El paso de selección de oraciones tiene como objetivo reducir la redundancia en los resúmenes finales. Los métodos de relevancia marginal máxima emplean un enfoque iterativo. En concreto, recalculan las puntuaciones de importancia de las oraciones de acuerdo con la similitud de esa oración con oraciones ya seleccionadas. Los métodos de selección global seleccionan un subconjunto de las oraciones más importantes para maximizar la importancia general y reducir la redundancia9.

Como ilustra esta descripción general, el resumen extractivo de texto es, en última instancia, una cuestión de clasificación de texto (y, la mayoría de las veces, de oraciones). Las técnicas de resumen extractivo de texto clasifican los documentos y sus cadenas de prueba (por ejemplo, oraciones) en orden o producen un resumen que se adapte mejor a los temas centrales identificados en los textos dados. De este modo, el resumen extractivo puede entenderse como una forma de recuperación de información10.

Cómo funciona el resumen de texto abstracto

Tal y como se contemplan, las técnicas de resumen abstractivo de texto emplean redes neuronales para generar un texto original que resuma uno o varios documentos. Aunque hay numerosos tipos de métodos de resumen abstractivo de texto, la literatura no utiliza ningún sistema de clasificación global para describirlos11. Sin embargo, es posible describir los objetivos generales de estos diversos métodos.

Compresión de oraciones

Como ocurre con muchas aplicaciones de inteligencia artificial, el resumen abstractivo de texto pretende, en última instancia, imitar los resúmenes generados por humanos. Una característica clave de estos últimos es la compresión de oraciones: los humanos resumen textos y oraciones más largos acortándolos. Existen dos enfoques generales para la compresión de oraciones: métodos basados en reglas y métodos estadísticos.

Los primeros aprovechan los conocimientos sintácticos para analizar los segmentos gramaticales. Utilizan palabras clave, pistas sintácticas o incluso etiquetas de partes de la oración para extraer fragmentos de texto que, a continuación, se combinan, a menudo según una plantilla predefinida. Esta plantilla se puede extraer de análisis de texto automatizados adicionales o reglas definidas por el usuario2.

En los enfoques estadísticos, un modelo (ya sea obtenido a partir de un preentrenamiento o de la afinación) aprende qué segmentos de frases debe eliminar. Por ejemplo, un analizador de árboles puede identificar frases similares en un texto de entrada y rellenar frases comparables en una estructura de árbol. Un árbol de dependencias es una de esas estructuras que modela las oraciones según la relación percibida entre las palabras, alineándose con las disposiciones de sujeto-predicado. Una frase con esta estructura puede tener el verbo como nodo central, con sujetos y objetos (es decir, sustantivos) y conjunciones que se ramifican. Los verbos adicionales se ramificarán entonces a partir de los sustantivos a los que están unidos. Una vez que el texto se representa en una estructura de árbol, el algoritmo selecciona palabras o frases comunes para que las utilice una red generativa al crear un nuevo resumen12.

Fusión de información

Como sugiere esta breve descripción general de la compresión de oraciones, la fusión de información es otro aspecto clave del resumen abstractivo. Las personas resumen documentos concatenando información de varios pasajes en una sola oración o frase2. Un enfoque propuesto para imitar esto es la fusión de oraciones en un conjunto de varios documentos. Este enfoque identifica frases comunes en un conjunto de documentos y las fusiona mediante una técnica denominada cálculo reticular para producir un resumen en inglés gramaticalmente coherente13. Otro método propuesto utiliza modelos de temas neuronales para generar términos clave que, a su vez, guían la generación de resúmenes. En este enfoque, las palabras clave que aparecen con frecuencia y que cubren los puntos principales de varios documentos se combinan en una sola frase o grupo de frases14.

Orden de información

Una última cuestión que preocupa en el resumen abstractivo de texto es el orden de la información. La información resumida no sigue necesariamente el mismo orden que el del documento original. Cuando las personas escriben resúmenes, por ejemplo, a menudo pueden organizar la información temáticamente. Un método utilizado para la organización temática son los conglomerados. En concreto, las oraciones extraídas se organizan en grupos de acuerdo con el contenido temático (según lo determinado por palabras clave concurrentes). En esta línea, los modelos de temas neuronales son otra posible aproximación a la información ordenada por temas2.

Métricas de evaluación

Los desarrolladores utilizan una serie de métricas de evaluación para el resumen del texto. Las diferencias en las métricas generalmente dependen del tipo de resumen, así como de la característica del resumen que se desea medir.

El BLEU (suplente de evaluación bilingüe) es una métrica de evaluación que se utiliza habitualmente en la traducción automática. Mide la similitud entre la verdad básica y la salida del modelo para una secuencia de n palabras, conocidas como n-gramas. En el resumen de texto, el BLEU mide con qué frecuencia y en qué medida los n-gramas de un resumen automático se solapan con los de un resumen generado por humanos, teniendo en cuenta las repeticiones de palabras erróneas en el primero. A continuación, utiliza estas puntuaciones de precisión para n-gramas individuales para calcular una precisión general del texto, conocida como precisión media geométrica. Este valor final está entre 0 y 1, lo que indica una alineación perfecta entre los resúmenes de texto generados por la máquina y los humanos15.

El ROUGE (suplente orientado a la recuperación para la evaluación de Gisting) se deriva del BLEU específicamente para evaluar tareas de resumen. Al igual que el BLEU, compara resúmenes de máquinas con resúmenes generados por humanos utilizando n-gramas. Pero mientras que el BLEU mide la precisión de la máquina, el ROUGE mide la recuperación de la misma. En otras palabras, el ROUGE calcula la precisión de un resumen automático en función del número de n-gramas del resumen generado por humanos que se encuentran en el resumen automático. La puntuación ROUGE, al igual que la BLEU, es cualquier valor entre 0 y 1; este último indica una alineación perfecta entre los resúmenes de texto generados por máquinas y humanos16.

Tenga en cuenta que estas métricas evalúan el resultado final del texto resumido. Son distintos de los innumerables métodos de puntuación de frases utilizados en los algoritmos de resumen de textos que seleccionan oraciones y palabras clave adecuadas a partir de las cuales se produce el resultado final resumido.

Casos de uso

Varias bibliotecas permiten a los usuarios implementar fácilmente herramientas de resumen de texto en Python. Por ejemplo, la biblioteca HuggingFace Transformers viene cargada con BART, una arquitectura del transformador codificador-descodificador, para generar resúmenes de texto. La API de habilidades lingüísticas de OneAI también proporciona herramientas para generar resúmenes de texto fácilmente.

La aplicación más obvia del resumen de textos es la investigación acelerada. Esto tiene usos potenciales para una variedad de campos, como el legal, el académico y el marketing. Sin embargo, los investigadores también muestran cómo los transformadores de resumen de texto pueden avanzar en tareas adicionales.

Noticias: los artículos de noticias son un conjunto de datos común para probar y comparar técnicas de resumen de texto. Sin embargo, resumir no siempre es el objetivo final. Un puñado de estudios investiga el papel de los resúmenes de texto derivados de transformadores como modo de extracción de características para alimentar modelos de detección de noticias falsas17. Esta investigación muestra un potencial prometedor e ilustra cómo los resúmenes de texto pueden adoptarse para usos de mayor alcance que el mero ahorro de tiempo en la lectura de varios textos.

Traducción: el resumen multilingüe es una rama del resumen de texto que se superpone con la traducción automática. Es cierto que no se trata de un campo de investigación tan amplio como el de la síntesis o la traducción propiamente dichas. Sin embargo, el objetivo de resumir un texto en el idioma de origen o una colección de textos en un idioma de destino diferente plantea una serie de nuevos retos18. Una publicación explora la síntesis multilingüe con textos históricos. En esta tarea, las variantes lingüísticas históricas (por ejemplo, el chino antiguo frente al chino moderno, o el griego ático frente al griego moderno) se tratan como lenguas distintas. El experimento específico utiliza incrustaciones de palabras junto con métodos de resumen extractivo y abstractivo y de aprendizaje por transferencia para producir resúmenes modernos de documentos en lenguas antiguas19.

Soluciones relacionadas
IBM watsonx Orchestrate

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate
Herramientas y API de procesamiento del lenguaje natural

Acelere el valor empresarial de la inteligencia artificial con una cartera potente y flexible de bibliotecas, servicios y aplicaciones.

Explore soluciones de PLN
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate Explore soluciones de PLN
Notas a pie de página

1 Juan-Manuel Torres-Moreno. Automatic Text Summarization [Resumen automático de texto]. Wiley. 2014.

2 Aggarwal. Machine Learning for Text [Machine learning para texto]. Springer. Bettina Berendt. “Text Mining for News and Blogs Analysis” [Minería de texto para el análisis de noticias y blogs]. Encyclopedia of Machine Learning and Data Science. Springer. 2020.

3 Haopeng Zhang, Xiao Liu y Jiawei Zhang. “Extractive Summarization via ChatGPT for Faithful Summary Generation” [Resumen extractivo a través de ChatGPT para la generación de resúmenes precisos]. Findings of the Association for Computational Linguistics: EMNLP 2023. https://aclanthology.org/2023.findings-emnlp.214.

4 Meng Cao, Yue Dong y Jackie Cheung. “Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization” [¡Alucinado pero real! Inspección de la realidad de las alucinaciones en el resumen abstractivo]. Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics. 2022. https://aclanthology.org/2022.acl-long.236.

5 Jonathan Pilault, Raymond Li, Sandeep Subramanian y Chris Pal. “On Extractive and Abstractive Neural Document Summarization with Transformer Language Models” [Sobre el resumen neural extractivo y abstractivo de documentos con modelos de lenguaje de transformador]. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020. https://aclanthology.org/2020.emnlp-main.748.

6 Giuseppe Carenini y Jackie C. K. Cheung. “Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality” [Resumen extractivo frente a resumen abstractivo basado en NLG de texto evaluativo: el efecto de la controversia del corpus]. Proceedings of the Fifth International Natural Language Generation Conference. 2008. https://aclanthology.org/W08-1106.

7 Ani Nenkova y Kathleen McKeown. “A Survey of Text Summarization Techniques” [Un estudio de las técnicas de resumen de texto]. Text Mining Data. Springer. 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea y Hoda K. Mohamed. “Automatic text summarization: A comprehensive survey” [Resumen automático de texto: un estudio exhaustivo]. Expert Systems with Applications. 165. 2021. https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030

8 Ani Nenkova y Kathleen McKeown. “A Survey of Text Summarization Techniques” [Un estudio de las técnicas de resumen de texto]. Text Mining Data. Springer. 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner y Liz Merkhofe. “Automated Text Summarization: A Review and Recommendations” [Resumen de texto automatizado: una revisión y recomendaciones]. Technical Report. MITRE Corporation. 2020.

9 Ani Nenkova y Kathleen McKeown. “A Survey of Text Summarization Techniques” [Un estudio de las técnicas de resumen de texto]. Text Mining Data. Springer. 2012.

10 Jade Goldsteiny, Mark Kantrowitz, Vibhu Mittal y Jaime Carbonell. "Summarizing Text Documents: Sentence Selection and Evaluation Metrics" [Resumir documentos de texto: selección de oraciones y métricas de evaluación]. Actas de la 22.ª conferencia internacional anual ACM SIGIR sobre investigación y desarrollo en recuperación de información. 1999. Pp. 121-128. https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf

11 Som Gupta y S.K. Gupta. "Abstractive summarization: An overview of the state of the art" [Resumen abstractivo: una visión general del estado de la técnica]. Expert Systems With Applications. 2019. https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea y Hoda K. Mohamed. “Automatic text summarization: A comprehensive survey” [Resumen automático de texto: un estudio exhaustivo]. Expert Systems with Applications. 165. 2021. https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 . Hui Lin y Vincent Ng. "Abstractive Summarization: A Survey of the State of the Art" [Resumen abstractivo: un estudio sobre el estado de la técnica]. Actas de la Conferencia AAAI sobre Inteligencia Artificial. Vol. 33. N.º 1. 2019. Pp. 9815-9822. https://ojs.aaai.org/index.php/AAAI/article/view/5056

12 Som Gupta y S.K. Gupta. “Abstractive summarization: An overview of the state of the art” [Resumen abstractivo: un estudio sobre el estado de la técnica]. Expert Systems With Applications. 2019. https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay y Kathleen R. McKeown. "Sentence Fusion for Multidocument News Summarization" [Fusión de oraciones para el resumen de noticias de varios documentos]. Computational Linguistics. Vol. 31. N.º 3. 2005. Pp. 297-328. https://aclanthology.org/J05-3002

13 Regina Barzilay y Kathleen R. McKeown. "Sentence Fusion for Multidocument News Summarization" [Fusión de oraciones para el resumen de noticias de varios documentos]. Computational Linguistics. Vol. 31. N.º 3. 2005. Pp. 297-328. https://aclanthology.org/J05-3002

14 Peng Cui y Le Hu. “Topic-Guided Abstractive Multi-Document Summarization” [Resumen abstractivo de varios documentos guiado por temas]. Findings of the Association for Computational Linguistics: EMNLP 2021. https://aclanthology.org/2021.findings-emnlp.126/.

15 Kishore Papineni, Salim Roukos, Todd Ward y Wei-Jing Zhu. "Bleu: a Method for Automatic Evaluation of Machine Translation" [Bleu: un método para la evaluación automática de la traducción automática]. Actas de la 40.ª reunión anual de la Association for Computational Linguistics. 2002. https://aclanthology. org/P02-1040/.

16 Chin-Yew Lin. "ROUGE: A Package for Automatic Evaluation of Summaries" [ROUGE: un paquete para la evaluación automática de resúmenes]. Text Summarization Branches Out. https://aclanthology.org/W04-1013.

17 Soheil Esmaeilzadeh, Gao Xian Peh y Angela Xu. “Neural Abstractive Text Summarization and Fake News Detection” [Resumen neuronal abstractivo de texto y detección de noticias falsas]. 2019. https://arxiv.org/abs/1904.00788 . Philipp Hartl y Udo Kruschwitz. “Applying Automatic Text Summarization for Fake News Detection” [Aplicación del resumen automático de texto para la detección de noticias falsas]. Actas de la 13.ª Conferencia sobre Evaluación y Recursos Lingüísticos. 2022. https://aclanthology.org/2022.lrec-1.289/.

18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu, y Jie Zhou. “A Survey on Cross-Lingual Summarization” [Un estudio sobre el resumen multilingüe]. Transactions of the Association for Computational Linguistics. Vol. 10. 2022. https://aclanthology.org/2022.tacl-1.75/.

19 Xutan Peng, Yi Zheng, Chenghua Lin y Advaith Siddharthan. "Summarising Historical Text in Modern Languages" [El resumen del texto histórico en lenguas modernas]. Actas de la 16.ª Conferencia del Capítulo Europeo de la Asociación de Lingüística Computacional. 2021. https://aclanthology.org/2021 .eacl-main.273/.