El resumen de texto condensa uno o más textos en resúmenes más cortos para una mejor extracción de información.
El resumen automático de texto (o resumen de documentos) es un método de procesamiento de lenguaje natural (PLN) que condensa la información de uno o más documentos de texto de entrada en un texto de salida original. Se debate la cantidad del texto de entrada que aparece en la salida; algunas definiciones indican solo el 10 %; otras, el 50 %.1 Los algoritmos de resumen de texto a menudo utilizan arquitecturas de aprendizaje profundo, específicamente transformadores, para analizar documentos y generar resúmenes de texto.
Hay dos tipos principales de resumen: extractivo y abstractivo.
El resumen extractivo extrae oraciones no modificadas de los documentos de texto originales. Una diferencia clave entre los algoritmos extractivos es cómo puntúan la importancia de las oraciones y reducen la redundancia tópica. Las diferencias en el puntaje de las oraciones determinan qué oraciones extraer y cuáles retener.
El resumen abstractivo genera resúmenes originales utilizando oraciones que no están presentes en los documentos de texto originales. Dicha generación requiere redes neuronales y modelos de lenguaje grandes (LLM) para producir secuencias de texto semánticamente significativas.
Como se puede adivinar, el resumen de textos abstractivos es más costoso computacionalmente que extractivo, lo que requiere una comprensión más especializada de la inteligencia artificial y los sistemas generativos. Por supuesto, el resumen de texto extractivo también puede utilizar transformadores de redes neuronales, como GPT, BERT y BART, para crear resúmenes. No obstante, los enfoques extractivos no requieren redes neuronales.2
Las evaluaciones comparativas de las técnicas extractivas y abstractivas muestran resultados mixtos. Por ejemplo, algunas investigaciones sugieren que el resumen abstractivo es más propenso a las alucinaciones, es decir, información engañosa u objetivamente falsa.3 Sin embargo, investigaciones adicionales sugieren que las alucinaciones abstractivas en realidad se alinean con el conocimiento del mundo, ya que se derivan del propio material fuente de resumen.4 Otras comparaciones de técnicas extractivas y abstractivas muestran que cada una tiene sus beneficios comparativos. Mientras que los usuarios humanos perciben los resúmenes abstractivos como más coherentes, también consideran que los resúmenes extractivos son más informativos y relevantes.5 La investigación también sugiere que la controversia del tema del texto afecta la forma en que los usuarios ven los respectivos tipos de resumen.6 Por lo tanto, es posible que no haya una comparación evaluativa directa uno a uno entre estos tipos de resumen.
Al igual que con otras tareas de PLN, el resumen de texto requiere que los datos de texto primero se sometan a un preprocesamiento. Esto incluye tokenización, eliminación de palabras vacías y derivación o lematización para que el conjunto de datos sea legible por un modelo de machine learning. Luego del preprocesamiento, todos los métodos de resumen de texto extractivo siguen tres pasos generales e independientes: representación, puntaje de oraciones y selección de oraciones.
En la etapa de representación, un algoritmo segmenta y representa datos de texto preprocesados para compararlos. Muchas de estas representaciones se crean a partir de modelos de bag of words, que representan segmentos de texto, como palabras u oraciones, como puntos de datos en un espacio vectorial. Los grandes conjuntos de datos de varios documentos emplean el término frecuencia de documento inverso (TF-IDF), una variante de bag of words que pondera cada término para reflejar su importancia dentro de un conjunto de texto. Las herramientas de modelado de temas, como el análisis semántico latente (LSA), son otro método de representación que produce grupos de palabras clave de resumen ponderadas en todos los documentos. Otros algoritmos, como LexRank y TextRank, emplean gráficos. Estos enfoques basados en gráficos representan oraciones como nodos (o vértices) que están conectados por líneas de acuerdo con puntajes de similitud semántica. ¿Cómo miden los algoritmos la similitud semántica?7
El puntaje de frases, por su nombre, puntúa cada frase de un texto en función de su importancia para ese texto. Las distintas representaciones aplican diferentes métodos de puntaje. Por ejemplo, los enfoques de representación temática puntúan cada frase según el grado en que expresan o combinan individualmente temas clave. Más concretamente, puede consistir en ponderar las frases en función de la co-frecuencia de las palabras clave temáticas. Enfoques basados en grafos, calculan la centralidad de las frases. Estos algoritmos determinan la centralidad mediante el cálculo de TF-IDF para averiguar a qué distancia puede encontrarse un nodo de una frase determinada del centroide de un documento en el espacio vectorial8
El último paso general de los algoritmos extractivos es la selección de frases. Una vez ponderadas las frases según su importancia, los algoritmos seleccionan las n frases más importantes de un documento o colección de documentos. Estas frases componen el resumen generado. Pero, ¿y si hay superposición semántica y temática en estas oraciones? El objetivo de la selección de frases es reducir la redundancia en los resúmenes finales. Los métodos de relevancia marginal máxima emplean un enfoque iterativo. En concreto, vuelven a calcular los puntajes de importancia de las frases en función de su similitud con las frases ya seleccionadas. Los métodos de selección global seleccionan un subconjunto de las frases más importantes para maximizar la importancia global y reducir la redundancia9
Como ilustra esta descripción general, el resumen extractivo de texto es, en última instancia, un problema de clasificación del texto (y, con mayor frecuencia, de la oración). Las técnicas de resumen de texto extractivo clasifican los documentos y sus cadenas de prueba (por ejemplo, oraciones) en orden o producen un resumen que coincida mejor con los temas centrales identificados en los textos dados. De esta manera, el resumen extractivo puede entenderse como una forma de recuperación de información.10
Como se mencionó, las técnicas de resumen de textos abstractivos emplean redes neuronales para generar texto original que resume uno o más documentos. Mientras que existen diversos métodos de resumen de texto abstractivo, la literatura no utiliza ningún sistema de clasificación general para describirlos.11 Sin embargo, es posible resumir los objetivos generales de estos diversos métodos.
Al igual que con muchas aplicaciones de inteligencia artificial, el resumen abstractivo de texto tiene como objetivo final imitar los resúmenes generados por humanos. Una característica clave de este último es la compresión de oraciones: los humanos resumen textos y oraciones más largos acortándolos. Hay dos enfoques generales para la compresión de oraciones: métodos basados en reglas y métodos estadísticos.
Los primeros aprovechan el conocimiento sintáctico para analizar segmentos gramaticales. Estos emplean palabras clave, pistas sintácticas o incluso etiquetas de parte del discurso para extraer fragmentos de texto que luego se fusionan, a menudo de acuerdo con una plantilla predefinida. Esta plantilla se puede extraer de análisis de texto automatizados adicionales o reglas definidas por el usuario.2
En los enfoques estadísticos, un modelo (obtenido mediante entrenamiento previo o ajuste fino) aprende qué segmentos de oración eliminar. Por ejemplo, un analizador de árbol puede identificar oraciones similares a partir de un texto de entrada y completar oraciones comparables a lo largo de una estructura de árbol. Un árbol de dependencia es una de esas estructuras que modela oraciones según la relación percibida entre palabras, alinear con los arreglos sujeto-predicado. Una oración con esta estructura puede tener el verbo como su nodo central, con sujetos y objetos (es decir, sustantivos) y conjunciones ramificar. Los verbos adicionales se derivarán entonces de los sustantivos a los que están unidos. Una vez que el texto se representa en una estructura de árbol, el algoritmo selecciona palabras o frases comunes para que las emplee una red generativa en la creación de un nuevo resumen.12
Como sugiere esta breve descripción general de la compresión de oraciones, la fusión de información es otro aspecto clave del resumen abstractivo. Las personas resumen documentos concatenando información de varios pasajes en una sola oración o frase.2 Un enfoque propuesto para imitar esto es la fusión de oraciones en un conjunto de varios documentos. Este enfoque identifica frases comunes en un conjunto de documentos y las fusiona a través de una técnica llamada cálculo de celosía para producir un resumen en inglés gramaticalmente coherente.13 Otro método propuesto emplea modelos de temas neurales para generar términos clave que, a su vez, guían la generación de resúmenes. En este enfoque, las palabras clave comunes que cubren puntos principales en varios documentos se combinan en una sola oración o grupo de ellas.14
Una última preocupación en el resumen de texto abstractivo es el orden de la información. La información resumida no sigue necesariamente el mismo orden que la del documento fuente inicial. Cuando las personas escriben resúmenes, por ejemplo, a menudo pueden organizar la información por temas. Un método empleado para la organización temática son los clústeres. Específicamente, las oraciones extraídas se organizan en grupos de acuerdo con el contenido temático (según lo determinado por las palabras clave concurrentes). En este sentido, los modelos de temas neurales son otro enfoque potencial para ordenar la información por temas.2
Los desarrolladores emplean un serial de métricas de evaluación para el resumen de texto. Las diferencias en las métricas generalmente dependen del tipo de resumen, así como de la característica del resumen que se quiere medir.
BLEU (suplente de evaluación bilingüe) es una métrica de evaluación habitualmente utilizada en la traducción automática. Mide la similitud entre la realidad fundamental y la salida del modelo para una secuencia de n palabras, conocida como n-gramas. En el resumen de texto, BLEU mide con qué frecuencia y en qué medida los n-gramas de un resumen automático se superponen con los de un resumen generado por humanos, teniendo en cuenta las repeticiones erróneas de palabras en el primero. A continuación, emplea estos puntajes de precisión para n-gramas individuales para calcular una precisión general del texto, conocida como precisión media geométrica. Este valor final está entre 0 y 1, lo que indica una alineación perfecta entre los resúmenes de texto generados por la máquina y los humanos.15
ROUGE (suplente orientado a la recuperación para la evaluación gisting) se deriva de BLEU específicamente para evaluar tareas de resumen. Al igual que BLEU, compara resúmenes de máquinas con resúmenes generados por humanos empleando n-gramas. Pero mientras BLEU mide la precisión de la máquina, ROUGE mide la recuperación de la máquina. En otras palabras, ROUGE calcula la precisión de un resumen automático según la cantidad de n-gramas del resumen generado por humanos que se encuentra en el resumen automático. El puntaje ROUGE, al igual que BLEU, es cualquier valor entre 0 y 1, siendo este último el que indica una alineación perfecta entre los resúmenes de texto generados por la máquina y por el hombre.16
Tenga en cuenta que estas métricas evalúan el resultado final del texto resumido. Son distintos de los innumerables métodos de puntaje de frases empleados en los algoritmos de resumen de textos que seleccionan frases y palabras clave adecuadas a partir de las cuales se produce el resultado final resumido.
Varias bibliotecas permiten a los usuarios implementar fácilmente herramientas de resumen de texto en Python. Por ejemplo, la biblioteca HuggingFace Transformers viene cargada con BART, una arquitectura de transformador codificador-decodificador, para generar resúmenes de texto. La API de habilidades lingüísticas de OneAI también proporciona herramientas para generar fácilmente resúmenes de texto.
La aplicación más obvia del resumen de textos es la investigación acelerada. Esto tiene usos potenciales para una variedad de campos, como el legal, el académico y el marketing. Sin embargo, los investigadores también muestran cómo los transformadores de resumen de texto pueden avanzar en tareas adicionales.
Noticias Los artículos de noticias son un conjunto de datos común para probar y comparar técnicas de resumen de texto. Sin embargo, resumir no siempre es el objetivo final. Un puñado de estudios investiga el papel de los resúmenes de texto derivados de transformadores como modo de extracción de características para impulsar los modelos de detección de noticias falsas.17 Esta investigación muestra un potencial prometedor e ilustra cómo los resúmenes de texto pueden adoptar para usos de mayor alcance que el mero ahorro de tiempo en la lectura de varios textos.
Traducción El resumen multilingüe es una rama del resumen de texto que se solapa con la traducción automática. Es cierto que este no es un campo de investigación tan grande como el resumen o la traducción. Sin embargo, el objetivo de resumir un texto en el idioma de origen o una colección de textos en un idioma de destino diferente plantea una serie de nuevos desafíos.18 Uno publicado explora la summarización multilingüe con textos históricos. En esta tarea, las variantes lingüísticas históricas (por ejemplo, chino antiguo frente a chino moderno, o griego ático frente a griego moderno) se tratan como idiomas distintos. El experimento específico emplea incrustaciones de palabras junto con resúmenes extractivos y abstractivos y métodos de aprendizaje por transferencia para producir resúmenes modernos de documentos en idiomas antiguos.19
IBM Granite es nuestra familia de modelos de IA abiertos, de alto rendimiento y confiables, diseñados para empresas y optimizados para escalar sus aplicaciones de IA. Explore opciones de lenguaje, código, series de tiempo y medidas de protección.
Descubra cómo el procesamiento de lenguaje natural puede ayudarle a conversar de forma más natural con las computadoras.
Encuestamos a 2000 organizaciones sobre sus iniciativas de IA para descubrir qué funciona, qué no y cómo pueden avanzar.
Explore el sitio web de IBM Developer para acceder a blogs, artículos, boletines y aprender más sobre la IA integrable de IBM.
Aprenda los conceptos fundamentales y construya sus habilidades con laboratorios prácticos, cursos, proyectos guiados, ensayos y mucho más.
Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.
Acelere el valor de negocio de la inteligencia artificial con una cartera potente y flexible de bibliotecas, servicios y aplicaciones.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
1 Juan-Manuel Torres-Moreno, Automatic Text Summarization, Wiley, 2014.
2 Aggarwal, Machine Learning for Text, Springer. Bettina Berendt, “Text Mining for News and Blogs Analysis,” Encyclopedia of Machine Learning and Data Science, Springer, 2020.
3 Haopeng Zhang, Xiao Liu, and Jiawei Zhang, “Extractive Summarization via ChatGPT for Faithful Summary Generation,” Findings of the Association for Computational Linguistics: EMNLP 2023, https://aclanthology.org/2023.findings-emnlp.214
4 Meng Cao, Yue Dong, y Jackie Cheung, “Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization” (¡Alucinante pero real! Inspección de la facticidad de las alucinaciones en la síntesis abstractiva), Actas de la 60.ª reunión anual de la Association for Computational Linguistics, 2022, https://aclanthology.org/2022.acl-long.236
5 Jonathan Pilault, Raymond Li, Sandeep Subramanian, and Chris Pal, “On Extractive and Abstractive Neural Document Summarization with Transformer Language Models,” Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020, https://aclanthology.org/2020.emnlp-main.748
6 Giuseppe Carenini and Jackie C. K. Cheung, “Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality,” Proceedings of the Fifth International Natural Language Generation Conference, 2008, https://aclanthology.org/W08-1106
7 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, and Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey,” Expert Systems with Applications, 165, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030
8 Ani Nenkova y Kathleen McKeown, “A Survey of Text Summarization Techniques” (Un estudio de las técnicas de resumen de textos), Text Mining Data, Springer, 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner y Liz Merkhofe, “Automated Text Summarization: A Review and Recomendaciones” (Resumen automatizado de textos: Una revisión y recomendaciones), Technical Report, MITRE Corporation, 2020.
9 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012.
10 Jade Goldsteiny, Mark Kantrowitz, Vibhu Mittal, and Jaime Carbonell, “Summarizing Text Documents: Sentence Selection and Evaluation Metrics” (Resumir documentos de texto: Selección de frases y métrica de evaluación), Actas de la 22ª conferencia anual internacional ACM SIGIR sobre investigación y desarrollo en recuperación de información, 1999, pp. 121-128, https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf
11 Som Gupta y S.K. Gupta, "Abstractive summaryization: An overview of the state of the art", Experto Systems With Applications, 2019, https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S0957417418307735 . Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, y Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey” (Sumarización automática de textos: una encuesta exhaustiva), Expert Systems With Applications, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 . Hui Lin y Vincent Ng, “Abtractive Summarization: A Survey of the State of the Art” (Resumen atractivo: Un estudio del estado de la técnica), Actas de la Conferencia AAAI sobre Inteligencia Artificial, vol. 33, No. 1, 2019, págs. 9815-9822, https://ojs.aaai.org/index.php/AAAI/article/view/5056
12 Som Gupta and S.K. Gupta, “Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay and Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, pp. 297-328, https:\/\/aclanthology.org\/J05-3002
13 Regina Barzilay and Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, pp. 297-328, https://aclanthology.org/J05-3002
14 Peng Cui and Le Hu, “Topic-Guided Abstractive Multi-Document Summarization,” Findings of the Association for Computational Linguistics: EMNLP 2021, https://aclanthology.org/2021.findings-emnlp.126
15 Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu, “Bleu: a Method for Automatic Evaluation of Machine Translation,” Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002, https://aclanthology.org/P02-1040/
16 Chin-Yew Lin, “ROUGE: A Package for Automatic Evaluation of Summaries,” Text Summarization Branches Out, https://aclanthology.org/W04-1013
17 Soheil Esmaeilzadeh, Gao Xian Peh, and Angela Xu, “Neural Abstractive Text Summarization and Fake News Detection,” 2019, https://arxiv.org/abs/1904.00788 . Philipp Hartl and Udo Kruschwitz, “Applying Automatic Text Summarization for Fake News Detection,” Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022, https://aclanthology.org/2022.lrec-1.289
18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu, and Jie Zhou, “A Survey on Cross-Lingual Summarization,” Transactions of the Association for Computational Linguistics, Vol. 10, 2022, https://aclanthology.org/2022.tacl-1.75
19 Xutan Peng, Yi Zheng, Chenghua Lin, and Advaith Siddharthan, “Summarising Historical Text in Modern Languages,” Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, 2021, https://aclanthology.org/2021.eacl-main.273