Bei der Textzusammenfassung werden ein oder mehrere Texte zu kürzeren Zusammenfassungen verdichtet, um eine verbesserte Informationsextraktion zu ermöglichen.
Die automatische Textzusammenfassung (oder Dokumentzusammenfassung) ist eine Methode zur Verarbeitung natürlicher Sprache (NLP), die Informationen aus einem oder mehreren Texteingabedokumenten zu einem neuen Ausgabetext zusammenfasst. Wie viel des ursprünglichen Textes in der Ausgabe enthalten sein soll, ist umstritten – manche Definitionen sprechen von nur 10 %, andere von 50 %.1 Algorithmen zur Textzusammenfassung verwenden häufig Deep-Learning-Architekturen – insbesondere Transformer –, um Dokumente zu analysieren und Textzusammenfassungen zu generieren.
Es gibt zwei Hauptarten der Zusammenfassung: extraktive und abstraktive Zusammenfassung.
Die extraktive Zusammenfassung extrahiert unveränderte Sätze aus den Originaltextdokumenten. Ein wesentlicher Unterschied zwischen extraktiven Algorithmen besteht darin, wie sie die Wichtigkeit von Sätzen bewerten und gleichzeitig die inhaltliche Redundanz reduzieren. Unterschiede in der Satzbewertung bestimmen, welche Sätze extrahiert und welche beibehalten werden sollen.
Bei der abstraktiven Zusammenfassung werden originale Zusammenfassungen mit Sätzen erstellt, die nicht in den ursprünglichen Textdokumenten enthalten sind. Eine solche Generierung erfordert neuronale Netze und große Sprachmodelle (LLMs), um semantisch sinnvolle Textsequenzen zu generieren.
Wie man sich vorstellen kann, ist die abstraktive Textzusammenfassung rechnerisch aufwändiger als die extraktive und erfordert ein tieferes Verständnis von künstlicher Intelligenz und generativen Systemen. Natürlich können auch extraktive Textzusammenfassungen Neural Networks und Transformer wie GPT, BERT oder BART nutzen, um Zusammenfassungen zu erstellen. Extraktive Ansätze sind jedoch nicht zwingend auf Neural Networks angewiesen.2
Vergleichende Bewertungen extraktiver und abstraktiver Techniken zeigen gemischte Ergebnisse. Einige Untersuchungen deuten beispielsweise darauf hin, dass abstraktive Zusammenfassungen anfälliger für Halluzinationen sind – also zur Erzeugung irreführender oder sachlich falscher Informationen.3 Andere Untersuchungen legen jedoch nahe, dass solche abstraktiven Halluzinationen tatsächlich mit dem Weltwissen übereinstimmen, da sie aus dem Quellmaterial der Zusammenfassung selbst abgeleitet werden.4 Weitere Vergleiche zeigen, dass beide Ansätze ihre jeweiligen Vorteile haben. Während menschliche Benutzer abstraktive Zusammenfassungen als kohärenter betrachten, finden sie extraktive Zusammenfassungen informativer und relevanter.5 Untersuchungen legen auch nahe, dass die Kontroversität des Themas die Wahrnehmung der verschiedenen Zusammenfassungstypen beeinflusst.6 Daher gibt es möglicherweise keinen direkten Vergleich zwischen diesen Zusammenfassungstypen.
Wie bei anderen NLP-Aufgaben muss auch bei der Textzusammenfassung der Text zunächst vorverarbeitet werden. Dies umfasst Tokenisierung, die Entfernung von Stoppwörtern sowie Stemming oder Lemmatization, um den Datensatz für ein maschinelles Lernmodell lesbar zu machen. Nach der Vorverarbeitung folgen alle Methoden zur extraktiven Textzusammenfassung drei allgemeinen, unabhängigen Schritten: Darstellung, Satzbewertung und Satzauswahl.
In der Darstellungsphase segmentiert ein Algorithmus vorverarbeitete Textdaten und stellt sie zum Vergleich dar. Viele dieser Darstellungen basieren auf Bag-of-Words-Modellen, die Textsegmente wie Wörter oder Sätze als Datenpunkte in einem Vektorraum darstellen. Große Datensätze mit mehreren Dokumenten können die Term Frequency-Inverse Document Frequency (TF-IDF)-Methode verwenden, eine Variante von Bag of Words, die jeden Begriff gewichtet, um seine Bedeutung innerhalb eines Textsatzes widerzuspiegeln. Tools zur Themenmodellierung wie die latente semantische Analyse (LSA) sind eine weitere Darstellungsmethode, die Gruppen von zusammenfassenden Schlüsselwörtern erzeugt, die dokumentübergreifend gewichtet werden. Andere Algorithmen wie LexRank und TextRank verwenden Diagramme. Diese graphbasierten Ansätze stellen Sätze als Knoten (oder Scheitelpunkte) dar, die entsprechend den semantischen Ähnlichkeitsscores durch Linien verbunden sind. Wie messen Algorithmen die semantische Ähnlichkeit?7
Bei der Satzbewertung wird jeder Satz in einem Text nach seiner Bedeutung für diesen Text bewertet. Unterschiedliche Darstellungsansätze implementieren unterschiedliche Bewertungsmethoden. Zum Beispiel bewerten Ansätze zur Themendarstellung jeden Satz danach, in welchem Maße er einzelne Schlüsselthemen ausdrückt oder kombiniert. Konkret kann dies die Gewichtung von Sätzen nach der Häufigkeit der Stichwörter zum Thema beinhalten. Graphbasierte Ansätze berechnen die Satzzentralität. Diese Algorithmen bestimmen die Zentralität mit Hilfe von TF-IDF, um zu berechnen, wie weit ein bestimmter Satzknoten vom Schwerpunkt eines Dokuments im Vektorraum entfernt ist.8
Der letzte allgemeine Schritt bei extraktiven Algorithmen ist die Satzauswahl. Nachdem die Sätze nach ihrer Wichtigkeit gewichtet wurden, wählen die Algorithmen die n wichtigsten Sätze für ein Dokument oder eine Sammlung davon aus. Diese Sätze bilden die generierte Zusammenfassung. Aber was passiert, wenn es semantische und thematische Überschneidungen in diesen Sätzen gibt? Der Schritt der Satzauswahl zielt darauf ab, die Redundanz in den endgültigen Zusammenfassungen zu reduzieren. Die Methoden der Maximalen Marginalen Relevanz verwenden einen iterativen Ansatz. Konkret berechnen sie die Satzbewertung neu, indem sie die Ähnlichkeit dieses Satzes zu bereits ausgewählten Sätzen berücksichtigen. Globale Auswahlmethoden wählen eine Teilmenge der wichtigsten Sätze aus, um die Gesamtbedeutung zu maximieren und Redundanzen zu verringern.9
Wie diese Übersicht zeigt, geht es bei der extraktiven Textzusammenfassung hauptsächlich um die Frage der Texteinstufung (und meistens auch der Satzeinstufung). Verfahren zur extraktiven Textzusammenfassung ordnen Dokumente und ihre Teststrings (z. B. Sätze) so an, dass eine Zusammenfassung erstellt wird, die am besten den zentralen Themen der gegebenen Texte entspricht. In diesem Sinne kann die extraktive Zusammenfassung als eine Form des Informationsabrufs verstanden werden.10
Wie bereits erwähnt, verwenden abstraktive Verfahren zur Textzusammenfassung neuronale Netze, um einen Originaltext zu generieren, der ein oder mehrere Dokumente zusammenfasst. Obwohl es zahlreiche Arten von Methoden der abstrakten Textzusammenfassung gibt, wird in der Literatur kein übergreifendes Klassifikationssystem zur Beschreibung dieser Methoden verwendet.11 Es ist jedoch möglich, einen Überblick über die allgemeinen Ziele dieser verschiedenen Methoden zu geben.
Wie bei vielen Anwendungen künstlicher Intelligenz zielt die abstraktive Textzusammenfassung letztlich darauf ab, menschlich erstellte Zusammenfassungen zu imitieren. Ein Hauptmerkmal des letzteren ist die Satzkomprimierung – Menschen fassen längere Texte und Sätze zusammen, indem sie sie kürzen. Es gibt zwei allgemeine Ansätze zur Satzkomprimierung: regelbasierte und statistische Methoden.
Die regelbasierte Methode nutzt syntaktisches Wissen, um grammatikalische Segmente zu analysieren. Diese verwenden Schlüsselwörter, syntaktische Hinweise oder sogar Wortartenkennzeichnungen, um Textausschnitte zu extrahieren, die dann zusammengeführt werden – oft gemäß einer vordefinierten Vorlage. Diese Vorlage kann aus zusätzlichen automatisierten Textanalysen oder benutzerdefinierten Regeln abgeleitet werden.2
Bei statistischen Ansätzen lernt ein Modell (unabhängig davon, ob es aus dem Vortraining oder der Feinabstimmung stammt), welche Satzsegmente entfernt werden sollen. Ein Baumparser kann zum Beispiel ähnliche Sätze aus einem Eingabetext identifizieren und vergleichbare Sätze in einer Baumstruktur auffüllen. Ein Abhängigkeitsbaum ist eine solche Struktur, die Sätze nach der wahrgenommenen Beziehung zwischen Wörtern modelliert und sich an Subjekt-Prädikat-Anordnungen orientiert. Ein Satz in dieser Struktur kann das Verb als zentralen Knoten haben, wobei Subjekte und Objekte (d. h. Substantive) und Konjunktionen davon abzweigen. Zusätzliche Verben zweigen dann von den Substantiven ab, mit denen sie verbunden sind. Sobald der Text in einer Baumstruktur dargestellt ist, wählt der Algorithmus gängige Wörter oder Phrasen aus, die von einem generativen Netzwerk zur Erstellung einer neuen Zusammenfassung verwendet werden.12
Wie dieser kurze Überblick über die Satzkomprimierung andeutet, ist die Informationsfusion ein weiterer zentraler Aspekt der abstraktiven Zusammenfassung. Menschen fassen Dokumente zusammen, indem sie Informationen aus mehreren Passagen zu einem einzigen Satz oder Ausdruck zusammenfassen.2 Ein vorgeschlagener Ansatz, um dies nachzuahmen, ist die Satzfusion über einen Satz mit mehreren Dokumenten. Dieser Ansatz identifiziert häufig vorkommende Phrasen in einem Dokumentensatz und fusioniert sie durch die Technik Gitterberechnung, um eine grammatikalisch kohärente englische Zusammenfassung zu erstellen.13 Eine andere vorgeschlagene Methode verwendet neuronale Themenmodelle, um Schlüsselbegriffe zu generieren, die wiederum die Erstellung von Zusammenfassungen leiten. Bei diesem Ansatz werden häufig vorkommende Schlüsselwörter, die die Hauptpunkte mehrerer Dokumente abdecken, in einem einzigen Satz oder einer Gruppe von Sätzen zusammengefasst.14
Ein weiteres Problem bei der abstraktiven Textzusammenfassung ist die Reihenfolge der Informationen. Die zusammengefassten Informationen folgen nicht unbedingt der gleichen Reihenfolge wie im Ausgangsdokument. Wenn Menschen Zusammenfassungen verfassen, ordnen sie die Informationen oft thematisch. Eine Methode zur thematischen Organisation ist die Clusterbildung. Konkret werden extrahierte Sätze in Clustern nach aktuellem Inhalt (der durch gemeinsam auftretende Schlüsselwörter bestimmt wird) organisiert. In ähnlicher Weise sind neuronale Themenmodelle ein weiterer möglicher Ansatz, um Informationen thematisch zu ordnen.2
Entwickler verwenden verschiedene Bewertungsmetriken zur Bewertung von Textzusammenfassungen. Unterschiede in den Metriken hängen in der Regel von der Art der Zusammenfassung ab und davon, welches Merkmal der Zusammenfassung gemessen werden soll.
BLEU (Bilingual Evaluation Understudy) ist eine Bewertungsmetrik, die häufig in der maschinellen Übersetzung verwendet wird. Sie misst die Ähnlichkeit zwischen der Referenzübersetzung (Ground Truth) und der Ausgabe des Modells für eine Folge von n Wörtern, die als N-Gramme bezeichnet werden. In der Textzusammenfassung misst BLEU, wie oft und in welchem Ausmaß N-Gramme in einer automatischen Zusammenfassung mit denen einer menschlich erstellten Zusammenfassung übereinstimmen, und berücksichtigt dabei fehlerhafte Wortwiederholungen in der ersteren. Anschließend werden diese Präzisionswerte für einzelne N-Gramme verwendet, um eine Gesamtpräzision des Textes zu berechnen, die als geometrisches Mittel der Präzision bezeichnet wird. Dieser Endwert liegt zwischen 0 und 1, wobei 1 eine perfekte Übereinstimmung zwischen der maschinell und menschlich erzeugten Textzusammenfassung anzeigt.15
ROUGE (Recall-Oriented Understudy for Gisting Evaluation) wurde aus BLEU speziell zur Bewertung von Zusammenfassungsaufgaben abgeleitet. Wie BLEU vergleicht ROUGE maschinelle Zusammenfassungen mit von Menschen erstellten Zusammenfassungen unter Verwendung von N-Grammen. Aber während BLEU die Präzision der Maschine misst, misst ROUGE den Recall (Trefferquote) der Maschine. Mit anderen Worten: ROUGE berechnet die Genauigkeit einer automatischen Zusammenfassung anhand der Anzahl der N-Gramme aus der von Menschen erstellten Zusammenfassung, die in der automatischen Zusammenfassung gefunden wurden. Der ROUGE-Score liegt ebenso wie der BLEU-Score zwischen 0 und 1, wobei 1 eine perfekte Übereinstimmung zwischen der maschinellen und menschlichen Zusammenfassung anzeigt.16
Beachten Sie, dass diese Metriken das endgültige Ergebnis der Zusammenfassung auswerten. Sie unterscheiden sich von den zahlreichen Satzbewertungsmethoden, die innerhalb der Textzusammenfassungsalgorithmen verwendet werden, um geeignete Sätze und Schlüsselwörter auszuwählen, aus denen die finale Zusammenfassung erstellt wird.
Zahlreiche Bibliotheken ermöglichen Benutzern die einfache Implementierung von Textzusammenfassungstools in Python. Zum Beispiel ist die HuggingFace Transformers Library mit BART, einer Encoder-Decoder-Transformer-Architektur, zum Generieren von Textzusammenfassungen ausgestattet. Die Language Skills API von OneAI bietet auch Tools zum einfachen Generieren von Textzusammenfassungen.
Die offensichtlichste Anwendung der Textzusammenfassung ist die beschleunigte Recherche. Dafür bieten sich potenzielle Einsatzmöglichkeiten in einer Vielzahl von Bereichen, wie z. B. Recht, Wissenschaft und Marketing. Forschungen zeigen jedoch auch, wie Transformer-Modelle für Textzusammenfassungen zusätzliche Aufgaben vorantreiben können.
Nachrichten Nachrichtenartikel sind ein gängiger Datensatz zum Testen und Vergleichen von Textzusammenfassungsmethoden. Die Zusammenfassung ist jedoch nicht immer das Endziel. Mehrere Studien untersuchen die Rolle von transformerbasierten Textzusammenfassungen als Mittel zur Merkmalsextraktion, um Modelle zur Erkennung von Falschmeldungen zu unterstützen.17 Diese Forschung zeigt ein vielversprechendes Potenzial und veranschaulicht, wie Textzusammenfassungen für weitreichendere Anwendungen genutzt werden können als nur zur Zeitersparnis beim Lesen mehrerer Texte.
Übersetzung Die sprachübergreifende Zusammenfassung ist ein Zweig der Textzusammenfassung, der sich mit der maschinellen Übersetzung überschneidet. Zwar ist dies kein so großes Forschungsgebiet wie die Zusammenfassung oder Übersetzung selbst, jedoch stellt das Ziel, einen Ausgangstext oder eine Textsammlung in einer anderen Zielsprache zusammenzufassen, eine Reihe neuer Herausforderungen dar.18 Eine Veröffentlichung beschäftigt sich mit der sprachübergreifenden Zusammenfassung von historischen Texten. Bei dieser Aufgabe werden historische Sprachvarianten (z. B. Altchinesisch gegenüber Neuchinesisch oder Attisches Griechisch gegenüber Neugriechisch) als eigenständige Sprachen behandelt. Das spezifische Experiment verwendet Worteinbettungen neben extraktiven und abstraktiven Zusammenfassungs- und Transfer-Learning-Methoden, um moderne Zusammenfassungen von Dokumenten in alten Sprachen zu erstellen.19
IBM® Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Entdecken Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails.
Erfahren Sie, wie die Verarbeitung natürlicher Sprache Ihnen dabei helfen kann, sich natürlicher mit Computern zu unterhalten.
Wir haben 2.000 Unternehmen zu ihren KI-Initiativen befragt, um herauszufinden, was funktioniert, was nicht und wie Sie vorankommen können.
Auf der IBM Developer’s Website finden Sie Blogs, Artikel und Newsletter und erfahren mehr über IBM Embeddable AI.
Mit IBM® watsonx Orchestrate können Sie ganz einfach skalierbare KI-Assistenten und Agenten entwickeln, sich wiederholende Aufgaben automatisieren und komplexe Prozesse vereinfachen.
Steigern Sie den Geschäftswert der künstlichen Intelligenz mit einem leistungsstarken und flexiblen Portfolio aus Bibliotheken, Diensten und Anwendungen.
Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.
1 Juan-Manuel Torres-Moreno, Automatic Text Summarization, Wiley, 2014.
2 Aggarwal, Machine Learning for Text, Springer. Bettina Berendt, „Text Mining for News and Blogs Analysis“, Encyclopedia of Machine Learning and Data Science, Springer, 2020.
3 Haopeng Zhang, Xiao Liu und Jiawei Zhang, „Extractive Summarization via ChatGPT for Faithful Summary Generation“, Findings of the Association for Computational Linguistics: EMNLP 2023, https://aclanthology.org/2023.findings-emnlp.214
4 Meng Cao, Yue Dong und Jackie Cheung, „Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization“, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 2022, https://aclanthology.org/2022.acl-long.236
5 Jonathan Pilault, Raymond Li, Sandeep Subramanian, and Chris Pal, „On Extractive and Abstractive Neural Document Summarization with Transformer Language Models,” Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020, https://aclanthology.org/2020.emnlp-main.748
6 Giuseppe Carenini and Jackie C. K. Cheung, „Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality,” Proceedings of the Fifth International Natural Language Generation Conference, 2008, https://aclanthology.org/W08-1106
7 Ani Nenkova and Kathleen McKeown, „A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, and Hoda K. Mohamed, „Automatic text summarization: A comprehensive survey,” Expert Systems with Applications, 165, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030
8 Ani Nenkova und Kathleen McKeown, „A Survey of Text Summarization Techniques“, Text Mining Data, Springer, 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner und Liz Merkhofe, „Automated Text Summarization: A Review and Recommendation“, Technischer Bericht, MITRE Corporation, 2020.
9 Ani Nenkova und Kathleen McKeown, „A Survey of Text Summarization Techniques“, Text Mining Data, Springer, 2012.
10 Januar Goldsteiny, Mark Kantrowitz, Vibhu Mittal und Jaime Carbonell, „Summarizing Text Documents: Sentence Selection and Evaluation Metrics“, Proceedings of the 22nd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, 1999, S. 121–128, https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf
11 Som Gupta and S.K. Gupta, „Abstractive summarization: An overview of the state of the art“, Expert Systems With Applications“, Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea und Hoda K. Mohamed, „Automatic text summarization: A comprehensive survey“, Expert Systems With Applications, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 . Hui Lin and Vincent Ng, „Abstractive Summarization: A Survey of the State of the Art“, Proceedings of the AAAI Conference on Artificial Intelligence, Band 33, Nr. 1, 2019, S. 9815–9822, https://ojs.aaai.org/index.php/AAAI/article/view/5056
12 Som Gupta and S.K. Gupta, „Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay and Kathleen R. McKeown, „Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Band 31, Nr. 3, 2005, pp. 297-328, https://aclanthology.org/J05-3002
13 Regina Barzilay und Kathleen R. McKeown, „Sentence Fusion for Multidocument News Summarization”, Computational Linguistics, Band 31, Nr. 3, 2005, S. 297–328, https://aclanthology.org/J05-3002
14 Peng Cui and Le Hu, „Topic-Guided Abstractive Multi-Document Summarization“ Findings of the Association for Computational Linguistics: EMNLP 2021, https://aclanthology.org/2021.findings-emnlp.126
15 Kishore Papineni, Salim Roukos, Todd Ward und Wei-Jing Zhu, „Bleu: a Method for Automatic Evaluation of Machine Translation”, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002, https://aclanthology.org/P02-1040/
16 Chin-Yew Lin, „ROUGE: A Package for Automatic Evaluation of Summaries", Text Summarization Branches Out, https://aclanthology.org/W04-1013
17 Soheil Esmaeilzadeh, Gao Xian Peh, and Angela Xu, „Neural Abstractive Text Summarization and Fake News Detection,” 2019, https://arxiv.org/abs/1904.00788 . Philipp Hartl and Udo Kruschwitz, „Applying Automatic Text Summarization for Fake News Detection,” Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022, https://aclanthology.org/2022.lrec-1.289
18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu und Jie Zhou, „A Survey on Cross-Lingual Summarization“, Transactions of the Association for Computational Linguistics, Band 10, 2022, https://aclanthology.org/2022.tacl-1.75
19 Xutan Peng, Yi Zheng, Chenghua Lin, and Advaith Siddharthan, „Summarising Historical Text in Modern Languages,” Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, 2021, https://aclanthology.org/2021.eacl-main.273