Che cos'è il riassunto del testo?

Autori

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Definizione di riepilogo del testo

Il riassunto del testo sintetizza uno o più testi in riassunti più brevi per una migliore estrazione delle informazioni.

Il riassunto automatico del testo (o riassunto del documento) è un metodo di elaborazione del linguaggio naturale (NLP) che condensa le informazioni da uno o più documenti di testo di input in un testo di output originale. La quantità di testo di input che appare nell'output è oggetto di dibattito: alcune definizioni indicano solo il 10%, altre il 50%.1 Gli algoritmi di riassunto del testo utilizzano spesso architetture di deep learning, in particolare trasformatori, per analizzare i documenti e generare riassunti di testo.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Tipi di riassunto automatico del testo

Esistono due tipi principali di riassunto: estrattivo e astrattivo.

Il riassunto estrattivo estrae le frasi non modificate dai documenti di testo originali. Una differenza fondamentale tra gli algoritmi estrattivi è il modo in cui assegnano un punteggio all'importanza delle frasi riducendo al contempo la ridondanza degli argomenti. Le differenze nel punteggio delle frasi determinano quali frasi estrarre e quali conservare.

Il riassunto astrattivo genera riassunti originali utilizzando frasi non presenti nei documenti di testo originali. Tale generazione richiede reti neurali e modelli linguistici di grandi dimensioni (LLM) per produrre sequenze di testo semanticamente significative.

Come si può intuire, il riassunto astrattivo del testo è più costoso dal punto di vista computazionale rispetto a quello estrattivo, in quanto richiede una conoscenza più specializzata dell'AI e dei sistemi generativi. Naturalmente, il riassunto estrattivo del testo può anche utilizzare reti neurali come GPT, BERT e BART, per creare riassunti. Tuttavia, gli approcci estrattivi non richiedono reti neurali.2

Riassunto estrattivo vs riassunto astrattivo

Le valutazioni comparative delle tecniche estrattive e astrattive mostrano risultati contrastanti. Ad esempio, alcune ricerche indicano che il riassunto astrattivo è più soggetto ad allucinazioni, cioè informazioni fuorvianti o di fatto false.3 Ulteriori ricerche, tuttavia, indicano che le allucinazioni astrattive sono in realtà allineate alla conoscenza del mondo, essendo derivate dallo stesso materiale delle fonti di riassunto.4 Altri confronti tra le tecniche estrattive e quelle astrattive mostrano che ognuna ha i propri vantaggi comparativi. Sebbene gli utenti umani considerino i riassunti astrattivi come più coerenti, considerano anche i riassunti estrattivi più informativi e pertinenti.5 La ricerca suggerisce inoltre che le controversie sull'argomento del testo influiscono sul modo in cui gli utenti visualizzano i rispettivi tipi di riassunto.6 Pertanto, potrebbe non esserci un confronto valutativo diretto uno a uno tra questi tipi di riassunto.

Mixture of Experts | 12 dicembre, episodio 85

Decoding AI: Weekly News Roundup

Unisciti al nostro gruppo di livello mondiale di ingegneri, ricercatori, leader di prodotto e molti altri mentre si fanno strada nell'enorme quantità di informazioni sull'AI per darti le ultime notizie e gli ultimi insight sull'argomento.

Come funziona il riassunto estrattivo del testo

Come per altre attività di NLP, il riassunto del testo richiede che i dati di testo siano prima sottoposti a trattamento. Questo include la tokenizzazione, la rimozione delle stop word e lo stemming o lemmatizzazione per rendere il set di dati leggibile da un modello di apprendimento automatico. Dopo il pre-trattamento, tutti i metodi estrattivi di riassunto del testo seguono tre passaggi generali e indipendenti: rappresentazione, punteggio delle frasi e selezione delle frasi.

Rappresentazione

Nella fase di rappresentazione, un algoritmo segmenta e rappresenta i dati di testo pre-trattati per il confronto. Molte di queste rappresentazioni si basano su un insieme di modelli bag of words, che rappresentano segmenti di testo, ad esempio parole o frasi, come punti dati in uno spazio vettoriale. Set di dati di grandi dimensioni e composti da più documenti utilizzano la Term Frequency-Inverse Document Frequency (TF-IDF), una variante di bag of words che valuta ogni termine per ponderarne l'importanza all'interno di un set di testo. Gli strumenti di modellazione degli argomenti come l'analisi semantica latente (LSA) sono un altro metodo di rappresentazione che produce gruppi di parole chiave riassuntive ponderate tra i documenti. Altri algoritmi, ad esempio LexRank e TextRank, utilizzano invece dei grafici. Questi approcci basati su grafici rappresentano le frasi come nodi (o vertici) collegati da linee in base ai punteggi di somiglianza semantica. In che modo gli algoritmi misurano la similarità semantica?7

Punteggio delle frasi

Il punteggio delle frasi, come suggerito dal nome, assegna un punteggio a ogni frase di un testo in base all'importanza per quel testo. Rappresentazioni diverse implementano metodi di punteggio diversi. Ad esempio, gli approcci di rappresentazione degli argomenti assegnano un punteggio a ciascuna frase in base al grado di espressione individuale o di combinazione di argomenti chiave. Più specificamente, questo può comportare la ponderazione delle frasi in base alla co-frequenza delle parole chiave dell'argomento. Approcci basati su grafici, calcolo della centralità delle frasi. Questi algoritmi determinano la centralità utilizzando la TF-IDF per calcolare la distanza che un determinato nodo di frase può avere dal centroide di un documento nello spazio vettoriale.8

Selezione di frasi

L'ultimo passaggio generale degli algoritmi estrattivi consiste nella selezione delle frasi. Dopo aver ponderato le frasi in base all'importanza, gli algoritmi selezionano le n frasi più importanti per un documento o una sua raccolta. Queste frasi costituiscono il riassunto generato. Ma che cosa succede in caso di sovrapposizione semantica e tematica in queste frasi? La fase di selezione delle frasi mira a ridurre la ridondanza nei riassunti finali. I metodi di massima rilevanza marginale impiegano un approccio iterativo. In particolare, ricalcolano i punteggi di importanza delle frasi in base alla loro somiglianza con le frasi già selezionate. I metodi di selezione globali selezionano un sottoinsieme delle frasi più importanti per massimizzare l'importanza complessiva e ridurre la ridondanza.9

Come illustra questa panoramica, il riassunto estrattivo del testo in definitiva è un problema di classificazione del testo (e, molto spesso, delle frasi). Le tecniche estrattive di riassunto dei testi classificano i documenti e le relative stringhe di testo (ad esempio, frasi) in ordine o producono un riassunto che meglio corrisponde agli argomenti centrali individuati nei testi indicati. In questo modo, la sintesi estrattiva può essere intesa come una forma di recupero delle informazioni.10

Come funziona il riassunto astrattivo del testo

Come spiegato, le tecniche astrattive di riassunto del testo utilizzano reti neurali per generare testo originale che riassume uno o più documenti. Sebbene esistano numerosi tipi di metodi astrattivi di riassunto del testo, la letteratura non utilizza alcun sistema di classificazione generale per descriverli.11 Tuttavia, è possibile fare una panoramica degli obiettivi generali dei vari metodi.

Compressione di frasi

Come per molte applicazioni di AI, il riassunto testuale astrattivo mira in ultima analisi a imitare i riassunti generati dall'uomo. Una caratteristica principale di quest'ultima è la compressione delle frasi: gli umani riassumono testi e frasi più lunghi abbreviandoli. Esistono due approcci generali alla compressione delle frasi: metodi basati su regole e metodi statistici.

I primi utilizzano le conoscenze sintattiche per analizzare i segmenti grammaticali. Questi utilizzano parole chiave, indizi sintattici o persino etichette di parti del discorso per estrarre frammenti di testo che vengono poi uniti, spesso secondo un modello predefinito. Questo modello può essere estratto da un'analisi del testo automatizzata aggiuntiva o da regole definite dall'utente.2

Negli approcci statistici, un modello (ottenuto dal pre-trattamento o dalla messa a punto) impara quali segmenti di frase rimuovere. Ad esempio, un parser ad albero può individuare frasi simili da un testo di input e popolare frasi comparabili in una struttura ad albero. Un albero delle dipendenze è una di queste strutture che modella le frasi in base alla relazione percepita tra le parole, allineandosi con le disposizioni soggetto-predicato. Una frase in questa struttura può avere il verbo come nodo centrale, con soggetti e oggetti (cioè sostantivi) e congiunzioni che si diramano. I verbi aggiuntivi si dirameranno quindi dai sostantivi a cui sono associati. Una volta che il testo è rappresentato in una struttura ad albero, l'algoritmo seleziona le parole o le frasi comuni da utilizzare in una rete generativa per creare un nuovo riassunto.12

Fusione delle informazioni

Come suggerisce questa breve panoramica sulla compressione delle frasi, la fusione delle informazioni è un altro aspetto chiave del riassunto astrattivo. Le persone riassumono i documenti concatenando le informazioni di più passaggi in un'unica frase.2 Un approccio proposto per imitare questo è la fusione di frasi in un insieme di più documenti. Questo approccio individua le frasi che ricorrono comunemente in un insieme di documenti e le fonde attraverso una tecnica chiamata calcolo su reticolo per produrre un riassunto in italiano coerente dal punto di vista grammaticale.13 Un altro metodo proposto utilizza modelli di argomenti neurali per generare termini chiave che, a loro volta, guidano la generazione di riassunti. In questo approccio, le parole chiave ricorrenti che riguardano i punti principali di più documenti vengono combinate in una singola frase o in un gruppo di frasi.14

Ordine di informazioni

Un'ultima problematica nel riassunto astrattivo dei testi è l'ordine delle informazioni. Le informazioni riassunte non seguono necessariamente lo stesso ordine di quelle del documento di partenza iniziale. Ad esempio, quando le persone scrivono riassunti, spesso organizzano le informazioni in modo tematico. Un metodo utilizzato per l'organizzazione tematica sono i cluster. In particolare, le frasi estratte sono organizzate in cluster in base al contenuto degli argomenti (come determinato da parole chiave ricorrenti). In questo senso, i modelli tematici neurali sono un altro potenziale approccio alle informazioni ordinate per argomento.2

Metriche di valutazione

Gli sviluppatori utilizzano una serie di metriche di valutazione per il riassunto del testo. Le differenze nelle metriche dipendono generalmente dal tipo di riassunto e dalla funzione del riassunto che si desidera misurare.

BLEU (bilingual evaluation understudy) è una metrica di valutazione comunemente utilizzata nella traduzione automatica. Misura la somiglianza tra la verità di base e l'output del modello per una sequenza di n parole, note come n-grammi. Nella sintesi del testo, BLEU misura la frequenza e la misura in cui gli n-grammi di un riassunto automatico si sovrappongono a quelli di un riassunto generato dall'uomo, tenendo conto delle ripetizioni di parole non corrette nel primo. Utilizza quindi questi punteggi di precisione per i singoli n-grammi per calcolare una precisione complessiva del testo, nota come precisione media geometrica. Questo valore finale è compreso tra 0 e 1, con l'1 che indica un perfetto allineamento tra la macchina e i riassunti di testo generati dall'uomo.15

ROUGE (recall-oriented understudy for gisting evaluation) è derivato dal BLEU specificamente per la valutazione delle attività di riassunto. Come BLEU, confronta i riassunti delle macchine con i riassunti generati dall'uomo utilizzando n-grammi. Ma mentre BLEU misura la precisione della macchina, ROUGE misura la capacità di richiamo della macchina. In altre parole, ROUGE calcola l'accuratezza di un riassunto automatico in base al numero di n-grammi del riassunto generato dall'uomo trovato nel riassunto automatico. Il punteggio ROUGE, come BLEU, è qualsiasi valore compreso tra 0 e 1, con l'1 che indica un perfetto allineamento tra la macchina e i riassunti di testo generati dall'uomo.16

Tieni presente che queste metriche valutano l'output finale del testo riassunto. Si distinguono dalla miriade di metodi di punteggio delle frasi utilizzati all'interno degli algoritmi di sintesi del testo che selezionano frasi e parole chiave adatte da cui produrre l'output finale riassunto.

Casi d’uso

Un certo numero di librerie consente agli utenti di implementare prontamente strumenti di riassunto del testo in Python. Ad esempio, la libreria HuggingFace Transformers viene fornita con BART, un'architettura trasformativa codificatore-decodificatore, per la generazione di riassunti di testo. L'API Language Skills di OneAI fornisce anche strumenti per generare facilmente riassunti testuali.

L'applicazione più ovvia del riassunto del testo è la ricerca accelerata. Questo ha potenziali utilizzi in vari campi, ad esempio quello legale, accademico e del marketing. Tuttavia, i ricercatori dimostrano anche come i trasformatori di riassunto del testo possano svolgere ulteriori compiti.

Notizie Gli articoli di notizie sono un set di dati comune per testare e confrontare le tecniche di riassunto del testo. Tuttavia, il riassunto non è sempre l'obiettivo finale. Alcuni studi analizzano il ruolo dei riassunti di testo derivati da trasformatori come modalità di estrazione di funzioni per alimentare i modelli di rilevamento delle fake news.17 Questa ricerca mostra un potenziale promettente e illustra come i riassunti testuali possano essere adottati per usi più ampi rispetto al semplice risparmio di tempo nella lettura di più testi.

Traduzione Il riassunto interlinguistico è un ramo del riassunto del testo che si sovrappone alla traduzione automatica. Certo, non si tratta di un campo di ricerca così ampio come quello del riassunto o della traduzione. Tuttavia, l'obiettivo di riassumere un testo nella lingua di partenza o una raccolta di testi in una lingua di destinazione diversa pone una serie di nuove sfide.18 Una pubblicazione esplora la sintesi interlinguistica con testi storici. In questo compito, le varianti linguistiche storiche (ad esempio, cinese antico rispetto a cinese moderno o greco attico rispetto al greco moderno) sono trattate come lingue distinte. L'esperimento specifico utilizza le combinazioni di parole insieme alla sintesi estrattiva e astrattiva e ai metodi di apprendimento per trasferimento per produrre riassunti moderni di documenti in lingua antica.19

Soluzioni correlate
IBM watsonx Orchestrate

Progetta facilmente assistenti e agenti di AI scalabili, automatizza le attività ripetitive e semplifica i processi complessi con IBM watsonx Orchestrate.

Scopri watsonx Orchestrate
Strumenti di elaborazione del linguaggio naturale e API

Accelera il valore aziendale dell'intelligenza artificiale con un portfolio potente e flessibile di librerie, servizi e applicazioni.

Esplora le soluzioni NLP
Consulenza e servizi sull'AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Progetta facilmente assistenti e agenti di AI scalabili, automatizza le attività ripetitive e semplifica i processi complessi con IBM watsonx Orchestrate.

Scopri watsonx Orchestrate Esplora le soluzioni NLP
Note a piè di pagina

1 Juan-Manuel Torres-Moreno, Automatic Text Summarization, Wiley, 2014.

2 Aggarwal, Machine Learning for Text, Springer. Bettina Berendt, "Text Mining for News and Blogs Analysis," Encyclopedia of Machine Learning and Data Science, Springer, 2020.

3 Haopeng Zhang, Xiao Liu e Jiawei Zhang, "Extractive Summarization via ChatGPT for Faithful Summary Generation," Findings of the Association for Computational Linguistics: EMNLP 2023, https://aclanthology.org/2023.findings-emnlp.214

4 Meng Cao, Yue Dong e Jackie Cheung, "Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization," Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 2022, https://aclanthology.org/2022.acl-long.236

5 Jonathan Pilault, Raymond Li, Sandeep Subramanian, e Chris Pal, "On Extractive and Abstractive Neural Document Summarization with Transformer Language Models," Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020, https://aclanthology.org/2020.emnlp-main.748

6 Giuseppe Carenini e Jackie C. K. Cheung, "Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality", Proceedings of the Fifth International Natural Language Generation Conference, 2008, https://aclanthology.org/W08-1106

7 Ani Nenkova e Kathleen McKeown, "A Survey of Text Summarization Techniques", Text Mining Data, Springer, 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea e Hoda K. Mohamed, "Automatic text summarization: A comprehensive survey", Expert Systems with Applications, 165, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030

8 Ani Nenkova e Kathleen McKeown, "A Survey of Text Summarization Techniques", Text Mining Data, Springer, 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner, e Liz Merkhofe, "Automated Text Summarization: A Review and Recommendations", Technical Report, MITRE Corporation, 2020.

9 Ani Nenkova e Kathleen McKeown, "A Survey of Text Summarization Techniques", Text Mining Data, Springer, 2012.

10 Jade Goldsteiny, Mark Kantrowitz, Vibhu Mittal e Jaime Carbonell, "Summarizing Text Documents: Sentence Selection and Evaluation Metrics", Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, 1999, pagg. 121-128, https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf

11 Som Gupta e S.K. Gupta, "Abstractive summarization: An overview of the state of the art", Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea e Hoda K. Mohamed, "Automatic text summarization: A comprehensive survey", Expert Systems With Applications, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030. Hui Lin e Vincent Ng, "Abstractive Summarization: A Survey of the State of the Art", Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, n. 1, 2019, pagg. 9815-9822, https://ojs.aaai.org/index.php/AAAI/article/view/5056

12 Som Gupta e S.K. Gupta, "Abstractive summarization: An overview of the state of the art," Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay e Kathleen R. McKeown, "Sentence Fusion for Multidocument News Summarization", Computational Linguistics, Vol. 31, n. 3, 2005, pagg. 297-328, https://aclanthology.org/J05-3002

13 Regina Barzilay e Kathleen R. McKeown, "Sentence Fusion for Multidocument News Summarization", Computational Linguistics, Vol. 31, n. 3, 2005, pagg. 297-328, https://aclanthology.org/J05-3002

14 Peng Cui e Le Hu, "Topic-Guided Abstractive Multi-Document Summarization," Findings of the Association for Computational Linguistics: EMNLP 2021, https://aclanthology.org/2021.findings-emnlp.126

15 Kishore Papineni, Salim Roukos, Todd Ward e Wei-Jing Zhu, "Bleu: a Method for Automatic Evaluation of Machine Translation", Proceedings of the 40th Annual Meeting of Association for Computational Linguistics, 2002, https://aclanthology.org/P02-1040/

16 Chin-Yew Lin, "ROUGE: A Package for Automatic Evaluation of Summaries," Text Summarization Branches Out, https://aclanthology.org/W04-1013

17 Soheil Esmaeilzadeh, Gao Xian Peh e Angela Xu, "Neural Abstractive Text Summarization and Fake News Detection," 2019, https://arxiv.org/abs/1904.00788 . Philipp Hartl e Udo Kruschwitz, "Applying Automatic Text Summarization for Fake News Detection", Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022, https://aclanthology.org/2022.lrec-1.289

18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu e Jie Zhou, "Una Survey on Cross-Lingual Summarization", Transactions of the Association for Computational Linguistics, Vol. 10, 2022, https://aclanthology.org/2022.tacl-1.75

19 Xutan Peng, Yi Zheng, Chenghua Lin e Advaith Siddharthan, "Summarising Historical Text in Modern Languages," Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, 2021, https://aclanthology.org/2021.eacl-main.273