Apa itu peringkasan teks?

Penyusun

Jacob Murel Ph.D.

Senior Technical Content Creator

Eda Kavlakoglu

Business Development + Partnerships

IBM Research

Definisi perangkuman teks

Ringkasan teks memadatkan satu atau lebih teks menjadi ringkasan yang lebih pendek untuk ekstraksi informasi yang ditingkatkan.

Ringkasan teks otomatis (atau ringkasan dokumen) adalah metode pemrosesan bahasa alami (NLP) yang memadatkan informasi dari satu atau lebih dokumen teks input ke dalam teks hasil asli. Berapa banyak teks input yang muncul dalam hasil masih diperdebatkan—beberapa definisi hanya menyatakan 10%, yang lain 50%.1 Algoritme peringkasan teks sering kali menggunakan arsitektur pembelajaran mendalam—khususnya, transformer—untuk mengurai dokumen dan menghasilkan ringkasanteks.

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Jenis ringkasan teks otomatis

Ada dua jenis ringkasan utama: ekstraktif dan abstraktif.

Peringkasan ekstraktif mengekstrak kalimat yang tidak dimodifikasi dari dokumen teks asli. Perbedaan utama antara algoritma ekstraktif adalah bagaimana mereka menilai tingkat kepentingan kalimat sekaligus mengurangi redundansi topik. Perbedaan penilaian kalimat menentukan kalimat mana yang akan diekstrak dan mana yang harus dipertahankan.

Ringkasan abstraktif menghasilkan ringkasan asli menggunakan kalimat yang tidak ditemukan dalam dokumen teks asli. Pembuatan semacam itu memerlukan neural networks dan model bahasa besar (LLM) untuk menghasilkan rangkaian teks yang bermakna secara semantik.ne

Seperti yang bisa ditebak, peringkasan teks abstraktif lebih mahal secara komputasi dibandingkan ekstraktif, sehingga membutuhkan pemahaman yang lebih khusus tentang kecerdasan buatan dan sistem generatif. Tentu saja, peringkasan teks ekstraktif juga dapat menggunakan pengubah neural networks—seperti GPT, BERT, dan BART—untuk membuat ringkasan. Namun demikian, pendekatan ekstraktif tidak memerlukan neural networks.2

Perangkuman ekstraktif versus abstraktif

Evaluasi komparatif teknik ekstraktif dan abstraktif menunjukkan hasil yang beragam. Sebagai contoh, beberapa penelitian menunjukkan bahwa rangkuman abstrak lebih rentan terhadap halusinasi - yaitu informasi yang menyesatkan atau secara faktual salah.3 Penelitian tambahan menunjukkan bahwa halusinasi abstrak sebenarnya selaras dengan pengetahuan dunia, karena berasal dari materi sumber rangkuman itu sendiri.4 Perbandingan lain dari teknik ekstraktif dan abstraktif menunjukkan bahwa masing-masing memiliki manfaat komparatif. Pengguna manusia menganggap ringkasan abstrak lebih koheren, namun mereka juga menganggap ringkasan ekstraktif lebih informatif dan relevan.5 Penelitian juga menunjukkan bahwa kontroversi dari subjek teks mempengaruhi bagaimana pengguna melihat masing-masing jenis ringkasan.6 Dengan demikian, mungkin tidak ada perbandingan evaluatif personal langsung antara jenis ringkasan ini.

Gabungan Para Pakar | 28 Agustus, episode 70

Decoding AI: Rangkuman Berita Mingguan

Bergabunglah dengan panel insinyur, peneliti, pemimpin produk, dan sosok kelas dunia lainnya selagi mereka mengupas tuntas tentang AI untuk menghadirkan berita dan insight terbaru seputar AI.

Cara kerja ringkasan teks ekstraktif

Seperti tugas NLP lainnya, peringkasan teks membutuhkan data teks yang terlebih dahulu menjalani prapemrosesan. Hal ini mencakup tokenisasi, penghapusan stopword, dan stemming atau lemmatization untuk membuat kumpulan data dapat dibaca oleh model machine learning. Setelah prapemrosesan, semua metode peringkasan teks ekstraktif mengikuti tiga langkah umum yang independen: representasi, penilaian kalimat, dan pemilihan kalimat.

Representasi

Pada tahap representasi, suatu algoritma melakukan segmentasi dan merepresentasikan data teks yang telah diproses sebelumnya untuk perbandingan. Banyak representasi ini dibangun dari model bag of words, yang merepresentasikan segmen teks—seperti kata atau kalimat—sebagai titik data dalam ruang vektor. Kumpulan data multidokumen yang besar dapat menggunakan frekuensi istilah, atau frekuensi dokumen terbalik (TF-IDF), varian dari bag of words yang memberi bobot pada setiap istilah untuk mencerminkan kepentingannya dalam satu set teks. Alat pemodelan topik seperti analisis semantik laten (LSA) adalah metode representasi lain yang menghasilkan kelompok kata kunci ringkasan yang diberi bobot di seluruh dokumen. Algoritma lain, seperti LexRank dan TextRank, menggunakan grafik. Pendekatan berbasis grafik ini merepresentasikan kalimat sebagai node (atau titik sudut) yang dihubungkan oleh garis berdasarkan skor kesamaan semantik. Bagaimana algoritma mengukur kesamaan semantik?7

Penskoran kalimat

Penilaian kalimat, sesuai namanya, menilai setiap kalimat dalam teks sesuai dengan kepentingannya terhadap teks itu. Representasi yang berbeda menerapkan metode penilaian yang berbeda. Misalnya, pendekatan representasi topik menilai setiap kalimat sesuai dengan sejauh mana mereka mengekspresikan atau menggabungkan topik kunci secara individual. Lebih khusus lagi, ini mungkin melibatkan pembobotan kalimat sesuai dengan frekuensi kata kunci topik. Pendekatan berbasis grafik, menghitung sentralitas kalimat. Algoritma ini menentukan sentralitas menggunakan TF-IDF untuk menghitung seberapa jauh node kalimat tertentu dari centroid dokumen dalam ruang vektor.8

Pemilihan kalimat

Langkah umum terakhir dalam algoritma ekstraktif adalah pemilihan kalimat. Setelah membobotkan kalimat berdasarkan kepentingannya, algoritma memilih n kalimat paling penting untuk dokumen atau koleksi dokumen. Kalimat-kalimat ini merupakan ringkasan yang dihasilkan. Tetapi bagaimana jika ada tumpang tindih semantik dan tematik dalam kalimat-kalimat ini? Langkah pemilihan kalimat bertujuan untuk mengurangi redundansi dalam ringkasan akhir. Metode relevansi marginal maksimal menggunakan pendekatan berulang. Secara khusus, mereka menghitung ulang skor kepentingan kalimat sesuai dengan kemiripan kalimat tersebut dengan kalimat yang sudah dipilih. Metode seleksi global memilih subset dari kalimat yang paling penting untuk memaksimalkan kepentingan secara keseluruhan dan mengurangi redundansi.9

Seperti yang diilustrasikan oleh gambaran umum ini, peringkasan teks ekstraktif pada akhirnya adalah masalah peringkat teks (dan paling sering, kalimat). Teknik peringkasan teks ekstraktif mengurutkan dokumen dan string pengujiannya (untuk sampel, kalimat) dalam urutan atau menghasilkan ringkasan yang paling cocok dengan topik utama yang diidentifikasi dalam teks yang diberikan. Dengan cara ini, peringkasan ekstraktif dapat dipahami sebagai bentuk pengambilan informasi.10

Cara kerja ringkasan teks abstraktif

Seperti yang telah dibahas, teknik peringkasan teks abstrak menggunakan neural networks untuk menghasilkan teks asli yang meringkas satu atau beberapa dokumen. Sementara ada banyak jenis metode peringkasan teks abstrak, literatur tidak menggunakan satu sistem klasifikasi yang menyeluruh untuk mendeskripsikan berbagai metode ini.11 Namun demikian, ada kemungkinan untuk melakukan pengenalan umum tentang tujuan-tujuan dari berbagai metode ini.

Kompresi kalimat

Seperti halnya banyak aplikasi kecerdasan buatan, peringkasan teks abstrak pada akhirnya bertujuan untuk meniru ringkasan yang dibuat oleh manusia. Salah satu fitur utama dari yang terakhir adalah kompresi kalimat—manusia meringkas teks dan kalimat yang lebih panjang dengan memperpendeknya. Ada dua pendekatan umum untuk kompresi kalimat: metode berbasis aturan dan metode statistik.

Yang pertama memanfaatkan pengetahuan sintaksis untuk mengurai segmen tata bahasa. Ini menggunakan kata kunci, petunjuk sintaksis, atau bahkan label bagian dari ucapan untuk mengekstrak cuplikan teks yang kemudian digabungkan, sering kali sesuai dengan templat yang telah ditentukan sebelumnya. Template ini dapat diangkat dari analisis teks otomatis tambahan atau aturan yang ditentukan pengguna.2

Dalam pendekatan statistik, sebuah model (baik yang diperoleh dari prapelatihan atau penyempurnaan) mempelajari segmen kalimat mana yang akan dihapus. Sebagai contoh, pengurai pohon dapat mengidentifikasi kalimat serupa dari teks input dan mengisi kalimat yang sebanding di seluruh struktur pohon. Pohon ketergantungan adalah salah satu struktur yang memodelkan kalimat sesuai dengan hubungan yang dirasakan antara kata-kata, selaras dengan pengaturan subjek-predikat. Kalimat dalam struktur ini dapat memiliki kata kerja sebagai node pusatnya, dengan subjek dan objek (yaitu kata benda) dan konjungsi yang bercabang. Kata kerja tambahan kemudian akan bercabang dari kata benda yang dilampirkan. Setelah teks direpresentasikan dalam struktur pohon, algoritme kemudian memilih kata atau frasa umum untuk digunakan oleh jaringan generatif dalam membuat ringkasan baru.12

Penggabungan informasi

Seperti yang diisyaratkan oleh tinjauan singkat mengenai kompresi kalimat ini, fusi informasi adalah aspek kunci lain dari ringkasan abstrak. Orang meringkas dokumen dengan menggabungkan informasi dari beberapa bagian ke dalam satu kalimat atau frasa.2 Salah satu pendekatan yang diusulkan untuk meniru ini adalah fusi kalimat di seluruh kumpulan multi-dokumen. Pendekatan ini mengidentifikasi frasa yang sering muncul di seluruh kumpulan dokumen dan menggabungkannya melalui teknik yang disebut komputasi kisi untuk menghasilkan ringkasan bahasa Inggris yang koheren secara tatabahasa. 13 Metode lain yang diusulkan menggunakan model topik neural untuk menghasilkan istilah kunci yang pada gilirannya memandu pembuatan ringkasan. Dalam pendekatan ini, kata kunci yang sering muncul yang mencakup poin-poin utama di beberapa dokumen digabungkan ke dalam satu kalimat atau kelompoknya.14

Urutan informasi

Perhatian terakhir dalam ringkasan teks abstraktif adalah urutan informasi. Informasi yang diringkas tidak selalu mengikuti urutan yang sama dengan dokumen sumber awal. Ketika orang menulis ringkasan, misalnya, mereka mungkin sering mengatur informasi secara tematik. Salah satu metode yang digunakan untuk organisasi tematik adalah kluster. Secara khusus, kalimat yang diekstrak diatur dalam kelompok sesuai dengan konten topik (sebagaimana ditentukan oleh kata kunci yang muncul bersama). Sejalan dengan ini, model topik neural adalah pendekatan potensial lain yang diurutkan informasi secara topik.2

Metrik evaluasi

Pengembang menggunakan sejumlah metrik evaluasi untuk ringkasan teks. Perbedaan dalam metrik umumnya bergantung pada jenis ringkasan serta fitur ringkasan yang ingin diukur.

BLEU (bilingual evaluation understudy) adalah metrik evaluasi yang biasa digunakan dalam penerjemahan mesin. Metode ini mengukur kemiripan antara kebenaran dasar dan hasil model untuk urutan n kata, yang dikenal sebagai n-gram. Dalam peringkasan teks, BLEU mengukur seberapa sering, dan sejauh mana, n-gram dalam ringkasan otomatis tumpang tindih dengan ringkasan yang dibuat oleh manusia, dengan memperhitungkan pengulangan kata yang salah pada ringkasan yang dibuat oleh manusia. Kemudian menggunakan skor presisi ini untuk masing-masing n-gram untuk menghitung presisi teks secara keseluruhan, yang dikenal sebagai presisi rata-rata geometris. Nilai akhir ini antara 0 dan 1, nilai terakhir menunjukkan keselarasan yang sempurna antara ringkasan teks yang dibuat oleh mesin dan manusia.15

ROUGE (evaluasi ringkasan khusus menggunakan standar recall) diambil dari BLEU untuk mengukur kualitas ringkasan teks. Seperti BLEU, ia membandingkan ringkasan mesin dengan ringkasan yang dibuat manusia menggunakan n-gram. Namun, sementara BLEU mengukur presisi mesin, ROUGE mengukur penarikan kembali mesin. Dengan kata lain, ROUGE menghitung keakuratan ringkasan otomatis berdasarkan jumlah n-gram dari ringkasan buatan manusia yang ditemukan dalam ringkasan otomatis. Skor ROUGE, seperti BLEU, adalah nilai antara 0 dan 1, yang terakhir menunjukkan keselarasan sempurna antara ringkasan teks yang dihasilkan mesin dan manusia.16

Perhatikan bahwa metrik ini mengevaluasi hasil akhir teks ringkasan. Mereka berbeda dari berbagai metode penilaian kalimat yang digunakan dalam algoritma peringkasan teks yang memilih kalimat dan kata kunci yang sesuai untuk menghasilkan ringkasan akhir.

Contoh penggunaan

Sejumlah pustaka memungkinkan pengguna untuk dengan mudah mengimplementasikan alat peringkasan teks di Python. Sebagai contoh, HuggingFace Transformers Library dilengkapi dengan BART, sebuah arsitektur transformator encoder-decoder, untuk menghasilkan ringkasan teks. API Keterampilan Bahasa OneAI juga menyediakan alat untuk membuat ringkasan teks dengan mudah.

Aplikasi ringkasan teks yang paling jelas adalah penelitian yang dipercepat. Ini memiliki potensi kegunaan untuk berbagai bidang, seperti hukum, akademik, dan pemasaran. Namun, para peneliti juga menunjukkan bagaimana transformator ringkasan teks dapat memajukan tugas tambahan.

Berita Artikel berita adalah kumpulan data yang umum digunakan untuk menguji dan membandingkan teknik peringkasan teks. Namun, ringkasan tidak selalu menjadi tujuan akhir. Beberapa penelitian menyelidiki peran ringkasan teks yang diturunkan dari transformer sebagai mode ekstraksi fitur untuk memperkuat model deteksi berita palsu.17 Penelitian ini menunjukkan potensi yang menjanjikan dan menggambarkan bagaimana ringkasan teks dapat diadopsi untuk penggunaan yang lebih luas daripada sekadar menghemat waktu dalam membaca banyak teks.

Penerjemahan Peringkasan lintas bahasa adalah cabang peringkasan teks yang tumpang tindih dengan terjemahan mesin. Diakui, ini bukan bidang penelitian sebesar ringkasan atau penerjemahan itu sendiri. Namun, tujuan meringkas teks bahasa sumber atau koleksi teks dalam bahasa sasaran yang berbeda menimbulkan tantangan baru.18 Salah satu publikasi itu mengkaji peringkasan lintas bahasa dengan teks sejarah. Dalam tugas ini, varian bahasa historis (misalnya, bahasa Tionghoa kuno versus bahasa Tionghoa modern, atau bahasa Yunani Attika ke bahasa Yunani modern) diperlakukan sebagai bahasa yang berbeda. Percobaan khusus ini menggunakan penanaman kata bersama dengan metode peringkasan ekstraktif dan abstraktif serta metode pembelajaran transfer untuk menghasilkan peringkasan modern dari dokumen-dokumen berbahasa kuno.19

Solusi terkait
IBM watsonx Orchestrate

Rancang asisten dan agen AI yang dapat diskalakan dengan mudah, otomatiskan tugas berulang, dan sederhanakan proses kompleks dengan IBM watsonx Orchestrate.

Temukan watsonx Orchestrate
Alat dan API pemrosesan bahasa alami

Mempercepat nilai bisnis kecerdasan buatan dengan portofolio pustaka, layanan, dan aplikasi yang kuat dan fleksibel.

Jelajahi solusi NLP
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Rancang asisten dan agen AI yang dapat diskalakan dengan mudah, otomatiskan tugas berulang, dan sederhanakan proses kompleks dengan IBM watsonx Orchestrate.

Temukan watsonx Orchestrate Jelajahi solusi NLP
Catatan kaki

1 Juan-Manuel Torres-Moreno, Automatic Text Summarization, Wiley, 2014.

2 Aggarwal, Machine Learning for Text, Springer. Bettina Berendt, “Text Mining for News and Blogs Analysis,” Encyclopedia of Machine Learning and Data Science, Springer, 2020.

3 Haopeng Zhang, Xiao Liu, and Jiawei Zhang, “Extractive Summarization via ChatGPT for Faithful Summary Generation,” Findings of the Association for Computational Linguistics: EMNLP 2023, https://aclanthology.org/2023.findings-emnlp.214

4 Meng Cao, Yue Dong, dan Jackie Cheung, “Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization,” Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, 2022, https://aclanthology.org/2022.acl-long.236

5 Jonathan Pilault, Raymond Li, Sandeep Subramanian, dan Chris Pal, “On Extractive and Abstractive Neural Document Summarization with Transformer Language Models,” Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020, https://aclanthology.org/2020.emnlp-main.748

6 Giuseppe Carenini and Jackie C. K. Cheung, “Extractive vs. NLG-based Abstractive Summarization of Evaluative Text: The Effect of Corpus Controversiality,” Proceedings of the Fifth International Natural Language Generation Conference, 2008, https://aclanthology.org/W08-1106

7 Ani Nenkova dan Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, dan Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey,” Expert Systems with Applications, 165, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030

8 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012. Steven Shearing, Abigail Gertner, Benjamin Wellner, and Liz Merkhofe, “Automated Text Summarization: A Review and Recommendations,” Technical Report, MITRE Corporation, 2020.

9 Ani Nenkova and Kathleen McKeown, “A Survey of Text Summarization Techniques,” Text Mining Data, Springer, 2012.

10 Jade Goldsteiny, Mark Kantrowitz, Vibhu Mittal, dan Jaime Carbonell, “Summarizing Text Documents: Sentence Selection and Evaluation Metrics,” Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, 1999, hal. 121-128, https://www.cs.cmu.edu/~jgc/publication/Summarizing_Text_Documents_Sentence_SIGIR_1999.pdf

11 Som Gupta dan S.K. Gupta, “Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Wafaa S. El-Kassas, Cherif R. Salama, Ahmed A. Rafea, dan Hoda K. Mohamed, “Automatic text summarization: A comprehensive survey,” Expert Systems With Applications, 2021, https://www.sciencedirect.com/science/article/abs/pii/S0957417420305030 . Hui Lin dan Vincent Ng, “Abstractive Summarization: A Survey of the State of the Art,” Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 1, 2019, hal. 9815-9822, https://ojs.aaai.org/index.php/AAAI/article/view/5056

12 Som Gupta dan S.K. Gupta, “Abstractive summarization: An overview of the state of the art,” Expert Systems With Applications, 2019, https://www.sciencedirect.com/science/article/abs/pii/S0957417418307735 . Regina Barzilay dan Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, hlm. 297-328, https://aclanthology.org/J05-3002

13 Regina Barzilay dan Kathleen R. McKeown, “Sentence Fusion for Multidocument News Summarization,” Computational Linguistics, Vol. 31, No. 3, 2005, hlm. 297-328, https://aclanthology.org/J05-3002

14 Peng Cui dan Le Hu, “Topic-Guided Abstractive Multi-Document Summarization,” Findings of the Association for Computational Linguistics: EMNLP 2021, https://aclanthology.org/2021.findings-emnlp.126

15 Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu, “Bleu: a Method for Automatic Evaluation of Machine Translation,” Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002, https://aclanthology.org/P02-1040/

16 Chin-Yew Lin, “ROUGE: A Package for Automatic Evaluation of Summaries,” Text Summarization Branches Out, https://aclanthology.org/W04-1013

17 Soheil Esmaeilzadeh, Gao Xian Peh, dan Angela Xu, “Neural Abstractive Text Summarization and Fake News Detection,” 2019, https://arxiv.org/abs/1904.00788 . Philipp Hartl dan Udo Kruschwitz, “Applying Automatic Text Summarization for Fake News Detection,” Proceedings of the Thirteenth Language Resources and Evaluation Conference, 2022, https://aclanthology.org/2022.lrec-1.289

18 Jiaan Wang, Fandong Meng, Duo Zheng, Yunlong Liang, Zhixu Li, Jianfeng Qu, dan Jie Zhou, “A Survey on Cross-Lingual Summarization,” Transactions of the Association for Computational Linguistics, Vol. 10, 2022, https://aclanthology.org/2022.tacl-1.75

19 Xutan Peng, Yi Zheng, Chenghua Lin, dan Advaith Siddharthan, “Summarising Historical Text in Modern Languages,” Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics, 2021, https://aclanthology.org/2021.eacl-main.273