Pertimbangkan skenario. Anda mengajukan satu pertanyaan kepada model AI, model AI memberi Anda satu jawaban, lalu selesai. Sebagai gantinya, berikan template teruji yang menunjukkan dengan tepat cara memikirkan masalah yang kompleks dan tiba-tiba model AI memecahkan seluruh kategori, lebih cepat, lebih cerdas, dan dengan lebih konsisten. Itulah yang disediakan oleh meta prompting.
Meskipun model bahasa besar (LLM) seperti ChatGPT dari OpenAI, Gemini dari Google, dan model sumber terbuka Anthropic dapat menangani banyak tugas, model-model ini sering kali terkendala oleh penalaran yang rumit. Metode saat ini seperti rantai pemikiran dan pohon pemikiran membantu, tetapi tidak dapat menandingi penalaran seperti manusia. Meta prompting mengubahnya dengan memberikan kerangka kerja terstruktur LLM untuk kinerja yang lebih canggih.
Meta prompting adalah teknik rekayasa prompt canggih yang memberi LLM template prompt langkah demi langkah yang dapat digunakan kembali dalam bahasa alami. Metode ini memungkinkan model untuk menyelesaikan seluruh kategori tugas yang kompleks, bukan hanya satu prompt untuk satu masalah. Meta prompting mengajar model AI cara berpikir tentang memecahkan masalah dengan berfokus pada struktur, sintaksis, dan pola penalaran yang diperlukan untuk mencapai jawaban akhir. Artinya, metode ini menggunakan rekayasa prompt untuk menentukan cara memikirkan masalah, langkah demi langkah, sebelum menghasilkan jawaban akhir.
Misalnya, pengguna meminta AI untuk menyelesaikan sistem persamaan linear dua variabel, x - y = 4 dan 2x + 3y = 12. AI dapat diberi instruksi dengan menggunakan meta prompt untuk:
Arsitektur ini menawarkan kemampuan beradaptasi, memberikan output berkualitas tinggi, dan memungkinkan agen AI untuk menangani masalah kompleks di hampir semua domain dengan sedikit pemberian ulang prompt.
Teknik meta prompting didasarkan pada konsep matematika, teori tipe dan teori kategori yang menawarkan metode teratur untuk memetakan masalah ke solusi.1
Pendekatan ini penting karena mempertahankan struktur yang jelas antara tugas dan prompt, sehingga memudahkan AI untuk mengikuti template standar dan menyelesaikan berbagai masalah. Ide dasar di balik teori kategori adalah untuk memetakan hubungan. Kategori adalah "dunia" objek dan hubungannya. Dalam meta prompting, kita dapat mempertimbangkan:
Jika Anda mengubah tugas (misalnya, angka-angka dalam soal matematika), kerangka kerja penalaran akan tetap sama dan prompt menyesuaikan diri.
Skenario ini ditingkatkan oleh teori tipe, yang memastikan desain prompt cocok dengan jenis soal. Dalam meta prompting, tipe dapat berupa “soal matematika”, atau “permintaan ringkasan.” Hal ini memastikan bahwa tugas matematika mendapatkan struktur penalaran khusus matematika, sementara tugas peringkasan mendapatkan templat berorientasi peringkasan yang menjaga akurasi, kemampuan beradaptasi, dan mencegah penalaran yang tidak relevan pada tugas-tugas yang kompleks.
Untuk mempraktikkan konsep-konsep ini, meta prompting melibatkan tiga langkah:
1. Menentukan tugas (T): Menentukan kategori masalah, bukan hanya contoh tertentu.
2. Memetakan tugas ke dalam petunjuk terstruktur (P): Membuat template yang teratur dan berurutan untuk penalaran dengan menggunakan functor meta prompting (M). Pembuatan prompt ini dapat dilakukan secara otomatis oleh agen AI atau secara manual.
3. Eksekusi dan output: LLM memastikan pemecahan masalah yang konsisten dan dapat dipahami dengan menerapkan prompt terstruktur dan spesifik untuk input tertentu.
Pada contoh sebelumnya tentang menyelesaikan sistem persamaan linear dua variabel: [ 2x + 3y = 12 dan x - y = 4 ], tugas (T) adalah "selesaikan sistem persamaan linear dua variabel." Pemetaan menghasilkan prompt (P) baru yang mungkin terlihat seperti ini:
“Perankan tutor matematika dan jelaskan cara menyelesaikan persamaan linear yang diberikan langkah demi langkah.
2x + 3y = 12 dan x - y = 4
Gunakan template terstruktur ini:
1: Identifikasi koefisien a1, b1, c1 dari persamaan pertama dan a2, b2, c2 dari persamaan kedua.
2: Pilih metode penyelesaian (substitusi atau eliminasi).
3: Jika metode eliminasi digunakan, kalikan salah satu atau kedua persamaan hingga koefisien x atau y sama dengan nilai absolut.
4: Tambahkan atau kurangi persamaan untuk menghapus satu variabel.
5: Selesaikan variabel yang tersisa.
6: Untuk menemukan variabel lainnya, masukkan nilai yang telah dipecahkan ke salah satu persamaan awal.
7: Verifikasi dengan mensubstitusi x dan y ke dalam kedua persamaan awal.
8: Ringkaslah jawaban akhir sebagai (x, y).”
Jika persamaan berubah, LLM masih dapat menyelesaikannya dan melanjutkan penalaran karena functor menyediakan struktur yang sama dengan angka-angka baru. Hasilnya adalah template prompt yang cermat yang memungkinkan alur kerja AI generatif untuk memecahkan masalah dengan cara yang andal, mudah beradaptasi, dan dapat diskalakan.
Meta prompting telah diuji pada berbagai tugas penalaran, pemrograman, dan kreatif, yang sering kali mengungguli prompt standar dan bahkan model yang telah disetel dengan baik. Misalnya, pada kumpulan data MATH yang berisi 5.000 masalah kata matematika tingkat kompetisi, peneliti menggunakan prompt meta tanpa contoh (zero-shot) dengan Qwen‑72B LLM. Model ini mencapai akurasi 46,3% melampaui skor GPT‑4 awal sebesar 42,5% dan mengalahkan model yang disetel dengan baik. Prompt meta menyediakan kerangka kerja penalaran langkah demi langkah, yang memungkinkannya menyelesaikan masalah yang belum pernah ditemui tanpa menggunakan contoh yang tersimpan dalam memori.
Meta prompting dapat mengelola alur kerja pengembangan perangkat lunak dari perencanaan hingga ulasan kode, memungkinkan LLM berfungsi sebagai arsitek, pengembang, dan penguji. Sebagai contoh, menambahkan spesialis Python ke dalam arsitektur meta prompting untuk pembuatan dan eksekusi kode akan meningkatkan persentase keberhasilan Python Programming Puzzle dari 32,7% menjadi 45,8%.2 Meta prompting dapat menentukan nada dan struktur dalam pengembangan konten dan mengulangi materi untuk mendapatkan hasil yang kaya. Misalnya, dalam tugas menulis soneta Shakespeare yang membutuhkan struktur puitis yang ketat, meta prompting meningkatkan akurasi dari 62% dengan prompt standar. Dengan penerjemah Python, akurasi meningkat menjadi 79,6%, dan tanpa penerjemah, menjadi 77,6%, yang menunjukkan kekuatannya dalam memperhalus nada dan struktur.
Dengan mempertimbangkan contoh penggunaan ini, meta prompting mengubah instruksi yang rumit menjadi langkah-langkah yang dapat dikelola yang memberikan hasil yang lebih sesuai dengan domain.
Meta prompting berbeda dari teknik prompting seperti prompting tanpa contoh dan prompting dengan beberapa contoh dalam fokus dan eksekusi.
Dalam prompting tanpa contoh, LLM mendapatkan tugas tanpa contoh, hanya mengandalkan pelatihan yang telah diberikan. Meskipun dapat berfungsi dengan baik untuk tugas-tugas sederhana, prompt ini sering kali menghasilkan penalaran yang tidak konsisten pada tugas yang kompleks. Meta prompting memperbaiki masalah ini dengan template prompt yang dapat digunakan kembali dan teratur yang memandu pemecahan masalah serta memastikan hasil yang konsisten dan dapat dijelaskan.
Prompting dengan beberapa contoh memberi model beberapa contoh untuk ditiru, seperti menunjukkan tiga soal matematika yang telah diselesaikan sebelum mengajukan soal yang keempat. Cara ini “mengajarkan dengan contoh,” tetapi masih mengaitkan penalaran model dengan contoh-contoh itu. Meta prompting justru mengabstraksikan proses pemecahan masalah itu sendiri menjadi template langkah demi langkah yang digeneralisasi dan tidak bergantung pada contoh-contoh spesifik yang fleksibel dan dapat digunakan kembali di seluruh kelas masalah.
Dibandingkan dengan prompting rantai pemikiran yang menginstruksikan model untuk berpikir langkah demi langkah, meta prompting mendefinisikan langkah-langkah apa yang harus dilakukan untuk jenis tugas tertentu, sehingga proses penalaran menjadi lebih disesuaikan.
Kemampuan ini membuat meta prompting sangat berharga untuk AI generatif, agen AI, dan alur kerja kompleks di mana keandalan dan kemampuan beradaptasi sangat penting.
Meta prompting dapat diterapkan dengan berbagai cara tergantung siapa yang membuat prompt meta, cara prompt itu dihasilkan, dan cara prompt digunakan dalam alur kerja AI.
Jenis ini adalah jenis meta prompting yang paling mudah. Seorang manusia seperti pakar atau insinyur prompt menulis template langkah demi langkah yang jelas untuk tugas tersebut. LLM kemudian mengikuti struktur ini untuk mendapatkan jawabannya. Pendekatan ini bekerja dengan baik ketika Anda tahu persis bagaimana suatu masalah harus diselesaikan dan menginginkan hasil yang konsisten dan berkualitas tinggi. Oleh karena itu, dibutuhkan waktu dan keahlian untuk membuat prompt ini untuk banyak tugas berbeda.
Di sini, LLM atau agen AI membuat prompt meta untuk dirinya sendiri sebelum menyelesaikan masalah. Jenis ini terjadi dalam dua tahap: tahap pertama mengambil deskripsi tugas dan menghasilkan prompt terstruktur, langkah demi langkah; tahap kedua menggunakan prompt tersebut untuk menghasilkan jawaban akhir. Hal ini memungkinkan AI mengadaptasi proses pemecahan masalahnya, membuatnya berguna untuk skenario tanpa contoh dan skenario dengan beberapa contoh, tanpa contoh yang siap. Kekurangannya adalah bahwa kualitas output tergantung pada seberapa baik prompt AI-nya.
Jenis ini digunakan dalam alur kerja AI yang kompleks di mana beberapa LLM atau agen AI bekerja bersama. Model konduktor merencanakan proses dan membuat prompt meta yang berbeda untuk setiap model spesialis. Konduktor memecah tugas utama menjadi sub-tugas, kemudian menggunakan prompt untuk menugaskan setiap bagian ke spesialis yang tepat. Sebagai contoh, satu model menangani operasi aritmetika, model lainnya menulis kode Python, dan model lainnya memverifikasi hasil. Kerja tim ini meningkatkan akurasi dan kemampuan beradaptasi tetapi membutuhkan lebih banyak daya komputasi.
Meta prompting bukan hanya metode untuk meningkatkan respons AI, tetapi merupakan cara untuk berinteraksi dengan LLM. Alih-alih memberikan instruksi langsung ke model AI, kita memengaruhi proses berpikir model AI dengan mengajarkan cara menghasilkan prompt yang efektif untuk model itu sendiri. Meta prompting memungkinkan suatu bentuk pengoptimalan mandiri AI di mana penalaran dan kemampuan beradaptasi berevolusi dengan setiap iterasi yang membantu pengembangan sistem AI yang lebih cerdas dan dapat mengatur dirinya sendiri.