Ide itu tidak lahir dalam sekejap. Ide muncul perlahan, di sepanjang benang Slack larut malam dan percakapan lorong, pemikiran ulang yang tenang tentang bagaimana mesin bernalar. Di suatu tempat di antara kekacauan dorongan dan aspirasi otomatisasi, sebuah konsep baru terbentuk. Ini mungkin tidak hanya mendefinisikan ulang kecerdasan buatan tetapi juga perangkat lunak itu sendiri.
Premisnya berani: Bagaimana jika kita berhenti memperlakukan model bahasa besar seperti chatbot misterius dan mulai memperlakukannya seperti infrastruktur yang dapat diprogram? IBM menyebut disiplin yang sedang berkembang ini sebagai komputasi generatif—sebuah istilah dan kerangka kerja yang dikembangkan oleh para penelitinya untuk mendefinisikan pendekatan baru dalam bekerja dengan model AI. Ini tentang rekayasa ulang bagaimana model AI diintegrasikan ke dalam sistem, bukan sebagai nubuat yang tidak dapat diprediksi tetapi sebagai komponen perangkat lunak modular yang terkontrol. Jika berhasil, itu bisa menandai titik balik untuk pengembangan AI, desain perangkat lunak dan teknologi perusahaan.
David Cox, Direktur IBM® Research, mengatakan kepada IBM® Think dalam sebuah wawancara bahwa ia menciptakan istilah komputasi generatif untuk menggambarkan perubahan yang dia lihat terjadi dalam pengembangan AI. Ini bukan merek atau produk. Ini adalah pergeseran, gerakan untuk memperlakukan model bahasa besar bukan sebagai mitra obrolan yang cerdas tetapi sebagai elemen yang dapat diprogram. Abaikan ilusi dan keajaibannya. Ini adalah rekayasa perangkat lunak.
“LLM tidak menggantikan pemrograman,” katanya. “LLM menjadi jenis pemrograman primitif yang baru.”
Saat ini, berinteraksi dengan model bahasa yang besar sering terasa seperti memanggil oracle. Sedikit mengubah kalimat dalam prompt, dan output akan berbeda. Menulis prompt sepanjang esai dan kemudian berharap bahkan memohon agar hasilnya sesuai. Astrologi itu berseni, sulit dipahami, interpretatif, dan terkadang sangat mendalam. Bagi institusi seperti bank, rumah sakit, dan pemerintah, hal mistis tidak dapat diandalkan untuk skala besar.
“Anda mengetik sesuatu, dan Anda mendapatkan jawaban yang berbeda tergantung pada bagaimana Anda mengungkapkannya,” kata Ruchir Puri, Kepala Ilmuwan IBM® Research, dalam sebuah wawancara dengan IBM® Think. “Ini seperti masa-masa awal mesin pencari.” Kita masih berada di era di mana koma dapat mengubah output. Anda tidak bisa menjalankan bisnis seperti itu.”
Puri menggambarkan dunia di mana perusahaan berjuang tidak hanya dengan halusinasi tetapi dengan kurangnya keandalan dalam bagaimana model menangani kasus tepi. “Kami berbicara banyak tentang halusinasi,” katanya, “tetapi masalah yang lebih dalam adalah bahwa model tidak dijamin untuk mengikuti instruksi. Dengan mengubah satu kata saja dalam prompt, hasilnya bisa menjadi tidak terduga.” Hal itu, menurutnya, adalah kebalikan dari prinsip rekayasa.
Buletin industri
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.
Perlu dipertegas, tidak ada seorang pun yang meremehkan kekuatan model-model modern. Yang bermasalah, kata Cox, adalah cara kita menggunakannya. “Rekayasa prompt bukanlah rekayasa. Itu hanya sekadar coba-coba. Kita membutuhkan sebuah sistem di mana kita tidak perlu berharap model melakukan apa yang kita maksud, dan kita bisa memprogramnya untuk benar-benar melakukan apa yang kita inginkan.”
Premis di balik komputasi generatif sederhana: perlakukan model sebagai sebuah fungsi. Daripada menumpuk instruksi dalam esai panjang, pengembang kini memanfaatkan runtime, yaitu lapisan orkestrasi yang memecah prompt menjadi unit kecil, mengaturnya, memeriksa prasyarat, dan memperbaiki langkah yang gagal. Logika tidak hanya tersirat; tetapi ditegakkan. Kontrol menjadi eksplisit. Struktur kembali.
“Bayangkan cara kerja internet,” ujar Cox. “Data tidak dikirim begitu saja dalam bentuk mentah dan diharapkan tiba dengan selamat.” Anda memiliki protokol, coba lagi, dan perutean. Itulah yang kami tambahkan ke AI.” Secara praktis, pendekatan ini melibatkan pembuatan sistem berlapis yang menguraikan tugas kompleks menjadi instruksi kecil yang dapat dikendalikan, dan tiap langkah harus diverifikasi sebelum proses berikutnya. “Anda mungkin memiliki dua puluh petunjuk kecil dan terfokus ke model alih-alih satu model yang panjang dan kompleks,” kata Puri. “Tapi sekarang kamu bisa mencatat masing-masing promptnya. Anda dapat coba lagi. Anda dapat membangun fallback. “Itulah yang dibutuhkan perusahaan.”
Struktur itu juga membuka pintu untuk pengujian dan validasi, dua prinsip yang telah lama absen dari gen AI. “Anda dapat menulis pernyataan seputar perilaku LLM dengan cara yang sama yang Anda lakukan di sekitar kode,” kata Cox. “Dan jika Anda tidak mendapatkan perilaku yang Anda inginkan, Anda dapat meminta model untuk mencoba lagi, atau rute ke subrutin yang berbeda.”
Ide ini menjadi sangat kuat ketika diterapkan pada keselamatan. Puri mengatakan bahwa ia sering mendengar dari para CTO yang menyukai potensi agen AI, tetapi mundur karena sifatnya yang tidak dapat diprediksi. “Mereka takut membiarkan agen itu melakukan apa pun secara mandiri.” Bagaimana jika mereka berhalusinasi? Bagaimana jika mereka mengirim pesan yang salah atau menyetujui transaksi yang salah?”
Untuk menjawabnya, komputasi generatif memperkenalkan alat seperti deteksi halusinasi, validasi konteks, dan pemrosesan sadar kepatuhan. “Dengan waktu proses kami,” kata Cox, “Anda dapat menginterposisi model penjaga, yang memeriksa output model utama. Jika ada sesuatu yang terlihat mencurigakan, agen AI dapat menandainya atau meminta percobaan lagi.”
Pelapisan semacam itu memungkinkan tingkat reproduktifitas dan kepercayaan diri yang tidak dapat diberikan oleh rekayasa prompt saat ini. Pengembang dapat menggabungkan kode tradisional dengan respons LLM, menanamkan output ke dalam sistem yang lebih besar tanpa menyerahkan kontrol.
“Ini bukan chatbot,” kata Cox. “Ini adalah bagian dari tumpukan perangkat lunak Anda. Anda mengujinya seperti Anda menguji modul lainnya.”
Momen ini, kata Cox, dibandingkan dengan zaman sebelumnya dalam komputasi. Pada tahun 1980-an, pengenalan pola desain perangkat lunak, seperti Model-View-Controller (MVC), memungkinkan pengembang untuk memisahkan logika dari antarmuka, menciptakan dasar modular dan dapat digunakan kembali untuk membangun aplikasi. Ia percaya bahwa komputasi generatif menunjukkan titik perubahan yang serupa.
“Kami akan menemukan pola,” katanya. “Sama seperti MVC menjadi ada di mana-mana dalam pengembangan UI, kita akan melihat kerangka kerja untuk mengatur LLM. Ini adalah awal dari lapisan baru dalam tumpukan perangkat lunak.”
Visi struktur tersebut mendasari sebagian besar gerakan komputasi generatif. Daripada berupaya memahami seluruh neuron dalam model bahasa besar, pengembang memilih membuat batasanl yang sesuai dengan batasan dan kebutuhan perusahaan. "Kami menciptakan akuntabilitas," kata Puri.
Transparansi, ujar Cox, tidak harus berarti kesederhanaan. “Mesin mobil Anda rumit,” katanya. “Tapi mesin itu dibangun di dalam sabuk pengaman. Ketika ada yang rusak, Anda memiliki prosedur. Itulah yang kami inginkan untuk AI. Bukan misteri. Tetapi rekayasa.”
Dalam istilah teknis, itu berarti mengekspos langkah-langkah perantara dari pengambilan keputusan model. Waktu proses yang digunakan dalam komputasi generatif dapat menghasilkan log, melampirkan metadata dan melakukan validasi di setiap langkah.
Cox mengatakan, “Penjelasan harus menjadi fitur utama—bukan sesuatu yang dipikirkan setelah produk dibuat.”
Model-model Granite IBM® telah disetel untuk mendukung orkestrasi modular semacam ini. Model ini dioptimalkan untuk inferensi cepat dan hemat memori, memungkinkan banyak kueri kecil menggantikan satu prompt besar. Ini membuat solusi tersebut sangat cocok untuk pendekatan berbasis waktu proses.
Puri menjelaskan, “Model-model ini dapat diperlakukan sebagai komponen penyusun. Bukannya menyelesaikan seluruh pekerjaan dalam satu langkah, kita memanggilnya berulang untuk sub-tugas tertentu.” Cara ini ebih cepat, lebih murah, dan lebih dapat diandalkan.”
Manfaatnya tidak hanya teknis tetapi juga organisasi. Dalam satu proyek percontohan, klien perusahaan menggunakan komputasi generatif untuk membangun jalur klasifikasi dokumen. Alih-alih mengandalkan satu prompt untuk meringkas laporan hukum, mereka membagi tugas menjadi sembilan tahap: klasifikasi, segmentasi, ekstraksi, validasi, penilaian, ringkasan, pemformatan, peninjauan, dan persetujuan.
“Setiap tahap diisolasi dan dipantau,” kata Cox. “Jika ada yang gagal, bisa coba lagi atau diperbaiki. Anda tidak bisa melakukannya dengan satu prompt.”
Puri percaya struktur semacam ini akan menjadi norma. Cox mengatakan bahwa “kita akan berhenti melihat LLM sebagai sistem yang sepenuhnya ajaib dan mulai memandangnya sebagai komponen infrastruktur.” "Ini bukan tentang mengganti pengembang. Ini tentang memberi alat baru.”
Salah satu alat bantu tersebut, kata Cox, adalah LLM intrinsik, sebuah konsep baru di mana fungsi model khusus diekspos secara langsung ke waktu proses, memungkinkan integrasi yang lebih dalam dan adaptasi waktu nyata. “Anda dapat memasang adaptor yang mengubah perilaku model,” katanya. “Alat ini memungkinkan Anda mengubah nada, mengurangi risiko, bahkan deteksi halusinasi dengan cepat.”
Kemajuan ini dapat mengubah cara perangkat lunak ditulis. Cox membayangkan ISE yang menyediakan templat orkestrasi waktu proses untuk LLM, unit test yang memvalidasi prompt, serta sistem version control yang melacak perilaku model.
“Insinyur perangkat lunak harus mempelajari keterampilan baru,” katanya. “Tapi dasar-dasarnya masih ada: input, output, kebenaran, observabilitas. Kami tidak meninggalkan rekayasa perangkat lunak. Kami sedang meningkatkannya.”
Para peneliti mengantisipasi bahwa komputasi generatif akan meluas di luar contoh penggunaan saat ini. Saat bidang matang, lapisan abstraksi baru, standar baru, dan peran pekerjaan baru akan muncul.
Dia berhenti sejenak. “Kami telah menghabiskan satu dekade belajar bagaimana membuat sistem ini terdengar cerdas,” katanya. “Sekarang kita harus mengajari mereka bagaimana berperilaku.”
Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.
Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.
Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.