Mendekati titik tengah tahun 2025, kita dapat melihat kembali tren kecerdasan buatan yang ada di tahun ini sejauh ini, dan menantikan apa yang akan terjadi di tahun depan.
Mengingat luasnya dan kedalaman pengembangan AI, tidak ada rangkuman tren AI yang dapat diharapkan menjadi pelengkap. Bagian ini tidak terkecuali. Kami telah mempersempit segalanya menjadi daftar 10: 5 perkembangan yang telah mendorong paruh pertama tahun ini, dan 5 lagi yang kami harapkan akan memainkan peran utama di bulan-bulan mendatang.
Tren dalam AI didorong bukan hanya oleh kemajuan dalam model AI dan algoritma AI itu sendiri, tetapi juga oleh makin luasnya rentang contoh penggunaan di mana kemampuan AI generatif (gen AI) diterapkan. Seiring dengan makin berkembangnya kemampuan, keserbagunaan, dan efisiensi model, berkembang pula aplikasi AI, peralatan AI, dan alur kerja didukung AI yang dimungkinkannya. Oleh karena itu, pemahaman sejati tentang bagaimana ekosistem AI saat ini berkembang membutuhkan pemahaman kontekstual tentang penyebab dan dampak terobosan machine learning.
Artikel ini terutama mengeksplorasi tren yang sedang berlangsung yang dampaknya dapat direalisasikan dalam hitungan bulan: dengan kata lain, tren dengan dampak nyata sebagian besar pada atau di tahun 2025. Tentu saja ada inisiatif AI lain yang lebih hijau dan akrab. Sebagai contoh, meskipun baru-baru ini telah ada pergerakan pada kendaraan swakemudi di daerah-daerah terpencil - uji coba robotika telah diluncurkan di beberapa kota di Amerika Serikat, dengan uji coba tambahan di luar negeri seperti di Oslo, Jenewa, dan 16 kota di Tiongkok - namun kemungkinan besar kendaraan ini masih jauh dari jangkauan masyarakat luas.
Banyak tren makro penting lainnya dalam AI — seperti munculnya agen AI, atau gangguan AI terhadap perilaku pencarian dan SEO— bersifat luas, beragam, dan sudah tercakup dengan baik di tempat lain, sehingga ditinggalkan demi pengembangan yang lebih terfokus yang belum menerima perhatian media yang begitu luas.
Mari lanjutkan dengan daftar.
Kemajuan tidak selalu membutuhkan masuknya ide-ide baru yang konstan. Banyak tren AI paling penting pada paruh pertama tahun 2025 mencerminkan perubahan dalam bagaimana industri menerapkan ide-ide yang ada — beberapa pragmatis dan produktif, yang lain kurang begitu.
Model saat ini tidak hanya jauh lebih baik daripada model masa lalu, tetapi juga jauh lebih murah untuk dijalankan. Pertimbangkan bagan ini dari SemiAnalysis: dalam waktu kurang dari 2 tahun, harga per token untuk mencapai hasil yang setara pada tolok ukur MMLU menurun puluhan kali lipat. Hal ini bukanlah berita baru bagi siapa pun yang telah memantau metrik kinerja dari setiap generasi model yang dirilis secara berurutan. Tetapi dilihat secara agregat, laju peningkatan yang terus meningkat ini menggambarkan kasus hype AI generatif lebih baik daripada melihat kemampuan model masa kini yang sudah mengesankan.
Satu studi memperkirakan laju peningkatan algoritma sekitar 400% per tahun: dengan kata lain, hasil hari ini dapat dicapai setahun kemudian menggunakan seperempat dari komputasi—dan itu tanpa memperhitungkan peningkatan simultan dalam komputasi (lihat: Hukum Moore) atau data pelatihan sintetis. GPT-4 asli, dikabarkan memiliki sekitar 1,8 triliun parameter,1 mencapai skor 67% pada HumanEval, tolok ukur populer untuk kinerja pengodean. IBM® Granite 3.3 2B Instruct, dirilis 2 tahun kemudian dan 900 kali lebih kecil, mencapai skor 80,5%.2
Ekspansi eksponensial ekonomi model ini, lebih dari segalanya, adalah apa yang memberdayakan era Agen AI yang muncul. Model bahasa besar (LLM) menjadi lebih praktis bahkan lebih cepat daripada menjadi lebih mampu, yang memungkinkan penerapan sistem multi-agen yang kompleks di mana kader model dapat merencanakan, melaksanakan, dan mengoordinasikan tugas-tugas kompleks secara mandiri—tanpa meroketnya inferensi biaya.
Perilisan o1 OpenAI memperkenalkan kesempatan baru untuk meningkatkan kinerja model. Peningkatan yang memalukan atas kinerja canggih sebelumnya pada tolok ukur matematika dan pengodean yang sangat teknis memulai perlombaan senjata dalam apa yang disebut “model penalaran.” Peningkatan kinerja mereka pada tugas-tugas yang membutuhkan angka pengambilan keputusan logis untuk memainkan peran penting dalam pengembangan AI agen. Tetapi seperti yang sering terjadi dengan teknologi AI, hiruk-pikuk awal atas kinerja mentah baru-baru ini memberi jalan untuk pencarian implementasi yang paling praktis.
Intuisi di balik model penalaran berasal dari penelitian yang menunjukkan bahwa meningkatkan komputasi waktu pengujian (digunakan untuk menghasilkan output) dapat meningkatkan kinerja model sama seperti meningkatkan komputasi waktu pelatihan (digunakan untuk melatih model). Insight ini dimanifestasikan dalam teknik untuk menyempurnakan model dengan cara yang memberi insentif pada generasi "proses pemikiran" yang lebih lama dan lebih kompleks sebelum hasil akhir—serangkaian teknik yang secara luas disebut penskalaan inferensi.
Tetapi penskalaan inferensi juga berarti peningkatan biaya inferensi dan latensi. Pengguna harus membayar (dan menunggu) untuk semua token yang dihasilkan model sambil “memikirkan” tanggapan akhir, dan token berpikir tersebut mengonsumsi jendela konteks yang tersedia. Ada beberapa contoh penggunaan yang membenarkan waktu dan komputasi ekstra tersebut, tetapi ada juga banyak skenario yang membuang-buang sumber daya. Namun, terus-menerus beralih dari model penalaran ke model "standar" berdasarkan tugas per tugas, prompt per prompt tidaklah praktis.
Untuk saat ini, solusinya adalah “model penalaran hybrid.” Pada bulan Februari, IBM® Granite 3.2 menjadi LLM pertama yang menawarkan mode “berpikir” yang dapat dialihkan, memungkinkan pengguna untuk memanfaatkan penalaran saat mereka membutuhkannya dan memprioritaskan efisiensi ketika mereka tidak membutuhkannya.3 Anthropic's Claude 3.7 Soneta menyusul di bulan yang sama, menambahkan kemampuan bagi pengguna API untuk memiliki kontrol yang baik atas berapa lama model "berpikir".4 Google memperkenalkan fungsi modularitas "berpikir" yang serupa untuk Gemini 2.5 Flash.5 Qwen3 Alibaba, seperti IBM® Granite, memungkinkan berpikir untuk dihidupkan atau dimatikan.
Penelitian yang sedang berlangsung bertujuan untuk lebih meningkatkan pemahaman kita tentang apa yang sebenarnya terjadi sementara model penalaran "berpikir", dan sejauh mana jejak penalaran Chain of Thought (CoT) yang diperluas benar-benar berkontribusi pada hasil. Sebuah makalah yang dirilis pada bulan April menunjukkan bahwa untuk beberapa tugas, model penalaran bisa efektif tanpa memberikan output pemikiran. Sementara itu, penelitian Anthropic dari awal bulan itu menegaskan bahwa hasil CoT yang ditunjukkan kepada pengguna mungkin tidak benar-benar mencerminkan apa yang sebenarnya "dipikirkan" oleh model tersebut.
Pengembangan AI selalu sangat bergantung pada pemanfaatan repositori pengetahuan sumber terbuka, seperti Wikipedia dan GitHub. Pentingnya mereka hanya akan meningkat ke depan, terutama setelah pengungkapan profil tinggi bahwa pengembang AI utama telah melatih model pada torrent buku bajakan— yang mungkin akan mencegah penggunaan sumber-sumber alternatif tersebut secara berkelanjutan. Bagi organisasi yang menjalankan sumber daya sumber terbuka yang tak ternilai, situasinya sudah menyebabkan ketegangan serius.
Sementara serangkaian tuntutan hukum telah membawa kesadaran akan bahaya pemanenan data — baik legal, ilegal atau ambigu — pada kekayaan intelektual, kurang perhatian diberikan pada bagaimana kelaparan sistem AI akan data membahayakan repositori pengetahuan. Seperti yang diartikulasikan oleh Wikimedia Foundation dalam pengumuman bulan April tentang lalu lintas bot, "konten [mereka] gratis, infrastruktur [mereka] tidak." Wikimedia khususnya telah mengalami serangan lalu lintas web yang berpotensi tidak berkelanjutan dari pengikisan bot yang mengumpulkan data untuk melatih model AI generatif. Sejak Januari 2024, bandwidth yang digunakan untuk mengunduh konten multimedia Wikimedia telah tumbuh sebesar 50%.
Peningkatan volume lalu lintas itu sendiri sudah cukup mengganggu, tetapi sifat lalu lintas tersebutlah yang memberikan tekanan tidak proporsional pada sumber daya yang terbatas. Perilaku penjelajahan manusia dapat diprediksi: lalu lintas kami mengelompokkan halaman populer dan mengikuti pola logis, memungkinkan strategi otomatisasi dan caching yang mengalokasikan bandwidth secara efisien. Tetapi tidak seperti manusia, bot merayapi halaman yang tidak jelas tanpa pandang bulu, yang sering memaksa pusat data untuk melayani mereka secara langsung. Hal ini tidak hanya mahal dan tidak efisien dalam kondisi biasa, tetapi juga berpotensi menjadi bencana dalam situasi ketika infrastruktur perlu merespons lonjakan penggunaan di dunia nyata.
Seperti yang dilaporkan Ars Technica , masalah ini tersebar luas dan diperburuk oleh apa yang oleh banyak orang dianggap sebagai perilaku predator yang sengaja dilakukan oleh perayap bot dan perusahaan yang mengoperasikannya. Beberapa, seperti Perplexity, telah dituduh secara diam-diam menghindari robots.txt dan bahkan melewati paywall untuk mengumpulkan data. Saat situs web mencoba membatasi akses bot, bot akan dialihkan ke IP berbeda; saat ID mereka diblokir secara langsung, mereka akan beralih ke string ID alternatif. Seorang manajer infrastruktur sumber terbuka, yang menemukan bahwa hampir 25% lalu lintas jaringannya berasal dari bot ChatGPT, menggambarkannya sebagai "secara harfiah DDoS di seluruh internet."
Sebagai tanggapan, banyak proyek secara aktif mengejar langkah-langkah defensif. Salah satu proyek sumber terbuka, Anubis, memaksa bot untuk memecahkan teka-teki komputasi sebelum mendapatkan akses. Yang lain, Nepenthes, mengirim perayap AI ke "labirin tak terbatas." Cloudflare, penyedia infrastruktur web terkemuka, baru-baru ini meluncurkan fitur yang mereka sebut "AI Labyrinth," yang menggunakan pendekatan serupa (meskipun kurang agresif). Wikimedia sedang menyusun inisiatif baru, WE5: Penggunaan Infrastruktur yang Bertanggung Jawab, yang bertujuan untuk solusi struktural.
Kemampuan pengembangan AI komersial dan repositori pengetahuan terbuka untuk secara kolaboratif mengembangkan protokol yang saling cocok akan memiliki dampak yang luar biasa tidak hanya pada masa depan AI, tetapi juga pada masa depan Internet itu sendiri.
Meskipun konsep di balik model campuran pakar (MoE) berasal dari tahun 1991, itu tidak memasuki pemrosesan bahasa alami (NLP) arus utama atau AI generatif sampai Mistral AI merilis model Mixtral-nya pada akhir 2023.6 Meskipun model dan arsitekturnya mendapat banyak perhatian—dan GPT-4 OpenAI dikabarkan (meskipun tidak pernah dikonfirmasi) sebagai MoE saat dirilis—itu sebagian besar tidak memotivasi industri untuk menyimpang dari fokusnya pada LLM "padat" konvensional.
Fokus itu tampaknya telah berubah setelah DeepSeek-R1. DeepSeek-R1, dan model dasar DeepSeek-V3 yang menjadi basis penyempurnaannya, menunjukkan dengan meyakinkan bahwa model MoE sangat mampu memberikan kinerja yang canggih untuk melengkapi efisiensi komputasi yang sudah terbukti.
Minat yang dihidupkan kembali pada model MoE yang jarang terbukti dalam gelombang model generasi berikutnya saat ini—termasuk (tetapi tidak terbatas pada) Meta Llama 4, Qwen3 Alibaba, dan IBM Granite 4.0 —menggunakan arsitektur. Mungkin juga beberapa model tertutup terkemuka seperti OpenAI, Anthropic, atau Google adalah MoE, meskipun informasi tentang arsitektur model tertutup seperti itu jarang diungkapkan.
Karena kapasitas dan kinerja yang mengesankan menjadi semakin dikomodifikasi di tahun-tahun mendatang, kecepatan inferensi dan efisiensi yang ditawarkan oleh model yang jarang akan menjadi prioritas yang lebih tinggi.
Masa depan selalu sulit diprediksi. Laju peningkatan yang sangat tinggi pada model AI generasi sebelumnya membuat banyak orang mengharapkan generasi model akan dirilis pada tahun 2025 untuk membuat langkah yang berarti menuju kecerdasan umum buatan (AGI). Meskipun model terbaru dari OpenAI, Meta, dan pemain lain yang paling banyak didanai di bidang AI tidak diragukan lagi mengesankan, mereka tentu saja tidak revolusioner.
Di sisi implementasi praktis, kemajuan tidak merata. Banyak pemimpin bisnis yang optimis dengan prospek adopsi AI organisasi mereka pada akhir 2023 menghabiskan 2024 menyadari bahwa infrastruktur TI organisasi mereka belum siap untuk menskalakan AI.
Penolakan umum di antara para analis AI adalah bahwa AI akan mengambil alih tugas-tugas yang biasa dan berulang-ulang dan membebaskan waktu bagi manusia untuk fokus pada gambaran besar, pemikiran kreatif. Namun sejauh ini, data tentang adopsi AI tidak selalu mencerminkan hal itu dalam kenyataan. Sebuah studi yang dilakukan oleh IBM Institute for Business Value (IBV) menemukan bahwa yang terjadi adalah sebaliknya, setidaknya dalam rantai pasokan konten industri retail: 88% pengecer melaporkan penggunaan gen AI untuk “ide/konsepsi kreatif” dan 74% melaporkan menggunakannya untuk “pembuatan dan pengeditan konten.” Sementara itu, sebagian besar pekerjaan biasa masih merupakan wilayah manusia: hanya 23% pengecer yang menggunakan gen AI untuk menghasilkan variasi konten berdasarkan saluran dan hanya 10% yang menggunakannya untuk menghasilkan variasi konten berdasarkan geografis.
Secara keseluruhan, bukan karena organisasi tidak secara aktif mengejar adopsi AI— laporan IBV baru menunjukkan bahwa mereka pasti demikian, terutama yang berkaitan dengan agen AI—melainkan bahwa hal itu tidak terjadi dengan kecepatan linier yang lugas. Transisi dari eksperimen ke operasionalisasi formal jarang mulus.
Pada paruh akhir tahun 2025 (dan hingga awal tahun depan), potongan-potongan akan ada untuk gangguan yang berarti dari beberapa aspek status quo yang ada sejak hari-hari awal era AI generatif yang sedang berlangsung.
Pada tingkat fundamental, tidak ada tolok ukur yang sempurna (atau seperangkat tolok ukur) untuk kinerja AI. Tolok ukur apa pun tunduk pada Hukum Goodhart: "Ketika suatu ukuran menjadi target, itu berhenti menjadi ukuran yang baik." Namun demikian, ini memberikan manfaat bagi pengembangan model—dan para pemimpin bisnis yang ditugaskan memilih solusi dan model AI spesifik—untuk memiliki ukuran kinerja yang distandarisasi dan dikelola secara transparan untuk memfasilitasi perbandingan yang setara.
Rangkaian tolok ukur "standar" pertama yang menjadi acuan industri ini adalah yang digunakan oleh Open LLM Leaderboard pada Hugging Face. Ketika tolok ukurnya menjadi jenuh - dengan kata lain, ketika sebagian besar model mencapai skor evaluasi yang sama tingginya sehingga sulit untuk membedakannya - papan peringkat mengadopsi evaluasi baru yang secara signifikan lebih menantang pada bulan Juni 2024. Sekali lagi, model sumber terbuka dan tertutup bergabung seputar evaluasi kinerja menggunakan tolok ukur evaluasi papan peringkat “V2”. Namun pada bulan Maret 2025, Hugging Face menghentikan sama sekali Open LLM Leaderboard.
Penarikan papan peringkat dan pergerakan menjauh dari seperangkat tolok ukur standar yang diperjuangkannya telah menyebabkan, dan disebabkan oleh, diversifikasi cara kami menggunakan model dan mengevaluasi kinerjanya.
Ada beberapa momentum di balik penggunaan metode perbandingan model yang lebih kualitatif, seperti Chatbot Arena yang populer, daripada evaluasi kuantitatif. Tetapi mereka juga tidak sempurna. Sebuah makalah baru-baru ini yang diterbitkan oleh berbagai peneliti akademis dan sumber terbuka yang dihormati menuduh beberapa praktik Chatbot Arena bermasalah yang sangat menguntungkan penyedia model terbesar. Makalah itu mengikuti tuduhan bahwa Meta memainkan Chatbot Arena selama perilisan Llama 4.
Kenyataannya adalah tidak ada tolok ukur terbaik. Praktik terbaik mungkin bagi organisasi untuk mengembangkan tolok ukur mereka sendiri yang paling mencerminkan kinerja pada tugas-tugas yang mereka pedulikan. Sebuah bisnis tidak akan mempekerjakan karyawan hanya berdasarkan tes IQ dan juga tidak boleh memilih model yang hanya berdasarkan tes standar.
Pertama kali diperkenalkan pada tahun 2017, model transformator sebagian besar bertanggung jawab atas era AI generatif, dan mereka terus menjadi tulang punggung dari segala hal mulai dari pembuatan gambar hingga model deret waktu hingga LLM. Meskipun model transformator tetap ada sampai saat ini, tapi dalam waktu dekat akan ada model baru.
Transformators memiliki kekurangan komputasi yang penting: kebutuhan komputasi mereka bertambah dengan skala kuadrat seiring dengan konteks. Dengan kata lain, setiap kali panjang konteks bertambah dua kali lipat, self-attention tidak hanya menggunakan dua kali lipat sumber daya, tetapi juga empat kali lipat sumber daya. “Hambatan kuadrat” ini secara inheren membatasi kecepatan dan efisiensi LLM konvensional, terutama pada urutan yang lebih panjang atau ketika memasukkan informasi dari sebelumnya dalam pertukaran yang diperluas. Pengoptimalan lanjutan dari arsitektur transformator terus menghasilkan model perbatasan yang lebih kuat, tetapi harganya menjadi sangat mahal.
Mamba, yang pertama kali diperkenalkan pada tahun 2023, adalah jenis arsitektur model yang sama sekali berbeda—khususnya model ruang—dan siap untuk memberikan para transformator persaingan serius pertama mereka di dunia LLM. Arsitektur ini telah terbukti mampu mencocokkan transformator pada sebagian besar tugas pemodelan bahasa (dengan pengecualian tugas pembelajaran dalam konteks seperti prompting dengan beberapa contoh) dan kebutuhan komputasinya berskala linier dengan panjang konteks. Sederhananya, cara Mamba memahami konteks secara inheren lebih efisien: mekanisme perhatian diri transformator harus melihat setiap token dan berulang kali memutuskan mana yang harus diperhatikan; mekanisme selektivitas Mamba hanya mempertahankan token yang dianggap penting.
Ketika berbicara tentang transformator atau mamba, masa depan AI mungkin tidak akan menjadi situasi "salah satu dari keduanya": pada kenyataannya, penelitian menunjukkan bahwa hibrida keduanya lebih baik daripada berdiri sendiri-sendiri. Beberapa model mamba atau hibrida mamba/transformator telah dirilis dalam setahun terakhir. Sebagian besar adalah model khusus penelitian akademis, dengan pengecualian penting termasuk Codestral Mamba Mistral AI dan seri Jamba hibrida AI2I. Baru-baru ini,seri IBM Granite 4.0 yang akan datang akan menggunakan hibrida transformator dan arsitektur Mamba-2.
Yang paling penting, pengurangan persyaratan perangkat keras dari model Mamba dan hybrid akan secara signifikan mengurangi biaya perangkat keras, yang pada gilirannya akan membantu terus mendemokratisasikan akses AI.
Munculnya model AI multimodal menandai perluasan LLM di luar teks, tetapi perbatasan pengembangan AI berikutnya bertujuan untuk membawa kemampuan multimodal tersebut ke dunia fisik.
Bidang yang muncul ini sebagian besar berada di bawah judul “AI yang diwujudkan.” Perusahaan modal ventura semakin menuangkan dana ke startup yang mengejar robotika humanoid berbasis AI yang canggih dan AI generatif, seperti Skild AI, Physical Intelligence, dan 1X Technologies.
Aliran penelitian lainnya berfokus pada "model dunia" yang bertujuan untuk memodelkan interaksi dunia nyata secara langsung dan holistik, alih-alih secara tidak langsung dan diskrit melalui media data bahasa, gambar, dan video. World Labs, sebuah startup yang dipimpin oleh Fei-Fei Li dari Stanford—yang terkenal, antara lain, kumpulan data ImageNet yang membantu membuka jalan bagi visi komputer modern—mengumpulkan USD 230 juta pada akhir tahun lalu.
Beberapa laboratorium di ruang ini sedang melakukan eksperimen di "dunia virtual", seperti video game: Google DeepMind's Genie 2, misalnya, adalah "model dunia dasar yang mampu menghasilkan berbagai lingkungan 3D yang dapat dikontrol tindakan dan dapat dimainkan. Industri video game mungkin, tentu saja, menjadi penerima manfaat langsung pertama dari potensi ekonomi model dunia.
Banyak (tetapi tidak semua) pakar AI terkemuka, termasuk Yann LeCun, kepala ilmuwan AI Meta dan salah satu dari tiga “bapak pembelajaran mendalam, "7 percaya bahwa model dunia, bukan LLM, adalah jalan sejati menuju AGI. Dalam komentar publik, LeCun sering menyinggung paradoks Moravec, gagasan yang berlawanan dengan intuisi bahwa dalam AI, keterampilan penalaran yang kompleks sangat mudah dilakukan, tetapi tugas sensorimotor dan persepsi sederhana yang dapat dilakukan dengan mudah oleh seorang anak ternyata sulit.8
Sejalan dengan ini, beberapa upaya penelitian yang menarik bertujuan untuk mengajarkan AI untuk memahami konsep, bukan hanya kata-kata, dengan mewujudkan AI tersebut dalam robot dan mengajarkannya seperti cara kami mengajarkan berbagai hal kepada bayi.
Janji jangka panjang agen AI adalah bahwa mereka akan menggunakan AI untuk melakukan tugas-tugas spesifik konteks yang kompleks secara mandiri dengan sedikit atau tanpa campur tangan manusia. Untuk dapat mempersonalisasi pengambilan keputusannya dengan kebutuhan spesifik dan kontekstual yang rumit dari tempat kerja atau situasi tertentu — seperti karyawan atau asisten yang kompeten — seorang agen AI perlu belajar di tempat kerja. Dengan kata lain, itu harus mempertahankan riwayat yang kuat dari setiap interaksi yang dihasilkan AI dan bagaimana perlakuannya.
Tetapi untuk mengumpulkan dan mempertahankan memori permanen dari setiap interaksi mungkin bertentangan dengan gagasan inti privasi digital di AI, terutama ketika bekerja dengan model tertutup yang diterapkan di cloud (sebagai lawan dari menerapkan model sumber terbuka secara lokal).
Misalnya, pada bulan April, OpenAI mengumumkan bahwa ChatGPT sekarang akan secara otomatis mengingat setiap percakapan yang Anda lakukan dengannya, sebagai kelanjutan dari tujuan OpenAI untuk mengembangkan "sistem AI yang mengenal Anda sepanjang hidup Anda." Namun yang perlu dicatat, fitur ini tidak tersedia di Uni Eropa, Inggris, Swiss, Norwegia, Islandia, atau Liechtenstein. Mungkin karena fitur ini bertentangan dengan undang-undang privasi dan peraturan AI yang ada di negara tersebut.9
Masih harus dilihat apakah konsep model tidak hanya menyimpan semua interaksi yang dipersonalisasi dengan Anda, tetapi juga menggunakannya untuk pelatihan lebih lanjut dan optimalisasi model, pada dasarnya kompatibel dengan konsep inti GDPR seperti "hak untuk dilupakan.”
Memang, masa depan AI, dan khususnya agen AI, akan semakin bersifat personal—sampai pada titik yang dapat mengakibatkan dampak AI melampaui pertimbangan teknologi atau ekonomi dan masuk ke wilayah psikologis.
Pada akhir tahun 2024, CEO Microsoft AI Mustafa Suleyman menulis postingan blog yang menyatakan tujuan perusahaannya untuk "menciptakan pendamping AI untuk semua orang." Dalam sebuah wawancara podcast baru-baru ini, CEO Meta, Mark Zuckerberg, mengusulkan "teman AI" sebagai solusi bagi epidemi kesepian di negara ini.10 Semakin banyak perusahaan rintisan yang meluncurkan rekan kerja AI.
Ada bahaya yang melekat pada hal ini, terutama berasal dari kecenderungan historis manusia untuk terikat secara emosional pada chatbot yang masih sangat sederhana. Dengan jutaan orang berinteraksi dengan chatbot yang dipersonalisasi setiap hari, risiko keterikatan emosional dengan rekan kerja AI akan menjadi kompleks, konsekuensial, dan sulit dihindari.
Seiring dengan berjalannya tahun yang sangat penting dalam kecerdasan buatan, memahami dan beradaptasi dengan tren yang muncul sangatlah penting untuk memaksimalkan potensi, meminimalkan risiko, dan meningkatkan skala adopsi AI generatif secara bertanggung jawab.
¹ "GPT-4 architecture, datasets, costs and more leaked," The Decoder, 11 Juli 2023
² "IBM Granite 3.3 2B model card", Hugging Face, 16 April 2025
³ "Bringing reasoning to Granite," IBM, 7 Februari 2025
⁴ "Claude 3.7 Sonnet and Claude Code," Anthropic, 24 Februari 2025
⁵ "Gemini Thinking," Google, 2025.
⁶ "Adaptive Mixtures of Local Experts," Neural Computation, 1 Maret 1991
⁷ "Turing Award 2018: Novel Prize of computing given to 'godfathers of AI'," The Verge, 27 Maret 2019
⁸ @YLeCun di X (dahulu Twitter), via XCancel, 20 Februari 2024
⁹ "ChatGPT will now remember your old conversations," The Verge, 11 April 2025
¹⁰ "Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced," Entrepreneur, 8 Mei 2025