Penyematan vektor adalah representasi numerik dari titik data yang menggambarkan berbagai jenis data, termasuk data nonmatematis seperti kata atau gambar, sebagai array angka yang dapat diproses oleh machine learning (ML) model.
Model kecerdasan buatan (AI), dari algoritme regresi linier sederhana hingga jaringan neural rumit yang digunakan dalam pembelajaran mendalam, beroperasi melalui logika matematika.
Data apa pun yang digunakan oleh model AI, termasuk data yang tidak terstruktur seperti teks, audio, atau gambar, harus dinyatakan secara numerik. Penyematan vektor adalah cara mengubah titik data yang tidak terstruktur menjadi array angka yang masih mengungkap makna asli data tersebut.
Model pelatihan untuk menghasilkan representasi vektor dari titik data yang sesuai secara bermakna dengan fitur dunia nyata mereka memungkinkan kita membuat asumsi yang berguna tentang bagaimana penyematan vektor berhubungan satu sama lain.
Secara intuitif, semakin mirip dua titik data dunia nyata, semakin mirip pula penyematan vektornya. Fitur atau kualitas yang dimiliki oleh dua titik data harus tercermin dalam kedua penyematan vektornya. Titik data yang berbeda harus memiliki penyematan vektor yang berbeda.
Berbekal asumsi logis seperti itu, penyematan vektor dapat digunakan sebagai input untuk model yang melakukan tugas-tugas dunia nyata yang berguna melalui operasi matematika yang membandingkan, mengubah, menggabungkan, mengurutkan, atau memanipulasi representasi numerik tersebut.
Mengekspresikan titik data sebagai vektor juga memungkinkan interoperabilitas berbagai jenis data, yang bertindak sebagai semacam bahasa pengantar antara format data yang berbeda dengan merepresentasikannya dalam ruang penyematan yang sama. Misalnya, asisten suara smartphone “menerjemahkan” input audio pengguna ke dalam penyematan vektor, yang pada gilirannya menggunakan penyematan vektor untuk pemrosesan bahasa alami (NLP) dari input itu.
Dengan demikian, penyematan vektor mendukung hampir semua ML modern, mendukung model yang digunakan di bidang NLP dan visi komputer, dan berfungsi sebagai blok bangunan dasar AI generatif.
Vektor termasuk dalam kategori tensor yang lebih besar. Dalam machine learning (ML), “tensor” digunakan sebagai istilah umum untuk array angka, atau array dari array angka, dalam ruang berdimensi n, yang berfungsi seperti perangkat pembukuan matematika untuk data.
Perlu diperhatikan bahwa kata-kata tertentu digunakan secara berbeda dalam konteks ML dibandingkan dengan bahasa sehari-hari atau pengaturan matematika lainnya. “Vektor” itu sendiri, misalnya, memiliki konotasi yang lebih spesifik dalam fisika, biasanya mengacu pada kuantitas dengan besaran dan arah, daripada ML.
Demikian juga, kata “dimensi” memiliki implikasi yang berbeda dalam ML, tergantung pada konteksnya. Ketika menggambarkan tensor, ini mengacu pada berapa banyak array yang mengandung tensor. Ketika menggambarkan vektor, ini mengacu pada berapa banyak komponen dan nomor individu yang mengandung vektor. Istilah analog seperti “urutan” atau “derajat” dapat membantu mengurangi ambiguitas.
Berbagai transformasi langsung juga dapat diterapkan pada matriks atau tensor berdimensi n lainnya untuk merepresentasikan data di dalamnya dalam bentuk vektor. Misalnya, matriks 4x4 dapat diratakan menjadi vektor 16 dimensi; tensor 3 dimensi dari gambar piksel 4x4 dapat diratakan menjadi vektor 48 dimensi. Penyematan sebagian besar mengambil bentuk vektor dalam ML modern.
Sebaliknya, vektor dalam konteks lain, seperti fisika, belum tentu merupakan penyematan. Tetapi dalam ML, vektor biasanya disematkan dan penyematan biasanya adalah vektor.
Meskipun istilah tersebut sering digunakan secara bergantian d MLi, “vektor” dan “penyematan” bukanlah hal yang sama.
Penyematan adalah representasi numerik dari data yang menangkap kualitas yang relevan dengan cara yang dapat diproses oleh algoritme ML. Data disematkan dalam ruang berdimensi n.
Secara teori, data tidak perlu disematkan sebagai vektor. Contohnya, beberapa jenis data dapat disematkan dalam bentuk tuple.1 Tetapi dalam praktiknya, penyematan sebagian besar mengambil bentuk vektor dalam ML modern.
Sebaliknya, vektor dalam konteks lain, seperti fisika, belum tentu merupakan penyematan. Tetapi dalam ML, vektor biasanya disematkan dan penyematan biasanya adalah vektor.
Penyematan vektor mengubah titik data, seperti kata, kalimat, atau gambar, menjadi array angka berdimensi n yang mewakili karakteristik titik data tersebut, yaitu fitur-fiturnya. Hal ini dicapai dengan melatih model penyematan pada kumpulan data besar yang relevan dengan tugas yang sedang dikerjakan atau dengan menggunakan model yang telah dilatih sebelumnya.
Untuk memahami penyematan vektor, diperlukan penjelasan mengenai beberapa konsep utama:
Dalam machine learning, “dimensi” data tidak mengacu pada dimensi ruang fisik yang akrab dan intuitif. Dalam ruang vektor, setiap dimensi sesuai dengan fitur data individu, dengan cara yang sama seperti panjang, lebar, dan kedalaman adalah masing-masing fitur objek dalam ruang fisik.
Penyematan vektor biasanya berurusan dengan data berdimensi tinggi. Dalam praktiknya, sebagian besar informasi nonnumerik berdimensi tinggi. Misalnya, bahkan gambar hitam-putih kecil 28x28 piksel sederhana dari digit tulisan tangan dari kumpulan data MNIST dapat direpresentasikan sebagai vektor 784 dimensi di mana setiap dimensi sesuai dengan piksel individu yang nilai skala abu-abunya berkisar dari 0 (untuk hitam) hingga 1 (untuk putih).
Namun demikian, tidak semua dimensi data tersebut mengandung informasi yang berguna. Dalam contoh MNIST kami, digit aktual itu sendiri hanya mewakili sebagian kecil dari gambar. Sisanya adalah latar belakang kosong atau “kebisingan”. Lebih akurat untuk mengatakan bahwa kita “menyematkan representasi gambar ke ruang 784 dimensi” daripada mengatakan bahwa kita “merepresentasikan 784 fitur berbeda dari gambar”.
Oleh karena itu, penyematan vektor yang efisien pada data berdimensi tinggi sering kali memerlukan pengurangan dimensi: kompresi data berdimensi tinggi ke ruang berdimensi lebih rendah yang menghilangkan informasi yang tidak relevan atau berlebihan.
Pengurangan dimensi meningkatkan kecepatan dan efisiensi model, meskipun dengan potensi pengorbanan dalam akurasi atau presisi, karena vektor yang lebih kecil membutuhkan daya komputasi yang lebih sedikit untuk operasi matematika. Ini juga dapat membantu mengurangi risiko overfitting pelatihan. Metode pengurangan dimensi yang berbeda, seperti autoencoder, convolutions, analisis komponen utama, dan T-distributed Stochastic Neighbor Embedding (t-SNE), paling cocok untuk berbagai jenis data dan tugas.
Sedangkan dimensi data vektor gambar relatif objektif dan intuitif, menentukan fitur yang relevan dari beberapa modalitas data seperti makna semantik dan hubungan kontekstual bahasa, lebih abstrak atau subjektif. Dalam kasus seperti itu, fitur spesifik yang diwakili oleh dimensi penyematan vektor dapat ditetapkan melalui rekayasa fitur manual atau, lebih umum di era pembelajaran mendalam, ditentukan secara implisit melalui proses melatih model untuk membuat prediksi yang akurat.
Logika inti dari penyematan vektor adalah bahwa penyematan berdimensi ndari titik data yang serupa harus dikelompokkan secara berdekatan dalam ruang berdimensin. Namun, penyematan dapat memiliki lusinan, ratusan atau bahkan ribuan dimensi. Ini jauh melampaui ruang 2 atau 3 dimensi yang dapat divisualisasikan oleh pikiran kita secara intuitif.
Sebaliknya, beberapa ukuran digunakan untuk menyimpulkan kesamaan relatif dari penyematan vektor yang berbeda. Ukuran kemiripan terbaik untuk situasi tertentu sangat bergantung pada sifat data dan untuk apa perbandingan tersebut digunakan.
Jarak Euclidian mengukur jarak garis lurus rata-rata antara titik-titik yang sesuai dari vektor yang berbeda. Selisih antara dua vektor berdimensi n a dan b dihitung dengan terlebih dahulu menjumlahkan kuadrat selisih antara masing-masing komponennya, jadi, (a1-b1)2 + (a2-b2) 2 + ... (an-bn)2, dan kemudian mengambil akar kuadrat dari jumlah tersebut. Karena jarak Euclidian sensitif terhadap besaran, ini berguna untuk data yang mencerminkan hal-hal seperti ukuran atau jumlah. Nilai berkisar dari 0 (untuk vektor identik) hingga ∞.
Jarak kosinus, juga disebut kesamaan kosinus, adalah ukuran yang dinormalisasi dari kosinus sudut antara dua vektor. Jarak kosinus berkisar antara -1 hingga 1, di mana 1 mewakili vektor yang identik, 0 mewakili vektor ortogonal (atau tidak berhubungan), dan -1 mewakili vektor yang sepenuhnya berlawanan. Kesamaan kosinus digunakan secara luas dalam tugas-tugas NLP karena secara alami menormalkan besaran vektor dan kurang sensitif terhadap frekuensi relatif kata dalam data pelatihan dibandingkan jarak Euclidian.
Produk titik, secara aljabar, adalah jumlah produk dari komponen yang sesuai dari setiap vektor. Secara geometris, ini adalah versi jarak kosinus yang tidak dinormalisasi yang juga mencerminkan frekuensi atau besarnya.
Model penyematan yang terpisah mungkin merupakan penawaran yang telah dilatih sebelumnya atau dilatih dari awal pada tugas atau data pelatihan tertentu . Setiap jenis data biasanya mendapat manfaat dari arsitektur neural network tertentu, tetapi ini adalah praktik terbaik daripada aturan eksplisit dalam banyak kasus.
Kadang-kadang, proses penyematan merupakan bagian terpadu dari neural network yang lebih besar. Misalnya, dalam convolutional neural network (CNN) encoder-decoder yang digunakan untuk tugas seperti segmentasi gambar, optimasi seluruh jaringan untuk membuat prediksi yang tepat melibatkan pelatihan lapisan encoder untuk menghasilkan penyematan vektor yang efektif dari gambar input.
Model terlatih
Untuk banyak contoh penggunaan dan bidang studi, model terlatih dapat memberikan penyematan yang berguna yang dapat berfungsi sebagai input untuk model khusus atau basis data vektor. Model sumber terbuka umumnya dilatih pada kumpulan data pelatihan yang besar dan luas untuk mempelajari penyematan yang berguna untuk banyak tugas hilir, seperti few-shot learning atau zero-shot learning.
Untuk data teks, model penyematan kata sumber terbuka dasar seperti Word2Vec Google atau Global Vectors (GLove) Universitas Stanford dapat dilatih dari awal, tetapi juga ditawarkan dalam varian yang terlatih dengan data teks publik seperti Wikipedia dan Common Crawl. Demikian pula, model bahasa besar (LLM) encoder-decoder yang sering digunakan untuk penyematan, seperti BERT dan berbagai variannya, telah dilatih pada jumlah teks yang cukup besar.
Untuk tugas-tugas visi komputer, model klasifikasi gambar yang sudah terlatih seperti ImageNet, ResNet atau VGG dapat diadaptasi untuk penyematan hasil dengan hanya menghapus lapisan prediksi akhir yang terhubung sepenuhnya.
Model penyematan khusus
Beberapa contoh penggunaan, terutama yang melibatkan konsep esoterik atau kelas data baru, mendapat manfaat dari fine tuning model terlatih atau pelatihan model penyematan yang sepenuhnya disesuaikan.
Domain hukum dan medis adalah contoh menonjol dari bidang yang sering mengandalkan kosakata, basis pengetahuan, atau citra esoteris dan sangat khusus, yang tidak mungkin dimasukkan dalam data pelatihan model yang lebih umum. Melengkapi pengetahuan dasar tentang model yang telah dilatih sebelumnya melalui pelatihan lebih lanjut tentang contoh khusus domain dapat membantu model menghasilkan penyematan yang lebih efektif.
Meskipun hal ini juga dapat dicapai melalui perancangan arsitektur jaringan neural yang dibuat khusus atau melatih arsitektur yang dikenal dari awal, hal itu memerlukan sumber daya dan pengetahuan kelembagaan yang mungkin berada di luar jangkauan sebagian besar organisasi atau penghobi.
Penyematan gambar mengubah informasi visual menjadi vektor numerik dengan menggunakan nilai piksel gambar yang sesuai dengan komponen vektor. Mereka biasanya mengandalkan CNN, meskipun beberapa tahun terakhir ini semakin banyak model visi komputer yang menggunakan jaringan neural berbasis transformer.2
Gambar dengan skema warna RGB secara numerik direpresentasikan sebagai matriks tiga dimensi, di mana ketiga matriks tersebut sesuai dengan nilai merah, hijau dan biru masing-masing piksel. Gambar RGB biasanya 8-bit, yang berarti setiap nilai warna untuk piksel dapat berkisar dari 0 hingga 256 (atau 28). Seperti yang dijelaskan sebelumnya, gambar hitam-putih secara numerik direpresentasikan sebagai matriks piksel dua dimensi di mana setiap piksel memiliki nilai antara 0 dan 1.
Konvolusi menggunakan filter numerik 2 dimensi, yang disebut kernel, untuk mengekstrak fitur dari gambar. Bobot kernel yang paling kondusif untuk mengekstraksi fitur yang relevan adalah parameter yang dapat dipelajari selama pelatihan model. Konvolusi ini menghasilkan peta fitur gambar.
Bila perlu, padding digunakan untuk mempertahankan ukuran asli input dengan menambahkan lapisan ekstra nol ke baris dan kolom luar array. Sebaliknya, pooling, yang pada dasarnya meringkas fitur visual dengan hanya mengambil nilai minimum, maksimum atau rata-rata, dapat digunakan untuk pengurangan dimensi lebih lanjut.
Akhirnya, representasi terkompresi kemudian diratakan menjadi vektor.
Salah satu aplikasi intuitif penyematan gambar adalah pencarian gambar: sistem yang mengambil data gambar sebagai input dan mengembalikan gambar lain dengan penyematan vektor yang serupa, seperti aplikasi smartphone yang mengidentifikasi spesies tanaman dari sebuah foto.
Eksekusi yang lebih kompleks adalah pencarian gambar multimodal, mengambil teks sebagai input dan mengembalikan gambar yang terkait dengan teks tersebut. Hal ini tidak dapat dicapai dengan mengambil penyematan teks dari model bahasa dan menggunakannya sebagai input ke model visi komputer yang terpisah. Kedua model penyematan harus dilatih secara eksplisit untuk berkorelasi satu sama lain.
Salah satu algoritme terkemuka yang digunakan untuk penyematan gambar dan teks adalah contrastive language-image pretraining (CLIP), yang awalnya dikembangkan oleh OpenAI. CLIP dilatih pada kumpulan data tanpa label yang sangat besar dari lebih dari 400 juta pasangan keterangan gambar yang diambil dari internet. Pasangan ini digunakan untuk bersama-sama melatih penyandi gambar dan penyandi teks dari awal, menggunakan contrastive loss (kehilangan kontras) untuk memaksimalkan kemiripan kosinus antara penyematan gambar dan penyematan teks yang terkait.
Aplikasi penting lainnya untuk penyematan gambar adalah pembuatan gambar: pembuatan gambar baru.
Salah satu metode untuk membuat gambar baru dari penyisipan gambar adalah variasi autoencoder (VAE). VAE mengkodekan dua vektor penempatan data input yang berbeda: vektor rata-rata dan vektor deviasi standar. Dengan mengambil sampel secara acak dari distribusi probabilitas yang diwakili oleh penanaman vektor ini, VAE dapat menggunakan jaringan dekodernya untuk menghasilkan variasi data masukan tersebut.
Metode pembangkitan gambar berbasis penyematan yang terkemuka, khususnya pada tahun-tahun belakangan ini, menggunakan algoritme CLIP yang sudah disebutkan sebelumnya. Model sintesis gambar seperti DALL-E, Midjourney dan Stable Diffusion menggunakan petunjuk teks sebagai masukan, menggunakan CLIP untuk menanamkan representasi vektor dari teks tersebut; penyematan vektor yang sama pada gilirannya digunakan untuk merekonstruksi gambar baru.
Penyematan teks kurang mudah. Mereka harus secara numerik mewakili konsep abstrak seperti makna semantik, konotasi variabel, dan hubungan kontekstual antara kata dan frasa.
Cukup mewakili kata-kata dalam bentuk hurufnya, cara penyematan gambar mewakili visual dalam hal nilai pikselnya, tidak akan menghasilkan penyematan yang berarti.
Sementara sebagian besar model visi komputer dilatih menggunakan pembelajaran terawasi konvensional , model penyematan untuk NLP membutuhkan pembelajaran yangdiawasi sendiri pada jumlah data pelatihan yang benar-benar besar untuk secara memadai mengambil makna bahasa yang banyak dalam konteks yang berbeda.
Penyematan yang dihasilkan memberdayakan banyak tugas yang biasanya dikaitkan dengan AI generatif, mulai dari terjemahan bahasa hingga chatbot percakapan, rangkuman dokumen, hingga layanan penjawab pertanyaan.
Model yang digunakan untuk menghasilkan penyematan vektor untuk data teks sering kali tidak sama dengan model yang digunakan untuk menghasilkan teks yang sebenarnya.
LLM populer yang biasa digunakan untuk pembuatan teks dan tugas AI generatif lainnya, seperti ChatGPT atau Llama, adalah model autoregresif khusus decoder, yang juga disebut model bahasa kausal. Dalam pelatihan, mereka ditampilkan dengan awal sampel teks tertentu dan ditugaskan untuk terus memprediksi kata berikutnya hingga akhir urutan. Meskipun hal itu cukup untuk belajar menghasilkan teks yang koheren, itu tidak optimal untuk mempelajari penyematan vektor terpisah yang berguna.
Sebaliknya, penyematan teks biasanya bergantung pada masked language model seperti representasi encoder dua arah dari transformer (BERT), yang pertama kali dirilis pada tahun 2018. Dalam pelatihan, model encoder-decoder ini diberikan rangkaian teks dengan kata-kata tertentu yang ditutup atau disembunyikan, dan ditugaskan untuk melengkapi bagian yang kosong.
Latihan ini memberikan penghargaan kepada penyematan yang menangkap informasi dengan lebih baik tentang kata atau kalimat tertentu dan bagaimana kata atau kalimat tersebut terkait dengan konteks di sekitarnya. Word2vec mengikuti tugas pelatihan yang mirip, meskipun dengan arsitektur neural network 2 lapis yang lebih sederhana.
Pada Juni 2024, BERT tetap menjadi model bahasa yang paling populer di Hugging Face, setelah diunduh lebih dari 60 juta kali pada bulan sebelumnya.3 Beberapa varian BERT telah disesuaikan dengan jenis penyematan bahasa dan skenario tertentu:
SBERT: Juga dikenal sebagai BERT kalimat dan transformator kalimat, SBERT adalah varian dari BERT dengan struktur Siamese neural network yang diadaptasi, disesuaikan dengan pasangan kalimat untuk meningkatkan kemampuannya dalam mengodekan penyematan kalimat.
DistilBERT: Varian BERT yang ringan, dibuat melalui penyulingan pengetahuan dari model dasar BERT menjadi model yang lebih kecil yang berjalan 60% lebih cepat dengan tetap mempertahankan lebih dari 95% kinerja BERT berdasarkan beberapa metrik.4
RoBERTa: Singkatan dari pendekatan prapelatihan BERT yang dioptimalkan dengan kuat, RoBERTa menyempurnakan prosedur pelatihan BERT untuk mengoptimalkan kinerjanya.
Penyematan vektor dapat digunakan untuk merepresentasikan berbagai data bahasa alami.
Penyematan kata
Penyematan kata bertujuan untuk menangkap tidak hanya makna semantik dari kata-kata individual, tetapi juga hubungan kontekstualnya dengan kata-kata lain yang sering digunakan bersama. Dengan demikian, penyematan kata dapat digeneralisasi dengan baik ke konteks baru dan bahkan kata-kata langka atau yang sebelumnya tidak terlihat.
GloVe, model penyematan kata yang populer, dilatih pada “matriks ko-okurensi kata-kata global”, menyimpulkan makna semantik dan hubungan semantik dari seberapa sering kata-kata tertentu digunakan berdekatan satu sama lain. Misalnya, makna dapat diturunkan dari bagaimana “es” dan “uap” bertepatan dengan “air” pada frekuensi yang kira-kira sama, tetapi bertepatan dengan “padat” dan “gas” pada tingkat yang sangat berbeda.5
Cara dimensi vektor penyisipan kata secara implisit menangkap hubungan ini memungkinkan kita untuk memanipulasinya secara matematis dengan cara yang berguna dan intuitif. Dalam skema penanaman kata yang dikonfigurasi dengan baik, mengurangkan vektor untuk “pria” dari vektor untuk “raja” dan menambahkan vektor untuk “wanita” pada dasarnya akan menghasilkan vektor untuk “ratu.”
Penyematan kalimat
Penyematkan kalimat menyematkan makna semantik dari seluruh frasa atau kalimat, dan bukan kata-kata individual. Kalimat tersebut biasanya dibuat dengan SBERT atau varian pengubah kalimat lainnya.
Penyematan kalimat dapat menyematkan representasi dari pertanyaan pengguna, untuk digunakan dalam mesin pencari atau aplikasi penjawab pertanyaan.
Dalam penerjemahan mesin, penyematan vektor dari sebuah kalimat dalam satu bahasa dapat digunakan untuk menghasilkan kalimat dalam bahasa yang berbeda dengan penyematan vektor yang serupa.
Penyematan kalimat sering digunakan dalam analisis sentimen. Pengklasifikasi dapat dilatih pada contoh berlabel dari setiap kategor sentimen atau dengan menggunakan pembelajaran terawasi, kemudian mengklasifikasikan sampel baru dengan mencocokkan penyematan vektor mereka dengan penyematan yang dipelajari untuk setiap kelas. Analisis sentimen juga dapat dilakukan melalui zero-shot learning, di mana penyematan untuk kalimat tertentu dibandingkan dengan penyematan kata dari kategorisasi tertentu.
Penyematan dokumen
Penyematan dokumen sering digunakan untuk mengklasifikasikan dokumen atau halaman web untuk diindeks di mesin pencari atau basis data vektor. Model umum untuk penyematan dokumen termasuk varian BERT, Doc2vec (yang merupakan perluasan dari model Word2vec) atau model penyematan sumber terbuka lainnya seperti Instructor (tautan berada di luar ibm.com).
Meskipun data gambar dan teks cenderung mendapat perhatian paling besar, terutama untuk contoh penggunaan AI generatif, berbagai macam modalitas data dapat memperoleh manfaat dari penyematan vektor.
Basis data tradisional jarang dioptimalkan untuk mengerjakan data dimensi tinggi yang umum untuk penyematan vektor. Basis data vektor seperti IBM® watsonx.data™ adalah solusi canggih yang dirancang untuk mengatur dan mengambil objek data dalam ruang vektor dimensi tinggi.
Manfaat utama dari solusi basis data vektor yang efektif adalah untuk mengoptimalkan efisiensi dan keakuratan operasi pencarian vektor: menemukan, menyortir, dan mengambil data dan dokumen relevan melalui kesamaan semantik dari masing-masing penanaman vektor dengan istilah pencarian Anda.
Jenis pencarian kesamaan ini biasanya dilakukan melalui algoritma tetangga terdekat yang menyimpulkan hubungan antara titik data berdasarkan kedekatannya dalam ruang vektor berdimensi tinggi.
Pencarian semantik
Pencarian semantik menggunakan penyematan vektor untuk mendukung pencarian yang melampaui pencocokan kata kunci sederhana. Misalnya, mengembalikan hasil untuk “apel” dan “jeruk” meskipun kueri aslinya adalah “buah.”
Jenis pencarian semantik ini juga digunakan untuk memungkinkan retrieval augmented generation (RAG), kerangka kerja yang digunakan untuk melengkapi basis pengetahuan LLM tanpa harus menjalani lebih banyak penyetelan.
Dalam RAG, pencarian vektor digunakan untuk mensurvei sumber data eksternal, yaitu sumber data yang bukan merupakan bagian dari data pelatihan model dasar dan yang informasinya tidak dapat tercermin dalam hasil LLM, untuk mengambil informasi yang relevan, kemudian menggunakan informasi tersebut untuk menambah respons yang dihasilkan oleh LLM.
Semua tautan berada di luar ibm.com
1 “Stable Tuple Embeddings for Dynamic Databases”, arXiv, 11 Maret 2021.
2 “Leaderboard: Image Classification on ImageNet”, Papers With Code, diakses pada 5 Juni 2024.
3 “Models” (sorted by “Most downloads”), Hugging Face, diakses 5 Juni 2024.
4 “DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter”, arXiv, 2 Oktober 2019.
5 “GloVe: Global Vectors for Word Representation”, Stanford University, Agustus 2014.