Model IBM watsonxdirancang untuk perusahaan dan dioptimalkan untuk domain bisnis dan contoh penggunaan bertarget. Melalui studio AI IBM watsonx.aikami menawarkan pilihan model dasar kelas enterprise yang hemat biaya yang dikembangkan oleh IBM, model sumber terbuka dan model yang bersumber dari penyedia pihak ketiga untuk membantu klien dan mitra meningkatkan dan mengoperasionalkan kecerdasan buatan (AI) lebih cepat dengan risiko minimal. Anda dapat menerapkan model AI di mana pun beban kerja Anda berada, baik lokal maupun di hybrid cloud.
IBM mengambil pendekatan yang berbeda untuk memberikan model dasar kelas enterprise:
Perpustakaan model dasar IBM watsonx memberikan Anda pilihan dan fleksibilitas untuk memilih model yang paling sesuai dengan kebutuhan bisnis, kepentingan regional, dan profil risiko Anda dari perpustakaan model dengan hak milik, sumber terbuka, dan model pihak ketiga.
IBM Granite adalah kelompok model AI kami yang terbuka, berkinerja tinggi, dan tepercaya, yang dirancang untuk bisnis dan dioptimalkan untuk menskalakan aplikasi AI Anda. Granite 3.1 menghadirkan model sumber terbuka yang dirancang untuk kebutuhan perusahaan, menawarkan kinerja luar biasa dalam berbagai tugas bisnis, termasuk keamanan siber dan RAG, serta unggul dalam berbagai tolok ukur.
Gunakan model penyematan yang dikembangkan dan tersedia sebagai sumber terbuka oleh IBM, yang telah diterapkan di IBM watsonx.ai. untuk mendukung generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
Pilih model yang tepat, dari submiliar hingga parameter 34B, sumber terbuka di bawah Apache 2.0.
Jangan mengorbankan kinerja demi menghemat biaya. Granite mengungguli model sejenis di berbagai tugas perusahaan.
Bangun AI yang bertanggung jawab dengan serangkaian kemampuan deteksi risiko dan bahaya yang komprehensif, transparansi, dan perlindungan IP.
Pilih model dasar generatif yang paling sesuai dengan kebutuhan Anda. Setelah memiliki daftar singkat model untuk contoh penggunaan Anda, uji model secara sistematis menggunakan teknik rekayasa prompt untuk melihat model mana yang secara konsisten memberikan hasil yang diinginkan.
granite-3-2b-instruct (v3.1)
IBM
Mendukung Question and Answer (Q&A), ringkasan, klasifikasi, pembuatan, ekstraksi, RAG, dan tugas pengodean.
128k
0,10
granite-3-8b-instruct (v3.1)
IBM
Mendukung Question and Answer (Q&A), ringkasan, klasifikasi, pembuatan, ekstraksi, RAG, dan tugas pengodean.
128k
0,20
granite-guardian-3-8b (v3.1)
IBM
Mendukung deteksi HAP/PII, jailbreaking, bias, kekerasan, dan konten berbahaya lainnya.
128k
0,20
granite-guardian-3-2b (v3.1)
IBM
Mendukung deteksi HAP/PII, jailbreaking, bias, kekerasan, dan konten berbahaya lainnya.
128k
0,10
granite-20b-multilingual
IBM
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, penerjemahan, dan tugas-tugas RAG dalam bahasa Prancis, Jerman, Portugis, Spanyol, dan Inggris.
8192
0,60
granite-13b-chat
IBM
Mendukung pertanyaan dan jawaban (Q&A), pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas RAG.
8192
0,60
granite-13b-instruct
IBM
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas RAG.
8192
0,60
granite-34b-code-instruct
IBM
Model khusus tugas untuk kode dengan menghasilkan, menjelaskan, dan menerjemahkan kode dari prompt bahasa alami.
8192
0,60
granite-20b-code-instruct
IBM
Model khusus tugas untuk kode dengan menghasilkan, menjelaskan, dan menerjemahkan kode dari prompt bahasa alami.
8192
0,60
granite-8b-code-instruct
IBM
Model khusus tugas untuk kode dengan menghasilkan, menjelaskan, dan menerjemahkan kode dari prompt bahasa alami.
128k
0,60
granite-3b-code-instruct
IBM
Model khusus tugas untuk kode dengan menghasilkan, menjelaskan, dan menerjemahkan kode dari prompt bahasa alami.
128k
0,60
granite-8b-japanese
IBM
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, penerjemahan, dan tugas-tugas RAG dalam bahasa Jepang.
4096
0,60
llama-3-3-70b-instruct
Meta
Mendukung tugas Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, dan penerjemahan, serta RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand
128k
0.71
llama-3-2-90b-vision-instruct
Meta
Mendukung pengenalan teks dalam gambar, transkripsi gambar ke teks (OCR), termasuk tulisan tangan, ekstraksi dan pemrosesan data, pemahaman konteks dalam tanya jawab, serta identifikasi objek
128k
2,00
llama-3-2-11b-vision-instruct
Meta
Mendukung pengenalan teks dalam gambar, transkripsi gambar ke teks (OCR), termasuk tulisan tangan, ekstraksi dan pemrosesan data, pemahaman konteks dalam tanya jawab, serta identifikasi objek
128k
0,35
llama-guard-3-11b-vision
Meta
Mendukung penyaringan gambar, deteksi HAP/PII, penyaringan konten berbahaya
128k
0,35
llama-3-2-1b-instruct
Meta
Mendukung tugas Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, dan penerjemahan, serta RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand
128k
0,10
llama-3-2-3b-instruct
Meta
Mendukung tugas Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, dan penerjemahan, serta RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand
128k
0,15
llama-3-405b-instruct
Meta
Mendukung tugas seperti Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, dan penerjemahan, serta RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand |
128k
Input: 5,00/Hasil: 16,00
llama-3-1-70b-instruct
Meta
Mendukung Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, penerjemahan, dan tugas RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand.
128k
1,80
llama-3-1-8b-instruct
Meta
Mendukung Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, penerjemahan, dan tugas RAG dalam bahasa Inggris, Jerman, Prancis, Italia, Portugis, Hindi, Spanyol, dan Thailand.
128k
0,60
llama-3-8b-instruct
Meta
Mendukung tugas ringkasan, klasifikasi, pembuatan, ekstraksi, dan penerjemahan.
8192
0,60
llama-3-70b-instruct
Meta
Mendukung RAG, pembuatan konten, pembuatan ringkasan, klasifikasi, tanya jawab, ekstraksi informasi, penerjemahan, dan pembuatan kode.
8192
1,80
allam-1-13b-instruct
SDAIA
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, RAG, dan penerjemahan dalam bahasa Arab.
4096
1,80
codellama-34b-instruct
Meta
Tugaskan model khusus untuk kode dengan membuat dan menerjemahkan kode dari prompt bahasa alami.
16384
1,80
pixtral-12b
Mistral AI
Mendukung pengenalan teks dalam gambar, transkripsi gambar ke teks (OCR), termasuk tulisan tangan, ekstraksi dan pemrosesan data, pemahaman konteks dalam tanya jawab, serta identifikasi objek
128k
0,35
mistral-large-2
Mistral AI
Mendukung Q&A, pembuatan ringkasan, pembuatan konten, pengodean, klasifikasi, ekstraksi, penerjemahan, dan tugas RAG dalam bahasa Prancis, Jerman, Italia, Spanyol, dan Inggris.
128k*
Input: 3,00/hasil: 10,00
Mistral-Small-24B-Instruct-2501
Mistral AI
Mendukung tugas bahasa, alur kerja agen, RAG, dan banyak lagi dalam lusinan bahasa dengan waktu respons yang cepat.
32768
0,35
mixtral-8x7b-instruct
Mistral AI
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, serta tugas-tugas RAG dan pembuatan kode.
32768
0,60
jais-13b-chat (Arabic)
core42
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan penerjemahan dalam bahasa Arab.
2048
1,80
flan-t5-xl-3b
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas RAG. Penyetelan prompt dapat dilakukan.
4096
0,60
flan-t5-xxl-11b
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas RAG.
4096
1,80
flan-ul2-20b
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas RAG.
4096
5,00
elyza-japanese-llama-2-7b-instruct
ELYZA
Mendukung Q&A, pembuatan ringkasan, klasifikasi, pembuatan konten, ekstraksi, dan tugas-tugas penerjemahan.
4096
1,80
*Harga yang ditampilkan bersifat indikatif, dapat berbeda di setiap negara, tidak termasuk pajak dan bea yang berlaku, serta tergantung pada ketersediaan penawaran produk di wilayah setempat.
Model penyematan mengonversi input menjadi representasi vektor padat, yang merepresentasikan karakteristik utama dari input tersebut. Penyematan merepresentasikan hubungan semantik dan sintaksis yang kompleks antara kata-kata dan elemen lainnya dalam ruang vektor.
granite-embedding-107m-multilingual
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
granite-embedding-278m-multilingual
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
slate-125m-english-rtrvr-v2
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
slate-125m-english-rtrvr
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
slate-30m-english-rtrvr-v2
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
slate-30m-english-rtrvr
IBM
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
all-mini-l6-v2
Microsoft
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
256
0,10
all-minilm-l12-v2
OS-NLP-CV
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
256
0,10
multilingual-e5-large
Intel
Tugas generasi dengan dukungan pengambilan data, pencarian semantik, dan perbandingan dokumen.
512
0,10
*Harga yang ditampilkan bersifat indikatif, dapat berbeda di setiap negara, tidak termasuk pajak dan bea yang berlaku, serta tergantung pada ketersediaan penawaran produk di wilayah setempat.
Banyak bisnis yang antusias terhadap prospek memanfaatkan model dasar dan ML di satu tempat dengan data mereka sendiri, untuk mempercepat beban kerja AI generatif.
IBM percaya dalam penciptaan, penerapan, dan pemanfaatan model AI yang memajukan inovasi di seluruh perusahaan secara bertanggung jawab. Portofolio watsonx AI IBM memiliki proses menyeluruh dalam membangun serta menguji model dasar dan AI generatif. Untuk model yang dikembangkan IBM, kami mencari dan menghapus duplikasi. Selain itu, kami menggunakan daftar blokir URL, filter untuk konten yang tidak pantas dan kualitas dokumen, pemisahan kalimat, dan teknik tokenisasi, semuanya sebelum pelatihan model.
Selama proses pelatihan data, kami berupaya mencegah ketidakselarasan hasil model dan menggunakan penyesuaian yang diawasi agar dapat mengikuti instruksi yang lebih baik, sehingga model dapat digunakan untuk menyelesaikan tugas perusahaan melalui rekayasa prompt. Kami terus mengembangkan model Granite dalam beberapa arah, termasuk modalitas lain, konten spesifik industri, dan anotasi data tambahan untuk pelatihan. Di saat yang sama, menerapkan pertahanan perlindungan data secara berkala dan berkelanjutan untuk model yang dikembangkan IBM.
Mengingat pesatnya perubahan lingkungan teknologi AI generatif, proses ujung-ke-ujung kami diperkirakan akan terus berkembang dan lebih baik. Sebagai bukti ketelitian yang dilakukan IBM dalam pengembangan dan pengujian model dasarnya, perusahaan memberikan ganti rugi hak kekayaan intelektual kontraktual standar untuk model yang dikembangkan IBM, serupa dengan yang disediakan untuk produk perangkat keras dan produk piranti lunak IBM.
Selain itu, berbeda dengan beberapa penyedia model bahasa besar lainnya dan selaras dengan pendekatan standar IBM mengenai ganti rugi, IBM tidak mewajibkan pelanggannya untuk mengganti rugi IBM atas penggunaan (oleh pelanggan) model yang dikembangkan oleh IBM. Serta selaras dengan pendekatan IBM terhadap kewajiban ganti ruginya, IBM tidak membatasi tanggung jawab ganti ruginya untuk model yang dikembangkan oleh IBM.
Model watsonx saat ini yang berada di bawah perlindungan ini meliputi:
(1) Model khusus enkoder dari lini Slate.
(2) Model khusus dekoder dari lini Granite.
Pelajari selengkapnya tentang pemberian lisensi untuk model Granite
*Panjang konteks yang didukung oleh penyedia model, tetapi panjang konteks aktual pada platform terbatas. Untuk informasi lebih lanjut, lihat Dokumentasi.
Inferensi ditagih dalam Unit Sumber Daya. 1 Unit Sumber Daya adalah 1.000 token. Token input dan penyelesaian dikenakan tarif yang sama. 1.000 token umumnya berisi sekitar 750 kata.
Tidak semua model tersedia di semua wilayah, lihat dokumentasi kami untuk detailnya.
Panjang konteks dinyatakan dalam token.
Pernyataan IBM mengenai rencana, arahan, dan maksudnya dapat berubah atau ditarik tanpa pemberitahuan dan atas kebijakannya sendiri. Lihat Harga untuk detail selengkapnya. Kecuali ditentukan lain dalam Harga perangkat lunak, semua fitur, kemampuan, dan potensi pembaruan merujuk secara eksklusif pada SaaS. IBM tidak membuat pernyataan bahwa fitur dan kemampuan SaaS dan perangkat lunak adalah sama.