Apa yang dimaksud dengan pembelajaran terawasi mandiri?

Penyusun

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Apa yang dimaksud dengan pembelajaran terawasi mandiri?

Pembelajaran terawasi mandiri adalah teknik machine learning yang menggunakan pembelajaran tanpa pengawasan untuk tugas-tugas yang secara konvensional membutuhkan pembelajaran yang diawasi. Alih-alih mengandalkan kumpulan data berlabel untuk sinyal pengawasan, model terawasi mandiri menghasilkan label implisit dari data yang tidak terstruktur.

Pembelajaran terawasi mandiri (SSL) sangat berguna dalam bidang-bidang seperti visi komputer dan pemrosesan bahasa alami (NLP) yang membutuhkan data berlabel dalam jumlah besar untuk melatih model kecerdasan buatan (AI) yang canggih. Karena para pakar membutuhkan banyak waktu untuk menganotasi kumpulan data berlabel ini, bisa jadi sangat sulit untuk mengumpulkan data yang mencukupi. Pendekatan terawasi mandiri dapat lebih hemat waktu dan biaya, karena pendekatan ini menggantikan sebagian atau seluruh kebutuhan untuk melabeli data pelatihan secara manual.

Untuk melatih model pembelajaran mendalam untuk tugas-tugas yang membutuhkan akurasi, seperti klasifikasi atau regresi, kita harus dapat membandingkan prediksi keluaran model untuk input yang diberikan dengan prediksi yang "benar" untuk input tersebut—biasanya disebut dengan ground truth (kebenaran dasar). Biasanya, data pelatihan yang dilabeli secara manual berfungsi sebagai kebenaran dasar, karena metode ini membutuhkan campur tangan manusia secara langsung, metode ini disebut pembelajaran "terawasi". Dalam pembelajaran terawasi mandiri, tugas-tugas dirancang sedemikian rupa sehingga "kebenaran dasar" dapat disimpulkan dari data yang tidak berlabel.

Dalam SSL, tugas dibagi dalam dua kategori: tugas pretext dan tugas downstream.Dalam tugas pretext, SSL digunakan untuk melatih sistem AI untuk mempelajari representasi yang bermakna dari data yang tidak terstruktur. Representasi yang dipelajari tersebut kemudian dapat digunakan sebagai input untuk tugas downstream, seperti tugas pembelajaran terawasi atau tugas pembelajaran penguatan. Penggunaan kembali model yang telah dilatih sebelumnya pada tugas baru disebut sebagai "transfer learning" (pembelajaran transfer).

Pembelajaran terawasi mandiri digunakan dalam pelatihan beragam arsitektur pembelajaran mendalam yang canggih untuk berbagai tugas, mulai dari model bahasa besar (LLM) berbasis transformer seperti BERT dan GPT hingga model sintesis gambar seperti variational autoencoders (VAE) dan generative adversarial networks (GAN) hingga model visi komputer seperti SimCLR dan Momentum Contrast (MoCo).

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Pembelajaran terawasi mandiri vs. pembelajaran terawasi vs. pembelajaran tanpa pengawasan

Meskipun secara teknis pembelajaran terawasi mandiri merupakan bagian dari pembelajaran tanpa pengawasan (karena tidak memerlukan kumpulan data berlabel), pembelajaran ini sangat erat kaitannya dengan pembelajaran terawasi karena mengoptimalkan kinerja terhadap kebenaran dasar.

Kecocokan yang tidak sempurna dengan kedua paradigma machine learning konvensional ini menyebabkan berbagai teknik yang sekarang secara kolektif dianggap sebagai "pembelajaran terawasi mandiri" mendapatkan kategori tersendiri.

Penciptaan istilah ini sering kali dikaitkan dengan Yann LeCun, ilmuwan komputer pemenang Turing Award dan tokoh kunci dalam kemunculan pembelajaran mendalam,1 yang menyatakan bahwa SSL perlu dibedakan dari pembelajaran yang benar-benar tidak terawasi (yang disebutnya sebagai "istilah yang sarat dan membingungkan"). 2 Nama (dan konsep formal) ini mungkin berasal dari sebuah makalah tahun 2007 oleh Raina, dkk, yang berjudul "Self-taught learning: Transfer learning from unlabeled data."3 Beberapa kerangka kerja machine learning yang sekarang dianggap sebagai SSL, seperti autoencoder, mendahului keberadaan istilah itu sendiri selama beberapa tahun.

Pembelajaran terawasi mandiri vs. pembelajaran tanpa pengawasan

Pembelajaran terawasi mandiri adalah bagian dari pembelajaran tanpa pengawasan: semua teknik pembelajaran terawasi mandiri adalah pembelajaran tanpa pengawasan, tetapi sebagian besar pembelajaran tanpa pengawasan tidak memerlukan pengawasan mandiri.

Baik pembelajaran tanpa pengawasan maupun pembelajaran terawasi mandiri tidak menggunakan label dalam proses pelatihan: kedua metode ini mempelajari korelasi dan pola intrinsik dalam data yang tidak berlabel, alih-alih korelasi yang dipaksakan secara eksternal dari kumpulan data yang dianotasi. Terlepas dari fokus yang sama pada data yang tidak berlabel, perbedaan antara pembelajaran terawasi mandiri dan pembelajaran tanpa pengawasan sebagian besar mencerminkan perbedaan antara pembelajaran tanpa pengawasan dan pembelajaran terawasi.

Masalah yang menggunakan pembelajaran tanpa pengawasan konvensional tidak mengukur hasil terhadap kebenaran dasar yang telah diketahui sebelumnya. Sebagai contoh, model asosiasi tanpa pengawasan dapat mendukung mesin rekomendasi e-commerce dengan mempelajari produk mana yang sering dibeli bersama. Kegunaan model ini tidak berasal dari replikasi prediksi manusia, tetapi dari penemuan korelasi yang tidak terlihat oleh pengamat manusia.

Pembelajaran terawasi mandiri mengukur hasil terhadap kebenaran dasar, meskipun secara implisit berasal dari data pelatihan yang tidak berlabel. Seperti model terawasi, model terawasi mandiri dioptimalkan menggunakan fungsi kerugian: algoritma yang mengukur perbedaan ("kerugian") antara kebenaran dasar dan prediksi model. Selama pelatihan, model terawasi mandiri menggunakan penurunan gradien selama propagasi balik untuk menyesuaikan bobot model dengan cara yang meminimalkan kerugian (dan dengan demikian meningkatkan akurasi).

Didorong oleh perbedaan utama ini, kedua metode berfokus pada contoh penggunaan yang berbeda: model tanpa pengawasan digunakan untuk tugas-tugas seperti pengelompokan, deteksi anomali, dan pengurangan dimensi yang tidak memerlukan fungsi kerugian, sedangkan model terawasi mandiri digunakan untuk tugas klasifikasi dan regresi yang biasa digunakan untuk pembelajaran terawasi.

Pembelajaran terawasi mandiri vs. pembelajaran terawasi

Meskipun pembelajaran terawasi dan pembelajaran terawasi mandiri sebagian besar digunakan untuk jenis tugas yang sama dan keduanya membutuhkan kebenaran dasar untuk mengoptimalkan kinerja melalui fungsi kerugian, model terawasi mandiri dilatih pada data yang tidak dilabeli sedangkan pembelajaran terawasi membutuhkan kumpulan data berlabel untuk pelatihan.

Kumpulan data berlabel sangat efektif dalam pelatihan model: anotasi data pelatihan memungkinkan model untuk secara langsung mempelajari fitur-fitur utama dan korelasi yang direfleksikan oleh anotasi tersebut. Dengan meminimalkan perbedaan antara prediksi model dan "prediksi" yang dianotasi tangan oleh para ahli manusia selama pelatihan, model terawasi belajar untuk membuat kesimpulan yang benar tentang data input baru (yang tidak berlabel).

Meskipun pendekatan terawasi yang canggih dapat menghasilkan akurasi yang tinggi, anotasi pelatihan dalam jumlah besar sering kali menjadi hambatan dalam proses penelitian. Sebagai contoh, dalam tugas-tugas visi komputer seperti segmentasi instance yang memerlukan prediksi spesifik piksel, anotasi data pelatihan harus dilakukan pada tingkat piksel. Proses ini mahal dan memakan waktu, sehingga membatasi jumlah data pelatihan yang tersedia dan kemampuan sebagian besar perusahaan dan peneliti untuk mendapatkannya.

Sebaliknya, model terawasi mandiri menggunakan berbagai teknik untuk mendapatkan sinyal pengawasan dari struktur data input itu sendiri, sehingga menghindari label sama sekali. Misalnya, dengan menyembunyikan (atau "menutupi") secara acak bagian dari sebuah kalimat dan menugaskan model terawasi mandiri untuk memprediksi kata-kata yang disembunyikan, dengan menggunakan kalimat asli (yang tidak diberi label) sebagai kebenaran dasar.

Pembelajaran terawasi mandiri vs. pembelajaran semi terawasi

Tidak seperti pembelajaran terawasi mandiri, yang tidak melibatkan data berlabel manusia, pembelajaran semi terawasi menggunakan data berlabel dan tidak berlabel untuk melatih model. Sebagai contoh, model semi terawasi dapat menggunakan sejumlah kecil titik data berlabel untuk menyimpulkan label untuk sisa kumpulan data pelatihan yang tidak berlabel, kemudian lanjut menggunakan seluruh set data untuk pembelajaran terawasi. Meskipun motivasi keduanya serupa, karena kedua pendekatan ini menghindari kebutuhan akan kumpulan data berlabel besar dalam pembelajaran terawasi, metodologi masing-masing berbeda.

Akademi AI

Manfaatkan AI untuk layanan pelanggan

Lihat bagaimana AI generatif dapat menyenangkan pelanggan dengan pengalaman yang lebih mulus dan meningkatkan produktivitas organisasi di tiga area utama ini: layanan mandiri, agen manusia, dan operasi pusat kontak.

Bagaimana cara kerja pembelajaran terawasi mandiri?

Tugas pembelajaran terawasi dirancang sedemikian rupa sehingga fungsi kerugian dapat menggunakan data input yang tidak berlabel sebagai kebenaran dasar. Hal ini memungkinkan model untuk mempelajari representasi yang akurat dan bermakna dari data input tanpa label atau anotasi.

Tujuan dari pembelajaran terawasi mandiri adalah untuk meminimalkan atau menggantikan kebutuhan akan data berlabel. Sementara data berlabel relatif langka dan mahal, data yang tidak berlabel berlimpah dan relatif murah. Pada dasarnya, tugas pretext menghasilkan "label semu" dari data yang tidak berlabel. Istilah "pretext" menyiratkan bahwa tugas pelatihan tidak (harus) berguna untuk dirinya sendiri: tugas ini hanya berguna karena mengajarkan model representasi data yang berguna untuk tujuan tugas downstream berikutnya. Oleh karena itu, tugas pretext juga sering disebut sebagai pembelajaran representasi.

Model yang telah dilatih sebelumnya dengan SSL sering kali disempurnakan untuk tugas downstream khusus: penyempurnaan ini sering kali melibatkan pembelajaran terawasi yang sebenarnya (meskipun hanya menggunakan sebagian kecil data berlabel yang diperlukan untuk melatih model dengan pembelajaran terawasi).

Meskipun disiplin SSL beragam dalam hal metodologi dan contoh penggunaan, model yang dilatih dengan SSL menggunakan salah satu (atau keduanya) dari dua teknik machine learning: pembelajaran prediktif mandiri dan pembelajaran kontrastif.

Pembelajaran prediktif mandiri

Juga dikenal sebagai pembelajaran terawasi mandiri autoasosiatif, metode prediksi mandiri melatih model untuk memprediksi bagian dari sampel data individu, dengan informasi tentang bagian lainnya. Model yang dilatih dengan metode ini biasanya merupakan model generatif, bukan diskriminatif.

Yann LeCun telah mengkarakterisasikan metode terawasi mandiri sebagai praktik terstruktur untuk "mengisi kekosongan." Secara garis besar, ia menggambarkan proses mempelajari representasi yang bermakna dari struktur yang mendasari data yang tidak berlabel secara sederhana: "Anggaplah ada bagian dari input yang tidak Anda ketahui dan prediksikan hal tersebut." 4 Sebagai contoh:

  • Memprediksi bagian mana pun dari input dari bagian lain
  • Memprediksi masa depan dari masa lalu
  • Memprediksi data yang tertutup (masked) dari yang terlihat
  • Memprediksi bagian yang teroklusi dari semua bagian yang tersedia

Sistem terawasi mandiri yang dibangun di atas filosofi ini sering kali menggunakan arsitektur model dan teknik pelatihan tertentu.

Autoencoder

Autoencoder adalah neural networks yang dilatih untuk mengompresi (atau mengodekan) data input, kemudian merekonstruksi (atau mendekode) input asli menggunakan representasi terkompresi tersebut. Autoencoder dilatih untuk meminimalkan kesalahan rekonstruksi, dengan menggunakan input asli sebagai kebenaran dasar.

Meskipun arsitektur autoencoder beragam, biasanya mereka memperkenalkan beberapa bentuk kemacetan: saat data melintasi jaringan encoder, kapasitas data setiap lapisan berkurang secara progresif. Hal ini memaksa jaringan untuk belajar hanya pola-pola terpenting yang tersembunyi di dalam data input - yang disebut variabel laten, atau ruang laten- sehingga jaringan decoder dapat dengan tepat merekonstruksi input asli meskipun sekarang kurang informasi.

Modifikasi pada kerangka kerja dasar ini memungkinkan autoencoder untuk mempelajari fitur dan fungsi yang berguna.

  • Denoising autoencoder diberi data input yang rusak sebagian dan dilatih untuk mengembalikan input asli dengan menghapus informasi yang tidak berguna ("noise"). Hal ini mengurangi overfitting dan membuat model tersebut berguna untuk berbagai tugas, seperti memulihkan gambar input dan data audio yang rusak.
  • Sementara sebagian besar autoencoder mengkodekan model diskret ruang laten, Variational autoencoders (VAEs) mempelajari model kontinu ruang laten: dengan mengkodekan representasi laten dari data input sebagai distribusi probabilitas, decoder dapat menghasilkan data baru dengan mengambil sampel vektor acak dari distribusi itu.

Autoregression

Model autoregresif menggunakan perilaku masa lalu untuk memprediksi perilaku masa depan. Model ini bekerja dengan logika bahwa data apa pun dengan tatanan berurutan bawaan — seperti bahasa, audio atau video — dapat dimodelkan dengan regresi.

Algoritma autoregresi memodelkan data deret waktu, menggunakan nilai dari langkah waktu sebelumnya untuk memprediksi nilai langkah waktu berikutnya. Sedangkan dalam algoritma regresi konvensional, seperti yang digunakan untuk regresi linier, variabel independen digunakan untuk memprediksi nilai target (atau variabel dependen), dalam autoregresi variabel independen dan dependen essensinya sama: yang disebut autoregresi karena regresi dilakukan pada variabel itu sendiri.

Autoregresi digunakan secara menonjol dalam model bahasa kausal seperti GPT, LLaMa, dan keluarga LLM Claude yang unggul dalam tugas-tugas seperti pembuatan teks dan menjawab pertanyaan. Dalam pra-pelatihan, model bahasa diberikan awal kalimat contoh yang diambil dari data pelatihan tanpa label dan ditugaskan untuk memprediksi kata berikutnya, dengan kata "sebenarnya" berikutnya dari kalimat contoh sebagai kebenaran dasar.

Masking

Metode pembelajaran terawasi mandiri lainnya melibatkan masking bagian tertentu dari sampel data yang tidak berlabel dan menugaskan model dengan memprediksi atau merekonstruksi informasi yang hilang. Fungsi kerugian menggunakan input asli (pra-masking) sebagai kebenaran dasar. Misalnya, masked autoencoder seperti kebalikan dari denoising audioencoder: keduanya belajar memprediksi dan memulihkan informasi yang hilang, bukan menghapus informasi asing.

Masking juga digunakan dalam pelatihan masked language model: kata-kata acak dihilangkan dari contoh kalimat dan model dilatih untuk mengisinya. Meskipun model bahasa dengan masking seperti BERT (dan banyak model yang dibangun dari arsitekturnya, seperti BART dan RoBERTa) sering kali kurang mahir dalam pembuatan teks dibandingkan model autoregresif, model ini memiliki keuntungan karena bersifat dua arah: model ini dapat memprediksi bukan hanya kata berikutnya, tetapi juga kata-kata sebelumnya atau kata-kata yang ditemukan kemudian dalam suatu urutan. Hal ini membuat mereka sangat cocok untuk tugas-tugas yang membutuhkan pemahaman kontekstual yang kuat, seperti penerjemahan, ringkasan, dan pencarian.

Prediksi hubungan bawaan

Prediksi hubungan bawaan melatih model untuk mempertahankan pemahamannya tentang sampel data setelah ditransformasikan dengan cara tertentu. Misalnya, memutar gambar input dan menugaskan model dengan memprediksi tingkat perubahan dan arah rotasi relatif terhadap input asli.5

Pembelajaran kontrastif

Metode pembelajaran terawasi mandiri kontrastif memberikan model dengan beberapa sampel data dan menugaskannya untuk memprediksi hubungan antara sampel-sampel tersebut. Model yang dilatih dengan metode ini biasanya merupakan model diskriminatif, bukan generatif.

Model kontrastif umumnya beroperasi pada pasangan data-data untuk pelatihan, sedangkan model autoasosiatif beroperasi pada pasangan data-label (di mana label dihasilkan sendiri dari data). Menggunakan pasangan data-data ini, metode kontrastif melatih model untuk membedakan antara hal yang mirip dan tidak mirip.

Pasangan ini sering kali dibuat melalui augmentasi data: menerapkan berbagai jenis transformasi atau gangguan pada data yang tidak berlabel untuk membuat contoh baru atau tampilan yang diperluas. Sebagai contoh, teknik augmentasi yang umum untuk data gambar termasuk rotasi, pemangkasan acak, pembalikan, noise, pemfilteran, dan pewarnaan. Penambahan data meningkatkan variabilitas data dan mengekspos model ke perspektif yang berbeda, yang membantu memastikan bahwa model belajar untuk menangkap representasi semantik yang bermakna dan dinamis.

Diskriminasi instans

Model berbasis diskriminasi instance membingkai pelatihan sebagai serangkaian tugas klasifikasi biner: menggunakan satu sampel data sebagai target (atau "jangkar"), sampel data lainnya ditentukan sebagai "positif" (cocok) atau "negatif" (tidak cocok).

Dalam visi komputer, metode tersebut—seperti SimCLR atau MoCo—biasanya dimulai dengan sekumpulan gambar mentah yang tidak berlabel dan menerapkan kombinasi transformasi secara acak untuk menghasilkan pasangan (atau set) sampel gambar yang di-augmentasi. Masing-masing gambar yang di-augmentasi kemudian dikodekan ke dalam representasi vektor, dan fungsi kehilangan kontrastif digunakan untuk meminimalkan perbedaan dalam representasi vektor antara kecocokan positif—pasangan gambar yang ditambah yang berasal dari gambar asli yang sama—dan memaksimalkan perbedaan antara kecocokan negatif.

Dengan demikian, metode diskriminasi instance melatih model untuk mempelajari representasi dari berbagai kategori yang berbeda yang, berkat penambahan data secara acak, kuat terhadap variasi yang tidak terlalu penting (seperti warna, perspektif, atau bagian yang terlihat pada gambar tertentu). Dengan demikian, representasi ini dapat digeneralisasi dengan sangat baik untuk tugas-tugas downstream.

Pembelajaran nonkontras

Agak berlawanan dengan intuisi, "pembelajaran non-kontrastif" mengacu pada metode yang terkait erat dengan pembelajaran kontrastif (bukan, seperti yang bisa ditebak, sebuah istilah umum untuk metode yang bukan pembelajaran kontrastif). Model dilatih dengan hanya menggunakan pasangan positif, belajar untuk meminimalkan perbedaan antara representasi pasangan-pasangan itu - oleh karena itu disebut non­–kontrastif.

Dibandingkan dengan pembelajaran kontrastif, pendekatan non-kontrastif relatif sederhana: karena hanya beroperasi pada sampel positif, pendekatan ini menggunakan ukuran batch yang lebih kecil untuk masa pelatihan dan tidak memerlukan bank memori untuk menyimpan sampel negatif. Hal ini menghemat memori dan biaya komputasi selama pra-pelatihan.

Model non-kontrastif seperti Bootstrap Your Own Latent (BYOL)6 dan Barlow Twins7 telah mencapai hasil yang mampu bersaing dengan hasil kontrastif dan hasil terawasi murni.

Pembelajaran multimodal

Mengingat titik data dari berbagai jenis—modalitas—metode kontrastif dapat mempelajari pemetaan antara modalitas tersebut. Misalnya, Pra-pelatihan Bahasa-Gambar Kontrastif (CLIP) bersama-sama melatih encoder gambar dan encoder teks untuk memprediksi keterangan mana yang sesuai dengan gambar mana, menggunakan jutaan pasangan tanpa label (gambar, teks) yang tersedia dan dikumpulkan dari internet. Setelah pra-pelatihan, pemrosesan bahasa alami (NLP) digunakan untuk mereferensikan pembelajaran konsep visual dalam pelatihan (atau bahkan untuk mendeskripsikan konsep visual baru), menjadikan model yang dilatih CLIP sangat berguna untuk beragam aplikasi pembelajaran transfer.

Pembelajaran kontras juga telah digunakan untuk mempelajari keselarasan antara video dan teks,8 video dan audio,9 dan ucapan dan teks.10

Contoh penggunaan pembelajaran diawasi mandiri

Pembelajaran terawasi mandiri telah digunakan dalam pelatihan awal model kecerdasan buatan untuk berbagai tugas dan disiplin ilmu.

Pembelajaran terawasi mandiri untuk NLP

  • Dalam waktu satu tahun setelah diperkenalkan pada tahun 2018, Google menerapkan masked language model BERT sebagai mesin NLP untuk cuplikan unggulan dan berperingkat di Search.11 Pada tahun 2023, Google terus menggunakan arsitektur BERT untuk memberdayakan aplikasi penelusuran di dunia nyata.12
  • Keluarga LLaMa, GPT, dan Claude dari LLM adalah model bahasa autoregresif. GPT3 dilatih terutama dengan pembelajaran terawasi mandiri; InstructGPT, dan model GPT-3.5 berikutnya yang digunakan untuk meluncurkan ChatGPT, menyempurnakan model yang sudah dilatih sebelumnya menggunakan pembelajaran penguatan dengan masukan dari manusia (RLHF).
  • Model autoregresif juga digunakan untuk tugas-tugas NLP berbasis audio seperti ucapan-ke-teks, serta model teks-ke-ucapan seperti WaveNet.13 Facebook (Meta) menggunakan wav2vec untuk pengenalan suara, menggunakan dua jaringan neural konvolusi yang ditumpuk di atas satu sama lain untuk memetakan input audio mentah ke representasi vektor. Dalam pra-pelatihan terawasi mandiri, vektor-vektor ini digunakan sebagai input untuk tugas prediksi mandiri.14

Pembelajaran terawasi mandiri untuk visi komputer

  • Pembelajaran terawasi mandiri adalah bagian dari teknik pembelajaran mendalam yang berkembang pesat yang digunakan untuk pencitraan medis, di mana gambar yang dianotasi oleh para ahli relatif langka. Di PubMed, Scopus, dan ArXiv, publikasi yang merujuk pada penggunaan SSL untuk klasifikasi citra medis meningkat lebih dari 1.000 persen dari tahun 2019 hingga 2021.15
  • Metode berbasis SSL sering kali dapat menyamai atau melampaui akurasi model yang dilatih menggunakan metode yang terawasi sepenuhnya. Misalnya, MoCo asli mengungguli model yang diawasi di tujuh tugas deteksi objek dan segmentasi gambar pada kumpulan data PASCAL, VOC, dan COCO.16 Ketika disempurnakan menggunakan data berlabel untuk hanya satu persen dari semua data pelatihan, model yang telah dilatih sebelumnya dengan SSL telah mencapai akurasi lebih dari 80 persen pada kumpulan data ImageNet. Hasil ini menyaingi kinerja model pembelajaran terawasi yang menjadi tolok ukur seperti ResNet50.
  • Kemampuan untuk mempertahankan keberhasilan deteksi objek dan segmentasi gambar meskipun terjadi perubahan pada orientasi objek, sangat penting untuk berbagai tugas robotika. Pembelajaran terawasi mandiri telah diusulkan sebagai cara yang efektif untuk melatih model visi komputer untuk memahami rotasi tanpa pengumpulan data berlabel yang memakan waktu.17 18
  • Masking telah digunakan untuk melatih model untuk memahami lintasan gerak dalam video.19

Pembelajaran terawasi mandiri untuk pemrosesan gambar dan sintesis gambar

  • Denoising autoencoder adalah komponen penting dalam pelatihan beberapa model sintesis gambar yang canggih, seperti Stable Diffusion.20
  • Pemodelan autoregresif telah digunakan untuk sintesis gambar dalam model seperti PixelRNN dan PixelCNN. Keberhasilan PixelCNN membuatnya menjadi dasar untuk WaveNet.
  • Convolutional autoencoder digunakan untuk berbagai tugas pemrosesan gambar, seperti inpainting dan pewarnaan gambar skala abu-abu.
  • Variational autoencoder (VAE) adalah alat bantu penting dalam sintesis gambar. Model DALL-E asli OpenAI menggunakan VAE untuk menghasilkan gambar. Baik DALL-E 1 maupun DALL-E 2 menggunakan CLIP dalam proses penerjemahan perintah bahasa alami menjadi informasi visual.21
Solusi terkait
IBM watsonx.ai

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Temukan watsonx.ai
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Dapatkan akses ke berbagai kemampuan dalam satu alat untuk seluruh siklus pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung