Apa yang dimaksud dengan pembelajaran semi-diawasi?
Jelajahi IBM watsonx.ai
Kotak titik-titik dalam berbagai warna dan ukuran

Diterbitkan: 12 Desember 2023
Kontributor: Dave Bergmann

Apa yang dimaksud dengan pembelajaran semi-diawasi?

Pembelajaran semi-diawasi adalah cabang dari machine learning yang menggabungkan pembelajaran diawasi dan tidak diawasi, menggunakan data berlabel dan tidak berlabel untuk melatih model kecerdasan buatan (AI) untuk tugas-tugas klasifikasi dan regresi.

Meskipun pembelajaran semi-diawasi umumnya digunakan untuk contoh penggunaan yang sama dengan metode pembelajaran diawasi, pembelajaran semi-diawasi dibedakan dengan berbagai teknik yang menggabungkan data yang tidak berlabel ke dalam pelatihan model, selain data berlabel yang diperlukan untuk pembelajaran diawasi konvensional.

Metode pembelajaran semi-diawasi sangat relevan dalam situasi di mana mendapatkan data berlabel dalam jumlah yang cukup sangat sulit atau mahal, tetapi data tidak berlabel dalam jumlah besar relatif mudah diperoleh. Dalam skenario seperti itu, metode pembelajaran yang diawasi sepenuhnya maupun yang tidak diawasi tidak akan memberikan solusi yang memadai.

Data berlabel dan machine learning

Melatih model AI untuk tugas prediksi seperti klasifikasi atau regresi biasanya membutuhkan data berlabel: titik data beranotasi yang memberikan konteks yang diperlukan dan menunjukkan prediksi yang benar (output) untuk setiap input sampel. Selama pelatihan, fungsi kerugian mengukur perbedaan (kerugian) antara prediksi model untuk input yang diberikan dan "kebenaran dasar" yang disediakan oleh label input tersebut. Model belajar dari contoh-contoh berlabel ini dengan menggunakan teknik seperti gradient descent yang memperbarui bobot model untuk meminimalkan kerugian. Karena proses machine learning ini secara aktif melibatkan manusia, proses ini disebut pembelajaran "diawasi".

Pelabelan data dengan benar menjadi makin padat karya untuk tugas-tugas AI yang kompleks. Sebagai contoh, untuk melatih model klasifikasi gambar untuk membedakan antara mobil dan sepeda motor, ratusan (atau bahkan ribuan) gambar pelatihan harus diberi label "mobil" atau "sepeda motor"; untuk tugas visual komputer yang lebih terperinci, seperti deteksi objek, manusia tidak hanya harus memberi keterangan objek yang ada di setiap gambar, tetapi juga tempat setiap objek tersebut berada; untuk tugas yang lebih terperinci lagi, seperti segmentasi gambar, label data harus memberi anotasi batas-batas piksel demi piksel tertentu dari segmen gambar yang berbeda untuk setiap gambar.

Dengan demikian, pelabelan data bisa sangat membosankan untuk contoh penggunaan tertentu. Dalam contoh penggunaan machine learning yang lebih khusus, seperti penemuan obat, pengurutan genetik atau klasifikasi protein, anotasi data tidak hanya sangat memakan waktu, tetapi juga membutuhkan keahlian domain yang sangat spesifik.

Pembelajaran semi-diawasi menawarkan cara untuk mengekstrak manfaat maksimal dari jumlah data berlabel yang terbatas, sekaligus memanfaatkan data tak berlabel yang relatif melimpah. 

Ikuti tur IBM watsonx.ai

Studio perusahaan generasi berikutnya bagi pembangun AI untuk melatih, memvalidasi, menyetel, dan menerapkan model AI.

Konten terkait

Berlangganan buletin IBM

Pembelajaran semi-diawasi vs. pembelajaran diawasi vs. pembelajaran tidak diawasi

Pembelajaran semi-diawasi dapat dianggap sebagai hybrid atau jalan tengah antara pembelajaran diawasi dan pembelajaran tidak diawasi.

Pembelajaran semi-diawasi vs pembelajaran diawasi

Perbedaan utama antara machine learning semi-diawasi dan diawasi penuh adalah bahwa machine learning semi-diawasi hanya dapat dilatih menggunakan kumpulan data yang sepenuhnya berlabel, sedangkan machine learning diawasi penuh menggunakan sampel data berlabel dan tidak berlabel dalam proses pelatihan. Teknik pembelajaran semi-diawasi memodifikasi atau menambah algoritma yang diawasi—yang disebut "pembelajar dasar", dalam konteks ini—untuk memasukkan informasi dari contoh-contoh yang tidak berlabel. Titik data berlabel digunakan untuk mendasarkan prediksi dasar pembelajar dan menambahkan struktur (seperti berapa banyak kelas yang ada dan karakteristik dasar dari masing-masing kelas) ke masalah pembelajaran.

Tujuan dari pelatihan model klasifikasi adalah agar model tersebut dapat mempelajari batas keputusan yang akurat: garis, untuk data dengan lebih dari dua dimensi, "permukaan" atau hyperplane—memisahkan titik-titik data dari satu kategori klasifikasi dari titik-titik data yang termasuk dalam kategori klasifikasi yang berbeda. Meskipun model klasifikasi diawasi sepenuhnya secara teknis dapat mempelajari batas keputusan hanya dengan menggunakan beberapa titik data berlabel, model ini mungkin tidak dapat digeneralisasi dengan baik untuk contoh dunia nyata, sehingga prediksi model tidak dapat diandalkan.

Kumpulan data klasik "setengah bulan" memvisualisasikan kekurangan dari model yang diawasi yang mengandalkan terlalu sedikit titik data berlabel. Meskipun batas keputusan yang "benar" akan memisahkan masing-masing dari dua setengah bulan, model pembelajaran yang terawasi kemungkinan besar akan terlalu banyak menggunakan titik data berlabel yang tersedia. Titik data yang tidak berlabel dengan jelas menyampaikan konteks yang bermanfaat, tetapi algoritma tradisional yang diawasi tidak dapat memproses data yang tidak berlabel.

Pembelajaran semi-diawasi vs pembelajaran tidak diawasi

Tidak seperti pembelajaran semi-diawasi (dan diawasi sepenuhnya), algoritma pembelajaran tanpa diawasi tidak menggunakan data berlabel atau fungsi kerugian. Pembelajaran tanpa pengawasan menghindari konteks “kebenaran dasar” yang dapat digunakan untuk mengukur dan mengoptimalkan akurasi model.

Pendekatan semi-diawasi yang makin umum, terutama untuk model bahasa yang besar, adalah dengan "melatih sebelumnya" melalui tugas-tugas tanpa diawasi yang mengharuskan model untuk mempelajari representasi yang bermakna dari kumpulan data yang tidak berlabel. Ketika tugas-tugas tersebut melibatkan "kebenaran dasar" dan fungsi kerugian (tanpa anotasi data manual), tugas-tugas tersebut disebut pembelajaran dengan pengawasan mandiri. Setelah "penyempurnaan yang diawasi" berikutnya pada sejumlah kecil data berlabel, model yang telah dilatih sebelumnya sering kali dapat mencapai kinerja yang sebanding dengan model yang diawasi sepenuhnya.

Meskipun metode pembelajaran tanpa diawasi dapat berguna dalam banyak skenario, kurangnya konteks dapat membuat metode ini tidak cocok untuk klasifikasi sendiri. Sebagai contoh, bagaimana algoritma pengklasteran biasa—mengelompokkan titik-titik data ke dalam sejumlah kelompok yang telah ditentukan sebelumnya berdasarkan kedekatannya satu sama lain—akan memperlakukan kumpulan data setengah bulan.

Pembelajaran semi-diawasi vs pembelajaran dengan pengawasan mandiri

Baik pembelajaran semi-diawasi maupun pembelajaran dengan pengawasan mandiri bertujuan untuk menghindari kebutuhan akan data berlabel dalam jumlah besar—tetapi ketika pembelajaran semi-diawasi melibatkan sejumlah data berlabel, metode pembelajaran pengawasan mandiri seperti autoencoder benar-benar tidak diawasi.

Sementara pembelajaran yang diawasi (dan semi-diawasi) membutuhkan "kebenaran dasar" eksternal, dalam bentuk data berlabel, tugas belajar dengan pengawasan mandiri memperoleh kebenaran dasar dari struktur yang mendasari sampel yang tidak berlabel. Banyak tugas dengan pengawasan mandiri tidak berguna bagi diri mereka sendiri: kegunaannya terletak pada model pengajaran representasi data yang berguna untuk tujuan "tugas hilir" berikutnya. Dengan demikian, mereka sering disebut “tugas pretext.”

Ketika digabungkan dengan tugas-tugas hilir yang diawasi, tugas-tugas pretext dengan pengawasan mandiri dengan demikian merupakan bagian dari proses pembelajaran semi-diawasi: sebuah metode pembelajaran yang menggunakan data berlabel dan tidak berlabel untuk pelatihan model.

Bagaimana cara kerja pembelajaran semi-diawasi?

Pembelajaran semi-diawasi bergantung pada asumsi tertentu tentang data tanpa label yang digunakan untuk melatih model dan cara titik data dari kelas yang berbeda berhubungan satu sama lain.

Kondisi yang diperlukan dalam pembelajaran dengan pengawasan mandiri (SSL) adalah bahwa contoh-contoh tak berlabel yang digunakan dalam pelatihan model harus relevan dengan tugas yang akan dilakukan oleh model. Dalam istilah yang lebih formal, SSL mensyaratkan bahwa distribusi p(x) dari data input harus mengandung informasi tentang distribusi posterior p(y|x)—yaitu, probabilitas bersyarat dari titik data tertentu (x) yang termasuk dalam kelas tertentu (y). Jadi, misalnya, jika seseorang menggunakan data tanpa label untuk membantu melatih pengklasifikasi gambar untuk membedakan antara gambar kucing dan gambar anjing, kumpulan data pelatihan harus berisi gambar kucing dan anjing—dan gambar kuda dan sepeda motor tidak akan membantu.

Sejalan dengan itu, sementara sebuah penelitian pada tahun 2018 tentang algoritma pembelajaran semi-diawasi menemukan bahwa "meningkatkan jumlah data tak berlabel cenderung meningkatkan kinerja teknik SSL," penelitian ini juga menemukan bahwa "menambahkan data tak berlabel dari sekumpulan kelas yang tidak sesuai sebenarnya dapat merusak kinerja dibandingkan dengan tidak menggunakan data tak berlabel sama sekali." 1

Kondisi dasar dari p(x) yang memiliki hubungan yang berarti dengan p(x|y) memunculkan beberapa asumsi tentang sifat hubungan tersebut. Asumsi-asumsi ini adalah kekuatan pendorong di balik sebagian besar, jika tidak semua, metode SSL: secara umum, setiap algoritma pembelajaran semi-diawasi bergantung pada satu atau lebih dari asumsi-asumsi berikut ini yang secara eksplisit atau implisit dipenuhi.

Asumsi klaster

Asumsi cluster menyatakan bahwa titik data milik cluster yang sama—sekumpulan titik data yang lebih mirip satu sama lain daripada titik data lain yang tersedia—juga akan termasuk dalam kelas yang sama.

Meskipun terkadang dianggap sebagai asumsi mandiri, asumsi pengklasteran juga telah dijelaskan oleh van Engelen dan Hoos sebagai "generalisasi dari asumsi-asumsi lainnya."2 Dalam pandangan ini, penentuan klaster titik data bergantung pada pengertian kemiripan yang digunakan: asumsi kehalusan, asumsi kepadatan rendah, dan asumsi lipatan, masing-masing hanya memanfaatkan definisi yang berbeda tentang apa yang terdiri dari titik data yang "mirip".

Asumsi kehalusan

Asumsi kehalusan menyatakan bahwa jika dua titik data, x dan x', berdekatan satu sama lain dalam ruang input—kumpulan semua nilai yang mungkin untuk x–maka label mereka, y dan y', harus sama.

Asumsi ini, yang juga dikenal sebagai asumsi kontinuitas, adalah hal yang umum pada sebagian besar pembelajaran yang diawasi: misalnya, pengklasifikasi mempelajari perkiraan yang berarti (atau "representasi") dari setiap kelas yang relevan selama pelatihan; setelah dilatih, pengklasifikasi menentukan klasifikasi titik-titik data baru melalui representasi mana yang paling mirip dengan mereka.

Dalam konteks SSL, asumsi kehalusan memiliki manfaat tambahan untuk diterapkan secara transitif pada data yang tidak berlabel. Pertimbangkan skenario yang melibatkan tiga titik data:

  • titik data berlabel, x1
  • titik data yang tidak berlabel, x2, yang dekat dengan x1
  • titik data lain yang tidak berlabel, x3, yang mendekati x2 tetapi tidak dekat dengan x1

Asumsi kehalusan memberi tahu kita bahwa x2 harus memiliki label yang sama dengan x1. Asumsi ini juga memberi tahu kita bahwa x3 harus memiliki label yang sama dengan x2. Oleh karena itu, kita dapat mengasumsikan bahwa ketiga titik data memiliki label yang sama, karena label x1 disebarkan secara transitif ke x3 karena kedekatan x3 dengan x2.

Asumsi kepadatan rendah

Asumsi kepadatan rendah menyatakan bahwa batas keputusan antar-kelas tidak boleh melewati daerah dengan kepadatan tinggi. Dengan kata lain, batas keputusan harus berada di area yang berisi sedikit titik data.

Dengan demikian, asumsi kepadatan rendah dapat dianggap sebagai perpanjangan dari asumsi klaster (yaitu klaster titik data kepadatan tinggi mewakili kelas, bukan batas antar-kelas) dan asumsi kehalusan (dalam hal bahwa jika beberapa titik data dekat satu sama lain, mereka harus berbagi label, dan dengan demikian jatuh di sisi yang sama dari batas keputusan).

Diagram ini mengilustrasikan bagaimana asumsi kehalusan dan kepadatan rendah dapat menginformasikan batas keputusan yang jauh lebih intuitif daripada yang mungkin dilakukan dengan metode diawasi yang hanya dapat mempertimbangkan (sangat sedikit) titik data berlabel.

Asumsi lipatan

Asumsi lipatan menyatakan bahwa ruang input berdimensi lebih tinggi terdiri dari beberapa lipatan berdimensi lebih rendah yang menjadi tempat semua titik data berada, dan titik data pada lipatan yang sama memiliki label yang sama.

Sebagai contoh intuitif, pertimbangkan selembar kertas yang diremas menjadi bola. Lokasi titik mana pun pada permukaan bola hanya dapat dipetakan dengan koordinat x,y,z tiga dimensi. Namun, jika bola yang kusut itu sekarang diratakan kembali menjadi selembar kertas, titik-titik yang sama sekarang dapat dipetakan dengan koordinat x,y dua dimensi. Ini disebut reduksi dimensi, dan dapat dicapai secara matematis dengan menggunakan metode seperti autoencoder atau konvolusi.

Dalam machine learning, dimensi tidak berhubungan dengan dimensi fisik yang kita kenal, tetapi dengan setiap atribut atau fitur data. Sebagai contoh, dalam machine learning, gambar RGB kecil berukuran 32x32 piksel memiliki 3.072 dimensi: 1.024 piksel, yang masing-masing memiliki tiga nilai (untuk merah, hijau, dan biru). Membandingkan titik data dengan begitu banyak dimensi merupakan hal yang menantang, baik karena kompleksitas dan sumber daya komputasi yang diperlukan dan karena sebagian besar ruang dimensi tinggi tersebut tidak mengandung informasi yang berarti bagi tugas yang sedang dikerjakan.

Asumsi lipatan menyatakan bahwa ketika sebuah model mempelajari fungsi reduksi dimensi yang tepat untuk membuang informasi yang tidak relevan, titik-titik data yang berbeda akan menyatu menjadi representasi yang lebih bermakna sehingga asumsi SSL yang lain dapat diandalkan.

Pembelajaran transduktif

Metode pembelajaran transduktif menggunakan label yang tersedia untuk membedakan prediksi label untuk sekumpulan titik data yang tidak berlabel, sehingga dapat digunakan oleh pembelajar dasar yang diawasi.

Sementara metode induktif bertujuan untuk melatih pengklasifikasi yang dapat memodelkan seluruh ruang input (berlabel dan tidak berlabel), metode transduktif hanya bertujuan untuk menghasilkan prediksi label untuk data yang tidak berlabel. Algoritma yang digunakan untuk pembelajaran transduktif sebagian besar tidak terkait dengan algoritma yang akan digunakan oleh model pengklasifikasi yang diawasi untuk dilatih menggunakan data berlabel baru ini.

Propagasi label

Propagasi label adalah algoritma berbasis grafik yang menghitung pemberian label untuk titik data yang tidak berlabel berdasarkan kedekatan relatifnya dengan titik data yang berlabel, dengan menggunakan asumsi kehalusan dan asumsi klaster.

Intuisi di balik algoritma ini adalah bahwa seseorang dapat memetakan grafik yang terhubung sepenuhnya yang mana node-nya adalah semua titik data yang tersedia, baik berlabel maupun tidak berlabel. Makin dekat dua node berdasarkan beberapa ukuran jarak yang dipilih, seperti jarak Euclidian (tautan berada di luar ibm.com), makin besar bobot tepi di antara keduanya dalam algoritma. Dimulai dari titik data berlabel, label kemudian secara iteratif menyebar melalui titik data tak berlabel yang berdekatan, dengan menggunakan asumsi kelancaran dan klaster.

Pembelajaran aktif

Algoritma pembelajaran aktif tidak mengotomatiskan pelabelan titik data: sebaliknya, algoritma ini digunakan dalam SSL untuk menentukan sampel tanpa label yang akan memberikan informasi yang paling berguna jika diberi label secara manual.3 Penggunaan pembelajaran aktif dalam pengaturan semi-diawasi telah mencapai hasil yang menjanjikan: misalnya, sebuah penelitian baru-baru ini menemukan bahwa pembelajaran aktif dapat mengurangi lebih dari separuh jumlah data berlabel yang diperlukan untuk melatih model secara efektif untuk segmentasi semantik.4

Pembelajaran induktif

Metode induktif dari pembelajaran semi-diawasi bertujuan untuk secara langsung melatih model klasifikasi (atau regresi), menggunakan data berlabel dan tidak berlabel.

Metode SSL induktif umumnya dapat dibedakan berdasarkan cara mereka memasukkan data yang tidak berlabel: melalui langkah pelabelan semu, langkah pra-pemrosesan yang tidak diawasi, atau dengan penggabungan langsung ke dalam fungsi objektif model.

Metode wrapper

Cara yang relatif sederhana untuk memperluas algoritma yang diawasi yang ada ke pengaturan semi-diawasi adalah dengan terlebih dahulu melatih model pada data berlabel yang tersedia—atau cukup menggunakan pengklasifikasi yang sudah ada sebelumnya—dan kemudian menghasilkan prediksi label semu untuk titik data yang tidak berlabel. Model ini kemudian dapat dilatih ulang menggunakan data berlabel asli dan data berlabel semu, tanpa membedakan keduanya.

Manfaat utama dari metode wrapper, di luar kesederhanaannya, adalah metode ini kompatibel dengan hampir semua jenis pembelajar dasar yang diawasi. Sebagian besar metode wrapper memperkenalkan beberapa teknik regularisasi untuk mengurangi risiko memperkuat prediksi label semu yang berpotensi tidak akurat.
 

Latihan mandiri
Latihan mandiri adalah metode wrapper dasar. Hal ini membutuhkan prediksi label semu yang bersifat probabilistik, bukan deterministik: misalnya, model yang menghasilkan "85 persen anjing, 15 persen kucing", bukan hanya menghasilkan output "anjing".

Prediksi label semu probabilistik memungkinkan algoritma pelatihan mandiri hanya menerima prediksi yang melebihi ambang batas kepercayaan tertentu, dalam proses yang mirip dengan minimalisasi entropi.5 Proses ini dapat dilakukan secara iteratif, baik untuk mengoptimalkan proses klasifikasi semu atau mencapai sejumlah sampel berlabel semu.

Latihan bersama
Metode latihan bersama memperluas konsep latihan mandiri dengan melatih beberapa pelajar dasar yang diawasi untuk menetapkan label semu.

Diversifikasi ini dimaksudkan untuk mengurangi kecenderungan memperkuat prediksi awal yang buruk. Oleh karena itu, penting agar prediksi dari setiap pembelajar dasar tidak berkorelasi kuat satu sama lain. Pendekatan yang umum dilakukan adalah dengan menggunakan algoritma yang berbeda untuk setiap pengklasifikasi. Cara lainnya adalah agar setiap pengklasifikasi fokus pada subset data yang berbeda: misalnya, pada data video, melatih satu pembelajar dasar pada data visual dan yang lainnya pada data audio.

Pra-pemrosesan tanpa diawasi

Tidak seperti metode wrapper (dan algoritma semi-diawasi intrinsik), yang menggunakan data berlabel dan tidak berlabel secara bersamaan, beberapa metode SSL menggunakan data yang tidak berlabel dan berlabel dalam tahap yang terpisah: tahap pra-pemrosesan yang tidak diawasi, diikuti oleh tahap yang diawasi.

Seperti metode wrapper, teknik tersebut pada dasarnya dapat digunakan untuk semua pelajar dasar yang diawasi. Namun berbeda dengan metode wrapper, model supervisi "utama" pada akhirnya dilatih hanya pada titik data berlabel asli (yang diberi anotasi oleh manusia).

Teknik pra-pemrosesan tersebut berkisar dari mengekstraksi fitur yang berguna dari data yang tidak berlabel hingga pra-pengklasteran titik-titik data yang tidak berlabel hingga menggunakan "pra-pelatihan" untuk menentukan parameter awal dari model yang diawasi (dalam proses yang mirip dengan tugas-tugas awal yang dilakukan dalam pembelajaran dengan pengawasan mandirii).
 

Klaster-lalu-label
Salah satu teknik semi-diawasi langsung melibatkan pengklasteran semua titik data (baik berlabel maupun tidak berlabel) menggunakan algoritma tanpa diawasi. Dengan memanfaatkan asumsi pengklasteran, klaster tersebut dapat digunakan untuk membantu melatih model pengklasifikasi independen—atau, jika titik data berlabel dalam klaster tertentu semuanya berasal dari kelas yang sama, memberi label semu pada titik data yang tidak berlabel dan melanjutkan dengan cara yang serupa dengan metode wrapper.

Seperti yang ditunjukkan oleh contoh "setengah bulan" di awal artikel ini, metode sederhana (seperti k-tetangga terdekat) dapat menghasilkan prediksi yang tidak memadai. Algoritma pengklasteran yang lebih baik, seperti DBSCAN (yang mengimplementasikan asumsi kepadatan rendah),6 telah mencapai keandalan yang lebih baik.

Pra-pelatihan dan ekstraksi fitur
Pra-pelatihan tanpa diawasi (atau dengan pengawasan mandiri) memungkinkan model untuk mempelajari representasi yang berguna dari ruang input, mengurangi jumlah data berlabel yang diperlukan untuk menyempurnakan model dengan pembelajaran yang diawasi.

Pendekatan yang umum digunakan adalah dengan menggunakan neural network, sering kali autoencoder, untuk mempelajari penyematan atau representasi fitur dari data input—kemudian menggunakan fitur yang dipelajari ini untuk melatih pembelajar dasar yang diawasi. Hal ini sering kali memerlukan pengurangan dimensi, untuk membantu memanfaatkan asumsi lipatan.

Metode yang secara intrinsik semi-diawasi

Beberapa metode SSL secara langsung data yang tidak berlabel ke dalam fungsi objektif pembelajar dasar, daripada memproses data yang tidak berlabel dalam pelabelan semu atau langkah pra-pemrosesan yang terpisah.
 

Mesin vektor pendukung semi-diawasi
Ketika titik-titik data dari kategori yang berbeda tidak dapat dipisahkan secara linear–ketika tidak ada garis lurus yang dapat dengan rapi dan akurat mendefinisikan batas antara kategori—algoritma mesin vektor pendukung (SVM) memetakan data ke ruang fitur berdimensi lebih tinggi yang mana kategori-kategori tersebut dapat dipisahkan dengan sebuah hyperplane. Dalam menentukan batas keputusan ini, algoritma SVM memaksimalkan margin antara batas keputusan dan titik data yang paling dekat dengannya. Hal ini, dalam praktiknya, menerapkan asumsi kepadatan rendah.

Dalam pengaturan yang diawasi, istilah regularisasi memberi penalti algoritma ketika titik data yang diberi label berada di sisi yang salah dari batas keputusan. Pada SVM semi-diawasi (S3VM), hal ini tidak memungkinkan untuk titik data yang tidak berlabel (yang klasifikasinya tidak diketahui)—oleh karena itu, S3VM juga memberikan penalti pada titik data yang berada di dalam margin yang ditentukan.

Model pembelajaran mendalam yang diawasi secara intrinsik
Berbagai arsitektur neural network telah diadaptasi untuk pembelajaran yang diawasi secara semi-diawasi.
Hal ini dicapai dengan menambahkan atau memodifikasi istilah kerugian yang biasanya digunakan dalam arsitektur ini, yang memungkinkan penggabungan titik data yang tidak berlabel dalam pelatihan.

Arsitektur pembelajaran mendalam semi-diawasi yang diusulkan termasuk ladder networks,7 pseudo-ensembles,8 temporal ensembling,9 dan beberapa modifikasi pada generative adversarial networks (GANS).10

Solusi terkait
IBM watsonx.ai

Anda dapat melatih, memvalidasi, menyetel, dan menerapkan AI generatif, model dasar, dan kemampuan machine learning dengan mudah serta membangun aplikasi AI dalam waktu yang singkat dengan data yang sedikit.

Jelajahi watsonx.ai

IBM watsonx.data

IBM watsonx.data™ data store memungkinkan perusahaan untuk meningkatkan analitik dan AI dengan penyimpanan data yang sesuai dengan kebutuhan, yang dibangun di atas arsitektur lakehouse terbuka, didukung oleh kueri, tata kelola, dan format data terbuka untuk mengakses dan berbagi data. Terhubung ke data dalam hitungan menit, dengan cepat mendapatkan insight tepercaya, dan mengurangi biaya gudang data Anda.

Jelajahi watsonx.data
Sumber daya pembelajaran semi-diawasi

Kursus dan sumber daya untuk mempelajari lebih lanjut tentang pembelajaran semi-diawasi dan tempatnya dalam konteks machine learning yang lebih luas.

Machine learning: Regresi dan Klasifikasi

Jelajahi dua subset penting dari Machine Learning yang diawasi: Regresi dan Klasifikasi. Mempelajari cara melatih model regresi untuk memprediksi hasil kontinu dan melatih model prediktif untuk mengklasifikasikan hasil kategorikal.

Apa itu pelabelan data?

Penambahan satu atau beberapa label memberikan konteks yang memungkinkan model machine learning membuat prediksi yang akurat. Jelajahi penggunaan dan manfaat pelabelan data, termasuk berbagai teknik dan praktik terbaik.

Bagaimana data yang tidak berlabel meningkatkan generalisasi dalam pelatihan mandiri

Pelatihan mandiri, algoritma pembelajaran semi-diawasi, memanfaatkan sejumlah besar data yang tidak berlabel untuk meningkatkan pembelajaran ketika data berlabel terbatas. Karya ini membangun analisis teoritis untuk paradigma pelatihan mandiri iteratif yang diketahui dan membuktikan manfaat data tanpa label dalam pelatihan.

Ambil langkah selanjutnya

Melatih, memvalidasi, melakukan tuning, dan menerapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Jelajahi watsonx.ai Pesan demo langsung
Catatan kaki

1 "Realistic Evaluation of Deep Semi-Supervised Learning Algorithms"(tautan berada di luar ibm.com), arXiv, 17 Juni 2019
2 "A survey on semi-supervised learning" ( tautan berada di luar ibm.com), Springer, 15 Nov 2019
3 "Transductive active learning – A new semi-supervised learning approach based on iteratively refined generative models to capture structure in data" (tautan berada di luar ibm.com), Information Sciences (Volume 293), 18 Sep 2014
4 "Semantic Segmentation with Active Semi-Supervised Learning" (tautan berada di luar ibm.com), arXiv, 16 Okt 2022
5 "Semi-supervised learning by Entropy Minimization" ( tautan berada di luar ibm.com), Advances in Neural Information Processing Systems 17, 2004
6 "Density-based semi-supervised clustering" (tautan berada di luar ibm.com), Data Mining and Knowledge Discovery, Nov 2010
7 "Semi-Supervised Learning with Ladder Networks" ( link resides outside ibm.com), arXiv, 24 Nov 2015
8 "Learning with Pseudo-Ensembles" (tautan berada di luar ibm.com), arXiv, 16 Dec 2014
9 "Temporal Ensembling for Semi-Supervised Learning" (tautan berada di luar ibm.com), arXiv, 15 Mar 2017
10 "Improved Techniques for Training GANs" (tautan berada di luar ibm.com), arXiv, 10 Jun 2016