Apa itu algoritma machine learning?

Penulis

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Apa itu algoritma machine learning?

Algoritma machine learning adalah prosedur dan logika matematika di mana “mesin”—sistem kecerdasan buatan (AI)—belajar mengidentifikasi pola dalam data pelatihan dan menerapkan pengenalan pola tersebut untuk membuat prediksi yang akurat pada data baru. Algoritma machine learning adalah fondasi mendasar dari AI modern dan ilmu data, mulai dari model regresi linier sederhana hingga teknik pembelajaran mendalam yang canggih.

Istilah “algoritma” dan “model” sering digunakan secara bergantian, tetapi mewakili konsep yang berbeda (meskipun terkait). Algoritma adalah istilah umum untuk proses langkah demi langkah, biasanya dijelaskan dalam bahasa matematika atau pseudocode, untuk melakukan beberapa fungsi atau tujuan. Dalam konteks kecerdasan buatan, model AI adalah program apa pun yang menerima data input dan mengeluarkan prediksi atau keputusan tanpa campur tangan manusia lebih lanjut.

Algoritma machine learning adalah serangkaian langkah yang ditetapkan yang digunakan untuk melatih model machine learning sehingga dapat membuat prediksi yang berguna dalam contoh penggunaan di dunia nyata. Ini tidak hanya terdiri dari cara model memetakan titik data input ke output yang sesuai, tetapi juga proses mengoptimalkan prediksi model untuk “menyesuaikan” dengan kumpulan data pelatihan dari contoh yang relevan. Ini adalah algoritma yang memungkinkan mesin untuk belajar dari data.

Secara sederhana, hasil dari penerapan algoritma machine learning ke kumpulan data adalah model yang terlatih. “Pelatihan” dapat dipahami sebagai proses berulang untuk memperbarui parameter model—aspek yang dapat disesuaikan dari logika matematis yang digunakan model untuk membuat prediksi atau keputusan tentang data input—dengan cara yang menghasilkan output yang lebih berguna.

Meskipun ada algoritma machine learning (ML) yang dirancang secara eksplisit untuk model pelatihan untuk melakukan satu tugas tertentu, itu hanyalah pengecualian dan bukan aturan. Secara umum, setiap algoritma ML memiliki kualitas matematis atau praktis tertentu yang berguna untuk jenis tugas tertentu (atau jenis atau jumlah data tertentu). Dalam banyak kasus, teknik machine learning yang sama dapat digunakan untuk melatih model untuk beberapa tugas (meskipun serupa). Sebaliknya, hampir selalu ada beberapa algoritma ML yang cocok untuk melatih model untuk tugas tertentu.

Manfaat utama dari algoritma ML adalah bahwa mereka memungkinkan model AI untuk belajar secara implisit dari pengalaman. Ini berbeda dengan teknik AI “klasik” atau “berbasis aturan”, yang membutuhkan ilmuwan data, pakar ahli, atau insinyur ML untuk memprogram logika pengambilan keputusan model secara manual dan eksplisit. Selama beberapa dekade terakhir, sistem machine learning telah muncul sebagai mode dominan kecerdasan buatan dan analisis data dibandingkan AI berbasis aturan karena, di antara alasan lainnya, machine learning yang berbasis data implisit secara inheren lebih fleksibel, dapat diskalakan, dan dapat diakses.

Karena itu, penting untuk dicatat bahwa menyesuaikan model dengan data pelatihannya hanyalah sarana untuk mencapai tujuan. Premis mendasar machine learning adalah bahwa jika Anda mengoptimalkan kinerja model pada tugas sampel yang cukup menyerupai masalah dunia nyata yang akan digunakan, model terlatih juga akan berkinerja baik pada data baru yang belum dilihatnya dalam pelatihan. Tujuan akhir dari machine learning adalah generalisasi, yaitu menerjemahkan kinerja pada data pelatihan ke data baru yang belum pernah dilihat sebelumnya. Sudut pandang sempit pada pelatihan itu sendiri berisiko overfitting, sebuah fenomena di mana pengetahuan model sangat disesuaikan dengan pola dalam data pelatihannya sehingga model tidak dapat membuat generalisasi, menghasilkan model yang unggul dalam pelatihan tetapi gagal dalam skenario dunia nyata.

Oleh karena itu, melatih model machine learning yang berguna tidak hanya memerlukan pemilihan dan konfigurasi jenis algoritma ML yang sesuai, tetapi juga kurasi data pelatihan yang tepat dan validasi kinerja setelah pelatihan yang penuh pertimbangan.

Tren AI terbaru, dipersembahkan oleh para pakar

Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.

Terima kasih! Anda telah berlangganan.

Langganan Anda akan dikirimkan dalam bahasa Inggris. Anda akan menemukan tautan berhenti berlangganan di setiap buletin. Anda dapat mengelola langganan atau berhenti berlangganan di sini. Lihat Pernyataan Privasi IBM kami untuk informasi lebih lanjut.

Jenis algoritma machine learning

Algoritma machine learning dapat disortir ke dalam tiga kategori mendasar: pembelajaran diawasi, pembelajaran tanpa pengawasan, atau pembelajaran penguatan. Masing-masing paradigma pembelajaran ini dibedakan terutama berdasarkan tujuan yang berbeda, jenis tugas pelatihan yang dibutuhkan tujuan tersebut, dan teknik yang digunakan untuk mengoptimalkan kinerja pada tugas-tugas tersebut.

  • Algoritma pembelajaran diawasi melatih model untuk memprediksi output yang "benar" untuk input yang diberikan: dengan kata lain untuk mempelajari hubungan antara variabel independen (fitur data input) dan variabel dependen (output atau "target"). Mereka digunakan untuk melatih model untuk berbagai tugas yang memerlukan tingkat akurasi tertentu yang relatif terhadap “kebenaran dasar” yang diketahui, seperti klasifikasi atau regresi. Kebenaran dasar tersebut biasanya (tetapi tidak selalu) hadir dalam bentuk data berlabel: data yang telah diberi keterangan untuk memberikan konteks pada model—misalnya, kumpulan data yang terdiri dari data berlabel [input, output] berlabel.

  • Algoritma pembelajaran tanpa pengawasan melatih model untuk melihat pola intrinsik, ketergantungan, dan korelasi dalam kumpulan data tidak berlabel. Tidak seperti pembelajaran diawasi, pembelajaran tanpa pengawasan tidak memerlukan adanya kebenaran dasar eksternal yang harus dibandingkan dengan output.

  • Algoritma pembelajaran penguatan (RL) melatih sebuah model melalui uji coba dan kesalahan untuk mengevaluasi lingkungannya dan mengambil tindakan yang akan menghasilkan imbalan terbesar. Pembelajaran penguatan sangat cocok pada skenario yang tidak memerlukan adanya kebenaran dasar apa pun, tetapi memerlukan tindakan "baik" (yang akan memberinya imbalan) dan tindakan "buruk" (yang akan memberinya penalti). Tujuan dari algoritma pembelajaran diawasi adalah untuk mengoptimalkan parameter dengan cara yang meminimalkan kesalahan, sedangkan tujuan algoritma pembelajaran penguatan adalah untuk mengoptimalkan parameter model dengan cara memaksimalkan imbalan.

Meskipun tidak ada algoritma ML yang tidak sesuai dengan ketiga paradigma ini, ada beberapa metode pembelajaran yang kategorinya relatif ambigu. Misalnya, pembelajaran agak diawasi menggabungkan pembelajaran diawasi dan tanpa pengawasan; pembelajaran diawasi sendiri memanipulasi data input dan merancang tugas pelatihan dengan cara yang memungkinkan pembelajaran diawasi dengan data tidak berlabel.

Sebuah model dapat dilatih dengan lebih dari satu jenis algoritma machine learning. Misalnya, model bahasa besar (LLM) biasanya menjalani pelatihan awal mereka ("prapelatihan") melalui pembelajaran diawasi sendiri, tetapi kemudian disempurnakan melalui algoritma pembelajaran diawasi konvensional serta algoritma pembelajaran penguatan. Algoritma pembelajaran ensambel juga memerlukan pengumpulan beberapa model menjadi satu model “akhir”.

Algoritma machine learning bukan algoritma universal: setiap algoritma memiliki berbagai hiperparameter yang harus dikonfigurasi agar model sesuai dengan skenario dan kumpulan data spesifik yang akan dioperasikan di dalamnya. Sebagai analogi, pertimbangkan piza: "algoritma" dasar untuk membuat piza dapat ditetapkan sebagai menyendok saus tomat di atas adonan bundar, menempatkan keju mozzarella di atas saus tersebut, dan memanggangnya dalam oven—tetapi cara "algoritma" dapat dikonfigurasi secara khusus untuk mengakomodasi rasa, bahan, anggaran, atau batasan tertentu nyaris tidak terbatas.

Gabungan Para Pakar | 28 Agustus, episode 70

Decoding AI: Rangkuman Berita Mingguan

Bergabunglah dengan panel insinyur, peneliti, pemimpin produk, dan sosok kelas dunia lainnya selagi mereka mengupas tuntas tentang AI untuk menghadirkan berita dan insight terbaru seputar AI.

Algoritma pembelajaran yang diawasi

Tujuan formal dari setiap algoritma machine learning diawasi adalah untuk mengoptimalkan parameter model dengan cara meminimalkan output dari fungsi tingkat kesalahan yang mengukur perbedaan ("kesalahan") antara prediksi output model untuk setiap input dan output kebenaran dasar untuk masing-masing input tersebut.

Dalam pembelajaran diawasi konvensional, kebenaran dasar tersebut disediakan oleh data berlabel. Misalnya, melatih model yang mendeteksi email spam biasanya memerlukan anotator manusia untuk meninjau kumpulan contoh email secara manual dan memberi label “SPAM” atau “BUKAN SPAM” pada tiap email. Tujuan melatih model adalah untuk menyesuaikan parameter model hingga prediksi output model untuk email tertentu secara konsisten selaras dengan bagaimana manusia memberi label pada email tersebut. Karena metode ini memerlukan pengawasan langsung manusia terhadap apa yang dipelajari mesin, ini disebut pembelajaran “diawasi”. Pada gilirannya, pembelajaran diawasi sering kali didefinisikan secara sederhana sebagai machine learning yang menggunakan data berlabel.

Tetapi, beberapa contoh, terutama dalam pembelajaran mendalam modern, memerlukan kumpulan data yang begitu besar dan titik data kompleks sehingga memperoleh data pelatihan berlabel yang memadai menjadi terhalang karena membutuhkan banyak waktu dan tenaga. Pembelajaran diawasi sendiri, yang sebagian besar dikembangkan untuk mengatasi skenario seperti itu, merancang tugas pelatihan sedemikian rupa sehingga label (atau "label semu") dapat disimpulkan dari data tidak berlabel. Ini membebani definisi konvensional pembelajaran diawasi karena membutuhkan data berlabel. Oleh karena itu, algoritma pembelajaran diawasi lebih baik dan lebih luas didefinisikan sebagai metode machine learning yang melibatkan kebenaran dasar (atau “sinyal pengawasan”) yang mendasari pengoptimalannya dan fungsi tingkat kesalahan yang membandingkan output dengan kebenaran dasar.

Algoritma pembelajaran diawasi digunakan untuk melatih model untuk tugas klasifikasi, regresi, atau keduanya.

  • Klasifikasi memerlukan prediksi diskret, seperti kategori tertentu di mana sebuah titik data termasuk di dalamnya. Tugas klasifikasi dapat berupa biner—"ya" atau "tidak", "setujui" atau "tolak", "spam" atau "bukan spam"atau beberapa kelas .Beberapa algoritma klasifikasi hanya cocok untuk klasifikasi biner, tetapi pengklasifikasi beberapa kelas apa pun dapat melakukan klasifikasi biner.

  •  Regresi digunakan untuk memprediksi nilai kontinu, seperti jumlah, harga, durasi, atau suhu. Mereka digunakan dalam berbagai contoh penggunaan, di antaranya analisis deret waktu, perkiraan, prediksi harga dan probabilitas.

Banyak algoritma pembelajaran diawasi dapat digunakan untuk melatih model untuk regresi atau klasifikasi. Misalnya, model dapat menggunakan regresi untuk memprediksi probabilitas bahwa titik data tertentu termasuk dalam setiap kategori potensial, kemudian menghasilkan kategori dengan probabilitas tertinggi.

Algoritma regresi umum

  • Regresi linier adalah salah satu algoritma machine learning dasar dan banyak digunakan. Algoritma regresi linier menghitung output (variabel dependen) sebagai kombinasi tertimbang dari satu atau lebih variabel input (variabel independen). Dengan mempelajari pembobotan optimal untuk setiap variabel input, algoritma ini menghasilkan "garis kecocokan terbaik" untuk titik-titik data yang terlihat dalam pelatihan. Terdapat beragam varian dan perluasan dari regresi linier yang menggunakan logika yang sama untuk memodelkan hubungan yang lebih bervariasi secara matematis antara variabel dependen dan independen, seperti regresi polinomial (yang memodelkan hubungan nonlinier dan melengkung) atau regresi kuantil (yang memodelkan hubungan pada titik-titik tertentu dalam distribusi kumpulan data).

  • Struktur keputusan algoritma mencapai prediksi output akhir melalui urutan percabangan keputusan jika-maka-lalu yang dapat divisualisasikan sebagai diagram seperti pohon. Mereka dapat digunakan untuk regresi dan klasifikasi. Tidak seperti pada kebanyakan algoritma pembelajaran diawasi, tujuan dari algoritma ini bukan untuk mengoptimalkan outputnya dengan meminimalkan satu fungsi tingkat kesalahan global, melainkan untuk mengoptimalkan kekuatan prediksi setiap node percabangan pohon.

  • Model ruang keadaan (SSM) memodelkan sistem dinamis dan data sekuensial melalui dua persamaan yang saling terkait: satu, persamaan keadaan, menjelaskan dinamika internal ("keadaan") dari suatu sistem yang tidak dapat diamati secara langsung; persamaan lain, persamaan output, menjelaskan bagaimana dinamika internal tersebut berhubungan dengan hasil yang dapat diamati—yaitu, output sistem. Mereka digunakan di berbagai bidang, dari teknik elektro, perkiraan keuangan ,hingga pemrosesan bahasa alami (NLP).

Algoritma klasifikasi umum

  • Pengklasifikasi Naïve Bayes beroperasi berdasarkan logika Teorema Bayes yang pada dasarnya merupakan formulasi matematis dari gagasan bahwa informasi dari peristiwa selanjutnya (seperti hasil) dapat digunakan untuk memperbarui pemahaman tentang peristiwa sebelumnya (seperti input). Dengan kata lain, model ini mempelajari kepentingan relatif dari variabel input tertentu berdasarkan seberapa kuat variabel tersebut berkorelasi dengan hasil tertentu. Asumsi eponim "naif" pada model ini adalah bahwa semua fitur yang berkontribusi pada klasifikasi tidak bergantung satu sama lain. Penyederhanaan ini membuat algoritma ini bekerja cepat dan efektif untuk tugas sederhana seperti deteksi spam.

  • Regresi logistik mengadaptasi algoritma regresi linier untuk memecahkan masalah klasifikasi biner dengan memasukkan jumlah tertimbang dari fitur input ke dalam fungsi sigmoid, yang menekan input apa pun menjadi nilai antara 0 dan 1. Nilai yang dihasilkan dapat ditafsirkan sebagai probabilitas terjadinya kejadian tertentu, dalam hal ini klasifikasi tertentu.

  • Algoritma K-nearest neighbor (KNN) mengklasifikasikan titik data berdasarkan kedekatannya dalam ruang penanaman vektor ke titik data lain yang sudah diklasifikasikan, yaitu titik data berlabel, dengan asumsi bahwa titik data yang serupa dapat ditemukan di dekat satu sama lain. K merujuk pada berapa banyak titik data tetangga yang dipertimbangkan: misalnya, dalam algoritma KNN di mana k = 5, titik data input akan dibandingkan dengan 5 tetangga terdekatnya dan diklasifikasikan berdasarkan kategori mana yang paling banyak diwakili di antara 5 titik data yangn berdekatan tersebut.

  • Mesin vektor pendukung (SVM) adalah model efektif yang seolah-olah melakukan klasifikasi biner, tetapi juga dapat diadaptasi untuk masalah klasifikasi multikelas. Tujuan algoritma SVM bukanlah untuk secara langsung mempelajari cara mengategorikan titik data: sebaliknya, tujuannya adalah untuk mempelajari batas keputusan optimal untuk memisahkan dua kategori titik data berlabel, untuk kemudian mengklasifikasikan titik data baru sesuai dengan di sisi batas mana mereka berada. Algoritma SVM mendefinisikan batas ini sebagai hyperplane yang memaksimalkan margin (atau kesenjangan) antara titik data dari kelas yang berlawanan, sebuah konsep yang mirip dengan asumsi kepadatan rendah dalam pembelajaran agak diawasi. Berdasarkan logika, satu-satunya titik data yang dapat mendukung komputasi hyperplane tersebut adalah titik data dari setiap kelas yang berada paling dekat dengan batas. Oleh karena itu, penanaman vektor dari titik-titik data yang berdekatan dengan batas tersebut disebut vektor pendukung.

Algoritma pembelajaran diawasi sendiri

Tujuan dari algoritma pembelajaran diawasi sendiri adalah untuk melakukan pembelajaran diawasi tanpa memerlukan data berlabel dengan merancang tugas yang menggunakan struktur data tidak berlabel itu sendiri untuk sinyal pengawasan. Teknik pembelajaran diawasi sendiri pada umumnya terbagi menjadi salah satu dari dua bagian: prediksi mandiri atau pembelajaran kontrastif.

Prediksi mandiri

Algoritma prediksi mandiri melatih sebuah model untuk memprediksi satu aspek dari sebuah titik data ketika diberikan informasi lain tentang titik data tersebut. Yann LeCun mengartikulasikan tujuan dari metode tersebut secara sederhana: "Anggap saja ada bagian dari input yang tidak Anda ketahui dan prediksikan hal itu."1 Sebagai contoh:

  • Memprediksi bagian mana pun dari input dari bagian lain
  • Memprediksi masa depan dari masa lalu
  • Memprediksi data yang tertutup (masked) dari yang terlihat
  • Memprediksi bagian yang teroklusi dari semua bagian yang tersedia

Model yang dilatih menggunakan prediksi mandiri biasanya bersifat generatif, bukan diskriminatif. Contoh jelas model machine learning yang dilatih menggunakan algoritma prediksi mandiri antara lain adalah autoencoder dan model bahasa besar (LLM):

  • Autoencoder ditugaskan untuk merekonstruksi input asli setelah mengompresnya menjadi variabel latennya saja. Input asli berfungsi sebagai kebenaran dasar.

  • LLM autoregresif, model penghasil teks yang menjadi terkenal setelah peluncuran ChatGPT, bertugas memprediksi token berikutnya secara berulang dalam sebuah urutan, dengan hanya memberikan token sebelumnya dalam urutan tersebut. Untuk setiap prediksi, token berikutnya yang sebenarnya dalam urutan berfungsi sebagai kebenaran dasar.

Pembelajaran kontrastif

Algoritma pembelajaran kontras memberikan model beberapa sampel data dan menugaskannya untuk memprediksi seberapa berbeda (atau serupa) sampel data tersebut. Pasangan titik data sering kali dibuat melalui augmentasi data: mengubah atau mengecoh data tidak berlabel untuk membuat instans baru atau tampilan yang ditingkatkan. Sebagai contoh, teknik augmentasi yang umum untuk data gambar termasuk rotasi, pemangkasan acak, pembalikan, menambahkan data acak, pemfilteran, dan pewarnaan.

Pembelajaran kontrastif digunakan secara mencolok dalam pelatihan model visi komputer: misalnya, pembelajaran ini dapat membantu model belajar mengenali objek yang sama ketika dilihat dari sudut yang berbeda. Ini juga penting dalam pelatihan AI multimodal: misalnya, pembelajaran ini dapat membantu model belajar untuk “menerjemahkan” penanaman vektor dari satu modalitas data (seperti teks) ke modalitas data lain (seperti ucapan atau gambar).

Algoritma pembelajaran tanpa pengawasan

Machine learning digunakan untuk mengajarkan model menemukan pola intrinsik, korelasi, dan struktur dalam data yang tidak berlabel. Tidak seperti pembelajaran diawasi yang mensyaratkan adanya jawaban "benar" yang harus dipelajari oleh model untuk dihasilkan sebagai output, atau pembelajaran penguatan yang memerlukan spektrum tindakan "baik" dan "buruk" yang dapat dilakukan oleh model, pembelajaran tanpa pengawasan sangat berguna dalam skenario di mana output yang ideal tidak diketahui sebelumnya.

Semua tujuan ini tidak diatur oleh kebenaran dasar atau struktur imbalan yang telah ditentukan sebelumnya, karena itulah bersifat “tidak diawasi.” Oleh karena itu, algoritma pembelajaran tanpa pengawasan tidak melibatkan fungsi tingkat kesalahan karena tugas mereka tidak memerlukan output ideal yang diketahui yang mendasari pengukuran dan pengoptimalan. Keberhasilan proses pembelajaran diatur terutama oleh penyetelan hiperparameter secara manual, bukan melalui algoritma yang mengoptimalkan parameter internal model.

Ada tiga bagian mendasar dari algoritma pembelajaran tanpa pengawasan: algoritma klaster, algoritma asosiasi, dan algoritma pengurangan dimensi.

Algoritma pengelompokan

Algoritma klaster membagi titik data tidak berlabel menjadi “klaster” atau pengelompokan berdasarkan kedekatan atau kesamaan satu sama lain untuk berbagai tugas seperti segmentasi pasar. Mereka juga dapat digunakan sebagai model prediktif untuk deteksi anomali dengan mempelajari klaster di mana semua titik data seharusnya disortir ke dalamnya dan mengidentifikasi kapan titik data outlier tidak cocok dengan salah satu klaster tersebut.

  • Algoritma klaster k rata-rata membagi data ke dalam k klaster dalam titik data tertentu yang akan ditetapkan ke klaster yang pusatnya(centroid) berada paling dekat dengannya. Proses ini dimulai dengan penempatan awal k centroid yang sering kali diacak (tetapi juga dapat ditentukan oleh aturan tertentu). Setiap titik data ditetapkan ke klaster dari centroid terdekat. Setiap centroid kemudian dipindahkan ke posisi yang mewakili rata-rata (mean) dari semua titik data yang baru saja ditetapkan padanya; titik-titik data dikelompokkan lagi menurut centroid terdekat dan posisi setiap centroid kembali disesuaikan. Proses ini dilakukan berulang kali hingga lokasi centroid setiap klaster stabil.
  • Model campuran Gaussian (GMM) adalah algoritma pengelompokan “lunak”. GMM mengasumsikan bahwa kumpulan data adalah campuran dari beberapa distribusi Gaussian—yaitu, “normal " atau “kurva lonceng” klasik, dan memprediksi probabilitas bahwa titik data tertentu termasuk dalam masing-masing klaster yang terdistribusi secara normal tersebut. Algoritma GMM dirancang untuk mempelajari parameter untuk setiap distribusi Gaussian, khususnya rata-rata, varians, dan bobot setiap distribusi, yang paling sesuai dengan kumpulan data pelatihan.
  • DBSCAN (Density-Based Spatial Clustering Aplikasi with Noise) menciptakan klaster dari titik data yang dikumpulkan bersama dengan berdekatan. Alih-alih mengelompokkan semua titik data ke dalam klaster, metode ini menandai titik data yang berada sendirian di wilayah dengan kepadatan rendah sebagai outlier. Metode ini mengidentifikasi area yang cukup padat sebagai bagian dari suatu klaster berdasarkan apakah sejumlah titik data yang berdekatan terletak dalam radius tertentu. Tidak seperti rata-rata k, DBSCAN dapat menemukan klaster yang berbentuk acak dan tidak membutuhkan jumlah klaster yang ditentukan sebelumnya.

Algoritma asosiasi

  • Algoritma asosiasi mengidentifikasi korelasi antara variabel dalam kumpulan data besar. Algoritma ini digunakan secara menonjol dalam berbagai tugas seperti analisis keranjang pasar atau mesin rekomendasi produk: misalnya, layanan e-commerce mungkin menggunakan algoritma asosiasi untuk mengidentifikasi kombinasi item apa saja yang sering dibeli dan menggunakan informasi tersebut untuk secara dinamis mempromosikan item terkait dalam inventaris mereka.

  • Algoritma apriori adalah metode asosiasi klasik. Algoritma membuat beberapa lintasan di atas kumpulan data menggunakan pendekatan "bawah ke atas", mengeksplorasi frekuensi kombinasi item yang jumlahnya semakin besar serta kombinasi item yang berkurang jumlahnya dan jarang muncul. Prinsip apriori menyatakan bahwa jika pengelompokan item yang lebih besar dianggap sering, subset mana pun dari pengelompokan tersebut juga harus sering; sebaliknya, jika pengelompokan item yang lebih kecil dianggap jarang, maka setiap superset yang termasuk dalam pengelompokan yang lebih kecil tersebut juga harus jarang. Meskipun sederhana dan sangat mudah beradaptasi, algoritma apriori dapat menggunakan sangat banyak memori dan mahal secara komputasi.

  • Penghitungan set item dinamis (DIC) adalah metode asosiasi yang lebih efisien dalam hal komputasi, meskipun metode ini beroperasi melalui logika yang mirip dengan algoritma apriori klasik. Alih-alih menjelajahi seluruh kumpulan data dengan setiap siklus, metode ini hanya dimulai dengan subset dari basis data dan kemudian secara berkala menambahkan item baru, yang memperluas fokusnya “secara dinamis”.

Algoritma asosiasi terkenal lainnya termasuk CHARM (kependekan dari Closed Association Rule Mining—penulis makalah CHARM mencatat bahwa "Huruf H tidak berarti")2 dan CARMA (Continuous Association Rule Mining Algorithm).3

Algoritma pengurangan dimensi

Algoritma pengurangan dimensi dirancang untuk mengambil titik data dan menghasilkan representasi yang lebih efisien dari titik data tersebut. Lebih khusus lagi, mereka dirancang untuk mempelajari pemetaan titik data berdimensi tinggi ke ruang di mana mereka dapat dijelaskan secara akurat menggunakan lebih sedikit fitur: dengan kata lain, untuk mengurangi jumlah dimensi yang diperlukan untuk merepresentasikan data secara efektif.

Pengurangan dimensi sering dilakukan sebagai langkah prapemrosesan data, membantu mengurangi kompleksitas dan ketidakakuratan dalam data untuk meningkatkan prediksi atau mengurangi kebutuhan komputasi. Ini juga merupakan langkah penting dalam pemodelan ruang laten kumpulan data: representasi data yang dikompresi (berdimensi lebih rendah) yang hanya mempertahankan subset fitur yang paling relevan dengan tugas yang dihadapi. Contoh penggunaan pengurangan dimensi lain yang umum termasuk kompresi data dan visualisasi data.

  • Analisis komponen utama (PCA) menyederhanakan kumpulan data yang kompleks dengan meringkas variabel asli data—kebanyakan di antaranya sering kali berkorelasi satu sama lain dan dengan demikian agak berlebihan—sebagai subset yang lebih kecil dari variabel yang tidak berkorelasi, yang masing-masing merupakan kombinasi linier dari variabel asli. Lebih khusus lagi, algoritma ini memprioritaskan komponen utama data: kombinasi linier dari variabel yang memiliki varians paling banyak dibandingkan dengan kombinasi linier lainnya.

  • t-distributed Stochastic Neighbor Embedding (t-SNE) adalah algoritma reduksi dimensi nonlinier yang biasa digunakan untuk tujuan visualisasi data. Penggunaannya nyaris eksklusif, hanya untuk merepresentasikan data dalam 2 atau 3 dimensi, dengan tujuan utama untuk memastikan bahwa titik-titik data yang berdekatan satu sama lain dalam ruang berdimensi tinggi tetap berdekatan satu sama lain dalam ruang berdimensi rendah yang baru.

  • Autoencoder adalah jenis arsitektur jaringan neural networks encoder-decoder yang dilatih melalui apa yang mungkin lebih sering dianggap sebagai algoritma pembelajaran diawasi mandiri (karena tujuannya adalah untuk meminimalkan fungsi tingkat kesalahan)—tetapi mereka tetap melakukan pengurangan dimensi pada data tidak berlabel, dalam hal ini memodelkan ruang latennya. Encoder terdiri dari serangkaian lapisan yang semakin lama semakin kecil, memaksa data input untuk melewati "penyempitan" yang "memeras" data menjadi dimensi yang semakin mengecil sebelum mencapai decoder. Dekoder, yang terdiri dari serangkaian lapisan yang semakin besar, kemudian ditugaskan untuk merekonstruksi data asli menggunakan representasi terkompresi ini, dengan tujuan meminimalkan kesalahan rekonstruksi. Hal ini memaksa encoder untuk belajar mengekstrak dan hanya melewatkan informasi yang paling kondusif untuk merekonstruksi input asli secara akurat.

Algoritma pembelajaran dengan pengawasan sebagian

Pembelajaran agak diawasi yang umumnya digunakan untuk contoh penggunaan yang sama dengan metode pembelajaran diawasi, berbeda dalam teknik yang digunakan untuk memasukkan data tidak berlabel ke dalam pelatihan model beserta subset data berlabel. Mereka sangat berguna dalam situasi di mana mendapatkan data berlabel yang memadai terhalang karena sulit atau mahal, tetapi data tidak berlabel yang relevan relatif mudah diperoleh.

Contoh tak berlabel yang digunakan dalam pembelajaran agak diawasi harus relevan dengan tugas yang dilatih untuk dilakukan oleh model. Sebagai contoh, ketika melatih pengklasifikasi gambar untuk membedakan antara gambar kucing dan anjing, penyertaan gambar kucing dan anjing tidak berlabel akan membantu pelatihan—tetapi tidak demikian dengan gambar kuda dan sepeda motor. Kondisi ini menginformasikan serangkaian asumsi tentang bagaimana titik data berhubungan satu sama lain yang memberikan logika formal metode agak diawasi.

Algoritma pembelajaran agak diawasi umumnya dikategorikan sebagai transduktif, induktif, atau secara inheren diawasi sendiri.

  • Metode transduktif berfokus pada klasifikasi titik-titik data tidak berlabel yang tersedia selama pelatihan sehingga selanjutnya dapat diterapkan pada algoritma pembelajaran diawasi yang konvensional. Propagasi label, misalnya, adalah metode berbasis grafik yang menyimpulkan "label semu" untuk data tidak berlabel dengan "membiakkan" label yang diketahui ke titik data yang berada pada node yang berdekatan pada grafik.

  • Metode induktif bertujuan untuk membangun model yang dapat digeneralisasi yang dapat mengklasifikasikan data tidak berlabel yang ada selama pelatihan serta titik data baru yang tidak terlihat. Dalam pelatihan mandiri, sebuah model pertama-tama dilatih dengan pembelajaran diawasi konvensional pada kumpulan data berlabel kecil; model tersebut kemudian ditugaskan untuk membuat prediksi probabilistik tentang titik-titik data tidak berlabel; hanya prediksi di atas ambang batas kepercayaan tertentu yang diterima. Pelatihan bersama memperluas pelatihan mandiri dengan pembelajaran ensambel, melatih berbagai jenis pelajar dasar pada fitur data yang berbeda. Metode klaster lalu pelabelan melakukan pengelompokan tidak diawasi pada semua titik data yang tersedia, kemudian memberikan label pada setiap klaster berdasarkan pada label mana yang paling sering diwakili dalam klaster tersebut.

  • Beberapa algoritma, seperti jaringan tangga4 atau mesin vektor pendukung agak diawasi (S3VM)5 secara inheren didesain untuk pembelajaran agak diawasi (sedangkan metode transduktif dan induktif mengadaptasi atau menambahkan langkah tambahan pada algoritma diawasi konvensional).

Algoritma pembelajaran penguatan

Algoritma pembelajaran penguatan (RL) cocok untuk tugas di mana tidak ada satu output (atau tindakan) “benar”, tetapi terdapat output yang “baik”. Mereka terutama digunakan dalam robotika, video game, model penalaran, dan contoh penggunaan lainnya di mana ruang solusi dan pendekatan yang mungkin sangat besar, terbuka, atau sulit untuk ditetapkan. Dalam jargon RL, entitas yang dilatih biasanya disebut sebagai “agen.”

Alih-alih sinyal pengawasan dan tugas yang didefinisikan secara eksplisit, mereka memerlukan sinyal imbalan yang memungkinkan model untuk belajar secara holistik melalui uji coba dan kesalahan. Sinyal imbalan itu dapat berasal dari fungsi imbalan, model imbalan yang dilatih secara terpisah, atau sistem imbalan berbasis aturan.

Algoritma RL mengoptimalkan sebuah kebijakan. Secara matematis, kebijakan (π) adalah sebuah fungsi yang mengambil sebuah keadaan (s) sebagai input dan menghasilkan sebuah tindakan ( a ):   π(s)→a. Tujuan dari algoritma RL adalah untuk mempelajari kebijakan yang mengambil tindakan yang akan menghasilkan imbalan maksimum untuk setiap keadaan tertentu.

Algoritma RL dapat berbasis nilai atau berbasis kebijakan. Dalam algoritma berbasis kebijakan, model mempelajari kebijakan optimal secara langsung. Dalam algoritma berbasis nilai, agen mempelajari fungsi nilai yang menghitung skor seberapa "baik" setiap keadaan—biasanya berdasarkan potensi imbalan untuk tindakan yang dapat diambil dari keadaan tersebut—kemudian memilih tindakan yang mengarah ke keadaan yang bernilai lebih tinggi. Pendekatan hybrid mempelajari fungsi nilai yang pada gilirannya digunakan untuk mengoptimalkan kebijakan.

Algoritma penguatan penting meliputi:

  • Q-learning berasal dari metode berbasis nilai

  • Optimasi kebijakan proksimal (PPO), metode berbasis kebijakan yang digunakan terutama dalam pembelajaran penguatan dari masukan manusia (RLHF)
    Aktor-kritik dan turunannya seperti aktor-kritik keunggulan (A2C) yang menggunakan gabungan metode berbasis nilai dan kebijakan

  • REINFORCE (kependekan dari REward Increment = Nonnegative Factor × Offset Reinforcement × Characteristic Eligibility), sebuah metode berbasis kebijakan yang inovatif

Algoritma pembelajaran ensambel

Pembelajaran ensambel mengacu pada teknik yang menggabungkan beberapa algoritma machine learning—sering disebut sebagai “pelajar” dalam konteks ini—untuk mencapai kinerja yang lebih akurat atau lebih andal daripada yang mungkin dicapai melalui salah satu algoritma penyusunnya saja.

Algoritma pembelajaran ensambel biasanya menggunakan teknik boosting, stacking, atau bagging .

Boosting

Algoritma boosting membangun model secara berurutan, di mana setiap model baru berikutnya dilatih untuk memperbaiki kesalahan model sebelumnya. Perkembangan pelajar yang awalnya "lemah" akhirnya berujung pada satu pelajar "kuat" yang sangat akurat.

  • Adaptive boosting (AdaBoost) memberikan lebih banyak bobot pada instans yang pada awalnya salah diklasifikasikan oleh model sebelumnya, memastikan bahwa pembaruan pada model berikutnya memprioritaskan peningkatan kinerja pada contoh pelatihan tersebut. Prediksi akhir ditentukan oleh suara mayoritas tertimbang, di mana model lebih akhir yang lebih akurat memiliki pengaruh lebih besar terhadap output akhir.

  • Gradient boosting berfokus pada kesalahan yang dibuat oleh pelajar sebelumnya, bukan pada titik data di mana model sebelumnya melakukan kesalahan. Lebih khusus lagi, metode ini melatih setiap model untuk mengoreksi—yaitu memprediksi—kesalahan yang dibuat oleh model sebelumnya pada titik data tertentu. Dengan menggabungkan prediksi dari setiap model berikutnya, ensambel pada akhirnya dapat merekayasa balik output yang benar untuk titik data asli. XGBoost (kependekan dari eXtreme Gradient Boosting) adalah pustaka machine learning sumber terbuka untuk implementasi peningkatan gradien yang efisien.

Bagging

Algoritma bagging, dikenal juga sebagai agregasi bootstrap, melatih beberapa model secara paralel pada subset sampel acak yang berbeda dari kumpulan data pelatihan, kemudian menggabungkan prediksi mereka melalui pemungutan suara (dalam masalah klasifikasi) atau rata-rata (dalam masalah regresi). Pendekatan ini sangat efektif dalam mengurangi varians dan mencegah overfitting.

Algoritma random forest , misalnya, menggunakan bagging untuk membangun ensambel model struktur keputusan yang tidak berkorelasi.

Stacking

Algoritma stacking menggabungkan prediksi dari beberapa pelajar dasar—yang masing-masing sering mengkhususkan diri dalam jenis prediksi tertentu—kemudian melatih "meta-model" akhir pada output model dasar ini untuk mempelajari cara terbaik menggabungkan prediksi mereka untuk output akhir yang lebih akurat dan kuat.

Dalam teknik distilasi pengetahuan yang terkait, model akhir dilatih tidak hanya pada prediksi output akhir ("target keras") dari pelajar dasar, tetapi juga pada output perantara ("logit" atau "target lunak"), dalam upaya untuk mereplikasi "proses berpikir" mereka.

Algoritma pembelajaran mendalam

Pembelajaran mendalam adalah subset dari machine learning yang ditentukan oleh penggunaan neural networks buatan berlapis, biasanya dilatih melalui pembelajaran diawasi pada data berlabel atau (seperti yang sering terjadi terutama pada model AI generatif) melalui pembelajaran diawasi sendiri pada data tidak berlabel. Dalam pembelajaran penguatan mendalam, neural networks mendalam berfungsi sebagai kebijakan agen RL. Pembelajaran mendalam telah mendorong kemajuan paling canggih dalam kecerdasan buatan sejak awal 2010-an. Di antara kekuatannya yang paling penting adalah kemampuan untuk mengotomatiskan proses rekayasa fitur, yang sering kali dilakukan secara manual dalam machine learning tradisional.

Tidak seperti algoritma machine learning “tradisional” yang didefinisikan secara eksplisit, model pembelajaran mendalam terdiri dari banyak lapisan “neuron” (atau “node”) yang saling berhubungan, yang masing-masing melakukan operasi matematika (disebut “fungsi aktivasi”). Input ke fungsi aktivasi setiap neuron adalah kombinasi tertimbang dari output fungsi aktivasi masing-masing neuron dari lapisan sebelumnya. Neuron di lapisan terakhir menghitung output akhir model. Yang terpenting, fungsi aktivasi yang dilakukan di setiap node bersifat nonlinier, memungkinkan neural networks untuk memodelkan pola dan dependensi yang kompleks. Meskipun neural networks dalam AI modern paling sering dikaitkan dengan pembelajaran mendalam canggih, neural networks yang "tidak mendalam" seperti mesin Boltzmann terbatas telah digunakan selama beberapa dekade.

Ini adalah struktur terdistribusi dari algoritma pembelajaran mendalam yang memberikan kekuatan dan keserbagunaan yang luar biasa. Bayangkan data pelatihan sebagai titik data yang tersebar pada grafik 2 dimensi, dan tujuan pelatihan model adalah menemukan garis yang melewati tiap titik data tersebut. Sementara algoritma machine learning tradisional mencoba fitur ini dengan satu fungsi matematika yang menghasilkan satu garis (atau kurva), algoritma pembelajaran mendalam dapat menyatukan sejumlah acak garis yang lebih kecil dan dapat disesuaikan secara terpisah untuk membuat bentuk yang diinginkan. Neural networks mendalam adalah aproksimator universal: telah terbukti secara teoretis bahwa untuk fungsi apa pun terdapat susunan neural networks yang dapat mereproduksinya.6

Arsitektur vs algoritma

  • Dalam konteks pembelajaran mendalam, jenis model tertentu sering disebut dengan "arsitektur" mereka, sebuah konsep yang terkait tetapi berbeda dengan algoritma.

  • Arsitektur neural networks mengacu pada tata letaknya: jumlah dan ukuran lapisan; penggunaan lapisan khusus; pilihan fungsi aktivasi. Arsitektur neural networks yang sama sering kali dapat dilatih untuk melakukan salah satu dari beberapa jenis tugas atau memproses salah satu dari beberapa modalitas data.

  • Algoritma pembelajaran mendalam tidak hanya terdiri dari arsitektur neural networks yang digunakan untuk sebuah model, tetapi juga tugas yang dilatih untuk dilakukan model dan langkah-langkah yang diambil guna mengoptimalkan model untuk tugas tersebut.

Pertimbangkan autoencoder: dari segi arsitektur, autoencoder adalah model encoder-decoder —jaringan encoder-nya memiliki lapisan yang semakin kecil, sedangkan jaringan decoder-nya memiliki lapisan yang semakin besar. Tetapi autoencoder hanyalah salah satu dari banyak model encoder-decoder: misalnya, model segmentasi gambar memiliki arsitektur yang sangat mirip, di mana lapisan konvolusional yang semakin mengecil menurunkan jumlah sampel data untuk mengisolasi dan membagi fitur-fitur utama, diikuti oleh lapisan yang semakin membesar yang menambahkan jumlah sampel data (terbagi) agar kembali ke ukuran aslinya.

Apa yang menjadikan autoencoder sebuah autoencoder bukanlah (hanya) arsitekturnya, tetapi algoritma yang digunakan untuk melatihnya: autoencoder ditugaskan untuk merekonstruksi input asli, dan dioptimalkan melalui pelatihan model untuk meminimalkan fungsi yang mengukur kesalahan rekonstruksi (sering dimodifikasi dengan parameter regularisasi tambahan). Model dengan arsitektur identik tetapi dilatih untuk melakukan tugas berbeda dan dioptimalkan untuk tujuan berbeda bukanlah autoencoder.

Solusi terkait
IBM watsonx.ai

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Temukan watsonx.ai
Solusi kecerdasan buatan (AI)

Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.

Jelajahi solusi AI
Konsultasi dan layanan AI

Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.

Jelajahi layanan AI
Ambil langkah selanjutnya

Dapatkan akses satu atap ke kemampuan yang mencakup siklus hidup pengembangan AI. Hasilkan solusi AI yang kuat dengan antarmuka ramah pengguna, alur kerja yang efisien, serta akses ke API dan SDK berstandar industri.

Jelajahi watsonx.ai Pesan demo langsung
Catatan kaki

Semua tautan berada di luar IBM.com. 
1. “Energy-Based Self-Supervised Learning,” Yann LeCun (diakses melalui UCLA), 19 November 2019
2. “CHARM: An Efficient Algorithm for Closed Itemset Mining,” Prosiding Konferensi Internasional SIAM 2002 tentang Penambangan Data
3. “Online Association Rule Mining,” Prosiding Konferensi Internasional ACM SIGMOD 1999 tentang Manajemen Data, 1 Juni 1999
4. “Semi-Supervised Learning with Ladder Networks,” arXiv, 24 November 2015
5. “Kolmogorov’s Mapping Neural Network Existence Theorem,” Prosiding Konferensi Internasional Pertama IEEE tentang Neural Networks (diakses melalui University of Waterloo)1987
6. “Multilayer Feedforward Networks with a Non-Polynomial Activation Function Can Approximate Any Function,” Center for Research on Information Systems (New York University), Maret 1992