Tren AI terbaru, dipersembahkan oleh para pakar
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Algoritma machine learning adalah prosedur dan logika matematika di mana “mesin”—sistem kecerdasan buatan (AI)—belajar mengidentifikasi pola dalam data pelatihan dan menerapkan pengenalan pola tersebut untuk membuat prediksi yang akurat pada data baru. Algoritma machine learning adalah fondasi mendasar dari AI modern dan ilmu data, mulai dari model regresi linier sederhana hingga teknik pembelajaran mendalam yang canggih.
Istilah “algoritma” dan “model” sering digunakan secara bergantian, tetapi mewakili konsep yang berbeda (meskipun terkait). Algoritma adalah istilah umum untuk proses langkah demi langkah, biasanya dijelaskan dalam bahasa matematika atau pseudocode, untuk melakukan beberapa fungsi atau tujuan. Dalam konteks kecerdasan buatan, model AI adalah program apa pun yang menerima data input dan mengeluarkan prediksi atau keputusan tanpa campur tangan manusia lebih lanjut.
Algoritma machine learning adalah serangkaian langkah yang ditetapkan yang digunakan untuk melatih model machine learning sehingga dapat membuat prediksi yang berguna dalam contoh penggunaan di dunia nyata. Ini tidak hanya terdiri dari cara model memetakan titik data input ke output yang sesuai, tetapi juga proses mengoptimalkan prediksi model untuk “menyesuaikan” dengan kumpulan data pelatihan dari contoh yang relevan. Ini adalah algoritma yang memungkinkan mesin untuk belajar dari data.
Secara sederhana, hasil dari penerapan algoritma machine learning ke kumpulan data adalah model yang terlatih. “Pelatihan” dapat dipahami sebagai proses berulang untuk memperbarui parameter model—aspek yang dapat disesuaikan dari logika matematis yang digunakan model untuk membuat prediksi atau keputusan tentang data input—dengan cara yang menghasilkan output yang lebih berguna.
Meskipun ada algoritma machine learning (ML) yang dirancang secara eksplisit untuk model pelatihan untuk melakukan satu tugas tertentu, itu hanyalah pengecualian dan bukan aturan. Secara umum, setiap algoritma ML memiliki kualitas matematis atau praktis tertentu yang berguna untuk jenis tugas tertentu (atau jenis atau jumlah data tertentu). Dalam banyak kasus, teknik machine learning yang sama dapat digunakan untuk melatih model untuk beberapa tugas (meskipun serupa). Sebaliknya, hampir selalu ada beberapa algoritma ML yang cocok untuk melatih model untuk tugas tertentu.
Manfaat utama dari algoritma ML adalah bahwa mereka memungkinkan model AI untuk belajar secara implisit dari pengalaman. Ini berbeda dengan teknik AI “klasik” atau “berbasis aturan”, yang membutuhkan ilmuwan data, pakar ahli, atau insinyur ML untuk memprogram logika pengambilan keputusan model secara manual dan eksplisit. Selama beberapa dekade terakhir, sistem machine learning telah muncul sebagai mode dominan kecerdasan buatan dan analisis data dibandingkan AI berbasis aturan karena, di antara alasan lainnya, machine learning yang berbasis data implisit secara inheren lebih fleksibel, dapat diskalakan, dan dapat diakses.
Karena itu, penting untuk dicatat bahwa menyesuaikan model dengan data pelatihannya hanyalah sarana untuk mencapai tujuan. Premis mendasar machine learning adalah bahwa jika Anda mengoptimalkan kinerja model pada tugas sampel yang cukup menyerupai masalah dunia nyata yang akan digunakan, model terlatih juga akan berkinerja baik pada data baru yang belum dilihatnya dalam pelatihan. Tujuan akhir dari machine learning adalah generalisasi, yaitu menerjemahkan kinerja pada data pelatihan ke data baru yang belum pernah dilihat sebelumnya. Sudut pandang sempit pada pelatihan itu sendiri berisiko overfitting, sebuah fenomena di mana pengetahuan model sangat disesuaikan dengan pola dalam data pelatihannya sehingga model tidak dapat membuat generalisasi, menghasilkan model yang unggul dalam pelatihan tetapi gagal dalam skenario dunia nyata.
Oleh karena itu, melatih model machine learning yang berguna tidak hanya memerlukan pemilihan dan konfigurasi jenis algoritma ML yang sesuai, tetapi juga kurasi data pelatihan yang tepat dan validasi kinerja setelah pelatihan yang penuh pertimbangan.
Dapatkan kurasi insight tentang berita AI yang paling penting dan menarik. Berlangganan buletin Think mingguan. Lihat Pernyataan Privasi IBM.
Algoritma machine learning dapat disortir ke dalam tiga kategori mendasar: pembelajaran diawasi, pembelajaran tanpa pengawasan, atau pembelajaran penguatan. Masing-masing paradigma pembelajaran ini dibedakan terutama berdasarkan tujuan yang berbeda, jenis tugas pelatihan yang dibutuhkan tujuan tersebut, dan teknik yang digunakan untuk mengoptimalkan kinerja pada tugas-tugas tersebut.
Meskipun tidak ada algoritma ML yang tidak sesuai dengan ketiga paradigma ini, ada beberapa metode pembelajaran yang kategorinya relatif ambigu. Misalnya, pembelajaran agak diawasi menggabungkan pembelajaran diawasi dan tanpa pengawasan; pembelajaran diawasi sendiri memanipulasi data input dan merancang tugas pelatihan dengan cara yang memungkinkan pembelajaran diawasi dengan data tidak berlabel.
Sebuah model dapat dilatih dengan lebih dari satu jenis algoritma machine learning. Misalnya, model bahasa besar (LLM) biasanya menjalani pelatihan awal mereka ("prapelatihan") melalui pembelajaran diawasi sendiri, tetapi kemudian disempurnakan melalui algoritma pembelajaran diawasi konvensional serta algoritma pembelajaran penguatan. Algoritma pembelajaran ensambel juga memerlukan pengumpulan beberapa model menjadi satu model “akhir”.
Algoritma machine learning bukan algoritma universal: setiap algoritma memiliki berbagai hiperparameter yang harus dikonfigurasi agar model sesuai dengan skenario dan kumpulan data spesifik yang akan dioperasikan di dalamnya. Sebagai analogi, pertimbangkan piza: "algoritma" dasar untuk membuat piza dapat ditetapkan sebagai menyendok saus tomat di atas adonan bundar, menempatkan keju mozzarella di atas saus tersebut, dan memanggangnya dalam oven—tetapi cara "algoritma" dapat dikonfigurasi secara khusus untuk mengakomodasi rasa, bahan, anggaran, atau batasan tertentu nyaris tidak terbatas.
Tujuan formal dari setiap algoritma machine learning diawasi adalah untuk mengoptimalkan parameter model dengan cara meminimalkan output dari fungsi tingkat kesalahan yang mengukur perbedaan ("kesalahan") antara prediksi output model untuk setiap input dan output kebenaran dasar untuk masing-masing input tersebut.
Dalam pembelajaran diawasi konvensional, kebenaran dasar tersebut disediakan oleh data berlabel. Misalnya, melatih model yang mendeteksi email spam biasanya memerlukan anotator manusia untuk meninjau kumpulan contoh email secara manual dan memberi label “SPAM” atau “BUKAN SPAM” pada tiap email. Tujuan melatih model adalah untuk menyesuaikan parameter model hingga prediksi output model untuk email tertentu secara konsisten selaras dengan bagaimana manusia memberi label pada email tersebut. Karena metode ini memerlukan pengawasan langsung manusia terhadap apa yang dipelajari mesin, ini disebut pembelajaran “diawasi”. Pada gilirannya, pembelajaran diawasi sering kali didefinisikan secara sederhana sebagai machine learning yang menggunakan data berlabel.
Tetapi, beberapa contoh, terutama dalam pembelajaran mendalam modern, memerlukan kumpulan data yang begitu besar dan titik data kompleks sehingga memperoleh data pelatihan berlabel yang memadai menjadi terhalang karena membutuhkan banyak waktu dan tenaga. Pembelajaran diawasi sendiri, yang sebagian besar dikembangkan untuk mengatasi skenario seperti itu, merancang tugas pelatihan sedemikian rupa sehingga label (atau "label semu") dapat disimpulkan dari data tidak berlabel. Ini membebani definisi konvensional pembelajaran diawasi karena membutuhkan data berlabel. Oleh karena itu, algoritma pembelajaran diawasi lebih baik dan lebih luas didefinisikan sebagai metode machine learning yang melibatkan kebenaran dasar (atau “sinyal pengawasan”) yang mendasari pengoptimalannya dan fungsi tingkat kesalahan yang membandingkan output dengan kebenaran dasar.
Algoritma pembelajaran diawasi digunakan untuk melatih model untuk tugas klasifikasi, regresi, atau keduanya.
Banyak algoritma pembelajaran diawasi dapat digunakan untuk melatih model untuk regresi atau klasifikasi. Misalnya, model dapat menggunakan regresi untuk memprediksi probabilitas bahwa titik data tertentu termasuk dalam setiap kategori potensial, kemudian menghasilkan kategori dengan probabilitas tertinggi.
Tujuan dari algoritma pembelajaran diawasi sendiri adalah untuk melakukan pembelajaran diawasi tanpa memerlukan data berlabel dengan merancang tugas yang menggunakan struktur data tidak berlabel itu sendiri untuk sinyal pengawasan. Teknik pembelajaran diawasi sendiri pada umumnya terbagi menjadi salah satu dari dua bagian: prediksi mandiri atau pembelajaran kontrastif.
Algoritma prediksi mandiri melatih sebuah model untuk memprediksi satu aspek dari sebuah titik data ketika diberikan informasi lain tentang titik data tersebut. Yann LeCun mengartikulasikan tujuan dari metode tersebut secara sederhana: "Anggap saja ada bagian dari input yang tidak Anda ketahui dan prediksikan hal itu."1 Sebagai contoh:
Model yang dilatih menggunakan prediksi mandiri biasanya bersifat generatif, bukan diskriminatif. Contoh jelas model machine learning yang dilatih menggunakan algoritma prediksi mandiri antara lain adalah autoencoder dan model bahasa besar (LLM):
Algoritma pembelajaran kontras memberikan model beberapa sampel data dan menugaskannya untuk memprediksi seberapa berbeda (atau serupa) sampel data tersebut. Pasangan titik data sering kali dibuat melalui augmentasi data: mengubah atau mengecoh data tidak berlabel untuk membuat instans baru atau tampilan yang ditingkatkan. Sebagai contoh, teknik augmentasi yang umum untuk data gambar termasuk rotasi, pemangkasan acak, pembalikan, menambahkan data acak, pemfilteran, dan pewarnaan.
Pembelajaran kontrastif digunakan secara mencolok dalam pelatihan model visi komputer: misalnya, pembelajaran ini dapat membantu model belajar mengenali objek yang sama ketika dilihat dari sudut yang berbeda. Ini juga penting dalam pelatihan AI multimodal: misalnya, pembelajaran ini dapat membantu model belajar untuk “menerjemahkan” penanaman vektor dari satu modalitas data (seperti teks) ke modalitas data lain (seperti ucapan atau gambar).
Machine learning digunakan untuk mengajarkan model menemukan pola intrinsik, korelasi, dan struktur dalam data yang tidak berlabel. Tidak seperti pembelajaran diawasi yang mensyaratkan adanya jawaban "benar" yang harus dipelajari oleh model untuk dihasilkan sebagai output, atau pembelajaran penguatan yang memerlukan spektrum tindakan "baik" dan "buruk" yang dapat dilakukan oleh model, pembelajaran tanpa pengawasan sangat berguna dalam skenario di mana output yang ideal tidak diketahui sebelumnya.
Semua tujuan ini tidak diatur oleh kebenaran dasar atau struktur imbalan yang telah ditentukan sebelumnya, karena itulah bersifat “tidak diawasi.” Oleh karena itu, algoritma pembelajaran tanpa pengawasan tidak melibatkan fungsi tingkat kesalahan karena tugas mereka tidak memerlukan output ideal yang diketahui yang mendasari pengukuran dan pengoptimalan. Keberhasilan proses pembelajaran diatur terutama oleh penyetelan hiperparameter secara manual, bukan melalui algoritma yang mengoptimalkan parameter internal model.
Ada tiga bagian mendasar dari algoritma pembelajaran tanpa pengawasan: algoritma klaster, algoritma asosiasi, dan algoritma pengurangan dimensi.
Algoritma klaster membagi titik data tidak berlabel menjadi “klaster” atau pengelompokan berdasarkan kedekatan atau kesamaan satu sama lain untuk berbagai tugas seperti segmentasi pasar. Mereka juga dapat digunakan sebagai model prediktif untuk deteksi anomali dengan mempelajari klaster di mana semua titik data seharusnya disortir ke dalamnya dan mengidentifikasi kapan titik data outlier tidak cocok dengan salah satu klaster tersebut.
Algoritma asosiasi terkenal lainnya termasuk CHARM (kependekan dari Closed Association Rule Mining—penulis makalah CHARM mencatat bahwa "Huruf H tidak berarti")2 dan CARMA (Continuous Association Rule Mining Algorithm).3
Algoritma pengurangan dimensi dirancang untuk mengambil titik data dan menghasilkan representasi yang lebih efisien dari titik data tersebut. Lebih khusus lagi, mereka dirancang untuk mempelajari pemetaan titik data berdimensi tinggi ke ruang di mana mereka dapat dijelaskan secara akurat menggunakan lebih sedikit fitur: dengan kata lain, untuk mengurangi jumlah dimensi yang diperlukan untuk merepresentasikan data secara efektif.
Pengurangan dimensi sering dilakukan sebagai langkah prapemrosesan data, membantu mengurangi kompleksitas dan ketidakakuratan dalam data untuk meningkatkan prediksi atau mengurangi kebutuhan komputasi. Ini juga merupakan langkah penting dalam pemodelan ruang laten kumpulan data: representasi data yang dikompresi (berdimensi lebih rendah) yang hanya mempertahankan subset fitur yang paling relevan dengan tugas yang dihadapi. Contoh penggunaan pengurangan dimensi lain yang umum termasuk kompresi data dan visualisasi data.
Pembelajaran agak diawasi yang umumnya digunakan untuk contoh penggunaan yang sama dengan metode pembelajaran diawasi, berbeda dalam teknik yang digunakan untuk memasukkan data tidak berlabel ke dalam pelatihan model beserta subset data berlabel. Mereka sangat berguna dalam situasi di mana mendapatkan data berlabel yang memadai terhalang karena sulit atau mahal, tetapi data tidak berlabel yang relevan relatif mudah diperoleh.
Contoh tak berlabel yang digunakan dalam pembelajaran agak diawasi harus relevan dengan tugas yang dilatih untuk dilakukan oleh model. Sebagai contoh, ketika melatih pengklasifikasi gambar untuk membedakan antara gambar kucing dan anjing, penyertaan gambar kucing dan anjing tidak berlabel akan membantu pelatihan—tetapi tidak demikian dengan gambar kuda dan sepeda motor. Kondisi ini menginformasikan serangkaian asumsi tentang bagaimana titik data berhubungan satu sama lain yang memberikan logika formal metode agak diawasi.
Algoritma pembelajaran agak diawasi umumnya dikategorikan sebagai transduktif, induktif, atau secara inheren diawasi sendiri.
Algoritma pembelajaran penguatan (RL) cocok untuk tugas di mana tidak ada satu output (atau tindakan) “benar”, tetapi terdapat output yang “baik”. Mereka terutama digunakan dalam robotika, video game, model penalaran, dan contoh penggunaan lainnya di mana ruang solusi dan pendekatan yang mungkin sangat besar, terbuka, atau sulit untuk ditetapkan. Dalam jargon RL, entitas yang dilatih biasanya disebut sebagai “agen.”
Alih-alih sinyal pengawasan dan tugas yang didefinisikan secara eksplisit, mereka memerlukan sinyal imbalan yang memungkinkan model untuk belajar secara holistik melalui uji coba dan kesalahan. Sinyal imbalan itu dapat berasal dari fungsi imbalan, model imbalan yang dilatih secara terpisah, atau sistem imbalan berbasis aturan.
Algoritma RL mengoptimalkan sebuah kebijakan. Secara matematis, kebijakan (π) adalah sebuah fungsi yang mengambil sebuah keadaan (s) sebagai input dan menghasilkan sebuah tindakan ( a ): π(s)→a. Tujuan dari algoritma RL adalah untuk mempelajari kebijakan yang mengambil tindakan yang akan menghasilkan imbalan maksimum untuk setiap keadaan tertentu.
Algoritma RL dapat berbasis nilai atau berbasis kebijakan. Dalam algoritma berbasis kebijakan, model mempelajari kebijakan optimal secara langsung. Dalam algoritma berbasis nilai, agen mempelajari fungsi nilai yang menghitung skor seberapa "baik" setiap keadaan—biasanya berdasarkan potensi imbalan untuk tindakan yang dapat diambil dari keadaan tersebut—kemudian memilih tindakan yang mengarah ke keadaan yang bernilai lebih tinggi. Pendekatan hybrid mempelajari fungsi nilai yang pada gilirannya digunakan untuk mengoptimalkan kebijakan.
Algoritma penguatan penting meliputi:
Pembelajaran ensambel mengacu pada teknik yang menggabungkan beberapa algoritma machine learning—sering disebut sebagai “pelajar” dalam konteks ini—untuk mencapai kinerja yang lebih akurat atau lebih andal daripada yang mungkin dicapai melalui salah satu algoritma penyusunnya saja.
Algoritma pembelajaran ensambel biasanya menggunakan teknik boosting, stacking, atau bagging .
Algoritma boosting membangun model secara berurutan, di mana setiap model baru berikutnya dilatih untuk memperbaiki kesalahan model sebelumnya. Perkembangan pelajar yang awalnya "lemah" akhirnya berujung pada satu pelajar "kuat" yang sangat akurat.
Algoritma bagging, dikenal juga sebagai agregasi bootstrap, melatih beberapa model secara paralel pada subset sampel acak yang berbeda dari kumpulan data pelatihan, kemudian menggabungkan prediksi mereka melalui pemungutan suara (dalam masalah klasifikasi) atau rata-rata (dalam masalah regresi). Pendekatan ini sangat efektif dalam mengurangi varians dan mencegah overfitting.
Algoritma random forest , misalnya, menggunakan bagging untuk membangun ensambel model struktur keputusan yang tidak berkorelasi.
Algoritma stacking menggabungkan prediksi dari beberapa pelajar dasar—yang masing-masing sering mengkhususkan diri dalam jenis prediksi tertentu—kemudian melatih "meta-model" akhir pada output model dasar ini untuk mempelajari cara terbaik menggabungkan prediksi mereka untuk output akhir yang lebih akurat dan kuat.
Dalam teknik distilasi pengetahuan yang terkait, model akhir dilatih tidak hanya pada prediksi output akhir ("target keras") dari pelajar dasar, tetapi juga pada output perantara ("logit" atau "target lunak"), dalam upaya untuk mereplikasi "proses berpikir" mereka.
Pembelajaran mendalam adalah subset dari machine learning yang ditentukan oleh penggunaan neural networks buatan berlapis, biasanya dilatih melalui pembelajaran diawasi pada data berlabel atau (seperti yang sering terjadi terutama pada model AI generatif) melalui pembelajaran diawasi sendiri pada data tidak berlabel. Dalam pembelajaran penguatan mendalam, neural networks mendalam berfungsi sebagai kebijakan agen RL. Pembelajaran mendalam telah mendorong kemajuan paling canggih dalam kecerdasan buatan sejak awal 2010-an. Di antara kekuatannya yang paling penting adalah kemampuan untuk mengotomatiskan proses rekayasa fitur, yang sering kali dilakukan secara manual dalam machine learning tradisional.
Tidak seperti algoritma machine learning “tradisional” yang didefinisikan secara eksplisit, model pembelajaran mendalam terdiri dari banyak lapisan “neuron” (atau “node”) yang saling berhubungan, yang masing-masing melakukan operasi matematika (disebut “fungsi aktivasi”). Input ke fungsi aktivasi setiap neuron adalah kombinasi tertimbang dari output fungsi aktivasi masing-masing neuron dari lapisan sebelumnya. Neuron di lapisan terakhir menghitung output akhir model. Yang terpenting, fungsi aktivasi yang dilakukan di setiap node bersifat nonlinier, memungkinkan neural networks untuk memodelkan pola dan dependensi yang kompleks. Meskipun neural networks dalam AI modern paling sering dikaitkan dengan pembelajaran mendalam canggih, neural networks yang "tidak mendalam" seperti mesin Boltzmann terbatas telah digunakan selama beberapa dekade.
Ini adalah struktur terdistribusi dari algoritma pembelajaran mendalam yang memberikan kekuatan dan keserbagunaan yang luar biasa. Bayangkan data pelatihan sebagai titik data yang tersebar pada grafik 2 dimensi, dan tujuan pelatihan model adalah menemukan garis yang melewati tiap titik data tersebut. Sementara algoritma machine learning tradisional mencoba fitur ini dengan satu fungsi matematika yang menghasilkan satu garis (atau kurva), algoritma pembelajaran mendalam dapat menyatukan sejumlah acak garis yang lebih kecil dan dapat disesuaikan secara terpisah untuk membuat bentuk yang diinginkan. Neural networks mendalam adalah aproksimator universal: telah terbukti secara teoretis bahwa untuk fungsi apa pun terdapat susunan neural networks yang dapat mereproduksinya.6
Pertimbangkan autoencoder: dari segi arsitektur, autoencoder adalah model encoder-decoder —jaringan encoder-nya memiliki lapisan yang semakin kecil, sedangkan jaringan decoder-nya memiliki lapisan yang semakin besar. Tetapi autoencoder hanyalah salah satu dari banyak model encoder-decoder: misalnya, model segmentasi gambar memiliki arsitektur yang sangat mirip, di mana lapisan konvolusional yang semakin mengecil menurunkan jumlah sampel data untuk mengisolasi dan membagi fitur-fitur utama, diikuti oleh lapisan yang semakin membesar yang menambahkan jumlah sampel data (terbagi) agar kembali ke ukuran aslinya.
Apa yang menjadikan autoencoder sebuah autoencoder bukanlah (hanya) arsitekturnya, tetapi algoritma yang digunakan untuk melatihnya: autoencoder ditugaskan untuk merekonstruksi input asli, dan dioptimalkan melalui pelatihan model untuk meminimalkan fungsi yang mengukur kesalahan rekonstruksi (sering dimodifikasi dengan parameter regularisasi tambahan). Model dengan arsitektur identik tetapi dilatih untuk melakukan tugas berbeda dan dioptimalkan untuk tujuan berbeda bukanlah autoencoder.
Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.
Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.
Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.
Semua tautan berada di luar IBM.com.
1. “Energy-Based Self-Supervised Learning,” Yann LeCun (diakses melalui UCLA), 19 November 2019
2. “CHARM: An Efficient Algorithm for Closed Itemset Mining,” Prosiding Konferensi Internasional SIAM 2002 tentang Penambangan Data
3. “Online Association Rule Mining,” Prosiding Konferensi Internasional ACM SIGMOD 1999 tentang Manajemen Data, 1 Juni 1999
4. “Semi-Supervised Learning with Ladder Networks,” arXiv, 24 November 2015
5. “Kolmogorov’s Mapping Neural Network Existence Theorem,” Prosiding Konferensi Internasional Pertama IEEE tentang Neural Networks (diakses melalui University of Waterloo), 1987
6. “Multilayer Feedforward Networks with a Non-Polynomial Activation Function Can Approximate Any Function,” Center for Research on Information Systems (New York University), Maret 1992