SVM linier digunakan dengan data yang dapat dipisahkan secara linier; ini berarti bahwa data tidak perlu menjalani transformasi apa pun untuk memisahkan data ke dalam berbagai kelas yang berbeda. Batas keputusan dan vektor pendukung membentuk tampilan seperti jalan dan Profesor Patrick Winston dari MIT menggunakan analogi "menyesuaikan dengan jalan yang paling lebar"2 untuk menggambarkan masalah optimasi kuadratik ini. Secara matematis, hyperplane pemisah ini dapat digambarkan sebagai:
wx + b = 0
di mana w adalah vektor bobot, x adalah vektor input, dan b adalah suku bias.
Ada dua pendekatan untuk menghitung margin, atau jarak maksimum di antara kelas, yaitu klasifikasi hard-margin dan klasifikasi soft-margin. Jika kita menggunakan SVM dengan hard-margin, titik-titik data akan dipisahkan secara sempurna di luar vektor pendukung, atau "di luar jalan", jika kita mempertahankan analogi Profesor Hinton. Ini digambarkan dengan rumus,
(wxj + b) yj ≥ a,
dan kemudian margin dimaksimalkan, yang direpresentasikan sebagai: max ɣ= a / ||w||, di mana a adalah margin yang diproyeksikan ke w.
Klasifikasi soft-margin lebih fleksibel, memungkinkan terjadinya kesalahan klasifikasi melalui penggunaan variabel slack (`ξ`). Hyperparameter, C, menyesuaikan margin; nilai C yang lebih besar mempersempit margin untuk kesalahan klasifikasi minimal sementara nilai C yang lebih kecil melebarkannya, memungkinkan lebih banyakdata yang salah diklasifikasikan3.