Kerugian entropi silang biner, juga disebut kerugian log, digunakan untuk klasifikasi biner. Algoritma klasifikasi biner biasanya menghasilkan nilai kemungkinan antara 0 dan 1. Misalnya, dalam model pendeteksian spam email, input email yang menghasilkan output mendekati 1 dapat diberi label ‘spam’. Input yang menghasilkan output mendekati 0 akan diklasifikasikan sebagai ‘bukan spam’. Output 0,5 menunjukkan kegagalan atau kecenderungan yang tinggi terhadap keputusan atau entropi.
Meskipun algoritma akan menghasilkan nilai antara 0 dan 1, nilai kebenaran dasar untuk prediksi yang benar adalah ‘0’ atau ‘1’. Dengan demikian, meminimalkan kerugian entropi silang biner tidak hanya berarti mempenalti prediksi yang salah, tetapi juga mempenalti prediksi dengan kepastian rendah. Ini memberi insentif pada model untuk mempelajari parameter yang menghasilkan prediksi yang tidak hanya benar tetapi juga pasti. Selain itu, dengan fokus pada logaritma dari nilai kemungkinan yang diprediksi, algoritma ini akan lebih ketat dalam memberikan hukuman terhadap prediksi yang salah dengan tingkat konfidensi tinggi.
Untuk mempertahankan konvensi umum tentang nilai kerugian lebih rendah berarti lebih sedikit kesalahan, hasilnya dikalikan dengan -1. Kerugian log untuk satu contoh  dengan demikian dihitung sebagai –(yi·log(p(yi))+(1-yi)·log(1-p(yi))), di mana yi adalah kemungkinan sebenarnya, yaitu 0 atau 1, dan p(yi) adalah prediksi kemungkinan. Rata-rata kerugian pada seluruh kumpulan n contoh pelatihan dihitung sebagai –1n∑i=1nyi·log(p(yi))+(1-yi)·log(1-p(yi)).