Untuk kumpulan data ini, entropinya adalah 0,94. Hal ini dapat dihitung dengan mencari proporsi hari di mana 'Bermain Tenis' adalah 'Ya', yaitu 9/14, dan proporsi hari di mana 'Bermain Tenis' adalah 'Tidak', yaitu 5/14. Kemudian, nilai-nilai ini dapat dicolokkan ke rumus entropi di atas.
Entropi (Tenis) = -(9/14) log2(9/14) – (5/14) log2 (5/14) = 0,94
Kita kemudian dapat menghitung perolehan informasi untuk masing-masing atribut secara individual. Misalnya, perolehan informasi untuk atribut, 'Kelembaban' adalah sebagai berikut:
Perolehan (Tenis, Kelembaban) = (0,94)-(7/14)*(0,985) – (7/14)*(0.592) = 0,151
Sebagai rekap,
- 7/14 merupakan proporsi nilai yang kelembapannya sama dengan 'tinggi' terhadap jumlah total nilai kelembapan. Dalam kasus ini, jumlah nilai di mana kelembapan sama dengan 'tinggi' sama dengan jumlah nilai di mana kelembapan sama dengan 'normal'.
- 0,985 adalah entropi ketika Kelembaban = 'tinggi'
- 0,59 adalah entropi ketika Kelembaban = 'normal'
Kemudian, ulangi perhitungan perolehan informasi untuk setiap atribut pada tabel di atas, dan pilih atribut dengan perolehan informasi tertinggi untuk menjadi titik pemisah pertama dalam decision trees. Dalam hal ini, outlook menghasilkan perolehan informasi tertinggi. Dari sana, proses tersebut dicapai untuk setiap subpohon.