- Perhatikan data yang ada pada tabel keputusan “Play Tennis”.
- Buatlah pohon keputusan untuk data tersebut.
Tabel :
Data tabel keputusan untuk “Play Tennis”
1. Langkah pertama, untuk membuat
pohon keputusan adalah mencari entropy dengan menggunakan
rumus :
Dimana:
· S
: adalah himpunan (dataset) kasus
· k
: adalah banyaknya partisi S
· pj :
adalah probabilitas yang di dapat dari Sum(Ya) dibagi Total Kasus.
2. Setelah mendapatkan entropy
maka hitung gain tiap attribute.
Rumus :
Dimana:
·
S : ruang (data) sample yang
digunakan untuk training.
·
A : atribut.
·
|Si| : jumlah sample untuk
nilai V.
·
|S| : jumlah seluruh sample
data.
·
Entropi(Si) : entropy untuk
sample-sample yang memiliki nilai i
Cara membuat Decision Tree:
- Cari nilai gain tertinggi dari setiap atribut yang ada , maka attribute tersebut menjadi root pada iterasi pertama.
- Jika entropi pada nilai attribute tersebut adalah 0 , maka nilai tersebut merupakan leaf. Sedangkan nilai lainnya akan digunakan untuk iterasi selanjutnya..
- Gunakan nilai attribute yang bukan Leaf tersebut sebagai pivot , untuk dicari entropy dan gain pada iterasi selanjutnya.
- Lakukan langkah tersebut sampai nilai entropy pada semua nilai attribute = 1.
Jawab :
Entropi (S) = (-(10/14) x log2 (10/14) + (-(4/10) x log2 (4/10)) = 0.863120569
|
Sum(Yes) |
Sum(No) |
Entropi Total |
||||
|
4 |
10 |
0.863120569 |
Tidak ada komentar:
Posting Komentar