Upload
triisant
View
1.355
Download
71
Embed Size (px)
Citation preview
POHON KEPUTUSAN DENGAN ALGORITMA C4.5
1. Pengantar Algoritma C4.5
Klasifikasi merupakan salah satu proses pada data mining yang bertujuan
untuk menemukan pola yang berharga dari data yang berukuran relatif besar
hingga sangat besar. Data tersebut saat ini kebanyakan dikelola menggunakan
Database Management System (DBMS) baik sebagai database maupun data
warehouse.
Algoritma C4.5 merupakan salah satu algoritma klasifikasi yang populer pada
kelompok algoritma pohon keputusan. Pada tahap “belajar” dari data pelatihan,
algoritma C4.5 mengkonstruksi pohon keputusan. Pada tahap klasifikasi, pohon
keputusan digunakan untuk memprediksi kelas dari sebuah kasus yang kelasnya
belum diketahui. Prinsip kerja algoritma ini dalam proses belajar adalah
membaca seluruh sampel/kasus dari storage dan memuatnya ke memori,
kemudian melakukan komputasi dengan membaca sampel-sampel di memori
untuk mengkonstruksi pohon (yang juga disimpan di memori).
Dengan pendekatan ini, salah satu kelemahan algoritma C4.5 yang termasuk
dalam kategori skalabilitas adalah algoritma tersebut hanya dapat digunakan
untuk menangani sampel-sampel yang dapat disimpan secara keseluruhan dan
pada waktu yang bersamaan di memori.
2. Pohon Keputusan (Decision Tree)
Pohon keputusan yaitu pohon dalam analisis pemecahan masalah
pengambilan keputusan mengenai pemetaan mengenai alternatif-alternatif
pemecahan masalah yang dapat diambil dari masalah tersebut. Pohon tersebut
juga memperlihatkan faktor-faktor kemungkinan/probablitas yang akan
mempengaruhi alternatif-alternatf keputusan tersebut, disertai dengan estimasi
hasil akhir yang akan didapat bila kita mengambil alternatif keputusan tersebut.
Decision tree menggunakan struktur hierarki untuk pembelajaran supervised.
Proses dari decision tree dimulai dari root node hingga leaf node yang dilakukan
secara rekursif. Di mana setiap percabangan menyatakan suatu kondisi yang
harus dipenuhi dan pada setiap ujung pohon menyatakan kelas dari suatu data.
Proses dalam pohon keputusan yaitu mengubah bentuk data (tabel) menjadi
model pohon (tree) kemudian mengubah model pohon tersebut menjadi aturan
(rule). Metode pohon keputusan digunakan untuk memperkirakan nilai diskret
dari fungsi target yang mana fungsi pembelajaran direpresentasikan oleh sebuah
pohon keputusan (decision tree). Pohon keputusan terdiri dari himpunan IF…
THEN. Setiap path dalam tree dihubungkan dengan sebuah aturan, dimana
premis terdiri atas sekumpulan node-node yang ditemui dan kesimpullannya dari
aturan atas kelas yang terhubung dengan leaf node dari path.
2.1 Kelebihan Pohon Keputusan
Metode pohon keputusan mempunyai beberapa kelebihan, diantaranya
sebagai berikut :
1. Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat
global, dapat diubah menjadi simple dan spesifik.
2. Eliminasi perhitungan-perhitungan yang tidak diperlukan, karena ketika
menggunakan metode pohon keputusan maka contoh diuji hanya
berdasarkan kriteria atau kelas-kelas tertentu.
3. Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang
terpilih akan membedakan suatu kriteria dibandingkan kriteria yang lain
dalam node yang sama.
4. Metode pohon keputusan dapat menghindari munculnya permasalahan
ini dengan menggunakan kriteria yang jumlahnya lebih sedikit pada setiap
node internal tanpa banyak mengurangi kualitas keputusan yang
dihasilkan.
2.2 Kekurangan Pohon Keputusan
Selain kelebihan dari pohon keputusan, terdapat juga beberapa kekurangan
dari pohon keputusan, diantaranya sebagai berikut :
1. Terjadi overlap terutama ketika kelas-kelas dan kriteria yang digunakan
jumlahnya sangat banyak. Hal tersebut juga dapat menyebabkan
meningkatnya waktu pengambilan keputusan dan jumlah memori yang
diperlukan.
2. Pengakumulasian jumlah eror dari setiap tingkat dalam sebuah pohon
keputusan yang besar.
3. Kesulitan dalam mendesain pohon keputusan yang optimal
4. Hasil kualitas keputusan yang didapatkan dari metode pohon keputusan
sangat tergantung pada bagaimana pohon tersebut didesain.
2.3 Arsitektur Pohon Keputusan
Arsitektur pohon keputusan dibuat menyerupai bentuk pohon, dimana pada
umumnya sebuah pohon terdapat akar (root), cabang dan daun (leaf). Pada
pohon keputusan juga terdiri dari tiga bagian sebagai berikut :
a. Root node
Root node atau node akar merupakan node yang terletak paling atas dari
suatu pohon.
b. Internal node
Internal Node ini merupakan node percabangan, dimana pada node ini
hanya terdapat satu input dan mempunyai minimal dua output.
c. Leaf node
Node ini merupakan node akhir, hanya memiliki satu input, dan tidak
memiliki output. Pada pohon keputusan setiap leaf node menandai label
kelas.
Pada pohon keputusan di setiap percabangan menyatakan kondisi yang
harus dipenuhi dan tiap ujung pohon menyatakan nilai kelas data. Gambar
berikut merupakan bentuk arsitektur pohon keputusan.
Gambar 1. Arsitektur Pohon Keputusan
Lambang bulat pada pohon keputusan melambangkan node akar (root node)
dan juga node cabang (internal node). Namun node akar selalu terletak paling
atas tanpa memiliki input, sedangkan node cabang mempunyai input. Lambang
kotak melambangkan node daun (leaf node). Setiap node daun berisi nilai atribut
dari node cabang atau node akarnya.
3. Algoritma C4.5
Algoritma C4.5 adalah algoritma klasifikasi data dengan teknik pohon
keputusan yang terkenal dan disukai karena memiliki kelebihan-kelebihan.
Kelebihan ini misalnya dapat mengolah data numerik (kontinyu) dan diskret,
dapat menangani nilai atribut yang hilang, menghasilkan aturan-aturan yang
mudah diinterpretasikan dan tercepat di antara algoritma-algoritma yang
menggunakan memori utama di komputer.
Algoritma C4.5 mengkonstruksi pohon keputusan dari data pelatihan, yang
berupa kasus-kasus atau record (tupel) dalam basisdata. Setiap kasus berisikan
nilai dari atribut-atribut untuk sebuah kelas. Setiap atribut dapat berisi data
diskret atau kontinyu (numerik). C4.5 juga menangani kasus yang tidak memiliki
nilai untuk sebuah atau lebih atribut. Akan tetapi, atribut kelas hanya bertipe
diskret dan tidak boleh kosong.
Ada tiga prinsip kerja algoritma C4.5 pada tahap belajar dari data, yaitu
sebgai berikut :
1. Pembuatan Pohon Keputusan
Obyektif dari algoritma pohon keputusan adalah mengkonstruksi struktur data
pohon (dinamakan pohon keputusan) yang dapat digunakan untuk
memprediksi kelas dari sebuah kasus atau record baru yang belum memiliki
kelas. Algoritma ini memilih pemecahan kasus-kasus yang terbaik dengan
menghitung dan membandingkan gain ratio, kemudian pada node-node yang
terbentuk di level berikutnya. Demikian seterusnya sampai terbentuk daun-
daun.
2. Pemangkasan Pohon Keputusan dan Evaluasi (Opsional)
Karena pohon yang dikonstruksi dapat berukuran besar dan tidak mudah
dibaca, C4.5 dapat menyederhanakan pohon dengan melakukan
pemangkasan berdasarkan nilai tingkat kepercayaan (confidence level).
Selain untuk pengurangan ukuran pohon, pemangkasan juga bertujuan untuk
mengurangi tingkat kesalahan prediksi pada kasus (rekord) baru.
3. Pembuatan Aturan-Aturan dari Pohon Keputusan (Opsional)
Aturan-aturan dalam bentuk if-then diturunkan dari pohon keputusan dengan
melakukan penelusuran dari akar sampai ke daun. Setiap node dan syarat
pencabangannya akan diberikan di if, sedangkan nilai pada daun akan
menjadi ditulis di then. Setelah semua aturan dibuat, maka aturan akan
disederhanakan (digabung atau diperumum).
3.1 Langkah-Langkah Konstruksi Pohon Keputusan dengan Algoritma C4.5
Adapun langkah-langkah dalam konstruksi pohon keputusan adalah sebagai
berikut :
Langkah 1: Pohon dimulai dengan sebuah simpul yang mereperesentasikan
sampel data pelatihan yaitu dengan membuat simpul akar.
Langkah 2 : Jika semua sampel berada dalam kelas yang sama, maka simpul
ini menjadi daun dan dilabeli menjadi kelas. Jika tidak, gain ratio
akan digunakan untuk memilih atribut split, yaitu atribut yang
terbaik dalam memisahkan data sampel menjadi kelas-kelas
individu.
Langkah 3 : Cabang akan dibuat untuk setiap nilai pada atribut dan data
sampel akan dipartisi lagi.
Langkah 4 : Algoritma ini menggunakan proses rekursif untuk membentuk
pohon keputusan pada setiap data partisi. Jika sebuah atribut
sduah digunakan disebuah simpul, maka atribut ini tidak akan
digunakan lagi di simpul anak-anaknya.
Langkah 5 : Proses ini berhenti jika dicapai kondisi seperti berikut :
- Semua sampel pada simpul berada di dalam satu kelas
- Tidak ada atribut lainnya yang dapat digunakan untuk
mempartisi sampel lebih lanjut. Dalam hal ini akan diterapkan
suara terbanyak. Ini berarti mengubah sebuah simpul menjadi
daun dan melabelinya dnegan kelas pada suara terbanyak.
3.2 Entropy
Dalam teori informasi, entropi mengukur ketidakpastian antar variabel acak
dalam file data. Claude E. Shannon telah mengembangkan gagasan tentang
entropi dari variabel acak. Entropi dan informasi terkait menyediakan perilaku
jangka panjang dari proses acak yang sangat berguna untuk menganalisis data.
Perilaku dalam proses acak juga merupakan faktor kunci untuk mengembangkan
pengkodean untuk teori informasi. Entropi merupakan pengukuran ketidakpastian
rata-rata kumpulan data ketika kita tidak tahu hasil dari sumber informasi. Itu
berarti bahwa seberapa banyak pengukuran informasi yang kita tidak punya. Ini
juga menunjukkan jumlah rata-rata informasi yang kami akan menerima dari hasil
sumber informasi. Untuk mendapatkan nilai gain ratio dalam pembentukan pohon
keputusan, perlu menghitung dulu nilai informasi dalam satuan bits dari suatu
kumpulan objek Bentuk perhitungan untuk entropi adalah sebagai berikut :
Entropy (X )=∑j=1
k
p j∗log21p j
=−∑j=1
k
p j∗log2 p j
dimana,
X : Himpunan Kasus
k : jumlah partisi X
pj : Proporsi Xj terhadap X
Entropi split yang membagi X dengan n record menjadi himpunan-himpunan
X1 dengan n1 baris dan X2 dengan n2 baris adalah :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Besar nilai Entropy(X) menunjukkan bahwa X adalah atribut yang lebih acak.
Di sisi lain, atribut yang lebih kecil dari nilai Entropy(X) menyiratkan atribut ini
sedikit lebih acak yang signifikan untuk data mining. Nilai entropi mencapai nilai
minimum 0, ketika semua pj lain = 0 atau berada pada kelas yang sama. Nilainya
mencapai maksimum log2 k, ketika semua nilai pj adalah sama dengan 1/k.
3.3 Gain Ratio
Pada kontruksi pohon C4.5, di setiap simpul pohon, atribut dengan nilai gain
ratio tertinggi dipilih sebagai atribut split untuk simpul. Rumus dari gain ratio
adalah sebagai berikut :
gainratio (a )= gain (a )split (a)
Dimana gain(a) adalah information gain dari atribut a untuk himpunan sampel X
dan split info(a) menyatakan entropi atau informasi potensial yang didapat pada
pembagian X menjadi n sub himpunan berdasarkan telaahan pada atribut a.
Sedangkan gain(a) didefinisikan sebagai berikut :
gain (a )=info (X )−inf oa(X )
Untuk rumus split info(a) adalah sebagai berikut :
split info (a )=−∑j=1
k |X1||X|
∗log2¿¿¿
dimana Xi menyatakan sub himpunan ke-I pada sampel X.
Dengan kata lain rumus untuk menghitung nilai gain ratio untuk dipilih
sebagai atribut dari simpul yang ada sebagai berikut ini :
Gainratio (a )=Entropy ( X )−∑j=1
k
¿ X i∨¿
¿ X∨¿∗Entropy (X i)¿¿
Alasan penggunaan gain ratio(a) pada C4.5 (bukan gain(a)) sebagai kriteria
pada pemilihan atribut adalah gain ternyata bias terhadap atribut yagn memiliki
banyak nilai unik.
CONTOH
Soal :
Terdapat data pelamar pekerjaan beserta hasil penerimaannya pada sebuah Bank. Pada tabel berikut terdapat 10 atribut
yaitu bagian pekerjaan yang akan dicari, pendidikan terakhir, jurusan sewaktu kuliah, IPK terakhir, hasil wawancara,
kelengkapan berkas pelamar, kerapian penampilan pelamar, umur, status pelamar dan hasil penerimaan kerja. Buatlah
pohon keputusan dengan menggunakan algoritma C4.5 !
PELAMAR
BAGIAN PENDIDIKAN JURUSAN IPK WAWANCARAKELENGKAPAN
BERKASKERAPIAN UMUR STATUS HASIL
1 TELLER S1 AKUNTANSI 3,8 BAIK LENGKAP BAIK 27 MENIKAH LULUS
2 TELLER S1 AKUNTANSI 2,8 CUKUP TDK LENGKAP BAIK 28 LAJANGTIDAK LULUS
3 TELLER S1 AKUNTANSI 2,7 CUKUP LENGKAP BAIK 32 BERCERAITIDAK LULUS
4 IT S2 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 29 LAJANG LULUS
5 IT S1 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 26 LAJANG LULUS
6 IT S2 INFORMATIKA 2,6 BAIK TDK LENGKAP BURUK 28 MENIKAH LULUS
7 IT D3 INFORMATIKA 2,5 CUKUP TDK LENGKAP BURUK 27 LAJANGTIDAK LULUS
8 TELLER D3 AKUNTANSI 3,4 CUKUP TDK LENGKAP BAIK 22 LAJANG LULUS
9 MARKETING S2 MANAJEMEN 3,5 CUKUP LENGKAP BAIK 29 LAJANG LULUS
10 MARKETING S2 MANAJEMEN 2,8 BURUK LENGKAP BAIK 29 MENIKAHTIDAK LULUS
11 TELLER S1 AKUNTANSI 3,2 BAIK LENGKAP CUKUP 27 MENIKAH LULUS
12 TELLER D2 MANAJEMEN 3,3 BAIK LENGKAP CUKUP 33 MENIKAHTIDAK LULUS
13 TELLER D2 MANAJEMEN 2,8 BURUK TDK LENGKAP CUKUP 22 BERCERAI LULUS
14 TELLER S1 AKUNTANSI 2,8 BAIK TDK LENGKAP CUKUP 31 BERCERAITIDAK LULUS
15 TELLER S1 AKUNTANSI 2,4 BURUK TDK LENGKAP CUKUP 21 MENIKAHTIDAK LULUS
16 TELLER S1 AKUNTANSI 2,5 BAIK LENGKAP CUKUP 25 MENIKAH LULUS
17 MARKETING S2 MATEMATIKA 3,2 CUKUP LENGKAP BAIK 25 LAJANG LULUS
18CUST.
SERVICES1 MATEMATIKA 3,4 BAIK LENGKAP BAIK 26 LAJANG LULUS
19CUST.
SERVICES1 MATEMATIKA 2,7 CUKUP LENGKAP BAIK 26 LAJANG LULUS
20 MARKETING S2 MANAJEMEN 3,3 BAIK LENGKAP BURUK 29 LAJANG LULUS
21 MARKETING S2 MANAJEMEN 3,4 BAIK LENGKAP BAIK 33 MENIKAH LULUS
22 TELLER D3 MANAJEMEN 2,3 BURUK LENGKAP BAIK 23 MENIKAHTIDAK LULUS
23CALL
CENTRED1 INFORMATIKA 3,2 BAIK TDK LENGKAP BAIK 23 MENIKAH LULUS
24CALL
CENTRED1 INFORMATIKA 2,4 BURUK LENGKAP BURUK 29 LAJANG
TIDAK LULUS
25CUST.
SERVICES1 AKUNTANSI 3,3 BAIK LENGKAP BURUK 26 LAJANG LULUS
26CUST.
SERVICES1 AKUNTANSI 2,4 CUKUP TDK LENGKAP BAIK 26 LAJANG
TIDAK LULUS
27CUST.
SERVICES1 AKUNTANSI 3,3 CUKUP LENGKAP BURUK 27 MENIKAH LULUS
28 TELLER S1 MANAJEMEN 3,2 CUKUP TDK LENGKAP CUKUP 24 LAJANG LULUS
29 TELLER S1 MANAJEMEN 3,4 BAIK LENGKAP BAIK 24 LAJANG LULUS
30 TELLER S1 MANAJEMEN 2,9 BURUK TDK LENGKAP BAIK 29 LAJANGTIDAK LULUS
PENYELESAIAN
Dari kasus diatas akan dibuat sebuah pohon keputusan untuk menentukan
pelamar baru apakah diterima atau tidak. Berikut rincian langakah penyelasaian
dalam pemebentukan pohon keputusan.
Langkah 1 : Menghitung nilai entropy dan nilai gain
Lakukan perhitungan untuk jumlah kasus keseluruhan yang ada, jumlah
kasus untuk hasil Lulus dan juga jumlah kasus untuk hasil Tidak Lulus.
Kemudian lakukan perhitungan untuk mencari nilai Entropy dari setiap nilai
atribut dan nilai Gain untuk setiap atribut.
Jumlah kasus : 30
Jumlah kasus dengan hasil Lulus : 19
Jumlah kasus dengan hasil Tidak Lulus : 11
Hitung nilai entropy dari total kasus :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−1930 )∗log2( 1930 ))+((−1130 )∗log2( 1130 ))
¿0,4174+0,5307
¿0,9481
Lakukan juga perhitungan untuk nilai entropy pada setiap atribut :
Entropy (bagian=teller )=((−714 )∗log2( 714 ))+((−714 )∗log2( 714 ))¿0,5+0,5=1
Entropy (bagian=marketing )=((−45 )∗log 2( 45 ))+((−15 )∗log2( 15 ))
¿0,2575+0,4644=0,7219
Entropy (bagian=¿ )=((−34 )∗log2( 34 ))+((−14 )∗log2( 14 )) ¿0,3113+0,5=0,8113
Entropy (bagian=call centre )=((−12 )∗log 2( 12 ))+((−12 )∗log2( 12 )) ¿0,5+0,5=1
Entropy (bagian=cust . service )=((−45 )∗log2( 45 ))+((−15 )∗log2(15 ))¿0,2575+0,4644=0,7219
Entropy (pendidikan=D1 )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 ))¿0,5+0,5=1
Entropy (pendidikan=D2 )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 ))¿0,5+0,5=1
Entropy (pendidikan=D3 )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,5283+0,39=0,9183
⋮⋮⋮
Entropy (status=menikah )=((−711 )∗log2( 711 ))+((−411 )∗log2( 411 ))¿0,4150+0,5307=0,9457
Entropy (status=bercerai )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,5283+0,39=0,9183
Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian
lakukan perhitungan untuk mencari nilai gain dari setiap atribut.
Nilai gain dari masing-masing atribut :
Gainratio (a )=Entropy ( X )−∑j=1
k |X i||X|
∗Entropy (X i )
Gain (bagian )=0,9481−(( 1430∗1)+( 530∗0,7219)+( 430∗0,8113)+( 230∗1)+( 530∗0,7219))¿0,0659
Gain (pendidikan )=0,9481−(( 230∗1)+( 230∗2)+( 330∗0,8113 )+( 1630∗0,9544 )+( 730∗0,5917))¿0,0758
Gain ( jurusan )=0,9481−(( 1130∗0,9940)+( 1030∗0,9710)+( 630∗0,9183)+( 330∗0))¿0,0763
Gain (ipk )=0,9481−(( 430∗0)+( 1030∗0,9710)+( 1230∗0,4138)+( 430∗0)) ¿0,4589
Gain (wawancara )=0,9481−(( 1430∗0,5917)+( 1030∗0,9710)+( 630∗0,6500)) ¿0,2183
Gain (berkas )=0,9481−(( 1930∗0,8315)+( 1130∗1)) ¿0,0570
Gain (kerapian )=0,9481−(( 1530∗0,971)+( 930∗0,9183)+( 630∗0,9183))¿0,0035
Gain (umur )=0,9481−(( 530∗1)+( 1330∗0,6194)+( 830∗1)+( 430∗0,8113)) ¿0,1430
Gain (status )=0,9481−(( 1630∗0,8960)+( 1130∗0,9547)+( 330∗0,9183))
¿0,0316
Hasil perhitungan untuk nilai entropy dan gain ditunjukkan dalam tabel
berikut.
ATRIBUTBANYAK KASUS
LULUS (L)TDK LULUS
(TL)ENTROPY GAIN
TOTAL KASUS 30 19 11
0,9481
BAGIAN 0,0659
TELLER 14 7 7 1
MARKETING 5 4 1 0,7219
IT 4 3 1 0,8113CALL
CENTRE2
1 11
CUST. SERVICE
54 1
0,7219
PENDIDIKAN 0,0758
D1 2 1 1 1
D2 2 1 1 1
D3 3 1 2 0,9183
S1 16 10 6 0,9544
S2 7 6 1 0,5917
JURUSAN 0,0763
AKUNTANSI 11 6 5 0,9940
MANAJEMEN 10 6 4 0,9710
INFORMATIKA 6 4 2 0,9183
MATEMATIKA 3 3 0 0
IPK 0,4589
<2,5 4 0 4 0
2.5 - 3 10 4 6 0,9710
3 - 3.5 12 11 1 0,4138
>3,5 4 4 0 0
WAWANCARA 0,2183
BAIK 14 12 2 0,5917
CUKUP 10 6 4 0,9710
BURUK 6 1 5 0,6500
BERKAS 0,0570
LENGKAP 19 14 5 0,8315TDK
LENGKAP11
5 61
KERAPIAN 0,0035
BAIK 15 9 6 0,9710
CUKUP 9 6 3 0,9183
BURUK 6 4 2 0,9183
UMUR 0,1430
<=23 5 3 2 1
24 - 27 13 11 2 0,6194
28 - 30 8 4 4 1,0000
>30 4 1 3 0,8113
STATUS 0,0316
LAJANG 16 11 5 0,8960
MENIKAH 11 7 4 0,9457
BERCERAI 3 1 2 0,9183
MAX = 0,4589
Langkah 2 : Menentukan node akar
Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain
terbesar yaitu pada atribut IPK yaitu sebesar 0,4589. Sehingga atribut
IPK menjadi node akar.
Pada atribut IPK terdapat 4 nilai atribut, yaitu <2.5, 2.5-3, 3-3.5, >3.5.
Nilai atribut yang pertama yaitu <2.5 sudah mengklasifikasikan kasus
menjadi 1 yaitu dengan hasil Tidak Lulus sehingga tidak perlu dilakukan
perhitungan lebih lanjut.
Dan nilai atribut keempat >3,5 sudah mengklasifikasikan kasus menjadi 1
yaitu dengan hasil Lulus, sehingga tidak perlu dilakukan perhitungan
lebih lanjut.
Sedangkan nilai atribut kedua dan ketiga yaitu 2.5–3 dan 3-3.5 belum
mengklasifikasikan kasus menjadi satu keputusan sehingga perlu
dilakukan perhitungan lagi.
Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut
ini.
Langkah 3 : Mencari node cabang
Perhitungan dilakukan untuk mencari node cabang dari nilai atribut 2.5-3.
Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi
node akar (IPK), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan
Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 2.5 – 3. Dan
kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan
nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 2.5-3.
Node 1.2 :
Jumlah kasus dengan IPK = 2,5 – 3 : 10
Jumlah kasus dengan IPK = 2,5 – 3 yang hasil Lulus : 4
Jumlah kasus dengan IPK = 2,5 – 3 yang hasil Tidak Lulus : 6
Hitung nilai entropy dari total kasus :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−410 )∗log2( 410 ))+((−610 )∗log2( 610 ))
¿0,9710
Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali
pada atibut IPK :
Entropy (bagian=teller )=((−26 )∗log2( 26 ))+((−46 )∗log2( 46 ))¿0,9183
Entropy (bagian=marketing )=((−01 )∗log2( 01 ))+((−11 )∗log2(11 ))
¿0
Entropy (bagian=¿ )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 )) ¿1
Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0
Entropy (bagian=cust . service )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0
Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Entropy (pendidikan=D2 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0
Entropy (pendidikan=D3 )=((−01 )∗log2( 01 ))+((−11 )∗log2( 11 ))¿0
⋮⋮⋮
Entropy (status=menikah )=((−23 )∗log2( 23 ))+((−13 )∗log2( 13 )) ¿0,9183
Entropy (status=bercerai )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,9183
Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian
lakukan perhitungan untuk mencari nilai gain dari setiap atribut.
Nilai gain dari masing-masing atribut :
Gainratio (a )=Entropy ( X )−∑j=1
k |X i||X|
∗Entropy (X i )
Gain (bagian )=0,9710−(( 610∗0,9183)+( 110∗0)+( 210∗1)+( 010∗0)+( 110∗0))¿0,22
Gain (pendidikan )=0,9710−(( 010∗0)+( 110∗0)+( 110∗0)+( 610∗0,9183)+( 210∗1))¿0,22
Gain ( jurusan )=0,9710−(( 410∗0,8113)+( 310∗0,9183)+( 210∗1)+( 110∗0))¿0,171
Gain (wawancara )=0,9710−(( 310∗0,9183)+( 410∗0,8113)+( 310∗0,9183)) ¿0,0955
Gain (berkas )=0,9710−(( 410∗1)+( 610∗0,9183)) ¿0,0,02
Gain (kerapian )=0,9710−(( 510∗0,7219)+( 310∗0,9183)+( 210∗1))¿0,1345
Gain (umur )=0,9710−(( 110∗0)+( 310∗0,9183)+( 410∗0,8113)+( 210∗0)) ¿0,3710
Gain (status )=0,9710−(( 410∗0,8113)+( 310∗0,9183)+( 310∗0,9183))¿0,0955
Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.
Node 1.2 :
ATRIBUTBANYAK KASUS
LULUS (L)
TDK LULUS
(TL)ENTROPY GAIN
IPK 2,5 - 3 10 4 6 0,9710BAGIAN 0,2200
TELLER 6 2 4 0,9183MARKETING 1 0 1 0
IT 2 1 1 1CALL CENTRE 0 0 0 0
CUST. SERVICE
1 1 0 0
PENDIDIKAN 0,2200D1 0 0 0 0D2 1 1 0 0D3 1 0 1 0S1 6 2 4 0,9183S2 2 1 1 1
JURUSAN 0,1710AKUNTANSI 4 1 3 0,8113
MANAJEMEN 3 1 2 0,9183INFORMATIKA 2 1 1 1MATEMATIKA 1 1 0 0
WAWANCARA 0,0955BAIK 3 2 1 0,9183
CUKUP 4 1 3 0,8113BURUK 3 1 2 0,9183
BERKAS 0,0200LENGKAP 4 2 2 1
TDK LENGKAP 6 2 4 0,9183KERAPIAN 0,1345
BAIK 5 1 4 0,7219CUKUP 3 2 1 0,9183BURUK 2 1 1 1
UMUR 0,3710<=23 1 1 0 0
24 - 27 3 2 1 0,918328 - 30 4 1 3 0,8113
>30 2 0 2 0STATUS 0,0955
LAJANG 4 1 3 0,8113MENIKAH 3 2 1 0,9183
BERCERAI 3 1 2 0,9183MAX = 0,3710
Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain
terbesar yaitu pada atribut Umur yaitu sebesar 0,3710. Sehingga atribut
Umur menjadi node cabang dari nilai atribut 2.5-3.
Pada atribut Umur terdapat 4 nilai atribut, yaitu ≤23, 24-27, 28-30, >30.
Nilai atribut yang pertama yaitu ≤23 sudah mengklasifikasikan kasus
menjadi 1 yaitu dengan hasil Lulus sehingga tidak perlu dilakukan
perhitungan lebih lanjut.
Dan nilai atribut keempat yaitu >30 sudah mengklasifikasikan kasus
menjadi 1 yaitu dengan hasil Tidak Lulus, sehingga tidak perlu dilakukan
perhitungan lebih lanjut.
Sedangkan nilai atribut kedua dan ketiga yaitu 24-27 dan 28-30 belum
mengklasifikasikan kasus menjadi satu keputusan sehingga perlu
dilakukan perhitungan lagi.
Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut
ini.
Kemudian lakukan juga perhitungan untuk mencari node cabang dari nilai
atribut 3-3.5. Perhitungan dilakukan dengan mencari nilai dari atribut selain
yang menjadi node akar (IPK), yaitu dengan mencari jumlah kasus untuk
hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 3-
3.5. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut
dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut
3-3.5.
Node 1.3 :
Jumlah kasus dengan IPK = 3 – 3,5 : 12
Jumlah kasus dengan IPK = 3 – 3,5 yang hasil Lulus : 11
Jumlah kasus dengan IPK = 3 – 3,5 yang hasil Tidak Lulus : 1
Hitung nilai entropy dari total kasus :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−1112 )∗log2( 1112 ))+((−112 )∗log2( 112 ))
¿0,4138
Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali
pada atibut IPK :
Entropy (bagian=teller )=((−45 )∗log2( 45 ))+((−15 )∗log2( 15 ))¿0,7219
Entropy (bagian=marketing )=((−33 )∗log2( 33 ))+((−03 )∗log2( 03 ))¿0
Entropy (bagian=¿ )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0
Entropy (bagian=call centre )=((−11 )∗log 2( 11 ))+((−00 )∗log2( 00 )) ¿0
Entropy (bagian=cust . service )=((−33 )∗log2( 33 ))+((−03 )∗log2( 03 ))¿0
Entropy (pendidikan=D1 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0
Entropy (pendidikan=D2 )=((−01 )∗log2( 01 ))+((−11 )∗log2( 11 ))¿0
Entropy (pendidikan=D3 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0
⋮⋮⋮
Entropy (status=menikah )=((−45 )∗log2( 45 ))+((−15 )∗log2(15 )) ¿0,7219
Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian
lakukan perhitungan untuk mencari nilai gain dari setiap atribut.
Nilai gain dari masing-masing atribut :
Gainratio (a )=Entropy ( X )−∑j=1
k |X i||X|
∗Entropy (X i )
Gain (bagian )=0,4138−(( 412∗0,7219)+( 312∗0)+( 012∗0)+( 112∗0)+( 312∗0))¿0,1130
Gain (pendidikan )=0,4138−(( 112∗0)+( 112∗0)+( 112∗0)+( 612∗0)+( 312∗0))¿0,4138
Gain ( jurusan )=0,4138−(( 412∗0)+( 512∗0,7219)+( 112∗0)+( 212∗0))¿0,113
Gain (wawancara )=0,4138−(( 812∗0,5436)+( 412∗0)+( 012∗0)) ¿0,0514
Gain (berkas )=0,4138−(( 912∗0,5033)+( 312∗0)) ¿0,0364
Gain (kerapian )=0,4138−(( 612∗0)+( 312∗0,9183)+( 312∗0))¿0,1842
Gain (umur )=0,4138−(( 212∗0)+( 712∗0)+( 112∗0)+( 212∗1)) ¿0,2472
Gain (status )=0,4138−(( 712∗0)+( 512∗0,7219)+( 012∗0))¿0,1130
Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.
Node 1.3 :
ATRIBUTBANYAK KASUS
LULUS (L)
TDK LULUS
(TL)ENTROPY GAIN
IPK 3 - 3,5 12 11 1 0,4138BAGIAN 0,1130
TELLER 5 4 1 0,7219MARKETING 3 3 0 0
IT 0 0 0 0CALL
CENTRE1 1 0 0
CUST. SERVICE
3 3 0 0
PENDIDIKAN 0,4138D1 1 1 0 0D2 1 0 1 0D3 1 1 0 0S1 6 6 0 0S2 3 3 0 0
JURUSAN 0,1130AKUNTANSI 4 4 0 0
MANAJEMEN 5 4 1 0,7219INFORMATIKA 1 1 0 0MATEMATIKA 2 2 0 0
WAWANCARA 0,0514BAIK 8 7 1 0,5436
CUKUP 4 4 0 0BURUK 0 0 0 0
BERKAS 0,0364LENGKAP 9 8 1 0,5033
TDK LENGKAP
33 0
0
KERAPIAN 0,1842BAIK 6 6 0 0
CUKUP 3 2 1 0,9183BURUK 3 3 0 0
UMUR 0,2472<=23 2 2 0 0
24 - 27 7 7 0 028 - 30 1 1 0 0
>30 2 1 1 1STATUS 0,1130
LAJANG 7 7 0 0MENIKAH 5 4 1 0,7219
BERCERAI 0 0 0 0
MAX = 0,4138
Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain
terbesar yaitu pada atribut Pendidikan yaitu sebesar 0,4138. Sehingga
atribut Pendidikan menjadi node cabang dari nilai atribut 3-3.5.
Pada atribut Pendidikan terdapat 5 nilai atribut, dimana semua anilai
atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil
Lulus, Tidak Lulus, Lulus, Lulus dan Lulus sehingga tidak perlu
dilakukan perhitungan lebih lanjut. Dari proses tersebut maka dapat
dihasilkan pohon sementara seperti berikut ini.
Lakukan perhitungan untuk mencari node cabang dari nilai atribut umur 24-
27. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang
menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan mencari
jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua
kasus saat IPK = 2.5–3 dan Umur = 24-27. Dan kemudian lakukan
perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar,
maka akan menjadi node cabang dari nilai atribut 24-27.
Node 1.2.2 :
Jumlah kasus dengan IPK = 2,5 – 3 dan UMUR = 24 - 27 : 3
Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 - 27 yang hasil Lulus : 2
Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 – 27 yang hasil Tdk Lulus : 1
Hitung nilai entropy dari total kasus :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−23 )∗log2( 23 ))+((−13 )∗log2( 13 ))
¿0,9183
Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali
pada atibut IPK dan Umur :
Entropy (bag ian=teller )=((−11 )∗log2(11 ))+((−01 )∗log2( 01 ))¿0
Entropy (bagian=marketing )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Entropy (bagian=¿ )=((−00 )∗log2( 00 ))+((−11 )∗log2(11 )) ¿0
Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0
Entropy (bagian=cust . service )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0
Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Entropy (pendidikan=D2 )=((−00 )∗log2( 00 ))+((−00 )∗log2(00 ))¿0
Entropy (pendidikan=D3 )=((−00 )∗log2( 00 ))+((−11 )∗log2( 11 ))¿0
⋮⋮⋮
Entropy (status=menikah )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 )) ¿0
Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian
lakukan perhitungan untuk mencari nilai gain dari setiap atribut.
Nilai gain dari masing-masing atribut :
Gainratio (a )=Entropy ( X )−∑j=1
k |X i||X|
∗Entropy (X i )
Gain (bagian )=0,9183−(( 13∗0)+( 03∗0)+( 13∗0)+( 03∗0)+( 13∗0))¿0,9
Gain (pendidikan )=0,9183−(( 03∗0)+( 03∗0)+( 13∗0)+( 23∗0)+( 13∗0))¿0,9183
Gain ( jurusan )=0,9183−(( 13∗0)+( 03∗0)+( 13∗0)+( 13∗0))¿0,9183
Gain (wawancara )=0,9183−(( 13∗0)+( 23∗1)+( 03∗0)) ¿0,2516
Gain (berkas )=0,9183−(( 23∗0)+( 13∗0))
¿0,9183
Gain (kerapian )=0,9183−(( 13∗0)+( 13∗0)+( 13∗0))¿0,9183
Gain (status )=0,9183−(( 23∗1)+( 13∗0)+( 03∗0))¿0,2516
Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.
Node 1.2.2 :
ATRIBUTBANYA
K KASUS
LULUS (L)
TDK LULUS (TL)
ENTROPY
GAIN
IPK 2,5 - 3 | UMUR 24-27
3 2 1 0,9183
BAGIAN0,918
3TELLER 1 1 0 0
MARKETING 0 0 0 0IT 1 0 1 0
CALL CENTRE
0 0 0 0
CUST. SERVICE
1 1 0 0
PENDIDIKAN0,918
3D1 0 0 0 0D2 0 0 0 0D3 1 0 1 0S1 2 2 0 0S2 0 0 0 0
JURUSAN0,918
3AKUNTANSI 1 1 0 0
MANAJEMEN 0 0 0 0INFORMATIK
A1 0 1 0
MATEMATIKA 1 1 0 0WAWANCAR
A0,251
6BAIK 1 1 0 0
CUKUP 2 1 1 1BURUK 0 0 0 0
BERKAS0,918
3LENGKAP 2 2 0 0
TDK LENGKAP
10 1
0
KERAPIAN0,918
3BAIK 1 1 0 0
CUKUP 1 1 0 0BURUK 1 0 1 0
STATUS0,251
6LAJANG 2 1 1 1
MENIKAH 1 1 0 0
BERCERAI 0 0 0 0
MAX =0,918
3
Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain
terbesar yaitu sebesar 0,9183, karena ada beberapa atribut yang sama-
sama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu
pada atribut Berkas. Sehingga atribut Berkas menjadi node cabang dari
nilai atribut 24 - 27.
Pada atribut Berkas terdapat 2 nilai atribut, dimana semua nilai atribut
sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus dan
Tidak Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut.
Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut
ini.
Kemudian lakukan perhitungan untuk mencari node cabang dari nilai atribut
umur 28-30. Perhitungan dilakukan dengan mencari nilai dari atribut selain
yang menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan
mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy
dari semua kasus saat IPK = 2.5–3 dan Umur = 28-30. Dan kemudian
lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain
terbesar, maka akan menjadi node cabang dari nilai atribut 28-30.
Node 1.2.3 :
Jumlah kasus dengan IPK = 2,5 – 3 dan UMUR = 28 - 30 : 4
Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 28 - 30 yang hasil Lulus : 1
Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 - 30 yang hasil Tdk Lulus : 3
Hitung nilai entropy dari total kasus :
E (X 1 , X2 )=n1nE ( X1 )+ n2
nE(X 2)
Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−14 )∗log2( 14 ))+((−34 )∗log2( 34 ))
¿0,8113
Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali
pada atibut IPK dan Umur :
Entropy (bagian=teller )=((−02 )∗log2( 02 ))+((−22 )∗log2( 22 ))¿0
Entropy (bagian=marketing )=((−00 )∗log2( 00 ))+((−11 )∗log2(11 ))¿0
Entropy (bagian=¿ )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 )) ¿0
Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0
Entropy (bagian=cust . service )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Entropy (pendidikan=D2 )=((−00 )∗log2( 00 ))+((−00 )∗log2(00 ))¿0
Entropy (pendidikan=D3 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
⋮⋮⋮
Entropy (status=menikah )=((−12 )∗log2( 12 ))+((−12 )∗log2(12 )) ¿1
Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0
Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian
lakukan perhitungan untuk mencari nilai gain dari setiap atribut.
Nilai gain dari masing-masing atribut :
Gainratio (a )=Entropy ( X )−∑j=1
k |X i||X|
∗Entropy (X i )
Gain (bagian )=0,8113−(( 24∗0)+( 14∗0)+( 14∗0)+( 04∗0)+( 04∗0))¿0,8113
Gain (pendidikan )=0,8113−(( 04∗0)+( 04∗0)+( 04∗0)+( 24∗0)+( 24∗1))¿0,3113
Gain ( jurusan )=0,8113−(( 14∗0)+( 24∗0)+( 14∗0)+( 04∗0))¿0,8113
Gain (wawancara )=0,8113−(( 14∗0)+( 14∗0)+( 24∗0)) ¿0,8113
Gain (berkas )=0,8113−(( 14∗0)+( 34∗1)) ¿0,1226
Gain (kerapian )=0,8113−(( 34∗0)+( 04∗0)+( 14∗0))¿0,8113
Gain (status )=0,8113−(( 24∗0)+( 24∗1)+( 04∗0))¿0,3113
Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.
Node 1.2.3 :
ATRIBUTBANYAK KASUS
LULUS (L)
TDK LULUS
(TL)
ENTROPY
GAIN
IPK 2,5 - 3 | UMUR 28-30
4 1 3 0,8113
BAGIAN0,811
3TELLER 2 0 2 0
MARKETING 1 0 1 0IT 1 1 0 0
CALL CENTRE
0 0 0 0
CUST. SERVICE
0 0 0 0
PENDIDIKAN0,311
3D1 0 0 0 0D2 0 0 0 0D3 0 0 0 0S1 2 0 2 0S2 2 1 1 1
JURUSAN0,811
3AKUNTANSI 1 0 1 0
MANAJEMEN 2 0 2 0INFORMATIK
A1 1 0 0
MATEMATIKA 0 0 0 0WAWANCAR
A0,811
3BAIK 1 1 0 0
CUKUP 1 0 1 0
BURUK 2 0 2 0BERKAS 0
LENGKAP 1 0 1 0TDK
LENGKAP3 1 2 0,9183
KERAPIAN0,811
3BAIK 3 0 3 0
CUKUP 0 0 0 0BURUK 1 1 0 0
STATUS0,311
3LAJANG 2 0 2 0
MENIKAH 2 1 1 1
BERCERAI 0 0 0 0
MAX =0,811
3
Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain
terbesar yaitu sebesar 0,8113, karena ada beberapa atribut yang sama-
sama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu
pada atribut Wawancara. Sehingga atribut Wawancara menjadi node
cabang dari nilai atribut 28-30.
Pada atribut Wawancara terdapat 3 nilai atribut, dimana semua nilai
atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil
Lulus, Tidak Lulus dan Tidak Lulus sehingga tidak perlu dilakukan
perhitungan lebih lanjut. Dari proses tersebut maka dapat dihasilkan
pohon sementara seperti berikut ini.
Pembentukan pohon keputusan dengan menggunakan algoritma C4.5 diatas
sudah terselesaikan karena tidak ada lagi node cabang yang belum
mengklasifikasikan 1 (satu) keputusan.
DAFTAR PUSTAKA
1. Moertini, Veronica S.”Towards The Use of C4.5 Algorithm for Classifying
Banking Dataset”.2003. Sumber :
http://home.unpar.ac.id/~integral/Volume%208/Integral%208%20No.
%202/C45%20Algorithm.PDF
2. Tickle, Kevin S, dkk.”Improved C4.5 Algorithm for Rule Based Classification”.
Sumber :
http://www.wseas.us/e-library/conferences/2010/Cambridge/AIKED/
AIKED-47.pdf
3. Korting, Thales Sehn.”C4.5 Algorithm and Multivariate Decision Trees”.
Sumber :
http://www.dpi.inpe.br/~tkorting/projects/c45/material.pdf
4. Hanik, Umi.”Fuzzy Decision Tree dengan Algoritma C4.5”2011. Sumber :
http://digilib.its.ac.id/public/ITS-Undergraduate-17454-5107100002-
Paper.pdf
5. Decision Tree (Pohon Keputusan). Sumber :
http://novrina.staff.gunadarma.ac.id/Downloads/files/21783/
Algoritma+C4.pdf
6. Moertini, Veronica S.”Pengembangan Skalabilitas Algoritma Klasifikasi C4.5
dengan Pendekatan Konsep Operator Relasi”.2007. Sumber :
http://home.unpar.ac.id/~moertini/Disertasi_VeronicaSM.pdf