51
POHON KEPUTUSAN DENGAN ALGORITMA C4.5 1. Pengantar Algoritma C4.5 Klasifikasi merupakan salah satu proses pada data mining yang bertujuan untuk menemukan pola yang berharga dari data yang berukuran relatif besar hingga sangat besar. Data tersebut saat ini kebanyakan dikelola menggunakan Database Management System (DBMS) baik sebagai database maupun data warehouse. Algoritma C4.5 merupakan salah satu algoritma klasifikasi yang populer pada kelompok algoritma pohon keputusan. Pada tahap “belajar” dari data pelatihan, algoritma C4.5 mengkonstruksi pohon keputusan. Pada tahap klasifikasi, pohon keputusan digunakan untuk memprediksi kelas dari sebuah kasus yang kelasnya belum diketahui. Prinsip kerja algoritma ini dalam proses belajar adalah membaca seluruh sampel/kasus dari storage dan memuatnya ke memori, kemudian melakukan komputasi dengan membaca sampel-sampel di memori untuk mengkonstruksi pohon (yang juga disimpan di memori). Dengan pendekatan ini, salah satu kelemahan algoritma C4.5 yang termasuk dalam kategori skalabilitas adalah algoritma tersebut hanya dapat digunakan untuk menangani sampel-sampel yang dapat disimpan secara keseluruhan dan pada waktu yang bersamaan di memori. 2. Pohon Keputusan (Decision Tree) Pohon keputusan yaitu pohon dalam analisis pemecahan masalah pengambilan keputusan mengenai pemetaan mengenai

algoritma C4.5

  • Upload
    triisant

  • View
    1.355

  • Download
    71

Embed Size (px)

Citation preview

Page 1: algoritma C4.5

POHON KEPUTUSAN DENGAN ALGORITMA C4.5

1. Pengantar Algoritma C4.5

Klasifikasi merupakan salah satu proses pada data mining yang bertujuan

untuk menemukan pola yang berharga dari data yang berukuran relatif besar

hingga sangat besar. Data tersebut saat ini kebanyakan dikelola menggunakan

Database Management System (DBMS) baik sebagai database maupun data

warehouse.

Algoritma C4.5 merupakan salah satu algoritma klasifikasi yang populer pada

kelompok algoritma pohon keputusan. Pada tahap “belajar” dari data pelatihan,

algoritma C4.5 mengkonstruksi pohon keputusan. Pada tahap klasifikasi, pohon

keputusan digunakan untuk memprediksi kelas dari sebuah kasus yang kelasnya

belum diketahui. Prinsip kerja algoritma ini dalam proses belajar adalah

membaca seluruh sampel/kasus dari storage dan memuatnya ke memori,

kemudian melakukan komputasi dengan membaca sampel-sampel di memori

untuk mengkonstruksi pohon (yang juga disimpan di memori).

Dengan pendekatan ini, salah satu kelemahan algoritma C4.5 yang termasuk

dalam kategori skalabilitas adalah algoritma tersebut hanya dapat digunakan

untuk menangani sampel-sampel yang dapat disimpan secara keseluruhan dan

pada waktu yang bersamaan di memori.

2. Pohon Keputusan (Decision Tree)

Pohon keputusan yaitu pohon dalam analisis pemecahan masalah

pengambilan keputusan mengenai pemetaan mengenai alternatif-alternatif

pemecahan masalah yang dapat diambil dari masalah tersebut. Pohon tersebut

juga memperlihatkan faktor-faktor kemungkinan/probablitas yang akan

mempengaruhi alternatif-alternatf keputusan tersebut, disertai dengan estimasi

hasil akhir yang akan didapat bila kita mengambil alternatif keputusan tersebut.

Decision tree menggunakan struktur hierarki untuk pembelajaran supervised.

Proses dari decision tree dimulai dari root node hingga leaf node yang dilakukan

secara rekursif. Di mana setiap percabangan menyatakan suatu kondisi yang

harus dipenuhi dan pada setiap ujung pohon menyatakan kelas dari suatu data.

Proses dalam pohon keputusan yaitu mengubah bentuk data (tabel) menjadi

model pohon (tree) kemudian mengubah model pohon tersebut menjadi aturan

Page 2: algoritma C4.5

(rule). Metode pohon keputusan digunakan untuk memperkirakan nilai diskret

dari fungsi target yang mana fungsi pembelajaran direpresentasikan oleh sebuah

pohon keputusan (decision tree). Pohon keputusan terdiri dari himpunan IF…

THEN. Setiap path dalam tree dihubungkan dengan sebuah aturan, dimana

premis terdiri atas sekumpulan node-node yang ditemui dan kesimpullannya dari

aturan atas kelas yang terhubung dengan leaf node dari path.

2.1 Kelebihan Pohon Keputusan

Metode pohon keputusan mempunyai beberapa kelebihan, diantaranya

sebagai berikut :

1. Daerah pengambilan keputusan yang sebelumnya kompleks dan sangat

global, dapat diubah menjadi simple dan spesifik.

2. Eliminasi perhitungan-perhitungan yang tidak diperlukan, karena ketika

menggunakan metode pohon keputusan maka contoh diuji hanya

berdasarkan kriteria atau kelas-kelas tertentu.

3. Fleksibel untuk memilih fitur dari internal node yang berbeda, fitur yang

terpilih akan membedakan suatu kriteria dibandingkan kriteria yang lain

dalam node yang sama.

4. Metode pohon keputusan dapat menghindari munculnya permasalahan

ini dengan menggunakan kriteria yang jumlahnya lebih sedikit pada setiap

node internal tanpa banyak mengurangi kualitas keputusan yang

dihasilkan.

Page 3: algoritma C4.5

2.2 Kekurangan Pohon Keputusan

Selain kelebihan dari pohon keputusan, terdapat juga beberapa kekurangan

dari pohon keputusan, diantaranya sebagai berikut :

1. Terjadi overlap terutama ketika kelas-kelas dan kriteria yang digunakan

jumlahnya sangat banyak. Hal tersebut juga dapat menyebabkan

meningkatnya waktu pengambilan keputusan dan jumlah memori yang

diperlukan.

2. Pengakumulasian jumlah eror dari setiap tingkat dalam sebuah pohon

keputusan yang besar.

3. Kesulitan dalam mendesain pohon keputusan yang optimal

4. Hasil kualitas keputusan yang didapatkan dari metode pohon keputusan

sangat tergantung pada bagaimana pohon tersebut didesain.

2.3 Arsitektur Pohon Keputusan

Arsitektur pohon keputusan dibuat menyerupai bentuk pohon, dimana pada

umumnya sebuah pohon terdapat akar (root), cabang dan daun (leaf). Pada

pohon keputusan juga terdiri dari tiga bagian sebagai berikut :

a. Root node

Root node atau node akar merupakan node yang terletak paling atas dari

suatu pohon.

b. Internal node

Internal Node ini merupakan node percabangan, dimana pada node ini

hanya terdapat satu input dan mempunyai minimal dua output.

c. Leaf node

Node ini merupakan node akhir, hanya memiliki satu input, dan tidak

memiliki output. Pada pohon keputusan setiap leaf node menandai label

kelas.

Page 4: algoritma C4.5

Pada pohon keputusan di setiap percabangan menyatakan kondisi yang

harus dipenuhi dan tiap ujung pohon menyatakan nilai kelas data. Gambar

berikut merupakan bentuk arsitektur pohon keputusan.

Gambar 1. Arsitektur Pohon Keputusan

Lambang bulat pada pohon keputusan melambangkan node akar (root node)

dan juga node cabang (internal node). Namun node akar selalu terletak paling

atas tanpa memiliki input, sedangkan node cabang mempunyai input. Lambang

kotak melambangkan node daun (leaf node). Setiap node daun berisi nilai atribut

dari node cabang atau node akarnya.

Page 5: algoritma C4.5

3. Algoritma C4.5

Algoritma C4.5 adalah algoritma klasifikasi data dengan teknik pohon

keputusan yang terkenal dan disukai karena memiliki kelebihan-kelebihan.

Kelebihan ini misalnya dapat mengolah data numerik (kontinyu) dan diskret,

dapat menangani nilai atribut yang hilang, menghasilkan aturan-aturan yang

mudah diinterpretasikan dan tercepat di antara algoritma-algoritma yang

menggunakan memori utama di komputer.

Algoritma C4.5 mengkonstruksi pohon keputusan dari data pelatihan, yang

berupa kasus-kasus atau record (tupel) dalam basisdata. Setiap kasus berisikan

nilai dari atribut-atribut untuk sebuah kelas. Setiap atribut dapat berisi data

diskret atau kontinyu (numerik). C4.5 juga menangani kasus yang tidak memiliki

nilai untuk sebuah atau lebih atribut. Akan tetapi, atribut kelas hanya bertipe

diskret dan tidak boleh kosong.

Ada tiga prinsip kerja algoritma C4.5 pada tahap belajar dari data, yaitu

sebgai berikut :

1. Pembuatan Pohon Keputusan

Obyektif dari algoritma pohon keputusan adalah mengkonstruksi struktur data

pohon (dinamakan pohon keputusan) yang dapat digunakan untuk

memprediksi kelas dari sebuah kasus atau record baru yang belum memiliki

kelas. Algoritma ini memilih pemecahan kasus-kasus yang terbaik dengan

menghitung dan membandingkan gain ratio, kemudian pada node-node yang

terbentuk di level berikutnya. Demikian seterusnya sampai terbentuk daun-

daun.

2. Pemangkasan Pohon Keputusan dan Evaluasi (Opsional)

Karena pohon yang dikonstruksi dapat berukuran besar dan tidak mudah

dibaca, C4.5 dapat menyederhanakan pohon dengan melakukan

pemangkasan berdasarkan nilai tingkat kepercayaan (confidence level).

Selain untuk pengurangan ukuran pohon, pemangkasan juga bertujuan untuk

mengurangi tingkat kesalahan prediksi pada kasus (rekord) baru.

Page 6: algoritma C4.5

3. Pembuatan Aturan-Aturan dari Pohon Keputusan (Opsional)

Aturan-aturan dalam bentuk if-then diturunkan dari pohon keputusan dengan

melakukan penelusuran dari akar sampai ke daun. Setiap node dan syarat

pencabangannya akan diberikan di if, sedangkan nilai pada daun akan

menjadi ditulis di then. Setelah semua aturan dibuat, maka aturan akan

disederhanakan (digabung atau diperumum).

3.1 Langkah-Langkah Konstruksi Pohon Keputusan dengan Algoritma C4.5

Adapun langkah-langkah dalam konstruksi pohon keputusan adalah sebagai

berikut :

Langkah 1: Pohon dimulai dengan sebuah simpul yang mereperesentasikan

sampel data pelatihan yaitu dengan membuat simpul akar.

Langkah 2 : Jika semua sampel berada dalam kelas yang sama, maka simpul

ini menjadi daun dan dilabeli menjadi kelas. Jika tidak, gain ratio

akan digunakan untuk memilih atribut split, yaitu atribut yang

terbaik dalam memisahkan data sampel menjadi kelas-kelas

individu.

Langkah 3 : Cabang akan dibuat untuk setiap nilai pada atribut dan data

sampel akan dipartisi lagi.

Langkah 4 : Algoritma ini menggunakan proses rekursif untuk membentuk

pohon keputusan pada setiap data partisi. Jika sebuah atribut

sduah digunakan disebuah simpul, maka atribut ini tidak akan

digunakan lagi di simpul anak-anaknya.

Langkah 5 : Proses ini berhenti jika dicapai kondisi seperti berikut :

- Semua sampel pada simpul berada di dalam satu kelas

- Tidak ada atribut lainnya yang dapat digunakan untuk

mempartisi sampel lebih lanjut. Dalam hal ini akan diterapkan

suara terbanyak. Ini berarti mengubah sebuah simpul menjadi

daun dan melabelinya dnegan kelas pada suara terbanyak.

Page 7: algoritma C4.5

3.2 Entropy

Dalam teori informasi, entropi mengukur ketidakpastian antar variabel acak

dalam file data. Claude E. Shannon telah mengembangkan gagasan tentang

entropi dari variabel acak. Entropi dan informasi terkait menyediakan perilaku

jangka panjang dari proses acak yang sangat berguna untuk menganalisis data.

Perilaku dalam proses acak juga merupakan faktor kunci untuk mengembangkan

pengkodean untuk teori informasi. Entropi merupakan pengukuran ketidakpastian

rata-rata kumpulan data ketika kita tidak tahu hasil dari sumber informasi. Itu

berarti bahwa seberapa banyak pengukuran informasi yang kita tidak punya. Ini

juga menunjukkan jumlah rata-rata informasi yang kami akan menerima dari hasil

sumber informasi. Untuk mendapatkan nilai gain ratio dalam pembentukan pohon

keputusan, perlu menghitung dulu nilai informasi dalam satuan bits dari suatu

kumpulan objek Bentuk perhitungan untuk entropi adalah sebagai berikut :

Entropy (X )=∑j=1

k

p j∗log21p j

=−∑j=1

k

p j∗log2 p j

dimana,

X : Himpunan Kasus

k : jumlah partisi X

pj : Proporsi Xj terhadap X

Entropi split yang membagi X dengan n record menjadi himpunan-himpunan

X1 dengan n1 baris dan X2 dengan n2 baris adalah :

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Besar nilai Entropy(X) menunjukkan bahwa X adalah atribut yang lebih acak.

Di sisi lain, atribut yang lebih kecil dari nilai Entropy(X) menyiratkan atribut ini

sedikit lebih acak yang signifikan untuk data mining. Nilai entropi mencapai nilai

minimum 0, ketika semua pj lain = 0 atau berada pada kelas yang sama. Nilainya

mencapai maksimum log2 k, ketika semua nilai pj adalah sama dengan 1/k.

Page 8: algoritma C4.5

3.3 Gain Ratio

Pada kontruksi pohon C4.5, di setiap simpul pohon, atribut dengan nilai gain

ratio tertinggi dipilih sebagai atribut split untuk simpul. Rumus dari gain ratio

adalah sebagai berikut :

gainratio (a )= gain (a )split (a)

Dimana gain(a) adalah information gain dari atribut a untuk himpunan sampel X

dan split info(a) menyatakan entropi atau informasi potensial yang didapat pada

pembagian X menjadi n sub himpunan berdasarkan telaahan pada atribut a.

Sedangkan gain(a) didefinisikan sebagai berikut :

gain (a )=info (X )−inf oa(X )

Untuk rumus split info(a) adalah sebagai berikut :

split info (a )=−∑j=1

k |X1||X|

∗log2¿¿¿

dimana Xi menyatakan sub himpunan ke-I pada sampel X.

Dengan kata lain rumus untuk menghitung nilai gain ratio untuk dipilih

sebagai atribut dari simpul yang ada sebagai berikut ini :

Gainratio (a )=Entropy ( X )−∑j=1

k

¿ X i∨¿

¿ X∨¿∗Entropy (X i)¿¿

Alasan penggunaan gain ratio(a) pada C4.5 (bukan gain(a)) sebagai kriteria

pada pemilihan atribut adalah gain ternyata bias terhadap atribut yagn memiliki

banyak nilai unik.

Page 9: algoritma C4.5

CONTOH

Soal :

Terdapat data pelamar pekerjaan beserta hasil penerimaannya pada sebuah Bank. Pada tabel berikut terdapat 10 atribut

yaitu bagian pekerjaan yang akan dicari, pendidikan terakhir, jurusan sewaktu kuliah, IPK terakhir, hasil wawancara,

kelengkapan berkas pelamar, kerapian penampilan pelamar, umur, status pelamar dan hasil penerimaan kerja. Buatlah

pohon keputusan dengan menggunakan algoritma C4.5 !

PELAMAR

BAGIAN PENDIDIKAN JURUSAN IPK WAWANCARAKELENGKAPAN

BERKASKERAPIAN UMUR STATUS HASIL

1 TELLER S1 AKUNTANSI 3,8 BAIK LENGKAP BAIK 27 MENIKAH LULUS

2 TELLER S1 AKUNTANSI 2,8 CUKUP TDK LENGKAP BAIK 28 LAJANGTIDAK LULUS

3 TELLER S1 AKUNTANSI 2,7 CUKUP LENGKAP BAIK 32 BERCERAITIDAK LULUS

4 IT S2 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 29 LAJANG LULUS

5 IT S1 INFORMATIKA 3,6 BAIK LENGKAP CUKUP 26 LAJANG LULUS

6 IT S2 INFORMATIKA 2,6 BAIK TDK LENGKAP BURUK 28 MENIKAH LULUS

7 IT D3 INFORMATIKA 2,5 CUKUP TDK LENGKAP BURUK 27 LAJANGTIDAK LULUS

8 TELLER D3 AKUNTANSI 3,4 CUKUP TDK LENGKAP BAIK 22 LAJANG LULUS

9 MARKETING S2 MANAJEMEN 3,5 CUKUP LENGKAP BAIK 29 LAJANG LULUS

10 MARKETING S2 MANAJEMEN 2,8 BURUK LENGKAP BAIK 29 MENIKAHTIDAK LULUS

11 TELLER S1 AKUNTANSI 3,2 BAIK LENGKAP CUKUP 27 MENIKAH LULUS

12 TELLER D2 MANAJEMEN 3,3 BAIK LENGKAP CUKUP 33 MENIKAHTIDAK LULUS

Page 10: algoritma C4.5

13 TELLER D2 MANAJEMEN 2,8 BURUK TDK LENGKAP CUKUP 22 BERCERAI LULUS

14 TELLER S1 AKUNTANSI 2,8 BAIK TDK LENGKAP CUKUP 31 BERCERAITIDAK LULUS

15 TELLER S1 AKUNTANSI 2,4 BURUK TDK LENGKAP CUKUP 21 MENIKAHTIDAK LULUS

16 TELLER S1 AKUNTANSI 2,5 BAIK LENGKAP CUKUP 25 MENIKAH LULUS

17 MARKETING S2 MATEMATIKA 3,2 CUKUP LENGKAP BAIK 25 LAJANG LULUS

18CUST.

SERVICES1 MATEMATIKA 3,4 BAIK LENGKAP BAIK 26 LAJANG LULUS

19CUST.

SERVICES1 MATEMATIKA 2,7 CUKUP LENGKAP BAIK 26 LAJANG LULUS

20 MARKETING S2 MANAJEMEN 3,3 BAIK LENGKAP BURUK 29 LAJANG LULUS

21 MARKETING S2 MANAJEMEN 3,4 BAIK LENGKAP BAIK 33 MENIKAH LULUS

22 TELLER D3 MANAJEMEN 2,3 BURUK LENGKAP BAIK 23 MENIKAHTIDAK LULUS

23CALL

CENTRED1 INFORMATIKA 3,2 BAIK TDK LENGKAP BAIK 23 MENIKAH LULUS

24CALL

CENTRED1 INFORMATIKA 2,4 BURUK LENGKAP BURUK 29 LAJANG

TIDAK LULUS

25CUST.

SERVICES1 AKUNTANSI 3,3 BAIK LENGKAP BURUK 26 LAJANG LULUS

26CUST.

SERVICES1 AKUNTANSI 2,4 CUKUP TDK LENGKAP BAIK 26 LAJANG

TIDAK LULUS

27CUST.

SERVICES1 AKUNTANSI 3,3 CUKUP LENGKAP BURUK 27 MENIKAH LULUS

28 TELLER S1 MANAJEMEN 3,2 CUKUP TDK LENGKAP CUKUP 24 LAJANG LULUS

29 TELLER S1 MANAJEMEN 3,4 BAIK LENGKAP BAIK 24 LAJANG LULUS

30 TELLER S1 MANAJEMEN 2,9 BURUK TDK LENGKAP BAIK 29 LAJANGTIDAK LULUS

Page 11: algoritma C4.5

PENYELESAIAN

Dari kasus diatas akan dibuat sebuah pohon keputusan untuk menentukan

pelamar baru apakah diterima atau tidak. Berikut rincian langakah penyelasaian

dalam pemebentukan pohon keputusan.

Langkah 1 : Menghitung nilai entropy dan nilai gain

Lakukan perhitungan untuk jumlah kasus keseluruhan yang ada, jumlah

kasus untuk hasil Lulus dan juga jumlah kasus untuk hasil Tidak Lulus.

Kemudian lakukan perhitungan untuk mencari nilai Entropy dari setiap nilai

atribut dan nilai Gain untuk setiap atribut.

Jumlah kasus : 30

Jumlah kasus dengan hasil Lulus : 19

Jumlah kasus dengan hasil Tidak Lulus : 11

Hitung nilai entropy dari total kasus :

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−1930 )∗log2( 1930 ))+((−1130 )∗log2( 1130 ))

¿0,4174+0,5307

¿0,9481

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut :

Entropy (bagian=teller )=((−714 )∗log2( 714 ))+((−714 )∗log2( 714 ))¿0,5+0,5=1

Entropy (bagian=marketing )=((−45 )∗log 2( 45 ))+((−15 )∗log2( 15 ))

Page 12: algoritma C4.5

¿0,2575+0,4644=0,7219

Entropy (bagian=¿ )=((−34 )∗log2( 34 ))+((−14 )∗log2( 14 )) ¿0,3113+0,5=0,8113

Entropy (bagian=call centre )=((−12 )∗log 2( 12 ))+((−12 )∗log2( 12 )) ¿0,5+0,5=1

Entropy (bagian=cust . service )=((−45 )∗log2( 45 ))+((−15 )∗log2(15 ))¿0,2575+0,4644=0,7219

Entropy (pendidikan=D1 )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 ))¿0,5+0,5=1

Entropy (pendidikan=D2 )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 ))¿0,5+0,5=1

Entropy (pendidikan=D3 )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,5283+0,39=0,9183

⋮⋮⋮

Entropy (status=menikah )=((−711 )∗log2( 711 ))+((−411 )∗log2( 411 ))¿0,4150+0,5307=0,9457

Entropy (status=bercerai )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,5283+0,39=0,9183

Page 13: algoritma C4.5

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian

lakukan perhitungan untuk mencari nilai gain dari setiap atribut.

Nilai gain dari masing-masing atribut :

Gainratio (a )=Entropy ( X )−∑j=1

k |X i||X|

∗Entropy (X i )

Gain (bagian )=0,9481−(( 1430∗1)+( 530∗0,7219)+( 430∗0,8113)+( 230∗1)+( 530∗0,7219))¿0,0659

Gain (pendidikan )=0,9481−(( 230∗1)+( 230∗2)+( 330∗0,8113 )+( 1630∗0,9544 )+( 730∗0,5917))¿0,0758

Gain ( jurusan )=0,9481−(( 1130∗0,9940)+( 1030∗0,9710)+( 630∗0,9183)+( 330∗0))¿0,0763

Gain (ipk )=0,9481−(( 430∗0)+( 1030∗0,9710)+( 1230∗0,4138)+( 430∗0)) ¿0,4589

Gain (wawancara )=0,9481−(( 1430∗0,5917)+( 1030∗0,9710)+( 630∗0,6500)) ¿0,2183

Gain (berkas )=0,9481−(( 1930∗0,8315)+( 1130∗1)) ¿0,0570

Gain (kerapian )=0,9481−(( 1530∗0,971)+( 930∗0,9183)+( 630∗0,9183))¿0,0035

Gain (umur )=0,9481−(( 530∗1)+( 1330∗0,6194)+( 830∗1)+( 430∗0,8113)) ¿0,1430

Gain (status )=0,9481−(( 1630∗0,8960)+( 1130∗0,9547)+( 330∗0,9183))

Page 14: algoritma C4.5

¿0,0316

Page 15: algoritma C4.5

Hasil perhitungan untuk nilai entropy dan gain ditunjukkan dalam tabel

berikut.

ATRIBUTBANYAK KASUS

LULUS (L)TDK LULUS

(TL)ENTROPY GAIN

TOTAL KASUS 30 19 11

0,9481

BAGIAN 0,0659

TELLER 14 7 7 1

MARKETING 5 4 1 0,7219

IT 4 3 1 0,8113CALL

CENTRE2

1 11

CUST. SERVICE

54 1

0,7219

PENDIDIKAN 0,0758

D1 2 1 1 1

D2 2 1 1 1

D3 3 1 2 0,9183

S1 16 10 6 0,9544

S2 7 6 1 0,5917

JURUSAN 0,0763

AKUNTANSI 11 6 5 0,9940

MANAJEMEN 10 6 4 0,9710

INFORMATIKA 6 4 2 0,9183

MATEMATIKA 3 3 0 0

IPK 0,4589

<2,5 4 0 4 0

2.5 - 3 10 4 6 0,9710

3 - 3.5 12 11 1 0,4138

>3,5 4 4 0 0

WAWANCARA 0,2183

BAIK 14 12 2 0,5917

CUKUP 10 6 4 0,9710

BURUK 6 1 5 0,6500

BERKAS 0,0570

LENGKAP 19 14 5 0,8315TDK

LENGKAP11

5 61

KERAPIAN 0,0035

BAIK 15 9 6 0,9710

CUKUP 9 6 3 0,9183

BURUK 6 4 2 0,9183

UMUR 0,1430

<=23 5 3 2 1

Page 16: algoritma C4.5

24 - 27 13 11 2 0,6194

28 - 30 8 4 4 1,0000

>30 4 1 3 0,8113

STATUS 0,0316

LAJANG 16 11 5 0,8960

MENIKAH 11 7 4 0,9457

BERCERAI 3 1 2 0,9183

MAX = 0,4589

Langkah 2 : Menentukan node akar

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain

terbesar yaitu pada atribut IPK yaitu sebesar 0,4589. Sehingga atribut

IPK menjadi node akar.

Pada atribut IPK terdapat 4 nilai atribut, yaitu <2.5, 2.5-3, 3-3.5, >3.5.

Nilai atribut yang pertama yaitu <2.5 sudah mengklasifikasikan kasus

menjadi 1 yaitu dengan hasil Tidak Lulus sehingga tidak perlu dilakukan

perhitungan lebih lanjut.

Dan nilai atribut keempat >3,5 sudah mengklasifikasikan kasus menjadi 1

yaitu dengan hasil Lulus, sehingga tidak perlu dilakukan perhitungan

lebih lanjut.

Sedangkan nilai atribut kedua dan ketiga yaitu 2.5–3 dan 3-3.5 belum

mengklasifikasikan kasus menjadi satu keputusan sehingga perlu

dilakukan perhitungan lagi.

Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut

ini.

Page 17: algoritma C4.5

Langkah 3 : Mencari node cabang

Perhitungan dilakukan untuk mencari node cabang dari nilai atribut 2.5-3.

Perhitungan dilakukan dengan mencari nilai dari atribut selain yang menjadi

node akar (IPK), yaitu dengan mencari jumlah kasus untuk hasil Lulus dan

Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 2.5 – 3. Dan

kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan

nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut 2.5-3.

Node 1.2 :

Jumlah kasus dengan IPK = 2,5 – 3 : 10

Jumlah kasus dengan IPK = 2,5 – 3 yang hasil Lulus : 4

Jumlah kasus dengan IPK = 2,5 – 3 yang hasil Tidak Lulus : 6

Hitung nilai entropy dari total kasus :

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−410 )∗log2( 410 ))+((−610 )∗log2( 610 ))

¿0,9710

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali

pada atibut IPK :

Entropy (bagian=teller )=((−26 )∗log2( 26 ))+((−46 )∗log2( 46 ))¿0,9183

Entropy (bagian=marketing )=((−01 )∗log2( 01 ))+((−11 )∗log2(11 ))

Page 18: algoritma C4.5

¿0

Entropy (bagian=¿ )=((−12 )∗log2( 12 ))+((−12 )∗log2( 12 )) ¿1

Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0

Entropy (bagian=cust . service )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0

Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Entropy (pendidikan=D2 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0

Entropy (pendidikan=D3 )=((−01 )∗log2( 01 ))+((−11 )∗log2( 11 ))¿0

⋮⋮⋮

Entropy (status=menikah )=((−23 )∗log2( 23 ))+((−13 )∗log2( 13 )) ¿0,9183

Entropy (status=bercerai )=((−13 )∗log2( 13 ))+((−23 )∗log2( 23 ))¿0,9183

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian

lakukan perhitungan untuk mencari nilai gain dari setiap atribut.

Page 19: algoritma C4.5

Nilai gain dari masing-masing atribut :

Gainratio (a )=Entropy ( X )−∑j=1

k |X i||X|

∗Entropy (X i )

Gain (bagian )=0,9710−(( 610∗0,9183)+( 110∗0)+( 210∗1)+( 010∗0)+( 110∗0))¿0,22

Gain (pendidikan )=0,9710−(( 010∗0)+( 110∗0)+( 110∗0)+( 610∗0,9183)+( 210∗1))¿0,22

Gain ( jurusan )=0,9710−(( 410∗0,8113)+( 310∗0,9183)+( 210∗1)+( 110∗0))¿0,171

Gain (wawancara )=0,9710−(( 310∗0,9183)+( 410∗0,8113)+( 310∗0,9183)) ¿0,0955

Gain (berkas )=0,9710−(( 410∗1)+( 610∗0,9183)) ¿0,0,02

Gain (kerapian )=0,9710−(( 510∗0,7219)+( 310∗0,9183)+( 210∗1))¿0,1345

Gain (umur )=0,9710−(( 110∗0)+( 310∗0,9183)+( 410∗0,8113)+( 210∗0)) ¿0,3710

Gain (status )=0,9710−(( 410∗0,8113)+( 310∗0,9183)+( 310∗0,9183))¿0,0955

Page 20: algoritma C4.5

Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.

Node 1.2 :

ATRIBUTBANYAK KASUS

LULUS (L)

TDK LULUS

(TL)ENTROPY GAIN

IPK 2,5 - 3 10 4 6 0,9710BAGIAN 0,2200

TELLER 6 2 4 0,9183MARKETING 1 0 1 0

IT 2 1 1 1CALL CENTRE 0 0 0 0

CUST. SERVICE

1 1 0 0

PENDIDIKAN 0,2200D1 0 0 0 0D2 1 1 0 0D3 1 0 1 0S1 6 2 4 0,9183S2 2 1 1 1

JURUSAN 0,1710AKUNTANSI 4 1 3 0,8113

MANAJEMEN 3 1 2 0,9183INFORMATIKA 2 1 1 1MATEMATIKA 1 1 0 0

WAWANCARA 0,0955BAIK 3 2 1 0,9183

CUKUP 4 1 3 0,8113BURUK 3 1 2 0,9183

BERKAS 0,0200LENGKAP 4 2 2 1

TDK LENGKAP 6 2 4 0,9183KERAPIAN 0,1345

BAIK 5 1 4 0,7219CUKUP 3 2 1 0,9183BURUK 2 1 1 1

UMUR 0,3710<=23 1 1 0 0

24 - 27 3 2 1 0,918328 - 30 4 1 3 0,8113

>30 2 0 2 0STATUS 0,0955

LAJANG 4 1 3 0,8113MENIKAH 3 2 1 0,9183

BERCERAI 3 1 2 0,9183MAX = 0,3710

Page 21: algoritma C4.5

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain

terbesar yaitu pada atribut Umur yaitu sebesar 0,3710. Sehingga atribut

Umur menjadi node cabang dari nilai atribut 2.5-3.

Pada atribut Umur terdapat 4 nilai atribut, yaitu ≤23, 24-27, 28-30, >30.

Nilai atribut yang pertama yaitu ≤23 sudah mengklasifikasikan kasus

menjadi 1 yaitu dengan hasil Lulus sehingga tidak perlu dilakukan

perhitungan lebih lanjut.

Dan nilai atribut keempat yaitu >30 sudah mengklasifikasikan kasus

menjadi 1 yaitu dengan hasil Tidak Lulus, sehingga tidak perlu dilakukan

perhitungan lebih lanjut.

Sedangkan nilai atribut kedua dan ketiga yaitu 24-27 dan 28-30 belum

mengklasifikasikan kasus menjadi satu keputusan sehingga perlu

dilakukan perhitungan lagi.

Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut

ini.

Page 22: algoritma C4.5

Kemudian lakukan juga perhitungan untuk mencari node cabang dari nilai

atribut 3-3.5. Perhitungan dilakukan dengan mencari nilai dari atribut selain

yang menjadi node akar (IPK), yaitu dengan mencari jumlah kasus untuk

hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua kasus saat IPK = 3-

3.5. Dan kemudian lakukan perhitungan untuk mencari nilai Gain, dan atribut

dengan nilai Gain terbesar, maka akan menjadi node cabang dari nilai atribut

3-3.5.

Node 1.3 :

Jumlah kasus dengan IPK = 3 – 3,5 : 12

Jumlah kasus dengan IPK = 3 – 3,5 yang hasil Lulus : 11

Jumlah kasus dengan IPK = 3 – 3,5 yang hasil Tidak Lulus : 1

Hitung nilai entropy dari total kasus :

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−1112 )∗log2( 1112 ))+((−112 )∗log2( 112 ))

¿0,4138

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali

pada atibut IPK :

Entropy (bagian=teller )=((−45 )∗log2( 45 ))+((−15 )∗log2( 15 ))¿0,7219

Entropy (bagian=marketing )=((−33 )∗log2( 33 ))+((−03 )∗log2( 03 ))¿0

Entropy (bagian=¿ )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0

Page 23: algoritma C4.5

Entropy (bagian=call centre )=((−11 )∗log 2( 11 ))+((−00 )∗log2( 00 )) ¿0

Entropy (bagian=cust . service )=((−33 )∗log2( 33 ))+((−03 )∗log2( 03 ))¿0

Entropy (pendidikan=D1 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0

Entropy (pendidikan=D2 )=((−01 )∗log2( 01 ))+((−11 )∗log2( 11 ))¿0

Entropy (pendidikan=D3 )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0

⋮⋮⋮

Entropy (status=menikah )=((−45 )∗log2( 45 ))+((−15 )∗log2(15 )) ¿0,7219

Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian

lakukan perhitungan untuk mencari nilai gain dari setiap atribut.

Nilai gain dari masing-masing atribut :

Gainratio (a )=Entropy ( X )−∑j=1

k |X i||X|

∗Entropy (X i )

Page 24: algoritma C4.5

Gain (bagian )=0,4138−(( 412∗0,7219)+( 312∗0)+( 012∗0)+( 112∗0)+( 312∗0))¿0,1130

Gain (pendidikan )=0,4138−(( 112∗0)+( 112∗0)+( 112∗0)+( 612∗0)+( 312∗0))¿0,4138

Gain ( jurusan )=0,4138−(( 412∗0)+( 512∗0,7219)+( 112∗0)+( 212∗0))¿0,113

Gain (wawancara )=0,4138−(( 812∗0,5436)+( 412∗0)+( 012∗0)) ¿0,0514

Gain (berkas )=0,4138−(( 912∗0,5033)+( 312∗0)) ¿0,0364

Gain (kerapian )=0,4138−(( 612∗0)+( 312∗0,9183)+( 312∗0))¿0,1842

Gain (umur )=0,4138−(( 212∗0)+( 712∗0)+( 112∗0)+( 212∗1)) ¿0,2472

Gain (status )=0,4138−(( 712∗0)+( 512∗0,7219)+( 012∗0))¿0,1130

Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.

Node 1.3 :

ATRIBUTBANYAK KASUS

LULUS (L)

TDK LULUS

(TL)ENTROPY GAIN

IPK 3 - 3,5 12 11 1 0,4138BAGIAN 0,1130

Page 25: algoritma C4.5

TELLER 5 4 1 0,7219MARKETING 3 3 0 0

IT 0 0 0 0CALL

CENTRE1 1 0 0

CUST. SERVICE

3 3 0 0

PENDIDIKAN 0,4138D1 1 1 0 0D2 1 0 1 0D3 1 1 0 0S1 6 6 0 0S2 3 3 0 0

JURUSAN 0,1130AKUNTANSI 4 4 0 0

MANAJEMEN 5 4 1 0,7219INFORMATIKA 1 1 0 0MATEMATIKA 2 2 0 0

WAWANCARA 0,0514BAIK 8 7 1 0,5436

CUKUP 4 4 0 0BURUK 0 0 0 0

BERKAS 0,0364LENGKAP 9 8 1 0,5033

TDK LENGKAP

33 0

0

KERAPIAN 0,1842BAIK 6 6 0 0

CUKUP 3 2 1 0,9183BURUK 3 3 0 0

UMUR 0,2472<=23 2 2 0 0

24 - 27 7 7 0 028 - 30 1 1 0 0

>30 2 1 1 1STATUS 0,1130

LAJANG 7 7 0 0MENIKAH 5 4 1 0,7219

BERCERAI 0 0 0 0

MAX = 0,4138

Page 26: algoritma C4.5

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain

terbesar yaitu pada atribut Pendidikan yaitu sebesar 0,4138. Sehingga

atribut Pendidikan menjadi node cabang dari nilai atribut 3-3.5.

Pada atribut Pendidikan terdapat 5 nilai atribut, dimana semua anilai

atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil

Lulus, Tidak Lulus, Lulus, Lulus dan Lulus sehingga tidak perlu

dilakukan perhitungan lebih lanjut. Dari proses tersebut maka dapat

dihasilkan pohon sementara seperti berikut ini.

Lakukan perhitungan untuk mencari node cabang dari nilai atribut umur 24-

27. Perhitungan dilakukan dengan mencari nilai dari atribut selain yang

menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan mencari

jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy dari semua

kasus saat IPK = 2.5–3 dan Umur = 24-27. Dan kemudian lakukan

perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain terbesar,

maka akan menjadi node cabang dari nilai atribut 24-27.

Node 1.2.2 :

Jumlah kasus dengan IPK = 2,5 – 3 dan UMUR = 24 - 27 : 3

Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 - 27 yang hasil Lulus : 2

Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 – 27 yang hasil Tdk Lulus : 1

Hitung nilai entropy dari total kasus :

Page 27: algoritma C4.5

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−23 )∗log2( 23 ))+((−13 )∗log2( 13 ))

¿0,9183

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali

pada atibut IPK dan Umur :

Entropy (bag ian=teller )=((−11 )∗log2(11 ))+((−01 )∗log2( 01 ))¿0

Entropy (bagian=marketing )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Entropy (bagian=¿ )=((−00 )∗log2( 00 ))+((−11 )∗log2(11 )) ¿0

Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0

Entropy (bagian=cust . service )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 ))¿0

Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Entropy (pendidikan=D2 )=((−00 )∗log2( 00 ))+((−00 )∗log2(00 ))¿0

Page 28: algoritma C4.5

Entropy (pendidikan=D3 )=((−00 )∗log2( 00 ))+((−11 )∗log2( 11 ))¿0

⋮⋮⋮

Entropy (status=menikah )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 )) ¿0

Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian

lakukan perhitungan untuk mencari nilai gain dari setiap atribut.

Nilai gain dari masing-masing atribut :

Gainratio (a )=Entropy ( X )−∑j=1

k |X i||X|

∗Entropy (X i )

Gain (bagian )=0,9183−(( 13∗0)+( 03∗0)+( 13∗0)+( 03∗0)+( 13∗0))¿0,9

Gain (pendidikan )=0,9183−(( 03∗0)+( 03∗0)+( 13∗0)+( 23∗0)+( 13∗0))¿0,9183

Gain ( jurusan )=0,9183−(( 13∗0)+( 03∗0)+( 13∗0)+( 13∗0))¿0,9183

Gain (wawancara )=0,9183−(( 13∗0)+( 23∗1)+( 03∗0)) ¿0,2516

Gain (berkas )=0,9183−(( 23∗0)+( 13∗0))

Page 29: algoritma C4.5

¿0,9183

Gain (kerapian )=0,9183−(( 13∗0)+( 13∗0)+( 13∗0))¿0,9183

Gain (status )=0,9183−(( 23∗1)+( 13∗0)+( 03∗0))¿0,2516

Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.

Node 1.2.2 :

ATRIBUTBANYA

K KASUS

LULUS (L)

TDK LULUS (TL)

ENTROPY

GAIN

IPK 2,5 - 3 | UMUR 24-27

3 2 1 0,9183

BAGIAN0,918

3TELLER 1 1 0 0

MARKETING 0 0 0 0IT 1 0 1 0

CALL CENTRE

0 0 0 0

CUST. SERVICE

1 1 0 0

PENDIDIKAN0,918

3D1 0 0 0 0D2 0 0 0 0D3 1 0 1 0S1 2 2 0 0S2 0 0 0 0

JURUSAN0,918

3AKUNTANSI 1 1 0 0

MANAJEMEN 0 0 0 0INFORMATIK

A1 0 1 0

MATEMATIKA 1 1 0 0WAWANCAR

A0,251

6BAIK 1 1 0 0

Page 30: algoritma C4.5

CUKUP 2 1 1 1BURUK 0 0 0 0

BERKAS0,918

3LENGKAP 2 2 0 0

TDK LENGKAP

10 1

0

KERAPIAN0,918

3BAIK 1 1 0 0

CUKUP 1 1 0 0BURUK 1 0 1 0

STATUS0,251

6LAJANG 2 1 1 1

MENIKAH 1 1 0 0

BERCERAI 0 0 0 0

MAX =0,918

3

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain

terbesar yaitu sebesar 0,9183, karena ada beberapa atribut yang sama-

sama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu

pada atribut Berkas. Sehingga atribut Berkas menjadi node cabang dari

nilai atribut 24 - 27.

Pada atribut Berkas terdapat 2 nilai atribut, dimana semua nilai atribut

sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil Lulus dan

Tidak Lulus sehingga tidak perlu dilakukan perhitungan lebih lanjut.

Page 31: algoritma C4.5

Dari proses tersebut maka dapat dihasilkan pohon sementara seperti berikut

ini.

Kemudian lakukan perhitungan untuk mencari node cabang dari nilai atribut

umur 28-30. Perhitungan dilakukan dengan mencari nilai dari atribut selain

yang menjadi node akar (IPK) dan node cabang (Umur), yaitu dengan

mencari jumlah kasus untuk hasil Lulus dan Tidak Lulus, dan nilai Entropy

dari semua kasus saat IPK = 2.5–3 dan Umur = 28-30. Dan kemudian

lakukan perhitungan untuk mencari nilai Gain, dan atribut dengan nilai Gain

terbesar, maka akan menjadi node cabang dari nilai atribut 28-30.

Page 32: algoritma C4.5

Node 1.2.3 :

Jumlah kasus dengan IPK = 2,5 – 3 dan UMUR = 28 - 30 : 4

Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 28 - 30 yang hasil Lulus : 1

Jumlah kasus dg IPK = 3 – 3,5 dan UMUR = 24 - 30 yang hasil Tdk Lulus : 3

Hitung nilai entropy dari total kasus :

E (X 1 , X2 )=n1nE ( X1 )+ n2

nE(X 2)

Entropy (X ) total=((−total lulustotal kasus )∗log2( total lulustotal kasus ))+((−total tdk lulustotalkasus )∗log2( total tdk lulustotalkasus ))Entropy (X ) total=((−14 )∗log2( 14 ))+((−34 )∗log2( 34 ))

¿0,8113

Lakukan juga perhitungan untuk nilai entropy pada setiap atribut, kecuali

pada atibut IPK dan Umur :

Entropy (bagian=teller )=((−02 )∗log2( 02 ))+((−22 )∗log2( 22 ))¿0

Entropy (bagian=marketing )=((−00 )∗log2( 00 ))+((−11 )∗log2(11 ))¿0

Entropy (bagian=¿ )=((−11 )∗log2( 11 ))+((−01 )∗log2( 01 )) ¿0

Entropy (bagian=call centre )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 )) ¿0

Entropy (bagian=cust . service )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Page 33: algoritma C4.5

Entropy (pendidikan=D1 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Entropy (pendidikan=D2 )=((−00 )∗log2( 00 ))+((−00 )∗log2(00 ))¿0

Entropy (pendidikan=D3 )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

⋮⋮⋮

Entropy (status=menikah )=((−12 )∗log2( 12 ))+((−12 )∗log2(12 )) ¿1

Entropy (status=bercerai )=((−00 )∗log2( 00 ))+((−00 )∗log2( 00 ))¿0

Setelah dicari nilai entropy pada setiap nilai dari atribut yang ada, kemudian

lakukan perhitungan untuk mencari nilai gain dari setiap atribut.

Nilai gain dari masing-masing atribut :

Gainratio (a )=Entropy ( X )−∑j=1

k |X i||X|

∗Entropy (X i )

Gain (bagian )=0,8113−(( 24∗0)+( 14∗0)+( 14∗0)+( 04∗0)+( 04∗0))¿0,8113

Gain (pendidikan )=0,8113−(( 04∗0)+( 04∗0)+( 04∗0)+( 24∗0)+( 24∗1))¿0,3113

Page 34: algoritma C4.5

Gain ( jurusan )=0,8113−(( 14∗0)+( 24∗0)+( 14∗0)+( 04∗0))¿0,8113

Gain (wawancara )=0,8113−(( 14∗0)+( 14∗0)+( 24∗0)) ¿0,8113

Gain (berkas )=0,8113−(( 14∗0)+( 34∗1)) ¿0,1226

Page 35: algoritma C4.5

Gain (kerapian )=0,8113−(( 34∗0)+( 04∗0)+( 14∗0))¿0,8113

Gain (status )=0,8113−(( 24∗0)+( 24∗1)+( 04∗0))¿0,3113

Hasil perhitungan yang dilakukan ditunjukkan dalam tabel berikut.

Node 1.2.3 :

ATRIBUTBANYAK KASUS

LULUS (L)

TDK LULUS

(TL)

ENTROPY

GAIN

IPK 2,5 - 3 | UMUR 28-30

4 1 3 0,8113

BAGIAN0,811

3TELLER 2 0 2 0

MARKETING 1 0 1 0IT 1 1 0 0

CALL CENTRE

0 0 0 0

CUST. SERVICE

0 0 0 0

PENDIDIKAN0,311

3D1 0 0 0 0D2 0 0 0 0D3 0 0 0 0S1 2 0 2 0S2 2 1 1 1

JURUSAN0,811

3AKUNTANSI 1 0 1 0

MANAJEMEN 2 0 2 0INFORMATIK

A1 1 0 0

MATEMATIKA 0 0 0 0WAWANCAR

A0,811

3BAIK 1 1 0 0

CUKUP 1 0 1 0

Page 36: algoritma C4.5

BURUK 2 0 2 0BERKAS 0

LENGKAP 1 0 1 0TDK

LENGKAP3 1 2 0,9183

KERAPIAN0,811

3BAIK 3 0 3 0

CUKUP 0 0 0 0BURUK 1 1 0 0

STATUS0,311

3LAJANG 2 0 2 0

MENIKAH 2 1 1 1

BERCERAI 0 0 0 0

MAX =0,811

3

Dari hasil perhitungan pada tabel diatas, diketahui bahwa nilai Gain

terbesar yaitu sebesar 0,8113, karena ada beberapa atribut yang sama-

sama memiliki nilai gain terbesar, maka dipilih salah satu atribut yaitu

pada atribut Wawancara. Sehingga atribut Wawancara menjadi node

cabang dari nilai atribut 28-30.

Pada atribut Wawancara terdapat 3 nilai atribut, dimana semua nilai

atribut sudah mengklasifikasikan kasus menjadi 1 yaitu dengan hasil

Lulus, Tidak Lulus dan Tidak Lulus sehingga tidak perlu dilakukan

perhitungan lebih lanjut. Dari proses tersebut maka dapat dihasilkan

pohon sementara seperti berikut ini.

Page 37: algoritma C4.5

Pembentukan pohon keputusan dengan menggunakan algoritma C4.5 diatas

sudah terselesaikan karena tidak ada lagi node cabang yang belum

mengklasifikasikan 1 (satu) keputusan.

Page 38: algoritma C4.5

DAFTAR PUSTAKA

1. Moertini, Veronica S.”Towards The Use of C4.5 Algorithm for Classifying

Banking Dataset”.2003. Sumber :

http://home.unpar.ac.id/~integral/Volume%208/Integral%208%20No.

%202/C45%20Algorithm.PDF

2. Tickle, Kevin S, dkk.”Improved C4.5 Algorithm for Rule Based Classification”.

Sumber :

http://www.wseas.us/e-library/conferences/2010/Cambridge/AIKED/

AIKED-47.pdf

3. Korting, Thales Sehn.”C4.5 Algorithm and Multivariate Decision Trees”.

Sumber :

http://www.dpi.inpe.br/~tkorting/projects/c45/material.pdf

4. Hanik, Umi.”Fuzzy Decision Tree dengan Algoritma C4.5”2011. Sumber :

http://digilib.its.ac.id/public/ITS-Undergraduate-17454-5107100002-

Paper.pdf

5. Decision Tree (Pohon Keputusan). Sumber :

http://novrina.staff.gunadarma.ac.id/Downloads/files/21783/

Algoritma+C4.pdf

6. Moertini, Veronica S.”Pengembangan Skalabilitas Algoritma Klasifikasi C4.5

dengan Pendekatan Konsep Operator Relasi”.2007. Sumber :

http://home.unpar.ac.id/~moertini/Disertasi_VeronicaSM.pdf