Upload
duongminh
View
234
Download
0
Embed Size (px)
Citation preview
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER
PERCEPTRON MENGGUNAKAN
GENETIC ALGORITHM LEVENBERG MARQUARDT
SKRIPSI
Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu
Jurusan Informatika
Disusun Oleh:
ANISA ATILIANI
NIM. M0508005
JURUSAN INFORMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN
ALAM UNIVERSITAS SEBELAS MARET
SURAKARTA
Februari, 2013
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
i
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER
PERCEPTRON MENGGUNAKAN
GENETIC ALGORITHM LEVENBERG MARQUARDT
SKRIPSI
Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu
Jurusan Informatika
Disusun Oleh:
ANISA ATILIANI
NIM. M0508005
JURUSAN INFORMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN
ALAM UNIVERSITAS SEBELAS MARET
SURAKARTA
Februari, 2013
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
ii
SKRIPSI
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER
PERCEPTRON MENGGUNAKAN
GENETIC ALGORITHM LEVENBERG MARQUARDT
Disusun Oleh:
ANISA ATILIANI
NIM. M0508005
Skripsi ini telah disetujui untuk dipertahankan di hadapan Dewan Penguji
pada tanggal: 11 Februari 2013
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
iii
SKRIPSI
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER
PERCEPTRON MENGGUNAKAN
GENETIC ALGORITHM LEVENBERG MARQUARDT
HALAMAN PENGESAHAN
Disusun oleh :
ANISA ATILIANI M0508005
Telah dipertahankan di hadapan Dewan Penguji
Pada tanggal : 11 Februari 2013
Susunan Dewan Penguji
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
iv
MOTTO
“Karena sesungguhnya sesudah kesulitan itu ada kemudahan, sesungguhnya
sesudah kesulitan itu ada kemudahan, Maka apabila kamu telah selesai (dari
sesuatu urusan), kerjakanlah dengan sungguh-sungguh (urusan) yang lain”
(Q.S Alam Nasyrah : 5-7)
Apa sulitnya bagi yang Maha Mulia
dengan keikhlasan doa
Dia akan melimpahkan keridhaan dan kasih sayang-Nya
(Muhammad Zakariya Al Kandahlawi)
"Sesungguhnya kebaikan itu menyebabkan cahaya di dalam hati, sinar di wajah,
kekuatan pada tubuh, bertambahnya rezeki dan kecintaan di dalam hati orang
lain.
Sementara keburukan menyebabkan hitam (suram) di wajah, kegelapan di hati,
kelemahan pada tubuh, berkurangnya rezeki dan kebencian di hati orang lain."
(Ibnu Abbas RA)
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
v
PERSEMBAHAN
Kupersembahkan karya ini kepada :
Ibu, Bapak, serta adik tercinta Isna
Semua teman Informatika UNS khususnya angkatan 2008
Teman dekatku Diah, Upi, Ery
PELATIHAN JARINGAN SYARAF TIRUAN MULTI LAYER PERCEPTRON MENGGUNAKAN GENETIC ALGORITHM LEVENBERG MARQUARDT
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
vi
ANISA ATILIANI
Jurusan Informatika. Fakultas MIPA. Universitas Sebelas Maret.
ABSTRAK
Optimasi proses pelatihan jaringan syaraf tiruan (JST) multilayer perceptron (MLP) dapat dilakukan dengan beberapa cara, salah satunya adalah dengan menggunakan Genetic Algorithm (GA). Penelitian ini membahas mengenai kinerja GA yang diinjeksikan terhadap algoritma pelatihan JST Levenberg Marquardt (LM) yang kemudian disebut dengan Genetic Algoritm Levenberg Marquardt (GALM) terhadap kinerja algoritma LM untuk kasus prediksi kekuatan tekan beton mutu tinggi.
Proses pelatihan JST MLP GALM dilakukan dengan menggunakan GA sebagai optimasi bobot awal sebelum dilakukan pelatihan jaringan dengan LM. Pelatihan kedua dengan menggunakan algoritma LM saja. Proses pelatihan dilakukan sampai nilai Mean Square Error (MSE) mencapai konvergen.
Algoritma GALM mampu memperbaiki proses training dengan menghilangkan kegagalan proses training pada arsitektur dengan 16 dan 24 hidden neuron . Pengukuran kinerja pelatihan algoritma GALM dan LM menunjukkan bahwa arsitektur 8-5-1 merupakan arsitektur terbaik untuk kedua algoritma. Hasil pengujian terhadap arsitektur 8-5-1 menggunakan kedua algoritma mendapatkan nilai MAPE rata-rata 9.73% untuk LM dan 10.99% untuk GALM.
Kata Kunci: Pelatihan Jaringan Syaraf Tiruan, Algoritma Genetika, Levenberg Marquardt, Prediksi Kuat Tekan Beton
MULTILAYER PERCEPTRON ARTIFICIAL NEURAL NETWORK TRAINING
USING GENETIC ALGORITHM LEVENBERG MARQUARDT
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
vii
ANISA ATILIANI
Department of Informatics. Mathematic and Natural Science Faculty. Sebelas Maret University
ABSTRACT
Multilayer perceptron artificial neural network (MLP ANN) training process optimization can be done by several ways, one of them is using Genetic Algorithm. This study discusses the performance of the GA that is injected to the Levenberg Marquardt (LM) ANN training algorithm, which is then called the Genetic Algoritm Levenberg Marquardt (GALM) on the performance of the LM algorithm, for concrete compressive strength prediction.
GALM MLP ANN training process is done by using GA as the optimization of initial weight before this weight is used to train the network with LM. The second training process is using the LM algorithm. The training process carried out until the value of Mean Square Error (MSE) achieved convergent.
GALM algorithm can improve the LM training process by eliminating the training process failure on architectures with 16 and 24 hidden neurons. Measuring the performance of GALM and LM training algorithm showed that the architecture 8-5-1 is the best compared to the other architectures. This research showed that 8-5-1 architecture with GALM training method have a good prediction where MAPE 10.99%, in the other hand LM training method shows 9.37% of MAPE.
Keywords: Artificial Neural Network Training, Genetic Algorithm, Levenberg Marquardt, Concrete Compressive Strength Prediction
KATA PENGANTAR
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
viii
Bismillahirrahmaanirrahiim
Puji syukur penulis panjatkan kehadirat Allah Subhanahu Wa Ta’ala yang senantiasa memberikan nikmat dan karunia-Nya sehingga penulis dapat menyelesaikan skripsi dengan judul Pelatihan Jaringan Syaraf Tiruan Multi Layer Perceptron Menggunakan Genetic Algorithm Levenberg Marquardt, yang menjadi salah satu syarat wajib untuk memperoleh gelar Sarjana Informatika di Universitas Sebelas Maret (UNS) Surakarta.
Penulis menyadari akan keterbatasan yang dimiliki, begitu banyak bimbingan, bantuan, serta motivasi yang diberikan dalam proses penyusunan skripsi ini. Oleh karena itu, ucapan terima kasih penulis sampaikan kepada :
1. Bapak Wiharto, S.T., M.Kom. selaku Dosen Pembimbing I yang penuh kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis selama proses penyusunan skripsi ini,
2. Ristu Saptono, S.Si., M.T. selaku Dosen Pembimbing II yang penuh kesabaran membimbing, mengarahkan, dan memberi motivasi kepada penulis selama proses penyusunan skripsi ini,
3. Ibu Umi Salamah,S.Si.,M.Kom. selaku Ketua Jurusan S1 Informatika, 4. Ibu Umi Salamah,S.Si.,M.Kom. selaku Pembimbing Akademik yang telah
banyak memberi bimbingan dan pengarahan selama penulis menempuh studi di Jurusan Informatika FMIPA UNS,
5. Bapak dan Ibu dosen serta karyawan di Jurusan Informatika FMIPA UNS yang telah mengajar penulis selama masa studi dan membantu dalam proses penyusunan skripsi ini,
6. Ibu, Bapak, dan adikku, serta teman-teman yang telah memberikan bantuan sehingga penyusunan skripsi ini dapat terselesaikan.
Penulis berharap semoga skripsi ini dapat bermanfaat bagi semua pihak yang berkepentingan.
Surakarta, Februari 2013
Penulis
DAFTAR ISI
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
ix
HALAMAN PENGESAHAN ............................................................................. iii
MOTTO.............................................................................................................. iv
PERSEMBAHAN ................................................................................................ v
ABSTRAK ......................................................................................................... vi
ABSTRACT ................................................................ ................................ ...... vii
KATA PENGANTAR ....................................................................................... vii
DAFTAR ISI .................................................................................................... viii
DAFTAR GAMBAR ........................................................................................... x
DAFTAR TABEL ................................ .............................................................. xi
DAFTAR LAMPIRAN ...................................................................................... xii
BAB 1 PENDAHULUAN ................................................................................... 1
1. 1. Latar Belakang ..................................................................................... 1
1. 2. Rumusan Masalah ................................................................................ 3
1. 3. Batasan Masalah .................................................................................. 3
1. 4. Tujuan Penelitian ................................ ................................................. 3
1. 5. Manfaat Penelitian ............................................................................... 3
1. 6. Sistematika Penulisan .......................................................................... 4
BAB 2 TINJAUAN PUSTAKA ........................................................................... 5
2. 1. Dasar Teori ................................ .......................................................... 5
2. 1. 1 Jaringan Syaraf Tiruan................................................................... 5
2. 1. 2 Algoritma Genetika ..................................................................... 10
2. 1. 3 Beton ........................................................................................... 15
2. 2. Penelitian Terkait ................................ ............................................... 16
2. 3. Rencana Penelitian ............................................................................. 20
BAB 3 METODOLOGI PENELITIAN ............................................................. 21
3. 1. Pengumpulan Data ............................................................................. 21
3. 1. 1 Studi Literatur ............................................................................. 21
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
x
3. 1. 2 Dataset ................................ ........................................................ 21
3. 2. Analisa dan Perancangan ................................................................... 22
3. 2. 1 Proses Normalisasi ................................ ................................ ...... 22
3. 2. 2 Arsitektur Jaringan Syaraf Tiruan ................................................ 22
3. 2. 3 Pre Computing dengan GA .......................................................... 22
3. 2. 4 Pelatihan dengan Algoritma LM .................................................. 25
3. 2. 5 Skenario Proses Pelatihan ............................................................ 28
3. 3. Implementasi ..................................................................................... 28
3. 4. Analisa Hasil Pelatihan dan Pengujian ............................................... 29
BAB 4 PEMBAHASAN ................................ ................................ .................... 31
4. 1. Hasil Pelatihan Awal GALM dan LM ................................................ 31
4. 1. 1 Pelatihan Tiga Hidden Neuron ..................................................... 31
4. 1. 2 Pelatihan Lima Hidden Neuron ................................ .................... 32
4. 1. 3 Pelatihan Enam Hidden Neuron ................................................... 32
4. 1. 4 Pelatihan Enam Belas Hidden Neuron ......................................... 33
4. 1. 5 Pelatihan Tujuh Belas Hidden Neuron ......................................... 33
4. 1. 6 Pelatihan Dua Puluh Empat Hidden Neuron ................................ 34
4. 2. Analisa Hasil Pelatihan Awal GALM dan LM ................................... 35
4. 3. Analisa Hasil Pelatihan Lanjut ........................................................... 35
4. 4. Hasil Pengujian Arsitektur 8-5-1 ........................................................ 39
BAB 5 PENUTUP ................................ ............................................................. 42
5. 1. Kesimpulan ................................ ........................................................ 42
5. 2. Saran ................................................................................................. 42
DAFTAR PUSTAKA ................................ ........................................................ 43
LAMPIRAN ................................................................ ................................ ...... 45
DAFTAR GAMBAR
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
xi
Gambar 2. 1 Pembentukan Kromosom GA berisi Bobot dan Bias JST .............. 11
Gambar 2.2 Proses Seleksi Roda Roulette ......................................................... 12
Gambar 2.3 Kemungkinan Anak Crossover Menengah ................................ ...... 14
Gambar 2.4 Proses Otomatisasi GA - JST .......................................................... 19
Gambar 3.1 Arsitektur JST ................................................................................. 23
Gambar 3.2 Pengkodean Kromosom ................................................................ .. 23
Gambar 3.3 Proses Pre Computing dengan GA .................................................. 24
Gambar 3. 4 Proses Pelatihan GALM................................................................. 27
Gambar 3.5 Proses Pelatihan LM ....................................................................... 29
Gambar 4.1 Hasil Pelatihan 3 Hidden Neuron ................................ .................... 31
Gambar 4.2 Hasil Pelatihan 5 Hidden Neuron ................................ .................... 32
Gambar 4.3 Hasil Pelatihan 6 Hidden Neuron ................................ .................... 32
Gambar 4.4 Hasil Pelatihan 16 Hidden Neuron .................................................. 33
Gambar 4.5 Hasil Pelatihan 17 Hidden Neuron .................................................. 34
Gambar 4.6 Hasil Pelatihan 10 Hidden Neuron .................................................. 34
Gambar 4.8 Perbandingan Runtime GALM dan LM Pelatihan Lanjut ................ 37
Gambar 4.9 Grafik Perbandingan Rata-rata Runtime Keseluruhan GALM dan LM
Pelatihan Lanjut ................................................................................................. 38
Gambar 4.10 Kesesuaian Target Data Testing dan Hasil Peramalan (Output)
GALM dengan MAPE 6.43% ............................................................................ 41
Gambar 4.11 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) LM
dengan MAPE 6.31% ......................................................................................... 41
DAFTAR TABEL
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
xii
Tabel 3.1 Parameter Dataset Beton Mutu Tinggi ................................................ 21
Tabel 3.2 Rumus Empiris Penentuan Hidden Neuron (Fahmi, 2011) .................. 22
Tabel 4.1 Perbandingan Nilai MSE Pelatihan Awal............................................ 35
Tabel 4.2 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut ....................... 35
Tabel 4. 3 Perbandingan Runtime GALM dan LM Pelatihan Lanjut ................... 36
Tabel 4.4 Runtime GA pada Proses GALM ....................................................... 37
Tabel 4.5 Prosentase Kegagalan Proses Pelatihan .............................................. 38
Tabel 4.6 Nilai MAPE Hasil Pengujian Arsitektur 8-5-1 .................................... 40
DAFTAR LAMPIRAN
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
xiii
LAMPIRAN A ............................................................................................... 46
LAMPIRAN B................................................................................................ 56
LAMPIRAN C................................................................................................ 57
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
BAB 1
PENDAHULUAN
1. 1. Latar Belakang
Genetic algorithm (GA) adalah algoritma pencarian heuristik yang
didasarkan pada mekanisme evolusi biologis. Individu yang lebih kuat (fit) akan
memiliki tingkat kehidupan lebih tinggi jika dibandingkan dengan individu yang
kurang fit. Algoritma ini pertama kali dikembangkan oleh John Holland tahun
1975 (Kusumadewi, 2005). GA banyak digunakan dalam kasus optimasi, salah
satunya adalah optimasi proses pelatihan jaringan syaraf tiruan (Ahmed, 2009).
Jaringan syaraf tiruan (JST) dikembangkan berdasarkan proses
pembelajaran otak manusia, disebut tiruan karena jaringan syaraf ini
diimplementasikan dengan program komputer yang mampu menyelesaikan
sejumlah proses perhitungan selama pembelajaran. Ada beberapa teknik
pembelajaran JST, salah satu yang paling sering digunakan adalah
backpropagation (BP). Inti dari BP adalah melakukan perhitungan maju untuk
mengetahui output dan kinerja jaringan, perhitungan mundur untuk mengetahui
error jaringan yang kemudian digunakan sebagai perubahan bobot. Seiring dengan
kebutuhan mendapatkan proses pembelajaran yang lebih cepat, maka
dikembangkan beberapa algoritma pembelajaran baru dengan prinsip
BP,diantaranya: gradient descent, resillent backpropagation, quasi newton, dan
Levenberg Marquardt (LM) (Kusumadewi, 2004).
Beberapa penelitian dilakukan untuk memperbaiki kinerja jaringan syaraf
tiruan, seperti menggunakan GA untuk optimasi pelatihan. Moghadassi, et al.,
melakukan penelitian menggabungkan GA dengan LM, kemudian dilakukan
perbandingan dengan metode BP lain. Hasil penelitian menunjukkan bahwa
GALM memberikan hasil yang lebih baik untuk kasus pencampuran gas
CH4+CF4 (Moghadassi, 2011).
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
2
Ahmed, et al., melakukan penelitian serupa dengan menggunakan tiga
dataset berbeda. Penelitian ini menekankan otomatisasi proses optimalisasi
jaringan syaraf tiruan dengan menggunakan algoritma genetika, sehingga
meminimalisasi peran manusia dalam mengoperasikannya. Hasil penelitian juga
menunjukkan bahwa algoritma GALM memberikan hasil yang lebih baik dilihat
dari korelasi output dan target yang tinggi (Ahmed, 2009).
Penerapan GA dalam proses pelatihan jaringan syaraf tiruan selalu
memberikan hasil yang lebih baik dibanding dengan menggunakan algoritma
pelatihan JST lain. Namun proses pelatihan tidak memperhatikan tambahan waktu
yang digunakan untuk menjalankan algoritma genetika.
Seyed Hakim, et al., melakukan penelitian terhadap prediksi kekuatan
tekan beton mutu tinggi dengan menggunakan jaringan syaraf tiruan BP.
Penelitian ini berfokus pada pengujian arsitektur yang digunakan (Seyed Hakim,
2011).
Penelitian ini menerapkan GA dan algoritma pembelajaran JST LM untuk
kasus prediksi kekuatan beton mutu tinggi usia 3, 14, 28, 56, dan 100 hari. GA
digunakan untuk optimalisasi bobot JST pada proses precomputing sebelum bobot
tersebut digunakan untuk pelatihan JST dengan menggunakan algoritma LM.
Algoritma ini selanjutnya disebut dengan GALM. Algoritma LM dipilih karena
pembelajaran yang singkat dengan hasil yang lebih baik dibandingkan algoritma
BP yang lainnya (Moghadassil, 2011). Hasil pelatihan dari GALM kemudian
dibandingkan dengan hasil pelatihan MLP LM dengan melihat jumlah iterasi dan
runtime yang dibutukan proses pelatihan untuk konvergen.
Prediksi kekuatan beton mutu tinggi dilakukan dengan menggunakan
arsitektur dan metode yang memiliki kinerja terbaik pada proses pelatihan.
Analisa kinerja hasil prediksi berdasarkan nilai mean absolut percentage error
(MAPE) yang dihasilkan. Apabila nilai MAPE kurang dari 10% maka hasil
prediksi dikatakan sangat baik, jika nilai MAPE antara 10 – 20% maka hasil
prediksi dikatakan baik (Yasmin, 2010).
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
3
1. 2. Rumusan Masalah
Rumusan masalah dari latar belakang masalah yang telah diuraikan di atas
adalah apakah penerapan algoritma genetika memberikan perbaikan terhadap
proses pelatihan multi layer perceptron dengan kasus prediksi kekuatan tekan
beton mutu tinggi.
1. 3. Batasan Masalah
Batasan masalah dari penelitian ini adalah sebagai berikut:
1. Dataset yang digunakan adalah Concrete Compressive Strenght bersumber
dari UCI Machine Learning Repository(California)
2. Operator Genetic Algorithm yang digunakan adalah proses minimasi, skema
pengkodean bilangan real, fungsi fitness = mse, jumlah populasi = 50,
jumlah generasi = 20, seleksi roda roulette dengan peluang = 0.6 , rekombinasi
menengah dengan nilai d = 0.25, mutasi random dengan peluang = 0.05,
pelestarian kromosom (elitism) = 3 kromosom, dan penggantian populasi
dengan teknik generational replacement.
3. Proses pelatihan jaringan syaraf tiruan menggunakan algoritma Levenberg
Marquardt dengan inisialisai parameter LM ( ) = 0.1 dan faktor = 10.
Pengukuran kinerja dengan menggunakan MSE.
1. 4. Tujuan Penelitian
Tujuan dari penelitian ini adalah untuk mengetahui bahwa penerapan
algoritma genetika memberikan perbaikan pada proses training multi layer
perceptron untuk kasus prediksi kekuatan tekan beton mutu tinggi .
1. 5. Manfaat Penelitian
Penelitian ini diharapkan dapat menghasilkan suatu metode training
multilayer perceptron dengan memanfaatkan algoritma genetika untuk kasus
prediksi kekuatan tekan beton.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
4
1. 6. Sistematika Penulisan
BAB 1 PENDAHULUAN
Pendahuluan berisi mengenai latar masalah, rumusan masalah, pembatasan
masalah, tujuan, manfaat, dan sistematika penulisan.
BAB 2 TINJAUAN PUSTAKA
Tinjauan pustakan berisi mengenai penelitian terdahulu dan rencana
penelitian yang akan dilakukan oleh Penulis. Selain itu juga berisi teori jaringan
syaraf tiruan dengan algoritma Levenberg-Marquardt dan algoritma genetika.
BAB 3 METODOLOGI PENELITIAN
Metodologi berisi mengenai metodologi atau langkah-langkah dalam
pemecahan masalah, meliputi penyusuan formula setta algoritma yang digunakan
dalam penelitian.
BAB 4 HASIL DAN PEMBAHASAN
Hasil dan pembahasan berisi tentang eksperimen pengujian dari formula
dan algoritma yang telah diimplementasikan dan diterapkan dengan menggunakan
sample data yang ada dan kemudian dilakukan analisa terhadap hasil dari
eksperimen yang telah dilakukan.
BAB 5 PENUTUP
Penutup berisi kesimpulan penelitian dan saran sebagai bahan
pertimbangan untuk penelitian selanjutnya.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
5
BAB 2
TINJAUAN PUSTAKA
2. 1. Dasar Teori
2. 1. 1 Jaringan Syaraf Tiruan
Jaringan syaraf tiruan (JST) dikembangkan berdasarkan proses
pembelajaran otak manusia, disebut tiruan karena jaringan syaraf ini
diimplementasikan dengan program komputer yang mampu menyelesaikan
sejumlah proses perhitungan selama pembelajaran. Ada beberapa teknik
pembelajaran JST, salah satu yang paling sering digunakan adalah
backpropagation (BP). Inti dari BP adalah melakukan perhitungan maju untuk
mengetahui output dan kinerja jaringan, selanjutnya dilakukan perhitungan
mundur untuk mengetahui error jaringan yang kemudian digunakan sebagai
perubahan bobot. Seiring dengan kebutuhan mendapatkan proses pembelajaran
yang lebih cepat, maka dikembangkan beberapa algoritma pembelajaran baru
dengan prinsip BP,diantaranya: gradient descent, resillent backpropagation, quasi
newton, dan Levenberg Marquardt (Kusumadewi, 2004).
2. 1. 1. 1 Proses Normalisasi Data
Proses normalisasi dilakukan agar data input dan target yang digunakan
dalam proses pelatihan dan pengujian JST berada pada suatu range tertentu.
Normalisasi minmax menskalakan suatu nilai yang diberikan kedalam nilai baru
antara 0 sampai dengan 1 berdasarkan nilai maksimum dan minimum dataset
tersebut. Diberikan nilai yang bersesuaian {Sk} dimana k = 0,1,...n, maka nilai
normalisasinya adalah
= min { }max{ } min{ } (2.1)
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
6
2. 1. 1. 2 Fungsi Aktivasi
Fungsi sigmoid biner memiliki nilai pada range 0 sampai 1. Oleh karena
itu fungsi ini sering digunakan untuk JST yang membutuhkan nilai outpu t pada
interval 0 sampai 1. Fungsi sigmoid biner dirumuskan sebagai(Kusumadewi,
2004): = ( ) = (2.2)
dengan ( ) = ( )[1 ( )] (2.3)
2. 1. 1. 3 Algoritma Levenberg Marquardt
Algoritma Levenberg-Marquardt dirancang dengan menggunakan
pendekatan turunan kedua tanpa harus menghitung matrik Hessian. Apabila
jaringan syaraf tiruan feed forward menggunakan fungsi kinerja sum of square,
maka matrik Hessian dapat didekati sebagai: = (2.4)
Dengan gradien dapat dihitung sebagai: = (2.5)
Dengan j adalah matrik Jacobian yang berisi turunan pertama dari error
jaringan terhadap bobot, dan e adalah suatu vektor yang berisi error jaringan.
Matrik Jacobian dapat dihitung dengan teknik backpropagation standar, yang
tentu saja lebih sederhana dibanding dengan menghitung matrik Hessian.
Algoritma Levenberg-Marquardt menggunakan pendekatan untuk
menghitung matrik Hessian, melalui perbaikan metode Newton: = [ + ] (2.6)
Apabila m bernilai 0, maka pendekatan ini akan sama seperti metode
Newton. Namun apabila m terlalu besar, maka pendekatan ini akan sama halnya
dengan gradient descent dengan learning rate yang sangat kecil. Metode Newton
sangat cepat dan akurat untuk mendapatkan error minimum, oleh karena itu
diharapkan algoritma sesegera mungkin dapat mengubah nilai m menjadi sama
dengan 0. Untuk itu, setelah beberapa iterasi, algoritma ini akan menurunkan nilai
m, kenaikan nilai m hanya dilakukan apabila dibutuhkan suatu langkah
(sementara) untuk menurunkan fungsi kinerja. (Kusumadewi, 2004)
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
7
Algoritma LM merupakan salah satu jenis dari algoritma pelatihan JST BP
dengan dua jenis perhitungan, yakni perhitungan maju dan perhitungan mundur.
Secara singkat perhitungan LM dapat dijelaskan sebagai berikut:
1. Inisialisasi bobot dan bias dengan bilangan acak, epoch maksimum, dan
target minimal (target biasanya dihitung dengan menggunakan mean
square error/ MSE).
2. Menentukan parameter yang dibutuhkan, antara lain:
- Inisialisasi epoch = 0
- Parameter LM ( ) yang nilainya harus lebih besar dari nol
- Parameter
dikalikan atau dibagi dengan parameter LM. Penjelasan ada pada
step berikutnya
3. Tiap-tiap unit input (xi, i = 1, 2, 3, ..., n) menerima sinyal input dan
meneruskan sinyal tersebut ke semua unit pada lapisan tersembunyi
Tiap-tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p) menjumlahkan
sinyal-sinyal input berbobot
_ = +
(2.7)
Gunakan fungsi aktivasi untuk menghitung sinyal output = ( _ ) (2.8)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya.
4. Tiap-tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) menjumlahkan sinyal-
sinyal input berbobot
_ = + (2.9)
Gunakan fungsi aktivasi untuk menghitung sinyal output = ( _ ) (2.10)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya.
5. Menghitung error, MSE dan total error jaringan
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
8
Rumus untuk error: = (2.11)
r = input ke-r
Rumus untuk menghitung MSE:
= 1
(2.12)
Rumus untuk menghitung total error: = [ … ] (2.13)
e = vektor kesalahan berukuran Nx1 yang terdiri dari er, r= 1, 2,3, ..., N
6. Hitung error neuron untuk tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) 2 = ( _ )1 (2.14) 2 = 2 (2.15) 2 = 2 (2.16)
7. Hitung error neuron untuk tiap unit lapisan tersembunyi (zj, j = 1 , 2, 3, ...
p)
_ = 2 (2.17)
1 = (2.18) 1 = 1 (2.19) 1 = 1 (2.20)
8. Membentuk matrik jacobian = 1 … 1 1 … 1 2 … 2 2 … 2 (2.21)
9. Menghitung bobot baru = ( + ) (2.22)
10. Menghitung MSE
Jika MSEbaru <= MSElama, maka
- = (2.23)
- epoch = epoch + 1
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
9
- Kembali ke langkah 3
Jika MSEbaru>MSElama, maka
- = (2.24)
- Kembali ke langkah 9
11. Proses pelatihan berhenti jika epoch = epoch maksimal atau error = target
error.
2. 1. 1. 4 Pengukuran Kinerja JST
Kinerja pelatihan JST diukur dengan menggunakan mean square error
rumus 2.12, dimana sebelum pelatihan ditetapkan suatu target error yang harus
dicapai pada saat pelatihan. Pengukuran kinerja juga dapat dilakukan dengan
melihat jumlah epoch yang diperlukan untuk mencapai error tertentu.
2. 1. 1. 5 Pengujian JST
Setelah proses pelatihan dilakukan proses pengujian jaringan. Pada proses
pengujian, tahap yang dilakukan hanya tahap maju saja, tidak ada tahap mundur
sehingga tidak ada tahapan modifikasi bobot.
Seluruh bobot input diambil dari nilai bobot terakhir yang diperoleh dari
proses pelatihan. Pada tahap pengujian ini, jaringan diharapkan dapat mengenali
pola berdasarkan data baru yang diberikan (generalisasi).
Pengukuran kinerja prediksi dengan menggunakan MAPE. Suatu model
mempunyai kinerja yang sangat bagus jika nilai MAPE dibawah 10% dan
mempunyai kinerja bagus apabila nila i MAPE antara 10% s.d. 20%. (Yasmin,
Rahman, & Eftekhari, 2010)
a. MSE (Mean Square Error): masing-masing nilai sisa dikuadratkan
kemudian dijumlahkan dan dibagi jumlah data observasi. MSE dihitung
dengan rumus 2.12
b. Percentage error (PE) merupakan perhitungan perbedaan data asli (T)
dengan data hasil peramalan (P), perbedaan tersebut kemudian
dipersentasikan terhadap data asli.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
10
= × 100 (2.25)
Apabila nilai percentage error tersebut diabsolutkan kemudian dirata-
rata dari suatu kumpulan data, maka disebut dengan mean absolut
percentage error (MAPE) (Armstrong, 1992).
= 1 | |
(2.26)
2. 1. 2 Algoritma Genetika
Algoritma genetika adalah algoritma pencarian heuristik yang didasarkan
atas mekanisme evolusi biologis. Individu yang lebih kuat (fit) akan memiliki
tingkat hidup dan reproduksi lebih tinggi dibandingkan dengan individu yang
kurang fit. Pada kurun waktu tertentu (disebut dengan istilah generasi), populasi
secara keseluruhan akan lebih banyak memuat organisme yang fit.
Algoritma genetika pertama kali dikembangkan oleh John Holland dari
Universitas Michigan (1975). Dia mengatakan bahwa setiap masalah yang
berbentuk adaptasi dapat diformulasikan dalam terminologi genetika. Algoritma
genetika adalah simulasi dari proses evolusi Darwin dan operasi genetika atas
kromosom.
Teknik pencarian algoritma genetika dilakukan sekaligus atas sejumlah
solusi yang mungkin yang disebut dengan populasi. Individu yang terdapat
dalamsatu populasi disebut dengan kromosom. Kromosom merupakan suatu
solusi yang masih berbentuk simbol. Populasi awal dibangun secara acak,
populasi berikutnya merupakan hasil evolusi kromosom melalui iterasi yang biasa
disebut dengan generasi. Pada setiap generasi terjadi proses evaluasi kromosom
dengan menggunakan suatu alat ukur yang disebut dengan fungsi fitness. Fungsi
fitness menujukkan kualitas kromosom dalam populasi tersebut. Generasi
berikutnya dikenal dengan istilah anak (offspring) yang merupakan hasil
gabungan dua kromosom generasi sekarang yang bertindak sebagai orangtua
(parent) dengan menggunakan operator penyilangan (crossover). Selain operator
penyilangan, suatu kromosom juga dapat dimodifikasi dengan operator mutasi.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
11
Populasi generasi baru dibentuk dengan cara menyeleksi nilai fitness dari
kromosom induk (parent) dan nilai fitness dari kromosom anak (offspring), serta
menolak kromosom-kromosom yang lainnya sehingga ukuran populasi (jumlah
kromosom dalam populasi) konstan. Setelah melalui beberapa generasi, maka
algoritma ini akan konvergen ke kromosom terbaik. (Kusumadewi, 2005)
2. 1. 2. 1 Skema Pengkodean
Skema pengkodean menggunakan tipe bilangan real. Proses GALM
merepresentasikan bias dan bobot JST ke dalam bentuk kromosom GA
(Moghadassi & al, 2011). Apabila terdapat suatu model JST seperti gambar 2.1 a),
maka pembentukan kromosom sesuai dengan gambar 2.1 b).
Gambar 2. 1 Pembentukan Kromosom GA berisi Bobot dan Bias JST
2. 1. 2. 2 Fungsi Evaluasi
Ada dua hal yang harus dilakukukan dalam melakukan evaluasi
kromosom, yaitu: evaluasi fungsi obyektif (fungsi tu juan) dan konversi fungsi
obyektif ke dalam fungsi fitness. Secara umum, fungsi fitness diturunkan dari
fungsi obyektif dengan nilai yang tidak negatif. Apabila ternyata fungsi obyektif
memeiliki nilai negatif, maka perlu ditambahkan suatu konstanta C agar nilai
fitness yang terbentuk menjadi tidak negatif(Kusumadewi, 2005).
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
12
Fungsi evaluasi dalam GALM menggunakan nilai MSE sebagai fungsi
obyektif dan fungsi fitness dengan kasus minimasi (Moghadassi, 2011).
2. 1. 2. 3 Seleksi
Seleksi akan menentukan individu- individu mana saja yang dipilih untuk
melakukan rekombinasi dan bagaimana offspring terbentuk dari individu-individu
yang terpilih tersebut. Langkah pertama yang dilakukan dalam proses seleksi ini
adalah perhitungan fitness. Masing-masing individu akan menerima probabilitas
reproduksi yang tergantung pada nilai obyektif dirinya sendiri terhadap nilai
obyektif dari semua individu dalam wadah tersebut. Nilai fitness inilah yang
nantinya akan digunakan pada tahap-tahap seleksi berikutnya. (Kusumadewi,
2005).
Gambar 2.2 Proses Seleksi Roda Roulette
Metode seleksi roda roulette merupakan metode seleksi yang paling
sederhana, dan sering dikenal dengan nama stochastic sampling with replacement.
Pada metode ini, individu- indovidu dipetakan dalam suatu segmen garis secara
berurutan sedemikian hingga tiap-tiap segmen individu memiliki ukuran yang
sama dengan fitnessnya. Sebuah bilangan random dibangkitkan dan individu yang
memiliki segmen dalam kawasan bilangan random tersebut akan terseleksi. Proses
ini diulang hingga diperoleh sejumlah individu yang diharapkan.
Gambar 2.2 menunjukkan probabilitas seleksi dari 11 individu. Individu
pertama memiliki fitness terbesar, dengan demikian juga memiliki interval
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
13
terbesar. Individu ke-11 memiliki fitness terkecil = 0, interval terkecil sehingga
tidak memiliki kesempatan untuk melakukan reproduksi.
Setelah dilakukan seleksi maka individu yang terpilih adalah
1 2 3 5 6 9
2. 1. 2. 4 Rekombinasi
Rekombinasi disebut juga dengan istilah pindah silang adalah proses
terjadinya pertukaran gen antar dua induk untuk menghasilkan individu baru.
(Kusumadewi, 2005)
Rekombinasi menengah merupakan metode rekombinasi yang hanya dapat
digunakan untuk variabel real (dan variabel yang bukan biner). Nilai variabel anak
dipilih di sekitar dan antara nilai-nilai variabel induk.
Anak dihasilkan menurut aturan sebagai berikut:
Anak= induk1 + alpha (induk2 – induk 1) (2.27)
Dengan alpha adalah faktor skala yang dipilih secara random pada interval
[-d, 1+d], biasanya d = 0.25. Tiap- tiap variabel pada anak merupakan hasil
kombinasi variabel-variabel menurut aturan diatas dengan nilai alpha dipilih ulang
untuk tiap variabel. Gambar menunjukkan area induk dan anak yang mungkin.
Misalkan ada dua individu dengan 3 variabel yaitu:
Misalkan nilai alpha yang terpilih adalah:
Setelah rekombinasi, kromosom-kromosom baru yang terbentuk:
Gambar 2.3 menunjukkan posisi yang mungkin dari anak setelah
rekombinasi menengah.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
14
Gambar 2.3 Kemungkinan Anak Crossover Menengah
2. 1. 2. 5 Mutasi
Setelah mengalami proses rekombinasi pada offspring dapat dilakukan
mutasi. Variabel offspring dimutasi dengan menambahkan nilai random yang
sangat kecil (ukuran langkah mutasi), dengan probabilitas yang rendah. Peluang
mutasi (pm) didefinisikan sebagai persentasi dari jumlah total gen pada populasi
yang mengalami mutasi. Peluang mutasi mengendalikan banyak gen baru yang
akan dimunculkan untuk dievaluasi. Jika peluang mutasi kecil, banyak gen yang
mungkin berguan tidak pernah dievaluasi. Tetapi jika peluang mutasi terlalu
besar, maka akan terlalu banyak gangguan acak, sehingga anak akan kehilangan
kemiripan dengan induknya, dan juga algoritma akan kehilangan kemampuan
untuk belajar dari histori pencarian. Ada yang berpendapat bahwa peluang mutasi
sebesai 1/n akan memberikan hasil yang cukup baik. Ada juga yang beranggapan
bahwa laju mutasi tidak tergantung ukuran populasi. Kromosom hasil mutasi
harus diperiksa, apakah hasil masih berada pada domain solusi dan bila perlu bisa
dilakukan perbaikan.
Mutasi berperan untuk menggantikan gen yang hilang dari populasi akibat
proses seleksi yang memungkinkan munculnya kembali gen yang tidak muncul
pada inisialisasi populasi. (Kusumadewi, Penyelesaian 2005).
Mutasi random adalah salah satu jenis mutasi bilangan real, d ikatakan
apabila C= (c1, c2, ... , ci, ... , cn ) adalah kromosom, ci [ , ] sebuah gen yang
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
15
akan dimutasi, dan ci’ adalah kromosom hasil mutasi, maka ci’ merupakan
bilangan random yang dibangkitkan dari domain [ , ] (Herrera, 1998) .
2. 1. 2. 6 Pelestarian Kromosom
Konsep elitisme muncul untuk mengatasi kelemahan proses seleksi yang
dilakukan secara random dimana tidak ada jaminan bahwa individu yang
mempunyai nilai fitness tinggi akan selalu terpilih. Kalaupun individu tersebut
terpilih, maka dimungkinkan individu tersebuta akan rusak (nilai fitnessnya
menurun) dikarenakan proses pindah silang. Elitisme adalah suatu prosedur untuk
membuat salinan dari individu yang memiliki nilai fitness tinggi, sehingga tidak
hilang selama proses evolusi (Suyanto, 2005).
2. 1. 2. 7 Penggantian Populasi
Generational replacement adalah proses penggantian semua individu
(misal ada N individu dalam populasi) dari suatu generasi akan digantikan
sekaligus oleh N individu baru dari hasil pindah silang dan mutasi. Skema
penggantian ini tidak realistis dari sudut pandang biologi. Secara umum skema
penggantian populasi dapat dirumuskan berdasarkan ukuran yang disebut dengan
generational gap G. Ukuran ini menunjukkan persentase populasi yang digantikan
dalam setiap generasi. Pada skema ini G=1(Suyanto, 2005).
2. 1. 3 Beton
Beton merupakan campuran antara semen portland atau semen hidraulik
yang lain, agregat halus, agregat kasar dan air, dengan atau tanpa bahan tambahan
yang membentuk masa padat (Anonim, 2002).
2. 1. 3. 1 Komponen Beton Mutu Tinggi
Ada 7 komponen utama penyusun beton mutu tinggi, yakni:
1. Semen
2. Air
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
16
3. Agregat kasar: kerikil sebagai hasil disintegrasi 'alami' dari batuan atau
berupa batu pecah yang diperoleh dari industri pemecah batu dan
mempunyai ukuran butir antara 5 mm sampai 40 mm (Anonim, 2002)
4. Agregat halus: pasir alam sebagai hasil d isintegrasi 'alami' batuan atau
pasir yang dihasilkan oleh industri pemecah batu dan mempunyai ukuran
butir terbesar 5 mm (Anonim, 2002)
5. Superplasticizer: bahan tambahan yang sering digunakan dalam
pembuatan beton mutu tinggi. Superplasticizer menghasilkan beton yang
memiliki kuat tekan tinggi dengan campuran air dan semen yang rendah
(Seyed Hakim, 2011)
6. Blast Furnace Slag
7. Abu terbang: bahan tambahan yang digunakan dalam pembuatan beton
mutu tinggi, biasa digunakan bersamaan dengan superplasticizer. Tanpa
bahan tambahan, maka akan sulit untuk menghasilkan beton mutu tinggi.
2. 1. 3. 2 Kuat Tekan Beton
Kuat tekan beton adalah besarnya beban persatuan luas yang menyebabkan
benda uji beton hancur bila dibebani dengan gaya tekan tertentu, yang dihasilkan
oleh mesin tekan (Anonim, 1990). = ( ) (2.28)
P = beban maksimum (kg)
A = luas penampang benda uji (cm2)
2. 2. Penelitian Terkait
1. A New Approach to Train Multilayer Perceptron ANN Using Error
Back-propagation and Genetic Algorithms Hybrid: A Case Study of
PVTx Estimation of CH4+CF4 Gas Mixture (Moghadassi, 2011)
Moghadassi dkk melakukan penelitian untuk menguji sebuah
algoritma pembelajaran jaringan syaraf tiruan multi layer perceptron dengan
menggunakan algoritma genetika dan algoritma error backpropagation.
Studi kasus yang digunakan adalah pencampuran gas CH4+CF4 . Model
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
17
penelitian adalah dengan menggunakan algoritma genetika (GA) sebagai
alat untuk melakukan optimasi bias dan bobot JST. Bias dan bobot JST
dipetakan menjadi kromosom yang dikodekan dalam bentuk string. Panjang
string tergantung dari jumlah bit yang diterapkan untuk masing-masing
parameter, semakin panjang bit maka akan menambah waktu eksekusi.
Namun apabila bit yang digunakan semakin pendek, maka akan
berpengaruh terhadap akurasi. Gambar 2.1 menunjukkan bagaimana bobot
dan bias dipetakan dalam algoritma genetika.
GA melakukan pencarian kombinasi bobot dan bias yang paling
optimal untuk diterapkan dalam JST. Algoritma pembelajaran jaringan
syaraf tiruan yang dipilih untuk digabungkan dengan GA adalah Algoritma
Levenberg-Marquardt, d ikarenakan dibandingkan dengan yang lain
algoritma ini memiliki waktu pembelajaran paling cepat, sehingga
diharapkan perpaduan dari kedua algoritma ini mampu meningkatkan
akurasi dan kecepatan waktu eksekusi.
Algoritma hybrid ini kemudian dibandingkan dengan beberapa
algoritma pembelajaran yang lain, diantaranya Levenberg-Marquardt, BFGS
Quasi-Newton, Resilient Backpropagation, Scalled Conjugate Gradient,
Conjugate Gradient with Powell-Beale Restarts, Fletcher-Power Conjugate
Gradient, Polak-Ribiere Conjugate Gradient,dan One-Step Secant. Hasil
penelitian ini menjukkan bahwa algoritma hybrid antara algoritma genetika
dan Levenberg-Marquardt (GA-LM) jauh lebih baik dibandingkan dengan
algoritma pembelajaran yang lain, dilihat dari sisi waktu pembelajaran yang
lebih singkat dan jumlah iterasi yang lebih sedikit untuk mencapai nilai
MSE 0.01 (Moghadassi, 2011).
2. Application of Artificial Neural Network to Predict Compressive
Strength of High Strength Concrete. (Seyed Hakim, 2011)
Seyed Hakim dkk melakukan penelitian untuk prediksi kekuatan
tekan beton mutu tinggi usia 28 hari. Penelitian dilakukan dengan menguji
30 arsitektur MFNNs untuk mendapatkan arsitektur yang terbaik.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
18
Selanjutnya adalah melakukan training terhadap arsitektur JST yang terpilih
dengan menggunakan 256 data dan batasan RMSE sebesar 0.001. Selain itu
dilakukan pula pengujian terhadap arsitektur ini dengan menggunakan 112
dataset yang berbeda.
Hasil penelitian tersebut menunjukkan bahwa arsitektur JST 8-10-6-1
dengan fungsi aktivasi sigmoid merupakan arsitektur terbaik. Rata-rata error
relatif untuk data training dan testing dalam memprediksi kekuatan tekan
HSC sebesar 7.02% dan 12.64% masih dapat diterima dalam teknologi
beton. Selain itu, penelitian ini menunjukkan bahwa JST dapat digunakan
untuk melakukan prediksi kekuatan tekan HSC dan lebih akurat
dibandingkan dengan analisa regresi ataupun metode konvensional lain
(Seyed Hakim, 2011).
3. Study of Genetic Algorithm to Fully-automate the Design and
Training of Artificial Neural Network. (Ahmed, 2009)
Ahmed dkk melakukan penelitian mengenai penerapan algoritma
genetika (GA) dalam proses optimalisasi bobot jaringan syaraf tiruan.
Penelitian ini lebih menekankan kepada otomatisasi proses sehingga
meminimalisasi peran manusia dalam mengoperasikannya. Diagram alir dari
proses otomatisasi yang dimaksud terlihat pada gambar 2.4.
Penelitian ini menggunakan 3 dataset untuk menguji pengaruh
algoritma genetika dalam proses optimalisasi jaringan syaraf tiruan FFNN
dengan algoritma Levenberg Marquardt, dengan fungsi aktivasi sigmoid dan
linear. Masing- masing data menggunakan arsitektur jaringan syaraf yang
berbeda dengan jumlah lapisan tersembunyi yang sama yakni satu lapisan
tersembunyi dan enam neuron di lapisan tersembunyi. Data set yang
digunakan adalah data prediksi isolate pentene dan normal pentene pada
CRU debutanizer, prediksi net power dan turbine inlet temperature, dan
prediksi flank wear proses penggilingan.
Sebelum digunakan dilakukan normalisasi data dalam skala 0-1
dengan menggunakan fungsi premnmx dan tramnmx MATLAB. Kemudian
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
19
denormalisasi dengan fungsi postmnx. Parameter algoritma genetika yang
digunakan adalah peluang pindah silang = 0.6, peluang mutasi = 0.05,
jumlah populasi = 50, dan jumlah generasi = 20. Fungsi obyektif yang
digunakan adalah mean square error (MSE).
Performansi dari metode GA-ANN ini ditentukan oleh MSE, RMSE,
dan R2, ditandai dengan semakin kecil MSE, RMSE dan apabila R2
mendekati 1 maka performansi semakin bagus. Hasil dari penelitian
menyebutkan algoritma genetika dapat digunakan sebagai cara untuk
mengoptimasi variabel input. Hal ini terlihat pada R2 untuk ketiga data set
tersebut masing-masing menunjukkan nilai 0.9984, 0.9983; 0.9958, 0.9983;
dan 0.9997 (Ahmed, 2009).
Gambar 2.4 Proses Otomatisasi GA - JST
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
20
2. 3. Rencana Penelitian
Penelitian kali ini akan melakukan analisa terhadap pengaruh penggunaan
algoritma genetika terhadap proses training multilayer perceptron dengan
menggunakan algoritma Levenbergh Marquardt. Data yang digunakan berasal dari
machine learning repository berupa data set kekuatan tekan beton mutu tinggi
yang terdiri dari 8 parameter input dan 1 parameter output. Arsitektur jaringan
dengan single hidden layer, 8 neuron input dan 1 neuron output. Jumlah neuron
pada hidden layer divariasikan 3, 5, 6, 16, 17, dan 24 sesuai dengan rumus empiris
penentuan hidden neuron, seperti tertera pada tabel 3.2.
Algoritma genetika digunakan untuk melakukan optimasi terhadap bobot
awal jaringan syaraf tiruan, sehingga dilakukan pemetaan terhadap bias dan bobot
JST ke dalam algoritma genetika (Moghadassi, 2011). Prediksi kekuatan tekan
beton menjadi studi kasus yang digunakan dalam penelitian ini.
Penelitian yang dilakukan terdiri dari dua skenario, yakni:
1. Menggunakan algoritma genetika (GA) untuk proses inisialisasi bobot dan
bias jaringan syaraf tiruan, kemudian hasilnya digunakan untuk training
JST (GALM)
2. Melakukan training dengan algoritma LM menggunakan bobot dan bias
yang dibangkitkan secara random.
Hasil dari kedua skenario diatas kemudian dibandingkan sehingga
diperoleh suatu kesimpulan mengenai pengaruh GA terhadap proses training
multilayer perceptron.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
21
BAB 3
METODOLOGI PENELITIAN
3. 1. Pengumpulan Data
3. 1. 1 Studi Literatur
Tahapan studi literatur meliputi:
1. Mempelajari jurnal penelitian yang membahas mengenai penerapan
algoritma genetika dan algoritma levenberg-marquardt dalam proses
training jaringan syaraf tiruan.
2. Mempelajari algoritma genetika dan jaringan syaraf tiruan secara umum
3. 1. 2 Dataset
Database kekuatan beton mutu tinggi diperoleh dari UCI Machine
Learning Repository. Total data sebanyak 1030 data yang kemudian dilakukan
seleksi berdasarkan umur beton 3, 14, 28, 56, dan 100 hari dengan komposisi
yang sama menjadi sebanyak 260 data. Data dibagi menjadi 2 bagian, 250 data
training dan 10 data testing. Sebelum digunakan, dataset dinormalisasikan dengan
normalisasi minmax.
Tabel 3.1 Parameter Dataset Beton Mutu Tinggi
Parameter Satuan
Semen kg/m3
Blast Furnace Slag kg/m3
Abu terbang kg/m3
Air kg/m3
Superplasticizer kg/m3
Agregat Kasar kg/m3
Agregat Halus kg/m3
Umur Hari
Kekuatan Tekan Beton Mpa (Megapascal)
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
22
3. 2. Analisa dan Perancangan
3. 2. 1 Proses Normalisasi
Proses normalisasi data dilakukan sebelum data dibagi menjadi data
training dan data testing. Normalisasi menggunakan normalisasi min max dengan
memisahkan antara data input dan data target. = { }{ } { } (3.1)
3. 2. 2 Arsitektur Jaringan Syaraf Tiruan
Arsitektur jaringan syaraf tiruan single hidden layer dengan 8 neuron input
dan 1 neuron output. Wu Zhang dalam Fahmi menentukan rumus empiris
penentuan hidden neuron sesuai tabel 3.2. Fungsi aktifasi input layer ke hidden
layer menggunakan sigmoid, hidden layer ke output layer juga menggunakan
sigmoid.
Tabel 3.2 Rumus Empiris Penentuan Hidden Neuron (Fahmi, 2011)
No Rumus Empiris Jumlah neuron hidden
layer 1 2 + 1 17 2 3 24
3 2 + + 0.5 + 3+ 5
4 (2 )/3 6 5 3 6 2 16
Ni adalah neuron input sejumlah 8 neuron, No adalah neuron output
sejumlah 1 neuron
3. 2. 3 Pre Computing dengan GA
3. 2. 3. 1 Operator Algoritma Genetika
Proses GA dilakukan sebelum proses JST (pre computing). Diharapkan
proses GA dapat melakukan optimalisasi initia l weight sebelum bobot tersebut
digunakan dalam proses JST. Gambar 3.3 menunjukkan diagram alir GA sebagai
proses pre computing.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
23
Operator GA yang digunakan adalah sebagai berikut:
1. Skema Pengkodean dan Inisialisasi Populasi
Skema pengkodean bilangan real dengan memetakan bias dan bobot JST
ke dalam kromosom GA. Arsitektur JST gambar 3.1 dipetakan ke dalam
kromosom GA seperti gambar 3.2.
Inisia lisasi populasi dilakukan dengan membangkitkan bilangan random
sebanyak bobot dan bias JST yang dipetakan ke dalam kromosom
dikalikan dengan jumlah anggota populasi. Penelitian ini menggunakan 50
individu dalam satu populasi. Nilai random berkisar antara 0 sampai 1.
1
2
1
2
1
v11
V12
v22
w11
w220
0
v01
w01
v21
v02
Gambar 3.1 Arsitektur JST
Gambar 3.2 Pengkodean Kromosom
2. Fungsi Evaluasi
Fungsi evaluasi menggunakan mean square error yang dihasilkan oleh
JST. (Moghadassi & a l, 2011).
3. Seleksi
Proses seleksi menggunakan seleksi roda roulette.
4. Rekombinasi
v11 v12 v21 v22 v01 v02 w11 w21 w01
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
24
Proses rekombinasi atau disebut juga dengan pindah silang menggunakan
rekombinasi menengah, dengan perhitungan gen anak sebagai berikut:
Anak= induk1 + alpha (induk2 – induk 1) (3.2)
Alpha adalah faktor skala yang dipilih secara random pada interval [-0.25,
1.25]
Gambar 3.3 Proses Pre Computing dengan GA
5. Mutasi
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
25
Mutasi random (Herrera, Lozano, & Verdegay, 1998) apabila C= (c1, c2,
... , ci, ... , cn ) adalah kromosom, ci [ , ] sebuah gen yang akan
dimutasi, dan ci’ adalah kromosom hasil mutasi, maka ci’ merupakan
bilangan random yang dibangkitkan dari domain [ , ]. 6. Pelestarian Populasi (Elitism)
Pelestarian populasi sebanyak 5% dari total populasi = 3 kromosom.
Kromosom yang dilestarikan adalah tiga kromosom terbaik dari populasi
tersebut sebelum dilakukan proses seleksi, rekombinasi, dan mutasi.
7. Penggantian Populasi
Skema penggantian populasi adalah generational replacement, dengan
nilai G =1. Dari populasi baru yang tercipta, 3 kromosom terburuk
digantikan dengan kromosom hasil proses elitism.
3. 2. 4 Pelatihan dengan Algoritma LM
Proses pelatihan dengan algoritma LM dilakukan sebagai berikut:
1. Inisialisasi bobot dan bias dengan bilangan acak antara 0 - 1, epoch
maksimum = 1500.
2. Menentukan parameter yang dibutuhkan, antara lain:
- Inisialisasi epoch = 0
- Parameter LM ( ) = 0.1
- Parameter = 10
3. Tiap-tiap unit input (xi, i = 1, 2, 3, ..., 8) menerima sinyal input dan
meneruskan sinyal tersebut ke semua unit pada lapisan tersembunyi
Tiap-tiap unit lapisan tersembunyi (zj, j = 1, 2, 3, ... p), menjumlahkan
sinyal-sinyal input berbobot, _ = + (3.3)
Gunakan fungsi aktivasi untuk menghitung sinyal output = = _ (3.4)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
26
4. Tiap-tiap unit lapisan output (Yk, k = 1) menjumlahkan sinyal-sinyal input
berbobot _ = + (3.5)
Gunakan fungsi aktivasi untuk menghitung sinyal output = = _ (3.6)
Kemudian kirimkan sinyal tersebut ke semua unit di lapisan atasnya.
5. Menghitung error , MSE dan total error jaringan
Rumus untuk error: = (3.7)
r = input ke-r
Rumus untuk menghitung MSE
= 1
(3.8)
Rumus untuk menghitung total error: = [ … ] (3.9)
e = vektor kesalahan berukuran Nx1 yang terdiri dari er, r= 1, 2,3, ..., N
6. Hitung error neuron untuk tiap unit lapisan output (Yk, k = 1, 2, 3, ... , m) 2 = = (1 ) (3.10) 2 = 2 (3.11) 2 = 2 (3.12)
7. Hitung error neuron untuk tiap unit lapisan tersembunyi (zj, j = 1 , 2, 3, ...
p) _ = 2 (3.13) 1 = = (1 ) (3.14) 1 = 1 (3.15) 1 = 1 (3.16)
8. Membentuk matrik jacobian = 1 … 1 1 … 1 2 … 2 2 … 2 (3.17)
9. Menghitung bobot baru
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
27
= ( + ) (3.18)
10. Menghitung MSE
Jika MSEbaru <= MSElama, maka
- = /10, (3.19)
- epoch = epoch + 1
- Kembali ke langkah 3
Jika MSEbaru>MSElama, maka
- = * 10 (3.20)
- Kembali ke langkah 9
Proses pelatihan berhenti jika epoch = epoch maksimal atau error = target
error.
Gambar 3. 4 Proses Pelatihan GALM
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
28
3. 2. 5 Skenario Proses Pelatihan
3. 2. 5. 1 GALM
Proses GA 3.2.3.2 dilakukan sebelum proses JST, proses ini disebut
dengan proses pre computing. Input dari proses ini adalah bobot JST yang
dibangkitkan secara random. Output berupa bobot JST yang telah dioptimasi
menggunakan proses GA.
Bobot JST keluaran GA digunakan sebagai bobot awal proses JST
menggunakan algoritma LM. Proses JST dilakukan sampai mendapatkan nilai
MSE konvergen, dimana nilai MSE tidak mengalami kenaikan maupun penurunan
lagi, proses ini disebut dengan proses training JST. Proses pelatihan algoritma ini
terlihat pada gambar 3 .4.
3. 2. 5. 2 LM
Algoritma LM 3.2.4 dijalankan sesuai dengan bobot awal bilangan random
yang dibangkitkan dari nilai 0 sampai 1 . Proses pelatihan dilakukan sampai
mendapatkan nilai MSE yang konvergen, dimana nilai MSE tidak mengalami
kenaikan maupun penurunan lagi. Proses pelatihan algoritma ini terlihat pada
gambar 3 .5
3. 3. Implementasi
Proses pelatihan dilakukan sebanyak 10 kali simulasi untuk masing-masing
arsitektur dengan menggunakan data training. Data hasil pelatihan kemudian
dibagi menjadi 2 , satu untuk analisa hasil pelatihan awal, 9 untuk analisa hasil
pelatihan lanjut. Proses analisa hasil dijelaskan pada poin 3.4.
Proses pengujian dilakukan setelah didapatkan arsitektur terbaik dan
batasan MSE yang diperlukan. Data yang digunakan adalah data testing. Simulasi
pengujian dilakukan sebanyak 20 kali. Setelah proses pengujian selesai, kemudian
dilakukan proses analisa hasil pengujian.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
29
Data Kekuatan Tekan Beton
Normalisasi
Pelatihan JST dengan Algoritma
LM
Analisa Kinerja berdasar runtime
dan iterasi
selesai
Membagi data menjadi data
training dan data testing
Gambar 3.5 Proses Pelatihan LM
3. 4. Analisa Hasil Pelatihan dan Pengujian
Proses pelatihan dilakukan dengan 10 kali simulasi untuk masing-masing
arsitektur. Kemudian hasil pelatihan ini dibagi menjadi dua bagian, bagian
pertama terdiri dari 1 simulasi sebagai proses pelatihan awal untuk penentuan
batas MSE. Bagian kedua terdiri dari 9 simulasi digunakan untuk analisa lanjutan.
Proses analisa dijelaskan sebagai berikut:
1. Analisa proses pelatihan awal dilakukan dengan melihat nilai MSE yang
dihasilkan suatu arsitektur agar konvergen. MSE maksimum dari semua
arsitektur akan digunakan sebagai target error analisa hasil simulasi
selanjutnya.
2. Analisa lanjutan dilakukan dengan mencari jumlah iterasi yang dibutuhkan
masing-masing simulasi untuk mencapai target MSE yang didapatkan dari
poin 1. Jumlah iterasi ini kemudian dikonversikan kedalam runtime untuk
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
30
masing-masing simulasi. Perbandingan GALM dan LM dilihat dari rata-
rata iterasi dan runtime. Dari proses analisa ini dapat diketahui arsitektur
paling baik untuk kedua algoritma dan letak perbaikan yang dilakukan GA
pada algoritma GALM. Arsitektur terbaik terlihat dari runtime singkat.
Setelah didapatkan batas MSE dan arsitektur terbaik utnuk masing-masing
algoritma, proses pengujian dilakukan untuk kedua algoritma. Simulasi dilakukan
sebanyak 20 kali dengan nilai mean absolut percentage error (MAPE) sebagai
analisa kinerja proses pengujian. Apabila nilai MAPE kurang dari 10% maka hasil
prediksi dikatakan sangat baik, apabila nilai MAPE antara 10% sampai dengan
20% maka hasil prediksi d ikatakan baik (Yasmin, 2010).
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
31
BAB 4
PEMBAHASAN
4. 1. Hasil Pelatihan Awal GALM dan LM
Pelatihan awal dilakukan sebanyak satu kali simulasi untuk masing-masing
variasi hidden neuron. Tujuan dari pelatihan awal ini adalah untuk menentukan
nilai batas maksimum mean square error yang diperlukan suatu arsitektur untuk
mencapai konvergen. Maksimum MSE ini nantinya akan digunakan untuk
menghitung iterasi yang diperlukan suatu arsitektur untuk mencapai nilai MSE
tersebut.
4. 1. 1 Pelatihan Tiga Hidden Neuron
Gambar 4.1 Hasil Pelatihan 3 Hidden Neuron
Hasil simulasi arsitektur 3 hidden neuron terlihat pada gambar 4.1.
Arsitektur dengan 3 hidden neuron menunjukkan bahwa GALM mengalami
konvergensi pada MSE 0.003925, LM mengalami konvergensi pada MSE
0.003925.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
32
4. 1. 2 Pelatihan Lima Hidden Neuron
Gambar 4.2 Hasil Pelatihan 5 Hidden Neuron
Hasil simulasi dengan arsitektur 5 hidden neuron terlihat pada gambar 4.2.
Arsitektur 5 hidden neuron menunjukkan bahwa GALM konvergen pada nilai
MSE 0.001696 dan LM konvergen pada nilai MSE 0.001764.
4. 1. 3 Pelatihan Enam Hidden Neuron
Gambar 4.3 Hasil Pelatihan 6 Hidden Neuron
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
33
Hasil simulasi dengan arsitektur 6 hidden neuron terlihat pada gambar 4.3.
Arsitektur 6 hidden neuron menunjukkan bahwa GALM konvergen pada nilai
MSE 0.001754 dan LM konvergen pada nilai MSE 0.001782.
4. 1. 4 Pelatihan Enam Belas Hidden Neuron
Gambar 4.4 Hasil Pelatihan 16 Hidden Neuron
Hasil simulasi dengan arsitektur 16 hidden neuron terlihat pada gambar
4.4. Arsitektur 16 hidden neuron menunjukkan bahwa GALM konvergen pada
nilai MSE 0.000331 dan LM konvergen pada nilai MSE 0.000312.
4. 1. 5 Pelatihan Tujuh Belas Hidden Neuron
Hasil simulasi dengan arsitektur 17 hidden neuron terlihat pada gambar
4.5. Arsitektur 17 hidden neuron menunjukkan bahwa GALM konvergen pada
nilai MSE 0.000302 dan LM konvergen pada nilai MSE 0.000274.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
34
Gambar 4.5 Hasil Pelatihan 17 Hidden Neuron
4. 1. 6 Pelatihan Dua Puluh Empat Hidden Neuron
Hasil simulasi dengan arsitektur 24 hidden neuron terlihat pada gambar
4.6. Arsitektur 24 hidden neuron menunjukkan bahwa GALM konvergen pada
nilai MSE 0.000165 dan LM konvergen pada nilai MSE 0.000179.
Gambar 4.6 Hasil Pelatihan 10 Hidden Neuron
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
35
4. 2. Analisa Hasil Pelatihan Awal GALM dan LM
Tabel 4.1 merupakan rangkuman MSE GALM dan LM hasil pelatihan
awal. Hasil pelatihan menunjukkan bahwa nilai MSE terbesar adalah 0.003925
untuk JST mencapai konvergen dari arsitektur 3 hidden neuron . Selanjutnya nilai
MSE 0.003925 digunakan sebagai batasan nilai MSE simulasi selanjutnya.
Tabel 4.1 Perbandingan Nilai MSE Pelatihan Awal
Hidden Neuron GALM LM
3 0.003925 0.003925 5 0.001696 0.001764 6 0.001754 0.001782
16 0.000332 0.000312 17 0.000303 0.000275 24 0.000165 0.000179
4. 3. Analisa Hasil Pelatihan Lanjut
Tabel 4.2 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut
Hidden Neuron
GALM LM Min
iterasi Max
iterasi Mean iterasi
Min iterasi
Max iterasi
Mean iterasi
3 57 600 341 44 937 447 5 50 138 89 50 162 91 6 45 105 77 45 155 95
16 3 87 57 44 92 64 17 54 80 64 45 101 67 24 12 112 60 44 79 66
Simulasi dilakukan sebanyak 9 kali simulasi untuk masing-masing variasi
hidden neuron. Tabel 4.2 menunjukkan rangkuman hasil dari 9 percobaan. Jumlah
iterasi yang disajikan adalah jumlah iterasi yang diperlukan suatu simulasi untuk
mencapai nilai MSE 0.003925. Hasil simulasi selengkapnya terdapat pada
lampiran B. Jumlah iterasi maksimal untuk kedua algoritma < 200 iterasi, kecuali
untuk arsitektur dengan 3 hidden neuron dengan jumlah iterasi maksimal GALM
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
36
sebesar 600 iterasi dan LM sebesar 937 iterasi. Gambar 4.10 menunjukkan grafik
iterasi rata-rata GALM dan LM.
Tabel 4. 3 Perbandingan Runtime GALM dan LM Pelatihan Lanjut
Hidden Neuron
GALM LM Min Time
Max Time
Mean Time
Min Time
Max Time
Mean Time
3 1.053 13.232 6.559 0.812 19.812 8.701 5 1.828 5.068 3.248 1.866 6.030 3.420 6 2.121 5.209 3.767 2.283 7.844 4.744
16 3.278 25.807 16.914 12.502 27.489 18.504 17 18.319 27.739 21.775 15.618 35.167 23.041 24 15.478 84.944 46.667 34.059 60.518 50.571
Gambar 4.7 Perbandingan Iterasi GALM dan LM Pelatihan Lanjut
Tabel 4.3 merupakan rangkuman runtime untuk mencapai jumlah iterasi
tabel 4.2. Runtime dihitung dari proses menjalankan LM pada algoritma GALM
maupun LM saja. Gambar 4.8 menunjukkan perbandingan rata- rata runtime
GALM dan LM. Gambar memperlihatkan bahwa proses runtime LM algoritma
GALM lebih cepat dibanding LM pada semua hidden neuron. Hasil demikian
0
50
100
150
200
250
300
350
400
450
500
3 5 6 16 17 24
Epoch
Hidden Neuron
GALM
LM
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
37
menunjukkan bahwa proses GA mampu memperbaiki kinerja LM dengan
mempersingkat waktu pelatihan.
Gambar 4.8 Perbandingan Runtime GALM dan LM Pelatihan Lanjut
Tabel 4.4 Runtime GA pada Proses GALM
Hidden Neuron
Min Time
(detik)
Max Time
(detik)
Mean Time
(detik) 3 1.662 1.885 1.764 5 2.883 3.227 3.000 6 3.569 5.856 3.890
16 11.648 12.117 11.934 17 12.803 12.986 12.900 24 16.261 39.825 25.103
Pelatihan dengan algoritma GALM memerlukan waktu tambahan untuk
menjalankan GA sebagai proses optimasi sebelum menja lankan LM. Runtime GA
tersaji dalam tabel 4.4. Runtime bertambah seiring dengan pertambahan jumlah
hidden neuron, dikarenakan semakin kompleksnya pengkodean kromosom yang
berakibat kepada semakin kompleksnya proses GA. Apabila rata-rata waktu untuk
menjalankan GA ini ditambahkan kepada waktu runtime LM algoritma GALM
0.000
10.000
20.000
30.000
40.000
50.000
60.000
3 5 6 16 17 24
Waktu
(
detik)
Hidden Neuron
GALM
LM
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
38
tabel 4.3 maka akan didapatkan grafik seperti gambar 4.9. Rata-rata runtime
keseluruhan algoritma GALM menjadi lebih besar dibandingkan runtime
algoritma LM, kecuali pada arsitektur dengan 3 hidden neuron memilliki runtime
yang hampir sama.
Gambar 4.9 Grafik Perbandingan Rata-rata Runtime Keseluruhan GALM dan LM
Pelatihan Lanjut
Hasil simulasi menunjukkan beberapa arsitektur melakukan kegagalan
proses training, kegagalan diperlihatkan dengan tidak konvergennya nilai MSE
ketika proses training dilakukan. Frekuensi kegagalan training dari 9 simulasi
masing-masing arsitektur terlihat pada tabel 4.5 .
Tabel 4.5 Prosentase Kegagalan Proses Pelatihan
Hidden Neuron GALM LM
3 0 0 5 0 0 6 0 0
16 0 2/9 17 0 0 24 0 4/9
0.000
10.000
20.000
30.000
40.000
50.000
60.000
70.000
80.000
3 5 6 16 17 24
Waktu
(
detik)
Hidden Neuron
GALM
LM
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
39
Proses pelatihan dengan algoritma GALM tidak menunjukkan kegagalan
proses training pada setiap arsitektur yang digunakan, sedangkan algoritma LM
menunjukkan kegagalan proses training pada hidden neuron 16 dan 24.
Kegagalan proses training terjadi karena nilai µ terlalu cepat mencapai minimal
yakni 10-20, ketika µ mencapai nilai minimal, maka tidak terjadi perubahan nilai
MSE.
Algoritma LM dengan arsitektur 5 hidden neuron memerlukan waktu
3.420 detik untuk menjalankan 91 iterasi. GALM dengan arsitektur 5 hidden
neuron memiliki rata- rata waktu runtime paling rendah dibanding arsitektur yang
la in sesuai tabel 4.3 untuk menjalankan 89 iterasi. Jika dilihat dari jumlah iterasi
dan runtime yang diperlukan untuk mencapai nilai MSE yang ditargetkan, maka
arsitektur dengan 5 hidden neuron terbaik untuk kedua algoritma.
Proses GA pada algoritma GALM mampu meningkatkan kinerja LM
dalam segi runtime yang lebih kecil dibandingkan LM dengan starting poin yang
sama. Starting poin pengukuran runtime berdasarkan waktu mulai menjalankan
algoritma LM untuk kedua algoritma. Selain itu, proses GA juga memperbaiki
LM dengan menghilangkan kegagalan proses training dengan LM. Namun, tidak
dapat dipungkiri bahwa algoritma GALM memerlukan waktu untuk menjalankan
proses GA, sehingga runtime keseluruhan lebih lama dibandingkan algoritma
LM. Keseluruhan hasil pengukuran kinerja pelatihan menunjukkan bahwa
pelatihan JST dengan algoritma LM lebih bagus dibandingkan algoritma GALM
dilihat dari rata-rata runtime keseluruhan.
4. 4. Hasil Pengujian Arsitektur 8-5-1
Proses pengujian dilakukan setelah didapatkan arsitektur terbaik sesuai
hasil pelatihan. Arsitektur 8-5-1 merupakan arsitektur terbaik untuk kedua
algoritma. Simulasi dilakukan sebanyak 20 kali untuk masing-masing algoritma.
Rangkuman hasil simulasi tersaji pada tabel 4.6 , hasil selengkapnya terdapat pada
lampiran C.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
40
Tabel 4.6 Nilai MAPE Hasil Pengujian Arsitektur 8-5-1
Pengujian ke-
MAPE GALM
(%)
MAPE LM (%)
1 8.40 9.88 2 10.68 8.93 3 13.44 9.54 4 10.61 8.67 5 12.48 10.56 6 17.13 9.69 7 10.42 8.41 8 8.25 8.29 9 10.36 8.69
10 6.43 14.81 11 8.47 8.85 12 10.48 11.73 13 14.68 15.00 14 16.18 8.96 15 15.28 6.31 16 10.35 9.25 17 8.77 9.78 18 8.50 9.85 19 10.03 8.83 20 8.86 8.60
Rata-rata 10.99 9.73
Nilai MAPE terendah untuk algoritma GALM diperoleh pada simulasi ke-
10 dengan nilai 6.43%, sedangkan MAPE terendah untuk LM diperoleh pada
simulasi ke-15 dengan nilai 6.31%. Gambar 4.12 menunjukkan kesesuian antara
target dan output (hasil peramalan) algoritma GALM dengan MAPE 6.43%.
Gambar 4.13 menunjukkan kesesuaian antara target dan output algoritma LM
dengan MAPE 6.31%. Hasil keseluruhan terlihat pada tabel C.1 dan C.2 lampiran
C.
Rata-rata MAPE algoritma LM dari 20 simulasi adalah 9.73%, sedangkan
pengujian dengan algoritma GALM memiliki rata-rata MAPE 10.99%. dengan
demikian dapat dikatakan bahwa hasil prediksi dari kedua algoritma tidak jauh
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
41
berbeda. Nilai MAPE yang dihasilkan oleh kedua algoritma masih bisa diterima
dalam industry beton.
Gambar 4.10 Kesesuaian Target Data Testing dan Hasil Peramalan (Output)
GALM dengan MAPE 6.43%
Gambar 4.11 Kesesuaian Target Data Testing dan Hasil Peramalan (Output) LM
dengan MAPE 6.31%
0.00
10.00
20.00
30.00
40.00
50.00
60.00
0 2 4 6 8 10 12
Kekuatan
(
MPa)
Data ke-
Target
Output
0
10
20
30
40
50
60
0 1 2 3 4 5 6 7 8 9 10
Kekuatan
(
Mpa)
Data ke-
Target
Output
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user
42
BAB 5
PENUTUP
5. 1. Kesimpulan
Pelatihan jaringan syaraf tiruan (JST) multilayer perceptron dengan
menggunakan Genetic Algorithm Levenberg Marquardt mampu memperbaiki
proses pelatihan dengan menghilangkan kegagalan proses training LM yang
terjadi pada arsitektur dengan 16 dan 24 hidden neuron.
Pengukuran kinerja pelatihan arsitektur JST menunjukkan bahwa arsitektur
8-5-1, terdiri dari 8 input neuron, 5 hidden neuron, dan 1 output neuron
merupakan arsitektur terbaik untuk kedua algoritma. Arsitektur ini mencapai MSE
0.003925 dengan 89 iterasi GALM dan 91 iterasi LM dengan runtime masing-
masing 3.248 detik dan 3.420 detik.
Proses pengujian arsitektur 8-5-1 dengan algoritma pelatihan GALM
mendapatkan nilai rata-rata MAPE 10.99% dan pengujian dengan algoritma LM
mendapatkan rata-rata nilai MAPE sebesar 9.73%.
5. 2. Saran
Saran untuk penelitian selanjutnya adalah
1. Melakukan pelatihan jaringan syaraf tiruan dengan menggunakan fungsi
aktifasi yang la in, misalnya identitas, sigmoid bipolar atau tangent
hyperbolic
2. Menggunakan proses normalisasi data yang lain, misalnya Z-score,
sigmoid, atau Euclidean.
3. Melakukan proses pengujian korelasi antar variabel data yang digunakan.
perpustakaan.uns.ac.id digilib.uns.ac.id
commit to user