Upload
em-kautsar
View
218
Download
0
Embed Size (px)
Citation preview
8/13/2019 Learning Vector Quantization
1/10
I. Adaline (Adaptif Linear Neuron),Diperkenalkan oleh Widrow dan Hoff (1960) memiliki bobot koneksi dari unit
masukan yang dapat dilatih dengan aturan delta . Dalam aturan ini galat (error) dapat
diminimalisasikan.
Arsitektur Jaringan Arsitektur Adaline terdiri dari unit Neuron keluaran tunggal
yang menerima. masukan dari beberapa unit. Unit keluaran tersebut juga menerima
masukan dari unit sel bias yang sinyalnya selalu bernilai 1. Dibawah ini diperlihatkan
arsitektur jaringan Adaline:
Algoritma ADALINE
1. Inialisasi bobot (ambil nilai acak yang kecil)Tetapkan laju pelatihan (Umumnya diambil nilai yang kecil, misalnya dari rentang
nilai 0, 1 atau 0,1 1
2. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut :a. Untuk setiap pasangan input-output (s-t) lakukan beberapa langkah berikut :
(i) Tetapkan aktivasi unit masukan= dimana i = 1,2,3, ... n
(ii)Hitung masukan neto yang berikan ke unit keluaran dengan fungsiaktivasi bipolar .
(iii)Perbaharui bobot dan bias jika terjadi error :
B(baru) = b(lama) + (t -)
W(baru) = W(lama) + (t -)
b. Tes kondisi berhenti. Bila perubahan bobot terbesar yang terjadi pada langkaha lebih kecil dari pada toleransi yang ditentukan, maka berhenti; bila tidak
maka lanjutkan.
8/13/2019 Learning Vector Quantization
2/10
II. LVQLearning Vector Quantization(LVQ) adalah suatu metode untuk melakukanpembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan
secara otomatis belajar untuk mengklasifikasikan vektor vektor input. Kelas-kelas
yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarakantara vektor vektor input. Jika 2 vektor input mendekati sama, maka lapisan
kompetitif akan meletakkan kedua vektor input tersebut ke dalam kelas yang sama.
Arsitektur jaringan saraf tiruan LVQ adalah sebagai berikut :
8/13/2019 Learning Vector Quantization
3/10
8/13/2019 Learning Vector Quantization
4/10
III. Jaringan MaxNetadalah jaringan saraf tiruan, yang menjadikan bobot dalam prosespencarian tetap.
Prinsip: winner takes all (neurondipaksauntukberkompetisisehinggahanya1
yangmenjadiaktif(sinyalkeluaran> 0)
Fungsi aktivasi:
x jika x> 0
y = 0 jika x0
Arsitektur Jaringan :
Algoritmapemrosesanjaringan:
Inisialisasidenganbilangan0 0,lakukan:Modifikasiaktivasititikaj(j=1, 2, m) dg
aj(baru) = f (aj(lama) ak(lama) )
http://3.bp.blogspot.com/-yeCiVMX7ssU/T2_Yp1oDu3I/AAAAAAAAAbg/IcHAlFtizws/s1600/maxnet.bmp8/13/2019 Learning Vector Quantization
5/10
8/13/2019 Learning Vector Quantization
6/10
Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis
pada hidden layer. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu
yang disebut sebagai fungsi basis. Di dalam hidden layer terdapat sejumlah fungsi
basis yang sejenis. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan
bobot tertentu. Output jaringan ini merupakan jumlah dari seluruh output fungsi basis
dikalikan dengan bobot masing masing. Untuk jaringan RBF dengan 2 masukan,
proses pemetaannya ditunjukan pada Gambar 2.
Gambar 2 Operasi jaringan syaraf RBF dengan 2 masukan.
Setiap masukan akan mengaktifkan setiap fungsi basis pada jaringannya sendiri.Misalkan pada operasi masukan [x1 x2]. Masukan x1 akan mengaktifkan fungsi basis
pada jaringan RBF pertama, sehingga masukan x1 akan mengaktifkan fungsi basis
11, 12 sampai dengan 1n. Masukan x2 akan mengaktifkan setiap fungsi basis
pada jaringan RBF kedua, sehingga masukan x2 akan mengaktifkan fungsi basis 21,
22 sampai dengan 2n. Langkah selanjutnya adalah melakukan korelasi silang
antara setiap fungsi basis pada jaringan pertama dengan setiap keluaran fungsi basis
pada jaringan kedua. Masing - masing hasil korelasi silang antar fungsi basis ini
kemudian diboboti dengan bobot tertentu yaitu w11, w12 sampai dengan wnn.
Keluaran jaringan RBF dihitung dengan menjumlahkan seluruh hasil perkalian antara
keluaran tiap fungsi basis dengan bobotnya sendiri ditambah dengan bobot bias (wb).Fungsi basis pada jaringan RBF identik dengan dengan fungsi gaussian yang
diformulasikan sebagai berikut:
Dimana :
cj = Center fungsi gausiaan ke -j
j = Lebar fungsi gausiaan ke -j
8/13/2019 Learning Vector Quantization
7/10
x = Masukan fungsi basis
j = Keluaran fungsi basis ke j oleh masukan x
Representasi grafis fungsi gaussian ditunjukkan pada Gambar 3.
Gambar 3 Fungsi gaussian.
Pada setiap jaringan RBF biasanya digunakan lebih dari 1 buah fungsi basis. Tiap
tiap fungsi basis mempunyai 1 center dan 1 bobot tertentu. Untuk n buah masukan
pada jaringan syaraf RBF, maka diperlukan bobot memori yang digunakan pada satu
jaringan adalah sebesar ( jumlah fungsi basis )n + 1. Satu merupakan bobot bias (wb)
dari jaringan syaraf RBF.
Algoritma Pelatihan RBFsecara Iteratif adalah sebagai berikut:
Langkah 1: Menentukan jumlah fungsi basis yang akan digunakan.
Langkah 2: Menentukan center tiap fungsi basis dan nilai deviasi.
Langkah 3: Menyediakan bobot sebanyak (fungsi basis)n + 1, dimana n adalah jumlah
masukan jaringan syaraf RBF.
Langkah 4: Inisialisasi bobot, w = [0 0 0 . . . . . 0], Set laju konvergensi, Set gain
proposional
Langkah 5: Hitung keluaran tiap fungsi basis.
Langkah 6: Untuk setiap sinyal latih kerjakan langkah 6 selesai
Langkah 7: Hitung keluaran jaringan RBF.
Langkah 8: Hitung kesalahan (error) antara sinyal terharap (d) dengan keluaran y,
error =d y.
Langkah 9: Hitung sinyal keluaran sinyal kendali (Control_P)
Control_P = Gain proposional * error.
Langkah 10: Update bobot-bobot tiap fungsi basis dan bobot basis dengan metoda
LMS.
8/13/2019 Learning Vector Quantization
8/10
V. BOLTZMANNBoltzman Learning adalah suatu algoritma stokastik yang diturunkan dari ilmu
mekanik statistical. Jaringan ini biasa disebut dengan Mesin Boltzmann. Dalam mesin
boltzmann, neuron bekerja dalam angka binner, satu untuk menyatakan ON dan
minus satu untuk menyatakan OFF, neuron juga terbagi menjadi dua jenis sesuaidengan fungsinya visible neuron dan hidden neuron
Gambar sebelah kiri memrepresentasikan skematik dari hybrid Boltzman Machine
(HBM) dimana terdapat unit-unit analog yang tersembunyi (Z, T variabel) dan unit
yang terlihat merupakan binner. Terdapat dua unit (Z,T) yang mewakili dua fitur yang
terhubung ke lapisan unit yang tampak . lapisan unit tersembunyi dan tampak secara
timbal balik terhubung, tetapi tidak terdapat koneksi lapisan intra, sehingga
membentuk topologi bipatrit. Sedangkan gambar sebelah kanan memrepresentasikan
skematik dari jaringan syaraf Hopfield yang dibangun diatas unit yang tampak saja,
dengan struktur sepenuhnya terhubung ke internal
8/13/2019 Learning Vector Quantization
9/10
VI. Hamming NetworkKode ini dikenalkan oleh Richard Hamming (1950) sebagai kode tunggal pengoreksi
kesalahan (single error-correcting code). Bit parity ditambahkan ke dalam bit-bit
informasi, jika suatu saat ada perubahan bit-bit data ketika proses transmisi, maka bit-
bit informasi asli masih bisa diselamatkan. Kode ini dikenal pula sebagai parity code.
Bit parity tambahan diberikan pada bit-bit informasi sebelum ditransmisikan,
sedangkan pada sisi penerima dilakukan pengecekan dengan algoritma yang sama
dengan pembangkitan bit parity tambahan 2
Arsitektur Jaringan Hamming
Algoritma Hamming :
Untuk bit data 4-bit, bit-bit data terletak pada posisi 3, 5, 6 dan 7. Bit pengisi terletak pada
posisi 1, 2, 4 (2K) K = jumlah bit data -1 3
8/13/2019 Learning Vector Quantization
10/10