Learning Vector Quantization

Embed Size (px)

Citation preview

  • 8/13/2019 Learning Vector Quantization

    1/10

    I. Adaline (Adaptif Linear Neuron),Diperkenalkan oleh Widrow dan Hoff (1960) memiliki bobot koneksi dari unit

    masukan yang dapat dilatih dengan aturan delta . Dalam aturan ini galat (error) dapat

    diminimalisasikan.

    Arsitektur Jaringan Arsitektur Adaline terdiri dari unit Neuron keluaran tunggal

    yang menerima. masukan dari beberapa unit. Unit keluaran tersebut juga menerima

    masukan dari unit sel bias yang sinyalnya selalu bernilai 1. Dibawah ini diperlihatkan

    arsitektur jaringan Adaline:

    Algoritma ADALINE

    1. Inialisasi bobot (ambil nilai acak yang kecil)Tetapkan laju pelatihan (Umumnya diambil nilai yang kecil, misalnya dari rentang

    nilai 0, 1 atau 0,1 1

    2. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut :a. Untuk setiap pasangan input-output (s-t) lakukan beberapa langkah berikut :

    (i) Tetapkan aktivasi unit masukan= dimana i = 1,2,3, ... n

    (ii)Hitung masukan neto yang berikan ke unit keluaran dengan fungsiaktivasi bipolar .

    (iii)Perbaharui bobot dan bias jika terjadi error :

    B(baru) = b(lama) + (t -)

    W(baru) = W(lama) + (t -)

    b. Tes kondisi berhenti. Bila perubahan bobot terbesar yang terjadi pada langkaha lebih kecil dari pada toleransi yang ditentukan, maka berhenti; bila tidak

    maka lanjutkan.

  • 8/13/2019 Learning Vector Quantization

    2/10

    II. LVQLearning Vector Quantization(LVQ) adalah suatu metode untuk melakukanpembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan

    secara otomatis belajar untuk mengklasifikasikan vektor vektor input. Kelas-kelas

    yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarakantara vektor vektor input. Jika 2 vektor input mendekati sama, maka lapisan

    kompetitif akan meletakkan kedua vektor input tersebut ke dalam kelas yang sama.

    Arsitektur jaringan saraf tiruan LVQ adalah sebagai berikut :

  • 8/13/2019 Learning Vector Quantization

    3/10

  • 8/13/2019 Learning Vector Quantization

    4/10

    III. Jaringan MaxNetadalah jaringan saraf tiruan, yang menjadikan bobot dalam prosespencarian tetap.

    Prinsip: winner takes all (neurondipaksauntukberkompetisisehinggahanya1

    yangmenjadiaktif(sinyalkeluaran> 0)

    Fungsi aktivasi:

    x jika x> 0

    y = 0 jika x0

    Arsitektur Jaringan :

    Algoritmapemrosesanjaringan:

    Inisialisasidenganbilangan0 0,lakukan:Modifikasiaktivasititikaj(j=1, 2, m) dg

    aj(baru) = f (aj(lama) ak(lama) )

    http://3.bp.blogspot.com/-yeCiVMX7ssU/T2_Yp1oDu3I/AAAAAAAAAbg/IcHAlFtizws/s1600/maxnet.bmp
  • 8/13/2019 Learning Vector Quantization

    5/10

  • 8/13/2019 Learning Vector Quantization

    6/10

    Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis

    pada hidden layer. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu

    yang disebut sebagai fungsi basis. Di dalam hidden layer terdapat sejumlah fungsi

    basis yang sejenis. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan

    bobot tertentu. Output jaringan ini merupakan jumlah dari seluruh output fungsi basis

    dikalikan dengan bobot masing masing. Untuk jaringan RBF dengan 2 masukan,

    proses pemetaannya ditunjukan pada Gambar 2.

    Gambar 2 Operasi jaringan syaraf RBF dengan 2 masukan.

    Setiap masukan akan mengaktifkan setiap fungsi basis pada jaringannya sendiri.Misalkan pada operasi masukan [x1 x2]. Masukan x1 akan mengaktifkan fungsi basis

    pada jaringan RBF pertama, sehingga masukan x1 akan mengaktifkan fungsi basis

    11, 12 sampai dengan 1n. Masukan x2 akan mengaktifkan setiap fungsi basis

    pada jaringan RBF kedua, sehingga masukan x2 akan mengaktifkan fungsi basis 21,

    22 sampai dengan 2n. Langkah selanjutnya adalah melakukan korelasi silang

    antara setiap fungsi basis pada jaringan pertama dengan setiap keluaran fungsi basis

    pada jaringan kedua. Masing - masing hasil korelasi silang antar fungsi basis ini

    kemudian diboboti dengan bobot tertentu yaitu w11, w12 sampai dengan wnn.

    Keluaran jaringan RBF dihitung dengan menjumlahkan seluruh hasil perkalian antara

    keluaran tiap fungsi basis dengan bobotnya sendiri ditambah dengan bobot bias (wb).Fungsi basis pada jaringan RBF identik dengan dengan fungsi gaussian yang

    diformulasikan sebagai berikut:

    Dimana :

    cj = Center fungsi gausiaan ke -j

    j = Lebar fungsi gausiaan ke -j

  • 8/13/2019 Learning Vector Quantization

    7/10

    x = Masukan fungsi basis

    j = Keluaran fungsi basis ke j oleh masukan x

    Representasi grafis fungsi gaussian ditunjukkan pada Gambar 3.

    Gambar 3 Fungsi gaussian.

    Pada setiap jaringan RBF biasanya digunakan lebih dari 1 buah fungsi basis. Tiap

    tiap fungsi basis mempunyai 1 center dan 1 bobot tertentu. Untuk n buah masukan

    pada jaringan syaraf RBF, maka diperlukan bobot memori yang digunakan pada satu

    jaringan adalah sebesar ( jumlah fungsi basis )n + 1. Satu merupakan bobot bias (wb)

    dari jaringan syaraf RBF.

    Algoritma Pelatihan RBFsecara Iteratif adalah sebagai berikut:

    Langkah 1: Menentukan jumlah fungsi basis yang akan digunakan.

    Langkah 2: Menentukan center tiap fungsi basis dan nilai deviasi.

    Langkah 3: Menyediakan bobot sebanyak (fungsi basis)n + 1, dimana n adalah jumlah

    masukan jaringan syaraf RBF.

    Langkah 4: Inisialisasi bobot, w = [0 0 0 . . . . . 0], Set laju konvergensi, Set gain

    proposional

    Langkah 5: Hitung keluaran tiap fungsi basis.

    Langkah 6: Untuk setiap sinyal latih kerjakan langkah 6 selesai

    Langkah 7: Hitung keluaran jaringan RBF.

    Langkah 8: Hitung kesalahan (error) antara sinyal terharap (d) dengan keluaran y,

    error =d y.

    Langkah 9: Hitung sinyal keluaran sinyal kendali (Control_P)

    Control_P = Gain proposional * error.

    Langkah 10: Update bobot-bobot tiap fungsi basis dan bobot basis dengan metoda

    LMS.

  • 8/13/2019 Learning Vector Quantization

    8/10

    V. BOLTZMANNBoltzman Learning adalah suatu algoritma stokastik yang diturunkan dari ilmu

    mekanik statistical. Jaringan ini biasa disebut dengan Mesin Boltzmann. Dalam mesin

    boltzmann, neuron bekerja dalam angka binner, satu untuk menyatakan ON dan

    minus satu untuk menyatakan OFF, neuron juga terbagi menjadi dua jenis sesuaidengan fungsinya visible neuron dan hidden neuron

    Gambar sebelah kiri memrepresentasikan skematik dari hybrid Boltzman Machine

    (HBM) dimana terdapat unit-unit analog yang tersembunyi (Z, T variabel) dan unit

    yang terlihat merupakan binner. Terdapat dua unit (Z,T) yang mewakili dua fitur yang

    terhubung ke lapisan unit yang tampak . lapisan unit tersembunyi dan tampak secara

    timbal balik terhubung, tetapi tidak terdapat koneksi lapisan intra, sehingga

    membentuk topologi bipatrit. Sedangkan gambar sebelah kanan memrepresentasikan

    skematik dari jaringan syaraf Hopfield yang dibangun diatas unit yang tampak saja,

    dengan struktur sepenuhnya terhubung ke internal

  • 8/13/2019 Learning Vector Quantization

    9/10

    VI. Hamming NetworkKode ini dikenalkan oleh Richard Hamming (1950) sebagai kode tunggal pengoreksi

    kesalahan (single error-correcting code). Bit parity ditambahkan ke dalam bit-bit

    informasi, jika suatu saat ada perubahan bit-bit data ketika proses transmisi, maka bit-

    bit informasi asli masih bisa diselamatkan. Kode ini dikenal pula sebagai parity code.

    Bit parity tambahan diberikan pada bit-bit informasi sebelum ditransmisikan,

    sedangkan pada sisi penerima dilakukan pengecekan dengan algoritma yang sama

    dengan pembangkitan bit parity tambahan 2

    Arsitektur Jaringan Hamming

    Algoritma Hamming :

    Untuk bit data 4-bit, bit-bit data terletak pada posisi 3, 5, 6 dan 7. Bit pengisi terletak pada

    posisi 1, 2, 4 (2K) K = jumlah bit data -1 3

  • 8/13/2019 Learning Vector Quantization

    10/10