Upload
hoangkiet
View
258
Download
8
Embed Size (px)
Citation preview
VoLUME 12 Nouon I Mer 2A12 ISSN: I4ll.58gl
RE GRE S I SPASIAL UNTT", K M e hI E T.IT UAN FaT<Ton'FAKToRKEMISKINAN pI PRovINgI JR,we TIuunAnikD juraidah dan Aji Hamim Wigena
PEnIaKSIRAN PenannETER MoDEL REGRESI BETA UNTUKMenaonELKAN Darn PnopoRsrNusar Hajarisman
ILruaUsA FCILA Arue Iru PeRTwuxAuAN DI BANDAR UDARADEPRN ANAIN PAruCXELF|NANG FERIOEE JANUNNI ZOOO -nEsErdtsER ao t IAkhmad Fadkoli
PnEpIT<gI KEMAcETAN PApA JnrurugeN KonnPUTERM grqg cUNAKAN MErope N,aruE BnvEsranv C lessr rr gRErwin Harahayt
PqnSANBINGAN T\4EToDE PRnTInL LEAST SQunne (PLS)trENGAN REe neSI KorrapoNEN Urarran UNTUK METUcaTASIMUITIxCILINEAFIITASNwrhasanah, Muhamrnad Subianto, dan Rikct Fitriani
MEMEANGKITKRNI Dnre Klalna InrpryIou FenneGANG FollsAsu RAI.I sI KE T* pARAAN B E RMo Ton Be n DAsAR KAru DaTaKlarna AeREearAceng Kamarudin Mutaqin
Diterbitkan oleh:JUNUSATV STATISTIKA
F,qrcuTIRs MaTeMATIKA & IInau PehIcgTA,HUAN AmnaUNIveRSITAS Isleru BentouNc
VoruNae l2 NoMoR I MEt 2Ol2 ISSN:l4l I -549t
F*za**,*, Ta,*ta AM A
PnrrNpuNcRsrron Uxrvrnsrres Israv BeNpuNc
PnNexccuNc ]nw,tr. Dekan Fakultas Matematika dan llm'u
Pengetahuan Alam, Universitas Islam Bandung
PrupnlN Urr,ruWItnDAKSr. Ketua ]urusan Statistika, Fakultas Matematika
dan Ilmu Pengetahuan Alam, Universitas IslamBandung.
Snrnnrenrs REDAKST. Aceng Komarudin Mutaqin, MT., MS.
BENoaHRnR. Suliadi, S.Si., M.Si., Ph.D.
Rnonrun PnrlxslNl. Nusar Hajarisman, MS.. Lisnur Wachidah, Dra., M.Si.. Yayat Karyana, Drs., M.Si.. R. Dachlan Muchlis, MT.. Anneke Iswani Ahmad, Dra., M.Si.. Teti Sofia Yanti, Dra., M.Si.. Siti Sunendiari, Dra., MS.
Drm,N Rrpexsr. Prof. Dr. Ir. Khairil Anwar Notodiputro, MS.
(Institut Pertanian Bogor).. Prof. Dr. Ismail bin Mohd. (Universiti Malaysia
Terengganu).. Prof. Dr. Ahmad Fauzy (Universitas Islam
Indonesia).. Dr. Ir. Asep Saefuddiry MSc. (Institut Pertanian
Bogor).. Septiadi Padmadisastra, Ph.D. (Universitas
Padjadjaran).. Dr. Anton Abdulbasah Kamil (Universiti Sains
Malaysia).. Dr. Suwanda,iDrs., M.Si. (Universitas Islam
Bandung).. Abdul Kudus, S.Si., M.Si., Ph.D. (Universitas
IslamBandung).
Srmutesl. Nina,Lusiana. Mastur
Junxel STATISTIKA: FoRuvt TEoRI DAN APLIKASI diterbitkan oleh furusan Statistika, Fakultas Matematika danIlmu Pengetahuan Alam, Universitas Islam Bandung (FMIPA - UNISBA) sebagai media penuangan danpembahasan karya ilmiah dalam bidang ilmu statistika beserta aplikasinya, baik berupa hasil penelitian,bahasan teori, metodologi, komputasi, maupun tinjauan buku. Terbit dua kali setahun setiap bulan Mei danNovember.
Redaksi mengundang para pakar dan praktisi, dari dalam dan luar lingkungan Universitas Islam'Bandung,untuk menuliskan karya ilmiahnya yang relevan dengan bidang ilmu statistika. Naskah hendaknya dikirimdalam bentuk printout beserta softcopynya dengan format yang telah ditentukan Redaksi, dan disertaibiodata penulis. Redaksi berhak mengubah naskah sepanjang tidak mengubah substansi isinya.
Iuran Tahunan untuk berlangganan jurnal adalah sebesar Rp. 175.000,00 atau USD 20. Untuk biayapercetakan, setiap penulis dikenakan biaya sebesar Rp. 10.000,00 atau USD 1 per halaman.
Ar.euer Rrp^RxsI:
|unNnr SrlrrsrxAv FMIPA - UNISBAJalan Purnawarman No. 63, Bandung 4011,6
. Telp. 022420 3368 Ext. 136/1.60 r Fax. 0224263895E-mail: [email protected]
F*on"_ Tc^_i /a"r* Age;lr_*l 9*dfufr*a
Daftar lsi
Pengantar Redaksi
Daftar lsi
VoLUME I 2, NoMoR I , MEt 2Ol2 ISSN : l4l 1_ Eag l
lil
Anik Djuraidah dan Aji Hamim wigena, Regresi spasial untukMenentuan Faktor-faktor Kemiskinan di provinsi Jawa Timur
Nusar Hajarisman, penaksiran parameter Model Regresi Beta untukMemodelkan Data p roporsi
Akhmad Fadholi, Anolisa pola Angin permukaan di Bandor rJdaraDepati Amir Pangkalpinang periode Januari zooo - Desember zott
Erwin Harahap, Prediksi Kemacetan pada Jaringon KomputerMenggunakan Metode Naive Bayesian Classifier
ad Subianto, dan Rika Fitriani, perbandinganuare (etS) dengan Regresi Komponen Utamaolinearitas
Aceng Komarudin Mutaqin, Membongkitkan Data Klaim tndividuPemegang Polis Asuransi Kendaraan Bermotor Berdasarkan DataKlaim Agregat
r-8
g-18
r9-zB
29-)2
33-42
43-49
Statistika, Vol. 12 No. 1 , 33 - 42Mei2012
Perbandingan Metod e Partial Least Square(PLS) dengan Regresi Komponen Utama
untuk Mengatasi Multikolinearitas
N URHASANAH, M UHAMMAD SU BIANTo, RIKA FITRIRI.II
Jurusan Matematika FMIPA UNSYIAH[. Syech Abdu] Rauf No.3 Darussalam, Banda Aceh
E-mail : [email protected]
ABSTRAKDalam mengatasi multikolinearitas pada suatu data, ada beberapa metode yang dapat digunakan,
tT"-"'Jffi J:.'T:lI"ffi :l;,:n"ffi jffiIan bahwa metode PLS lebih baik dari pada RKU
berdasarkan nilai koefisien determinasi @r) yang tinggi, nilai Mean Suare Error prediction (MSEp)dan nilai Root Mean Sqtare Enor Predictron (RMSEP) yang minimum.Kata lotnci: multikolineaitas, metode Portial Least Square (PLS), regresi komponen utama (RKIJ), Rz,MSEP, RMSEP.
1. PENDAHULUAN
Analisis regresi linear berganda yang mempunyai banyak variabel bebas, sering timbul masalahkarena terjadinya hubungan antara dua atau lebih variabel bebasnya. Variabel bebas yangsaling berkorelasi disebut multikolinearitas (multicollineantg). Safah satu dari asumsi modelregresi linear adalah bahwa tidak terdapat multikolinearitas diantara variabel bebas yangtermasuk dalam model. Multikolinearitas teg'adi apabila terdapat hubungan atau korelasidiantara beberapa atau seluruh variabel bebas (Gonst and Mason; 1977 dalam Soemartini,2008).Untuk mengetahui adanya multikolinearitas yaitu dengal menghitung koefisien kbrelasisederhana antara sesarna variabel bebas, jika terdapat koefisien korelasi sederhana yanghampir mendekati * I maka hal tersebut menunjukkin terjadinya masalah multikolinearitasd"lg1 regresi (Walpole, 1988). Selain itu, salah satu alat untuk mengukur adanyamultikolinearitas adalah Variance Inflation Factor (VIF). VIF adalah suatu fal<tor yarrg mengukurseberapa besar kenaikan ragam dari koehsien penduga regresi dibandingkan terhadap variabelbebas yang orthogonal jika dihubungkan secara linear. Nilai VIF akan semakin besar jikaterdapat korelasi yang semakin besar diantara variabel bebas. Nilai VIF > 10 dapat digunakansebagai petunjuk adanya multikolinearitas pada data. Gejala multikolinearitas menimbulkanmasalah dalam model regresi. Korelasi altar variabel bebas yang sangat tinggi menghasilkanpenduga model regresi yang berbias, tidak stabil, dan mungftin jauh dari tritai pt"aitsinya(Bilfarsah, 2OO5).Salah satu cara untuk mendapatkan koefisien regresi pada persamaan regresi linear berganda
metode kuadrat terkecil. Metode ini menghasilkan penaksir terbaik (tak biasminimum) jika saja tidak ada korelasi antar variabel bebas. Namun jika hal ituberapa cara atau metode yang dapat digunakan untuk mengatasi masalah
multikolinearitas yaitu regresi komponen utama, regresi ridge, metode kuadrat terkecil parsial@artial least squarQ dan bebrapa metode tainnya. Dalam penulisan ini hanya membandingkanmetode Partial Least Square (PLS) dan regresi komponen utama. Metode Partial Least Square(PLS) merupakan proses pendugaan yang dilakukan secara iteratif dengal melibatkan strukturkeragaman variabel bebas dan variabel tak bebas. Metode kedua yang dikaji dalam penelitianini adalah regresi komponen utama yaitu regresi dengan mengambil komponen utama sebagaivariabel bebas. Koefrsien penduga dari metode ini diperoleh melalui pen5rusutan dimensivariabel penduga komponen utama, dimaaa subset komponen utama yang dipilih harus tetapmempertahankan keragaman yang besar terhadap variabel tak bebasnya (Herwindiati, 19971.
33
34 Nurhasanah, dkk.
Dari pengkajian kedua metode tersebut akan dihitung nilai R2, Mean Sqtare Error Prediction(MSEP), dan Root Mean Square Error Prediction (RMSEP) dan kemudian didapatkan metodemana yang lebih baik diantara kedua metode tersebut dengan melihat nilai R2 yang lebih tinggidan nilai MSEP dan RMSEP yang lebih rendah.
2. TINJAUAN PUSTAKA
Partial Least Square (PLS)
Metode Partial Least Square (PLS) merupakan so.i? model yang dapat menjelaskan struldurkeragaman data. Partial Least Sqtare (PLS) dapat dilihat sebagai bentuk yang saling berkaitandengan Prinsip Component Regression (PCR). Model yang dihasilkan oleh metode Partial LeastSquare (PLS) mengoptimalkan hubungan antara dua kelompok variabel. Pendugaan modelhubungan Y dengan X dan pendugaan nilai Y tertentu menggu.nakal suatu algoritrna. Prosespenentuan model dilakr,rkan secara iterasi dengan melibatkan keragaman pada variabel X danY. Struktur ragam dalam Y mempengaruhi perhitungan komponen kombinasi linear dalam Xdan sebaliknya, struktur ragam dalam X berpengaruh terhadap kombinasi linear dalam Y(Bilfarsah, 2005).
Pada dasarnya Partial least square (PLS) memodelkan hubungan variabel Ydengan variabel Xberdasarkaa variabel internal. Variabel X dibagi ke dalam skor l, dan loading Pr, YanE
dinyatakan sebagai:
X =trPt*tzP'z*tzP|+"'+ trp',+ En (2'1)
dimana: X= variabel bebas
/o = vektor skor (score uectorl variabel X
p n = vel<tot muatan (loading uectot) variabel X
E n= rnatiks sisaan variabel X
Variabel Yjuga dibagi dalam skor lt, dan loading Q n YanE dinyatakan sebagai:
Y = urq, * uzQ'z * utel+'..+ uhq'h + Fh (2.21
dimana: Y= variabel tak bebas
Ilo = vel<tor skor (score uector) variabel Y
Q n = vel<tot muatan (Ioading uectof variabel IZ
4 = matrit<s sisaan variabel Y
(Wigena dan Aunuddin, 1998).
Pemodelan Partial Least Sqnre (PLS) ditempuh melalui hubungan variabel I'tI dan th yfigkonvergen. Jika proses konvergensi dari skor variabel X(/r) dan skor variabel tak bebas Y(uhldihitung secara terpisah, maka model yang dihasilkan mempunyai hubungan yang lemah.
Untuk memperbaiki kondisi tersebut, proses konvergensi dari u o dan t o dilakukan secara
befsama-sama dengal cara melibatkan skor Ypada perhitungan loading X:
(p sebagai fungsi dari u)
(2.3)
(2.41
serta melibatkan skor Xpada perhitungaa loading Y:
u*ot = Yj
, il'xpuu
Statistika, Yol. 12, No. 1, Mei 2012
, t'YQ =-' t't
Perbandingan Metode PaftialLeasf Sguare (pLS) ... 35
(q sebagai fungsi dari l) (2.s)
Melalui cara tersebut, akan mempeicepat proses konvergensi, tetapi masih ada beberapakelemahan
^rLtara lain skor X (t r,) yang dihasilkan ternyata tidak orthogonal. Jika t h tid,ak
orthogonal akarr terjadi_korelasi yang cukup besar antara variabel bebas X. Untuk mengatasikendala tersebut, skor X perlu diskalakan lagi dengan suatu pembobot ut (loadingl
Regresi Komponen Utama
Regresi komponen utama merupakan metode yang cukup baik untuk memperoleh koefisienpenduga pada persamaan regresi yang mempunyai masalah multikolinearitai. Variabel bebaspada regresi komponen utama berupa hasil kombinasi linear dari variabel asal Z, yang disebutsebagai komponen utama. Kdimensi komponen utana,mempertahankan keragamanvariabel X. Adapun hasil normal baku yang dimaksud ad setiapvariabel bebas asal X; dengan rata-rata darl dibagi dengan si
(2.61
(2.rol
Cara penghapusan komponen utama dimulai dari prosedur seleksi akar ciri dari suatupersarnaan:
lax-1rl:o (2.71
Jika akar ciri 2, diurutkan dari nilai terbesar sampai nilai terkecil, maka pengaruh komponen
utama W; berpadanal dengan pengaruh ),r. tni berarti bahwa komponen-komponen tersebutmenerangkan proporsi keragaman terhadap variabel tak bebas Y yang semakin lama semakinkecil.
Komponen utana W;saling orthogonal sesamanya dan dibentuk melalui suatu hubungan:
Wj=vrj Zr+v, Zr+vr, Zrrt...+vo, Zo (2.8)
Vektor ciri v, diperoleh dari setiap akar ciri ),, yat s memenuhi Suatu sistem persamaanhomogen:
I dx - ),1lv, =o (2.e)
.. I \dimana y, = (yri , Vz j, vt j, ..., v pj )Jika terdapat m subset kor'.ponen utama yang akan masuk dalam persamaan regresi, makapersamaan tersebut dapat ditulis sebagai:
Y=W.i,*tPerhitungan koefisien penduga regresi komponen utama B dapat dilakukan secara analogdengaa penduga metode kuadrat terkecil, yaitu:
B =@,w)-' w, y (2.LrlUntuk mendapatkan nilai t rritung pada nilai koefisien regresi komponen utama dapat dilakukandengan menghitung nilai simpangan baku untuk masing-masing koefisien regresi denganmenggunakan persamaan sebagai berikut:
t(r)=J-"iW ,i=t,2,... (2.r2)
Statistika, Vol. 12, No. 1, Mei 2012
36 Nurhasanah, dkk.
dimana:
var Qr,) =
Z(v, - v)'i=l
(2.13)
dimana: s2 = varians
li = variabel tak bebas
t = nilai rata-rata dari variabel tak bebas
air, Qtz, .,. , oij = nilai vektor ciri yang terpilih
4, Lt, '-. , )i = nilai akar ciri yang terpilih
Untuk mendapatkan nilai t hitung dari koefisien baku regresi kornponen utama dapat dihitungdengan persamaan sebagai berikut:
koefisien pendugaQ,)' hitung
2.S (4.o1, *...*';)
[2, 12 1' )
t (Y,)(2.14l'
(Jollife, 1986 dalam Herwindiati, 1997).
Seleksi ModelTerbaikpemilihan model terbaik dapat dilakukan dengan melihat nilai determinasi (Rz). Modeldikatakan baik jika nilai R2 tinggi, nilai Rz berkisar antara O sampai 1. Adapun cara untukmemperoleh nilai Rz adalah sebagai berikut:
(2.15)
dimana: Rz = Koefisien determinasi
j', = variabel tak bebas dugaan
y = nilat rata-rata dari variabel tak bebas
(Sembiring, 1995).
Menurut (Andriyanto dan Basith, 1999), pemilihan model terbaik juga dapat dilakukan denganmelihat lai\ai Mean Square Error Prediction (MSEP) dan Root Mean Sqtare Enor Prediction(RMSEP). Metode terbaik adalah metode dengan nilai MSEP dan nilai RMSEP terkecil. KriteriaMSEP dan RMSEP dapat ditentukan dengan cara:
MSEP =
>,6', - v,)'i=l
(2.161
RMSEP = (2.171
dimana:
!, = variabel takbebas dugaan
Statistika, Yol. 12, No. 1, Mei 2012
Perbandingan Metode partialLeasf Sguare (pLS)... 37
/, = variabel takbebas sebenarnya
n = banyalo:rya data
3. HASIL DAN PEMBAHASAN
Penyelesaian dengan Metode PariiatLeasf Square (pLS)
Perhitungan vektor pembobot 'l4tr, vektor skor (score uectofl dari variabel X dan variabel yserta vektor muatan (Ioading uectorl dari variabel X dan variabel Y merupakan nilai- nilai yangdiperlukan untuk menduga koefisien pada metode partial Least square FLs) .
Selanjutn , Mean Square Error Prediction (MSEP), dan Root Mean SquareError Pre setiap komponen dari metode Partial least Square lpLS)disajikan
Tabel 3.1. Nilai R2, MSEP dan RMSEP pad,a partial Least Square (pI-S)
Komponen ke R2 MSEP RMSEP
1
2
3
4
5
6
8
9
o.o7r970.63231
o.692620.803210.93115o.947330.954990.956490.9s659
12.63945.OO774.18632.6801o.9377o.7r740.6131o.59260.s912
3,55522.23782.0461r.637I0.9683o.84700.7830o.769ao.7689
Berdasarkan hasil nilai R2, MSEP dan RMSEP yang tercantum pada Tabel 3.1 terlihat bahwapada komponen kelima sudah tercapai kondisi konvergen karena pada komponen tersebut nilaiR2R2 mPonen kesembilal nilai
ko penduga model adalah
yaitu sebagai berikut:
Tabel 3.2. Nilai R2 MSEP dan RMSEP pada Komponen Kelima
Komponen KeNilai
R2 MSEP RMSEP
5 0.93115 o.9377 0.9683
Statistika, Vol. 12, No. 1, Mei 2012
38 Nurhasanah, dkk.
Berdasarkan hasil yang diperoleh, koefisien penduga dan nilai t nitung pada komponen kelimaadalah sebagai berikut:
Tabel 3.3. Nilai Koefisien Penduga dan t rrit*g pada Komponen Kelima
Variabel KoehsienPenduga
Nilai KoefisienPenduga
t hitrrg
XrXz
Xs
X+
Xs
Xo
Xz
Xa
Xs
9rpz
9s
9+
9s
9o
$zpa
Fs
69.7400-23.7629-98.s289-73.20280. r98574.78361.7561
85.2408-t2.5974
1.60001.8356 *
3.6448 *
2.8396 *
0.00392.7270 *
0.97835.6926 "-0.3367
Keterangan: * Signifrkan pada d = 5Yo
Berdasarkan Tabel 3.3 menunjuklran bahwa koefrsien penduga pada metode Partial I'eosttidak pada taraf nyata O,05. Variabel-variabel yang
nyata , dan Xa, sedangkan variabel-variabel lainnyagaruh engan melihat nilai t hit'ng pada masing-masing
variabelXz,i3,X+,X6,dan)Gyanglebihbesardarinilaitttt=t(o.es,36) =1'70.BerdasarkanpengqjiandisimpulkanbahwaUoaitot"t karenanilai ltr,it.'gl > llt'u.tl sehinggapengujiannitai statistik uji t untuk regresi adalah nyata pada taraf nyata 0'05'
Penyelesaian dengan Metode Regresi Komponen Utama
Dalam analisis regresi komponen utama hal yang terlebih dahulu dilakukan menormalbakukan variabel-variabel X menjadi Z, kemudian menentukan nilai akar ciri dan vektor ciridari matriks Z dapat dilihat pada Tabel 3.4 dan Tabel 3'5 berikut:
Tabel 3.4. Nilai Akar Ciri,l;
Akar Ciri (,!) Proporsi Komulatif
7.L795t.3862o.29870.1048o.02260.00660.0016
7.8816x10-s
3.4793x10-s
o.79770.1540o.0332
o.01160.0025
0.00070.0002
8.7573x10-o
3.8658x10-o
o.79770.95170.98490.99660.9991o.9999o.9999o.99991.0000
Statistika, Vol. 12, No. 1, Mei2Q12
Perbandingan Metode PartialLeasf Sguare (pLS) .:. 39
Tabel 3.5. Nilai Vektor Ciri
vl v2 v3 v4 v5 v6 v7 v8 v9
Zr
74
Zs
hZs
Za
ZtZe
Zs
0.3688
0.3701o.3712o.3714o.2L44o.3687
o.0796o.37020.3550
o.oa47
0.0689
o.0494
o.05540.5961
0.0879
o.7778
0.0836
0.0865
o.0423-0.250
0.0179
0.0185o.7696o.0s66o.6227
0.0513
0.1048
0.2806o.2692o.27190.1845
0.0683
0.0756
o.0277
0.0020
0.8710
.o276t
o.2939
0,1934
0.09330.01360.7095
0.0073o.4376
0.3100
0.6861
0.1 104
0,5400
0,4553
0.0383
0.03930.0083
0.12 1 1
0.0209
0.1092o.o7960.0500
0.03650.001 r0.5834
0.0006
0.7983
0.0154
0.37500.6s95o.1979o.6t27
- 1.2x10-5
0.04530.0007-0.0879o.oo27
o.2770
0.49s30.6663
0.48150.0021
0.00880.00370.0459
0.0033
Berdasarkan Tabel 3.4 menunjukkan bahwa akar ciri pertama menjelaskan sekitar Tg3TVodari_ keragaman yang terjadi, dan akar ciri yang kedua menjelaskan L5.4yo dan akar ciri yangberikutnya hanya menjelaskan sekitar O.33V" dan O.l17o saja. Berdasarkan Tabel 3.5menunjukkan bahwa dari sembilan komponen utama yang diturunkan dari matriks korelasiantar variabel bebas, ada dua komponen utama yang memegang peranan penting dalammenerangkan keragaman total data, yaitu komponen utama pertama dan kedua atau dilihatd ciri yang lebih besar dari 1. Dengan demikian komponen utama pertama (Wr)d utama kedua (Wz) yang merupakan kombinasi linear dari Z dapit dinyatakand an berikut:Wr= 0.3688 Zr + O.37OlZz+ O.37I2Zs+ O.37l4k + O.2t44% + 0.3687 k - 0.0T96Zz+
O.37O2 Ze + O.355O hwz = -0.0847 h-0.0689zz-Q.o494zs-o.o55424+ 0,s961 zs-o.oBZ9%+ o.TT78zz -
0.0836 Ze - 0.0865 hMatriks W; berisi skor komponen utama yang diperoleh dari persarnaan Wr dan Wz.Selanjutnya Y diregresikan terhadap skor komponen utama Wr dan Wz, hasilnya dapat dilihatpada Tabel 3.6 berikut:
Tabel 3.6. Penduga Parameter Regresi Komponen Utama
Variabel DB Pendugaan I hittng P Value Nilai VIF
Konstanta
Wr
Wz
I1
I
40.6361
1.0481
-0.898s
105.8s0
7.2I3-2.7L7
2x10-lo2.86x10-e
0.01041
I
Tabel 3.7 Tabel Sidik Ragam Regresi Komponen Utama
SumberKeragaman DB Jumlah
KuadratKuadratTengah .F hitr.g P Value
Model
GalatTotal
2
3335
315.2t417s.089
490,303
L57.607
5.306
29.7r 4.179-8
Rz = 0.6429 adj R2 = 0.6213
Statistika, Yol. 12, No. 1 , Mei 2012
Berdasarkan Tabel 3,6 dan Tabel 3.7 terlihat bahwa nilai Rz yang dihasilkan oleh koehsien97o, kemudian nilaidisimpulkan bahwauji F untuk regresi
Model yang sudah didapat selanjutnya ditransformasikan kembali ke variabel asalZ, sehinggadiperoleh persarnaan regresi dalam variabel bam sebagai berikut:
Y = 40 .6361 + 1 .048 I W, - O.8gg5 l4/2(3,1)
Y = 40.3631 + 0.4626 Z, + 0.4498 Z, + 0.4334 Z, + 0.4390 Zn + 0.3109 Z5
+ 0.4654 Zu + 1.0869 Z7 + 0.4631 Z, + 0.4498 Ze P.2)
Nilai simpangan baku dan nilai t r'it"g untuk masing-masing koehsien regresidapat rlilifuaf padaTabel 3,8 berikut:
40 Nurhasanah, dkk.
Tabel 3.8. Analisis Signihkansi Koehsien Regresi parsial
Variabel Nilai Koehsien Simpangan Baku f nirrng
ZtZz
Zs
Z+
Zs
Zo
ZtZa
Zs
o.4626o.4498o.43340.43900.3109o.46541.0869o.463ro.4498
0.0 r620.01560.15060.01520.05330.01630.0688o.o1620.0158
28.6329 *
28.8235 "28.78L9 "28.8293 *
5.8305 *
28.5772 *
15.7995 *
28.6576 *
28.5408 *
Keteralgan : * Signihkan pada d, = 5 %o
regresi komponen utama disajikan dalamen regresi nyata secara statistik pada tarafnilai t hituns pada rnasing-masing variabel
,""Tiifft*rusi?T3ilffi Jfl;a*#i'ffUntuk memperoleh persamaan penduga dengan menggunakan variabel asli, ditransformasikankembali ke model regresi f' = -f (w) r<e variabel asaloya f' = f (x) , yaitu:
'i = 40.3631+0.4626 Z, + 0.4498 Z, + 0.4334 Z, + 0.4390 Zn + O.3l0g Z5
+ 0.4654 Zu + 1.0869 Z, + 0.4631 Z, + 0.4499 Zs
Y = 2.7413 +3.7641X, + 3.9860 X, + 4.2835 X, + 4.32g3 X4
- 0.1689 X, + 5.1074 Xu + 5.7933 X, * 4.Btg3 X, + 7.7344 X, (3.3)
Tabel 3.9 berikut ini merupakan nilai R2, MSEP dan RMSEP dari regresi komponen utama :
Tabel 3.9. Nilai R2, MSEP dan RMSEp dari Metode Regresi Komponen utama
Metode AnalisaNilai
R2 MSEP RMSEP
Regresi Komponen Utama o.6429 5.2513 2.2916
Statistika, Yol. 12, No. 1 , Mei 2012
Perbandingan Metode PaftialLeasf Square (pLS)... 4j
Perbandingan Metode
Dari hasil seluruh pembahasan, nilai koefisien penduga dan nilai I hitu,g dari kedua metodedapat dilihat pada Tabei 3.10 berikut:
Tabel 3.10. Nilai Koehsien Penduga dan Nilai t rut,^g dari Kedua Metode
KoefisienPenduga
Nilai Koefrsien Penduga Nilai f rutu'g
Partial LeastSqtare(PLS)
Regresi
KomponenUtama
Partial LeastSEtare(PLS)
Regresi
KomponenUtama
Fr
Fz
9s
9q
9s
Fo
9tFa
9s
69.7400-23.7629-98.5289-73.20280.1985
74.78361.7561
8s.2408-L2.5974
o.4626o.4498o.43340.43900.3109o.4654r.08690.4631o.4498
1.60001.8356 *
3.6448 *
2.8396 "0.00392.7270 *
o.9783
5.6926 *
-0.3367
28.6329 *
28.8235 *
28.78L9 *
28.8293 *
5.8305 *
28.5772 *
15.7995 *
28.6576 *
28.5408 *
Keterangan: * Signihkan pada d = 5o/o
Berdasarkan Tabel 3.10 menunjukkan bahwa koefisien penduga pada metode partial LeastSEtare (PLS) tidak semuarya berpengaruh nyata pada taraf nyata 0.05. Variabel-variabel yangberpengaruh nyata adalah variabel Xz, Xs, X+, X6, dan Xa, sedaagkan variabel-variabel lainnyatidak berpengaruh nyata. Hal ini ditunjukkan dengan melihat nilai / r,it*g pada masing-ttr^"itrgvariabel Xz, Xa, X+, Xo, dan )G yang lebih besar dari nilai f t u.r = t (o.e5,36) = 1.70. Berdasarkanpengujian disimpulkan bahwa Ho ditolak karena nilai I t hitune | > | I t^ur I sehingga pengujiannilai statistik uji t untuk regresi adalah nyata pada taraf nyata 0.05. Sedangkan pada rigresikomponen utama menunjukkan bahwa semua koehsien rlgresi nyata secara statistik ;adataraf nyata 0.05. Hal ini ditunjuld<an dengan melihat nilai f rut"e pada masing-masing variabeldengan nilai I tabel = t (o.es,36) = 1.70. Berdasarkan pengujian disimpulkan bahwa Ho aitot"tkarena nilai lt nit"gl > lt t"u.rl sehingga pengujian nilai statistik uji t untuk regresi adalahnyata pada tarafnyata O.05.Untuk mengeta-hui metode mana yang lebih baik, perlu dikaji nilai R2, MSEP dan RMSEp nya.Nilai R2, MSEP dan RMSEPyang diperoleh dari kedua metode dapat dilihat pada Tabel 3.llberilmt ini:
Tabel 3.11. Nilai R2, MSEP darr RMSEP dari Kedua Metode
Metode AnalisaNilai
R2 MSEP RMSEP
Partial Lea.st SEtare (PLSI
Regresi Komponen Utama0.93115o.6429
o.93775.2513
0.9683
2.2916
Berdasarkan Tabel 3. 1 1 , nilai Rz dari metode Partial Least Sqtare (PLS) memberikan nilai yanglebih besar dibandingkan dengaa metode regresi komponen utama. Hal ini berarti mCtoaePartial Least Square (PLS) memberikan ketepatan model yang lebih baik dari pada metoderegresi komponen utama. Begitu juga jika ditinjau dari nilai MSEP dan nilai RMSEP, metodePaftial Least Square (PLS) mempunyai nilai yang lebih rendah dari pada metode regresikomponen utama sehingga metode Partial Lea.st Square (PLS) memberikan ketepatan modelyang lebih baik dari pada metode regresi komponen utama.
Statistika, Yol. 12, No. 1, Mei 2012
42 Nurhasanah, dkk.
4, KESIMPULAN DAN SARAN
Berdasarkan hasil penelitian yang dilakukan terhadap kedua metode untuk mengatasimultikolinear yaitu metode Partial Least Square (PLS) dan metode regresi komponen utamadapat disimpulkan bahwa: (1) Pada Metode Partiol Leo,st Square (PLS) nilai koehsien pendugapada masing-masing variabel tidak semuanya berpengaruh nyata pada taraf nyata 0.05,sedangkan pada regresi komponen utama semua nilai koefrsien penduga pada masing-masingvariabel semuanya berpengaruh nyata pada taraf nyata 0.05; (2) Metode Partial Least Square(PLS) memberikan hasil yang lebih baik jika dibandingkan dengan metode regresi komponenutama. Hal ini dapat disimpulkan dengan melihat nilai R2, Mean Square Error Prediction(MSEP), dan Root Mean Square Eror Prediction (RMSEP). Metode Partial Least Square IPLS)mempunyai nilai Rz yang lebih tinggi dan mempunyai nilai MSEP dan RMSEP yang lebihrendah jika dibandingkan terhadap metode regtesi komponen utama.Peneliti yang berkeinginan melanjutkan pengembangan tulisan ini diharapkan dapatmenggunakan metode yang berbeda misalnya dengan menggunakan metode regresi, idgesebagai metode pembanding serta menggunakal data riil.
DAFTAR PUSTAKA
t1]. Bilfarsah, A. 2005. Efektihtas Metode Aditif Spline Kuadrat Terkecil Parsial DalamPendugaan Model Regresi. Makara, Sadns, 9 (i) : 28 - 33.
121. Herwindiati, D.E. f997. Pengkajian Regresi Komponen Utama, Regresi Ridge, dan RegresiKuadrat Terkecil Parsial untuk Mengatasi Kolinearitas. ?esis. Institut pertanian Bogor. Bogor.
t3l. Montgomery, D.C dan Peck, E.A. 1992. Introductionto Linier RegresstonWilley & Sons. New York.
Analgsis. John
l4l. Naes, T. 1985. Multivariate Calibration When The Error Covariance Matrix is Structured.Technometics, 27 (31 : 301 - 31 l.
tsl. Noryanti. 2009. Pengaruh Hasil-hasil Ujian di Sekolah Terhadap Hasil Ujian Nasional di SMUNegeri 1 Limboto Kabupaten Gorontale" Teknologi Technoscientia. 2 (Ll:85 - 95.
t6l17l
Sembiring, R. K. 1995. Analisi.s Regresi. ITB Bandung. Bandung.Soemartini. 2008. Penyelesaian Multikolinelaritas Melalui Metode Ridge Regression. ?esis.Universitas Padj aj aran.
tSl. Wigena, A. H dan Aunuddin, 1998. Metode PLS untuk Mengatasi Kolinearitas dalam KalibrasiGanda. Forum SfatisfikadanKomputasi.3 (1) : f7-19'
Statistika, Yol. 12, No. 1, Mei 2012