9
1 KAJIAN METODE BOOTSTRAP DALAM MEMBANGUN SELANG KEPERCAYAAN DENGAN MODEL ARMA (p,q) Oleh : Ratna Evyka E.S.A 1206 100 043 Dosen Pembimbing : Dra. Nuri Wahyuningsih, M.Kes Dra. Laksmi Prita W, M.Si Jurusan Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Institut Teknologi Sepuluh Nopember Surabaya 2011 Abstrak Data yang berukuran kecil tidak dapat di ramalkan secara langsung tetapi hal ini dapat disiasati dengan menggunakan teknik resampling, salah satu metode yang bisa digunakan dalam teknik resampling adalah metode resampling Bootstrap. Metode bootstrap ini merupakan suatu metode resampling untuk mengestimasi probabilitas suatu statistik dengan mendapatkan sampel baru =( 1 , 2 , , 3 ). Metode ini bagus sekali untuk ukuran data sampel yang relatif kecil. Dari hasil resampling tersebut dapat dianalisa selang kepercayaan dan model time series yang sesuai untuk digunakan dalam metode Bootstrap, serta digunakan untuk mendapatkan peramalan data untuk beberapa periode ke depan. Studi kasus dalam tugas akhir ini adalah meramalkan jumlah penjualan baju koko Dannis Collection pada periode yang akan datang. Hasil analisis menunjukkan bahwa selang kepercayaan untuk , adalah , ± 2 , 2 =1 1 dengan model terbaik untuk peramalan penjualan Dannis Collection adalah ARMA (10,10). Kata kunci: Selang Kepercayaan, Estimasi, Resampling Bootstrap, ARMA(p,q) 1. Pendahuluan Angka penjualan suatu produk memegang peranan penting dalam suatu proses produksi. Angka penjualan dan produksi suatu produk memiliki keterkaitan satu sama lain. Angka penjualan suatu produk dapat memberikan gambaran bagi produsen untuk mengetahui dan memperkirakan seberapa besar produk tersebut diproduksi untuk beberapa periode yang akan datang. Akan tetapi keterbatasan data (n<30) merupakan masalah yang sering dihadapi sehingga akan mempersulit peramalan untuk periode yang akan datang. Maka perlu dilakukan langkah-langkah untuk mengantisipasi masalah tersebut. Salah satunya adalah dengan cara resampling data yg sedikit tersebut agar mudah untuk untuk diramalkan. Salah satu metode umum dalam resampling data adalah dengan menggunakan metode Bootstrap. Metode Bootstrap diciptakan oleh Bradley Efron pada tahun 1979. Metode Bootstrap ini merupakan suatu metode resampling untuk mengestimasi probabilitas suatu statistik dengan mendapatkan sampel baru =( 1 , 2 , , 3 ). Metode ini bagus untuk ukuran data sampel yang relatif kecil (n<30). Untuk memperkirakan suatu nilai pada periode yang akan datang diperlukan suatu ilmu yang bernama forecasting (peramalan). Forecasting merupakan suatu proses analisis untuk meramalkan apa yang akan terjadi pada masa mendatang berdasarkan situasi dan kondisi yang terjadi sekarang dan masa lalu. Perspektif pada peramalan sama beragamnya dengan pandangan setiap kelompok metode ilmiah yang

KAJIAN METODE BOOTSTRAP DALAM MEMBANGUN SELANG … · dianalisa selang kepercayaan dan model time series yang sesuai untuk ... pengambilan titik sampel dari data ... menunjukkan bahwa

Embed Size (px)

Citation preview

1

KAJIAN METODE BOOTSTRAP DALAM MEMBANGUN SELANG KEPERCAYAAN

DENGAN MODEL ARMA (p,q)

Oleh :

Ratna Evyka E.S.A

1206 100 043 Dosen Pembimbing :

Dra. Nuri Wahyuningsih, M.Kes

Dra. Laksmi Prita W, M.Si

Jurusan Matematika

Fakultas Matematika dan Ilmu Pengetahuan Alam

Institut Teknologi Sepuluh Nopember Surabaya

2011

Abstrak

Data yang berukuran kecil tidak dapat di ramalkan secara langsung tetapi hal ini dapat disiasati dengan menggunakan teknik resampling, salah satu metode yang bisa digunakan dalam teknik resampling

adalah metode resampling Bootstrap. Metode bootstrap ini merupakan suatu metode resampling untuk

mengestimasi probabilitas suatu statistik dengan mendapatkan sampel baru 𝑥∗ = (𝑥1∗,𝑥2

∗,… , 𝑥3∗).

Metode ini bagus sekali untuk ukuran data sampel yang relatif kecil. Dari hasil resampling tersebut dapat dianalisa selang kepercayaan dan model time series yang sesuai untuk digunakan dalam metode

Bootstrap, serta digunakan untuk mendapatkan peramalan data untuk beberapa periode ke depan. Studi

kasus dalam tugas akhir ini adalah meramalkan jumlah penjualan baju koko Dannis Collection pada

periode yang akan datang. Hasil analisis menunjukkan bahwa selang kepercayaan untuk 𝑥 𝑖,𝑗∗ adalah

𝑥 𝑖,𝑗∗ ± 𝑧𝛼

2

𝑥 𝑖∗−𝑥 𝑖,𝑗

∗ 2

𝑁𝑗=1

𝑁−1 𝑛𝑁dengan model terbaik untuk peramalan penjualan Dannis Collection adalah

ARMA (10,10).

Kata kunci: Selang Kepercayaan, Estimasi, Resampling Bootstrap, ARMA(p,q)

1. Pendahuluan

Angka penjualan suatu produk memegang peranan penting dalam suatu proses produksi.

Angka penjualan dan produksi suatu produk

memiliki keterkaitan satu sama lain. Angka penjualan suatu produk dapat memberikan

gambaran bagi produsen untuk mengetahui dan

memperkirakan seberapa besar produk tersebut

diproduksi untuk beberapa periode yang akan datang. Akan tetapi keterbatasan data (n<30)

merupakan masalah yang sering dihadapi

sehingga akan mempersulit peramalan untuk periode yang akan datang. Maka perlu dilakukan

langkah-langkah untuk mengantisipasi masalah

tersebut. Salah satunya adalah dengan cara

resampling data yg sedikit tersebut agar mudah untuk untuk diramalkan. Salah satu metode

umum dalam resampling data adalah dengan

menggunakan metode Bootstrap. Metode Bootstrap diciptakan oleh Bradley Efron pada

tahun 1979. Metode Bootstrap ini merupakan

suatu metode resampling untuk mengestimasi

probabilitas suatu statistik dengan mendapatkan

sampel baru 𝑥∗ = (𝑥1∗,𝑥2

∗,… ,𝑥3∗). Metode ini

bagus untuk ukuran data sampel yang relatif

kecil (n<30). Untuk memperkirakan suatu nilai pada

periode yang akan datang diperlukan suatu ilmu

yang bernama forecasting (peramalan). Forecasting merupakan suatu proses analisis

untuk meramalkan apa yang akan terjadi pada

masa mendatang berdasarkan situasi dan kondisi

yang terjadi sekarang dan masa lalu. Perspektif pada peramalan sama beragamnya dengan

pandangan setiap kelompok metode ilmiah yang

2

dianut oleh pengambil keputusan. Untuk data

yang belum stasioner perlu dilakukan

transformasi terlebih dahulu, trasformasi yang biasa dipakai adalah transformasi Box-Cox.

Dengan data yang telah stasioner bisa didapatkan

estimasi parameter dan selang kepercayaan untuk

parameter ARMA(p,q). Dalam tugas akhir ini digunakan metode resampling Bootstrap untuk

memperoleh selang kepercayaan untuk parameter

model ARMA(p,q) dengan studi kasus memprediksi jumlah penjualan baju koko dari

Dannis Collection untuk periode yang akan

datang.

2. Metode Resampling Bootstrap

Metode bootstrap adalah prosedur pengambilan sampel baru secara berulang

sebanyak N sampel baru dari data asal berukuran

𝑛, dimana untuk sebuah sampel baru dilakukan

pengambilan titik sampel dari data asal dengan cara satu persatu sampai n kali dengan

pengembalian. Misalkan terdapat data asal

berukuran 𝑛, yaitu 𝑋 = (𝑥1 ,𝑥2 ,… ,𝑥𝑛 ) maka dengan metode bootstrap akan diperoleh sampel-

sampel baru berukuran n sebagai berikut (Efron,

1993):

Sampel ke-1, 𝑋∗1 = (𝑥11∗ ,𝑥21

∗ ,𝑥31∗ ,… ,𝑥𝑛1

∗ ) Sampel ke-2, 𝑋∗2 = (𝑥12

∗ ,𝑥22∗ ,𝑥32

∗ ,… ,𝑥𝑛2∗ )

.....

..... Sampel ke-N, 𝑋∗𝑁 = (𝑥1𝑁

∗ ,𝑥2𝑁∗ ,𝑥3𝑁

∗ ,… ,𝑥𝑛𝑁∗ )

Jika di berikan ∅𝑁 𝑋 = ∅𝑁(𝑥1 ,𝑥2 ,… ,𝑥𝑛 ) yang

ditetapkan sebagai estimator dari sampel

𝑋(𝑛)(𝑁)

= (𝑥1𝑁∗ ,𝑥2𝑁

∗ ,𝑥3𝑁∗ ,… , 𝑥𝑛𝑁

∗ ), dengan

parameternya adalah 𝜃 maka didapat estimasi mean untuk bootstrap adalah:

𝜃 =1

𝑁 𝜃 𝑖

𝑁

𝑖=1

Jika diasumsikan estimator 𝜃 adalah distribusi

normal dengan mean 𝜃 dan varian 𝜍2 maka

sampel varian untuk bootstrap adalah:

𝑆2 =1

𝑁 − 1 (𝜃 𝑖 − 𝜃 )2

𝑁

𝑖=1

Sedangkan taksiran standar error bootstrap adalah:

𝑆𝑒 = 1

(𝑁−1) (𝜃 𝑖 − 𝜃 )2𝑁

𝑖=1 1 2

Selang

kepercayaan mean bootstrap 100 1 − 𝛼 %

dengan 𝛼 = 0,05 untuk mean adalah:

𝜃 ± 𝑧𝛼 2 𝑆𝑒 = 𝜃 ± 𝑧(𝛼 2) 1

𝑁 − 1 (𝜃 𝑖 − 𝜃 )2

𝑁

𝑖=1

Untuk estimasi parameter dengan

menggunakan MLE meliputi dua tahap, yaitu mengkontruksi fungsi Likelihood dan

memperoleh fungsi Likelihood tersebut.

Misalkan 𝑥 adalah variabel random dengan

fungsi probabilitas 𝑓(𝑥, 𝜃) merupakan himpunan

parameter yang tidak diketahui dan untuk setiap

𝑥𝑖 saling independen maka pengkontruksian

fungsi Likelihood dapat dinyatakan dengan:

𝐿 𝜃, 𝑋 = 𝑓 𝑥1 , 𝜃 𝑓 𝑥2, 𝜃 𝑓 𝑥3, 𝜃 …𝑓 𝑥𝑛 , 𝜃

𝐿 𝜃, 𝑋 = 𝑓(

𝑛

𝑖=1

𝑥𝑖 , 𝜃) (2.1)

Probablitas bahwa nilai variabel acak 𝑥

berada dalam batas 𝑥1 dan 𝑥2 adalah:

𝑃 𝑥1 < 𝑥 < 𝑥2 = 𝐹 𝑥2 − 𝐹𝑥1) = 𝑓 𝑥 𝑑𝑥

𝑥2

𝑥1

Probabilitas selang kepercayaan dengan

selang kepercayaan sebesar 1 − 𝛼 100% untuk

𝑝 adalah:

𝑃(𝑝1 < 𝑝 < 𝑝2 = 1 − 𝛼 (2.2)

Korelasi antara pengamatan pada waktu ke-t

(𝑍𝑡) dengan pengamatan pada waktu ke-t+k

(𝑍𝑡+𝑘) yang dipisahkan oleh lag k, sehingga

persamaan ACF dapat dirumuskan sebagai

berikut:

𝜌𝑘 =𝐶𝑜𝑣(𝑍𝑡 ,𝑍𝑡+𝑘)

𝑉𝑎𝑟 𝑍𝑡 𝑉𝑎𝑟(𝑍𝑡+𝑘) , 𝑘 = 1,2, …

Untuk mengukur keeratan hubungan 𝑍𝑡 dan

𝑍𝑡+𝑘 setelah dependensi linear dalam varian

𝑍𝑡+𝑘 , … . , 𝑍𝑡+𝑘−1 dihilangkan [Wei, 1990] disebut Partial Autocorrelation Function

(PACF) dapat dihitung dengan menggunakan

persamaan sebagai berikut:

∅ k+1,k+1 = ρ k+1 − ∅ kj − ρ k−1+j

kj=1

1 − ∅ kjkj=1 ρ j

∅ k+1,j = ∅ kj − ∅ k+1,k+1∅ k,k+1−j

k = 1,2, … ; j = 1,2, … , k − 1 dengan :

∅ : fungsi autokorelasi parsial

3. Model Time Series

Bentuk-bentuk umum model time series adalah sebagai berikut:

3

1. Autoregressive (AR)

Model untuk Autoregressive (AR) adalah:

Zt = ∅1Zt−1 + ∅2Zt−2 + ⋯+ ∅p Zt−p + ɑ𝑡 (3.1)

dengan :

Zt :besarnya pengamatan (kejadian) pada waktu ke-t

ɑ𝑡 : nilai kesalahan (error) pada waktu ke-t

∅1, ∅2 … , ∅p : parameter auturegresive

2. Moving Average (MA)

Model untuk Moving Average (MA) adalah:

𝑍𝑡 = 𝜇 + ɑ𝑡 − 𝜃1ɑ𝑡−1 − 𝜃2ɑ𝑡−2 − ⋯− 𝜃𝑞 (3.2)

dengan:

𝜇 : nilai konstan

𝜃1, … , 𝜃𝑞 : parameter-parameter Moving Average

ɑ𝑡 : nilai kesalahan pada saat 𝑡 − 𝑞

3. Autoregressive Moving Average (ARMA)

Model Autoregressive Moving Average

merupakan model campuran dari model autoregressive dan moving average. Bentuk

umum model ARMA (p,q) menurut Wei (1994)

adalah:

𝑍𝑡 = 𝜇 + 𝜙1Zt−1 + ⋯ + 𝜙𝑝Zt−p + ɑ𝑡 −

𝜃1ɑ𝑡−1 − ⋯− 𝜃𝑞ɑ𝑡−𝑞 (3.3)

3.1 Estimasi dan Uji Signifikansi Parameter

Model ARMA yang baik adalah model yang

menunjukkan bahwa penaksiran parameternya

signifikan. Secara umum, misalkan 𝜃 adalah

suatu parameter pada model ARMA dan 𝜃 adalah nilai taksiran dari parameter tersebut,

serta 𝑆𝐸(𝜃 ) adalah standart error dari 𝜃 , maka

uji kesignifikanan parameternya dapat dilakukan dengan hipotesa sebagau berikut :

Hipotesa :

𝐻𝑜 ∶ 𝜃 = 0 (paremeter tidak signifikan)

𝐻1 ∶ 𝜃 ≠ 0 (parameter signifikan)

Statistik uji :

𝑡 =𝜃

𝑆𝐸(𝜃 )

Daerah kritis :

𝐻0 ditolak jika 𝑡 > 𝑡𝛼 2 ,𝑛−𝑝−𝑞

Atau 𝐻0 ditolak jika P-value < 𝛼

3.2 Pemeriksaan Diagnostik Model

Pemeriksaan diagnostik pada residual meliputi uji asumsi white noise (independen dan

identik) dan berdistribusi normal.

1. Uji White noise

Pengujian yang digunakan untuk

mengetahui apakah residual bersifat white noise digunakan statistik uji Ljung-Box.

Hipotesa

𝐻0 : 𝜌1 = 𝜌2 = … = 𝜌𝑘 = 0 (residual bersifat

white-noise)

𝐻1 : minimal ada 𝜌𝑘 ≠ 0 (residual tidak bersifat

white-noise)

Statistik uji:

𝑄 = 𝑛 𝑛 + 2 𝜌𝑘

2

𝑛 − 𝑘

𝐾

𝑘=1

dengan:

𝐾 : lag maksimum yang diuji

𝑛 : banyak pengamatan

𝜌 𝑘 : ACF residual pada lag ke-𝑘

Daerah kritis

𝐻0 ditolak jika 𝑄 > 𝜒𝛼 ,𝐾−𝑝−𝑞2 atau 𝑃 𝜒2 >

𝜒𝑕𝑖𝑡𝑢𝑛𝑔2 < 𝛼 0,05

di mana 𝐾 adalah lag maksimum yang diuji, 𝑝

adalah jumlah parameter AR, dan 𝑞 adalah

jumlah parameter MA.

2. Uji Normalitas

Untuk mengetahui residual berdistribsi

normal dilakukan pengujian dengan menggunakan statistik uji Kolmogorov–Smirnov

yaitu:

Hipotesa

𝐻0 : 𝐹 𝑥 = 𝐹0 𝑥 (Residual berdistribusi

normal)

𝐻1 : 𝐹 𝑥 ≠ 𝐹0 𝑥 (Residual tidak berdistribusi

normal)

Statistik uji

𝐷 =𝑠𝑢𝑝

𝑥 𝑆 𝑥 − 𝐹0 𝑥

dengan:

𝑆 𝑥 : fungsi peluang komulatif yang dihitung dari data sampel

𝐹0 𝑥 : fungsi peluang komulatif distribusi yang

dihipotesakan

𝐹 𝑥 : fungsi distribusi yang belum diketahui

𝑠𝑢𝑝 : nilai supremum untuk semua 𝑥

Daerah kritis

H0 ditolak jika 𝐷 ≥ 𝐷𝛼 ,𝑛 atau 𝑃 𝐷 > 𝐷𝑕𝑖𝑡𝑢𝑛𝑔 <

𝛼 0,05 dengan 𝛼 = 5%

4

3.3 Kriteria Pemilihan Model Terbaik

Untuk menentukan model terbaik dari beberapa model yang memenuhi syarat tersebut

dapat digunakan beberapa kriteria antara lain

kriteria In-sampel (AIC dan SBC) dan Out-

sampel (MSE dan MAPE ). 1. AIC (Akaike’s Information Criterion)

AIC (Akaike’s Information Criterion)

adalah kriteria pemilihan model dengan mempertimbangkan jumlah parameter dalam

model. Kriteria AIC dirumuskan sebagai berikut

(Wei, 1990):

𝐴𝐼𝐶 = 𝑛 ln 𝜍𝑎2 + 2𝑀

dengan:

𝑛 : banyaknya residual

𝜍𝑎2 : estimasi dari varian residual (𝜍𝑎

2)

𝑀 : jumlah parameter dalam model

2. SBC (Schwartz,s Bayesian Criterion) SBC (Schwartz’s Bayesian Criterion)

adalah kriteria pemilihan model dengan

mempertimbangkan jumlah parameter dalam model yang digunakan untuk sampel yang kecil.

Nilai-nilai SBC ditentukan dengan cara:

𝑆𝐵𝐶 𝑀 = 𝑛 ln 𝜍𝑎2 + 𝑀 ln 𝑛

3. MSE (Mean Square Error)

Kriteria MSE dirumuskan sebagai berikut:

𝑀𝑆𝐸 = 𝑍𝑡 − 𝑍 𝑡

2𝑛𝑡=1

𝑛

dengan 𝑛 adalah banyaknya residual. 4. MAPE (Mean Absolute Percentage Error)

Kriteria MAPE dirumuskan sebagai berikut:

𝑀𝐴𝑃𝐸 =

𝑍𝑡 − 𝑍 𝑡𝑍𝑡

𝑛𝑡=1

𝑛× 100%

dengan 𝑛 menyatakan banyaknya residual.

4. Metodelogi Penelitian

Metode yang digunakan pada tugas akhir dalam menyelesaikan permasalahan adalah:

1. Studi Literatur

2. Pengumpulan Data 3. Estimasi Parameter dari metode Bootstrap.

4. Membangun Selang Kepercayaan

5. Peramalan 6. Penarikan Kesimpulan dan Penulisan Laporan

Tugas Akhir.

5. Hasil

Estimasi yang dilakukan menggunakan dua

metode yaitu Maximum Likelihood Estimation

dan Unbiassed Estimator.

1. Maximum Likelihood Estimation

Estimasi parameter menggunakan Maximum Likelihood Estimation (MLE) meliputi

dua tahap yaitu mengkontruksi fungsi likelihood

𝐿 𝜑, 𝑍 , dan memperoleh nilai estimator 𝜑 yang memaksimumkan fungsi likelihood tersebut.

Mean dari sampel asli adalah:

𝑥 =1

𝑛 𝑥𝑖

𝑛

𝑖=1

(5.1)

Berdasarkan (2.1) pengkontruksian fungsi

likelihood dapat dinyatakan dengan:

𝐿 𝜃, 𝑋 = 𝑓 𝑥1, 𝜃 𝑓 𝑥2, 𝜃 𝑓 𝑥3, 𝜃 …𝑓 𝑥𝑛 , 𝜃

𝐿 𝜃, 𝑋 = 𝑓(

𝑛

𝑖=1

𝑥𝑖 , 𝜃) (5.2)

dengan 𝑥𝑖 saling independen dan 𝑓 𝜃, 𝑥 adalah fungsi probabilitas.

Karena data pengamatan pada resampling

Bootstrap saling independent untuk setiap hasil

resampling, maka pengkontruksian fungsi likelihood dinyatakan dengan:

𝐿 𝜇, 𝜍2 = 1

2𝜋 𝜍2 𝑛 𝑒− 𝑥 𝑖

∗−𝜇 2

(2𝜍2 𝑛)

𝑁

𝑗=1

Diasumsikan resampling berdistribusi

normal 𝑥𝑖∗~𝑁 𝜇, 𝜍2 maka rata-rata tiap

resampling 𝑥 𝑖∗ juga berdistribusi normal

𝑥 𝑖∗~𝑁(𝜇, 𝜍2 𝑛 ) Sehingga pdf dari 𝑥 𝑖

∗ adalah

𝑓 𝑥 𝑖∗;𝜇, 𝜍2 =

1

2𝜋 𝜍2 𝑛 𝑒− 𝑥 𝑖

∗−𝜇 2

(2𝜍2 𝑛)

dan pdf dari Likelihood adalah:

𝐿 𝜇, 𝜍2 = 1

2𝜋 𝜍2 𝑛 𝑒− 𝑥 𝑖

∗−𝜇 2

(2𝜍2 𝑛)

𝑁

𝑗=1

ln𝐿 𝜇, 𝑣 = −𝑁

2 ln 2𝜋 + ln

𝜍2

𝑛 −

𝑛

2𝜍2 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1 (5.3)

Kemudian, persamaan (5.3) diturunkan terhadap

𝜇 sehingga diperoleh persamaan berikut:

𝜕 ln 𝐿 𝜇, 𝜍2

𝜕𝜇= −

𝑛

2𝜍2 2 𝑥 𝑖

∗ − 𝜇 2

𝑁

𝑗=1

= 0

−𝑛 𝑥 𝑖∗

𝑁

𝑗=1

+ 𝑛 𝜇

𝑁

𝑗=1

= 0

𝜇 = 𝑥 𝑖

∗𝑁𝑗=1

𝑁

5

𝜇 = 𝑥 𝑖𝑗∗ =

1

𝑛

1

𝑁 𝑥𝑖𝑗

𝑁

𝑗=1

𝑛

𝑖=1

Pengujian kedua adalah untuk varian:

ln𝐿 𝜇, 𝑣 = −𝑁

2 ln 2𝜋 + ln

𝜍2

𝑛 −

𝑛

2𝜍2 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1 (5.4)

persamaan (5.4) diturunkan terhadap 𝜍2

sehingga diperoleh persamaan berikut:

𝜕 ln(𝜇, 𝜍2)

𝜕𝑣= −

𝑁

2

𝑛

𝜍2+

𝑛

2(𝜍2)2 𝑥 𝑖

∗ − 𝜇 2

𝑁

𝑗=1

= 0

𝑛𝑁

2𝜍2=

𝑛

2(𝜍2)2 𝑥 𝑖

∗ − 𝜇 2

𝑁

𝑗=1

𝜍2𝑁 = 𝑥 𝑖∗ −𝜇 2

𝑁

𝑗 =1

𝜍 2 = 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1

𝑁

𝜍 2

𝑛=

𝑥 𝑖∗ − 𝜇 2𝑁

𝑗=1

𝑁𝑛 (5.5)

2. Unbiassed Estimator

Pengujian dengan dengan menggunakan unbiassed estimator akan didapatkan bukti

seberapa besar kesalahan atau error dari

estimator tersebut. Pertama akan dilakukan untuk menguji apakah terdapat error pada saat

𝐸 𝑥 𝑖,𝑗∗ = 𝜇.. Dengan rumus dasar ekspektasi

sebagai berikut:

Pengujian Unbiassed Estimatornya adalah:

𝜇 = 𝑥 𝑖𝑗∗ =

1

𝑛

1

𝑁 𝑥𝑖𝑗

𝑁

𝑗=1

𝑛

𝑖=1

𝐸 𝑥 𝑖,𝑗∗ = 𝐸

1

𝑁

1

𝑛 𝑥𝑖𝑗

𝑁

𝑗=1

𝑛

𝑖=1

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑁

1

𝑛𝐸 𝑥𝑖𝑗

𝑁

𝑗=1

𝑛

𝑖=1

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑛

1

𝑁𝐸 𝑥11

∗ + 𝑥21∗ + ⋯ + 𝑥𝑛1

∗ + 𝑥12∗ + ⋯ + 𝑥𝑛𝑁

Karena setiap data dalam resampling Bootstrap bersifat independen maka:

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑛

1

𝑁𝐸 𝑛𝑥𝑖1

∗ + 𝑛𝑥𝑖22 + ⋯ + 𝑛𝑥𝑖𝑁

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑛

1

𝑁𝐸 𝑛 𝑥𝑖1

∗ + 𝑥𝑖22 + ⋯ + 𝑥𝑖𝑁

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑛

1

𝑁𝐸(𝑛𝑁𝑥𝑖𝑗

∗ )

𝐸 𝑥 𝑖,𝑗∗ =

1

𝑛

1

𝑁𝑛𝑁𝜇

𝐸 𝑥 𝑖,𝑗∗ = 𝜇

Pengujian kedua dilakukan untuk menguji

apakah terdapat error pada saat 𝐸 𝜍 2 =𝜍2,maka dengan menggunakan persamaan (5.5)

maka pengujian Unbiassed Estimatornya adalah:

𝜍 2 =1

𝑛

1

𝑁 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁

𝑗=1

𝐸 𝜍 2 = 𝐸 1

𝑛

1

𝑁 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁

𝑗=1

𝐸 𝜍 2 =1

𝑛

1

𝑁𝐸 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁

𝑗=1

𝐸 𝜍 2 =1

𝑛

1

𝑁𝐸 𝑥 𝑖

∗2 − 2𝑥 𝑖∗𝑥 𝑖,𝑗

∗ + (𝑥 𝑖,𝑗∗ )2

𝑁

𝑗=1

𝐸 𝜍 2 =1

𝑛

1

𝑁𝐸 𝑥 𝑖

∗2

𝑁

𝑗=1

+ 2𝑥 𝑖∗𝑥 𝑖,𝑗

𝑁

𝑗 =1

+ (𝑥 𝑖 ,𝑗∗ )2

𝑁

𝑗 =1

𝐸 𝜍 2 =1

𝑛

1

𝑁 𝐸 𝑥 𝑖

∗2 − 2𝑁𝑥 𝑖,𝑗∗ 2 + 𝑁𝑥 𝑖,𝑗

∗ 2

𝑁

𝑗=1

𝐸 𝜍 2 =1

𝑛

1

𝑁 𝐸 𝑁𝑥 𝑖

∗2 − 𝑁𝑥 𝑖,𝑗∗ 2

𝐸 𝜍 2 =𝑁

𝑛𝑁 𝐸(𝑥 𝑖

∗)2 − 𝐸(𝑥 𝑖,𝑗∗ )2

Karena 𝜍2 = 𝐸(𝑥 𝑖∗)2 − 𝐸(𝑥 𝑖

∗) 2 maka:

𝐸 𝜍 2 =1

𝑛 𝜍2 + 𝐸(𝑥 𝑖

∗) 2 −𝜍2

𝑁− 𝐸(𝑥 𝑖 ,𝑗

∗ ) 2

𝐸 𝜍 2 =1

𝑛 𝜍2 + 𝜇2 −

𝜍2

𝑁− 𝜇2

𝐸 𝜍 2 =1

𝑛 𝜍2 −

𝜍2

𝑁 =

1

𝑛 𝑁𝜍2 − 𝜍2

𝑁 =

𝑁 − 1

𝑛𝑁𝜍2 (4.6)

Sehingga 𝜍 2 adalah estimator bias dari 𝜍2,

untuk menjadikan tak biasa maka menggunakan

persamaan (5.6) akan dilakukan langkah-langkah sebagai berikut:

𝐸 𝜍 2 =𝑁 − 1

𝑛𝑁𝜍2

𝜍2 =𝑁

𝑛𝑁 − 1𝐸 𝜍 2

𝜍2 =𝑛𝑁

𝑁 − 1𝐸 𝜍 2

𝜍2 = 𝐸 𝑛𝑁

𝑁 − 1

𝑥 𝑖∗ − 𝜇 2𝑁

𝑗=1

𝑁𝑛

𝜍2 = 𝐸 1

𝑁 − 1 𝑥 𝑖

∗ − 𝜇 2

𝑁

𝑗=1

6

Jadi dapat disimpulkan bahwa 1

𝑁−1 𝑥 𝑖

∗ −𝑁𝑗=1

𝜇 2 adalah estimator unbiassed untuk 𝜍2 dan 1

𝑁−1 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1 biasanya dinotasikan dengan

𝑆2 .

5.1 Selang Kepercayaan

Dalam metode Bootstrap, 𝑥 𝑖,𝑗∗ dan 𝑠

merupakan rata-rata dan simpangan dari populasi

dengan 𝜍2 yang tidak diketahui, maka selang

kepercayaan 1 − 𝛼 100% untuk 𝜇 adalah

sebagai berikut:

𝑥 𝑖,𝑗∗ =

1

𝑁

1

𝑛 𝑥𝑖𝑗

𝑛

𝑖=1

𝑁

𝑗=1

𝜍 = 𝑆 = 1

𝑁 − 1 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁

𝑗=1

𝑍 =𝑥 𝑖,𝑗

∗ − 𝜇

𝜍 𝑛𝑁

Sehingga selang kepercayaannya adalah:

𝑃 −𝑧𝛼2

< 𝑍 < 𝑧𝛼2 = 1 − 𝛼

𝑃 −𝑧𝛼2

<𝑥 𝑖,𝑗

∗ − 𝜇

𝜍 𝑛𝑁

< 𝑧𝛼

2 = 1 − 𝛼

𝑃

−𝑧𝛼2

<𝑥 𝑖,𝑗

∗ − 𝜇

𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁𝑗=1

𝑁 − 1 𝑛𝑁

< 𝑧𝛼2

= 1 − 𝛼

𝑃 −𝑧𝛼2 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁𝑗 =1

𝑁 − 1 𝑛𝑁< 𝑥 𝑖,𝑗

∗ − 𝜇 < 𝑧𝛼2 𝑥 𝑖

∗ − 𝑥 𝑖 ,𝑗∗

2𝑁𝑗 =1

𝑁 − 1 𝑛𝑁

= 1 − 𝛼

P 𝑥 𝑖,𝑗∗ − zα

2 𝑥 𝑖

∗ −𝑥 𝑖,𝑗∗

2𝑁𝑗=1

𝑁− 1 𝑛𝑁< 𝜇

< 𝑥 𝑖,𝑗∗ + zα

2 𝑥 𝑖

∗ −𝑥 𝑖,𝑗∗

2𝑁𝑗=1

𝑁− 1 𝑛𝑁

= 1 − α

Sehingga selang kepercayaan untuk 𝜇 adalah:

𝑥 𝑖,𝑗∗ ± 𝑧𝛼

2 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁𝑗=1

𝑁 − 1 𝑛𝑁

5.2 Peramalan data

Penentuan suatu data stasioner atau tidak

dalam varian, perlu dilakukan dengan plot time

series dan box-cox. Untuk data penjualan Dannis

Collection. bentuk plot time series dan box-cox

dapat dilihat pada Gambar 1 dan Gambar 2.

Gambar 1 Plot Time Series

Gambar 2 Plot Box-Cox

Dari plot box-cox pada Gambar 2 diperoleh

rounded value 𝜆 = 2, maka data penjualan Dannis Collection ini belum stasioner dalam

varian, sehingga diperlukan transformasi

dengan 𝑧′ = 𝑧2 , sehingga plot time series dan plot box-cox dapat dilihat pada Gambar 3 dan

Gambar 4:

Gambar 3 Plot Transformasi Time Series

Gambar 4 Plot Transformasi Box-cox

Berdasarkan Gambar 4 terlihat bahwa

rounded value 𝜆 = 1, sehingga data penjualan Dannis Collection telah stasioner dalam varian.

Langkah berikutnya yang harus dilakukan

Index

C1

1501351201059075604530151

2750

2500

2250

2000

1750

1500

Time Series Plot of Resampling

Lambda

StD

ev

5,02,50,0-2,5-5,0

340

330

320

310

300

290

280

270

260

250

Lower CL Upper CL

Limit

Lambda

2,00

(using 95,0% confidence)

Estimate 2,28

Lower CL 0,85

Upper CL 3,90

Rounded Value

Box-Cox Plot of Resampling

Index

Tra

nsfo

rma

si

1501351201059075604530151

8000000

7000000

6000000

5000000

4000000

3000000

2000000

Time Series Plot of Transformasi

Lambda

StD

ev

5,02,50,0-2,5-5,0

3000000

2500000

2000000

1500000

1000000

Lower CL Upper CL

Limit

Lambda

1,00

(using 95,0% confidence)

Estimate 1,14

Lower CL 0,31

Upper CL 1,93

Rounded Value

Box-Cox Plot of Transformasi

7

adalah pengidentifikasi plot ACF dan PACF

untuk menduga atau mengestimasi model awal

peramalan data penjualan Dannis Collection. Plot ACF dan plot PACF ditunjukkan pada Gambar 5

dan Gambar 6.

Gambar 5 Plot ACF

Gambar 6 Plot PACF

Dari hasil output minitab yang ditunjukkan pada Gambar 4.5 dan Gambar 4.6, maka plot

ACF (Gambar 4.5) dapat diketahui bahwa tidak

ada lag yang keluar dari batas sedangkan plot

PACF (Gambar 4.6) dapat diketahui ada dua lag yang keluar dari batas yaitu lag 10 dan 44 berarti

ada dua parameter yang signifikan.

5.2.1 Estimasi dan Uji Signifikansi

Setelah melakukan pemeriksaan terhadap

plot ACF dan PACF langkah selanjutnya adalah

mengidentifikasikan kesignifikanan model dengan menggunakan software SAS. Maka untuk

sementara model yang diduga adalah

ARMA(44,0).

Tabel 1 Estimasi Parameter Data Penjualan

Dannis Collection Model ARMA(44,0)

Param

eter

Estimasi Standart

Error

T

hitung

P-value

𝜙1 -0.25343 0.09651 -2.63 0.0096

𝜇 5393182.8 74444.1 72.45 <.0001

Pengujian signifikan parameter dari model

dalam Tabel 4.1 dengan menggunakan uji t-

student dengan 𝛼 = 5%

Uji Signifikansi Parameter 𝝓1 Hipotesa:

𝐻0 ∶ 𝜙1 = 0 (parameter tidak signifikan)

𝐻0 ∶ 𝜙1 ≠ 0 (parameter signifikan)

Statistik Uji:

𝑡𝑕𝑖𝑡𝑢𝑛𝑔 =𝜙1

𝑠𝑑(𝜙1 )

=−0.25343

0.09651= −2.63

𝑡𝑡𝑎𝑏𝑒𝑙 = 𝑡𝛼 2 ,𝑛−𝑝−𝑞−1 = 𝑡0.025,109 = 1,98

Karena 𝑡𝑕𝑖𝑡𝑢𝑛𝑔 > 𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑃 − 𝑣𝑎𝑙𝑢𝑒 =<

.0001 < 0,05 maka 𝐻0 ditolak artinya parameter

𝜙1 signifikan.

Uji Signifikansi Parameter 𝜇 Hipotesa:

𝐻0 ∶ 𝜇 = 0 (parameter tidak signifikan)

𝐻0 ∶ 𝜇 ≠ 0 (parameter signifikan)

Statistik Uji:

𝑡𝑕𝑖𝑡𝑢𝑛𝑔 =𝜇

𝑠𝑑(𝜇 )=

5393182.8

74444.1 = 72.45

𝑡𝑡𝑎𝑏𝑒𝑙 = 𝑡𝛼 2 ,𝑛−𝑝−𝑞−1 = 𝑡0.025,109 = 1,98

Karena 𝑡𝑕𝑖𝑡𝑢𝑛𝑔 > 𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑃 − 𝑣𝑎𝑙𝑢𝑒 =<

.0001 < 0,05 maka 𝐻0 ditolak artinya parameter

𝜇 signifikan.

5.2.2 Diagnoctic Checking Ada dua asumsi yang harus dipenuhi dalam

menentukan kecukupan model, yaitu residual

bersifat white noise dan berdistribusi normal. Pengujian asumsi residual white noise dapat

dilakukan dengan menggunakan uji Ljung-Box

dengan 𝛼 = 5% sebagai berikut:

Hipotesa:

𝐻0 ∶ 𝜌1 = ⋯ = 𝜌𝑘 = 0

𝐻1 : minimal ada satu 𝜌𝑗 ≠ 0, dengan 𝑗 =

1, 2, …𝐾 Statistik Uji Ljung-Box:

𝑄 = 𝑛(𝑛 + 2) 𝜌𝑘

2

𝑛 − 𝑘, 𝑛 > 𝑘

𝐾

𝑘=1

Untuk 𝐾 = 6 maka:

𝑄 = 150 150 + 2 𝜌𝑘

2

150 − 𝑘, 𝑛 > 𝑘

6

𝑘=1

Lag

Au

toco

rre

lati

on

1401301201101009080706050403020101

1,0

0,8

0,6

0,4

0,2

0,0

-0,2

-0,4

-0,6

-0,8

-1,0

Autocorrelation Function for Transformasi(with 5% significance limits for the autocorrelations)

Lag

Pa

rtia

l A

uto

co

rre

lati

on

1401301201101009080706050403020101

0,2

0,0

-0,2

Partial Autocorrelation Function for Transformasi(with 5% significance limits for the partial autocorrelations)

8

= 22800 (−0,153)2

150 − 1+

(0,146)2

150 − 2

+(−0,126)2

150 − 3+

(0,058 )2

150 − 4

+( 0,027)2

150 − 5+

(0,036)2

150 − 6

= 10,21

𝜒𝛼−𝐾−𝑝−𝑞2 = 𝜒0.05,4

2 = 11,07

Dengan cara yang sama seperti perhitungan 𝑄 di

atas maka untuk 𝐾 = 6, 12, 18, 24, 30 hasil 𝑄 yang diperoleh dapat dilihat pada Tabel 2.

Karena untuk setiap nilai 𝐾 nya menghasilkan

nilai 𝑄 <𝜒0.05,42 atau P-value >0,05 maka 𝐻0

diterima artinya residual white noise.

Tabel 2 Uji Residual White Noise

ARMA(44,0)

Sedangkan pengujian asumsi distribusi normal dapat dilakukan dengan menggunakan uji

Kolmogorov-Smirnov dengan 𝛼 = 5%.

Pengujian ini dapat dilakukan melalui hipotesa

sebagai berikut: Hipotesa:

𝐻0 ∶ 𝐹 𝛼𝑡 = 𝐹0(𝛼𝑡) (residual berdistribusi

normal)

𝐻1 ∶ 𝐹 𝛼𝑡 ≠ 𝐹0(𝛼𝑡) (residual tidak

berdistribusi normal)

Statistik Uji:

𝐷 = 𝑠𝑢𝑝𝛼𝑡

𝑆 𝛼𝑡 − 𝐹0 x𝛼𝑡 =0,076912

𝐷𝛼 ,𝑛 = 𝐷0.05,150 =0,072342

Karena 𝐷 > 𝐷0.05,150 maka 𝐻0 ditolak artinya

model tidak berdistribusi normal. Hal ini sesuai

dengan hasil yang ada pada Gambar 7 yaitu P-

value < 0,05 yang berarti tidak berdistribusi normal.

Gambar 7 Plot Kenormalan Residual ARMA

(44,0)

5.2.3 Overfitting

Selanjutnya dilakukan overfitting untuk melihat kemungkinan model-model yang lain,

sehingga didapat model yang signifikan pada

Tabel 3. Sedangkan model yang memenuhi uji residual white noise dan uji kenormalan residual

dapat dilihat pada Tabel 4 dan Tabel 5.

Tabel 3 Estimasi dan Uji Signifikansi Model

ARMA

Par

ame

ter

Estimasi Standart

Error

t hitung P-value

(10,10) 𝜙1

𝜃1

𝜇

0,79631

0,90359

5394231,0

0,21795

0,17026

59328,5

3,65

5,31

90,92

0,0004

<.0001

<.0001

([10,44

],10)

𝜙1

𝜙2

𝜃1

𝜇

0,46270

-0,29486

0,63480 5393159,7

0,21709

0,09677

0,19703 46539,6

2,13

-3,05

3,22 115,88

0,0347

0,0027

0,0016 <.0001

(0,44) 𝜃1

𝜇

0,30839

5394890,7

0,09426

69045,6

3,27

78,14

0,0013

<.0001

Tabel 4.4 Uji Residual White Noise

Model

ARMA

Lag Q 𝜒𝛼−𝐾−𝑝−𝑞2 P-

value

keputusan

(10,10) 6

12 18

24

30

7,94

13,96 19,08

25,92

27,98

9,49

19,68 27,59

35,17

42.56

0,0936

0,1750 0,2644

0,2552

0,4657

White Noise

Tabel 4.5 Uji Kenormalan Residual

Model

ARMA

P-value Keputusan Kesimpulan

(10,10) >0.1500 𝐻0 diterima Berdistribusi normal

Berdasarkan Tabel 3, Tabel 4 dan Tabel 5 model ARMA(10,10) memenuhi kecukupan

model maka dapat disimpulkan bahwa model

ARMA(10,10) adalah model yang terbaik.

Lag

(K)

Q DF 𝜒𝛼−𝐾−𝑝−𝑞2 P-

value

6 10,21 5 11,07 0,0696

12 19,58 11 19,68 0,0515

18 24,78 17 27,59 0,0997

24 33,26 23 35,17 0,0767

30 37,57 29 42,56 0,1322

RESIDUAL

Pe

rce

nt

4000

000

3000

000

2000

000

1000

0000

-100

0000

-200

0000

-300

0000

-400

0000

99,9

99

95

90

80706050403020

10

5

1

0,1

Mean

0,037

10138

StDev 1076385

N 150

KS 0,077

P-Value

Probability Plot of (44,0)Normal

9

Model yang diperoleh selanjutnya akan

digunakan meramalan data untuk 12 bulan yang

akan datang mulai bulan Nopember 2010-Oktober 2011, hasil peramalannya disajikan

dalam Tabel 6.

Tabel 6 Hasil Peramalan

Dari Tabel 6 dapat diketahui bahwa nilai-nilai dari data hasil ramalan tepat berada diantara

nilai batas bawah untuk 𝛼 = 0,05 (L95) dan

batas atas untuk 𝛼 = 0,05 (U95).

6. Penutup

Hasil yang diperoleh dari pembahasan di atas adalah:

1. Metode resampling Bootstrap dilakukan

dengan pengestimasian dengan dua metode

yaitu Maximum Likelihood Estimation (MLE) dan Unbiassed Estimation menghasilkan :

a. Maximum Likelihood Estimation

Untuk mean:

𝜇 = 𝑥 𝑖𝑗∗

Untuk varian:

𝜍 2 = 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1

𝑁

b. Unbiassed Estimatior

Untuk mean tidak terdapat error

pada saat 𝐸 𝑥 𝑖,𝑗∗ = 𝜇

Untuk varian terdapat eror pada saat

𝐸 𝜍 2 = 𝜍2 sebesar1

𝑁−1 𝑥 𝑖

∗ − 𝜇 2𝑁𝑗=1

dari hasil pengstimasian secara MLE dan

Unbiassed estimation didapatkan selang

kepercayaan 1 − 𝛼 100% dengan 𝑥 𝑖,𝑗∗ dan

𝑠 yang merupakan rataan dan simpangan

dari suatu populasi dengan 𝜍2 yang tidak diketahui adalah:

𝑥 𝑖,𝑗∗ ± 𝑧𝛼

2 𝑥 𝑖

∗ − 𝑥 𝑖,𝑗∗

2𝑁𝑗=1

𝑁 − 1 𝑛𝑁

2. Rata-rata penjualan baju koko Dannis Collection untuk 12 bulan ke depan adalah

2319 . Saran yang dapat diberikan pada penelitian

selanjutnya adalah menggunakan parameter lain seperti ARIMA atau Regresi, sehingga hasilnya

bisa dibandingkan untuk mengetahui keakuratan

hasilnya.

Daftar Pustaka

[1] Efron Bradley, 1994. The Jackknife, The

Bootstrap and The Other Resampling

Plans, Department of Statistics Stanford

University. [2] Makridakis, W. M. G. 1999. Metode dan

Aplikasi Peramalan. Edisi kedua. Bina

Rupa Aksara. Jakarta. [3] Salamah, M., Suhartono., dan Wulandari S.

2003. Analisis Time Series. Surabaya:

Jurusan Statistik ITS.

[4] Wei, W.W.S. 1990. “Time Series Analysis :

Univariate and Multivariate Methods”.

United State of America : Addison-Wesley

Publishing Company. 52.

Perio

de

Data

Peramalan

L95 U95

151 2262,434 1724,385 2695,128

152 2332,92 1815,877 2754,564

153 2305,145 1780,053 2731,08

154 2302,623 1776,786 2728,952

155 2410,9 1915,028 2820,912

156 2274,96 1740,786 2705,651

157 2354,209 1843,148 2772,617

158 2330,563 1812,849 2752,568

159 2314,039 1791,556 2738,591

160 2325,943 1806,905 2748,657

161 2274,808 1737,048 2707,797

162 2330,811 1809,769 2755,013