Praktikum Anreglan 1
-
Upload
herwinaeva -
Category
Documents
-
view
237 -
download
27
description
Transcript of Praktikum Anreglan 1
ANALISIS REGRESI RIDGE
Laporan Praktikum Ke-2
Dibuat untuk Memenuhi Laporan Praktikum Analisis Regresi
Lanjutan
Oleh :Nama : Herwina Eva Yulitasari NIM : 125090500111027
Asisten 1 : Yuchi Fermia AninditaAsisten 2 : Veda JanitraAsisten 3 : Fariq Muhammad.
LABORATORIUM KOMPUTERPROGRAM STUSI STATISTIKA
JURUSAN MATEMATIKAFAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN
ALAMUNIVERSITAS BRAWIJAYA
2015
BAB IPENDAHULUAN
1.1 Latar Belakang
Analisis regresi merupakan suatu teknik statistika yang dapat digunakan untuk menggambarkan hubungan diantara dua peubah atau lebih. Untuk menduga koefisien regresi digunakan metode penaksiran parameter. Salah satunya adalah dengan menggunakan metode kuadrat terkecil. Adakalanya penaksiran koefisien regresi menggunakan metode kuadrat terkecil tidak bisa dilakukan karena terjadi masalah multikolinearitas. Multikolinearitas terjadi apabila terdapat hubungan atau korelasi diantara beberapa atau seluruh variabel bebas. Multikoloniaritas ini menimbulkan masalah dalam pemodelan regresi. Korelasi yang sangat tinggi akan menghasilkan penaksir yang berbias, tidak stabil dan mungkin jauh dari nilai sasaran. Selain itu efek dari multikolinieritas yaitu tingginya nilai koefisien determinasi tetapi tidak diikuti dengan hasil uji hipotesis yang signifikan.
1.2 Tujuan
1.2.1 Untuk memahami dan mengerti cara mendeteksi adanya multikolinieritas dalam data menggunakan regresi ridge
1.2.2 Untuk mencari variable yang menyebabkan multikolinieritas menggunakan software Minitab
1.2.3 Untuk mendapatkan model asumsi non multikolinier yang terpenuhi menggunakan regresi ridge
BAB IITINJAUAN PUSTAKA
Metode kuadrat terkecil menghasilkan penaksir terbaik (tak bias dan bervarians minimum) jika saja tidak ada korelasi antar variable bebas. Namun jika hal itu terjadi, maka salah satu cara untuk mengatasi masalah tersebut adalah melalui metode Ridge regression. Pada dasarnya metode ini juga merupakan metode kuadrat terkecil. Perbedaannya adalah bahwa pada metode ridge regression, nilai variabel bebasnya ditransformasikan dahulu melalui prosedur centering and rescaling. Kemudian pada diagonal utama matriks korelasi variable bebas ditambahkan biasing constant (c) dimana nilainya antara 0 dan 1 (Neter et al., 1990). Metode ridge regression dapat digunakan dengan asumsi matriks korelasi dari variable bebasnya dapat diinverskan. Akibatnya nilai dugaan koefisien regresi dan variable tak bebasnya mudah didapat.
Model Regresi berganda dengan OLSY i=¿ bc + b1Xi1 + b2Xi2 + . . . + bp-1 Xip-1
b = ( X 'X)-1 X'YModel Standardized Regression
Y i∗¿=¿¿b1*Xi1* + b2*Xi2* + . . . + bp-1* Xip-1*b* = ( rxx)-1 rxy ⇒ matriks korelasi
Model Ridge regressionY i
R = b1RZi1* + b2
RZi2* + . . . + bp-1R
Zip-1*bR = ( rxx + c I)-1 rxy ⇒ matriks korelasi
dimana:c = biasing constantI = identity matrix
bR [(p-1) x 1] = | b1
R
b2R
⋮b p−1
R |Tahapan dalam metode ridge regression :1. Lakukan transformasi tehadap matriks X menjadi Z dan vektor Y
menjadi YR, melalui centering and rescaling.
2. Hitung matriks Z'Z => matriks korelasi dari variable bebas, serta hitung Z'YR => korelasi dari variable bebas terhadap variable tak bebas y.
3. Hitung nilai penaksir parameter bR dengan berbagai kemungkinan tetapan bias c.
4. Hitung nilai VIF dengan berbagai nilai c (0<c<1)5. Tentukan nilai c dengan mempertimbangkan nilai VIF dan bR.
Tentukan koefisien penduga (estimator) ridge regression dari nilai c yang terpilih.
6. Buat persamaan model Ridge Regression 7. Uji Hipotesis secara Simultan dengan ANOVA Ridge
Regression dan Parsial .8. Transformasikan ke bentuk asal.
a. Metode Centering and Rescaling
Dalam persamaan regresi yang memiliki model :Yi = b0 + b1Xi1 + b2Xi2 + eiPersamaan tersebut di atas dapat dibentuk menjadi :Yi = b0 + b1 (Xi1 – X1) + b1 X1 + b2(Xi2 -X2) + b2 X2+ ei = (b0 + b1 X1 + b2 X2) + b1 (Xi1 - X1) + b2 (Xi2 -X2) + eimenurut rumus untuk mendapatkan b0 yaitu :b0 = Y - b1 X1- b2 X2
maka berlakuY = b0 + b1 X1+ b2 X2
sehinggaYi – (b0 + b1 X1+ b2 X2) = b1 (Xi1 - X1 ) + b2(Xi2 - X2) + ei
Yi - Y = b1 (Xi1 - X1 ) + b2(Xi2 - X2) + eiJika yi = Yi - Y
xi1 = Xi1 - X1
xi2 = Xi2 - X2
maka kita dapat persamaan baru yaitu :yi = b1xi1 + b2xi2 + ei
Prosedur untuk membentuk persamaan pertama menjadi persamaan terakhir disebut dengan prosedur centering. Prosedur ini mengakibatkan hilangnya b0 (intercept) yang membuat
perhitungan untuk mencari model regresi menjadi lebih sederhana.
Bila dari persamaan di atas kita bentuk persamaan :Yi R = b1Zi1 + b2Zi2 + ei’
Dengan
YiR
= y i
SY √n−1 =
Yi−YiSY √n−1
Zi1 = xi
S 1√n−1 =
Xi1−X 1S 1√n−1
Zi2 = x i1
S2√n−1 =
Xi2−X 2
S 2√n−1
Keterangan:Y i
R : nilai variabel tak bebas ke-i hasil trasformasiY i : nilai variabel tak bebas ke-iY : rata-rata variabel tak bebasn : Jumlah Observasi
SY : √∑i=1
n
(Y i−Y )2/(n−1)
Zi 1❑
: nilai variabel bebas 1 ke-i hasil trasformasiX i 1 : nilai variabel bebas 1 ke i X1 : rata-rata variabel bebas 1
S1 : √∑i=1
n
( X i 1−X1 )2/(n−1)
S2 : √∑i=1
n
( X i 2−X2 )2/(n−1)
maka prosedur ini disebut dengan prosedur Rescaling. Keseluruhan dari prosedur di atas disebut prosedur centering and rescaling.
b. Menghitung matriks Z'Z serta menghitung Z'Y*
Z’Z = rxx
Z’Y* = ryx
rxx [(p-1) x (p-1)] = [ 1 r12 … r1 , p−1
r21 1 … r2 , p−1
⋮ ⋮ ⋯ ⋮r p−1,1 r p−1,2 ⋯ 1
]ryx [(p-1) x 1] = [ r y 1
r y 2
⋮r y , p−1
]c. Menentukan tetapan bias / biasing constant (c)
Menurut Neter dkk, dalam bukunya “Applied Linear Regression Models” menyarankan memilih ridge parameter dengan menggunakan cara ridge trace. Ridge trace merupakan plot dari estimator ridge regresi secara bersama dengan berbagai kemungkinan nilai tetapan bias c. Konstanta c mencerminkan jumlah bias dalam estimator β( c ). Saat c bernilai 0 maka estimator β( c ) akan bernilai sama dengan estimator kuadrat terkecil β yang telah dalam bentuk standardized. Ketika c > 0 estimator ridge regression akan bias tetapi cenderung menjadi lebih stabil daripada estimator kuadrat terkecil. Umumnya nilai c terletak pada interval 0<c<1. Pemilihan besarnya tetapan bias c merupakan masalah yang perlu diperhatikan. Tetapan bias yang diinginkan adalah tetapan bias yang relative kecil dan menghasilkan koefisien estimator yang relative stabil. Suatu acuan yang digunakan untuk memilih besarnya c, dengan melihat besarnya VIF dan melihat pola kecenderungan Ridge Trace. VIF merupakan faktor yang mengukur seberapa besar kenaikan variansi dari koefisien estimator βk dibandingkan terhadap variable bebas lain yang saling orthogonal. Bila diantara variable bebas tersebut terdapat korelasi yang tinggi, nilai VIF akan besar. VIF memiliki nilai mendekati 1 jika variable bebas X tidak saling berkorelasi dengan variabbel-variabel bebas lainnya.
Nilai VIF untuk koefisien ridge regression adalah element diagonal pada matriks (p-1) x (p-1) berikut:
( rxx + c I)-1 rxx ( rxx + c I)-1
Cara pemilihan ini memang bersifat subyektif, artinya jika ada 2 orang pemilih memilih nilai c dengan data yang sama mungkin akan mendapatkan nilai c yang tidak sama.
d. Pengujian HipotesisUji Simultan Untuk Semua βH 0 : βR=0 (Variabel bebas secara simultan tidak signifikan di dalam model)H 0 : βR ≠ 0 (Variabel bebas secara simultan signifikan di dalam model)Daerah kritis: tolak H 0 jika Fhitung>F¿¿
ANOVA Ridge RegressionSOV DF SS MS Fhitung
Regresi
P SSRegR MSRegR MSRegR/MSER
Error n-p-1 SSER MSER
Total n-1 SSTR
SST R=∑ (Y iR−Y R )2=1 MSRegR=
SSRegR
pSSER=∑ (Y i
R−Y R )2
SSRegR=SST R−SSER MSER=SSER
n−p−1
e. Teknik Transformasi ke Bentuk Asal
Untuk kepentingan estimasi, maka model Ridge Regression dapat ditransformasi kembali ke bentuk variabel asalnya (bR ke b) dengan cara:
b i=( S y
Sxi)bi
R ; i = 1,2,....,p-1
b0=Y−b1 X1−…−bp−1 X p−1
Akhirnya didapat model regresi berganda yang siap digunakan untuk estimasi Y i=b0+b1 X i 1+b2 X i 2+…+b p−1 X i( p−1) (Neter hal. 414).
BAB IIIMETODE PENELITIAN
MENGGUNAKAN REGRESI RIDGE MENGUJI ASUMSI PERSAMAAN REGRESI
1. Menginputkan data pada program MINITAB2. Klik Stat – regression – pilih regression
Akan muncul jendela seperti dibawah ini
3. Untuk mengetahui nilai VIF nya pilih Options, dan pada Display pilih Variance inflation factor
Sehingga didapatkan hasil output seperti dibawah Regression Analysis: Y versus X1, X2, X3
The regression equation isY = - 19.9 + 0.031 X1 + 0.431 X2 + 0.245 X3
Predictor Coef SE Coef T P VIFConstant -19.858 4.146 -4.79 0.000X1 0.0313 0.1878 0.17 0.870 469.7X2 0.4314 0.3239 1.33 0.204 1.0X3 0.2445 0.2868 0.85 0.408 469.4
S = 2.26938 R-Sq = 97.3% R-Sq(adj) = 96.7%
Analysis of Variance
Source DF SS MS F PRegression 3 2587.65 862.55 167.48 0.000Residual Error 14 72.10 5.15
Total 17 2659.75
Source DF Seq SSX1 1 2575.15X2 1 8.76X3 1 3.74
Unusual Observations
Obs X1 Y Fit SE Fit Residual St Resid 18 354 56.600 52.561 1.155 4.039 2.07R
R denotes an observation with a large standardized residual.
Jika nilai VIF lebih dari 10 maka terjadi MultikolinieritasDan diketahui bahwa nilai VIF nya lebih dari 10 sehingga data tersebut terjadi multikolinearitas
STANDARDIZE1. Langkah selanjutnya klik Calc - Standardize
Akan muncul jendela seperti dibawah, isi :Input column(s) : X1 X2 X3 Store results in : z1 z2 z3 Pilih Subtract meanand divide by std. dev.Kemudian klik OK
2. Sehingga didapatkan z1, z2, z3
MENGHITUNG RIDGE REGRESSION1. Mencari matriks β
Masukkan KTG dan β yang telah diketahui pada output MINITAB
Kemudian klik Data- Copy – Colums to Matriks
Akan muncul jendela seperti dibawah
Untuk menampilkan data/hasil klik Data – Display Data
Sehingga akan muncul jendela dibawahIsi Columns,constan, and matrices to display : Copy (klik 2 kali)
Sehingga didapatkan matriks β seperti dibawah ini Data Display Matrix Copy
2. Mencari β -1 (β transpose ¿ Kemudian mencari β -1 (β transpose ¿, klik Calc-
matriks-transpose-isi-OK
Kemudian display data untuk menampilkan data, klik data – display data
Sehingga didapatkan matriks β -1 seperti dibawah ini Data Display Matrix Copy_1
-19.858 0.0313 0.4314 0.2445
3. Mencari β β’ Klik Cal – matriks - arithmatric
Sehingga muncul jendela seperti dibawah ini
Sehingga didapatkan nilai dari β β’Answer = 394.5870
4. Menghitung nilai dari K Klik Calc-Calculator. Dan isi pada
Store result in variable : c14, Expression : 4*KTG/ β β’
Sehingga didapatkan nilai K sebagai berikut
Isi kolom pada Z0 = 1 Kemudian mengisi K1 K2 K3 K4 dengan cara manual
dengan mengisi kolom diagonal K = 0.052206
5. Mencari matriks KI Klik dta-copy-colums to matriks
Dan muncul jendela seperti dibawah ini Isi copy from columns : K1 K2 K3 K4
Store copies data : matriksKI
Kemudian untuk menampilkan data matriks tersebut, di display, sehingga didapatkan matriks KI
6. Membuat matriks Z dan Z’ Klik Copy-Columns to Matrix
Dan akan muncul jendela dibawah kemudian isi Copy from columns : z0 z1 z2 z3 Store copied of data : matriksZ
Kemudian klik OK dan untuk menampilkan matriks di display kembali, sehingga didapatkan matriks Z seperti berikutData Display
Matrix Copy_3
1 -1.38887 0.29989 -1.425601 -1.20152 0.24246 -1.264461 -1.03936 -0.33179 -1.062451 -0.97638 -0.33179 -0.973471 -0.89294 -1.48030 -0.848411 -0.73708 -0.84862 -0.713731 -0.55760 -0.90605 -0.514121 -0.39543 1.10385 -0.319321 -0.17974 0.75929 -0.122121 -0.08843 0.81672 -0.074021 0.02335 -1.71001 0.005341 0.32249 1.10385 0.226601 0.50826 0.12761 0.462281 0.80110 -0.33179 0.777331 1.05458 0.52959 1.118831 1.35214 1.90781 1.356921 1.56310 -1.42288 1.554131 1.83233 0.47217 1.81627
Kemudian mencari Z’ dengan Klik Data-Matreks-Transpose
Isi Transpose freom : Copy_3Store result in : matriks5
Kemudian display matriks tersebut.Sehingga didapatkan nilai dari matriks Z’ sebagai berikut
7. MENCARI Z’Z Klik Calc-Matriks-Aritmatic, sehingga akan muncul
jendela seperti dibawah ini. Isikan Multiply : matriks Z’ dan by : matriks Z
Kemudian untuk menampilkan matriks Display data Sehungga didapatkan matrik Z’ZData Display Matrix M618 0.0000 0.0000 -0.0000 0 17.0000 3.6626 16.9819 0 3.6626 17.0000 3.6327-0 16.9819 3.6327 17.0000
8. Menjumlahkan Z’Z dengan KI Klik Cals-Matriks-Arithmatic
Dan akan muncul seperti dibawah
Kemudian di displaya kembali untuk menampilkan matriks, sehingga didapatkan matriks Z’Z + KIData Display
Matrix M7
18.1044 0.0000 0.0000 -0.0000 0.0000 17.1044 3.6626 16.9819 0.0000 3.6626 17.1044 3.6327-0.0000 16.9819 3.6327 17.1044
9. Mencari matriks (Z’Z + KI)-1
Klik Cal-matriks-invers
Kemudian, isi pada Invert from : M7 dan Store result in : m8
Dan untuk menampilkan matrik tersebut Display data Sehingga didapatkan matriks (Z’Z + KI)-1
Data Display Matrix M8
0.0552352 -0.00000 -0.0000000 0.00000-0.0000000 4.09775 -0.0140173 -4.06542-0.0000000 -0.01402 0.0612742 0.000900.0 -4.06542 0.0009031 4.09456
10. Mengalikan dengan (Z’Z + KI)-1 dengan matriks Z’
Sehingga didapatkan hasil (Z’Z + KI)-1 x Z’
11. Membuat matriks Y Klik Copy-Columns to Matriks
Dan akan muncul jendela dibawah. Isi Copy from columns Y dan Store copied data M10
Dan kemudian display data untuk menampilkan hasil dari matriks YSehingga didapatkan matriks Y
12. Mengalikan (Z’Z + KI)-1 Z’ dengan Y Klik Cals-Matriks-Arithmatic
Dan akan muncul seperti dibawah ini
Sehingga didapatkan matriks (Z’Z + KI)-1 Z’YData Display Matrix M1129.9209 5.4552 0.7485 6.6648
13. Mencari rata-rata dan variance untuk mengembalikan pada persamaan Klik Stat – Basic statistics – Display Descriptive
Statistics
Dan akan muncul seperti dibawah ini
Klik statistic dan centang pada kolom mean dan variance
Kemudian klik OKDidapatkan nilai mean dan variance seperti berikut Descriptive Statistics: X1, X2, X3 Variable Mean VarianceX1 237.5 4034.4X2 3.678 3.032X3 167.38 1728.98
BAB IVHASIL DAN PEMBAHASAN
Y = Barang importX1 = Barang yang dipesanX2 = Persediaan barangX3 = Barang yang dikonsumsiNO Y X1 X2 X3 Y1 15.9 149.3 4.2 108.1 15.92 16.4 161.2 4.1 114.8 16.43 19 171.5 3.1 123.2 194 19.1 175.5 3.1 126.9 19.15 18.8 180.8 1.1 132.1 18.86 20.4 190.7 2.2 137.7 20.47 22.7 202.1 2.1 146 22.78 26.5 212.4 5.6 154.1 26.59 28.1 226.1 5 162.3 28.110 27.6 231.9 5.1 164.3 27.611 26.3 239 0.7 167.6 26.312 31.1 258 5.6 176.8 31.1
13 33.3 269.8 3.9 186.6 33.314 37 288.4 3.1 199.7 3715 43.3 304.5 4.6 213.9 43.317 49.3 323.4 7 223.8 49.318 50.3 336.8 1.2 232 50.319 56.6 353.9 4.5 242.9 56.6
1. Mencari nilai VIF, jika VIF > 10 maka terjadi multikolinieritas
Regression Analysis: Y versus X1, X2, X3 The regression equation is
The regression equation is
Y = - 19.9 + 0.031 X1 + 0.431 X2 + 0.245 X3
Predictor Coef SE Coef T P VIFConstant -19.858 4.146 -4.79 0.000X1 0.0313 0.1878 0.17 0.870 469.7X2 0.4314 0.3239 1.33 0.204 1.0X3 0.2445 0.2868 0.85 0.408 469.4
S = 2.26938 R-Sq = 97.3% R-Sq(adj) = 96.7%
Analysis of VarianceSource DF SS MS F PRegression 3 2587.65 862.55 167.48 0.000Residual Error 14 72.10 5.15Total 17 2659.75
Source DF Seq SSX1 1 2575.15X2 1 8.76X3 1 3.74
Unusual ObservationsObs X1 Y Fit SE Fit Residual St Resid18 354 56.600 52.561 1.155 4.039
2.07R
R denotes an observation with a large standardized residual.
2. STANDARDIZE
MENGHITUNG RIDGE REGRESSION1. Mencari matriks β
Data Display Matrix Copy
2. Mencari β -1 (β transpose ¿Data Display Matrix Copy_1
-19.858 0.0313 0.4314 0.2445
3. Mencari β β’ Answer = 394.5870
4. Menghitung nilai dari K
5. Mencari matriks KI
6. Membuat matriks Z dan Z’ Matriks Z
Data Display
Matrix Copy_3
1 -1.38887 0.29989 -1.425601 -1.20152 0.24246 -1.264461 -1.03936 -0.33179 -1.062451 -0.97638 -0.33179 -0.973471 -0.89294 -1.48030 -0.848411 -0.73708 -0.84862 -0.713731 -0.55760 -0.90605 -0.514121 -0.39543 1.10385 -0.319321 -0.17974 0.75929 -0.122121 -0.08843 0.81672 -0.074021 0.02335 -1.71001 0.005341 0.32249 1.10385 0.226601 0.50826 0.12761 0.462281 0.80110 -0.33179 0.777331 1.05458 0.52959 1.118831 1.35214 1.90781 1.356921 1.56310 -1.42288 1.554131 1.83233 0.47217 1.81627
Transpose Matriks Z (Z’)
7. Mencari matriks Z’ZData Display Matrix M618 0.0000 0.0000 -0.0000 0 17.0000 3.6626 16.9819 0 3.6626 17.0000 3.6327
-0 16.9819 3.6327 17.0000
8. Menjumlahkan Z’Z dengan KIData Display Matrix M7
18.1044 0.0000 0.0000 -0.0000 0.0000 17.1044 3.6626 16.9819 0.0000 3.6626 17.1044 3.6327-0.0000 16.9819 3.6327 17.1044
9. Mencari matriks (Z’Z + KI)-1
Data Display Matrix M8 0.0552352 -0.00000 -0.0000000 0.00000-0.0000000 4.09775 -0.0140173 -4.06542-0.0000000 -0.01402 0.0612742 0.000900.0 4.06542 0.0009031 4.09456
10. Mengalikan dengan (Z’Z + KI)-1 dengan matriks Z’
11. Membuat matriks Y
12. Mengalikan (Z’Z + KI)-1 Z’ dengan YData Display Matrix M1129.9209 5.4552 0.7485 6.6648
13. Mencari variance dan rata-rata peubah dari masing-masing peubah xDescriptive Statistics: X1, X2, X3 Variable Mean VarianceX1 237.5 4034.4X2 3.678 3.032X3 167.38 1728.98
14. Untuk mengembalikan persamaan regresi dari koefisien regresi gulud ke peubah aslinya dengan cara :
β i = β i . R
S jj
, i = 1,2,..., p
β0=β0 R−β1 R X1
S1
−β2R X2
S2
−...−β p R X p
Sp
Nilai β
β0 = 29.9209
β1 = 5.4552
β2 = 0.7485
β3 = 6.6648Descriptive Statistics: X1, X2, X3 Variable Mean VarianceX1 237.5 4034.4X2 3.678 3.032X3 167.38 1728.98
β0 = β0.R - β 1 R x1
S12 -
β 2 R x2
S22 -
β 3 R x3
S32
¿ 29.9209 - 5.4552 x 237.5
4034.4 –
0.7485 x3.6783.032
–
6.6648 x 167.381728.98
-
¿ 28.04657394
β ij=β i , R
s jj
β1=5.45524034.4
=¿0.001352171327
β2=0.74853.032
=¿ 0.2468667546
β3=6.6648
1728.98=¿0.003854758297
Maka persamaan regresinya setelah pengembalian ke data asli adalah Y = β0 + β1X1 + β2 X2 + β3 X3
Y=28.04657394+0.001352171327X1+0.2468667546X2
+¿0.003854758297X3
Interpretasi : Jika barang yang dipesan meningkat 1unit, maka barang
impor diduga akan meningkat sebesar 0.001352171327unit dengan syarat variabel yang lain tetap atau konstan
Jika persediaan barang meningkat 1unit, maka barang impor diduga akan meningkat sebesar 0.2468667546unit dengan syarat variabel yang lain tetap atau konstan
Jika barang yang dikonsumsi meningkat 1unit, maka barang impor diduga akan meningkat sebesar 0.003854758297 unit dengan syarat variabel yang lain tetap atau konstan
BAB VPENUTUP
5.1 KesimpulanSetelah dilakukan pengolahan data inpor barang terdapat masalah multikolinieritas. Cara untuk mengetahui multikolinieritas dapat dilihat dari besarnya nilai VIF (>10). Kita dapat mengetahui adanya multikolinearitas pada peubah predictor dan cara penanganannya dengan menggunakan metode ridge regression dan dengan metode Regresi Komponen Utama. Untuk metode ridge regression didapatkan persamaan akhir setelah dilakukan ridge regression Y=28.04657394+0.001352171327X1+0.2468667546X2 +¿0.003854758297X3 .
5.2 SaranMenurut saya tentang praktikum kali ini sudah cukup baik dan menambah pemahaman saya tentang bagaimana cara menguji Multikolinieritas menggunakan MINITAB yang cara penanganannya ada 2 metode yaitu dengan metode Ridge Regression dan Regresi Komponen Utama. Tetapi dalam pengerjaan waktu yang dibutuhkan untuk menangani Multikolinearitas dengan metode Regresi Komponen Utama lebih mudah dan lebih efisien waktu daripada dengan metode Ridge Regression yang cukup lama dan rumit dalam pengerjaannya.
DAFTAR PUSTAKA
Anonymous. 2014. Uji Asumsi Multikolinieritas dengan SPSS. http://portal-statistik.blogspot.com/2014/05/uji-asumsi-multikolinearitas-dengan-spss.html. diakses tanggal 1 April 2015 pukul 13.59.
Anonymous.2010.AnalisisRegresi.http://samatigaraya.blogspot.com/2010/02/analisis-regresi.html. diakses tangaal 1 April 2015 pukul 21.14.