Laporan Analisis Regresi Lanjutan Kristin Verahditiya Ke-2
-
Upload
prasetyo-indra-surono -
Category
Documents
-
view
104 -
download
1
description
Transcript of Laporan Analisis Regresi Lanjutan Kristin Verahditiya Ke-2
BAB I
PENDAHULUAN
1.1. Latar Belakang Analisis regresi merupakan analisis yang ditujukan untuk mengetahui hubungan fungsional satu atau beberapa peubah prediktor terhadap peubah respon. Sebelum suatu data di analisis dengan analisis regresi, data tersebut harus memenuhi beberapa asumsi klasik dalam regresi. Salah satu asumsi klasik tersebut adalah asumsi non-multikolinearitas.
Asumsi non-multikolinearitas berlaku pada data yang mana memiliki lebih dari satu peubah prediktor. Asumsi ini mengharuskan bahwa tidak boleh ada hubungan linier antara sesama peubah prediktor. Apabila terdapat hubungan linier antar peubah prediktor yang bersifat sempurna maka akan terjadi multikolinearitas sempurna. Sedangkan apabila terdapat hubungan linier antar peubah prediktor namun tidak sempurna, maka akan terjadi multikolinearitas kurang sempurna.
Masalah multikolinearitas patut diwaspadai dalam analisis regresi karena akan mengakibatkan hasil penaksiran parameter yang tidak dapat dipercaya. Bahkan untuk kasus di mana multikolinearitas bersifat sempurna, penaksiran parameter sama sekali tidak dapat dilakukan. Sedangkan untuk kasus di mana multikolinearitas bersifat kurang sempurna, penaksiran masih dapat digunakan namun memiliki tingkat presisi yang rendah.
Adanya multikolinearitas dapat dideteksi dengan menggunakan koefisien determinasi, korelasi parsial, nilai VIF dan nilai akar ciri. Sedangkan untuk penanganan multikolinearitas dapat dilakukan dengan memanfaatkan informasi apriori dari teori atau penelitian sebelumnya, menggabungkan data cross-sectional dengan data deret waktu, menghilangkan peubah penyebab multikolinearitas, menambahkan data baru dan dengan menggunakan analisis komponen utama dan regresi ridge.
1.2. Tujuan
1.2.1. Untuk mengetahui definisi dan sifat dasar dari
multikolinearitas
1.2.2. Untuk mengetahui pendeteksian multikolinearitas
1.2.3. Untuk menghasilkan persamaan regresi terbaik melalui
analisis komponen utama (PCA)
BAB IITINJAUAN PUSTAKA2.1 Definisi dan Sifat Multikolinearitas
Multikolinearitas merupakan istilah yang mula-mula ditemukan oleh Ragnar Frisch. Arti dari multikolinearitas saat itu adalah adanya hubungan linear yang sempurna di antara peubah prediktor dalam model regresi. Hubungan linier antar peubah prediktor tersebut dapat dijelaskan sebagai berikut: andaikan terdapat k peubah prediktor yaitu X1, X2,,Xk (di mana X1=1 untuk semua pengamatan atau merupakan unsur intersep), hubungan linier terjadi apabila memenuhi kondisi
(1)
Di mana adalah konstanta yang sedemikian rupa sehingga ada salah satu yang bernilai tidak nol (Gujarati, 1998).
Saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas, yaitu tidak hanya pada hubungan linier yang bersifat sempurna tetapi juga pada kondisi di mana peubah X saling berkorelasi tetapi tidak secara sempurna, sehingga persamaan (1) menjadi
(2)
Berikut ini adalah contoh yang menunjukkan perbedaan antara multikolinearitas sempurna dan multikolinearitas kurang sempurna. Andaikan dimiliki data hipotetik seperti pada tabel berikut:
X2X3X3*
105052
157575
189097
24120129
30150152
Dari tabel tersebut, terlihat jelas bahwa X3i=5X2i. Hal ini menunjukkan bahwa terjadi multikolinearitas (korelasi sempurna) antara X3 dan X2. Sedangkan peubah X3* berasal dari peubah X3 yang berturut-turut ditambahkan angka berikut: 2,0,7,9,2 (unsur kesalahan ). Akibatnya tidak terdapat kolinearitas sempurna antara X2 dan X3.
Pada regresi nonlinier, adanya hubungan nonlinier dalam model misal
(3)
Pada model tersebut terlihat jelas adanya hubungan antar peubah Xi, namun hubungan ini tidak menyalahi asumsi non-multikolinearitas karena bentuk hubungan tersebut bersifat nonlinier.
Dalam melakukan analisis regresi, diperlukan asumsi non-multikolinearitas karena beberapa hal sebagai berikut:
Jika terdapat multikolinearitas sempurna seperti pada persamaan (1) maka koefisien regresi menjadi tak tentu dan kesalahannya tak terhingga.
Jika terdapat multikolinearitas kurang sempurna pada persamaan (2) maka koefisien regresi walaupun masih bisa ditentukan, namun memilihi kesalahan standar yang besar (bila dibandingkan dengan koefisien regresi itu sendiri), akibatnya koefisien tidak dapat ditaksir dengan ketepatan yang tinggi.
2.2 Pendeteksian Multikolinearitas
1. Kolinearitas dapat diduga ketika tinggi (0.7-1.0) dan ketika korelasi derajat nol juga tinggi. Akan tetapi, tidak ada atau sedikit sekali koefisien regresi yang bersifat signifikan secara parsial (Gujarati, 1998).
2. Korelasi derajat nol yang tinggi tidak selamanya menunjukkan kolinearitas tinggi pada kasus tertentu. Misalnya, terdapat model regresi dengan empat peubah prediktor X1, X2,..,X4. X4 merupakan kombinasi linier dari X2 dan X3 sehingga .
(4)
Persamaan tersebuh dipenuhi oleh ,
EMBED Equation.DSMT4 .
Jadi, dapat disimpulkan bahwa korelasi sederhana atau korelasi derajat nol tidak akan salah memberikan informais mengenai multikolinearitas kecuali jika terdapat lebih dari dua peubah prediktor (Gujarati, 1998).
3. Berkaitan dengan poin ke-2, maka selain melihat korelasi derajat nol (korelasi sederhana) maka disarankan untuk melihat korelasi parsial. Misal dalam regresi tersebut didapatkan sangat tinggi tetapi , dan relative rendah, maka hal ini menunjukkan bahwa peubah X2, X3 dan X4 berkorelasi tinggi dan setidaknya terdapat satu peubah yang berlebihan (Gujarati, 1998).
4. Karena multikolinearitas timbul karena adanya satu atau lebih peubah prediktor yang merupakan kombinasi linier dari peubah lainnya, maka salah satu cara untuk mengetahui peubah mana yang saling berhubungan maka dilakukan regresi dari setiap Xi terhadap Xi* yang tersisa, lalu dihitung
(5)
mengikuti distribusi F dengan db (k-2, N+k-1)
di mana :
N= jumlah sampel
k= banyaknya peubah prediktor dan unsur intersep
=nilai koefisien determinasi peubah Xi terhadap peubah lain yang tersisa
Apabila nilai F lebih besar dari titik kritis pada taraf nyata yang ditentukan, maka Xi tersebut kolinear dengan X lainnya. sebaliknya, bila nilai F lebih kecil drai titik kritis maka Xi tersebut tidak kolinear dengan X lainnya (Gujarati, 1998).
5. Mulitikolinearitas dapat diperiksa dengan melihat nilai Variance Inflation Factors (VIF). Nilai VIF ini diperoleh dari diagonal utama hasil perhitungan matriks (XtX)-1. Apabila salah satu dari nilai VIF lebih dari 10, maka dapat diidentifikasikan bahwa peubah Xi berhubungan erat dengan peubah-peubah X lainnya atau dengan kata lain terdapat masalah multikolinearitas (Myers,1990 dalam Gusriani, 2004).
Nilai Variance Inflation Factors ( faktor inflasi ragam) dapat juga dihitung berdasarkan rumus :
(6)
Dengan adalah koefisien determinan yang diperoleh jika peubah Xi diregresikan dengan p-1 peubah prediktor lainnya. VIF memperlihatkan kenaikan ragam dugaan parameter yang dipengaruhi oleh keberadaan multikolinearitas (Sen dan Srivastava 1990, dalam Gusriani 2004).
6. Akar ciri XtX yaitu dapat digunakan untuk mengukur keberadaan multikolinearitas dalam data. Jika ada satu atau lebih ketergantungan linier dalam data, maka akar cirinya aka nada yang bernilai sangat kecil dan menunjukkan adanya ketergantungan linier di antara kolom X. Beberapa peneliti menentukan kondisi XtX dengan menentukan indeks kondisi
(7)
Nilai 30 menunjukkan adanya masalah multikolinearitas pada XtX (Gusriani, 2004).
2.3 Penanganan Multikolinearitas dengan Analisis Komponen UtamaMontgomery dan Hines (1990) dalam Soemartini (2008) menjelaskan bahwa dampak multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari peubah bebas yang bersangkutan. Dalam banyak hal masalah Multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-masing peubah prediktor diregresikan secara terpisah dengan peubah tak bebas (simple regression) uji T menunjukkan hasil yang signifikan. Hal tersebutlah yang sering kali membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi berganda dan regresi sederhana tidaklah sejalan atau bahkan sangat bertentangan.
Akan tetapi, pada prakteknya prosedur penanggulangan yang telah disebutkan sebelumnya sangat tergantung sekali pada kondisi penelitian, misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara peubah prediktor yang saling berkolinear, prosedur mengeluarkan peubah bebas yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainya seperti menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali hanya memberikan efek penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk meminimumkan masalah multikolinearitas tanpa harus mengeluarkan peubah bebas yang terlibat hubungan kolinear, yaitu dengan metode Principal Component Analysis (PCA) yang ada dalam analisis faktor (Soemartini, 2008).
Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan peubah yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara peubah bebas melalui transformasi peubah prediktor asal ke peubah baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi peubah bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap peubah respon (Y) dengan menggunakan analisis regresi (Soemartini, 2008).
Tahap pertama pada prosedur regresi komponen utama yaitu menghitung komponen utama yang merupakan kombinasi linear dari beberapa peubah X, dan tahap kedua adalah peubah tak-bebas diregresikan pada komponen utama dalam sebuah model regresi linear. Bentuk persamaan regresi dalam bentuk peubah asli X dapat ditulis sebagai :
(8)
dengan:
Y = peubah respon
Xi = peubah prediktor ke-i yang dispesifikasikan sejak awal, i = 1, 2, , k.
0 = konstanta
i = koefisien regresi dari peubah prediktor ke-i, i = 1, 2, , k.Peubah baru (W) sebagai komponen utama adalah hasil transformasi dari peubah asal (X) yang modelnya dalam bentuk matriks adalah W = A X, dan komponen ke-j ditulis
, atau
(9)dimana vektor pembobot aj diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu
(10)dengan kendala QUOTE
, untuk .
Vektor pembobot aj diperoleh dari matriks peragam yang diduga dengan matriks S, yaitu :
(11)Misalkan diberikan notasi K1, K2, , Km sebagai banyaknya komponen utama dan Y sebagai peubah tak-bebas, maka model regresi komponen utama dapat ditulis sebagai
(12)dengan: Y = peubah respon
Kj = peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z (j = 1, 2, , m).
w0 = konstanta.
wj = parameter model regresi atau koefisien regresi, (j = 1, 2, , m).
= galat.
(Prasetyo, 2010)
BAB III
METODOLOGI1. Buka software Minitab yang ada di komputer anda
2. Isi data di dalam software minitab sesuai data yang ingin anda ujikan
3. Setelah isi data, regresikan data tersebut dengan mengklik Stat => Regression => Regression...
4. Isi kolom Response dengan variabel respon (Y) Isi kolom Predictors dengan variabel prediktor (X)
5. Jika ingin menampilkan nilai variance inflation factors, klik Options... => centang Variance Inflation Factor
6. Maka, inilah hasil output dari pengregresian data di atas. Nilai VIF > 10 menunjukkan data tersebut mengalami multikolinieritas
7. Setelah langkah tersebut, kita beri variabel Z untuk distandarisasi
8. Berikut langkah untuk melakukan standarisasi dataKlik Calc => Standardize.....
9. Isi kolom Input column[s]: variabel yang akan distandardisasikanIsi kolom Score results in: variabel hasil standardisasi (Z)
10. Inilah hasil data yang sudah distandarisasikan, kemudian Z0 diganti dgn 1
11. Setelah langkah tersebut, kita beri variabel W untuk memasukkan nilai W1, W2, W3, dan W4
\\
12. Lakukan analisis komponen utama dengan cara klik Stat => Multivariate => Principal Components...
13. Isi kolom Variables dengan variabel prediktor (X) Type of Matrix pilih Correlation
14. Setelah itu, pilih Storage. Isi kolom Scores dengan letak cell W1-W4
15. Inilah hasilnya
16. Perhatikan nilai cumulative masing-masing PC1, PC2, PC3, dan PC4. Pilih nilai cumulative yang kurang dari 0,75 untuk dijadikan variabel regresi selanjutnya. Setelah itu, regresikan lagi dengan cara Stat => Regression => Regression...
17. Isi kolom Response dengan variabel respon (Y)Isi kolom Predictors dengan variabel W1 dan W2
18. Maka inilah hasilnya,Regression Analysis: Y versus W1, W2
The regression equation is
Y = 87.5 - 21.9 W1 + 18.9 W2
Predictor Coef SE Coef T P VIF
Constant 87.50 14.64 5.98 0.009
W1 -21.91 11.75 -1.86 0.159 1.0
W2 18.93 13.27 1.43 0.249 1.0
S = 35.8514 R-Sq = 64.7% R-Sq(adj) = 41.2%
Terbukti, bahwa persamaan regresi yang dihasilkan sudah tidak multikolinieritas lagi
19. Selanjutnya masukkan nilai PC1 dan PC2 ke variabel W1 dan W2 sehingga menghasilkan variabel Z1, Z2, Z3, dan Z4
W1 = PC1
W1 = 21,9 (0,627Z1 + 0,541Z2 + 0,56Z3 0,021Z4)
W2 = PC2
W2 = 18,9 (0,415Z1 0,352Z2 0,156Z3 0,824Z4)
20. Langkah terakhir adalah mentrasformasikan nilai Z ke nilai X dengan rumus
BAB IVHASIL DAN PEMBAHASAN4.1 Permasalahan
Data pengaruh pemberian pupuk A, B, C, dan D dalam produksi kelapa sawit setiap tahunnya di 6 lokasi berbedaLokasiY
(ton)A
(gram/ha)B
(gram/ha)C
(gram/ha)D
(gram/ha)
1255113539853074678
2505346595247194364
3755272571354384749
41005164483149864410
51254804484844324748
61505254454249194098
4.2 Pembahasan
4.2.1 Pendugaan Parameter
Dengan bantuan software minitab, didapatkan hasil output seperti berikutThe regression equation is
Y = - 2696 + 0.588 X1 - 0.186 X2 - 0.168 X3 + 0.344 X4
Predictor Coef SE Coef T P VIF
Constant -2696 2281 -1.18 0.447
X1 0.5881 0.4004 1.47 0.381 30.4
X2 -0.18583 0.09137 -2.03 0.291 13.4
X3 -0.1678 0.1035 -1.62 0.352 7.6
X4 0.3443 0.2562 1.34 0.407 23.1
S = 31.2103 R-Sq = 91.1% R-Sq(adj) = 55.5%
Analysis of Variance
Source DF SS MS F P
Regression 4 9963.4 2490.9 2.56 0.434
Residual Error 1 974.1 974.1
Total 5 10937.5
.
4.2.2 Pengujian Asumsi Multikolinieritas
Pengujian asumsi multikolinieritas dilakukan dengan mencari nilai VIF dari data tersebut.
Hipotesis
H0: Prediktor saling bebas
H1: Prediktor tidak saling bebas
Predictor Coef SE Coef T P VIF
Constant -2696 2281 -1.18 0.447
X1 0.5881 0.4004 1.47 0.381 30.4
X2 -0.18583 0.09137 -2.03 0.291 13.4
X3 -0.1678 0.1035 -1.62 0.352 7.6
X4 0.3443 0.2562 1.34 0.407 23.1
Berdasarkan hasil output di atas tampak bahwa nilai VIF > 10 untuk predictor X1, X2, dan X4 , sehingga dapat di simpulkan bahwa sudah cukup bukti untuk mengatakan bahwa prediktor tidak saling bebas. Hal ini mengindikasikan bahwa terdapat multikolinieritas pada data pengaruh pemberian pupuk A, B, C, dan D dalam produksi kelapa sawit setiap tahunnya di 6 lokasi berbeda. Maka untuk menangani masalah multikolinieritas tersebut adalah dengan menggunakan Analisis Komponen Utama.4.2.3 Penanganan Multikolinieritas dengan Analisis Komponen UtamaLangkah pertama adalah mentransformasi data menjadi bentuk baku dengan menggunakan rumus :
di mana Pembakuan prediktor bertujuan untuk mengurangi korelasi antar prediktor serta membuat prediktor memiliki satuan yang sama. Berikut ini adalah data variabel prediktor yang telah dibakukan :
Langkah selanjutnya adalah mencari nilai PCA masing-masing komponen X1, X2, X3, dan X4Eigenvalue 1.8608 1.4600 0.6652 0.0139
Proportion 0.465 0.365 0.166 0.003
Cumulative 0.465 0.830 0.997 1.000
Variable PC1 PC2 PC3 PC4
X1 0.627 0.415 0.121 0.647
X2 0.541 -0.352 0.640 -0.418
X3 0.560 -0.156 -0.756 -0.301
X4 -0.021 -0.824 -0.069 0.562
Mencari variabel PCA mana yang akan digunakan untuk regresi selanjutnya, dengan cara melihat nilai cumulative < 0,75. Hasilnya, PC1 dan PC2 digunakan sebagai variabel yang akan diregresikan selanjutnyaSetelah itu regresikan PC1 dan PC2 dengan variabel Y, sehingga diperoleh Persamaan Analisis Komponen Utama baru :
Y = 87.5 - 21.9 W1 + 18.9 W2
Langkah selanjutnya adalah memasukkan nilai PC1 dan PC2 ke dalam W1 dan W2, sehingga mendapatkan persamaan dengan variabel Z1, Z2, Z3, dan Z4
Langkah terakhir adalah mengembalikan variabel Z ke X. Berikut ini perhitungan untuk mengembalikan data Z ke X :
Maka persamaan regresinya setelah pengembalian ke data asli adalah = 85,114 + 0,00056X1 + 0,00002X2 + 0,00007X3 0,00022X4
Interpretasi :
- Jika pupuk A meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,0,00056 ton, dengan syarat pupuk B, C, dan D tetap
- Jika pupuk B meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,00002 ton, dengan syarat pupuk A, C, dan D tetap.
- Jika pupuk C meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,00007 ton, dengan syarat pupuk A, B, dan D tetap.
- Jika pupuk D meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan menurun sebesar 0,00022 ton, dengan syarat pupuk A, B, dan C tetap
BAB V
PENUTUP
5.1 KESIMPULAN Berdasarkan uraian materi yang telah dijabarkan, maka dapat disimpulkan beberapa hal sebagai berikut:
Asumsi non-multikolinearitas mengharuskan bahwa tidak boleh ada hubungan linier antara sesama peubah prediktor
Pendeteksian multikolinearitas dapat dilakukan dengan menggunakan koefisien determinasi, korelasi parsial, nilai VIF dan nilai akar ciri.
Penanganan multikolinearitas dapat dilakukan dengan memanfaatkan informasi apriori dari teori atau penelitian sebelumnya, menggabungkan data cross-sectional dengan data deret waktu, menghilangkan peubah penyebab multikolinearitas, menambahkan data baru, menggunakan analisis regresi ridge, dan bisa juga menggunakan analisis komponen utama Dari contoh kasus yang telah dianalisis diperoleh model regresi dengan peubah prediktor asal yaitu = 85,114 + 0,00056X1 + 0,00002X2 + 0,00007X3 0,00022X4
5.2 SARAN
Dalam statistika sebuah model regresi dikatakan baik atau cocok,jika dipenuhi asumsi-asumsi ideal (klasik). Tidak terpenuhinya salah satu asumsi, khususnya asumsi non mutikolinearitas akan menyebabkan kesulitan pada saat penaksiran parameter. Dan banyak metode untuk mengatasi masalah multikolinieritas. Walaupun analisis komponen utama terlihat lebih mudah, akan tetapi lebih efektif jika menggunakan metode regresi ridge untuk mengatasi masalah multikolinieritas terlihat dari perbandingan nilai koefisien regresi keduanya, karena koefisien regresi analisis komponen utama lebih kecil dibandingankan regresi ridge.
Sedangkan dari analisis multikolinieritas dengan analisis komponen utama juga ditemukan kesulitan dalam melakukan analisis. Kita harus berhati-hati dalam memasukkan faktor mana yang akan diregresikan, jangan sampai faktor yang nilai cumulativenya sudah lebih dari 75% kita masih gunakan. Kita juga harus berhati-hati dalam memasukkan variabel PC1,PC2, dst dalam mentransformasikan data ke Z1,Z2,dst.DAFTAR PUSTAKA
Gusriani, Nurul. 2004. Regresi Ridge dengan Penduga Bayes untuk Mengatasi Multikolinieritas. Bogor : IPB
Adi Soehono, Loekito. 2012. Modul Pengantar Rancangan Percobaan. Malang:FMIPA-UBPrasetyo, H.B. Analisis regresi komponen utama untuk mengatasi masalah multikolinieritas dalam analisis regresi linier berganda. [email protected]. Diakses tanggal 29 Maret 2014
Soemartini. 2008. Principal Component Analysis sebagai Salah Satu untuk Mengatasi Multikolinearitas. Jatinangor: FMIPA-UNPAD
LAMPIRAN
---------- 3/29/2014 9:30:56 AM
Welcome to Minitab, press F1 for help.
Regression Analysis: Y versus X1, X2, X3, X4
The regression equation is
Y = - 2696 + 0.588 X1 - 0.186 X2 - 0.168 X3 + 0.344 X4
Predictor Coef SE Coef T P VIF
Constant -2696 2281 -1.18 0.447
X1 0.5881 0.4004 1.47 0.381 30.4
X2 -0.18583 0.09137 -2.03 0.291 13.4
X3 -0.1678 0.1035 -1.62 0.352 7.6
X4 0.3443 0.2562 1.34 0.407 23.1
S = 31.2103 R-Sq = 91.1% R-Sq(adj) = 55.5%
Analysis of Variance
Source DF SS MS F P
Regression 4 9963.4 2490.9 2.56 0.434
Residual Error 1 974.1 974.1
Total 5 10937.5
Source DF Seq SS
X1 1 894.6
X2 1 6416.3
X3 1 894.3
X4 1 1758.2
Unusual Observations
Obs X1 Y Fit SE Fit Residual St Resid
1 5113 25.0 27.8 31.1 -2.8 -1.00 X
2 5346 50.0 52.5 31.1 -2.5 -1.00 X
X denotes an observation whose X value gives it large influence.
Principal Component Analysis: X1, X2, X3, X4
Eigenanalysis of the Correlation Matrix
Eigenvalue 1.8608 1.4600 0.6652 0.0139
Proportion 0.465 0.365 0.166 0.003
Cumulative 0.465 0.830 0.997 1.000
Variable PC1 PC2 PC3 PC4
X1 0.627 0.415 0.121 0.647
X2 0.541 -0.352 0.640 -0.418
X3 0.560 -0.156 -0.756 -0.301
X4 -0.021 -0.824 -0.069 0.562
Regression Analysis: Y versus W1, W2
The regression equation is
Y = 87.5 - 21.9 W1 + 18.9 W2
Predictor Coef SE Coef T P VIF
Constant 87.50 14.64 5.98 0.009
W1 -21.91 11.75 -1.86 0.159 1.0
W2 18.93 13.27 1.43 0.249 1.0
S = 35.8514 R-Sq = 64.7% R-Sq(adj) = 41.2%
Analysis of Variance
Source DF SS MS F P
Regression 2 7082 3541 2.75 0.209
Residual Error 3 3856 1285
Total 5 10938
Source DF Seq SS
W1 1 4465
W2 1 2617
2
_1457267424.unknown
_1457267432.unknown
_1457590128.unknown
_1457590131.unknown
_1457590133.unknown
_1457590135.unknown
_1457590136.unknown
_1457590134.unknown
_1457590132.unknown
_1457590129.unknown
_1457267434.unknown
_1457590127.unknown
_1457267433.unknown
_1457267428.unknown
_1457267430.unknown
_1457267431.unknown
_1457267429.unknown
_1457267426.unknown
_1457267427.unknown
_1457267425.unknown
_1457267416.unknown
_1457267420.unknown
_1457267422.unknown
_1457267423.unknown
_1457267421.unknown
_1457267418.unknown
_1457267419.unknown
_1457267417.unknown
_1457267412.unknown
_1457267414.unknown
_1457267415.unknown
_1457267413.unknown
_1457267409.unknown
_1457267410.unknown
_1457267407.unknown