1. Uji Asumsi Klasik Multikolinieritas.
Uji asumsi klasik Multikolinieritas ini digunakan untuk mengukur tingkat asosiasi (keeratan) hubungan/pengaruh antar variabel bebas tersebut melalui besaran koefisien korelasi (r). Multikolinieritas terjadi jika koefisien korelasi antar variabel bebas lebih besar dari 0,60 (pendapat lain: 0,50 dan 0,90). Dikatakan tidak terjadi multikolinieritas jika koefisien korelasi antar variabel bebas lebih kecil atau sama dengan 0,60 (r < 0,60). Dengan cara lain untuk menentukan multikolinieritas, yaitu dengan :
- Nilai tolerance adalah besarnya tingkat kesalahan yang dibenarkan secara statistik (a).
- Nilai variance inflation factor (VIF) adalah faktor inflasi penyimpangan baku kuadarat.
Nilai tolerance (a) dan variance inflation factor (VIF) dapat dicari dengan, sebagai berikut:
☑ Besar nilai tolerance (a): a = 1 / VIF
☑ Besar nilai variance inflation factor (VIF): VIF = 1 / a
~ Variabel bebas mengalami multikolinieritas jika a hitung VIF.
~ Variabel bebas tidak mengalami multikolinieritas jika a hitung > a dan VIF hitung < VIF.
Berikut langkah prosesnya:
1. Klik menu analyze.
2. Pilih submenu regresion, klik linier.
3. Box dependent: variabel terikat (Y)
4. Box independent: variabel bebas (X)
5. Klik method, pilih enter
6. Klik tombol statistic, akan muncul
linier regression statistic: nonaktifkan estimates dan model fit, aktifkan: covariance matrix dan collinieritas diagnostics.
7. Klik continue
8. Klik OK.
Contoh bagian output:
- Melihat besaran koefisien korelasi antar variabel bebas, terlihat koefisien korelasi antar variabel bebas sebesar 0,142 jauh di bawah 0,60. Disimpulkan bahwa antara variabel bebas tidak terjadi multikolinieritas.
- Menggunakan besaran tolerance (a) dan variance inflation factor (VIF) jika menggunakan alpha/tolerance = 10% atau 0,10 maka VIF = 10. Dari hasil output VIF hitung dari kedua variabel = 1,021 < VIF = 10 dan semua tolerance variabel bebas 0,980 = 98% diatas 10%, dapat disimpulkan bahwa antara variabel bebas tidak terjadi multikolinieritas.
2. Uji Asumsi Klasik Heteroskedastisitas.
Dalam persamaan regresi berganda perlu diuji mengenai sama atau tidak varians dari residual dari observasi yang satu dengan observasi lainnya. Jika residual mempunyai varians yang sama, disebut homoskedastisitas. dan jika varoansnya tidak sama disebut terjadi heteoskedastisitas. Persamaan regresi yang baik jika tidak terjadi heteroskedastisitas.
Analisis uji asumsi heteroskedastisitas hasil output SPSS melalui grafik scatterplot antara Z prediction (ZPRED) untuk variabel bebas (sumbu X=Y hasil prediksi) dan nilai residualnya (SRESID) merupakan variabel terikat (sumbu Y=Y prediksi – Y rill).
Homoskedastisitas terjadi jika titik-titik hasil pengolahan data antara ZPRED dan SRESID menyebar di bawah ataupun di atas titik origin (angka 0) pada sumbu Y dan tidak mempunyai pola yang tertentu.
Heteroskedastisitas terjadi jika pada scatterplot titik-titiknya mempunyai pola yang teratur, baik menyempit, melebar maupun bergelombang-gelombang.
Berikut langkah prosesnya:
1. Klik menu analyze.
2. Pilih submenu regresion, klik linier.
3. Box dependent: variabel terikat (Y)
4. Box independent: variabel bebas (X,…)
5. Klik plots, muncul linier regresion plot dan isikan: variabel SRESID di sumbu Y dan variabel ZPRED di sumbu X.
6.
Klik continue.
7. Klik OK.
Contoh bagian output:
3. Uji Asumsi Kalsik Normalitas.
Pengujian asumsi normalitas untuk menguji data variabel bebas (X) dan variabel terikat (Y) pada persamaan regresi yang dihasilkan, apakah berdistribusi normal atau berdistribusi tidak normal. Jika distribusi data normal, maka analisis data dan pengujian hipotesis digunakan statistik parametrik. Pengujian normalitas data menggunakan uji kolmogorov-smirnov one
sampel test dengan rumus:
Fo (X) = fungsi distribusi komulatif yang ditentukan.
SN (X) = distribusi frekuensi komulatif yang diobservasi dari suatu sampel random dengan N
observasi.
i = 1,2,…N
Adapun kriteria uji : jika probabilitas signifikan > 0,05 maka data berdistribusi normal.
4. Uji Asumsi Klasik Autokorelasi
Persamaan regresi yang baik adalah tidak memiliki masalah autokorelasi. Jika terjadi autokorelasi maka perasamaan tersebut menjadi tidak baik atau tidak layak dipakai prediksi. Ukuaran dalam menentukan ada tidaknya masalah autokorelasi dengan uji Durbin-Watson (DW), dengan ketentuan sebagai berikut:
- Terjadi autokorelasi positif jika DW di bawah -2 (DW < -2).
- Tidak terjadi autokorelasi jika DW berada di antara -2 dan +2 atau -2 < DW +2
Berikut langkah prosesnya:
1. Klik menu analyze.
2. Pilih submenu regresion, klik linier.
3. Box dependent: variabel terikat (Y)
4. Box independent: variabel bebas (X)
5. Pada case labels isikan periode waktunya.
6. Klik tombol statistic.
7. Aktifkan durbin-Watson.
8. Klik
continue.
9. Klik OK.
Contoh bagian output:
Dari hasil output di atas, Durbin-Watson test = 2,397 dan DW > 2, maka, disimpulkan bahwa data di atas terjadi autokorelasi negatif.
Artikel terkait:
✓ Metodologi Penelitian
✓ Pengujian Validitas & Reliabilitas Skor Kuesioner
✓
Analisis Regresi linier Berganda
✓ Pengujian Hipotesis Dengan T Hitung
✓
Pengujian Hipotesis Dengan F Hitung
✓ Testimoni
=======================
Untuk pembuatan skripsi, tesis dan disertasi Hub :
FADLI, SE
Pin : DBB089A7
Phone : 083821671918
TESTIMONI
Silakan download kumpulan skripsi, tesis dan disertasi yang saya buat, tipe file dalam bentuk word (doc), isi file dari cover, BAB I, BAB II, BAB III, BAB IV, BAB V, daftar pustaka, beserta
lampiran data. berikut linknya:
Skripsi : Download
Tesis : Download
Disertasi :
Download