Presentasi sedang didownload. Silahkan tunggu

Presentasi sedang didownload. Silahkan tunggu

Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan.

Presentasi serupa


Presentasi berjudul: "Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan."— Transcript presentasi:

1 Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan atau perbedaan variabel atau kasus yang dibandingkan Korelasi distances bisa digunakan untuk jenis data apapun

2 Misalkan kita ingin mengetahui kesamaan pengaruh, motivasi, iklim organisasi terhadap kinerja
Misalkan dari penelitian diperoleh data sebagai berikut

3 Mengerjakan dengan korelasi distances, jangan menantai between variabel, Similarities, dan pada measures pilih Pearson correlation pilih pearson

4 Jangan lupa buat dulu rumusan masalahnya
Berapa besar korelasi antara motivasi dengan kinerja Berapa besar korelasi antara Iklim Organisasi denan Kinerja Bagaimana kesamaan nilai korelasi antara motivasi dengan Iklim organisasi

5 Diperoleh hasil sbb

6 Dapat disimpulkan bahwa
Korelasi antara motivasi dengan kinerja sangat kuat yaitu 0.949 Korelasi antara Iklim organisasi dengan kinerja juga sangat kuat yaitu 0.942 Jika dibandingkan antara hasil korelasi Motivasi dengan Kinerja dan antara Iklim organisasi dengan Kinerja, maka korelasinya sangat kuat. Jadi Motivasi dan Iklim organisasi mempunyai kesamaan dalam menentukan kinerja

7 KULIAH KE 10

8 TENTU SEBELUMNYA KITA BICARA REGRESI DAN KORELASI
REMIDIAL DULU APA SYARAT KORELASI APA FUNGSI ANOVA DALAM REGRESI BAGAIMANA CARA UJI LINEARITAS KALAU TIDAK LINEAR DI APAKAN ??

9 SEBELUMNYA JUGA PERLU DIINGAT
BILA DILAKUKAN UJI VALIDITAS DAN REALIABILITAS (BAGAIMANA CARA MELAKUKAN UJINYA) UNTUK APA GUNANYA UJI NORMALITAS DAN HOMOGENITAS DAN BAGAIMANA MELAKUKAN UJINYA INGAT TENTANG UJI ASUMSI DASAR LAINNYA

10 AUTOKORELASI MULTIKOLINEARITAS HETEROKEDASTISITAS

11 AUTOKORELASI Otokorelasi: korelasi antara variabel itu sendiri, pada pengamatan yang berbeda waktu atau individu. Umumnya kasus otokorelasi banyak terjadi pada data time series Kondisi sekarang dipengaruhi waktu lalu. Misal: Tinggi badan, upah, dsbnya. Salah satu alat deteksi: melihat pola hubungan antara residual (ui) dan variabel bebas atau waktu (X).

12 AUTOKORELASI Sebab-sebab terjadinya AUTOKORELASI antara lain adalah
Dalam suatu model regresi asumsi yang harus dipenuhi adalah tidak adanya autokorelasi antara kesalahan pengganggu periode t dengan kesalahan pengganggu pada periode (t – 1) atau tidak ada serial korelasi. mestinya E(eie j) = 0 untuk i  j Sebab-sebab terjadinya AUTOKORELASI antara lain adalah

13 (1) Kelambanan : Besar kemungkinan terjadi pada data historis
(1) Kelambanan : Besar kemungkinan terjadi pada data historis. Perubahan situasi ekonomi biasanya tidak terjadi dengan segera, biasa lamban, dan tergantng besarnya pengaruh variabel-variabel yang ikut menentukan panjangnya siklus dan kecepatan perubahan; (2) Spesifikasi bias : Apabila dalam suatu model tidak mengikutsertakan suatu atau beberapa variabel, padahal variabel tersebut relevan, maka dapat menimbulkan AUTOKORELASI (penghilangan sejumlah variabel penjelas);

14 (3) Kesalahan spesifikasi bentuk model matematis yang dipilih sebagai model empiris : misalnya yang seharusnya model itu non linier, tetapi dipaksa secara linier, maka akan menimbulkan AUTOKORELASI pada kesa-lahan pengganggu; (4) Pengaruh time lag : apabila variabel dependen tidak hanya dipengaruhi oleh variabel independen, tetapi juga oleh variabel dependen pada periode sebelumnya.

15 Masihada penyebab lain, misalnya
. Phenomena sarang laba-laba . Adanya manipulasi data Tapi ingat kebanyakan autokorelasi terjadi pada data runtun waktu (time series)

16 Akibat terjadinya autokorelasi
1.Interval konfidensi menjadi sangat lebar 2. Signifikansi tidak kuat 3. Variansi kesalahan variabel pengganggu S2 akan underestimate untuk 2 4. Penggunaan uji t atau F tidak lagi syah (valid) 5. dll

17 Pengujian AUTOKORELASI
Cara untuk menguji apakah model tersebut bersifat Autokorelasi atau tidak, dapat dipergunakan Uji Durbin – Watson.

18 Untuk mendeteksi adanya AUTOKORELASI Durbin – Watson mempergunakan rumus :
Cara pengujian : (a) Uji AUTOKORELASI positif, (b) Uji autokorlasi negatif, (c) Uji AUTOKORELASI dua sisi.

19 Uji AUTOKORELASI positif
Durbin – Watson menyatakan bahwa apabila angka statistik d  0, maka ada AUTOKORELASI positif. Ho : Tidak ada AUTOKORELASI positif Ha : Ada AUTOKORELASI positif Dengan :

20 d < dL berarti d adalah bermakna (signifikan) sehingga
d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ADA AUTOKORELASI positif. d > dU berarti d adalah tidak bermakna (tidak signifikan) sehingga menerima hipotesis nol yang menyatakan positif TIDAK ADA AUTOKORELASI dL < d < dU berarti pengujian tidak dapat memberikan keputusan (inconclusive --- ragu-ragu)

21 dU dL d tidak dapat memberikan keputusan ADA AUTOKORELASI positif
TIDAK ADA AUTOKORELASI ADA AUTOKORELASI positif dL dU tidak dapat memberikan keputusan

22 Uji AUTOKORELASI negatif
Pada kasus AUTOKORELASI negatif , pengujiannya adalah : d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis alternatif yang menyatakan ada AUTOKORELASI negatif. d < 4 – dU berarti d adalah tidak bermakna (tidak signi- fikan) sehingga menerima hipotesis nol yang menyatakan tidak ada AUTOKORELASI negatif. 4 – dU < d < 4 – dL berarti pengujian tidak dapat membe- rikan keputusan (inconclusive --- ragu-ragu)

23 4-dU 4-dL dU dL ????? tidak ada AUTOKORELASI negatif ADA AUTOKORELASI

24 Uji AUTOKORELASI dua sisi
Pada kasus AUTOKORELASI uji dua sisi , pengujiannya adalah : d < dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI. d > 4 – dL berarti d adalah bermakna (signifikan) sehingga menerima hipotesis yang menyatakan ada AUTOKORELASI dU < d < 4 – dU berarti ?????

25 ADA AUTOKORELASI ADA AUTOKORELASI dU 4-dU dL 4-dL ?????

26 Statistik Durbin-Watson (D-W)
Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif Tidak tahu Tidak tahu Korelasi positif Tidak ada korelasi Korelasi negatif dL dU dU 4-dL T. Ramayah Kaedah Penyelidikan Perniagaan

27 PANDUAN LAIN, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > terjadi Autokorelasi

28 MENGATASI AUTOKORELASI
Banyak cara yang dapat ditempuh tapi sangat memerlukan perhitungan matemati yang rumit, Cara yang agak sederhana yang dapat ditempuh adalah sebagai berikut : Pertama-tama hitung nilai  yaitu : atau Yang kanan lebih banyak digunakan

29 Kemudian hitung nilai xi , yi yang baru dengan
Rumus berikut Kemudian hitung lagi regresinya Sebetulnya banyak model lain Silakan baca buku

30 Untuk pengecekan dengan menggunakan SPSS
Lakukan seperti mengerjakan Regresi dan jangan lupa mengklik boks statistik (Durbin-Watson)

31 KOLINEARITAS (multikolinearitas)
ADANYA HUBUNGAN LINEAR YANG SEMPURNA ANTARA VARIABEL-VARIABEL BEBAS KOLINEARITAS BERARTI HUBUNGAN BERARTI HUBUNGAN LINEAR TUNGGAL. KOLINEARITAS GANDA (MULTIKOLINEARITAS) MENUNJUKKAN ADANYA LEBIH DARI SATU HUBUNGAN LINEAR YANG SEMPURNA

32 APABILA HANYA ADA 2 VARIABEL, INTER KORELASI DIUKUR DENGAN KOEFISIEN KORELASI SEDERHANA
JIKA DUA VARIABEL ATAU LEBIH , INTERKORELASI DAPAT DI UKUR DENGAN KOEFISIEN KORELASI PARSIAL ATAU KOEFISIEN KORELASI BERGANDA ANTARA VARIABEL BEBAS DENGAN SISA VARIABEL LAINNYA

33 DALAM REGRESI LINEAR HARUS DIANGGAP BAHWA TIDAK ADA KOLINEARITAS GANDA DIANTARA VARIABEL BEBAS DENGAN ALASAN APABILA KOLINEARITAS SEMPURNA TERJADI PAPA A1X1 + A2X An Xn = 0, MAKA KOEFISIEN TIDAK DAPAT DITENTUKAN DAN STANTARD ERRORNYA MENJADI TAK HINGGA. TAPI KALAU PADA A1X1 + A2X An Xn +VI= 0 DENGAN VI = KESALAHAN PENGGANGGU, JUGA AKAN MEMPUNYAI STANTARD ERROR YANG TINGGI.

34 Pada prakteknya, hampir mustahil variabel-variabel yang benar-benar tidak berhubugan.
Kita mau menunjukkan bahwa multikolinearitas tidak berpengaruh terhadap kemampuan persamaan regresi berganda untuk memprediksi variabel terikat. Jadi kita mesti mengurangi dampak dari multikolinearitas tersebut

35 UJI MULTIKOLINEARITAS (MENDETEKSI KOLINEARITAS GANDA)
Multikolinieritas dapat dideteksi dengan menghitung koefisien korelasi ganda dan membandingkannya dengan koefisien korelasi antar variabel bebas. Sebagai contoh, diambil kasus regresi x1, x2, x3, x4 terhadap y. Pertama dihitung Ry, x1x2x3x4. Setelah itu, dihitung korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4. Apabila salah satu darikoefisien korelasi itu sangat kuat, maka dilanjutkan dengan menghitung koefisien korelasi ganda dari masing-masing variabel bebas dengan 3 variabel bebas lainnya, yaitu Rx1, x2x3x4; Rx2, x1x3x4; Rx3,x1x2x4; dan Rx4, x1x2x3. Apabila beberapa koefisien korelasi tersebut mendekati Ry, x1x2x3x4, maka dikatakan terjadi multikolinieritas.

36 Repot juga melakukan hal di atas
Jika ada koefisien korelasi yang sangat tinggi, maka mesti dilanjutkan dengan menghitung Koefisien korelasi ganda antar variabel bebas Yaitu Rx1,x2x3x4 , Rx2, x1x3x4 Rx3,x1x2x4 Rx4,x1x2x3 Jika ada nilainya yang mendekati Ry,x1x2x3x4 maka berarti terjadi multikolinearitas Repot juga melakukan hal di atas

37 Kalau kita menggunakan faktor inflasi variansi VIF (Variance Inflation Factor)
Dengan rj2 adalah koefisien determinasi, maka bila rj = 0.7, maka rj2 =0.49 sehingga 1 - rj2 = yang mengakibatkan VIF < 2, itu sebanya jika nilai r terletak -0.7  r  0.7 di anggap tidak masalah untuk menggunakan variabel-variabel bebas tersebut Jika 0.7 < r  1, ada masalah kolinearitas

38 Uji multikolonieritas dengan SPSS dilakukan dengan uji regresi, dengan patokan nilai VIF
(variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.

39 Uji multikolinearitas, autokorelasi secara bersama-sama
Lakukan regresi linear ,Pada statistik pilih Estimates Covariance matrik Model Fit Descriptives Colinearity diagnostic Dusbin-Watson Jangan lupa *SRESID Pada Y dan *ZPRED pada X Juga klik Normal Probability plot

40 Colinearity Diagnostic untuk pengecekan Muliticolinearity
Durbin-Watson untuk pengecekan Autokorelasi Perhatikan hasilnya

41 Kalau kita ambil patokan -0. 7  r  0
Kalau kita ambil patokan -0.7  r  0.7 maka tidak ada masalah dengan multicolinearitas, tapi kalau dipilih r < 0.5, baru timbul masalah

42 Ingat kembali dengan patokan nilai VIF
(variance inflation factor) dan koefisien korelasi antar variabel bebas. Kriteria yang digunakan adalah: jika nila VIF di sekitar angka 1 atau memiliki toerance mendekati 1, maka dikatakan tidak terdapat masalah multikolinieritas dalam model regresi; jika koefisien korelasi antarvariabel bebas kurang dari 0,5, maka tidak terdapat masalah multikolinieritas.

43 Karena nilai VIF semuanya berkisar di angka 1, maka dapat disimpulkan tidak ada masalah dengan multikolinearitas Alat ukur lain yaitu nilai tolerasi > 0.1 Dan nilai VIF < 10 (contoh lain lihat buku Nisfiannoor M hal )

44 Ingat kembali, uji Autokorelasi dan uji Kolinearitas dapat ditentukan dengan Durbin-Waltson (DW) sebagai berikut 1.65 < DW < 2.35 Tidak terjadi Autokorelasi 1.21 < DW < atau 2.35 < DW < 2.79 Tidak dapat disimpulkan DW < 1.21 atau DW > terjadi Autokorelasi

45 Statistik Durbin-Watson (D-W)
Persamaan: Nilai kiraan mungkin di antara 0 dan 4. Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif dl du du dl Nilai 2 menunjukkan tiada autokorelasi manakala 0 dan 4 menunjukkan autokorelasi sempurna positif dan negatif T. Ramayah Kaedah Penyelidikan Perniagaan

46 DW = 2.269, jadi tidak masalah dg autokorelasi
Yang terbaik, bandingkan nilai DW dengan tabel Durbin-Watson Jika nilai DW > nilai di tabel DW, maka tidak ada masalah dengan autokorelasi

47 Cara di atas, masih memberikan indikasi yang kurang jelas, untuk itu ada cara lain yang lebih kongkrit, yaitu dengan menggunakan uji korelasi (parsial)

48 Silakan coba data tadi dengan menggunakan uji korelasi parsial
Jangan lupa memasukkan variabel Y pada variabel yang di kontrol Diperoleh hasil sebagai berikut

49 Mana diantara hubungan variabel yang sig <  berarti terjadi multikolinearitas

50 MENGATASI KOLINEARITAS GANDA (MULITKOLINEARITAS)
INGAT TIDAK SATUPUN CARA YANG TEPAT UNTUK MENGATASINYA. KARENA KOLINEARITAS GANDA MERUPAKAN PERSOALAN SAMPEL. HANYA ADA BEBERAPA ATURAN/CARA YANG DAPAT DITEMPUH

51 MISALKAN Y= a0 + a1X1 + a2X2 + I
DENGAN : Y = KINERJA X1 = MOTIVASI X2 = IKLIM ORGANISASI TELAH ADA KAJIAN SEBELUMNYA BAHWA MOTIVASI DAN IKLIM ORGANISASI MEMPUNYAI KOLINEARITAS YANG TINGGI, SEHNGGA a2 = 0.2 a1 , MAKA ROBAH MODEL REKRESINYA MENJADI Y = a0 + a1X a1X2 + I = a0 + aXI + I DENGAN XI = (X2 +0.2X3)

52 2. MENGGABUNGKAN DATA CROSS SECTION DAN BERKALA DATA PENAMPANG (CROSS SECTION ) ADALAH DATA YANG MENGAMBARKAN KEADAAN PADA SUATU WAKTU TERTENTU DATA BERKALA DATA YANG MENGGAMBARKAN PERKEMBANGAN DARI WAKTU KE WAKTU INGAT DATA BERKALA CENDERUNG AKAN MENGAKIBATKAN KORELASI YANG TINGGI

53 ampun MAU TAU RUMUS STAT NYA ROBAH MENJADI DENGAN Y* = LN Y - a2 Ln X2
Ln Y= a0 + a1LnX1 + a2 Ln X2 +  I Y*= a0 + a1LnX + I

54 3. Mengeluarkan satu variabel atau lebih dan kesalahan spesifikasi
Misalkan dari persamaan Y= a0 + a1X1 + a2X2 + I Keluarkan variabel X1 maka persamaannya menjadi Y= a0 + a2X2 + I Mesti memberikan alasan yang cukup mengapa X1 yang di keluarkan Ingat dengan menghilangkan salah satu var, akan terjadi kesalahan specifikasi

55 Hal di atas di lakukan jika
Jika nila VIF > 10, maka dianggap bahwa kita mesti membuang variabel-variabel bebas tersebut Bisakah anda pikirkan berapakah nilai r sehingga nilai VIF > 10 ????

56 4. Transformasi variabel (ini banyak dilakukan untuk variabel data time series
Yt = a0 + a1X1t + a2X2t + t Yt-1 = a0 + a1X1t-1 + a2X2t-1 + t Maka Yt - Yt-1 = a1(X1t -X1t-1 ) + a2 (X2t - X2t-1 )+Vt

57 5. Penambahan data baru Metoda ini yang paling sederhana untuk di gunakan

58 Mengatasi Multikolinearitas
Sekarang metoda ini yang paling banyak digunakan Regresi ridge

59 Dengan regresi ridge Y = a0 + a1X1 + a2X2 + + anXn
Di Transformasi menjadi : Y* = b0 + b1Z1 + b2Z2 + + bnZn Transformasi datanya menjadi :

60 HETEROSKEDASTISITAS SALAH SATU ASUMSI DASAR LAIN YANG PENTING UNTUK MODEL REGRESI KLASIK ADALAH ERROR (VAR PENGGANGGU) MEMPUNYAI VARIANSI YANG SAMA ARTINYA VAR (I) = E (I) = 2 INI DISEBUT DENGAN HOMOSKEDASDIK MASALAHNYA BAGAIMAN KALAU HAL DI ATAS

61 ILUSTRASI HETEROSKEDASTISITAS

62 PADAHAL DALAM KEADAAN MONOSKEDASTIK MESTILAH
VAR (I) = E (I) = 2 KALAU TERJADI HETEROSKEDASTISITAS, MAKA BIAS AKAN TINGGI

63 MENDETEKSI HETEROKEDASTISITAS
INGAT JUGA TIDAK ADA CARA/METODA YANG PASTI UNTUK MENDETEKSINYA MAKA YANG ADA HANYA ALTERNATIF UNTUK MENDETEKSINYA

64 BEBERAPA CARA MENDETEKSINYA
SIFAT PERSOALAN METODA GRAFIK Curvelinier Tak tentu Curvelinier positif Curvelinier negatif

65 Pola Grafik Pengamatan: 1.Tidak adanya pola yang sistematis.
ui2 , Pengamatan: 1.Tidak adanya pola yang sistematis. 2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama. 3.Variansi konstan, dan data homoskedastis.

66 Pola Adanya Heteroskedastisitas
ui2 ui2 Pola sistematis

67 3. Uji Park Prinsip: memanfaatkan bentuk regresi untuk melihat adanya heteroskedastisitas. Langkah-langkah yang dikenalkan Park: 1. Run regresi Yi = 0 + 0Xi + ui 2. Hitung ln ui2 3. Run regresi ln ui2 =  +  ln Xi + vi 4. Lakukan uji-t. Bila  signifikan, maka ada heteroskedastisitas dalam data.

68 4. Uji Glejser Banyak rumus lain lagi

69 5. Uji korelasi rank spearman’s Dengan nilai t hitung adalah Hipotesa diterima jika th >tt

70 Kalau tak mampu juga dengan rumus di atas, lakukan dengan menggunakan SPSS
Silakan di coba di rumah dan pada waktunya akan saya minta secara acak untuk mempresentasikannya

71 Atau perhatikan cara berikut
Silakan masukka ke SPSS data yang akan anda lakukan uji Heterokedastisitas Analyz e Regresion linear dst Pindahkan variabel y ke dependent list dan variabel x ke faktor list. Selanjutnya, pilih kotak dialog plots, dan masukkan *SRESID ke Y dan *ZPRED ke X,

72

73 Uji multikolinearitas
Multikolinearitas muncul ketika variabel-variabel bebasnya saling berkorelasi. Variabel-variabel bebas yang berkorelasi membuat kita sulit mengambil kesimpulan tentang masing-masing koefisien regresinya dan masing-masing dampaknya terhadap variabel terikat.

74

75 Regresi berjenjang Pertama-tama buat regresi linear sederhana dengan memilih variabel bebas yang korelasinya paling besar dengan variabel Y, Lanjutnya dengan menambahkan variabel bebas lainnya yang korelasinya paling besar ke 2 dst Buang variabel yang menyebabkan multikolinearitas (hati-hati memilihnya)

76

77 Cari dulu korelasi antara y dengan semua variabel bebas

78 <

79 korelasi antar enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4.


Download ppt "Korelasi distances Korelasi distances untuk melihat persamaan atau perbedaan. Baik pasangan variabel atau pasangaan kasus. Tujuannya untuk mencari persamaan."

Presentasi serupa


Iklan oleh Google