92 “Construct validity: validitas ini mengukur seberapa besar derajat tes mengukur konstruk yang dikehendaki untuk diukur. Validitas konstruk merupakan hasil deduksi dari suatu teori yang kita bangun. Analisis konfirmatori − merupakan metode terbaru yang digunakan untuk menguji validitas dan reliabilitas instrumen pengumpulan data. Cara analisisnya dengan menghitung faktor loading yang serupa korelasi antara indikator dan varaibel laten. Validitas ini bersifat “judgmental”, demikian pendapat Hermawan, (2003:43), di mana suatu indikator dipandang sahih sepanjang sesuai dengan telaah pustaka mengenai suatu konstruk yang diteliti. Nilai patokan untuk uji validitas adalah koefisien korelasi yang mendapat nilai lebih besar dari 0,3 (Sekaran, 2000).” Sebagi contoh kasus, misalkan akan dilakukan pengujian validitas dari 5 indikator untuk variabel laten motivasi. Data disajikan pada Tabel 8.5. Tabel 8.5 Data Jawaban 10 Responden untk 5 Indikator Responden Motivasi Total P1 P2 P3 P4 P5 1 3 4 3 3 4 17 2 4 4 4 4 3 19 3 2 3 4 4 4 17 4 2 3 5 3 2 15 5 3 4 3 3 3 16 6 4 4 3 4 3 18 7 4 5 4 4 4 21 8 3 4 4 5 4 20 9 3 4 5 4 3 19 10 4 3 5 3 3 18 Berdasarkan data pada Tabel 8.5, selanjutnya akan dihitung nilai korelasi linear Pearson antara setiap indikator terhadap skor total. Hasil diperoleh pada Tabel 8.6. Tabel 8.6 Hasil Uji Validitas dengan Korelasi Linear Pearson Indikator R Hitung (Korelasi Linear Pearson) R Kritis Keterangan P1 0.617213 0.3 Valid P2 0.673575 0.3 Valid P3 0.074536 0.3 Tidak Valid P4 0.721336 0.3 Valid P5 0.541002 0.3 Valid
93 Berdasarkan hasil uji validitas pada Tabel 8.6, diketahui indikator P3 tidak valid dikarenakan nilai korelasi linear Pearson 0,074 < 0,3 (Sugiyono, 2015:207-209). 8.10 Ketika Akan Melakukan Uji Signifikansi Koefisien Korelasi Pearson, Kapan Uji Asumsi Normalitas Harus Diuji? Adakah Metode Alternatif Selain dari Korelasi Linear Pearson, ketika Asumsi Normalitas Tidak Dipenuhi? Berdasarkan uraian sebelumnya, uji asumsi normalitas harus diuji dan dipenuhi ketika akan melakukan uji signifikansi koefisien korelasi linear Pearson (Alan Agresti dan Barbara Finlay, 2009:284; Andy Field, 2009:178), yang mana ukuran sampel kecil, yakni < 30 (Murray R. Spiegel dan Larry J. Stephens, 2008:275-276). Jika asumsi normalitas tidak dipenuhi, maka dapat digunakan pendekatan alternatif, yakni pendekatan nonparametrik berupa korelasi Spearman. Peter Dalgaard (2008:123) dalam bukunya yang berjudul “Introductory Statistics with R, 2 nd Edition” menyatakan sebagai berikut. “As with the one- and two-sample problems, you may be interested in nonparametric variants. These have the advantage of not depending on the normal distribution and, indeed, being invariant to monotone transformations of the coordinates. The main disadvantage is that its interpretation is not quite clear. A popular and simple choice is Spearman’s rank correlation coefficient ρ. This is obtained quite simply by replacing the observations by their rank and computing the correlation. Under the null hypothesis of independence between the two variables, the exact distribution of ρ can be calculated.” 8.11 Contoh Kasus Korelasi Linear Pearson dengan STATCAL Contoh kasus pada 8.6 akan diselesaikan dengan STATCAL. Pertama, input data pada Tabel 8.4 dalam STATCAL (Gambar 8.10).
94 Gambar 8.10 Input Data Numerik Kemudian pilih Statistics => Pearson and Spearman Correlation (Gambar 8.11). Perhatikan Gambar 8.12. Pada kotak Choose Numeric Variable (Single Choice) (X-Axis), pindahkan variabel motivasi ke kotak sebelah kanan. Pada kotak Choose Numeric Variable (Single Choice) (Y-Axis), pindahkan variabel kinerja ke kotak sebelah kanan. Selanjutnya lihat hasilnya pada bagian Result. Gambar 8.11 Pearson and Spearman Correlation
95 Gambar 8.12 Pearson and Spearman Correlation Pada bagian Result, terdapat Scatter Plot (Gambar 8.13) yang menampilkan sebaran data antara motivasi dan kinerja. Terlihat bahwa sebaran data cenderung naik dari kiri bawah ke kanan atas. Dengan kata lain terdapat kecenderungan ketika motivasi meningkat, kinerja juga meningkat (korelasi positif). Gambar 8.13 Result: Scatter Plot
96 Pada bagian Result, terdapat juga hasil Normality Test (Kolmogorov-Smirnov Test) (Gambar 8.14), untuk menguji asumsi apakah data motivasi dan data kinerja berasal dari populasi berdistribusi normal atau tidak. Pengujian asumsi normalitas ini menggunakan uji Kolmogorov-Smirnov. Diketahui berdasarkan hasil dari uji Kolmogorov-Smirnov, diketahui nilai P-Value untuk motivasi adalah 0,604 > tingkat signifikansi 5%, maka asumsi normalitas untuk data motivasi dipenuhi. Sementara nilai P-Value untuk kinerja adalah 0,9539 > tingkat signifikansi 5%, maka asumsi normalitas untuk data kinerja juga dipenuhi. Dikarenakan asumsi normalitas dipenuhi, maka pengujian dilanjutkan dengan menggunakan korelasi linear Pearson. Gambar 8.14 Result: Normality Test (Kolmogorov-Smirnov Test) Pada bagian Result, terdapat Pearson Correlation Result (Gambar 8.15). Berdasarkan hasil ini: Diketahui nilai korelasi linear Pearson antara motivasi dan kinerja adalah 0,824. Nilai korelasi linear Pearson antara motivasi dan kinerja adalah 0,824, yang mana > 0,5, maka motivasi dan kinerja berkorelasi kuat (Andy Field, 2009:170). Nilai statistik adalah 4,113, sementara nilai kritis dengan derajat bebas 8 dan tingkat signifikansi 5% adalah 2,306.
97 0 ditolak, 1 diterima 0 ditolak, 1 diterima 0 diterima, 1 ditolak Nilai P-Value adalah 0,0034 < tingkat signifikansi 5%, maka motivasi dan kinerja berkorelasi signifikan. Gambar 8.15 Result: Pearson Correlation Result Dengan pendekatan distribusi : −2,306 +2,306 Gambar 8.16 Daerah Keputusan Distribusi Diketahui nilai statistik adalah 4,113, terletak pada daerah 0 ditolak dan 1 diterima (Gambar 8.16). Hal ini berarti terdapat korelasi yang signifikan antara motivasi dan kinerja, pada tingkat signifikansi 5%.
98 Gambar 8.17 Result: Spearman Correlation Result Pada bagian Result, terdapat Spearman Correlation Result (Gambar 8.17). Berdasarkan hasil ini diketahui nilai korelasi Spearman adalah 0,7409. Nilai korelasi Spearman antara motivasi dan kinerja adalah 0,7409, yang mana > 0,5, maka motivasi dan kinerja berkorelasi kuat (Andy Field, 2009:170). Nilai P-Value adalah 0,0142 < tingkat signifikansi 5%, maka motivasi dan kinerja berkorelasi signifikan. Gambar 8.18 Korelasi Linear Pearson dengan SPSS ( = , ) Gambar 8.19 Korelasi Spearman dengan SPSS ( = , )
99 8.12 Contoh Kasus Korelasi Linear Pearson dengan STATCAL (Uji Validitas) Contoh kasus pada Bagian 8.9 akan diselesaikan dengan STATCAL. Pertama pilih Statistics => Reliability (Gambar 8.20). Gambar 8.20 Reliability Input data pada Tabel 8.5 dalam STATCAL (Gambar 8.21). Gambar 8.21 Input Data Selanjutnya hasil dapat dilihat pada bagian Result. Pada bagian Result: Reliability (Gambar 8.22), nilai pada kolom raw_alpha adalah 0,275, yang mana nilai tersebut adalah nilai Cronbach’s Alpha, yakni salah satu ukuran reliabilitas. Perhatikan juga nilai Cronbach’s Alpha pada hasil SPSS Gambar 8.25, yakni sama bernilai 0,275.
100 Gambar 8.22 Result: Reliability Pada bagian Result: Reliability if an item is Dropped (Gambar 8.23), nilai pada kolom raw_alpha sama dengan hasil SPSS pada kolom Cronbach’s Alpha if Item Deleted (Gambar 8.25). Gambar 8.23 Result: Reliability if an Item is Dropped Gambar 8.24 Result: Item Statistics
101 Sementara pada bagian Result: Item Statistics (Gambar 8.24), nilai pada kolom raw.r adalah nilai korelasi linear Pearson untuk setiap indikator terhadap skor total. Diketahui untuk indikator P3, nilai korelasi linear Pearson adalah 0,0745 < 0,3, maka indikator P3 tidak valid (Sugiyono, 2015:207-209). Pada bagian Result: Item Statistics untuk kolom r.drop, nilainya sama dengan hasil SPSS, yakni pada kolom Corrected Item-Total Correlation. Gambar 8.25 Output SPSS 8.13 Contoh Kasus Korelasi Linear Pearson dengan STATCAL, SPSS dan Minitab Misalkan diberikan data tinggi badan dan berat badan dari 40 responden seperti pada Tabel 8.7. Tabel 8.7 Data Tinggi Badan dan Berat Badan dari 40 Responden Responden Berat Tinggi 1 58.64 155.43 2 54.34 153.53 3 55.12 155.43 4 50.64 150.63 5 51.23 151.23 6 55.43 152.23 7 50.53 150.53 8 55.54 150.63 9 52.34 151.53 10 53.45 174.34 11 51.64 155.54
102 12 52.43 152.43 13 53.43 154.34 14 54.34 154.34 15 57.64 150.53 16 51.23 146.54 17 59.34 169.53 18 54.34 154.34 19 98.65 198.65 20 43.32 140.32 21 56.45 151.23 22 54.24 154.34 23 53.23 160.43 24 50.54 149.12 25 50.53 152.23 26 55.33 151.3 27 53.34 151.35 28 55.44 154.34 29 52.24 155.15 30 55.34 174.11 31 51.54 152.13 32 55.34 152.2 33 55.34 154.11 34 54.24 154.11 35 57.54 150.3 36 51.13 156.34 37 59.24 169.3 38 54.24 154.11 39 98.55 178.32 40 43.22 140.09 Berdasarkan data pada Tabel 8.7: Buat grafik sebaran data antara tinggi badan dan berat badan, di mana tinggi badan sebagai sumbu-x dan tinggi badan sebagai sumbu-y! Hitung nilai korelasi linear Pearson dan korelasi Spearman untuk mengetahui keeratan hubungan antara tinggi badan dan berat badan! Tentukan apakah keeratan hubungan tersebut termasuk ke dalam kategori lemah, sedang atau kuat, berdasarkan kriteria pada buku yang berjudul “Discovering Statistics Using SPSS, 3 rd Edition”.
103 Lakukan uji signifikansi untuk menentukan apakah tinggi badan dan berat badan berkorelasi signifikan pada tingkat signifikansi 5%! Penyelesaian dengan STATCAL Input data Tabel 8.7 dalam STATCAL seperti pada Gambar 8.26. Gambar 8.26 Input Data Numerik Akan dibuat grafik sebaran data berdasarkan tinggi badan dan berat badan. Pilih menu Graph => Scatter Plot (Gambar 8.27). Selanjutnya pilih Scatter Plot-I (Gambar 8.28). Pada kotak Choose Numeric Variable (Single Choice) (X-Axis), pindahkan variabel tinggi ke kotak sebelah kanan (Gambar 8.28). Sementara pada kotak Choose Numeric Variable (Single Choice) (Y-Axis), pindahkan variabel berat ke kotak sebelah kanan (Gambar 8.28). Grafik sebaran data dapat dilihat pada bagian Result (Gambar 8.29).
104 Gambar 8.27 Menu Scatter Plot Gambar 8.28 Scatter Plot-I Gambar 8.29 Grafik Sebaran Data antara Tinggi dan Berat
105 Gambar 8.29 merupakan sebaran data antara tinggi dan berat. Terlihat bahwa sebaran data cenderung menyebar dari kiri bawah ke kanan atas. Terdapat kecenderungan, semakin meningkat tinggi badan, berat badan juga cenderung meningkat. Dengan kata lain tinggi dan berat berkorelasi positif. Selanjutnya akan dihitung nilai korelasi linear Pearson dan korelasi Spearman untuk mengukur keeratan hubungan antara tinggi dan berat. Pilih Statistics => Pearson and Spearman Correlation (Gambar 8.30). Perhatikan Gambar 8.31. Pada kotak Choose Numeric Variable (Single Choice) (X-Axis), pindahkan variabel tinggi ke kotak sebelah kanan. Sementara pada kotak Choose Numeric Variable (Single Choice) (Y-Axis), pindahkan variabel berat ke kotak sebelah kanan. Gambar 8.30 Menu Korelasi Pearson dan Spearman Gambar 8.31 Pearson and Spearman Correlation
106 Gambar 8.32 dan Gambar 8.33 disajikan hasil dari korelasi linear Pearson dan korelasi Spearman. Berdasarkan Gambar 8.32, diketahui nilai korelasi linear Pearson 0,7967. Diketahui nilai korelasi linear Pearson bernilai positif, dengan kata lain tinggi dan berat berkorelasi positif. Terdapat kecenderungan, semakin meningkat tinggi badan, berat badan juga cenderung meningkat. Begitu juga nilai korelasi Spearman bernilai positif, yakni 0,4319. Gambar 8.32 Hasil Korelasi Linear Pearson Gambar 8.33 Hasil Korelasi Spearman Diketahui Nilai korelasi linear Pearson antara tinggi dan berat adalah 0,7967, yang mana > 0,5, maka tinggi dan berat berkorelasi kuat (Andy Field, 2009:170). Gambar 8.34 disajikan hasil uji asumsi normalitas dengan menggunakan uji Kolmogorov-Smirnov. Diketahui nilai pvalue pada tinggi adalah 0,0007 < tingkat signifikansi 0,05, maka asumsi normalitas untuk data tinggi tidak dipenuhi. Begitu juga nilai p-value pada berat adalah 0,0007 < tingkat signifikansi 0,05, maka asumsi normalitas untuk data berat tidak dipenuhi.
107 Gambar 8.34 Uji Asumsi Normalitas dengan Uji Kolmogorov-Smirnov Meskipun asumsi normalitas tidak dipenuhi, uji signifikansi tetap dapat digunakan korelasi linear Pearson dikarenakan jumlah sampel masing-masing dipandang cukup besar, yakni 40 (lebih dari 30) (Murray R. Spiegel dan Larry J. Stephens, 2008:275-276). Hal ini karena ketika ukuran sampel besar, berdasarkan perluasan dari Teorema Limit Sentral (extended Central Limit Theorem) menyatakan distribusi sampling dari statistik korelasi linear Pearson akan mendekati normal. Dan juga distribusi akan mendekati distribusi normal ketika derajat bebas dari distribusi semakin besar. Perhatikan hasil uji signifikansi korelasi linear Pearson pada Gambar 8.32. Diketahui nilai pvalue adalah 0,000 < tingkat signifikansi 0,05, maka tinggi dan berat berkorelasi signifikan, pada tingkat signifikansi 5%. Penyelesaian dengan SPSS Pertama, input data Tabel 8.7 dalam SPSS seperti pada Gambar 8.35. Selanjutnya pilih Analyze => Correlate => Bivariate (Gambar 8.36). Perhatikan Gambar 8.37. Pindahkan ke kotak sebelah kanan untuk variabel berat dan tinggi. Pilih Pearson dan Spearman. Pilih OK. Nilai korelasi linear Pearson dan Spearman diperlihatkan pada Tabel 8.8 dan Tabel 8.9.
108 Gambar 8.35 Input Data dalam SPSS Gambar 8.36 Menu Korelasi Linear Pearson dan Spearman Gambar 8.37 Bivariate Correlations
109 Tabel 8.8 Korelasi Linear Pearson berdasarkan SPSS Correlations Berat Tinggi Berat Pearson Correlation 1 .797** Sig. (2-tailed) .000 N 40 40 Tinggi Pearson Correlation .797** 1 Sig. (2-tailed) .000 N 40 40 **. Correlation is significant at the 0.01 level (2-tailed). Tabel 8.9 Korelasi Spearman berdasarkan SPSS Correlations Berat Tinggi Spearman's rho Berat Correlation Coefficient 1.000 .432** Sig. (2-tailed) . .005 N 40 40 Tinggi Correlation Coefficient .432** 1.000 Sig. (2-tailed) .005 . N 40 40 **. Correlation is significant at the 0.01 level (2-tailed). Berdasarkan Tabel 8.8 diketahui nilai korelasi linear Pearson adalah 0,797, dengan nilai pvalue 0,000. Nilai korelasi Spearman berdasarkan Tabel 8.9 adalah 0,432, dengan nilai pvalue 0,005. Untuk melakukan uji asumsi normalitas dalam SPSS dengan menggunakan uji Kolmogorov-Smirnov, pilih Analyze => Nonparametric Tests => 1-Sample K-S (Gambar 8.38), sehingga muncul kotak One-Sample Kolmogorov-Smirnov Test (Gambar 8.38). Pindahkan variabel berat dan tinggi ke kotak sebelah kanan. Pada Test Distribution pilih Normal. Kemudian OK. Hasil dari uji normalitas diperlihatkan pada Tabel 8.10 dan Gambar 8.40. Diketahui nilai p-value (Asymp. Sig. (2-tailed)) untuk variabel berat adalah 0,001 atau 0,00065049774 atau bisa dibulatkan 0,0007 (Gambar 8.40).
110 Gambar 8.38 Menu Uji Kolmogorov-Smirnov Gambar 8.39 One-Sample Kolmogorov-Smirnov Test Tabel 8.10 Hasil Uji Asumsi Normalitas dengan Uji Kolmogorov-Smirnov One-Sample Kolmogorov-Smirnov Test Berat Tinggi N 40 40 Normal Parametersa,,b Mean 55.7670 155.9170 Std. Deviation 10.50144 10.57178 Most Extreme Differences Absolute .317 .314 Positive .317 .314 Negative -.259 -.198 Kolmogorov-Smirnov Z 2.004 1.987 Asymp. Sig. (2-tailed) .001 .001 a. Test distribution is Normal. b. Calculated from data.
111 Gambar 8.40 Hasil Uji Asumsi Normalitas dengan Uji Kolmogorov-Smirnov Penyelesaian dengan Minitab Pertama, input data Tabel 8.7 dalam Minitab seperti pada Gambar 8.41. Selanjutnya pilih Stat => Basic Statistics => Correlation (Gambar 8.42), sehingga muncul kotak Correlation (Gambar 7.43). Gambar 8.41 Input Data dalam SPSS Gambar 8.42 Menu Korelasi Linear Pearson
112 Gambar 8.43 Korelasi Linear Pearson Pada Gambar 8.43, pindahkan variabel tinggi dan berat ke kotak sebelah kanan, yakni kotak Variables. Kemudian pilih OK. Hasil korelasi linear Pearson dapat dilihat pada Gambar 8.44. Diketahui nilai korelasi linear Pearson adalah 0,797 dengan P-Value 0,000. Gambar 8.44 Korelasi Linear Pearson dengan Minitab
113 BAB 9 ANALISIS VARIANS & UJI KRUSKAL-WALLIS 9.1 Contoh Data dan Contoh Kasus dari Analisis Varians dan Uji Kruskal-Wallis Misalkan diberikan data indeks prestasi kumulatif (IPK) dari 24 mahasiswa yang terdiri dari: 8 mahasiswa jurusan matematika. 8 mahasiswa jurusan akuntansi. 8 mahasiswa jurusan kedokteran. Data disajikan pada Tabel 9.1. Tabel 9.1 Data IPK (Contoh Data) Jurusan Matematika Jurusan Akuntansi Jurusan Kedokteran Nama IPK Nama IPK Nama IPK Andi 3.12 Dedi 3.12 Fitri 3.12 Aan 3.18 Rini 2.89 Fani 3.11 Ani 3.22 Dani 3.12 Weni 2.87 Ugi 3.12 Sasa 3.11 Wiwid 2.98 Egi 3.16 Duna 3.13 Tari 3.42 Edi 3.17 Dini 2.94 Tini 3.76 Ulan 3.21 Disa 3.86 Abdel 2.78 Sura 3.04 Riris 3.12 Dama 3.45 Rata-Rata 3.168571 3.167143 3.148571 Data pada Tabel 9.1 bisa juga disajikan seperti pada Tabel 9.2. Tabel 9.2 Data IPK (Contoh Data) No Nama IPK Jurusan 1 Andi 3.12 1 2 Aan 3.18 1 3 Ani 3.22 1 4 Ugi 3.12 1
114 5 Egi 3.16 1 6 Edi 3.17 1 7 Ulan 3.21 1 8 Sura 3.04 1 9 Dedi 3.12 2 10 Rini 2.89 2 11 Dani 3.12 2 12 Sasa 3.11 2 13 Duna 3.13 2 14 Dini 2.94 2 15 Disa 3.86 2 16 Riris 3.12 2 17 Fitri 3.12 3 18 Fani 3.11 3 19 Weni 2.87 3 20 Wiwid 2.98 3 21 Tari 3.42 3 22 Tini 3.76 3 23 Abdel 2.78 3 24 Dama 3.45 3 Berdasarkan data pada Tabel 9.2, diketahui: Terdapat 2 variabel, yakni variabel IPK dan variabel jurusan. Pada variabel jurusan, angka 1 menyatakan jurusan matematika, angka 2 menyatakan jurusan akuntansi dan angka menyatakan kedokteran. Variabel IPK berjenis rasio atau numerik, sementara variabel jurusan berjenis kategori (nominal). Terdapat 3 sampel independen, yakni (1) sampel IPK jurusan matematika, (2) sampel IPK jurusan akuntansi dan (3) sampel IPK jurusan kedokteran. Sebagai contoh mahasiswa dengan nama Ugi dari jurusan matematika memiliki IPK 3.12, mahasiswa dengan nama Dama dari jurusan kedokteran memiliki IPK 3.45, dan seterusnya. Secara rata-rata, IPK pada jurusan matematika paling tinggi, yakni 3.168, disusul jurusan akuntansi 3.167 dan jurusan kedokteran 3.148.
115 Menurut Anda, apakah terdapat perbedaan rata-rata IPK yang signifikan di antara ketiga jurusan tersebut? Alat statistika analisis varians atau uji Kruskal-Wallis dapat digunakan untuk menguji apakah terdapat perbedaan IPK yang signifikan berdasarkan ketiga jurusan tersebut. Data pada Tabel 9.2 jika disajikan ke dalam SPSS seperti pada Gambar 9.1. Gambar 9.1 Data pada Tabel 9.2 Diinput dalam SPSS 9.2 Beberapa Kutipan Isi Buku Mengenai Analisis Varians dan Uji Kruskal-Wallis Prem S. Mann (2013:569) dalam bukunya yang berjudul “Introductory Statistics, 8th Edition” menyatakan sebagai berikut. “As mentioned in the beginning of this chapter, the analysis of variance procedure is used to test the null hypothesis that the means of three or more populations are the same against the alternative hypothesis that not all population means are the same. The analysis of variance procedure can be used to compare two population means. However, the procedures learned in Chapter 10 are more efficient for performing tests of hypotheses about the difference between two population means; the analysis of variance procedure is used to compare three or more population means.
116 The ANOVA, short for analysis of variance, provides such a procedure. It is used to compare three or more population means in a single test. Note that if the null hypothesis is rejected, it does not necessarily imply that all three of the means are different or unequal. It could imply that one mean is different from the other two means, or that all three means are different, or that two means are significantly different from each other, but neither is significantly different from the third mean. ANOVA is a procedure that is used to test the null hypothesis that the means of three or more populations are all equal.” Prem S. Mann (2013:570) dalam bukunya yang berjudul “Introductory Statistics, 8th Edition” menyatakan sebagai berikut. “Assumptions of One-Way ANOVA The following assumptions must hold true to use one-way ANOVA. 1. The populations from which the samples are drawn are (approximately) normally distributed. 2. The populations from which the samples are drawn have the same variance (or standard deviation). 3. The samples drawn from different populations are random and independent.” Andy Field (2009:348-349) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “If we wanted to compare these three situations we couldn’t use a t-test because there are more than two conditions.1 However, this chapter tells us all about the statistical models that we use to analyse situations in which we want to compare more than two conditions: analysis of variance (or ANOVA to its friends). This chapter will begin by explaining the theory of ANOVA when different participants are used (independent ANOVA). We’ll then look at how to carry out the analysis on SPSS and interpret the results.” Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “The assumptions under which the F statistic is reliable are the same as for all parametric tests based on the normal distribution (see section 5.2). That is, the variances in each experimental condition need to be fairly similar, observations should be independent and the dependent variable should be measured on at least an interval scale. In terms of normality, what matters is that distributions within groups are normally distributed. You often hear people say ‘ANOVA is a robust test’, which means that it doesn’t matter much if we break the assumptions of the test: the F will still be accurate. There is some truth to this statement, but it is also an oversimplification of the situation. …This evidence suggests that when group sizes are equal the F-statistic can be quite robust to violations of normality. However, when group sizes are not equal the accuracy of F is affected by skew, and non-normality also affects the power of F in quite unpredictable ways (Wilcox, 2005). One situation that Wilcox describes shows that when means are equal the error rate (which should be 5%) can be as high as 18%. If you make the differences between means bigger you should find that power increases, but actually he found that initially power decreased (although it increased when he made the group differences bigger still). As such F can be biased when normality is violated.”
117 Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “In terms of violations of the assumption of homogeneity of variance, ANOVA is fairly robust in terms of the error rate when sample sizes are equal. However, when sample sizes are unequal, ANOVA is not robust to violations of homogeneity of variance (this is why earlier on I said it’s worth trying to collect equal-sized samples of data across conditions!). Problems resulting from violations of homogeneity of variance assumption can be corrected (see Jane Superbrain Box 10.2).” Andy Field (2009:372-373) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “Post hoc tests consist of pairwise comparisons that are designed to compare all different combinations of the treatment groups. So, it is rather like taking every pair of groups and then performing a t-test on each pair of groups. Now, this might seem like a particularly stupid thing to say (but then again, I am particularly stupid) in the light of what I have already told you about the problems of inflated familywise error rates. However, pairwise comparisons control the familywise error by correcting the level of significance for each test such that the overall Type I error rate (α) across all comparisons remains at .05. There are several ways in which the familywise error rate can be controlled. The most popular (and easiest) way is to divide α by the number of comparisons, thus ensuring that the cumulative Type I error is below .05. Therefore, if we conduct 10 tests, we use .005 as our criterion for significance. This method is known as the Bonferroni correction.” Andy Field (2009:374) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “10.2.12.2. Post hoc procedures and violations of test assumptions Most research on post hoc tests has looked at whether the test performs well when the group sizes are different (an unbalanced design), when the population variances are very different, and when data are not normally distributed. The good news is that most multiple comparison procedures perform relatively well under small deviations from normality. The bad news is that they perform badly when group sizes are unequal and when population variances are different. There are several multiple comparison procedures that have been specially designed for situations in which population variances differ. SPSS provides four options for this situation: Tamhane’s T2, Dunnett’s T3, Games– Howell and Dunnett’s C. Tamhane’s T2 is conservative and Dunnett’s T3 and C keep very tight Type I error control. The Games–Howell procedure is the most powerful but can be liberal when sample sizes are small. However, Games–Howell is also accurate when sample sizes are unequal.” Andy Field (2009:375) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “After an ANOVA you need a further analysis to find out which groups differ. When you have no specific hypotheses before the experiment use post hoc tests. When you have equal sample sizes and group variances are similar use REGWQ or Tukey. If you want guaranteed control over the Type I error rate then use Bonferroni. If sample sizes are slightly different then use Gabriel’s, but if sample sizes are very different use Hochberg’s GT2. If there is any doubt that group variances are equal then use the Games–Howell procedure.”
118 Andy Field (2009:388) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “The one-way independent ANOVA compares several means, when those means have come from different groups of people. For example; if you have several experimental conditions and have used different participants in each condition. When you have generated specific hypotheses before the experiment use planned comparisons, but if you don’t have specific hypotheses use post hoc tests. There are lots of different post hoc tests: when you have equal sample sizes and homogeneity of variance is met use REGWQ or Tukey’s HSD. If sample sizes are slightly different then use Gabriel’s procedure, but if sample sizes are very different use Hochberg’s GT2. If there is any doubt about homogeneity of variance use the Games–Howell procedure. Test for homogeneity of variance using Levene’s test. Find the table with this label: if the value in the column labelled Sig. is less than .05 then the assumption is violated. If this is the case go to the table labelled Robust Tests of Equality of Means. If homogeneity of variance has been met (the significance of Levene’s test is greater than .05) go to the table labelled ANOVA. In the table labelled ANOVA (or Robust Tests of Equality of Means – see above), look at the column labelled Sig. if the value is less than .05 then the means of the groups are significantly different. For contrasts and post hoc tests, again look to the columns labelled Sig. to discover if your comparisons are significant (they will be if the significance value is less than .05).” Andy Field (2009:379) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “If the homogeneity of variance assumption is broken, then SPSS offers us two alternative versions of the Fratio: the Brown–Forsythe F (1974), and Welch’s F (1951). If you’re really bored, these two statistics are discussed in Jane Superbrain Box 10.2, but suffice it to say they’re worth selecting just in case the assumption is broken.” Paul H. Kvam dan Brani Vidakociv (2007:141-142) dalam bukunya yang berjudul “Nonparametric Statistics with Applications to Science and Engineering” menyatakan sebagai berikut. “The Kruskal-Wallis (KW) test is a logical extension of the Wilcoxon-Mann-Whitney test. It is a nonparametric test used to compare three or more samples. It is used to test the null hypothesis that all populations have identical distribution functions against the alternative hypothesis that at least two of the samples differ only with respect to location (median), if at all. The KW test is the analogue to the F-test used in the one-way ANOVA. While analysis of variance tests depend on the assumption that all populations under comparison are independent and normally distributed, the Kruskal-Wallis test places no such restriction on the comparison.”
119 Murray R. Spiegel dan Larry J. Stephens (2008:448) dalam bukunya yang berjudul "Statistics, Fourth Edition" menyatakan sebagai berikut. “The test is a nonparametric test for deciding whether or not two samples come from the same population. A generalization of this for samples is provided by the Kruskal–Wallis test, or briefly the test. This test may be described thus: Suppose that we have samples of sizes 1 , 2 , … , , with the total size of all samples taken together being given by = 1 + 2 + ⋯ + . Suppose further that the data from all the samples taken together are ranked and that the sums of the ranks for the samples are 1 , 2 , … , , respectively. If we define the statistic = 12 ( + 1)∑ 2 − 3( + 1) =1 then it can be shown that the sampling distribution of is very nearly a chi-square distribution with − 1 degrees of freedom, provided that 1 , 2 , … , are all at least 5. The test provides a nonparametric method in the analysis of variance for one-way classification, or one-factor experiments, and generalizations can be made.” Andy Field (2009:565) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “Post hoc tests for the Kruskal–Wallis test There are two ways to do non-parametric post hoc procedures, the first being to use Mann–Whitney tests (section 15.3). However, if we use lots of Mann–Whitney tests we will inflate the Type I error rate (section 10.2.1) and this is precisely why we don’t begin by doing lots of Mann–Whitney tests! However, if we want to use lots of Mann–Whitney tests to follow up a Kruskal–Wallis test, we can if we make some kind of adjustment to ensure that the Type I errors don’t build up to more than .05. The easiest method is to use a Bonferroni correction, which in its simplest form just means that instead of using .05 as the critical value for significance for each test, you use a critical value of .05 divided by the number of tests you’ve conducted. If you do this, you’ll soon discover that you quickly end up using a critical value for significance that is so small that it is very restrictive. Therefore, it’s a good idea to be selective about the comparisons you make. In this example, we have a control group which had no soya meals. As such, a nice succinct set of comparisons would be to compare each group against the control: Test 1: one soya meal per week compared to no soya meals Test 2: four soya meals per week compared to no soya meals Test 3: seven soya meals per week compared to no soya meals This results in three tests, so rather than use .05 as our critical level of significance, we’d use .05/3 = .0167. If we didn’t use focused tests and just compared all groups to all other groups we’d end up with six tests rather than three (no soya vs. 1 meal, no soya vs. 4 meals, no soya vs. 7 meals, 1 meal vs. 4 meals, 1 meal vs. 7 meals, 4 meals vs. 7 meals), meaning that our critical value would fall to .05/6 = .0083.”
120 Andy Field (2009:572) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “The Kruskal–Wallis test compares several conditions when different participants take part in each condition and the resulting data violate an assumption of one-way independent ANOVA. Look at the row labelled Asymp. Sig. If the value is less than .05 then the groups are significantly different. You can follow up the main analysis with Mann–Whitney tests between pairs of conditions, but only accept them as significant if they’re significant below .05/number of tests. If you predict that the means will increase or decrease across your groups in a certain order then do Jonckheere’s trend test. Report the H statistic, the degrees of freedom and the significance value for the main analysis. For any post hoc tests, report the U statistic and an effect size if possible (you can also report the corresponding z and the significance value). Also report the medians and their corresponding ranges (or draw a boxplot).” 9.3 Analisis Varians dan Uji Kruskal-Wallis Berdasarkan uraian pada Bagian 2, maka dapat ditarik informasi sebagai berikut. Analisis varians merupakan suatu uji statistika yang digunakan untuk menguji apakah terdapat perbedaan rata-rata yang signifikan berdasarkan 3 atau lebih populasi. Analisis varians juga dapat digunakan untuk menguji rata-rata dari dua populasi. Namun untuk menguji rata-rata dari dua populasi, lebih efisien menggunakan uji t 2 sampel independen (Prem S. Mann, 2013:569). Gio dan Elly (2015:282) Analisis varians bersifat uji global (global test), yakni hanya mendeteksi apakah terdapat perbedaan rata-rata di antara populasi-populasi atau tidak, namun tidak dapat menentukan pasangan rata-rata populasi mana saja yang berbeda nyata secara statistika. Untuk menentukan pasangan rata-rata populasi mana saja yang berbeda nyata secara statistika, maka digunakan uji perbandingan berganda (multiple comparison test). Pada uji perbandingan berganda, dapat digunakan uji Tukey HSD (honestly significance difference), uji Bonferroni, uji LSD (least square difference), uji jarak Duncan (Duncan multiple range test), dan sebagainya.
121 9.4 Asumsi Normalitas dan Kesamaan Varians pada Analisis Varians Prem S. Mann (2013:570) pada analisis varians dikenai asumsi normalitas, yakni sampelsampel yang diperoleh berasal dari populasi-populasi yang berdistribusi normal. Pada analisis varians dengan jumlah elemen dari masing-masing kelompok sama (group sizes are equal), masih memberikan hasil yang akurat, ketika terjadi pelanggaran asumsi normalitas. Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “…This evidence suggests that when group sizes are equal the F-statistic can be quite robust to violations of normality.” Meskipun demikian terdapat metode alternatif lain (nonparametrik), yakni uji Kruskal-Wallis, sebagai pendekatan nonparametrik. Pada uji Kruskal-Wallis tidak dikenai asumsi normalitas dan kesamaan varians. Paul H. Kvam dan Brani Vidakociv (2007:141-142) dalam bukunya yang berjudul “Nonparametric Statistics with Applications to Science and Engineering” menyatakan sebagai berikut. “The KW test is the analogue to the F-test used in the one-way ANOVA. While analysis of variance tests depend on the assumption that all populations under comparison are independent and normally distributed, the Kruskal-Wallis test places no such restriction on the comparison.” Selain asumsi normalitas, terdapat asumsi kesamaan varians, yakni varians populasi untuk masing-masing populasi sama. Untuk menguji asumsi kesamaan varians, dapat digunakan uji Levene. Pada analisis varians dengan jumlah elemen dari masing-masing kelompok sama (group sizes are equal), masih memberikan hasil yang akurat, ketika terjadi pelanggaran asumsi kesamaan varians. Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “In terms of violations of the assumption of homogeneity of variance, ANOVA is fairly robust in terms of the error rate when sample sizes are equal. However, when sample sizes are unequal, ANOVA is not robust to violations of homogeneity of variance (this is why earlier on I said it’s worth trying to collect equal-sized samples of data across conditions!).”
122 Andy Field (2009:379-380) menyatakan sebagai berikut. “If the homogeneity of variance assumption is broken, then SPSS offers us two alternative versions of the Fratio: the Brown–Forsythe F (1974), and Welch’s F (1951). In section 10.2.10 I mentioned that when group sizes are unequal, violations of the assumption of homogeneity of variance can have quite serious consequences. SPSS incorporates options for two alternative F-ratios, which have been derived to be robust when homogeneity of variance has been violated. The first is the Brown and Forsythe (1974) F-ratio, which is fairly easy to explain.” Berdasarkan uraian di atas, ketika terjadi pelanggaran asumsi kesamaan varians dalam keadaan ukuran sampel berbeda (group sizes are unequal), dapat melihat nilai statistik F versi Brown–Forsythe F (1974) dan Welch’s F (1951). 9.5 Uji Perbandingan Berganda (Multiple Comparison Test) Gio dan Elly (2015:282) untuk menentukan pasangan rata-rata populasi mana saja yang berbeda nyata secara statistika, maka digunakan uji perbandingan berganda (multiple comparison test). Pada uji perbandingan berganda, dapat digunakan uji Tukey HSD (honestly significance difference), uji Bonferroni, uji LSD (least square difference), uji jarak Duncan (Duncan multiple range test), dan sebagainya. Andy Field (2009:374) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “10.2.12.2. Post hoc procedures and violations of test assumptions Most research on post hoc tests has looked at whether the test performs well when the group sizes are different (an unbalanced design), when the population variances are very different, and when data are not normally distributed. The good news is that most multiple comparison procedures perform relatively well under small deviations from normality. The bad news is that they perform badly when group sizes are unequal and when population variances are different.” Andy Field (2009:374) menyatakan berbagai metode dari uji perbandingan berganda dapat bekerja dengan baik (tetap memberikan hasil yang akurat), ketika terjadi sedikit penyimpangan ketidaknormalan (small deviations from normality). Andy Field (2009:375) memberikan rekomendasi penggunaan uji perbandingan berganda sebagai berikut.
123 Ketika Anda memiliki ukuran sampel yang sama untuk setiap kelompok dan juga asumsi kesamaan varians dipenuhi, maka gunakan uji REGWQ atau uji Tukey. Ketika ukuran sampel sedikit berbeda, maka gunakan uji Gabriel’s, namun ketika ukuran sampel sangat berbeda, maka gunakan uji Hochberg’s GT2. Ketika asumsi kesamaan varians populasi tidak dipenuhi, maka gunakan uji GamesHowel. 9.6 Contoh Kasus Penyelesaian dengan SPSS (Analisis Varians) Input data Tabel 9.2 dalam SPSS seperti pada Gambar 9.1. Pertama kita akan melakukan uji asumsi normalitas untuk ketiga sampel (sampel IPK matematika, akuntansi dan kedokteran). Uji Shapiro-Wilk digunakan untuk menguji asumsi normalitas. Pilih Analyze -> Descrpitive Statistics => Explore (Gambar 9.2). Gambar 9.2 Pada Gambar 9.3, pindahkan IPK ke kotak Dependent List dan Jurusan ke kotak Factor List. Kemudian pilih Plots.
124 Gambar 9.3 Pada Gambar 9.4, pilih Normality plots with tests. Gambar 9.4 Selanjutnya pilih Continue dan OK. Hasil uji asumsi normalitas dengan uji Shapiro-Wilk diperlihatkan pada Tabel 9.3.
125 Tabel 9.3 Hasil Uji Asumsi Normalitas dengan Uji Shapiro-Wilk Tests of Normality Jurusan Kolmogorov-Smirnova Shapiro-Wilk Statistic df Sig. Statistic df Sig. IPK Matematika .176 8 .200* .928 8 .497 Akuntansi .417 8 .000 .679 8 .001 Kedokteran .204 8 .200* .946 8 .669 a. Lilliefors Significance Correction *. This is a lower bound of the true significance. Berdasarkan hasil uji asumsi normalitas pada Tabel 9.3, diketahui asumsi normalitas tidak dipenuhi pada data IPK akuntansi, yakni Sig. 0,001 < tingkat signifikansi 0,05. Meskipun demikian, analisis varians tetap dapat digunakan dikarenakan pada analisis varians masih memberikan hasil yang valid, ketika terjadi pelanggaran asumsi normalitas (Andy Field, 2009:359-360). Berikut langkah-langkah untuk melakukan analisis varians. Pilih Analyze => Compare Means => One-Way ANOVA (Gambar 9.5). Gambar 9.5 Pada Gambar 9.6, masukkan variabel IPK ke kotak Dependent List, sementara masukkan variabel Jurusan ke kotak Factor. Kemudian pilih Post Hoc.
126 Gambar 9.6 Pada Gambar 9.7, pilih Tukey dan Games-Howell. Selanjutnya pilih Continue. Pilih Options. Gambar 9.7 Pada Gambar 9.8, pilih Descriptive, Homogeneity of variance test dan Means plot. Selanjutnya pilih Continue dan OK.
127 Gambar 9.8 Tabel 9.4 menyajikan berbagai ukuran deskriptif, seperti rata-rata (mean), standar deviasi (standard deviation), dan sebagainya. Diketahui nilai minimum IPK dari jurusan matematika adalah 3,04, sementara nilai maksimumnya 3,22. Rata-rata IPK dari jurusan matematika adalah 3,1525, dengan standar deviasi 0,05825. Tabel 9.4 Statistik Deskriptif Descriptives IPK N Mean Std. Deviation Std. Error 95% Confidence Interval for Mean Lower Bound Upper Bound Minimum Maximum Matematika 8 3.1525 .05825 .02059 3.1038 3.2012 3.04 3.22 Akuntansi 8 3.1613 .29749 .10518 2.9125 3.4100 2.89 3.86 Kedokteran 8 3.1863 .33192 .11735 2.9088 3.4637 2.78 3.76 Total 24 3.1667 .24842 .05071 3.0618 3.2716 2.78 3.86
128 Gambar 9.9 Grafik Rata-Rata IPK berdasarkan Jurusan Matematika, Akuntansi dan Kedokteran Gambar 9.9 disajikan grafik rata-rata IPK berdasarkan jurusan matematika, akuntansi dan kedokteran. Diketahui secara rata-rata IPK paling tinggi pada jurusan kedokteran, yakni dengan rata-rata 3,1863. Kemudian disusul dari jurusan akuntansi, dengan rata-rata 3,1613 dan terakhir dari jurusan matematika, yakni dengan nilai rata-rata 3,1525. Menurut Anda, apakah terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut? Menurut/berdasarkan uji statistika analisis varians, apakah terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut, pada tingkat signifikansi 5%?
129 Tabel 9.5 Asumsi Kesamaan Varians (Uji Levene) Test of Homogeneity of Variances IPK Levene Statistic df1 df2 Sig. 3.644 2 21 .044 Tabel 9.5 disajikan hasil uji asumsi kesamaan varians dengan menggunakan uji Levene. Diketahui nilai Sig. adalah 0,044 < tingkat signifikansi 0,05, maka asumsi kesamaan varians tidak dipenuhi. Pada analisis varians dengan jumlah elemen dari masing-masing kelompok sama (group sizes are equal), masih memberikan hasil yang akurat, ketika terjadi pelanggaran asumsi kesamaan varians. Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “In terms of violations of the assumption of homogeneity of variance, ANOVA is fairly robust in terms of the error rate when sample sizes are equal. However, when sample sizes are unequal, ANOVA is not robust to violations of homogeneity of variance (this is why earlier on I said it’s worth trying to collect equal-sized samples of data across conditions!).” Tabel 9.6 Hasil Analisis Varians ANOVA IPK Sum of Squares df Mean Square F Sig. Between Groups .005 2 .002 .036 .964 Within Groups 1.414 21 .067 Total 1.419 23 Tabel 9.6 merupakan hasil dari analisis varians. Diketahui nilai Sig. 0,964 > tingkat signifikansi 0,05, maka tidak terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut, pada tingkat signifikansi 5%, dan pengujian perbandingan berganda (Multiple Comparisons) seharusnya tidak dilakukan (berhenti sampai pada analisis varians saja). Namun sebagai contoh untuk ilustrasi, berikut disajikan hasil dari uji perbandingan berganda dengan menggunakan uji Tukey dan Games-Howell (Tabel 9.7).
130 Tabel 9.7 Hasil Uji Tukey dan Games-Howell Multiple Comparisons Dependent Variable:IPK (I) Jurusan (J) Jurusan Mean Difference (I-J) Std. Error Sig. 95% Confidence Interval Lower Bound Upper Bound Tukey HSD Matematika Akuntansi -.00875 .12976 .997 -.3358 .3183 Kedokteran -.03375 .12976 .963 -.3608 .2933 Akuntansi Matematika .00875 .12976 .997 -.3183 .3358 Kedokteran -.02500 .12976 .980 -.3521 .3021 Kedokteran Matematika .03375 .12976 .963 -.2933 .3608 Akuntansi .02500 .12976 .980 -.3021 .3521 Games-Howell Matematika Akuntansi -.00875 .10717 .996 -.3190 .3015 Kedokteran -.03375 .11914 .957 -.3797 .3122 Akuntansi Matematika .00875 .10717 .996 -.3015 .3190 Kedokteran -.02500 .15759 .986 -.4380 .3880 Kedokteran Matematika .03375 .11914 .957 -.3122 .3797 Akuntansi .02500 .15759 .986 -.3880 .4380 Pada Post Hoc Multiple Comparisonss, mengapa hanya dipilih Tukey dan Games-Howell? Alasannya adalah karena ukuran sampel dari masing-masing kelompok sama, yakni masingmasing sebanyak 8. Kemudian uji Tukey digunakan bilamana asumsi kesaman varians populasi dipenuhi, sementara uji Games-Howell digunakan bilamana asumsi kesamaan varians populasi tidak dipenuhi (Andy Field , 2009:374). Diketahui berdasarkan hasil uji kesamaan varians populasi dengan uji Levene sebelumnya, asumsi kesamaan varians populasi tidak dipenuhi, sehingga perhatikan hasil uji perbandingan berganda dengan menggunakan uji Games-Howell. Diketahui: Tidak terdapat perbedaan IPK yang signifikan antara jurusan matematika dan akuntansi (Sig. 0,996 > tingkat signifikansi 0,05). Tidak terdapat perbedaan IPK yang signifikan antara jurusan matematika dan kedokteran (Sig. 0,957 > tingkat signifikansi 0,05). Tidak terdapat perbedaan IPK yang signifikan antara jurusan akuntansi dan kedokteran (Sig. 0,986 > tingkat signifikansi 0,05).
131 9.7 Contoh Kasus Penyelesaian dengan SPSS (Uji Kruskal-Wallis) Uji Kruskal-Wallis merupakan metode alternatif dari analisis varians. Pada uji Kruskal-Wallis tidak dikenai asumsi normalitas dan kesamaan varians. Paul H. Kvam dan Brani Vidakociv (2007:141-142) dalam bukunya yang berjudul “Nonparametric Statistics with Applications to Science and Engineering” menyatakan sebagai berikut. “The KW test is the analogue to the F-test used in the one-way ANOVA. While analysis of variance tests depend on the assumption that all populations under comparison are independent and normally distributed, the Kruskal-Wallis test places no such restriction on the comparison.” Input data Tabel 9.2 dalam SPSS seperti pada Gambar 9.1. Pada Gambar 9.10, pilih Analyze => Nonparametric Tests => K Independent Samples. Gambar 9.10 Pada Gambar 9.11, pilih Kruskal-Wallis H. Kemudian pindahkan variabel IPK ke kotak Test Variable List, sementara pindahkan variabel Jurusan ke kotak Grouping Variable. Pilih Define Range, sehingga muncul kotak Several Independent Samples: Define Range. Pada kotak Minimum, isi dengan angka 1, sementara pada kotak Maximum, isi dengan angka 3
132 (Diketahui angka 1 menyatakan jurusan matematika, angka 2 menyatakan jurusan akuntansi dan angka 3 menyatakan jurusan kedokteran). Kemudian Continue dan OK. Gambar 9.11 Tabel 9.8 merupakan hasil berdasarkan uji Kruskal-Wallis. Berdasarkan hasil uji KruskalWallis, diketahui nilai Asymp. Sig. adalah 0,495 > tingkat signifikansi 0,05, maka tidak terdapat perbedaan IPK yang signifikan di antara jurusan matematika, akuntansi dan kedokteran, dan pengujian perbandingan berganda (Multiple Comparisons) seharusnya tidak dilakukan (berhenti sampai pada uji Kruskal-Wallis saja). Tabel 9.8 Hasil Uji Kruskal-Wallis Test Statisticsa,b IPK Chi-Square 1.407 df 2 Asymp. Sig. .495 a. Kruskal Wallis Test b. Grouping Variable: Jurusan
133 Namun sebagai contoh untuk ilustrasi, akan dilanjutkan ke pengujian perbandingan berganda. Selanjutnya akan diuji: Apakah terdapat perbedaan IPK yang signifikan antara jurusan matematika dan akuntansi? Apakah terdapat perbedaan IPK yang signifikan antara jurusan matematika dan kedokteran? Apakah terdapat perbedaan IPK yang signifikan antara jurusan akuntansi dan kedokteran? Pengujian dapat dilakukan dengan menggunakan uji Mann-Whitney (Andy Field, 2009:572). Berikut langkah-langkah untuk melakukan uji Mann-Whitney. Pilih Analyze => Nonparametric Tests => 2 Independent Samples (Gambar 9.12). Gambar 9.12
134 Pada Gambar 9.13, pilih Mann-Whitney U. Kemudian masukkan variabel IPK ke kotak Test Variable List dan variabel Jurusan ke kotak Grouping Variable. Pilih Define Groups, sehingga muncul kotak Two Independent Samples: Define Groups. Pada kotak Group 1, isi dengan angka 1, sementara pada kotak Group 2, isi dengan angka 2. Hal ini berarti IPK yang akan dibandingkan berdasarkan jurusan matematika dan akuntansi. Jika pada kotak Group 1, diisi dengan angka 2, sementara pada kotak Group 2, diisi dengan angka 3, maka IPK yang akan dibandingkan berdasarkan jurusan akuntansi dan kedokteran. Gambar 9.13 Selanjutnya pilih Continue dan OK. Berikut disajikan hasil uji Mann-Whitney antara: matematika v/s akuntansi, matematika v/s kedokteran, dan akuntansi v/s kedokteran.
135 Tabel 9.9 Hasil Uji Mann-Whitney antara IPK Matematika dan IPK Akuntansi Test Statisticsb IPK Mann-Whitney U 18.000 Wilcoxon W 54.000 Z -1.492 Asymp. Sig. (2-tailed) .136 Exact Sig. [2*(1-tailed Sig.)] .161a a. Not corrected for ties. b. Grouping Variable: Jurusan Tabel 9.10 Hasil Uji Mann-Whitney antara IPK Matematika dan IPK Kedokteran Test Statisticsb IPK Mann-Whitney U 27.000 Wilcoxon W 63.000 Z -.527 Asymp. Sig. (2-tailed) .598 Exact Sig. [2*(1-tailed Sig.)] .645a a. Not corrected for ties. b. Grouping Variable: Jurusan Tabel 9.11 Hasil Uji Mann-Whitney antara IPK Akuntansi dan IPK Kedokteran Test Statisticsb IPK Mann-Whitney U 30.000 Wilcoxon W 66.000 Z -.212 Asymp. Sig. (2-tailed) .832 Exact Sig. [2*(1-tailed Sig.)] .878a a. Not corrected for ties. b. Grouping Variable: Jurusan Andy Field (2009:572) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “The Kruskal–Wallis test compares several conditions when different participants take part in each condition and the resulting data violate an assumption of one-way independent ANOVA. Look at the row labelled Asymp. Sig. If the value is less than .05 then the groups are significantly different. You can follow up the main analysis with Mann–Whitney tests between pairs of conditions, but only accept them as significant if they’re significant below .05/number of tests.
136 Andy Field (2009:572) menyatakan uji Mann-Whitney dapat digunakan sebagai uji lanjutan dari uji Kruskal-Wallis, namun dengan sedikit melakukan koreksi terhadap tingkat signifikansi. Koreksi terhadap tingkat signifikansi yang akan diperbandingkan dihitung dengan rumus = ℎ = 0.05 3 = 0,0167 Sebagai contoh, diketahui: Tidak terdapat perbedaan IPK yang signifikan antara jurusan matematika dan akuntansi (Asymp. Sig. (2-tailed) 0,136 > tingkat signifikansi koreksi 0,0167). Tidak terdapat perbedaan IPK yang signifikan antara jurusan matematika dan kedokteran (Asymp. Sig. (2-tailed) 0,598 > tingkat signifikansi 0,05). Tidak terdapat perbedaan IPK yang signifikan antara jurusan akuntansi dan kedokteran (Asymp. Sig. (2-tailed) 0,832 > tingkat signifikansi 0,05). 9.8 Contoh Kasus Penyelesaian dengan STATCAL (Analisis Varians) Input data Tabel 9.2 dalam STATCAL seperti pada Gambar 9.14.
137 Gambar 9.14 Input Data dalam STATCAL Pada Gambar 9.15 pilih Statistics => Test of More than Two Populations. Gambar 9.15 Pada Gambar 9.16 pilih Analysis of Variance and Kruskal-Wallis. Pindahkan variabel IPK dan Jurusan ke kotak sebelah kanan. Hasilnya dapat dilihat pada bagian Result.
138 Gambar 9.16 Gambar 9.17 disajikan grafik garis rata-rata IPK berdasarkan jurusan matematika, akuntansi dan kedokteran. Diketahui secara rata-rata IPK paling tinggi pada jurusan kedokteran, yakni dengan rata-rata 3,1862. Kemudian disusul dari jurusan akuntansi, dengan rata-rata 3,1612 dan terakhir dari jurusan matematika, yakni dengan nilai rata-rata 3,1525. Menurut Anda, apakah terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut? Menurut/berdasarkan uji statistika analisis varians, apakah terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut, pada tingkat signifikansi 5%? Gambar 9.17 Grafik Garis Rata-Rata IPK berdasarkan Jurusan Matematika, Akuntansi dan Kedokteran
139 Gambar 9.18 disajikan grafik boxplot. Dari grafik boxplot tersebut, dapat dilihat sebaran data IPK berdasarkan jurusan matematika, akuntansi dan kedokteran. Pada data IPK jurusan akuntansi, terdapat beberapa titik berwarna merah. Titik-titik berwarna merah tersebut merupakan data ekstrim / outlier (menyebar cukup jauh dari rata-ratanya). Gambar 9.18 Grafik Boxplot Gambar 9.19 disajikan hasil uji asumsi normalitas dengan uji Kolmogorov-Smirnov. Berdasarkan hasil uji asumsi normalitas pada Gambar 9.19, diketahui asumsi normalitas dipenuhi untuk data IPK berdasarkan jurusan matematika, akuntansi dan kedokteran. Seluruh nilai P-Value of KS > 0,05. Gambar 9.19 Uji Asumsi Normalitas dengan Uji Kolmogorov-Smirnov
140 Gambar 9.20 Uji Asumsi Kesamaan Varians dengan Uji Levene Gambar 9.20 disajikan hasil uji asumsi kesamaan varians dengan menggunakan uji Levene. Diketahui nilai P-Value adalah 0,0438 < tingkat signifikansi 0,05, maka asumsi kesamaan varians tidak dipenuhi. Pada analisis varians dengan jumlah elemen dari masing-masing kelompok sama (group sizes are equal), masih memberikan hasil yang akurat, ketika terjadi pelanggaran asumsi kesamaan varians. Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “In terms of violations of the assumption of homogeneity of variance, ANOVA is fairly robust in terms of the error rate when sample sizes are equal. However, when sample sizes are unequal, ANOVA is not robust to violations of homogeneity of variance (this is why earlier on I said it’s worth trying to collect equal-sized samples of data across conditions!).” Gambar 9.21 Hasil Analisis Varians Gambar 9.21 merupakan hasil dari analisis varians. Diketahui: Nilai statistik F adalah 0,0364.
141 Nilai kritis F dengan derajat bebas numerator 2, derajat bebas denominator 21 dan tingkat signifikansi 5% adalah 3,4668. Oleh karena nilai statistik F 0,0364 < nilai kritis F 3,4668, maka tidak terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut, pada tingkat signifikansi 5%. Cara lain diketahui nilai P-Value 0,9643 > tingkat signifikansi 0,05, maka tidak terdapat perbedaan rata-rata IPK yang signifikan berdasarkan ketiga jurusan tersebut, pada tingkat signifikansi 5%, dan pengujian perbandingan berganda (Multiple Comparisons) seharusnya tidak dilakukan (berhenti sampai pada analisis varians saja). Gambar 9.22 Hasil Analisis Varians Gambar 9.22 juga merupakan hasil analisis varians (Robust Tests of Equality of Means), namun digunakan saat asumsi kesamaan varians tidak dipenuhi, dengan ukuran sampel berbeda-beda untuk tiap-tiap kelompok. Andy Field (2009:359-360) dalam bukunya yang berjudul “Discovering Statistics Using SPSS, 3rd Edition” menyatakan sebagai berikut. “In terms of violations of the assumption of homogeneity of variance, ANOVA is fairly robust in terms of the error rate when sample sizes are equal. However, when sample sizes are unequal, ANOVA is not robust to violations of homogeneity of variance (this is why earlier on I said it’s worth trying to collect equal-sized samples of data across conditions!).