Tabel 4. 2 Syntax Estimasi Parameter Regresi Linear Berganda
#import data
regresi_sederhana <- read_excel("C:/Users/Sisti Nadia Amalia/Downloads/regresi
berganda.xlsx")
View(regresi_berganda)
#install packages
install.packages('lmtest')
library(lmtest)
#syntax estimasi parameter regresi linear berganda
model<-lm(Y~X1+X2,regresi_berganda)
model
Tabel 4. 3 Output Estimasi Parameter Regresi Linear Berganda
Call:
lm(formula = Y ~ X1 + X2, data = regresi_berganda)
Coefficients:
(Intercept) X1 X2
0.759
2.417 1.210
Berdasarkan Tabel 4.3 di atas dapat dijelaskan bahwa jika semua variabel
bebas diikutkan ke dalam model maka didapat persamaan regresi yaitu:
̂ = 2,417 + 1,210 1 + 0,759 2
Tetapi model regresi diatas belum dapat dikatakan sebagai model regresi
terbaik. Untuk itu selain harus diidentifikasi terlebih dahulu perlu dilihat
apakah model tersebut diatas memenuhi asumsi klasik.
4.3 Uji Asumsi Klasik Regresi Berganda
Uji asumsi klasik yang umunya dilakukan pada analisis regresi linier
berganda yaitu : uji normalitas, uji heteroskedastisitas, uji autokorelasi dan
uji multikolinieritas. Pengujian asumsi tidak menggunakan dataset
melainkan menggunakan data residualnya. Hal ini yang harus dipahami
mengenai konsep dari uji asumsi klasik dan penggunaannya, sehingga
dalam aplikasi statistik yang digunakan akan menjadi tepat sasaran
penggunaannya.
43
a. Uji Asumsi Heteroskedastisitas
Salah satu asumsi klasik adalah uji heteroskedastisitas yaitu
asumsi yang menyatakan bahwa varian setiap sisaan ( ) masih tetap sama
baik untuk nilai-nilai pada variabel independen yang kecil maupun besar.
Untuk menguji heteroskedastisitas suatu data dapat menggunakan Uji
Park. Bentuk fungsi yang dianjurkan, yang merupakan hasil dari
transformasi. Yaitu :
̂ * = α + β * + β (4.5)
Perhitungan Transformasi data diperoleh sebagai berikut sebagai berikut
Tabel 4. 4 Perhitungan Uji Park
NO ei ei2 1 2 Ln [ei2] Ln [ 1] Ln [ 2]
1 -1.32951 1.767597 14.6 13.1 0.569621 2.681022 2.572612
2 1.19299 1.423225 11.3 9.9 0.352926 2.424803 2.292535
3 1.08949 1.186988 14.9 15.1 0.171419 2.701361 2.714695
4 0.18327 0.033588 12 11.3 -3.39359 2.484907 2.424803
5 1.07959 1.165515 9.5 6.2 0.153163 2.251292 1.824549
6 0.23402 0.054765 12.4 10.2 -2.9047 2.517696 2.322388
7 -1.49362 2.230901 10 13.8 0.802405 2.302585 2.624669
8 0.65008 0.422604 13.8 20.2 -0.86132 2.624669 3.005683
9 -1.24299 1.545024 12.3 4.4 0.43504 2.509599 1.481605
10 -0.88847 0.789379 10.4 15 -0.23651 2.341806 2.70805
11 0.55923 0.312738 10.5 15.7 -1.16239 2.351375 2.753661
12 -0.72745 0.529184 10.7 15.1 -0.63642 2.370244 2.714695
13 0.6305 0.39753 15.1 14.2 -0.92248 2.714695 2.653242
14 -0.18594 0.034574 8.8 13.2 -3.36466 2.174752 2.580217
15 -0.03011 0.000907 12.2 8.1 -7.0058 2.501436 2.091864
16 1.49862 2.245862 10.7 9.4 0.809089 2.370244 2.24071
17 -1.42654 2.035016 9.1 7.9 0.710504 2.208274 2.066863
18 -0.57104 0.326087 11.4 14.7 -1.12059 2.433613 2.687847
19 -0.42649 0.181894 10.9 10.3 -1.70433 2.388763 2.332144
20 -0.58085 0.337387 8.5 11.3 -1.08653 2.140066 2.424803
21 0.23603 0.05571 10 7.7 -2.88759 2.302585 2.04122
22 0.52485 0.275468 10.6 14.4 -1.28929 2.360854 2.667228
23 1.33304 1.776996 8.2 14 0.574924 2.104134 2.639057
24 1.44891 2.09934 8.8 12.1 0.741623 2.174752 2.493205
25 0.30276 0.091664 11.3 11.6 -2.38963 2.424803 2.451005
26 -0.1254 0.015725 14.3 14.1 -4.15249 2.66026 2.646175
27 -0.57822 0.334338 9.4 15 -1.0956 2.24071 2.70805
28 -0.09061 0.00821 11.6 9.4 -4.80238 2.451005 2.24071
29 -0.24952 0.06226 12.3 13.5 -2.77643 2.509599 2.60269
44
30 -0.98078 0.961929 11.2 14.9 -0.03881 2.415914 2.701361
31 -0.27612 0.076242 13.7 17.1 -2.57384 2.617396 2.839078
32 0.70893 0.502582 13.5 12.3 -0.688 2.60269 2.509599
33 0.88225 0.778365 13.3 11.6 -0.25056 2.587764 2.451005
34 0.24688 0.06095 11.4 12.7 -2.79771 2.433613 2.541602
35 -0.43467 0.188938 11.1 12.1 -1.66634 2.406945 2.493205
36 -0.8357 0.698394 14.6 11 -0.35897 2.681022 2.397895
37 -0.3274 0.107191 11.4 18.2 -2.23315 2.433613 2.901422
Tabel 4. 5 Syntax Uji Heteroskedastisitas
#read data
lne<-regresi_berganda$lnei2
lne
lnx1<-regresi_berganda$lnx1
lnx1
lnx2<-regresi_berganda$lnx2
lnx2
#syntax uji park
uji_park<-lm(lne~lnx1+lnx2)
summary(uji_park)
Tabel 4. 6 Output Uji Heteroskedastisitas
Call:
lm(formula = lne ~ lnx1 + lnx2)
Residuals:
Min 1Q Median 3Q Max
-5.453 - 1.065 0.165 1.381 2.349
Coefficients: Std. Error t value Pr(>|t|)
Estimate 4.7833 0.559 0.580
1.8481 -1.020 0.315
(Intercept) 2.6720 1.0127 0.231 0.818
lnx1 -1.8849
lnx2 0.2342
Residual standard error: 1.813 on 34 degrees of freedom
Multiple R-squared: 0.0298, Adjusted R-squared: -0.02727
F-statistic: 0.5222 on 2 and 34 DF, p-value: 0.5979
Maka diperoleh persamaan model regresi linear baru untuk Uji Park sebagai
berikut:
Ln(ei2) = 2,672 – 1,885 LnX1 +0,234 LnX2
45
Selanjutnya dilakukan pengujian koefisien regresi ini untuk mendeteksi ada
tidaknya pelanggaran asumsi homoskedastisitas.
Hipotesis Uji Heteroskedastisitas :
Ho : βi = 0 , tidak terdapat heteroskedastisitas pada data.
H1 : βi ≠ 0 , terdapat heteroskedastisitas pada data.
Kriteria pengujian :
Tolak Hipotesis Nol (H0) jika: t hitung>t tabel(α/2, n-3) atau–t hitung<t tabel (α/2, n-3)
Terima Hipotesis Nol (H0) jika: -t tabel (α/2, n-3) < t hitung < t tabel (α, n-3)
α : 5% maka t tabel adalah t(0.025,34) = 2,345
Kesimpulan :
Berdasarkan output statistik uji t student diperoleh nilai -thitung untuk variabel
ln (X1) sebesar -1,02 ternyata lebih besar dibandingkan dengan nilai -ttabel
sebesar -2,345 dan ln (X2) sebesar 0,231 < nilai ttabel sebesar 2,345 pada
tingkat signifikansi sebesar 5%. Artinya bahwa hipotesis nol diterima
sehingga dapat disimpulkan tidak terdapat pelanggaran asumsi
homoskedastisitas.
b. Uji Asumsi Normalitas
Model regresi yang baik adalah memiliki residu yang terdistribusi
normal. Pengujian hipotesis yang digunakan yaitu uji Kolmogorov-Smirnov.
Tabel 4. 7 Syntax Uji Normalitas
#install packages
install.packages('nortest')
library(nortest)
#syntax uji Kolmogorov smirnov
model<-lm(Y~X1+X2,regresi_berganda)
error<-model$residuals
error
lillie.test(error)
Tabel 4. 8 Output Uji Normalitas
Lilliefors (Kolmogorov-Smirnov)
normality test
data: error
D = 0.064077, p-value = 0.9637
46
Hipotesis Uji Normalitas :
H0 : F(x) F0(x) { Residu berdistribusi normal }
H1 : F(x) F0(x) { Residu tidak berdistribusi normal }
α : 5%
Kriteria Pengujian :
Tolak H0 , jika nilai Pvalue ≤
Terima H0 , jika nilai Pvalue >
Kesimpulan :
Berdasarkan output uji Kolmogorov Smirnov dalam pada tabel 4.8 untuk p-
value residu model regresi linear ini sebesar 0,9637 > α=0,05. Artinya
bahwa hipotesis nol diterima sehingga dapat disimpulkan asumsi residu
mengikuti distribusi normal telah terpenuhi.
c. Uji Asumsi Autokorelasi
Salah satu asumsi penting dari regresi linear adalah bahwa tidak
ada autokorelasi antara serangkaian pengamatan yang diurutkan menurut
waktu. Adanya kebebasan antar sisaan dapat dideteksi secara grafis dan
empiris. Uji statistik yang sering dipergunakan adalah uji Durbin-Watson.
Tabel 4. 9 Syntax Uji Autokorelasi
#install packages
install.packages('car')
library(carData)
#syntax uji durbin watson
durbinWatsonTest(model))
Tabel 4. 10 Output Uji Autokorelasi
lag Autocorrelation D-W Statistic p-value
0.48
1 0.0735529 1.778246
Alternative hypothesis: rho != 0
Hipotesis Uji Autokorelasi :
H0 : ρ = 0, {tidak terdapat autokorelasi}
H1 : ρ ≠ 0, {terdapat autoorelasi}
α = 5%
Statistik uji Durbin Watson :
dH = ∑ (et – et-1) 2 / ∑ et 2 = 1,778
47
Kriteria uji :
Tolak H0 jika dH < dL atau dH > 4-dL
Terima H0 jika dU < dH < 4-dU
Kesimpulan :
Berdasarkan output uji Durbin Watson, diperoleh dH = 1,778 berada dalam
interval dL=1,37 dan 4-dU=2,41, maka H0 diterima, artinya dapat
disimpulkan bahwa dengan tingkat kepercayaan 95%, tidak terdapat
autokorelasi dalam residual model regresi linear tersebut.
d. Uji Asumsi Multikolinieritas
Menurut Montgomery, Peck, & Vining (1992: 111), kolinearitas
terjadi karena terdapat korelasi yang cukup tinggi di antara variabel
independen VIF (Variance Inflation Factor) merupakan salah satu cara
untuk mengukur besar kolinieritas dan didefinisikan sebagai berikut:
= (4.6)
−
dengan = 1,2, … , dan adalah banyaknya variabel independen,
sedangkan adalah koefisien determinasi yang dihasilkan dari regresi
variabel independen dengan variabel independen lain.
Tabel 4. 11 Syntax Uji Multikolinieritas
#syntax vif model
model<-lm(Y~X1+X2,regresi_berganda)
vif(model))
Tabel 4. 12 Output Uji Multikolinieritas
X1 X2
1.043174 1.043174
Kriteria uji :
Jika nilai VIFj < 10, maka variabel bebas ke-j memiliki korelasi lemah
dengan variabel bebas lainnya.
48
Kesimpulan :
Hasil perhitungan VIFj untuk variabel X1 dan X2 masing-masing sebesar
1,043 <10 maka dapat disimpulkan bahwa dengan tingkat kepercayaan
95%, tidak terdapat multikolinearitas antar variabel independen.
4.4 Uji Kecocokan Model Regresi Berganda
Berdasarkan uraian di atas sebelumnya bahwa semua pengujian
asumsi regresi linear telah terpenuhi semua baik residu normal,
homoskesdastisitas, tidak ada autokorelasi, dan tidak terdapat
multikolinieritas sehingga model awal regresi linear berganda dapat
diidentifikasi lebih lanjut.
Tabel 4. 13 Syntax Uji Kecocokan Model
#syntax uji kecocokan model
model<-lm(Y~X1+X2,regresi_berganda)
model1<-lm(Y~factor(X1+X2),regresi_berganda)
anova(model,model1)
Tabel 4. 14 Output Uji Kecocokan Model
Analysis of Variance Table
Model 1: Y ~ X1 + X2 F Pr(>F)
Model 2: Y ~ factor(X1 + X2) 0.4862 0.8885
Res. Df RSS Df Sum of Sq
1 34 25.115
2 4 5.405 30 19.71
Hipotesis Uji Kecocokan Model:
H0 : Model Cocok
H1 : Model Tidak Cocok
α = 5%
Statistik Uji :
Fhitung = RKC/RGM=0,4862
Kriteria Uji :
Tolak H0 , jika Fhitung > Ftabel atau nilai P-Value < 0,05
Terima H0, jika Fhitung < Ftabel atau nilai P-Value > 0,05
Kesimpulan :
49
Berdasarkan output diperoleh hasil perhitungan statistik uji Fhitung = 0,4862
< Ftabel=2,42 atau nilai P-Value=0,8885 > α = 0,05, maka H0 diterima, artinya
dapat disimpulkan bahwa dengan tingkat kepercayaan 95%, model yang
cocok adalah model regresi linear.
4.5 Uji Signifikansi Parameter Model Regresi Berganda
Tabel 4. 15 Syntax Model Terbaik Regresi Berganda
#syntax resume model terbaik regresi berganda:
model<-lm(Y~X1+X2,regresi_berganda)
summary(model)
Tabel 4. 16 Output Model Terbaik Regresi Berganda
Call:
lm(formula = Y ~ X1 + X2, data = regresi_berganda)
Residuals: Median 3Q Max
Min 1Q -0.09061 0.63050 1.49862
-1.49362 -0.57822
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 2.41746 0.95599 2.529 0.0163 *
X1 1.21025 0.07701 15.716 <2e-16 ***
X2 0.75896 0.04464 17.002 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.8595 on 34 degrees of freedom
Multiple R-squared: 0.9519, Adjusted R-squared: 0.9491
F-statistic: 336.3 on 2 and 34 DF, p-value: < 2.2e-16
a. Uji Signifikansi Parameter Model Secara Simultan
Hipotesis Uji Simultan
Ho : β0 = β1 = β2 = 0 : Tidak terdapat pengaruh bersama dari Lem dan
Venner terhadap Plywood
H1 : tidak semua βi ≠ 0 : Terdapat pengaruh bersama dari Lem dan Venner
terhadap Plywood
Kriteria uji :
Tolak H0 jika FHitung ≥ FTabel(2,34,5%), terima H0 dalam hal lain.
Kesimpulan :
50
Berdasarkan output pada tabel 4.16 diperoleh statistik Uji FHitung = 336,3 >
FTabel = 3,28, maka H0 ditolak, artinya dapat disimpulkan bahwa dengan
tingkat kepercayaan 95%, terdapat pengaruh linear secara bersama dari
variabel Lem dan Venner terhadap variabel Plywood.
b. Uji Signifikansi Parameter Model Secara Parsial
Hipotesis Uji Parsial
Ho: βi= 0 : Tidak terdapat pengaruh parsial dari Lem atau Venner terhadap
Plywood
H1: βi ≠ 0: Terdapat pengaruh parsial dari Lem atau Venne terhadap
Plywood
Kriteria uji :
Tolak H0 jika tHitung ≥ tTabel(5%,34), terima H0 dalam hal lain.
Kesimpulan :
Berdasarkan output pada tabel 4.16 diperoleh statistik thitung (β0), (β1) dan
(β2) masing - masing sebesar thitung =2,529, thitung=15,716 dan thitung=17,002
> tTabel=2,032, maka H0 ditolak, artinya dapat disimpulkan bahwa dengan
tingkat kepercayaan 95%, terdapat pengaruh linear secara parsial dari
variabel Lem atau Venner terhadap variabel Plywood, pengaruh tersebut
digambarkan dengan pengaruh positif artinya semakin naik tingkat
ketebalan lem maka akan meningkatkan tingkat kelembaban Plywood jika
tingkat kelembaban Veneer dianggap konstan begitupun semakin naik
tingkat kelembaban Veneer maka akan meningkatkan tingkat kelembaban
Plywood jika tingkat ketebalan Lem dianggap konstan.
4.6 Interpretasi Model Terbaik
Berdasarkan Tabel 4.16 di atas, secara umum model regresi linier
berganda yang diperoleh telah memenuhi asumsi klasik regresi yaitu
asumsi normalitas, heteroskedastisitas, autokorelasi, dan multikolineritas
melalui pengujian hipotesis tidak terjadi pelanggaran terhadap keempat
asumsi tersebut. Sehingga model regresi linear terbaiknya adalah sebagai
berikut :
̂ = 2,417 + 1,210 1 + 0,759 2
51
Interpertasi Model Regresi Linear Multiple di atas adalah sebagai berikut :
Intersep ( ̂ 0) dalam model di atas memberikan makna bahwa secara
rata-rata tingkat kelembaban Plywood, dengan asumsi tingkat ketebalan
lem dan tingkat kelembaban veneer dianggap konstan, maka akan
mengeluarkan tingkat kelembaban sebesar 2,417;
Koefisien slope regresi variabel tingkat ketebalan Lem ( ̂ 1) dalam model
di atas memberikan gambaran bahwa setiap peningkatan tingkat
ketebalan lem sebesar 1 satuan maka akan terjadi peningkatan tingkat
kelembaban Plywood sebesar 1,210 dengan asumsi peningkatan
tingkat kelembaban veneer dianggap konstan;
Koefisien slope regresi variabel tingkat kelembaban Veneer ( ̂ 2) dalam
model di atas memberikan gambaran bahwa setiap peningkatan tingkat
kelembaban veneer sebesar 1 satuan maka akan terjadi peningkatan
tingkat kelembaban Plywood sebesar 0,759 dengan asumsi
peningkatan tingkat ketebalan lem dianggap konstan.
4. 7 Latihan
Tabel berikut adalah data sampel dari 7 mahasiswa yang dipilih secara
acak, dimana Y adalah IP semester, X 1 adalah nilai rata-rata raport
semasa di SMA dan X 2 adalah rata-rata lama belajar mandiri setiap hari
(dalam jam) diperguruan tinggi.
I Yi X1i X2i
1 3.5 8.5
2 3.2 8.0 3
3 3.0 8.0 3
4 2,9 7.0 2.5
5 4.0 8.5 2.5
6 2.5 7.0 4
7 2.3 6.5 2
2
a) Tentukan model regresi berganda
b) Uji Asumsi klasiknya
c) Uji Kecocokan Model
d) Uji Signifikansi Parameter Model
e) Interpretasi Model Terbaik
52
BAB 5
ANALISIS KORELASI DENGAN R STUDIO
Capaian Pembelajaran Mata Kuliah :
Mampu Melakukan Analisis Korelasi dengan Menggunakan R Studio
Sub Capaian Pembelajaran Mata Kuliah :
1. Mampu menentukan koefisien korelasi dengan R Studio
2. Mampu melakukan uji koefisien korelasi dengan R Studio
5.1 Analisis Korelasi
Analisis korelasi digunakan untuk mengetahui keeratan hubungan
antara dua variabel atau lebih. Selain itu juga analisis korelasi dapat
berfungsi untuk mengetahui arah hubungan yang terjadi. Ada tiga metode
yang umum dilakukan untuk uji korelasi, yaitu Korelasi Pearson (r),
Kendall’s tau, dan Spearman’s rho.
Korelasi Pearson (r) juga dikenal sebagai uji korelasi parametrik
karena tergantung pada distribusi data. Korelasi pearson hanya dapat
digunakan ketika x dan y berasal dari distribusi normal. Korelasi pearson
digunakan untuk data berskala interval atau rasio. Sedangkan Kendall’s tau
dan Spearman’s rho yang merupakan koefisien korelasi berbasis peringkat
(non-parametrik) dapat digunakan sekali pun data berasal dari distribusi
tidak normal, selain itu digunakan pada data berskala ordinal.
Besaran nilai korelasi disebut dengan koefisien korelasi. Koefisien
korelasi berada di interval -1 sampai 1, semakin mendekati 1 atau -1 berarti
hubungan antara dua variabel semakin kuat, sebaliknya semakian nilai
mendekati 0 berarti hubungan antara dua variabel semakin lemah. Nilai
positif menunjukkan hubungan searah (X naik maka Y naik) dan nilai negatif
menunjukkan hubungan terbalik (X naik maka Y turun).
5.2 Formula Koefisien Korelasi
Pada modul ini akan dijelaskan mengenai Korelasi Pearson (r),
adapun cara menghitung koefisien korelasi Pearson sebagai berikut
= ∑ =1( − ̅ )( − ̅ ) (5.1)
√∑ =1( − ̅)2 ∑ =1( − ̅ )2
53
Tabel 5. 1 Kriteria Koefisien Korelasi
Koefisien Korelasi Tingkat Hubungan
0 Tidak Ada Korelasi
0,01 - 0,25 Korelasi Lemah
0,25 - 0,50 Korelasi Cukup
0,26 - 0,75 Korelasi Kuat
0,76 - 0,99 Korelasi Sangat Kuat
Korelasi Sempurna
1
Untuk mempermudah dalam melakukan perhitungan koefisien korelasi
dapat menggunkan bantuan software R Studio, berikut adalah langkah dan
ilustrasinya . Diketahui data mengenai kecerdasan dan prestasi belajar.
Tujuan dari analisis ini akan melihat hubungan antara kecerdasan siswa
terhadap prestasi belajarnya. Berikut ini disajikan data :
Tabel 5. 2 Contoh Data Korelasi
No Kecedasan (X) Prestasi Belajar (Y)
1 60 64
2 53 57
3 33 37
4 35 45
5 44 47
6 25 30
7 33 38
8 30 31
9 30 48
10 25 45
11 27 36
12 23 32
13 59 34
14 37 44
15 46 49
16 44 46
17 27 31
18 39 40
19 24 32
20 26 34
Sebelum melakukan analisis korelasi, terlebih dulu mengidentifikasi asumsi
normalitas dari variable bebas dan variabel terikat.
54
Tabel 5. 3 Syntax Uji Normalitas
#import data
library(readxl)
korelasi <- read_excel("C:/Users/Sisti Nadia Amalia/ Downloads/ korelasi.xlsx")
Y<-korelasi$Y
X<-korelasi$X
#syntax uji Kolmogorov smirnov
library(nortest)
lillie.test(X)
lillie.test(Y)
Tabel 5. 4 Output Uji Normalitas
Lilliefors (Kolmogorov-Smirnov) normality test
data: X
D = 0.15236, p-value = 0.258
Lilliefors (Kolmogorov-Smirnov) normality test
data: Y
D = 0.12692, p-value = 0.5433
Hipotesis Uji Normalitas :
H0 : Data Berdistribusi Normal
H1 : Data Tidak Berdistribusi Normal
α : 5%
Kriteria Pengujian
Tolak H0 , jika nilai Pvalue ≤
Terima H0 , jika nilai Pvalue >
Kesimpulan :
Berdasarkan output uji Normalitas pada tabel 5.4, diperoleh bahwa p-value
variabel X sebesar 0,258 dan bahwa p-value dari variabel Y sebesar
0,5433. Keduanya memiliki nilai > α=0,05. Artimya bahwa hipotesis nol
diterima sehingga dapat disimpulkan asumsi variabel x dan y mengikuti
distribusi normal telah terpenuhi. Maka variabel x dan y dapat digunakan
dalam analisis korelasi.
55
Tabel 5. 5 Syntax Korelasi Pearson
#install packages
install.packages(' correlation ')
install.packages('ggpubr')
library('correlation')
library('ggpubr')
#syntax korelasi pearson
r<-cor(Y,X,method = "pearson")
r
Tabel 5. 6 Output Korelasi Pearson
[1] 0.6743628
Berdasarkan output analisis korelasi diperoleh bahwa hubungan antara
kecerdasan dengan prestasi belajar sebesar adalah 0,674. Merujuk pada
kriteria koefisien korelasi menunujukkan bahwa hubungan yang kuat antara
kecerdasan dan prestasi belajar, dengan arah arah hubungan positif yang
artinya semakin tinggi kecerdasan maka akan semakin meningkat prestasi
belajarnya.
5.3 Uji Signifikansi Koefisien Korelasi
Uji signifikansi koefisien korelasi digunakan untuk menguji apakah
hubungan yang terjadi dapat di generalisasi untuk populasi.
Tabel 5. 7 Syntax Uji Signifikansi Koefisien Korelasi
#install packages
library('correlation')
library('ggpubr')
#syntax uji signifikansi koefisien korelasi :
res <- cor.test(X,Y,method = "pearson")
Tabel 5. 8 Output Uji Signifikansi Koefisien Korelasi
Pearson's product-moment correlation
data: X and Y
t = 3.8747, df = 18, p-value = 0.00111
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
0.3304568 0.8601870
56
Hipotesis Uji :
H0 : ρ = 0 (tidak terdapat korelasi linier di antara kedua variabel)
H1 : ρ ≠ 0 (terdapat korelasi linier di antara kedua variabel)
Statistik Uji :
Kriteria Uji :
H0 ditolak jika nilai p-value < α atau | ℎ | > (1− ⁄2, −2), terima H0 dalam
hal lain.
Kesimpulan :
Berdasarkan outuput, hasil perhitungan statistik Uji t diproleh tHitung =3,8747
> tTabel=2,100 dan p value sebesar 0,001 < α = 0,05. Dengan demikian
maka H0 ditolak, artinya dapat disimpulkan bahwa dengan tingkat
kepercayaan 95%, terdapat korelasi linear antara variabel kecerdasan
dengan prestasi belajar.
5. 4 Latihan
Tabel berikut adalah data sampel dari 7 mahasiswa yang dipilih secara
acak, dimana Y adalah IP semester, X adalah rata-rata lama belajar
mandiri.
No Y X
1 3.5 3
2 3.2 3
3 3.0 2.5
4 2,9 2.5
5 4.0 4
6 2.5 2
7 2.3 2
a) Tentukan Koefisien Korelasi
b) Tentukan keeratan korelasi dan arah korelasinya
c) Uji Signifikansi Koefisien Korelasi
57
DAFTAR PUSTAKA
Chatterjee, S. and Hadi, A.S. (1986) Influential Observations, High
Leverage Points, and Outliers in Linear Regression. Statistical
Science, 1, 379-393.
Gio, P.U. dan Irawan, D.E., 2016, Belajar Statistika dengan R, USU Press,
Medan
Gujarati, Damodar N. (2003). Basic Econometric Forth Edition. New York:
Mc Graw-Hill.
Hussein, Saddam., 2020, Tutorial Menggunakan RStudio untuk R
Programming, Statistika dan Data science, geospesialis.com, 30
Agustus 2022
Maddala, G.S (1992). Introduction to Econometric, 2nd Edition, Mac-Millan
Publishing Company, New York.
Montgomery, Douglas C., Elizabeth A. Peck, G. Geoffrey Vining. (2006).
Introduction to Linear Regression Analysis Fourth Edition. New York:
John Willey and Sons
Nuryadi, dkk., 2017, Dasar-Dasar Statistik Penelitian, Sibuku Media,
Yogyakarta
Rosadi, D., 2014, Analisis Runtun Waktu dan Aplikasinya dengan R,
Gadjah Mada University Press, Yogyakarta
Sartono, Bagus. dan Hidayatuloh, Aep., 2020, Modul Pelatihan Riset
Kuantitatif Ekonomi dan Manajemen INSW, bookdown.org, 30
Agustus 2022
Suhartono, 2008, Analisis Data Statistik dengan R, Lab Statistik Komputasi
ITS, Surabaya
Sumodiningrat, Gunawan. (2001). Ekonometrika Pengantar. Yogyakarta:
PFE Yogyakarta.
58
59