Ekonometrika
-
Upload
noer-arief-bachmid -
Category
Documents
-
view
212 -
download
0
description
Transcript of Ekonometrika
Chapter 6
EXTENSIONS OF THE TWO-VARIABLE LINEAR REGRESSION MODEL
(Model Regresi Linear Dua Variabel)
Sebelum membahas materi tersebut, beberapa review mengenai pemahaman
mengenai regresi:
Pengertian regresi linear
Konsep-konsep dasar dalam regresi
Kegunaan teknik analisis regresi
1. Pengertian Regresi Liniear
Pengertian regresi secara umum adalah sebuah alat statistik yang memberikan penjelasan tentang
pola hubungan (model) antara dua variabel atau lebih..
Dalam analisis regresi dikenal 2 jenis variabel yaitu:
1. Variabel Respon (variabel dependen) yaitu variabel yang keberadaannya dipengaruhi oleh
variabel lainnya dan dinotasikan dengan variabel Y
2. Variabel Prediktor (variabel independen) yaitu variabel yang bebas (tidak dipengaruhi oleh
variabel lainnya) dan dinotasikan dengan X
Untuk mempelajari hubugan – hubungan antara variabel bebas maka regresi linier terdiri dari dua
bentuk, yaitu:
1. Analisis regresi sederhana (simple analysis regresi)
2. Analisis regresi berganda (Multiple analysis regresi).
A. Analisis regresi sederhana merupakan hubungan antara dua variabel yaitu variabel bebas
(variable independen) dan variabel tak bebas (variabel dependen).
B. Sedangkan analisis regresi berganda merupakan hubungan antara 3 variabel atau lebih,
yaitu sekurang-kurangnya dua variabel bebas dengan satu variabel tak bebas.
2. Tujuan Regresi
adalah untuk membuat perkiraan nilai suatu variabel (variabel dependen) jika nilai variabel yang
lain yang berhubungan dengannya (variabel lainnya) sudah ditentukan.
3. Analisis Regresi Linier Sederhana
Regresi linier sederhana digunakan untuk mendapatkan hubungan matematis dalam bentuk suatu
persamaan antara variabel tak bebas tunggal dengan variabel bebas tunggal. Regresi linier
sederhana hanya memiliki satu peubah yang dihubungkan dengan satu peubah tidak bebas . Bentuk
umum dari persamaan regresi linier untuk populasi adalah
Y=a+bx
Di mana:
Y = Variabel tak bebas
X = Variabel bebas
a = Parameter Intercep
b = Parameter Koefisisen Regresi Variabel Bebas
Asumsi
Penggunaan regresi linear sederhana didasarkan pada asumsi diantaranya sbb:
Model regresi harus linier dalam parameter
Variabel bebas tidak berkorelasi dengan disturbance term (Error) .
Nilai disturbance term sebesar 0 atau dengan simbol sebagai berikut: (E (U / X) = 0
Varian untuk masing-masing error term (kesalahan) konstan
Tidak terjadi otokorelasi
Model regresi dispesifikasi secara benar. Tidak terdapat bias spesifikasi dalam model
yang digunakan dalam analisis empiris.
Jika variabel bebas lebih dari satu, maka antara variabel bebas (explanatory) tidak
ada hubungan linier yang nyata
2.4 Persyaratan Penggunaan Model Regresi
Model kelayakan regresi linear didasarkan pada hal-hal sebagai berikut:
a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05
b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini
diketahui jika angka Standard Error of Estimate < Standard Deviation
c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien
regresi signifikan jika T hitung > T table (nilai kritis)
d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat
tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk
regresi linier berganda dengan variabel bebas lebih dari satu.
e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB)
sebesar < 1 dan > 3
f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin
besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model
regresi semakin baik. Nilai r2 mempunyai karakteristik diantaranya: 1) selalu positif,
2) Nilai r2 maksimal sebesar 1. Jika Nilai r2
sebesar 1 akan mempunyai arti kesesuaian
yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh
model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada hubungan linier
antara X dan Y.
g. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y)
h. Data harus berdistribusi normal
i. Data berskala interval atau rasio
j. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas
(disebut juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung
(disebut juga sebagai variabel response)
2.1 Regresi Linear Sederhana
2.1.1 Regresi Populasi
Perhatikan utama regresi pada dasarnya adalah menjelaskan dan mengevaluasi
hubungan antara suatu variabel dependen dengan satu atau lebih variabel independen. Kita
akan memberi ilustrasi tentang regresi sederhana yang terdiri dari satu variable independen.
Sebagai contoh, diberikan ilustrasi sebagai berikut: menurut model pendekatan tradisional
(traditional approach) yang dikemukakan oleh Dornbusch (2000), bahwa perubahan harga
saham dipengaruhi oleh nilai tukar. Misalkan jika nilai tukar rupiah terhadap dollar Amerika
Serikat mengalami apresiasi (dollar AS depresiasi) maka harga saham di Bursa Efek Indonesia
mengalami penguatan, dan
seblaiknya jika nilai tukar rupiah terhadap dollar AS mengalami depresiasi (dollar AS apresiasi)
maka harga saham di Bursa Efek Indonesia mengalami penurunan dengan asumsi variabel
selain harga tetap.
Kita asumsikan terdapat hubungan yang linier antara harga saham dan nilai tukar.
Hubungan keduannya tidak harus linier, namun untuk penyederhanaan kita asumsikan linier.
Hubungan linier kedua dapat kita tulis dalam persamaan regresi berikut:
Yi = β0 + β1X1 β1 < 0 (1)
dimana Yi = Harga saham; Xi = Kurs; i = observasi ke 1,2, 3…, n1 Dalam persamaan (1) tersebut
variabel Y yaitu jumlah permintaan barang disebut variabel dependen (dependent variable)
sedangkan variabel X yaitu harga barang disebut sebagai variabel independen (independent
variable). Persamaan (1) tersebut disebut persamaan regresi populasi. Pesamaan (2)
menunjukan nilai harapan (expected value) jumlah permintaan barang. Nilai harapan tersebut
dapat dinyatakan dalam persamaan sbb:
E(Y1) = β0 + β1X1 (2)
Nilai harapan dapat diinterprestasikan sebagai rata-rata jumlah permintaan barang pada
harga tertentu. Jumlah permintaan barang aktual tidak harus sama dengan nilai harapannya.
Ada banyak faktor yang mempengaruhi jumlah permintaan barang selain harga. Oleh karena
itu, jumlah p ermintaan barang aktual dapat ditulis sbb:
Atau dapat dinyatakan dalam bentuk persamaan sbb;
Y1 = E(Yi) + ei (3)
atau dapat dinyatakan dalam bentuk persamaan sbb:
Yi = β0 + β1Xi+ ei (4)
Dimana ei adalah variabel gangguan (disturbance/errors terms) yang nilainya bisa positif
atau negatif. Variabel gangguan ini muncul karena hubungan variabel ekonomi adalah
hubungan yang acak atau random tidak seperti hubungan variabel dalam matematika yang
bersifat deterministik.
Pada tingkat harga yang sama, jumlah barang yang dibeli konsumen akan berbeda. Hal
ini terjadi arena ada faktor selain harga yang juga bisa mempengaruhi permintaan barang,
misalnya selera konsumen. Dengan demikian, variabel gangguan mencerminkan faktor-faktor
selain harga yang mempengaruhi jumlah permintaan konsumen tetapi tidak dimasukan dalam
persamaan. Oleh KarenA itu, variabel dependen Y adalah variabel random (random variable)
atau stokastik (stochastic variable) yang besar kecilnya tergantung dari variable independen X.1
Tanda subskrip i menunjukkan observasi untuk data cross section sedangkan untuk observasi datatime series diberi
tanda subskrip variabel independen X adalah variabel tetap atau non-stotastik.
Sedangkan variable gangguan e variabel random atau stokastik. Secara umum variabel
gangguan ini disebabkan oleh dua hal. Yang pertama, variabel gangguan muncul karena model
yang digunakan terlalu sederhana tidak mencerminkan realitas. Misalnya kasus dalam
permintaan barang diatas dimana kita hanya memasukan variabel harga saja sebagai satu-
satunya faktor yang mempengaruhi jumlah permintaan barang. Sumber kedua munculnya
variable gangguan berhubungan dengan perilaku variabel ekonomi yang mencerminkan
perilaku manusia. Misalnya jika variabel harga merupakan satu-satunya faktor yang
mempengaruhi jumlah permintaaan barang belum tentu tingkat jumlah permintaan barang dari
setiap konsumen akan sama dari waktu ke waktu.
Persamaan (1) tersebut menjelaskan bahwa hubungan Y dan X merupakan hubungan linier.
Hubungan linier dapat digambarkan dalam bentuk garis lurus di dalam sebuah garis dengan β0
sebagai intersep (konstanta) dan β1 adalah kemiringan (slope) dari garis lurus yang kita peroleh.
Gambar dari persamaan (1) tersebut disebut dengan garis regresi populasi, lihat gambar 11ERi – rf
Security market line
ERi – rf
0 B1
FIGURE 6.2 The Market Model of Portfolio Theory
2.1.2 Regresi Sampel
Persamaan regresi populasi persamaan (1) sulit diketahui. Regresi populasi ini hanya dapat
diestimasi dengan menggunakan data sampel. Kembali ke dalam regresi populasi tentang
jumlah permintaan barang. Persamaan regresi sampel untuk menjelaskan hubugan antara
jumlah permintaan barang dengan tingkat harganya dapat dinyatakan dalam persamaan sbb:
Y1 = β0 + β1Xi β1<0 (5)
E(Yi) = β0 + βIXI
Persamaan (5) ini kalau kita gambarkan dalam bentuk grafik merupakan garis lurus
dengan intersep sebesar β0 dan slope β1. Garis lurus kita dapatkan regresi sampel dimana β0 dan
β1 merupakan estimasi parameter dari populasi β0 dan β1. Y1 di dalam persamaan (5) tersebut
disebut nilai prediksi (predicted value) dari nilai aktual Y. Y1 disebut nilai prediksi (predicted
value) dari kita dapat memprediksi jumlah permintaan barang untuk setiap harganya. Nilai
prediksi jumlah permintaan barang tentu tidak harus sama dengan nilai jumlah permintaan
aktualnya. Perbedaan antara jumlah permintaan yang diprediksi dengan jumlah permintaan
aktual disebut residual (residual). Dengan demikian, jumlah perminaan barang aktual dapat
ditulis dalam bentuk persamaan sbb:
Yi = Yi + ei (6)
Atau dapat ditulis dalam persamaan sbb:
Y1 = β0 + β1X1 + ei (7)
Gambar 2 Garis Regresi Populasi dan Sampel
Perbedaan antara garis regresi populasi dan sampel dapat dilihat dalam gambar 2. Di dalam
gambar 2. tersebut, untuk obeservasi i (Xi) nilai Yi aktualnya adalah Y sedangkan nilai harapan
regresi populasi adalah E (Yi). Perbedaan antara Yi dengan E(Y) adalah gangguan (ei). Sedangkan
nilai prediksi dari regresi sampel adalah Y i dan pembedaan antara Yi dengan Yi disebut residual
(ei). Pada obeservasi i tersebut nilai prediksi regresi sampel terlalu tinggi (overestimate)
terhadap nilai harapan E(Y) regresi populasi. Dalam gambar tersebut semua titik disebelah kiri
titik A menghasilkan prediksi regresi sampel terlalu tinggi sedangkan pada sebelah kanan A X1Y
E(Yi) = β0 + Βixi E(Yi) = β0 + βIXI
akan menghasilkan prediksi regresi sampel yang terlalu rendah (underestimate) dibandingkan
dengan regresi populasi.
2.2 Metode Kuadrat Terkecil (Ordinary Least Squares = OLS)
Persoalan penting didalam pembuatan garis regresi sampel adalah begaimana kita bisa
mendapatkan garis regresi yang baik. Garis regresi sampel yang baik ini terjadi jika nilai
prediksinya sedekat mungkin dengan data aktualnya. Dengan kata lain kita mencari nilai β0 dan
β1 yang menyebabkan residual sekecil mungkin. Pada sub-bab ini akan dibahas metode klasik
yang disebut metode metode kuadrat terkecil (ordinary least squares = OLS).
Y1 = β0 + β1X1 + ei (8)
Sebagaimana pembahasan sebelumnya, persamaan (8) tersebut merupakan prediksi dan nilai
prediksi ini akan berbeda dengan nilai aktualnya. Perbedaan nilai actual dengan nilai prediksi
disebut residual (ei) dan dapat ditulis sbb:
Y1 = Y1 + ei (9)
Persamaan (9) tersebut bisa kita tulis dalam bentuk persamaan yang lain sbb:
e1 = Y1 - Y1 (10)
e1 = Y1 - β0 - β1X1 (11)
Berdasarkan persamaan (11) tersebut, jika nilai residual adalah kecil maka perbedaan antara
aktual dan prediksi adalah kecil. Artinya, jika kita ingin mendapatkan garis regresi yang baik
residualnya harus sekecil mungkin. Misalkan kita mempunyai 6 data sampel jumlah permintaan
barang (Y) dan harganya (X). Kita plot data tersebut dalam bentuk diagram pancar atau
sketergram (scattergram), lihat gambar 3.
Gambar 2.3. Berbagai Garis Regresi Sampel
Dari diagram pencar ini kemudian kita bisa menarik sebanyak mungkin garis regresi sampel,
misalnya kita ambil 3 garis regresi. Sebuah garis regresi dikatakan garis regresi yang baik jika
garis tersebut bisa sedekat mungkin dengan data aktualnya. Atau dengan kata lain garis regresi
yang baik terjadi jika residualnya sekecil mungkin. Pertanyaan yang muncul, bagaimana caranya
kita mendapatkan residual sekecil mungkin sehingga bisa mendapatkan garis regresi yang
terbaik.
Jika kita menjumlahkan semua residual ini kita memang bisa mendapatkan jumlah
residual ei yang sedikit mungkin. Namun, kemungkinan kita mendapatkan jumlah residual ei
sebesar nol bisa juga terjadi. Padahal faktanya ada beberapa residual ei yang jaraknya jauh dari
garis regresi baik dibawahnya maupun diatasnya. Hal ini terjadi karena kita memberi timbangan
yang sama kepada setiap residual ei tanpa melihat jauh dekat jaraknya. Misalnya e1, e2, e3, e4,
e5, dan e6 masing-masing jaraknya -1, +1, -4, +4, -2 dan +2. Jumlah nilai dari residual e i adalah
nol meskipun e3 dan e4 mempunyai jarak yang lebih jauh dari garis regresi dibandingkan dengan
e1 dan e2.
Kita bisa menghindari permasalahan kemungkinan terjadinya jumlah nilai residual ei
sebesar nol dengan memberi timbangan kepada masing-masing residual ei. Salah satu caranya
adalah dengan mengkuadratkan masing-masing residual ei. Dengan mengkuadratkannya maka
kita memberi timbangan yang lebih besar kepada residualnya e i. Yang mempunyai jarak yang
lebar seperti residual e3 maupun e4. Metode mencari nilai residual sekecil mungkin dengan
menjumlahkan kuadrat residual ini disebut dengan metode kuadrat terkecil (ordinary least
squares).
Metode Ordinary Least Square (OLS) yang akan menjamin jumlah residual
kuadrat sekecil mungkin dapat dijelaskan sbb:
Σe2i = Σ (Yi – Yi)2 (12)
Σe2i = Σ (Yi – β0-β1Yi)2 (13)
Dengan mengkuadratkan residual ei dan kemudian menjumlahkannya, maka metode
kuadrat terkecil ini akan memberi timbangan yang lebih besar kepada e3 dan e4 daripada e1 dan
e2. Metode ini akan menjamin bahwa jumlah nilai e i sebesar nol tidak mungkin terjadi
sebagaimana metode sebelumnya karena lebarnya jarak ei akan juga menyebabkan lebarnya
Σe2 i.
Di dalam matematika, untuk mendapatkan nilai minimum dalam sebuah fungsi maka
syaratnya adalah turunan pertama dari fungsi tersebut sama dengan nol. Oleh karena itu untuk
mendapatkan Σe2 i sekecil mungkin caranya dengan melakukan diferensiasi (turunan) pada
persamaan (13). karena fungsi Σe2 i dalam persamaan (13) tersebut adalah fungsi dari β0 dan βi,
maka persamaan tersebut harus dideferensiasikan secara parasial terhadap β0 dan βi. Dengan
melakukan diferensiasi parsial maka akan menghasilakan nilai estimasi β0 dan βi yang
menyebabkan nilai dari Σe2i sekecil mungkin. Proses diferensiasi parsial (13) akan menghasilkan
estimator β0 dan βi sbb:
β1 = n Σ X i Y i – Σ X i Σ Y i (14)
nΣX2 i – (ΣXi)2
= Σ (X i – X) (Y i -Y)
Σ(Xi – X)2
= Σ x i y i
Σx2i
Β0 = Σ X 2 i Σ Yi – Σ X i Σ x i Y i (15)
nΣX2i – (ΣXi)2
= Σ Y i _ β 1 Σ X i
n n
= Y – βiX
dimana x1 = X, — X, V, — Y, Y dan X adalah rata-rata serta n adalah jumlah observasi.
2.3 Asumsi-Asumsi Metode Kuadrat Terkecil
Metode OLS yang dikenal sebagai metode Gaussian merupakan landasan utama di dalam teori
ekonometrika. Metode OLS ini dibangun dengan menggunakan asumsi-asumsi tertentu.
Misalkan kita mempunyai model regresi populasi sederhana sbb:
Y1 = β0 + β1X1 + ei (16)
Asumsi yang berkaitan dengan model garis regresi linier dua variabel tersebut adalah
sbb:
1. Asumsi 1
Hubungan antara Y (variabel dependen) dan X (variabel independen) adalah linier dalam
parameter. Model regresi yang linier dalam parameter dapat dilihat dalam persamaan (16).
Dalam hal ini berhubungan β1 linier terhadap Y.
2. Asumsi 2
Variabel X adalah variabel tidak stokastik yang nilainya tetap. Nilai X adalah tetap untuk
berbagai observasi yang berulang-ulang. Kembali dalam kasus hubungan jumlah permintaan
barang dengan tingkat harganya, untuk mengetahui tingkat variasi jumlah permintaan barang
maka kita melakukan berbagai observasi pada tingkat harga tertentu. Jadi dengan sampel yang
berulang-ulang nilai variable independen (X) adalah tetap atau dengan kata lain variabel
independen (X) adalah variabel yang dikontrol.
3. Asumsi 3
Nilai harapan (expected value) atau rata-rata dan variabel gangguan ei adalah nol atau dapat
dinyatakan sbb:
E(ei/Xi)=0 (17)
Karena kita mengasumsikan bahwa nilai harapan dan Y hanya dipengaruhi oleh variabel
independen yang ada atau dapat dinyatakan sbb:
E(Y) =β0 + β1Xi) (18)
4. Asumsi 4
Varian dari variabel gangguan ei adalah sama (homoskedastisitas) atau dapat dinyatakan sbb:
5. Asumsi 5
Tidak ada serial korelasi antara gangguan ei atau gangguan ei tidak saling berhubungan dengan
ej yang lain atau dapat dinyatakan sbb:
Cov (ei, ej ) = 0; i j
6. Asumsi 6
Variabel gangguan ei berdistribusi normal
e ~ N(0,σ2)
Asumsi 1 sampai 5 dikenal dengan model regresi linier klasik (Classical Linear Regression
Model).
Dengan asumsi-asumsi di atas pada model regresi linier klasik, model kuadrat terkecil (OLS)
memiliki sifat ideal dikenal dengan teorema Gauss-Markov (Gauss-Markov Theorem). Metode
kuadrat terkecil akan menghasilkan estimator yang mempunyai sifat tidak bias, linier dan
mempunyai varian yang minimum (best linearunbiased estimators = BLUE). Suatu estimator β1
dikatakan mempunyai sifat yang
BLUE jika memenuhi kriteria sbb:
1. Estimator β1 adalah linier (linear), yaitu linier terhadap variabel stokastik Y sebagai
variabel dependen.
2. Estimator β1 tidak bias, yaitu nilai rata rata atau nilai harapan E(β1) sama dengan nilai β1
yang sebenarnya.
3. Estimator β1 mempunyai varian yang minimum. Estimator yang tidak bias dengan varian
minimum disebut estimator yang efisien (efficient estimator)
Dengan demikian jika persamaan (16) memenuhi asumsi-asumsi tersebut di atas maka nilai
koefisien β1 dalam persamaan tersebut dapat diartikan sebagai nilai harapan (expected value)
atau rata-rata dan nilal Y pada nilai tertentu variable independen X. Catatan penting dalam
teorema Gauss-Markov adalah bahwa teorema ini tidak berlaku kepada estimator yang tidak
linier (nonlinear). Estimator yang tidak linier mungkin juga mempunyai varian yang lebih kecil
dan model regresi linier klasik.
2.4 Standard Error dari OLS
Regresi sampel yang kita lakukan merupakan cara untuk mengestimasi regresi populasi. Karena
itu, estimator β0 dan β1 yang diperoleh dan metode OLS adala variabel yang sifatnya acak atau
random yaitu nilainya berubah dari satu sampel ke sampel yang lain. Adanya variabilitas
estimator ini maka kita membutuhkan ketepatan dari estimator β0 dan β1. Di dalam statistika
untuk mengetahui ketepatan estimator OLS ni diukur dengan menggunakan kesalahan standar
(Standard error).
Semua variabel dalam perhitungan standard error di atas dapat diestimasi dari data yang ada
kecuali σ2. Σe2 i adalah jumlah residual kuadrat (residual sum of squares = RSS). n-k dikenal
dengan jumlah derajat kebebasan (number of degree of freedom)
disingkat sebagai df. df Ini berarti jumlah observasi (n) dikurangi dengan jumlah
parameter estimasi. Semakin kecil standard error dan estimator maka semakin kecil variabilitas
dan angka estimator dan berarti semakin dipercaya nilai estimator yang didapat.
2.5 Koefisien Determinasi (R2)
Hingga kini kita baru berhubungan dengan masalah estimasi dan koefisien regresi,
standard error dan estimator. Sekarang tibalah pembahasan tentang seberapa baik garis regresi
menjelaskan datanya (goodness of fit). Artinya bagaimana garis regresi yang dibentuk sesuai
dengan data. Jika semua data terletak pada garis regresi atau dengan kata lain semua nilai
residual adalah nol maka kita mempunyai garis regresi yang sempurna. Tetapi garis regresi yang
sempurna ini jarang terjadi.
Pada umumnya yang terjadi adalah ei bisa positif maupun negatif Jika in terjadi berarti
merupakan garis regresi yang tidak seratus persen sempurna. Namun yang kita harapkan
adalah bahwa kita mencoba mendapatkan garis regresi yang menyebabkan e i sekecil mungkin.
Dalam mengukur seberapa baik garis regresi cocok dengan datanya atau mengukur persentase
total variasi Y yang dijelaskan oleh garis regresi digunakan konsep koefisien determinasi (R2).
2.6
Koefisien determinasi R2 dapat dihitung langsung dari data bersamaan dengan koefisien regresi bi.
Kegunaan dari Koefisien determinasi R2 adalah untuk mengukur tingkat ketepatan yang paling baik dari
analisis regresi. Jika data observasi dapat tepat pada garis atau bidang regresi yang diestimasi, maka
dikatakan terjadi cocokan garis atau bidang regresi dengan sepurna, dan nilai koefisien determinasi akan
maksimum yaitu R2 =1
Dalam kenyataan terhadap data pengamatan akan terjadi penyimpangan dengan garis atau bidang
regresi Penduga yang dikodekan dengan ei. Di dalam analisis regresi dengan metode kuwadrat terkecil
(OLS) diusahakan supaya nilai Σei sekecil mungkin mendekati nol atau nilai koefisien determinasi
semaksimum mungkin mendekati satu. Koefisien determinasi berganda R2 dengan rumus umum seperti
berikut:[
3.62] R2 = Jumlah Kuadrat Total
Jumlah Kuadrat Re gresi
Koefisien determinasi berganda R2 dari regresi tiga variabel atau untuk regresi dengan dua variabel
bebas X (X1 dan X2) dengan model persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X3. dapat didefinisikan
sebagai berikut :
[3.63] R2 = 21 1 2 2 i y
b x i yi b x i yi
Untuk regresi p + 1 variabel atau dengan p variabel bebas X (X1, X2, X3, . . ., Xp) dengan model
persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X2 + . . . + βp Xp dapat didefinisikan sebagai berikut :
[3.64] R2 = 21 1 2 2 . . . i yb x i yi b x i yi bk x
pi yi
Contoh Analisis dan Uraiannya
Agar dapat memahami uraian di atas dan dapat menentukan nilai koefisien regresi penduga atau
koefisien egresi bi yaitu nilai- nilai b0, b1, dan b2, maka diberikan contoh olahan seperi di bawah ini,
yang datanya terdiri dari dua variabel bebas X (prediktor = regresor) yaitu X1 dan X2 seperti pada Tabel
3.3.
Tabel 3.3. Pengamatan Data Rregresi Dua Variabel Bebas X dan Satu Variabel YTabel 3.3. Pengamatan
Data Rregresi Dua Variabel Bebas X dan Satu Variabel Y
No. X1 X2 Y X12 X2 2 Y2 X1Y X2 Y X1X2
1 9,750 1,610 0,650 95,063 2,592 0,423 6,338 1,047 15,698
2 10,500 2,000 0,750 110,250 4,000 0,563 7,875 1,500 21,000
3 11,250 2,500 0,900 126,563 6,250 0,810 10,125 2,250 28,125
4 12,600 2,700 1,150 158,760 7,290 1,323 14,490 3,105 34,020
5 11,900 2,250 0,950 141,610 5,063 0,903 11,305 2,138 26,775
6 15,200 3,250 1,750 231,040 1,563 3,063 26,600 5,688 49,400
7 12,250 2,900 1,050 150,063 8,410 1,103 12,863 3,045 35,525
8 12,900 3,000 1,000 166,410 9,000 1,000 12,900 3,000 38,700
9 14,300 3,100 1,700 204,490 9,610 2,890 24,310 5,270 44,330
10 13,250 3,050 1,250 175,563 9,303 1,563 16,563 3,813 40,413
11 15,300 3,250 1,800 234,090 0,563 3,240 27,540 5,850 49,725
12 8,900 1,900 0,600 79,210 3,610 0,360 5,340 1,140 16,910
13 10,600 1,950 0,500 112,360 3,803 0,250 5,300 0,975 20,670
14 7,500 3,450 0,720 56,250 1,903 0,518 5,400 2,484 25,875
15 11,900 2,250 0,950 141,610 5,063 0,903 11,305 2,138 26,775
Jumlah 178,100 39,160 15,720 2183,330107,020 18,908 198,253 43,441 473,940
Ratarata 11,873 2,611 1,048 145,555 7,135 1,261 13,217 2,896 31,596
Koefisien Korelasi (r)
Konsep yang sangat erat kaitannya dengan koefisien determinasi (R2) adalah koefisien
korelasi (r). R2 adalah koefisien yang menjelaskan hubungan antara variabel dependen (Y)
dengan variabe’l independen (Y) dalam suatu model. Sedangkan koefisien korelasi (r) mengukur
derajat keeratan antara dua variabel. Nilai koefisien korelasi (r) ini mempunyai nilai antar -1 dan
1. Nilai positif berarti mempunyai korelasi searah sedangkan negatif berarti mempunyai korelasi
yang berlawanan arah.
Aplikasi Eviews Regresi Sederhana
• IHSGi = β0 + β1 KURSi + ei
Dependent Variable: IHSG
Method: Least Squares
Date: 07/10/11 Time: 20:11
Sample: 2005M07 2011M07
Included observations: 73
Variable Coefficient Std. Error t-Statistic Prob.
C 34.46993 4.739034 7.273621 0.0000
KURS -2.930811 0.517650 -5.661766 0.0000
R-squared 0.311051 Mean dependent var 7.639475
Adjusted R-squared 0.301348 S.D. dependent var 0.384003
S.E. of regression 0.320971 Akaike info criterion 0.592082
Sum squared resid 7.314582 Schwarz criterion 0.654834
Log likelihood -19.61099 F-statistic 32.05560
Durbin-Watson stat 0.077023 Prob(F-statistic) 0.000000
REGRESI BERGANDA: PENAKSIRAN DAN PENGUJIAN HIPOTESIS
Model regresi berganda yaitu model regresi dengan lebih dari satu variable penjelas (variabel
bebas) yang mempengaruhi variabel terikat. Misalkan variable Indeks Harga Saham Gabungan
(IHSG) dipengaruhi oleh nilai tukar (Kurs) dan Suku Bunga Bank Indonesia (SBI).\
Contoh Aplikasi Eviews
Model Regresi Sederhana
IHSGi = β0 + β1 Kursi + ei
Dependent Variable: IHSG
Method: Least Squares
Date: 10/02/10 Time: 20:59
Sample: 2005M07 2010M08
Included observations: 62
Variable Coefficient Std. Error t-Statistic Prob.
C 5508.523 872.9456 6.310271 0.0000
KURS -0.366675 0.090323 -4.059578 0.0001
R-squared 0.215483 Mean dependent var 1975.761
Adjusted R-squared 0.202408 S.D. dependent var 606.7348
S.E. of regression 541.8628 Akaike info criterion 15.45963
Sum squared resid 17616920 Schwarz criterion 15.52825
Log likelihood -477.2485 F-statistic 16.48017
Durbin-Watson stat 0.058467 Prob(F-statistic) 0.000144
Model Regresi Berganda
IHSGi = β0 + β1 Kursi + SBIi + ei
Dependent Variable: IHSG
Method: Least Squares
Date: 10/02/10 Time: 21:05
Sample: 2005M07 2010M08
Included observations: 62
Variable Coefficient Std. Error t-Statistic Prob.
C 5508.523 872.9456 6.310271 0.0000
KURS -0.366675 0.090323 -4.059578 0.0001
SBI -242.0085 15.08479 -16.04321 0.0000
R-squared 0.853702 Mean dependent var 1975.761
Adjusted R-squared 0.848742 S.D. dependent var 606.7348
S.E. of regression 235.9703 Akaike info criterion 13.81247
Sum squared resid 3285238. Schwarz criterion 13.91539
Log likelihood -425.1865 F-statistic 172.1428
Durbin-Watson stat 0.397930 Prob(F-statistic) 0.000000
Estimation Command:
=====================
LS IHSG C KURS SBI
Estimation Equation:
=====================
IHSG = C(1) + C(2)*KURS + C(3)*SBI
Substituted Coefficients:
=====================
IHSG = 8071.792837 - 0.4097954024*KURS - 242.0084526*SBI
Model Regresi Berganda
IHSG i = β0 + DJIA1i + β2SBI2i + β3KURS3i +U1i
Dependent Variable: IHSG
Method: Least Squares
Date: 07/10/11 Time: 21:10
Sample: 2005M07 2011M07
Included observations: 73
Variable Coefficient Std. Error t-Statistic Prob.
C 34.46993 4.739034 7.273621 0.0000
KURS -2.930811 0.517650 -5.661766 0.0000
R-squared 0.311051 Mean dependent var 7.639475
Adjusted R-squared 0.301348 S.D. dependent var 0.384003
S.E. of regression 0.320971 Akaike info criterion 0.592082
Sum squared resid 7.314582 Schwarz criterion 0.654834
Log likelihood -19.61099 F-statistic 32.05560
Durbin-Watson stat 0.077023 Prob(F-statistic) 0.000000
Estimation Command:
=====================
LS IHSG C DJIA SBI KURS
Estimation Equation:
=====================
IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS
Substituted Coefficients:
=====================
IHSG = 35.32114316 - 0.1538882084*DJIA - 0.1336108444*SBI - 2.758970034*KURS
-.4
-.2
.0
.2
.4
6.8
7.2
7.6
8.0
8.4
2006 2007 2008 2009 2010 2011
Residual Actual Fitted
DESKRIPTIF STATISTIK
DJIA IHSG KURS SBI
Mean 8.341239 7.639475 9.154621 8.537671
Median 8.313232 7.742623 9.127470 8.250000
Maximum 9.293289 8.271027 9.386160 12.75000
Minimum 7.797587 6.956631 9.057752 6.500000
Std. Dev. 0.337361 0.384003 0.073074 2.016715
Skewness 1.805001 -0.122698 1.654533 0.840114
Kurtosis 6.044454 1.903486 5.337166 2.621422
Jarque-Bera 67.83165 3.840296 49.92063 9.023073
Probability 0.000000 0.146585 0.000000 0.010982
Sum 608.9104 557.6817 668.2873 623.2500
Sum Sq. Dev. 8.194490 10.61702 0.384467 292.8339
Observations 73 73 73 73
Uji Heteroskedastisitas
White Heteroskedasticity Test:
F-statistic 1.537887 Probability 0.192926
Obs*R-squared 7.485466 Probability 0.186965
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 10/02/10 Time: 21:06
Sample: 2005M07 2010M08
Included observations: 62
Variable Coefficient Std. Error t-Statistic Prob.
C - 1633662. 2528323. -0.646144 0.5208
KURS 311.0399 430.8780 0.721875 0.4734
KURS^2 -0.020799 0.019654 -1.058242 0.2945
KURS*SBI 14.37513 14.75326 0.974369 0.3341
SBI 1363.175 162939.8 0.008366 0.9934
SBI^2 -7338.578 3541.340 -2.072260 0.0429
C 5508.523 872.9456 6.310271 0.0000
KURS -0.366675 0.090323 -4.059578 0.0001
R-squared 0.215483 Mean dependent var 1975.761
Adjusted R-squared 0.202408 S.D. dependent var 606.7348
S.E. of regression 541.8628 Akaike info criterion 15.45963
Sum squared resid 17616920 Schwarz criterion 15.52825
Log likelihood -477.2485 F-statistic 16.48017
Durbin-Watson stat 0.058467 Prob(F-statistic) 0.000144