Ekonometrika

29
Chapter 6 EXTENSIONS OF THE TWO-VARIABLE LINEAR REGRESSION MODEL (Model Regresi Linear Dua Variabel) Sebelum membahas materi tersebut, beberapa review mengenai pemahaman mengenai regresi: Pengertian regresi linear Konsep-konsep dasar dalam regresi Kegunaan teknik analisis regresi 1. Pengertian Regresi Liniear Pengertian regresi secara umum adalah sebuah alat statistik yang memberikan penjelasan tentang pola hubungan (model) antara dua variabel atau lebih.. Dalam analisis regresi dikenal 2 jenis variabel yaitu: 1. Variabel Respon (variabel dependen) yaitu variabel yang keberadaannya dipengaruhi oleh variabel lainnya dan dinotasikan dengan variabel Y 2. Variabel Prediktor (variabel independen) yaitu variabel yang bebas (tidak dipengaruhi oleh variabel lainnya) dan dinotasikan dengan X Untuk mempelajari hubugan – hubungan antara variabel bebas maka regresi linier terdiri dari dua bentuk, yaitu: 1. Analisis regresi sederhana (simple analysis regresi) 2. Analisis regresi berganda (Multiple analysis regresi).

description

Ekonometrika

Transcript of Ekonometrika

Chapter 6

EXTENSIONS OF THE TWO-VARIABLE LINEAR REGRESSION MODEL

(Model Regresi Linear Dua Variabel)

Sebelum membahas materi tersebut, beberapa review mengenai pemahaman

mengenai regresi:

Pengertian regresi linear

Konsep-konsep dasar dalam regresi

Kegunaan teknik analisis regresi

1. Pengertian Regresi Liniear

Pengertian regresi secara umum adalah sebuah alat statistik yang memberikan penjelasan tentang

pola hubungan (model) antara dua variabel atau lebih..

Dalam analisis regresi dikenal 2 jenis variabel yaitu:

1. Variabel Respon (variabel dependen) yaitu variabel yang keberadaannya dipengaruhi oleh

variabel lainnya dan dinotasikan dengan variabel Y

2. Variabel Prediktor (variabel independen) yaitu variabel yang bebas (tidak dipengaruhi oleh

variabel lainnya) dan dinotasikan dengan X

Untuk mempelajari hubugan – hubungan antara variabel bebas maka regresi linier terdiri dari dua

bentuk, yaitu:

1. Analisis regresi sederhana (simple analysis regresi)

2. Analisis regresi berganda (Multiple analysis regresi).

A. Analisis regresi sederhana merupakan hubungan antara dua variabel yaitu variabel bebas

(variable independen) dan variabel tak bebas (variabel dependen).

B. Sedangkan analisis regresi berganda merupakan hubungan antara 3 variabel atau lebih,

yaitu sekurang-kurangnya dua variabel bebas dengan satu variabel tak bebas.

2. Tujuan Regresi

adalah untuk membuat perkiraan nilai suatu variabel (variabel dependen) jika nilai variabel yang

lain yang berhubungan dengannya (variabel lainnya) sudah ditentukan.

3. Analisis Regresi Linier Sederhana

Regresi linier sederhana digunakan untuk mendapatkan hubungan matematis dalam bentuk suatu

persamaan antara variabel tak bebas tunggal dengan variabel bebas tunggal. Regresi linier

sederhana hanya memiliki satu peubah yang dihubungkan dengan satu peubah tidak bebas . Bentuk

umum dari persamaan regresi linier untuk populasi adalah

Y=a+bx

Di mana:

Y = Variabel tak bebas

X = Variabel bebas

a = Parameter Intercep

b = Parameter Koefisisen Regresi Variabel Bebas

Asumsi

Penggunaan regresi linear sederhana didasarkan pada asumsi diantaranya sbb:

Model regresi harus linier dalam parameter

Variabel bebas tidak berkorelasi dengan disturbance term (Error) .

Nilai disturbance term sebesar 0 atau dengan simbol sebagai berikut: (E (U / X) = 0

Varian untuk masing-masing error term (kesalahan) konstan

Tidak terjadi otokorelasi

Model regresi dispesifikasi secara benar. Tidak terdapat bias spesifikasi dalam model

yang digunakan dalam analisis empiris.

Jika variabel bebas lebih dari satu, maka antara variabel bebas (explanatory) tidak

ada hubungan linier yang nyata

2.4 Persyaratan Penggunaan Model Regresi

Model kelayakan regresi linear didasarkan pada hal-hal sebagai berikut:

a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05

b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini

diketahui jika angka Standard Error of Estimate < Standard Deviation

c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien

regresi signifikan jika T hitung > T table (nilai kritis)

d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat

tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk

regresi linier berganda dengan variabel bebas lebih dari satu.

e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB)

sebesar < 1 dan > 3

f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin

besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model

regresi semakin baik. Nilai r2 mempunyai karakteristik diantaranya: 1) selalu positif,

2) Nilai r2 maksimal sebesar 1. Jika Nilai r2

sebesar 1 akan mempunyai arti kesesuaian

yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh

model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada hubungan linier

antara X dan Y.

g. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y)

h. Data harus berdistribusi normal

i. Data berskala interval atau rasio

j. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas

(disebut juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung

(disebut juga sebagai variabel response)

2.1 Regresi Linear Sederhana

2.1.1 Regresi Populasi

Perhatikan utama regresi pada dasarnya adalah menjelaskan dan mengevaluasi

hubungan antara suatu variabel dependen dengan satu atau lebih variabel independen. Kita

akan memberi ilustrasi tentang regresi sederhana yang terdiri dari satu variable independen.

Sebagai contoh, diberikan ilustrasi sebagai berikut: menurut model pendekatan tradisional

(traditional approach) yang dikemukakan oleh Dornbusch (2000), bahwa perubahan harga

saham dipengaruhi oleh nilai tukar. Misalkan jika nilai tukar rupiah terhadap dollar Amerika

Serikat mengalami apresiasi (dollar AS depresiasi) maka harga saham di Bursa Efek Indonesia

mengalami penguatan, dan

seblaiknya jika nilai tukar rupiah terhadap dollar AS mengalami depresiasi (dollar AS apresiasi)

maka harga saham di Bursa Efek Indonesia mengalami penurunan dengan asumsi variabel

selain harga tetap.

Kita asumsikan terdapat hubungan yang linier antara harga saham dan nilai tukar.

Hubungan keduannya tidak harus linier, namun untuk penyederhanaan kita asumsikan linier.

Hubungan linier kedua dapat kita tulis dalam persamaan regresi berikut:

Yi = β0 + β1X1 β1 < 0 (1)

dimana Yi = Harga saham; Xi = Kurs; i = observasi ke 1,2, 3…, n1 Dalam persamaan (1) tersebut

variabel Y yaitu jumlah permintaan barang disebut variabel dependen (dependent variable)

sedangkan variabel X yaitu harga barang disebut sebagai variabel independen (independent

variable). Persamaan (1) tersebut disebut persamaan regresi populasi. Pesamaan (2)

menunjukan nilai harapan (expected value) jumlah permintaan barang. Nilai harapan tersebut

dapat dinyatakan dalam persamaan sbb:

E(Y1) = β0 + β1X1 (2)

Nilai harapan dapat diinterprestasikan sebagai rata-rata jumlah permintaan barang pada

harga tertentu. Jumlah permintaan barang aktual tidak harus sama dengan nilai harapannya.

Ada banyak faktor yang mempengaruhi jumlah permintaan barang selain harga. Oleh karena

itu, jumlah p ermintaan barang aktual dapat ditulis sbb:

Atau dapat dinyatakan dalam bentuk persamaan sbb;

Y1 = E(Yi) + ei (3)

atau dapat dinyatakan dalam bentuk persamaan sbb:

Yi = β0 + β1Xi+ ei (4)

Dimana ei adalah variabel gangguan (disturbance/errors terms) yang nilainya bisa positif

atau negatif. Variabel gangguan ini muncul karena hubungan variabel ekonomi adalah

hubungan yang acak atau random tidak seperti hubungan variabel dalam matematika yang

bersifat deterministik.

Pada tingkat harga yang sama, jumlah barang yang dibeli konsumen akan berbeda. Hal

ini terjadi arena ada faktor selain harga yang juga bisa mempengaruhi permintaan barang,

misalnya selera konsumen. Dengan demikian, variabel gangguan mencerminkan faktor-faktor

selain harga yang mempengaruhi jumlah permintaan konsumen tetapi tidak dimasukan dalam

persamaan. Oleh KarenA itu, variabel dependen Y adalah variabel random (random variable)

atau stokastik (stochastic variable) yang besar kecilnya tergantung dari variable independen X.1

Tanda subskrip i menunjukkan observasi untuk data cross section sedangkan untuk observasi datatime series diberi

tanda subskrip variabel independen X adalah variabel tetap atau non-stotastik.

Sedangkan variable gangguan e variabel random atau stokastik. Secara umum variabel

gangguan ini disebabkan oleh dua hal. Yang pertama, variabel gangguan muncul karena model

yang digunakan terlalu sederhana tidak mencerminkan realitas. Misalnya kasus dalam

permintaan barang diatas dimana kita hanya memasukan variabel harga saja sebagai satu-

satunya faktor yang mempengaruhi jumlah permintaan barang. Sumber kedua munculnya

variable gangguan berhubungan dengan perilaku variabel ekonomi yang mencerminkan

perilaku manusia. Misalnya jika variabel harga merupakan satu-satunya faktor yang

mempengaruhi jumlah permintaaan barang belum tentu tingkat jumlah permintaan barang dari

setiap konsumen akan sama dari waktu ke waktu.

Persamaan (1) tersebut menjelaskan bahwa hubungan Y dan X merupakan hubungan linier.

Hubungan linier dapat digambarkan dalam bentuk garis lurus di dalam sebuah garis dengan β0

sebagai intersep (konstanta) dan β1 adalah kemiringan (slope) dari garis lurus yang kita peroleh.

Gambar dari persamaan (1) tersebut disebut dengan garis regresi populasi, lihat gambar 11ERi – rf

Security market line

ERi – rf

0 B1

FIGURE 6.2 The Market Model of Portfolio Theory

2.1.2 Regresi Sampel

Persamaan regresi populasi persamaan (1) sulit diketahui. Regresi populasi ini hanya dapat

diestimasi dengan menggunakan data sampel. Kembali ke dalam regresi populasi tentang

jumlah permintaan barang. Persamaan regresi sampel untuk menjelaskan hubugan antara

jumlah permintaan barang dengan tingkat harganya dapat dinyatakan dalam persamaan sbb:

Y1 = β0 + β1Xi β1<0 (5)

E(Yi) = β0 + βIXI

Persamaan (5) ini kalau kita gambarkan dalam bentuk grafik merupakan garis lurus

dengan intersep sebesar β0 dan slope β1. Garis lurus kita dapatkan regresi sampel dimana β0 dan

β1 merupakan estimasi parameter dari populasi β0 dan β1. Y1 di dalam persamaan (5) tersebut

disebut nilai prediksi (predicted value) dari nilai aktual Y. Y1 disebut nilai prediksi (predicted

value) dari kita dapat memprediksi jumlah permintaan barang untuk setiap harganya. Nilai

prediksi jumlah permintaan barang tentu tidak harus sama dengan nilai jumlah permintaan

aktualnya. Perbedaan antara jumlah permintaan yang diprediksi dengan jumlah permintaan

aktual disebut residual (residual). Dengan demikian, jumlah perminaan barang aktual dapat

ditulis dalam bentuk persamaan sbb:

Yi = Yi + ei (6)

Atau dapat ditulis dalam persamaan sbb:

Y1 = β0 + β1X1 + ei (7)

Gambar 2 Garis Regresi Populasi dan Sampel

Perbedaan antara garis regresi populasi dan sampel dapat dilihat dalam gambar 2. Di dalam

gambar 2. tersebut, untuk obeservasi i (Xi) nilai Yi aktualnya adalah Y sedangkan nilai harapan

regresi populasi adalah E (Yi). Perbedaan antara Yi dengan E(Y) adalah gangguan (ei). Sedangkan

nilai prediksi dari regresi sampel adalah Y i dan pembedaan antara Yi dengan Yi disebut residual

(ei). Pada obeservasi i tersebut nilai prediksi regresi sampel terlalu tinggi (overestimate)

terhadap nilai harapan E(Y) regresi populasi. Dalam gambar tersebut semua titik disebelah kiri

titik A menghasilkan prediksi regresi sampel terlalu tinggi sedangkan pada sebelah kanan A X1Y

E(Yi) = β0 + Βixi E(Yi) = β0 + βIXI

akan menghasilkan prediksi regresi sampel yang terlalu rendah (underestimate) dibandingkan

dengan regresi populasi.

2.2 Metode Kuadrat Terkecil (Ordinary Least Squares = OLS)

Persoalan penting didalam pembuatan garis regresi sampel adalah begaimana kita bisa

mendapatkan garis regresi yang baik. Garis regresi sampel yang baik ini terjadi jika nilai

prediksinya sedekat mungkin dengan data aktualnya. Dengan kata lain kita mencari nilai β0 dan

β1 yang menyebabkan residual sekecil mungkin. Pada sub-bab ini akan dibahas metode klasik

yang disebut metode metode kuadrat terkecil (ordinary least squares = OLS).

Y1 = β0 + β1X1 + ei (8)

Sebagaimana pembahasan sebelumnya, persamaan (8) tersebut merupakan prediksi dan nilai

prediksi ini akan berbeda dengan nilai aktualnya. Perbedaan nilai actual dengan nilai prediksi

disebut residual (ei) dan dapat ditulis sbb:

Y1 = Y1 + ei (9)

Persamaan (9) tersebut bisa kita tulis dalam bentuk persamaan yang lain sbb:

e1 = Y1 - Y1 (10)

e1 = Y1 - β0 - β1X1 (11)

Berdasarkan persamaan (11) tersebut, jika nilai residual adalah kecil maka perbedaan antara

aktual dan prediksi adalah kecil. Artinya, jika kita ingin mendapatkan garis regresi yang baik

residualnya harus sekecil mungkin. Misalkan kita mempunyai 6 data sampel jumlah permintaan

barang (Y) dan harganya (X). Kita plot data tersebut dalam bentuk diagram pancar atau

sketergram (scattergram), lihat gambar 3.

Gambar 2.3. Berbagai Garis Regresi Sampel

Dari diagram pencar ini kemudian kita bisa menarik sebanyak mungkin garis regresi sampel,

misalnya kita ambil 3 garis regresi. Sebuah garis regresi dikatakan garis regresi yang baik jika

garis tersebut bisa sedekat mungkin dengan data aktualnya. Atau dengan kata lain garis regresi

yang baik terjadi jika residualnya sekecil mungkin. Pertanyaan yang muncul, bagaimana caranya

kita mendapatkan residual sekecil mungkin sehingga bisa mendapatkan garis regresi yang

terbaik.

Jika kita menjumlahkan semua residual ini kita memang bisa mendapatkan jumlah

residual ei yang sedikit mungkin. Namun, kemungkinan kita mendapatkan jumlah residual ei

sebesar nol bisa juga terjadi. Padahal faktanya ada beberapa residual ei yang jaraknya jauh dari

garis regresi baik dibawahnya maupun diatasnya. Hal ini terjadi karena kita memberi timbangan

yang sama kepada setiap residual ei tanpa melihat jauh dekat jaraknya. Misalnya e1, e2, e3, e4,

e5, dan e6 masing-masing jaraknya -1, +1, -4, +4, -2 dan +2. Jumlah nilai dari residual e i adalah

nol meskipun e3 dan e4 mempunyai jarak yang lebih jauh dari garis regresi dibandingkan dengan

e1 dan e2.

Kita bisa menghindari permasalahan kemungkinan terjadinya jumlah nilai residual ei

sebesar nol dengan memberi timbangan kepada masing-masing residual ei. Salah satu caranya

adalah dengan mengkuadratkan masing-masing residual ei. Dengan mengkuadratkannya maka

kita memberi timbangan yang lebih besar kepada residualnya e i. Yang mempunyai jarak yang

lebar seperti residual e3 maupun e4. Metode mencari nilai residual sekecil mungkin dengan

menjumlahkan kuadrat residual ini disebut dengan metode kuadrat terkecil (ordinary least

squares).

Metode Ordinary Least Square (OLS) yang akan menjamin jumlah residual

kuadrat sekecil mungkin dapat dijelaskan sbb:

Σe2i = Σ (Yi – Yi)2 (12)

Σe2i = Σ (Yi – β0-β1Yi)2 (13)

Dengan mengkuadratkan residual ei dan kemudian menjumlahkannya, maka metode

kuadrat terkecil ini akan memberi timbangan yang lebih besar kepada e3 dan e4 daripada e1 dan

e2. Metode ini akan menjamin bahwa jumlah nilai e i sebesar nol tidak mungkin terjadi

sebagaimana metode sebelumnya karena lebarnya jarak ei akan juga menyebabkan lebarnya

Σe2 i.

Di dalam matematika, untuk mendapatkan nilai minimum dalam sebuah fungsi maka

syaratnya adalah turunan pertama dari fungsi tersebut sama dengan nol. Oleh karena itu untuk

mendapatkan Σe2 i sekecil mungkin caranya dengan melakukan diferensiasi (turunan) pada

persamaan (13). karena fungsi Σe2 i dalam persamaan (13) tersebut adalah fungsi dari β0 dan βi,

maka persamaan tersebut harus dideferensiasikan secara parasial terhadap β0 dan βi. Dengan

melakukan diferensiasi parsial maka akan menghasilakan nilai estimasi β0 dan βi yang

menyebabkan nilai dari Σe2i sekecil mungkin. Proses diferensiasi parsial (13) akan menghasilkan

estimator β0 dan βi sbb:

β1 = n Σ X i Y i – Σ X i Σ Y i (14)

nΣX2 i – (ΣXi)2

= Σ (X i – X) (Y i -Y)

Σ(Xi – X)2

= Σ x i y i

Σx2i

Β0 = Σ X 2 i Σ Yi – Σ X i Σ x i Y i (15)

nΣX2i – (ΣXi)2

= Σ Y i _ β 1 Σ X i

n n

= Y – βiX

dimana x1 = X, — X, V, — Y, Y dan X adalah rata-rata serta n adalah jumlah observasi.

2.3 Asumsi-Asumsi Metode Kuadrat Terkecil

Metode OLS yang dikenal sebagai metode Gaussian merupakan landasan utama di dalam teori

ekonometrika. Metode OLS ini dibangun dengan menggunakan asumsi-asumsi tertentu.

Misalkan kita mempunyai model regresi populasi sederhana sbb:

Y1 = β0 + β1X1 + ei (16)

Asumsi yang berkaitan dengan model garis regresi linier dua variabel tersebut adalah

sbb:

1. Asumsi 1

Hubungan antara Y (variabel dependen) dan X (variabel independen) adalah linier dalam

parameter. Model regresi yang linier dalam parameter dapat dilihat dalam persamaan (16).

Dalam hal ini berhubungan β1 linier terhadap Y.

2. Asumsi 2

Variabel X adalah variabel tidak stokastik yang nilainya tetap. Nilai X adalah tetap untuk

berbagai observasi yang berulang-ulang. Kembali dalam kasus hubungan jumlah permintaan

barang dengan tingkat harganya, untuk mengetahui tingkat variasi jumlah permintaan barang

maka kita melakukan berbagai observasi pada tingkat harga tertentu. Jadi dengan sampel yang

berulang-ulang nilai variable independen (X) adalah tetap atau dengan kata lain variabel

independen (X) adalah variabel yang dikontrol.

3. Asumsi 3

Nilai harapan (expected value) atau rata-rata dan variabel gangguan ei adalah nol atau dapat

dinyatakan sbb:

E(ei/Xi)=0 (17)

Karena kita mengasumsikan bahwa nilai harapan dan Y hanya dipengaruhi oleh variabel

independen yang ada atau dapat dinyatakan sbb:

E(Y) =β0 + β1Xi) (18)

4. Asumsi 4

Varian dari variabel gangguan ei adalah sama (homoskedastisitas) atau dapat dinyatakan sbb:

5. Asumsi 5

Tidak ada serial korelasi antara gangguan ei atau gangguan ei tidak saling berhubungan dengan

ej yang lain atau dapat dinyatakan sbb:

Cov (ei, ej ) = 0; i j

6. Asumsi 6

Variabel gangguan ei berdistribusi normal

e ~ N(0,σ2)

Asumsi 1 sampai 5 dikenal dengan model regresi linier klasik (Classical Linear Regression

Model).

Dengan asumsi-asumsi di atas pada model regresi linier klasik, model kuadrat terkecil (OLS)

memiliki sifat ideal dikenal dengan teorema Gauss-Markov (Gauss-Markov Theorem). Metode

kuadrat terkecil akan menghasilkan estimator yang mempunyai sifat tidak bias, linier dan

mempunyai varian yang minimum (best linearunbiased estimators = BLUE). Suatu estimator β1

dikatakan mempunyai sifat yang

BLUE jika memenuhi kriteria sbb:

1. Estimator β1 adalah linier (linear), yaitu linier terhadap variabel stokastik Y sebagai

variabel dependen.

2. Estimator β1 tidak bias, yaitu nilai rata rata atau nilai harapan E(β1) sama dengan nilai β1

yang sebenarnya.

3. Estimator β1 mempunyai varian yang minimum. Estimator yang tidak bias dengan varian

minimum disebut estimator yang efisien (efficient estimator)

Dengan demikian jika persamaan (16) memenuhi asumsi-asumsi tersebut di atas maka nilai

koefisien β1 dalam persamaan tersebut dapat diartikan sebagai nilai harapan (expected value)

atau rata-rata dan nilal Y pada nilai tertentu variable independen X. Catatan penting dalam

teorema Gauss-Markov adalah bahwa teorema ini tidak berlaku kepada estimator yang tidak

linier (nonlinear). Estimator yang tidak linier mungkin juga mempunyai varian yang lebih kecil

dan model regresi linier klasik.

2.4 Standard Error dari OLS

Regresi sampel yang kita lakukan merupakan cara untuk mengestimasi regresi populasi. Karena

itu, estimator β0 dan β1 yang diperoleh dan metode OLS adala variabel yang sifatnya acak atau

random yaitu nilainya berubah dari satu sampel ke sampel yang lain. Adanya variabilitas

estimator ini maka kita membutuhkan ketepatan dari estimator β0 dan β1. Di dalam statistika

untuk mengetahui ketepatan estimator OLS ni diukur dengan menggunakan kesalahan standar

(Standard error).

Semua variabel dalam perhitungan standard error di atas dapat diestimasi dari data yang ada

kecuali σ2. Σe2 i adalah jumlah residual kuadrat (residual sum of squares = RSS). n-k dikenal

dengan jumlah derajat kebebasan (number of degree of freedom)

disingkat sebagai df. df Ini berarti jumlah observasi (n) dikurangi dengan jumlah

parameter estimasi. Semakin kecil standard error dan estimator maka semakin kecil variabilitas

dan angka estimator dan berarti semakin dipercaya nilai estimator yang didapat.

2.5 Koefisien Determinasi (R2)

Hingga kini kita baru berhubungan dengan masalah estimasi dan koefisien regresi,

standard error dan estimator. Sekarang tibalah pembahasan tentang seberapa baik garis regresi

menjelaskan datanya (goodness of fit). Artinya bagaimana garis regresi yang dibentuk sesuai

dengan data. Jika semua data terletak pada garis regresi atau dengan kata lain semua nilai

residual adalah nol maka kita mempunyai garis regresi yang sempurna. Tetapi garis regresi yang

sempurna ini jarang terjadi.

Pada umumnya yang terjadi adalah ei bisa positif maupun negatif Jika in terjadi berarti

merupakan garis regresi yang tidak seratus persen sempurna. Namun yang kita harapkan

adalah bahwa kita mencoba mendapatkan garis regresi yang menyebabkan e i sekecil mungkin.

Dalam mengukur seberapa baik garis regresi cocok dengan datanya atau mengukur persentase

total variasi Y yang dijelaskan oleh garis regresi digunakan konsep koefisien determinasi (R2).

2.6

Koefisien determinasi R2 dapat dihitung langsung dari data bersamaan dengan koefisien regresi bi.

Kegunaan dari Koefisien determinasi R2 adalah untuk mengukur tingkat ketepatan yang paling baik dari

analisis regresi. Jika data observasi dapat tepat pada garis atau bidang regresi yang diestimasi, maka

dikatakan terjadi cocokan garis atau bidang regresi dengan sepurna, dan nilai koefisien determinasi akan

maksimum yaitu R2 =1

Dalam kenyataan terhadap data pengamatan akan terjadi penyimpangan dengan garis atau bidang

regresi Penduga yang dikodekan dengan ei. Di dalam analisis regresi dengan metode kuwadrat terkecil

(OLS) diusahakan supaya nilai Σei sekecil mungkin mendekati nol atau nilai koefisien determinasi

semaksimum mungkin mendekati satu. Koefisien determinasi berganda R2 dengan rumus umum seperti

berikut:[

3.62] R2 = Jumlah Kuadrat Total

Jumlah Kuadrat Re gresi

Koefisien determinasi berganda R2 dari regresi tiga variabel atau untuk regresi dengan dua variabel

bebas X (X1 dan X2) dengan model persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X3. dapat didefinisikan

sebagai berikut :

[3.63] R2 = 21 1 2 2 i y

b x i yi b x i yi

Untuk regresi p + 1 variabel atau dengan p variabel bebas X (X1, X2, X3, . . ., Xp) dengan model

persamaan regresi seperti Ŷ = β0 + β1 X1 + β2 X2 + . . . + βp Xp dapat didefinisikan sebagai berikut :

[3.64] R2 = 21 1 2 2 . . . i yb x i yi b x i yi bk x

pi yi

Contoh Analisis dan Uraiannya

Agar dapat memahami uraian di atas dan dapat menentukan nilai koefisien regresi penduga atau

koefisien egresi bi yaitu nilai- nilai b0, b1, dan b2, maka diberikan contoh olahan seperi di bawah ini,

yang datanya terdiri dari dua variabel bebas X (prediktor = regresor) yaitu X1 dan X2 seperti pada Tabel

3.3.

Tabel 3.3. Pengamatan Data Rregresi Dua Variabel Bebas X dan Satu Variabel YTabel 3.3. Pengamatan

Data Rregresi Dua Variabel Bebas X dan Satu Variabel Y

No. X1 X2 Y X12 X2 2 Y2 X1Y X2 Y X1X2

1 9,750 1,610 0,650 95,063 2,592 0,423 6,338 1,047 15,698

2 10,500 2,000 0,750 110,250 4,000 0,563 7,875 1,500 21,000

3 11,250 2,500 0,900 126,563 6,250 0,810 10,125 2,250 28,125

4 12,600 2,700 1,150 158,760 7,290 1,323 14,490 3,105 34,020

5 11,900 2,250 0,950 141,610 5,063 0,903 11,305 2,138 26,775

6 15,200 3,250 1,750 231,040 1,563 3,063 26,600 5,688 49,400

7 12,250 2,900 1,050 150,063 8,410 1,103 12,863 3,045 35,525

8 12,900 3,000 1,000 166,410 9,000 1,000 12,900 3,000 38,700

9 14,300 3,100 1,700 204,490 9,610 2,890 24,310 5,270 44,330

10 13,250 3,050 1,250 175,563 9,303 1,563 16,563 3,813 40,413

11 15,300 3,250 1,800 234,090 0,563 3,240 27,540 5,850 49,725

12 8,900 1,900 0,600 79,210 3,610 0,360 5,340 1,140 16,910

13 10,600 1,950 0,500 112,360 3,803 0,250 5,300 0,975 20,670

14 7,500 3,450 0,720 56,250 1,903 0,518 5,400 2,484 25,875

15 11,900 2,250 0,950 141,610 5,063 0,903 11,305 2,138 26,775

Jumlah 178,100 39,160 15,720 2183,330107,020 18,908 198,253 43,441 473,940

Ratarata 11,873 2,611 1,048 145,555 7,135 1,261 13,217 2,896 31,596

Koefisien Korelasi (r)

Konsep yang sangat erat kaitannya dengan koefisien determinasi (R2) adalah koefisien

korelasi (r). R2 adalah koefisien yang menjelaskan hubungan antara variabel dependen (Y)

dengan variabe’l independen (Y) dalam suatu model. Sedangkan koefisien korelasi (r) mengukur

derajat keeratan antara dua variabel. Nilai koefisien korelasi (r) ini mempunyai nilai antar -1 dan

1. Nilai positif berarti mempunyai korelasi searah sedangkan negatif berarti mempunyai korelasi

yang berlawanan arah.

Aplikasi Eviews Regresi Sederhana

• IHSGi = β0 + β1 KURSi + ei

Dependent Variable: IHSG

Method: Least Squares

Date: 07/10/11 Time: 20:11

Sample: 2005M07 2011M07

Included observations: 73

Variable Coefficient Std. Error t-Statistic Prob.

C 34.46993 4.739034 7.273621 0.0000

KURS -2.930811 0.517650 -5.661766 0.0000

R-squared 0.311051 Mean dependent var 7.639475

Adjusted R-squared 0.301348 S.D. dependent var 0.384003

S.E. of regression 0.320971 Akaike info criterion 0.592082

Sum squared resid 7.314582 Schwarz criterion 0.654834

Log likelihood -19.61099 F-statistic 32.05560

Durbin-Watson stat 0.077023 Prob(F-statistic) 0.000000

REGRESI BERGANDA: PENAKSIRAN DAN PENGUJIAN HIPOTESIS

Model regresi berganda yaitu model regresi dengan lebih dari satu variable penjelas (variabel

bebas) yang mempengaruhi variabel terikat. Misalkan variable Indeks Harga Saham Gabungan

(IHSG) dipengaruhi oleh nilai tukar (Kurs) dan Suku Bunga Bank Indonesia (SBI).\

Contoh Aplikasi Eviews

Model Regresi Sederhana

IHSGi = β0 + β1 Kursi + ei

Dependent Variable: IHSG

Method: Least Squares

Date: 10/02/10 Time: 20:59

Sample: 2005M07 2010M08

Included observations: 62

Variable Coefficient Std. Error t-Statistic Prob.

C 5508.523 872.9456 6.310271 0.0000

KURS -0.366675 0.090323 -4.059578 0.0001

R-squared 0.215483 Mean dependent var 1975.761

Adjusted R-squared 0.202408 S.D. dependent var 606.7348

S.E. of regression 541.8628 Akaike info criterion 15.45963

Sum squared resid 17616920 Schwarz criterion 15.52825

Log likelihood -477.2485 F-statistic 16.48017

Durbin-Watson stat 0.058467 Prob(F-statistic) 0.000144

Model Regresi Berganda

IHSGi = β0 + β1 Kursi + SBIi + ei

Dependent Variable: IHSG

Method: Least Squares

Date: 10/02/10 Time: 21:05

Sample: 2005M07 2010M08

Included observations: 62

Variable Coefficient Std. Error t-Statistic Prob.

C 5508.523 872.9456 6.310271 0.0000

KURS -0.366675 0.090323 -4.059578 0.0001

SBI -242.0085 15.08479 -16.04321 0.0000

R-squared 0.853702 Mean dependent var 1975.761

Adjusted R-squared 0.848742 S.D. dependent var 606.7348

S.E. of regression 235.9703 Akaike info criterion 13.81247

Sum squared resid 3285238. Schwarz criterion 13.91539

Log likelihood -425.1865 F-statistic 172.1428

Durbin-Watson stat 0.397930 Prob(F-statistic) 0.000000

Estimation Command:

=====================

LS IHSG C KURS SBI

Estimation Equation:

=====================

IHSG = C(1) + C(2)*KURS + C(3)*SBI

Substituted Coefficients:

=====================

IHSG = 8071.792837 - 0.4097954024*KURS - 242.0084526*SBI

Model Regresi Berganda

IHSG i = β0 + DJIA1i + β2SBI2i + β3KURS3i +U1i

Dependent Variable: IHSG

Method: Least Squares

Date: 07/10/11 Time: 21:10

Sample: 2005M07 2011M07

Included observations: 73

Variable Coefficient Std. Error t-Statistic Prob.

C 34.46993 4.739034 7.273621 0.0000

KURS -2.930811 0.517650 -5.661766 0.0000

R-squared 0.311051 Mean dependent var 7.639475

Adjusted R-squared 0.301348 S.D. dependent var 0.384003

S.E. of regression 0.320971 Akaike info criterion 0.592082

Sum squared resid 7.314582 Schwarz criterion 0.654834

Log likelihood -19.61099 F-statistic 32.05560

Durbin-Watson stat 0.077023 Prob(F-statistic) 0.000000

Estimation Command:

=====================

LS IHSG C DJIA SBI KURS

Estimation Equation:

=====================

IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS

Substituted Coefficients:

=====================

IHSG = 35.32114316 - 0.1538882084*DJIA - 0.1336108444*SBI - 2.758970034*KURS

-.4

-.2

.0

.2

.4

6.8

7.2

7.6

8.0

8.4

2006 2007 2008 2009 2010 2011

Residual Actual Fitted

DESKRIPTIF STATISTIK

DJIA IHSG KURS SBI

Mean 8.341239 7.639475 9.154621 8.537671

Median 8.313232 7.742623 9.127470 8.250000

Maximum 9.293289 8.271027 9.386160 12.75000

Minimum 7.797587 6.956631 9.057752 6.500000

Std. Dev. 0.337361 0.384003 0.073074 2.016715

Skewness 1.805001 -0.122698 1.654533 0.840114

Kurtosis 6.044454 1.903486 5.337166 2.621422

Jarque-Bera 67.83165 3.840296 49.92063 9.023073

Probability 0.000000 0.146585 0.000000 0.010982

Sum 608.9104 557.6817 668.2873 623.2500

Sum Sq. Dev. 8.194490 10.61702 0.384467 292.8339

Observations 73 73 73 73

Uji Heteroskedastisitas

White Heteroskedasticity Test:

F-statistic 1.537887 Probability 0.192926

Obs*R-squared 7.485466 Probability 0.186965

Test Equation:

Dependent Variable: RESID^2

Method: Least Squares

Date: 10/02/10 Time: 21:06

Sample: 2005M07 2010M08

Included observations: 62

Variable Coefficient Std. Error t-Statistic Prob.

C - 1633662. 2528323. -0.646144 0.5208

KURS 311.0399 430.8780 0.721875 0.4734

KURS^2 -0.020799 0.019654 -1.058242 0.2945

KURS*SBI 14.37513 14.75326 0.974369 0.3341

SBI 1363.175 162939.8 0.008366 0.9934

SBI^2 -7338.578 3541.340 -2.072260 0.0429

C 5508.523 872.9456 6.310271 0.0000

KURS -0.366675 0.090323 -4.059578 0.0001

R-squared 0.215483 Mean dependent var 1975.761

Adjusted R-squared 0.202408 S.D. dependent var 606.7348

S.E. of regression 541.8628 Akaike info criterion 15.45963

Sum squared resid 17616920 Schwarz criterion 15.52825

Log likelihood -477.2485 F-statistic 16.48017

Durbin-Watson stat 0.058467 Prob(F-statistic) 0.000144