Konsep multikolinearitas. Metode untuk mendeteksi dan menghilangkan multikolinearitas

Dalam praktiknya, ketika mengkuantifikasi parameter model ekonometrika, sering dijumpai masalah hubungan antara variabel penjelas. Jika hubungannya agak dekat, maka estimasi parameter model mungkin memiliki kesalahan yang besar. Hubungan antara variabel penjelas ini disebut multikolinearitas... Masalah multikolinearitas muncul hanya untuk kasus regresi berganda, karena ada satu variabel penjelas dalam regresi berpasangan. Estimasi koefisien regresi mungkin menjadi tidak signifikan bukan hanya karena tidak signifikannya faktor ini, tetapi juga karena kesulitan yang timbul dalam membedakan pengaruh dua faktor atau lebih terhadap variabel terikat. Ini memanifestasikan dirinya ketika faktor-faktor berubah secara serempak. Hubungan antara variabel terikat dan perubahannya masing-masing hanya dapat ditentukan jika hanya satu dari faktor-faktor tersebut yang termasuk dalam jumlah variabel penjelas.

Sifat multikolinearitas paling jelas dimanifestasikan ketika ada hubungan linier yang ketat antara variabel penjelas. Ini adalah multikolinearitas yang ketat, di mana tidak mungkin untuk memisahkan kontribusi masing-masing variabel untuk menjelaskan perilaku indikator kinerja. Multikolinearitas non-ketat, atau stokastik, lebih sering terjadi, ketika variabel penjelas berkorelasi satu sama lain. Dalam hal ini, masalah hanya muncul ketika hubungan variabel mempengaruhi hasil estimasi regresi.

Konsekuensi utama dari multikolinearitas adalah:

Keakuratan estimasi parameter regresi menurun, yang memanifestasikan dirinya dalam tiga aspek:

Kesalahan beberapa perkiraan menjadi sangat besar;

Kesalahan ini sangat berkorelasi satu sama lain;

Varians sampel meningkat secara dramatis;

· Koefisien beberapa variabel yang dimasukkan ke dalam regresi ternyata tidak signifikan, tetapi karena pertimbangan ekonomi, variabel-variabel inilah yang seharusnya memiliki efek nyata pada variabel yang dijelaskan;

· Estimasi koefisien menjadi sangat sensitif terhadap pengamatan sampel (peningkatan kecil dalam ukuran sampel menyebabkan pergeseran yang sangat kuat dalam nilai estimasi).

Penyebab multikolinearitas:

· Model mencakup tanda-tanda faktor yang mencirikan sisi fenomena yang sama;

· Persamaan regresi berisi indikator-indikator seperti tanda-tanda faktor, yang nilai totalnya merupakan nilai konstan;

· Model menggunakan fitur faktorial yang merupakan elemen penyusun satu sama lain;

· Fungsi pemodelan mencakup fitur faktorial, artinya saling menduplikasi.

Masalah multikolinearitas sering terjadi pada regresi time series, yaitu ketika data terdiri dari serangkaian pengamatan selama periode waktu tertentu. Jika dua atau lebih variabel penjelas memiliki tren temporal yang kuat, maka mereka akan berkorelasi erat, dan ini dapat menyebabkan multikolinearitas.

Jika di antara koefisien korelasi berpasangan variabel bebas ada yang nilainya mendekati atau sama dengan koefisien korelasi berganda, maka hal ini menunjukkan kemungkinan adanya multikolinearitas.

Jika dalam model ekonometrik diperoleh nilai parameter yang kecil dengan koefisien determinasi yang besar dan, pada saat yang sama, kriteria -berbeda secara signifikan dari nol, maka ini menunjukkan adanya multikolinearitas.

Metode penelitian multikolinearitas

· menemukan dan menganalisis matriks korelasi

Hubungan stokastik antar variabel ditandai dengan nilai koefisien korelasi antar variabel. Semakin dekat nilai absolut koefisien korelasi dengan satu, semakin kuat multikolinearitasnya. Secara umum, jika, ketika mengevaluasi persamaan regresi, beberapa faktor ternyata tidak signifikan, maka Anda perlu mencari tahu apakah ada korelasi di antara mereka. Untuk ini, matriks koefisien korelasi pasangan dibentuk, yang simetris dan disebut matriks korelasi. Sepertinya:

di mana adalah koefisien korelasi pasangan antara variabel di dan salah satu faktor - koefisien korelasi pasangan antara faktor-faktor, yang dihitung dengan rumus

Analisis matriks korelasi memungkinkan untuk menilai, pertama, tingkat pengaruh faktor individu pada indikator yang efektif, dan kedua, hubungan faktor satu sama lain.

Jika koefisien korelasi pasangan antara beberapa faktor mendekati satu, ini menunjukkan hubungan yang erat di antara mereka, yaitu. untuk adanya multikolinearitas. Dalam hal ini, salah satu faktor harus dikecualikan dari pertimbangan lebih lanjut. Pertanyaannya adalah yang mana. Itu tergantung pada situasi spesifik. Paling sering, faktor yang, dari sudut pandang ekonomi, lebih penting untuk proses yang diteliti, dibiarkan untuk pemodelan. Anda juga dapat meninggalkan faktor yang memiliki pengaruh lebih besar pada indikator efektif (yaitu, koefisien korelasinya dengan indikator efektif lebih besar). Analisis semacam ini dilakukan untuk setiap pasangan faktor. Hasil analisis matriks korelasi adalah pembentukan sekelompok faktor yang sedikit bergantung di antara mereka sendiri - mereka harus dimasukkan dalam model.

· menghitung determinan matriks korelasi correlation

Jika ada lebih dari dua faktor dalam model, pertanyaan tentang multikolinearitas tidak dapat dibatasi pada informasi yang diberikan oleh matriks korelasi. Pemeriksaan yang lebih luas melibatkan penghitungan determinan matriks,. Jika, maka terjadi multikolinearitas lengkap. Jika, maka tidak terjadi multikolinearitas. Semakin mendekati nol, semakin yakin kita dapat menegaskan adanya multikolinearitas antar variabel.

· Metode Ferrara-Glauber

Untuk mempelajari multikolinearitas umum dan multikolinearitas antara faktor individu, digunakan matriks korelasi, dihitung dengan rumus (3.3.2).

Kriteria tersebut digunakan untuk menyelidiki multikolinearitas umum. Nilainya dihitung

memiliki - distribusi dengan derajat kebebasan.

Untuk keandalan tertentu dan jumlah derajat kebebasan, nilai tabular ditemukan (Lampiran A). Jika, maka kita dapat mengasumsikan bahwa tidak ada multikolinearitas antara variabel penjelas.

Untuk memperjelas pertanyaan, di antara faktor mana yang terjadi multikolinearitas, digunakan -statistik atau -statistik. Untuk tujuan ini, koefisien parsial korelasi pasangan antara variabel penjelas digunakan, yang dihitung dengan rumus

di mana adalah elemen dari matriks terbalik.

Nilai digunakan sebagai kriteria

memiliki distribusi Student dengan derajat kebebasan.

Menurut tabel Siswa (Lampiran D), nilai kritis ditemukan. Bandingkan nilai kritis dengan yang dihitung:

· Jika, maka tidak ada kolinearitas antar variabel penjelas.

· Jika, maka terdapat kolinearitas yang signifikan antar variabel penjelas.

Metode untuk menghilangkan multikolinearitas

Jika multikolinearitas terdeteksi, perlu dilakukan sejumlah tindakan untuk mengurangi dan mungkin menghilangkannya. Perlu Anda ketahui bahwa tidak ada rekomendasi yang sempurna dan sepenuhnya benar, ini adalah proses pencarian kreatif. Itu semua tergantung pada derajat multikolinearitas, pada sekumpulan faktor, dan pada sifat data.

Berbagai teknik yang dapat digunakan untuk mengurangi multikolinearitas terkait dengan basis info dan terbagi dalam dua kategori. Yang pertama mencakup upaya untuk meningkatkan keandalan estimasi regresi - untuk meningkatkan jumlah pengamatan dalam sampel, dengan mengurangi periode waktu, untuk meningkatkan varians variabel penjelas dan mengurangi variasi angka acak, untuk memperbaiki himpunan variabel penjelas termasuk dalam model. Kategori kedua mencakup penggunaan informasi eksternal, yaitu. pengumpulan data tambahan dan perkiraan.

· metode eliminasi variabel

Metode ini melibatkan penghapusan variabel penjelas yang sangat berkorelasi dari regresi dan mengevaluasinya kembali. Pemilihan variabel yang akan dikeluarkan dilakukan dengan menggunakan koefisien korelasi. Untuk ini, signifikansi koefisien korelasi pasangan antara variabel penjelas dan diperkirakan. Jika, maka salah satu variabel dapat dikecualikan. Tetapi variabel mana yang akan dihapus dari analisis ditentukan berdasarkan pertimbangan ekonomi.

· metode transformasi linier variabel

Metode menghilangkan multikolinearitas ini terdiri dari transisi ke regresi bentuk tereduksi dengan mengganti variabel yang melekat pada kolinearitas dengan kombinasi liniernya. Jika terjadi multikolinearitas antara kedua faktor, maka faktor tersebut diganti dan kemudian adanya multikolinearitas antar faktor dan diperiksa. Dengan tidak adanya multikolinearitas, faktor dianggap bukan faktor.

· metode regresi bertahap

Prosedur regresi bertahap dimulai dengan menyusun regresi sederhana. Satu variabel penjelas dimasukkan dalam analisis secara berurutan. Pada setiap langkah, signifikansi koefisien regresi diperiksa dan multikolinearitas variabel diperkirakan. Jika estimasi koefisien ternyata tidak signifikan, maka variabel tersebut dikeluarkan dan variabel penjelas lainnya dipertimbangkan. Jika estimasi koefisien regresi signifikan dan tidak terjadi multikolinearitas, maka variabel berikut dimasukkan dalam analisis. Dengan demikian, seluruh komponen regresi ditentukan secara bertahap tanpa melanggar ketentuan tidak adanya multikolinearitas.

Langkah-langkah perbaikan multikolinearitas:

· Perlu untuk mengubah spesifikasi model sehingga kolinearitas variabel menurun ke tingkat yang dapat diterima;

· Penting untuk menerapkan metode penilaian yang, meskipun kolinearitas signifikan, memungkinkan menghindari konsekuensi negatifnya. Metode estimasi tersebut meliputi: metode dengan batasan parameter (estimator campuran dan estimator minimal), metode komponen utama, metode kuadrat terkecil dua langkah, metode variabel instrumental, metode kemungkinan maksimum.

Seperti yang telah ditunjukkan, penghapusan multikolinearitas dapat dicapai dengan menghilangkan satu atau beberapa tanda faktor yang terkait secara linier. Pertanyaan tentang faktor mana yang harus dibuang diputuskan berdasarkan analisis ekonomi, logis, kualitatif dari fenomena tersebut. Kadang-kadang dimungkinkan untuk mengurangi multikolinearitas dengan menggabungkan atau mengubah fitur faktorial asli. Secara khusus, ini dapat berupa kombinasi indikator antar industri dengan serangkaian dinamika, atau, misalnya, Anda dapat membuka perbedaan pertama dan menemukan persamaan regresi untuk perbedaan tersebut.

Meskipun tidak ada metode yang dapat diandalkan untuk mendeteksi kolinearitas, ada beberapa tanda yang dapat mendeteksi kolinearitas:

Tanda karakteristik multikolinearitas adalah nilai koefisien determinasi yang tinggi ketika parameter persamaan tidak signifikan (menurut untuk-statistik);

· Pada model dengan dua variabel, indikator multikolinearitas terbaik adalah nilai koefisien korelasi;

· Dalam model dengan jumlah yang lebih besar (dari dua) faktor, koefisien korelasi mungkin rendah karena adanya multikolinearitas, kita harus memperhitungkan koefisien korelasi parsial;

Jika koefisien determinasi besar, dan koefisien parsial kecil, maka multikolinearitas dimungkinkan

Contoh 3.6. Jelajahi data untuk multikolinearitas; jika ditemukan multikolinearitas variabel penjelas, maka keluarkan dari pertimbangan variabel yang berkorelasi dengan variabel penjelas lainnya.

kamu 17,44 17,28 17,92 18,88 17,12 21,12 20,64 19,68 18,4
X 1 22,95 24,84 29,97 28,08 24,3 32,4 29,97 33,48 29,7 26,73
X 2 1,56 2,88 2,28 1,2 2,64 3,48 2,28 2,52 2,4
X 3 2,8 1,148 2,66 1,96 0,77 2,38 3,36 2,17 2,24 2,03

Keputusan. Untuk mempelajari multikolinearitas umum, kita akan menggunakan metode Farrar-Glauber.

Untuk mencari matriks korelasi R mari kita buat tabel bantu 3.13.

Tabel 3.13

Perhitungan elemen matriks korelasi

17,44 22,95 2,8 526,70 9,00 7,84 68,85 64,26 8,40 22,95 2,8 304,15
17,28 24,84 1,56 1,14 617,03 2,43 1,32 38,75 28,52 1,79 24,84 1,56 1,14 298,60
17,92 29,97 2,88 2,66 898,20 8,29 7,08 86,31 79,72 7,66 29,97 2,88 2,66 321,13
18,88 28,08 2,28 1,96 788,49 5,20 3,84 64,02 55,04 4,47 28,08 2,28 1,96 356,45
17,12 24,3 1,2 0,77 590,49 1,44 0,59 29,16 18,71 0,92 24,3 1,2 0,77 293,09
21,12 32,4 2,64 2,38 1049,76 6,97 5,66 85,54 77,11 6,28 32,4 2,64 2,38 446,05
29,97 3,48 3,36 898,20 12,11 11,29 104,3 100,7 11,69 29,97 3,48 3,36 400,00
20,64 33,48 2,28 2,17 1120,91 5,20 4,71 76,33 72,65 4,95 33,48 2,28 2,17 426,01
19,68 29,7 2,52 2,24 882,09 6,35 5,02 74,84 66,53 5,64 29,7 2,52 2,24 387,30
18,4 26,73 2,4 2,03 714,49 5,76 4,12 64,15 54,26 4,87 26,73 2,4 2,03 338,56
188,48 282,42 24,24 21,52 8086,36 62,76 51,47 692,26 617,5 56,68 282,42 24,24 21,5 3571,35
18,848 28,24 2,42 2,15 808,64 6,28 5,15 69,23 61,75 5,67 28,24 2,424 2,15 357,13

Baris kedua dari belakang Tabel 3.12 menunjukkan jumlah kolom, dan baris terakhir menunjukkan rata-rata kolom.

Mari kita cari simpangan bakunya:

Demikian pula, kami memiliki,,.

Kami mengganti nilai deviasi standar yang ditemukan ke dalam rumus (3.3.3) untuk menghitung koefisien korelasi berpasangan:

Demikian pula,,,,.

Dapat disimpulkan bahwa ada hubungan tertentu antara setiap pasangan faktor. Untuk masalah ini, matriks korelasi (3.3.1) berbentuk:

Komentar. Jika perintah Analisis Data tidak tersedia pada menu Alat, Anda harus menjalankan Penataan Microsoft Excel dan menginstal Paket Analisis. Setelah menginstal Paket Analisis, itu harus dipilih dan diaktifkan menggunakan perintah Add-Ins.

Mari kita cari determinan dari matriks korelasi:

Nilai determinan matriks korelasi mendekati nol, yang menunjukkan adanya multikolinearitas yang signifikan.

... dan terjadi multikolinearitas dan salah satu variabel harus dikeluarkan. Kami mengecualikan variabel dari pertimbangan, karena.
  • 5. Prosedur untuk mengevaluasi model ekonometrik linier dari persamaan terisolasi di Excel. Arti dari informasi statistik keluaran layanan Regresi. (10) hal.41
  • 6. Spesifikasi dan evaluasi MNC model ekonometrika nonlinier ditinjau dari parameternya. (30) hal.24-25,
  • 7. Model regresi berpasangan klasik. Spesifikasi model. teorema Gauss-Markov.
  • 8. Metode kuadrat terkecil: algoritma metode, kondisi aplikasi.
  • 9. Identifikasi persamaan individu dari sistem persamaan simultan: kondisi ordinal. (tigapuluh)
  • Sebuah kondisi yang diperlukan untuk identifiability
  • 10. Estimasi parameter model regresi berpasangan dengan metode kuadrat terkecil. (10)
  • 11. Variabel dummy: definisi, tujuan, jenis.
  • 12. Autokorelasi gangguan acak. Alasan. Efek.
  • 13. Algoritma untuk memeriksa signifikansi regresi dalam model regresi berpasangan.
  • 14. Estimasi interval nilai yang diharapkan dari variabel dependen dalam model regresi berpasangan.
  • 15. Uji Chow untuk perubahan struktural dalam model regresi. (20) hal.59.60
  • 16. Algoritma untuk memeriksa kecukupan model regresi berpasangan. (20) hlm. 37, 79
  • 17. Koefisien determinasi dalam model regresi berpasangan.
  • 18. Estimasi parameter model regresi berganda menggunakan metode kuadrat terkecil.
  • 20. Heteroskedastisitas gangguan acak. Alasan. Efek. Tes Gq (20)
  • 21. Variabel kemiringan dummy: penugasan; spesifikasi model regresi kemiringan dummy; nilai parameter untuk variabel dummy. (20) hal.65
  • 22 .. Algoritma uji Durbin-Watson untuk ada (tidak adanya) autokorelasi gangguan acak. (20) hal.33
  • 23. Bentuk struktural dan tereduksi dari spesifikasi model ekonometrika.
  • 24. Heteroskedastisitas kemarahan acak. Alasan. Efek. Algoritma uji Goldfeld-Quandt untuk ada tidaknya heteroskedastisitas gangguan acak.
  • Algoritma uji Goldfeld-Quandt untuk ada (tidak adanya) heteroskedastisitas gangguan acak.
  • 25. Spesifikasi dan evaluasi ISM model ekonometrik nonlinier ditinjau dari parameter.
  • 26. Metode untuk mengoreksi heteroskedastisitas. Kuadrat Terkecil Tertimbang
  • 27. Masalah Multikolinearitas Pada Model Regresi Berganda Tanda-tanda Multikolinearitas.
  • 28. Apa itu logit, tobit, tindik.
  • 29. Apa metode kemungkinan maksimum hal 62.
  • 30. Apa yang dimaksud dengan proses stasioner?
  • 31. Sifat deret waktu.
  • 32 Model ar dan var.
  • 33. Identifikasi sistem.
  • 34. Menyiapkan model dengan sistem persamaan simultan.
  • 35. Apa itu metode Monte Carlo halaman 53
  • 36. Evaluasi kualitas model dengan f, gq, dw (linier) Hal. 33, 28-29
  • 37. Estimasi error pada parameter model ekonometrika dengan metode Monte Carlo.
  • 38. Refleksi dalam model pengaruh faktor yang tidak terhitung. Prasyarat teorema Gauss-Markov.
  • 39. Model deret waktu. Sifat-sifat dari rangkaian harga saham di bursa efek (20) hal.93.
  • 40. Nilai yang diharapkan dari variabel acak, varians dan standar deviasi. (20) hal.12-21
  • 41. Estimasi parameter model regresi berpasangan dengan metode kuadrat terkecil menggunakan layanan Search for a solution.
  • 42. Pengujian hipotesis statistik, t-statistik Student, probabilitas kepercayaan dan interval kepercayaan, nilai kritis statistik Student. Apa itu ekor gemuk?
  • 43. Masalah multikolinearitas pada model regresi berganda. Tanda-tanda multikolinearitas
  • 44. Koefisien determinasi parsial.
  • 46. ​​Makna ekonomis dari koefisien persamaan regresi linier dan pangkat.
  • 47 Memperkirakan koefisien model Samuelson-Hicks
  • 48. Kesalahan dari dimasukkannya variabel tidak signifikan dalam model atau pengecualian yang signifikan.
  • 49. Penelitian model regresi berganda hal.74-79.
  • 50. Multikolinearitas: mengapa buruk, bagaimana mendeteksinya dan bagaimana menghadapinya.
  • 51. Tanda-tanda stasioneritas dari proses stokastik. Apa itu White Noise? halaman 100
  • 52. Bentuk struktural dan tereduksi dari spesifikasi model ekonometrika.
  • 53. Algoritma untuk memeriksa signifikansi regresi dalam model regresi berpasangan. Dengan t-statistik, dengan f-statistik.
  • 54. Sifat dari rangkaian harga di pasar saham. Prinsip Konstruksi Portofolio Markowitz hal.93,102
  • 55. Model dinamik dari persamaan linear simultan (berikan contoh) hal.105.
  • 56. Metode kemungkinan maksimum: prinsip dan kesesuaian penggunaan
  • 57. Tahapan penelitian model regresi berganda hal.74-79.
  • 50. Multikolinearitas: mengapa buruk, bagaimana mendeteksinya dan bagaimana menghadapinya.

    Multikolinearitas adalah saling ketergantungan variabel yang mempengaruhi. Masalahnya adalah, jika ada, menjadi sulit atau tidak mungkin untuk memisahkan pengaruh regressor pada variabel dependen, dan koefisien kehilangan makna ekonomi dari fungsi marjinal atau elastisitas. Varians koefisien tumbuh, koefisien itu sendiri, diperkirakan dari sampel yang berbeda atau dengan metode Monte Carlo, berkorelasi satu sama lain. Ini mengarah pada fakta bahwa di wilayah pengaturan model grafik Y dan bertepatan sempurna, R2 dan F tinggi, dan di wilayah perkiraan grafik mungkin bertepatan, yang dapat dijelaskan dengan saling menekan kesalahan atau divergen, itu adalah, model ternyata tidak memadai.

    Bagaimana cara mendeteksi multikolinearitas? Cara termudah adalah dengan menggunakan matriks korelasi. Jika koefisien korelasi regresi lebih besar dari 0,7, maka mereka saling terkait. Determinan matriks korelasi dapat berfungsi sebagai karakteristik numerik dari multikolinearitas. Jika mendekati 1, maka regressor independen; jika ke 0, maka mereka terhubung kuat.

    Bagaimana cara mengatasi multikolinearitas?

    1. Terima, perhitungkan dan jangan lakukan apa-apa.

    2. Meningkatkan ukuran sampel: varians dari koefisien berbanding terbalik dengan jumlah sampel.

    3. Hapus dari model regresi yang berkorelasi lemah dengan variabel dependen, atau yang koefisiennya memiliki t-statistik kecil. Seperti dapat dilihat dari Tabel 7.10, dalam hal ini, koefisien bergeser pada regresi yang signifikan, dan muncul pertanyaan tentang makna ekonominya. (Dan artinya adalah ini: jika regresi berkorelasi dan Anda dapat mengontrolnya, misalnya, biaya mesin dan pekerja, maka Anda harus mengubahnya secara proporsional). F-statistik, yaitu kualitas model, berkembang.

    4. Gunakan agregat variabel berkorelasi dalam persamaan regresi: kombinasi linier dengan koefisien berbanding terbalik dengan standar deviasi variabel dan meratakan skalanya. Agregat seperti itu biasanya tidak masuk akal secara ekonomi, tetapi dapat meningkatkan kecukupan model.

    5. Analisis faktor, atau metode komponen utama. Ini digunakan jika ada banyak variabel, tetapi mereka adalah kombinasi linier dari sejumlah kecil faktor independen, yang mungkin tidak masuk akal secara ekonomi.

    51. Tanda-tanda stasioneritas dari proses stokastik. Apa itu White Noise? halaman 100

    Deret waktu adalah realisasi akhir c proses tochastic : menghasilkan satu set variabel acak kamu(untuk).

    Sebuah proses stokastik bisa stasioner dan non-stasioner. Prosesnya adalah Perlengkapan tulis , jika sebuah

      Ekspektasi matematis dari nilai variabel tidak berubah.

      Ekspektasi matematis dari varians variabel tidak berubah.

    3. Tidak ada fluktuasi periodik.

    Pengenalan stasioneritas:

    1. Grafik: pertumbuhan atau penurunan sistematis, gelombang dan zona volatilitas tinggi (dispersi) dalam rangkaian panjang segera terlihat.

    2. Autokorelasi (berkurang dengan bertambahnya lag)

    3. Uji tren: menguji hipotesis bahwa koefisien sama dengan nol pada untuk.

    4. Tes khusus yang disertakan dalam paket program komputer Stata, EViews, dll., Misalnya, tes Dickey-Fuller untuk unit root (Unit root).

    Proses acak murni, stasioner tanpa autokorelasi (Kor ( kamu saya / kamu k) = 0) disebut Kebisingan putih.

    Contoh dari proses non-stasioner - jalan-jalan acak

    Y (t) = Y (t-1) + a (t) Dimana sebuah (t)- Kebisingan putih.

    Menariknya, proses kamu(t) = 0,999 *kamu(t-1) + a (t) tidak bergerak

    Kemungkinan mendasar untuk menyingkirkan nonstasioneritas disebut integrabilitas. Berbagai metode digunakan untuk menghilangkan nonstasioneritas:

    1. Mengurangi tren, yang kita lakukan di bagian sebelumnya;

    2. Menggunakan selisih 1, 2, dst. perintah, yang hanya dapat dilakukan setelah merapikan deret waktu (atau spektrum energi), jika tidak, semua efek akan ditekan oleh fluktuasi statistik: varians perbedaan sama dengan jumlah varians.

    Untuk mempelajari deret harga di pasar saham, digunakan model yang menggunakan white noise dan autoregressive, yaitu saling ketergantungan tingkat deret waktu.

    Model MA (q) (rata-rata bergerak) - kombinasi linier dari elemen berurutan white noise

    X (t) = a (t) - K (1) * a (t-1) -…. - K (q) * a (t-q)

    X (t) = b0 + b1 * X (t-1) +…. + bp * X (t-p)

    Kombinasi mereka sangat populer.

    ARMA (p, q) = AR (p) + MA (q)

    dan ARIMA (p, i, q): sama, dengan keterpaduan orde ke-i.

    "

    Perhatikan bahwa dalam sejumlah kasus, multikolinearitas bukanlah "kejahatan" yang serius sehingga membuat upaya yang signifikan untuk mengidentifikasi dan menghilangkannya. Pada dasarnya, itu semua tergantung pada tujuan studi.
    Jika tugas utama model adalah memprediksi nilai masa depan dari variabel dependen, maka dengan koefisien determinasi R2 yang cukup besar (gt; 0.9), keberadaan multikolinearitas biasanya tidak mempengaruhi kualitas prediksi model ( jika di masa depan variabel yang berkorelasi tetap sama seperti sebelumnya).
    Jika perlu untuk menentukan tingkat pengaruh masing-masing variabel penjelas pada variabel dependen, maka multikolinearitas, yang menyebabkan peningkatan kesalahan standar, kemungkinan akan mendistorsi hubungan yang sebenarnya antara variabel. Dalam situasi ini, multikolinearitas adalah masalah serius.
    Tidak ada metode tunggal untuk menghilangkan multikolinearitas yang cocok dalam kasus apapun. Hal ini disebabkan oleh fakta bahwa penyebab dan akibat dari multikolinearitas bersifat ambigu dan sangat bergantung pada hasil sampel.
    Tidak termasuk variabel (s) dari model
    Metode paling sederhana untuk menghilangkan multikolinearitas adalah dengan mengecualikan satu atau beberapa variabel yang berkorelasi dari model. Diperlukan kehati-hatian tertentu saat menerapkan metode ini. Dalam situasi ini, kesalahan spesifikasi mungkin terjadi, oleh karena itu, dalam model ekonometrik yang diterapkan, disarankan untuk tidak mengecualikan variabel penjelas sampai multikolinearitas menjadi masalah serius.
    Mengambil data tambahan atau sampel baru
    Karena multikolinearitas secara langsung tergantung pada sampel, ada kemungkinan bahwa dengan sampel yang berbeda, multikolinearitas tidak akan atau tidak akan begitu serius. Terkadang, meningkatkan ukuran sampel cukup untuk mengurangi multikolinearitas. Misalnya, jika Anda menggunakan data tahunan, Anda dapat membuka data triwulanan. Meningkatkan jumlah data mengurangi varians dari koefisien regresi dan dengan demikian meningkatkan signifikansi statistiknya. Namun, memperoleh sampel baru atau memperluas yang lama tidak selalu memungkinkan atau melibatkan biaya yang serius. Selain itu, pendekatan ini dapat meningkatkan autokorelasi. Masalah-masalah ini membatasi penggunaan metode ini.
    Memodifikasi spesifikasi model
    Dalam beberapa kasus, masalah multikolinearitas dapat diselesaikan dengan mengubah spesifikasi model: baik bentuk perubahan model, atau penambahan variabel penjelas yang tidak diperhitungkan dalam model asli, tetapi secara signifikan mempengaruhi variabel dependen. Jika metode ini dibenarkan, maka penggunaannya mengurangi jumlah kuadrat deviasi, sehingga mengurangi kesalahan standar regresi. Ini mengarah pada pengurangan kesalahan standar koefisien.
    Menggunakan informasi awal tentang beberapa parameter
    Terkadang, saat membangun model regresi berganda, Anda dapat menggunakan informasi awal, khususnya, nilai yang diketahui dari beberapa koefisien regresi.
    Kemungkinan nilai koefisien yang dihitung untuk model awal (biasanya lebih sederhana) atau untuk model serupa berdasarkan sampel yang diperoleh sebelumnya dapat digunakan untuk model yang dikembangkan saat ini.
    Pemilihan variabel penjelas yang paling signifikan. Prosedur untuk koneksi berurutan elemen
    Pindah ke variabel penjelas yang lebih sedikit dapat mengurangi duplikasi informasi yang disampaikan oleh fitur yang sangat saling bergantung. Inilah yang kita hadapi dalam kasus variabel penjelas multikolinear.

    36. cara untuk mengidentifikasi multikoliaritas. korelasi parsial

    Kesulitan terbesar dalam menggunakan peralatan regresi berganda muncul dengan adanya multikolinearitas variabel faktor, ketika lebih dari dua faktor dihubungkan satu sama lain oleh ketergantungan linier.

    Multikolinearitas untuk regresi linier berganda adalah adanya hubungan linier antara variabel-variabel faktor yang dimasukkan dalam model.

    Multikolinearitas merupakan pelanggaran terhadap salah satu kondisi dasar yang mendasari konstruksi model regresi linier berganda.

    Multikolinearitas dalam bentuk matriks adalah hubungan antara kolom-kolom dari matriks variabel faktorial X:

    Jika kita tidak memperhitungkan vektor satuan, maka dimensi matriks ini adalah n * n. Jika rank matriks X kurang dari n, maka model tersebut mengandung multikolinearitas penuh atau ketat. Namun dalam praktiknya, multikolinearitas lengkap hampir tidak pernah ditemui.

    Dapat disimpulkan bahwa salah satu penyebab utama adanya multikolinearitas dalam model regresi berganda adalah buruknya matriks variabel faktor X.

    Semakin kuat multikolinearitas variabel faktor, semakin tidak dapat diandalkan estimasi distribusi jumlah variasi yang dijelaskan untuk faktor individu dengan menggunakan metode kuadrat terkecil.

    Dimasukkannya faktor multikolinear dalam model tidak diinginkan karena beberapa alasan:

    1) hipotesis utama tentang tidak signifikannya koefisien regresi berganda dapat dikonfirmasi, tetapi model regresi itu sendiri ketika diuji menggunakan uji-F ternyata signifikan, yang menunjukkan nilai koefisien korelasi berganda yang terlalu tinggi;

    2) perkiraan koefisien yang diperoleh dari model regresi berganda mungkin terlalu tinggi atau memiliki tanda yang salah;

    3) penambahan atau pengecualian satu atau dua pengamatan dari data awal memiliki pengaruh yang kuat terhadap pendugaan koefisien model;

    4) faktor multikolinear yang termasuk dalam model regresi berganda dapat membuatnya tidak layak untuk digunakan lebih lanjut.

    Tidak ada metode khusus untuk mendeteksi multikolinearitas, tetapi biasanya digunakan sejumlah teknik empiris. Dalam kebanyakan kasus, analisis regresi berganda dimulai dengan melihat matriks korelasi variabel faktorial R atau matriks (HTX).

    Matriks korelasi variabel faktorial adalah matriks koefisien linier korelasi pasangan variabel faktorial yang simetris terhadap diagonal utama:

    di mana rij adalah koefisien linier korelasi pasangan antara variabel faktor ke-i dan ke-j,

    Pada diagonal matriks korelasi ada satu, karena koefisien korelasi variabel faktor dengan dirinya sendiri adalah sama dengan satu.

    Saat mempertimbangkan matriks ini untuk mengidentifikasi faktor multikolinear, aturan berikut diikuti:

    1) jika dalam matriks korelasi variabel faktor terdapat koefisien korelasi berpasangan yang nilai absolutnya lebih besar dari 0,8, maka disimpulkan terdapat multikolinearitas pada model regresi berganda ini;

    2) menghitung nilai eigen dari matriks korelasi variabel faktorial min dan max. Jika min 10-5, maka terdapat multikolinearitas dalam model regresi. Jika sikap

    mereka juga menyimpulkan bahwa ada variabel faktor multikolinear;

    3) menghitung determinan matriks korelasi variabel faktor. Jika nilainya sangat kecil, maka terdapat multikolinearitas dalam model regresi.

    37. cara untuk memecahkan masalah multikoliaritas

    Jika model regresi yang diestimasi seharusnya digunakan untuk mempelajari hubungan ekonomi, maka penghapusan faktor multikolinear adalah wajib, karena kehadirannya dalam model dapat menyebabkan tanda-tanda koefisien regresi yang salah.

    Ketika membangun ramalan berdasarkan model regresi dengan faktor multikolinear, perlu untuk menilai situasi dengan besarnya kesalahan ramalan. Jika nilainya memuaskan, maka model tersebut dapat digunakan meskipun terdapat multikolinearitas. Jika besarnya kesalahan peramalan besar, maka eliminasi faktor multikolinear dari model regresi merupakan salah satu metode untuk meningkatkan akurasi peramalan.

    Cara utama untuk menghilangkan multikolinearitas dalam model regresi berganda meliputi:

    1) salah satu cara paling sederhana untuk menghilangkan multikolinearitas adalah dengan mendapatkan data tambahan. Namun, dalam praktiknya, dalam beberapa kasus, penerapan metode ini bisa sangat sulit;

    2) cara mengubah variabel, misalnya, alih-alih nilai semua variabel yang berpartisipasi dalam model (dan yang efektif juga), Anda dapat mengambil logaritmanya:

    lny = 0 + 1lnx1 + 2lnx2 + .

    Namun, metode ini juga tidak dapat menjamin penghapusan faktor multikolinearitas secara lengkap;

    Jika metode yang dipertimbangkan tidak membantu menghilangkan multikolinearitas faktor, maka mereka beralih menggunakan metode bias untuk memperkirakan parameter model regresi yang tidak diketahui, atau metode untuk mengecualikan variabel dari model regresi berganda.

    Jika tidak ada variabel faktor yang termasuk dalam model regresi berganda yang dapat dikecualikan, maka salah satu metode bias utama untuk memperkirakan koefisien model regresi diterapkan - regresi ridge atau ridge.

    Saat menggunakan metode regresi punggungan, sejumlah kecil ditambahkan ke semua elemen diagonal matriks (CTX): 10-6 0,1. Estimasi parameter yang tidak diketahui dari model regresi berganda dilakukan sesuai dengan rumus:

    dimana ln adalah matriks identitas.

    Hasil dari penggunaan regresi ridge adalah penurunan standar eror dari koefisien model regresi berganda karena stabilisasinya ke angka tertentu.

    Analisis komponen utama adalah salah satu metode utama untuk mengeluarkan variabel dari model regresi berganda.

    Metode ini digunakan untuk menghilangkan atau mengurangi multikolinearitas variabel faktorial dari model regresi. Inti dari metode ini adalah mereduksi jumlah variabel faktorial menjadi faktor-faktor yang berpengaruh paling signifikan. Hal ini dicapai dengan transformasi linier semua variabel faktorial xi (i = 0, ..., n) menjadi variabel baru yang disebut komponen utama, yaitu transisi dibuat dari matriks variabel faktorial X ke matriks komponen utama F. Dalam hal ini, persyaratan diajukan bahwa alokasi komponen utama pertama sesuai dengan maksimum varians total semua variabel faktorial xi (i = 0, ..., n), ke komponen kedua - maksimum varians yang tersisa, setelah pengaruh komponen utama pertama dikecualikan, dll.

    Metode penyertaan variabel selangkah demi selangkah terdiri dalam memilih dari seluruh kemungkinan himpunan variabel faktorial secara tepat yang memiliki dampak signifikan pada variabel yang dihasilkan.

    Metode switching langkah demi langkah dilakukan sesuai dengan algoritma berikut:

    1) dari semua variabel faktorial, model regresi mencakup variabel-variabel yang sesuai dengan modulus terbesar dari koefisien linier korelasi berpasangan dengan variabel yang dihasilkan;

    2) ketika menambahkan variabel faktor baru ke model regresi, signifikansinya diperiksa menggunakan uji F Fisher. Pada saat yang sama, hipotesis utama dikemukakan bahwa tidak masuk akal untuk memasukkan variabel faktor xk dalam model regresi berganda. Hipotesis sebaliknya terdiri dari pernyataan tentang kelayakan untuk memasukkan variabel faktor xk dalam model regresi berganda. Nilai kritis dari kriteria-F didefinisikan sebagai Fcrit (a; k1; k2), di mana a adalah tingkat signifikansi, k1 = 1 dan k2 = n – l adalah jumlah derajat kebebasan, n adalah ukuran sampel, l adalah jumlah parameter yang diestimasi dari sampel. Nilai yang diamati dari kriteria-F dihitung dengan rumus:

    dimana q adalah jumlah variabel faktor yang sudah dimasukkan dalam model regresi.

    Saat menguji hipotesis utama, situasi berikut mungkin terjadi.

    Fobl Fcrit, maka hipotesis utama tentang tidak masuk akalnya pencantuman variabel faktor xk dalam model regresi berganda ditolak. Oleh karena itu, masuk akal untuk memasukkan variabel ini dalam model regresi berganda.

    Jika nilai kriteria-F yang diamati (dihitung dari data sampel) kurang dari atau sama dengan nilai kritis kriteria-F (ditentukan dari tabel distribusi Fisher-Snedecor), yaitu Fabl≤Fcrit, maka hipotesis utama bahwa pencantuman variabel faktor xk dalam model berganda tidak masuk akal, regresi diterima. Oleh karena itu, variabel faktorial ini dapat dihilangkan dari model tanpa mengurangi kualitasnya.

    3) pengecekan signifikansi variabel faktor dilakukan sampai setidaknya ada satu variabel yang kondisi Fobl Fcrit tidak terpenuhi.

    38. variabel dummy. Tes Chow

    Istilah "variabel dummy" digunakan sebagai kebalikan dari variabel "signifikan", yang menunjukkan tingkat indikator kuantitatif yang mengambil nilai dari interval berkelanjutan. Biasanya, variabel dummy adalah variabel indikator yang mencerminkan karakteristik kualitatif. Variabel dummy biner yang paling umum digunakan yang mengambil dua nilai, 0 dan 1, tergantung pada kondisi tertentu. Misalnya, sebagai hasil survei terhadap sekelompok orang, 0 dapat berarti bahwa responden adalah laki-laki, dan 1 adalah perempuan. Variabel dummy kadang-kadang disebut sebagai regressor yang hanya terdiri dari unit (yaitu, konstanta, intersep), serta tren waktu.

    Variabel dummy, karena eksogen, tidak menimbulkan kesulitan dalam penerapan OLS. Variabel dummy adalah alat yang efektif untuk membangun model regresi dan menguji hipotesis.

    Mari kita asumsikan bahwa model regresi telah dibangun dari data yang dikumpulkan. Peneliti dihadapkan pada masalah apakah perlu memasukkan variabel dummy tambahan ke dalam model yang dihasilkan atau apakah model dasarnya sudah optimal. Masalah ini diselesaikan dengan menggunakan metode atau tes Chow. Ini digunakan dalam situasi di mana sampel utama dapat dibagi menjadi beberapa bagian atau subsampel. Dalam hal ini, Anda dapat menguji asumsi bahwa subsampel lebih efisien daripada model regresi umum.

    Kita akan berasumsi bahwa model regresi umum adalah model regresi tanpa kendala. Kami menyatakan model ini dengan PBB... Subsampel terpisah akan dianggap sebagai kasus khusus dari model regresi tanpa batasan. Mari kita nyatakan subsampel parsial ini sebagai PR.

    Mari kita perkenalkan notasi berikut:

    PR1 - subsampel pertama;

    PR2 - subsampel kedua;

    ESS (PR1) - jumlah kuadrat residu untuk subsampel pertama;

    ESS (PR2) - jumlah sisa kuadrat untuk subsampel kedua;

    ESS (UN) adalah jumlah kuadrat dari residual untuk model regresi umum.

    - jumlah kuadrat residu untuk pengamatan subsampel pertama dalam model regresi umum;

    Adalah jumlah kuadrat dari residual untuk pengamatan subsampel kedua dalam model regresi umum.

    Untuk model regresi parsial, pertidaksamaan berikut ini valid:

    Kondisi (ESS (PR1) + ESS (PR2)) = ESS (UN) dilakukan hanya jika koefisien model regresi parsial dan koefisien model regresi umum tanpa kendala adalah sama, tetapi dalam praktiknya kebetulan ini sangat jarang.

    Hipotesis utama dirumuskan sebagai pernyataan bahwa kualitas model regresi umum tanpa kendala lebih baik daripada kualitas model atau subsampel regresi tertentu.

    Sebuah hipotesis alternatif atau terbalik menyatakan bahwa kualitas model regresi umum tanpa kendala lebih buruk daripada kualitas model atau subsampel regresi tertentu.

    Hipotesis ini diuji menggunakan uji F Fisher-Snedecor.

    Nilai uji-F yang diamati dibandingkan dengan nilai uji-F kritis, yang ditentukan dari tabel distribusi Fisher-Snedecor.

    tapi k1 = m + 1 dan k2 = n-2m-2.

    Nilai yang diamati dari kriteria-F dihitung dengan rumus: di mana ESS (PBB) - ESS (PR1) - ESS (PR2)- nilai yang mencirikan peningkatan kualitas model regresi setelah membaginya menjadi subsampel;

    saya- jumlah variabel faktorial (termasuk dummy);

    tidak- volume total sampel.

    Jika nilai kriteria-F yang diamati (dihitung dari data sampel) lebih besar dari nilai kritis kriteria-F (ditentukan dari tabel distribusi Fisher-Snedecor), mis. Fobl> Fcrit, maka hipotesis utama ditolak, dan kualitas model regresi parsial melebihi kualitas model regresi umum.

    Jika nilai kriteria-F yang diamati (dihitung dari data sampel) kurang dari atau sama dengan nilai kritis kriteria-F (ditentukan dari tabel distribusi Fisher-Snedecor), mis. Fobl?, maka hipotesis utama diterima, dan tidak masuk akal untuk memecah regresi umum menjadi subsampel.

    Jika signifikansi regresi dasar atau regresi terbatas diuji, maka hipotesis utama dari bentuk tersebut diajukan:

    Validitas hipotesis ini diverifikasi dengan menggunakan uji F Fisher-Snedecor.

    Nilai kritis Fisher's F-criterion ditentukan dari tabel distribusi Fisher-Snedecor tergantung pada tingkat signifikansi tapi dan dua derajat kebebasan k1 = m + 1 dan k2 = n – k – 1.

    Nilai yang diamati dari kriteria-F diubah menjadi bentuk:

    Saat menguji hipotesis yang diajukan, situasi berikut mungkin terjadi.

    Jika nilai kriteria-F yang diamati (dihitung dari data sampel) lebih besar dari nilai kritis kriteria-F (ditentukan dari tabel distribusi Fisher-Snedecor), mis. Fobl Fcrit, maka hipotesis utama ditolak, dan dummy tambahan harus dimasukkan ke dalam model regresi, karena kualitas model regresi terkekang lebih tinggi daripada kualitas model regresi dasar atau terkekang.

    Jika nilai kriteria-F yang diamati (dihitung dari data sampel) kurang dari atau sama dengan nilai kritis kriteria-F (ditentukan dari tabel distribusi Fisher-Snedecor), mis. Fobl?, maka hipotesis utama diterima, dan model regresi dasar memuaskan, tidak masuk akal untuk memasukkan variabel dummy tambahan ke dalam model.

    39. sistem persamaan simultan (variabel endogen, eksogen, lag). Contoh sistem persamaan simultan yang signifikan secara ekonomi

    Sejauh ini, kami telah mempertimbangkan model ekonometrika yang didefinisikan oleh persamaan yang menyatakan variabel dependen (dijelaskan) dalam hal variabel penjelas. Namun, objek ekonomi riil yang diselidiki menggunakan metode ekonometrika mengarah pada perluasan konsep model ekonometrika yang dijelaskan oleh sistem persamaan dan identitas regresi1.

    1 Tidak seperti persamaan regresi, identitas tidak mengandung parameter model yang akan diestimasi dan tidak termasuk komponen acak.

    Sebuah fitur dari sistem ini adalah bahwa setiap persamaan sistem, selain variabel penjelas "nya", dapat mencakup variabel yang dijelaskan dari persamaan lain. Jadi, kita tidak memiliki satu variabel dependen, tetapi satu set variabel dependen (dijelaskan) yang terkait dengan persamaan sistem. Sistem seperti itu juga disebut sistem persamaan simultan, menekankan fakta bahwa dalam sistem variabel yang sama secara bersamaan dianggap tergantung dalam beberapa persamaan dan independen pada yang lain.

    Sistem persamaan simultan paling lengkap menggambarkan objek ekonomi yang mengandung banyak variabel endogen (terbentuk di dalam fungsi objek) dan eksogen (ditetapkan dari luar) yang saling terkait. Dalam hal ini, variabel tertinggal (diambil pada waktu sebelumnya) dapat bertindak sebagai endogen dan eksogen.

    Contoh klasik dari sistem tersebut adalah model permintaan Qd dan penawaran Qs (lihat 9.1), ketika permintaan suatu barang ditentukan oleh harganya P dan pendapatan konsumen /, penawaran suatu barang ditentukan oleh harganya. P, dan keseimbangan antara permintaan dan penawaran tercapai:

    Dalam sistem ini, variabel eksogen adalah pendapatan konsumen /, dan variabel endogen adalah permintaan (penawaran) barang Qd = Q” = Q dan harga barang (harga keseimbangan) R.

    Dalam model penawaran dan permintaan lain, variabel yang menjelaskan penawaran Qf tidak hanya harga barang P pada saat waktu tertentu /, yaitu. Pb tetapi juga harga barang pada saat sebelumnya Pt, yaitu variabel endogen tertinggal:

    d "= P4 + P5 ^ + Pb ^ -1 + 2.

    Meringkas hal di atas, kita dapat mengatakan bahwa model ekonometrik memungkinkan untuk menjelaskan perilaku variabel endogen tergantung pada nilai variabel endogen eksogen dan tertinggal (dengan kata lain, tergantung pada variabel yang telah ditentukan sebelumnya, yaitu variabel yang telah ditentukan sebelumnya).

    Menyimpulkan pertimbangan konsep model ekonometrik, berikut ini harus diperhatikan. Tidak setiap model ekonomi dan matematis yang mewakili deskripsi matematis dan statistik dari objek ekonomi yang diteliti dapat dianggap sebagai ekonometrika. Ia menjadi ekonometrik hanya jika ia mencerminkan objek ini atas dasar data empiris (statistik) yang menjadi cirinya.

    40 kuadrat terkecil tidak langsung

    Jika persamaan stokastik ke-i dari bentuk struktural dapat diidentifikasi secara tepat, maka parameter persamaan ini (koefisien persamaan dan varians kesalahan acak) secara unik dipulihkan dari parameter sistem tereduksi. Oleh karena itu, untuk mengestimasi parameter persamaan seperti itu, cukup mengestimasi koefisien dari masing-masing persamaan bentuk tereduksi dengan metode kuadrat terkecil (secara terpisah untuk setiap persamaan) dengan metode kuadrat terkecil dan memperoleh estimasi kovarians matriks Q kesalahan dalam bentuk tereduksi, dan kemudian menggunakan hubungan PG = B dan E = QT, menggantikannya, alih-alih P, matriks taksiran koefisien dari bentuk tereduksi P dan matriks kesalahan kovarians taksiran dalam pengurangan bentuk £2. Ini disebut metode kuadrat terkecil tidak langsung (ILS). Perkiraan koefisien persamaan stokastik ke-i dari bentuk struktural yang diperoleh sebagai hasilnya mewarisi sifat konsistensi dari perkiraan bentuk tereduksi. Namun, mereka tidak mewarisi sifat-sifat seperti estimasi bentuk tereduksi seperti ketidakberpihakan dan efisiensi karena fakta bahwa mereka diperoleh sebagai hasil dari beberapa transformasi nonlinier. Oleh karena itu, dengan sejumlah kecil pengamatan, bahkan perkiraan alami ini dapat mengalami bias yang nyata. Dalam hal ini, ketika mempertimbangkan berbagai metode untuk memperkirakan koefisien persamaan struktural, pertama-tama, mereka peduli untuk memastikan konsistensi perkiraan yang diperoleh.

    41. masalah identifikasi sistem persamaan simultan

    Dengan spesifikasi model yang benar, masalah mengidentifikasi sistem persamaan direduksi menjadi penilaian koefisien yang benar dan tidak ambigu. Estimasi langsung dari koefisien persamaan hanya mungkin dalam sistem persamaan eksternal yang tidak terkait, yang prasyarat dasar untuk membangun model regresi terpenuhi, khususnya, kondisi variabel faktor yang tidak berkorelasi dengan residual.

    Dalam sistem rekursif, selalu mungkin untuk menyingkirkan masalah korelasi residual dengan variabel faktorial dengan mengganti bukan nilai aktual variabel faktorial, tetapi nilai model variabel endogen yang bertindak sebagai variabel faktorial. Proses identifikasi dilakukan sebagai berikut:

    1. Suatu persamaan diidentifikasi yang tidak mengandung variabel endogen sebagai faktorial. Nilai yang dihitung dari variabel endogen persamaan ini ditemukan.

    2. Persamaan berikut dipertimbangkan, di mana variabel endogen yang ditemukan pada langkah sebelumnya dimasukkan sebagai faktor. Nilai model (dihitung) dari variabel endogen ini memungkinkan untuk mengidentifikasi persamaan ini, dll.

    Dalam sistem persamaan dalam bentuk tereduksi, masalah menghubungkan variabel faktor dengan penyimpangan tidak muncul, karena dalam setiap persamaan hanya variabel yang telah ditentukan yang digunakan sebagai variabel faktor. Jadi, mengingat prasyarat lainnya, sistem rekursif selalu dapat diidentifikasi.

    Ketika mempertimbangkan sistem persamaan simultan, masalah identifikasi muncul.

    Identifikasi dalam hal ini berarti menentukan kemungkinan konversi yang jelas dari koefisien sistem dalam bentuk tereduksi menjadi koefisien struktural.

    Model struktural (7.3) secara lengkap berisi parameter yang akan ditentukan. Bentuk model yang diberikan berisi parameter secara penuh. Oleh karena itu, untuk menentukan parameter yang tidak diketahui dari model struktural, Anda dapat menulis persamaan. Sistem seperti itu tidak pasti dan parameter model struktural dalam kasus umum tidak dapat ditentukan dengan jelas.

    Untuk mendapatkan satu-satunya solusi yang mungkin, perlu diasumsikan bahwa beberapa koefisien struktural model, karena hubungannya yang lemah dengan variabel endogen dari sisi kiri sistem, sama dengan nol. Ini akan mengurangi jumlah koefisien struktural model. Penurunan jumlah koefisien struktural model dimungkinkan dengan cara lain: misalnya, dengan menyamakan beberapa koefisien satu sama lain, yaitu dengan mengasumsikan bahwa pengaruhnya terhadap variabel endogen yang terbentuk adalah sama, dll.

    Dari sudut pandang identifiability, model struktural dapat dibagi menjadi tiga jenis:

    · Dapat diidentifikasi;

    · Tidak dapat diidentifikasi;

    · Dapat diidentifikasi secara berlebihan.

    Model dapat diidentifikasi jika semua koefisien strukturalnya ditentukan secara unik, secara unik oleh koefisien bentuk tereduksi model, yaitu, jika jumlah parameter model struktural sama dengan jumlah parameter bentuk tereduksi model.

    Model tidak dapat diidentifikasi, jika jumlah koefisien model tereduksi lebih kecil dari jumlah koefisien struktural, dan akibatnya, koefisien struktural tidak dapat diestimasi melalui koefisien bentuk tereduksi model.

    Model dapat diidentifikasi secara berlebihan jika jumlah koefisien model tereduksi lebih besar dari jumlah koefisien struktural. Dalam hal ini, berdasarkan koefisien bentuk tereduksi, dua atau lebih nilai dari satu koefisien struktural dapat diperoleh. Model yang dapat diidentifikasi secara berlebihan, berbeda dengan model yang tidak dapat diidentifikasi, secara praktis dapat dipecahkan, tetapi untuk ini diperlukan metode khusus untuk menemukan parameternya.

    Untuk menentukan jenis model struktural, perlu untuk memeriksa setiap persamaannya untuk dapat diidentifikasi.

    Suatu model dianggap dapat diidentifikasi jika setiap persamaan dalam sistem dapat diidentifikasi. Jika setidaknya salah satu persamaan sistem tidak dapat diidentifikasi, maka seluruh model dianggap tidak dapat diidentifikasi. Model yang dapat diidentifikasi secara berlebihan, selain yang dapat diidentifikasi, mengandung setidaknya satu persamaan yang dapat diidentifikasi secara berlebihan.

    42. metode kuadrat terkecil tiga langkah

    Prosedur yang paling efisien untuk memperkirakan sistem persamaan regresi menggabungkan metode estimasi simultan dan metode variabel instrumental. Metode yang sesuai disebut metode kuadrat terkecil tiga langkah. Ini terdiri dari fakta bahwa pada langkah pertama, metode kuadrat terkecil diterapkan pada model asli (9.2) untuk menghilangkan korelasi istilah acak. Kemudian metode kuadrat terkecil dua langkah diterapkan pada persamaan yang dihasilkan.

    Jelas, jika suku acak (9.2) tidak berkorelasi, metode tiga langkah direduksi menjadi dua langkah, pada saat yang sama, jika matriks B adalah satu, metode tiga langkah adalah prosedur untuk estimasi persamaan sebagai tidak berhubungan secara eksternal.

    Mari kita terapkan metode tiga langkah pada model yang dipertimbangkan (9.24):

    ai = 19,31; Pi = l, 77; a2 = 19,98; p2 = 0,05; y = 1,4. (6,98) (0,03) (4,82) (0,08) (0,016)

    Karena koefisien p2 tidak signifikan, persamaan ketergantungan Y pada X berbentuk:

    y = 16,98 + 1,4x

    Perhatikan bahwa praktis bertepatan dengan persamaan (9.23).

    Seperti yang Anda ketahui, menghapus persamaan dari korelasi suku acak adalah proses berulang. Dengan demikian, ketika menggunakan metode tiga langkah, program komputer meminta jumlah iterasi atau presisi yang diperlukan. Mari kita perhatikan properti penting dari metode tiga langkah, yang memastikan efisiensi terbesarnya.

    Dengan jumlah iterasi yang cukup besar, estimasi metode kuadrat terkecil tiga langkah bertepatan dengan estimasi kemungkinan maksimum.

    Seperti yang Anda ketahui, perkiraan kemungkinan maksimum untuk sampel besar adalah yang terbaik.

    43. Konsep rangkaian dinamika ekonomi. Pandangan umum dari model deret waktu perkalian dan aditif.

    44. pemodelan tren time series, fluktuasi musiman dan siklis.

    Ada beberapa pendekatan untuk menganalisis struktur deret waktu yang mengandung fluktuasi musiman atau siklis.

    1 PENDEKATAN... Perhitungan nilai komponen musiman dengan metode rata-rata bergerak dan konstruksi model aditif atau perkalian dari deret waktu.

    Tampilan umum model aditif: (T - komponen tren, S - musiman, E - acak).

    Pandangan umum dari model perkalian:

    Pilihan model didasarkan pada analisis struktur fluktuasi musiman (jika amplitudo fluktuasi kira-kira konstan - aditif, jika naik / turun - perkalian).

    Model bangunan direduksi untuk menghitung nilai T, S, E untuk setiap level deret.

    Membangun model:

    1. penyelarasan deret asli menggunakan metode rata-rata bergerak;

    2.perhitungan nilai komponen S;

    3. Penghapusan komponen musiman dari tingkat awal seri dan memperoleh data yang selaras ( T + E) sebagai tambahan atau ( T * E) dalam model perkalian.

    4.Perataan analitis ( T + E) atau ( T * E) dan menghitung nilai T menggunakan tingkat tren yang diperoleh.

    5.Perhitungan nilai yang diperoleh model ( T + S) atau ( T * S).

    6. Perhitungan kesalahan mutlak dan/atau relatif.

    Jika nilai kesalahan yang diperoleh tidak mengandung autokorelasi, mereka dapat mengganti level asli dari deret dan kemudian menggunakan deret waktu kesalahan. E untuk menganalisis hubungan antara deret asli dan deret waktu lainnya.

    2 PENDEKATAN. Membangun model regresi dengan memasukkan faktor waktu dan variabel dummy. Jumlah variabel dummy dalam model seperti itu harus lebih kecil satu dari jumlah momen (periode) waktu dalam satu siklus osilasi. Misalnya, ketika memodelkan data triwulanan, model harus menyertakan empat variabel independen - faktor waktu dan tiga variabel dummy. Setiap variabel dummy mencerminkan komponen musiman (siklus) dari deret waktu untuk satu periode. Ini sama dengan satu (1) untuk periode ini dan nol (0) untuk semua yang lain. Kerugian dari model dengan variabel dummy adalah adanya sejumlah besar variabel.

    45. fungsi autokorelasi. Penggunaannya untuk mendeteksi ada tidaknya suatu tren dan komponen siklus

    Autokorelasi level deret waktu.

    Jika ada tren dan fluktuasi siklus dalam deret waktu, setiap level berikutnya dari seri tergantung pada yang sebelumnya. Ketergantungan korelasi antara tingkat berurutan dari deret waktu disebut autokorelasi dari tingkat seri.

    Secara kuantitatif, autokorelasi level suatu deret diukur menggunakan koefisien korelasi linier antara level deret waktu asli dan level deret ini, digeser beberapa langkah dalam waktu.

    Misalnya, biarkan deret waktu diberikan ... Mari kita tentukan koefisien korelasi antara deret dan.

    Salah satu rumus kerja untuk menghitung koefisien korelasi adalah:

    Dan deret waktu, mis. dengan lag 2. Ditentukan dengan rumus:

    (4)

    Perhatikan bahwa dengan meningkatnya lag, jumlah pasangan nilai yang digunakan untuk menghitung koefisien korelasi berkurang. Biasanya lag tidak boleh sama dengan lebih dari seperempat jumlah observasi.

    Kami mencatat dua sifat penting dari koefisien autokorelasi.

    Pertama, koefisien autokorelasi dihitung dengan analogi dengan koefisien korelasi linier, yaitu. mereka hanya mencirikan kedekatan hubungan linier antara dua tingkat yang dipertimbangkan dari deret waktu. Oleh karena itu, menurut koefisien autokorelasi, seseorang hanya dapat menilai tentang adanya tren linier (atau mendekati linier). Untuk deret waktu yang memiliki tren non-linier yang kuat (misalnya, eksponensial), koefisien autokorelasi level dapat mendekati nol.

    0

    Kementerian Pendidikan dan Ilmu Pengetahuan Federasi Rusia

    Lembaga Pendidikan Anggaran Negara Federal

    pendidikan yang lebih tinggi

    UNIVERSITAS TEKNIK NEGARA TVER

    Departemen "Akuntansi dan Keuangan"

    PROYEK KURSUS
    dalam disiplin "Ekonometrika"

    "Menyelidiki multikolinearitas dalam model ekonometrik: mengecualikan variabel dari model"

    Pengawas kerja:

    Cand. itu. Ilmu Pengetahuan, Associate Professor

    Konovalova

    Pelaksana:

    siswa kelompok EK-1315 EPO

    Tver, 2015

    Pendahuluan ……………………………………………………………………… ... 3

    1. Bagian analitis …………………………………………………………… 4

    1.1. Tanda-tanda umum multikolinearitas dalam model ekonometrik ………………………………………………………………………… .4

    1.2. Cara utama untuk menghilangkan multikolinearitas dalam model ekonometrik ………… .. ………………………………………… ..7

    2. Bagian desain ……………………………………………………………… ..11

    2.1. Informasi dan dukungan metodologis penelitian ekonometrika ………………………………………………………………… .11

    2.2. Contoh studi ekonometrika …………………………… .17

    Kesimpulan ………………………………………………………………… .... 30

    Daftar sumber yang digunakan ………………………………………… ... 31

    pengantar

    Relevansi topik dari karya "Investigasi multikolinearitas dalam model ekonometrik: pengecualian variabel (s) dari model" adalah karena fakta bahwa saat ini masalah ini sering ditemui dalam model ekonometrika terapan.

    Subyek penelitian adalah masalah multikolinearitas. Objek penelitian adalah model ekonometrika.

    Tujuan utama dari pekerjaan ini adalah untuk mengembangkan solusi desain untuk informasi dan dukungan metodologis penelitian ekonometrik.

    Untuk mencapai tujuan, tugas penelitian utama berikut ditetapkan dan diselesaikan:

    1. Generalisasi fitur multikolinearitas dalam model ekonometrika.
    2. Identifikasi cara utama untuk menghilangkan multikolinearitas.

    3. Pengembangan informasi dan dukungan metodologis untuk penelitian ekonometrika.

    1. Bagian analitis

    1.1. Tanda-tanda umum multikolinearitas dalam model ekonometrik

    Multikolinearitas - dalam ekonometrika (analisis regresi) - adanya hubungan linier antara variabel penjelas (faktor) dari model regresi. Pada saat yang sama, ada kolinearitas lengkap, yang berarti adanya ketergantungan linier fungsional (identik), dan sebagian atau hanya multikolinearitas- adanya korelasi yang kuat antara faktor-faktor tersebut.

    Collinearity lengkap mengarah ke ketidakpastian parameter dalam model regresi linier terlepas dari metode estimasi. Pertimbangkan ini menggunakan model linier berikut sebagai contoh:

    Biarkan faktor-faktor dari model ini berhubungan identik sebagai berikut:. Kemudian pertimbangkan model linier asli, di mana kita tambahkan ke koefisien pertama sewenang-wenang jumlah Sebuah, dan kurangi angka yang sama dari dua koefisien lainnya. Maka kita memiliki (tanpa kesalahan acak):

    Jadi, meskipun perubahan koefisien model yang relatif sewenang-wenang, model yang sama diperoleh. Model ini pada dasarnya tidak dapat diidentifikasi. Ketidakpastian sudah ada dalam model itu sendiri. Jika kita mempertimbangkan ruang koefisien 3 dimensi, maka dalam ruang ini vektor koefisien sejati dalam hal ini bukan satu-satunya, tetapi merupakan keseluruhan garis lurus. Setiap titik pada garis ini adalah vektor koefisien yang sebenarnya.

    Jika kolinearitas lengkap menyebabkan ketidakpastian dalam nilai parameter, maka multikolinieritas parsial menyebabkan ketidakstabilan mereka. evaluasi... Ketidakstabilan dinyatakan dalam peningkatan ketidakpastian statistik - varians perkiraan. Ini berarti bahwa hasil penilaian spesifik dapat sangat bervariasi dari sampel ke sampel, meskipun sampelnya homogen.

    Seperti yang Anda ketahui, matriks kovarians pendugaan parameter regresi berganda menggunakan metode kuadrat terkecil adalah sama dengan. Jadi, semakin "kecil" matriks kovarians (determinannya), semakin "besar" matriks kovarians dari estimasi parameter, dan, khususnya, semakin besar elemen diagonal dari matriks ini, yaitu varians dari estimasi parameter. Untuk kejelasan, pertimbangkan contoh model dua faktor:

    Maka varians dari penduga parameter, misalnya untuk faktor pertama sama dengan:

    dimana adalah koefisien korelasi sampel antar faktor.

    Jelas terlihat di sini bahwa semakin besar modulus korelasi antar faktor, semakin besar varians dari estimasi parameter. Pada (kolinearitas penuh), varians cenderung tak terhingga, yang sesuai dengan apa yang dikatakan sebelumnya.

    Dengan demikian, estimasi parameter yang diperoleh tidak akurat, yang berarti akan sulit untuk menginterpretasikan pengaruh faktor-faktor tertentu terhadap variabel yang dijelaskan. Pada saat yang sama, multikolinearitas tidak mempengaruhi kualitas model secara keseluruhan - dapat dianggap signifikan secara statistik, bahkan ketika segala sesuatu koefisiennya tidak signifikan (ini adalah salah satu tanda multikolinearitas).

    Dalam model linier, koefisien korelasi antar parameter bisa positif atau negatif. Dalam kasus pertama, peningkatan satu parameter disertai dengan peningkatan parameter lain. Dalam kasus kedua, ketika satu parameter meningkat, yang lain berkurang.

    Berdasarkan hal tersebut, dimungkinkan untuk menetapkan multikolinearitas yang dapat diterima dan tidak dapat diterima. Multikolinearitas yang tidak dapat diterima akan terjadi apabila terdapat korelasi positif yang signifikan antara faktor 1 dan 2, dan pada saat yang sama pengaruh masing-masing faktor terhadap korelasi dengan fungsi y adalah searah, yaitu peningkatan pada kedua faktor 1 dan 2 menyebabkan kenaikan atau penurunan fungsi y. Dengan kata lain, kedua faktor tersebut mempengaruhi fungsi y dengan cara yang sama, dan korelasi positif yang signifikan di antara keduanya memungkinkan salah satu dari faktor tersebut dikecualikan.

    Multikolinearitas yang diizinkan adalah sedemikian rupa sehingga faktor-faktor mempengaruhi fungsi y secara berbeda. Dua kasus dimungkinkan di sini:

    a) dengan korelasi positif yang signifikan antar faktor, pengaruh masing-masing faktor terhadap korelasi dengan fungsi y bersifat multi arah, yaitu. peningkatan satu faktor menyebabkan peningkatan fungsi, dan peningkatan faktor lain menyebabkan penurunan fungsi y.

    b) dengan korelasi negatif yang signifikan antar faktor, peningkatan satu faktor disertai dengan penurunan faktor lain dan ini membuat faktor menjadi ambigu, oleh karena itu, setiap tanda pengaruh faktor pada fungsi y adalah mungkin.

    Dalam prakteknya, beberapa ciri yang paling khas dari multikolinearitas dibedakan: 1. Perubahan kecil pada data awal (misalnya, menambahkan pengamatan baru) menyebabkan perubahan signifikan dalam estimasi koefisien model. 2. Estimasi memiliki standar error yang besar, signifikansi rendah, sedangkan model secara keseluruhan signifikan (nilai koefisien determinasi R 2 yang tinggi dan F-statistik yang sesuai). 3. Estimasi koefisien memiliki tanda yang salah dari sudut pandang teori atau nilai besar yang tidak dapat dibenarkan.

    Tanda-tanda tidak langsung multikolinearitas adalah kesalahan standar yang tinggi dari perkiraan parameter model, t-statistik kecil (yaitu, koefisien tidak signifikan), tanda-tanda perkiraan yang salah, sedangkan model secara keseluruhan diakui sebagai signifikan secara statistik (nilai F-statistik besar) . Multikolinearitas juga dapat dibuktikan dengan perubahan yang kuat dalam estimasi parameter dari penambahan (atau penghapusan) data sampel (jika persyaratan untuk homogenitas sampel yang cukup terpenuhi).

    Untuk mendeteksi multikolinearitas faktor, matriks korelasi faktor dapat dianalisis secara langsung. Sudah adanya nilai absolut besar (di atas 0,7-0,8) nilai koefisien korelasi pasangan menunjukkan kemungkinan masalah dengan kualitas perkiraan yang diperoleh.

    Namun, analisis koefisien korelasi berpasangan tidak cukup. Perlu dilakukan analisis koefisien determinasi regresi faktor untuk faktor lain (). Disarankan untuk menghitung indikator. Nilai yang terlalu tinggi dari yang terakhir berarti adanya multikolinearitas.

    Dengan demikian, kriteria utama untuk mendeteksi multikolinearitas adalah sebagai berikut: R 2 tinggi untuk semua koefisien tidak signifikan, koefisien korelasi pasangan tinggi, nilai koefisien VIF tinggi.

    1.2. Cara utama untuk menghilangkan multikolinearitas dalam model ekonometrik

    Sebelum menunjukkan metode utama untuk menghilangkan multikolinearitas, kami mencatat bahwa dalam beberapa kasus multikolinearitas bukanlah masalah serius yang memerlukan upaya signifikan untuk mengidentifikasi dan menghilangkannya. Pada dasarnya, itu semua tergantung pada tujuan studi.

    Jika tugas utama model adalah untuk memprediksi nilai masa depan dari regresidan, maka dengan koefisien determinasi yang cukup besar R2 (> 0,9), keberadaan multikolinearitas biasanya tidak mempengaruhi kualitas prediksi model. Meskipun pernyataan ini akan dibenarkan hanya dalam kasus bahwa di masa depan regressor yang berkorelasi akan mempertahankan hubungan yang sama seperti sebelumnya. Jika tujuan dari penelitian ini adalah untuk menentukan tingkat pengaruh masing-masing regressor pada regressor dan, maka adanya multikolinearitas, yang mengarah pada peningkatan kesalahan standar, kemungkinan akan mendistorsi hubungan yang sebenarnya antara regressor. Dalam situasi ini, multikolinearitas adalah masalah serius.

    Perhatikan bahwa tidak ada metode tunggal untuk menghilangkan multikolinearitas yang cocok dalam kasus apapun. Hal ini disebabkan oleh fakta bahwa penyebab dan akibat dari multikolinearitas bersifat ambigu dan sangat bergantung pada hasil sampel.

    Dalam praktiknya, metode utama untuk menghilangkan multikolinearitas dibedakan:

    1. Menghilangkan regressor dari model Metode paling sederhana untuk menghilangkan multikolinearitas adalah dengan mengecualikan satu atau beberapa regressor yang berkorelasi dari model. Namun, beberapa kehati-hatian diperlukan saat menerapkan metode ini. Dalam situasi ini, kesalahan spesifikasi mungkin terjadi. Misalnya, ketika mempelajari permintaan suatu barang tertentu, harga barang ini dan harga barang substitusinya, yang sering kali berkorelasi satu sama lain, dapat digunakan sebagai variabel penjelas. Dengan mengecualikan harga substitusi dari model, kita cenderung membuat kesalahan spesifikasi. Akibatnya, adalah mungkin untuk mendapatkan perkiraan yang bias dan menarik kesimpulan yang tidak berdasar. Jadi, dalam model ekonometrik yang diterapkan, diinginkan untuk tidak mengecualikan regressor sampai kolinearitasnya menjadi masalah serius.
    2. Memperoleh data tambahan atau sampel baru, karena multikolinearitas secara langsung tergantung pada sampel, maka, mungkin, dengan sampel yang berbeda, tidak akan ada multikolinearitas sama sekali atau tidak akan begitu serius. Terkadang, meningkatkan ukuran sampel cukup untuk mengurangi multikolinearitas. Misalnya, jika Anda menggunakan data tahunan, Anda dapat membuka data triwulanan. Meningkatkan jumlah data mengurangi varians dari koefisien regresi dan dengan demikian meningkatkan signifikansi statistiknya. Namun, memperoleh sampel baru atau memperluas yang lama tidak selalu memungkinkan atau melibatkan biaya yang serius. Selain itu, pendekatan ini dapat meningkatkan autokorelasi. Masalah-masalah ini membatasi penggunaan metode ini.

    AKU AKU AKU. Mengubah spesifikasi model Dalam beberapa kasus, masalah multikolinearitas dapat diselesaikan dengan mengubah spesifikasi model: baik bentuk model diubah, atau ditambahkan regressor baru yang tidak diperhitungkan dalam model asli, tetapi secara signifikan mempengaruhi dependen variabel. Jika metode ini dibenarkan, maka penggunaannya mengurangi jumlah kuadrat deviasi, sehingga mengurangi kesalahan standar regresi. Ini mengarah pada pengurangan kesalahan standar koefisien.

    1. Transformasi variabel dalam beberapa kasus dapat diminimalkan atau dihilangkan sama sekali masalah multikolinearitas hanya dengan bantuan transformasi variabel. Data asli dalam setiap kasus dibagi dengan nilai salah satu regressor dependen dalam kasus ini. Penerapan metode komponen utama pada faktor-faktor model memungkinkan untuk mentransformasikan faktor-faktor awal dan memperoleh sekumpulan faktor ortogonal (tidak berkorelasi). Dalam hal ini, adanya multikolinearitas akan memungkinkan kita membatasi diri pada sejumlah kecil komponen utama. Namun demikian, masalah interpretasi yang berarti dari komponen utama mungkin muncul.

    Jika dengan semua indikasi ada multikolinearitas, maka di antara ekonometrika ada pendapat yang berbeda tentang hal ini. Ketika dihadapkan dengan masalah multikolinearitas, mungkin ada keinginan alami untuk membuang variabel independen "ekstra" yang mungkin menyebabkannya. Namun, harus diingat bahwa kesulitan baru mungkin muncul. Pertama, jauh dari selalu jelas variabel mana yang berlebihan dalam pengertian ini.

    Multikolinearitas hanya berarti perkiraan hubungan linier antara faktor, tetapi ini tidak selalu menyoroti variabel "ekstra". Kedua, dalam banyak situasi, penghilangan variabel independen dapat mempengaruhi arti model secara signifikan. Akhirnya, membuang apa yang disebut variabel esensial, mis. variabel independen yang benar-benar mempengaruhi variabel dependen yang diteliti, menyebabkan bias pada koefisien model. Dalam prakteknya, biasanya, ketika multikolinearitas terdeteksi, faktor yang paling tidak signifikan untuk analisis dihilangkan, dan kemudian perhitungan diulang.

    Jadi, dalam praktiknya, metode utama untuk menghilangkan multikolinearitas dibedakan: mengubah atau menambah sampel, mengecualikan salah satu variabel, mengubah variabel multikolinear (menggunakan bentuk nonlinier, menggunakan agregat (kombinasi linier beberapa variabel), menggunakan perbedaan pertama alih-alih variabel itu sendiri Namun, jika multikolinearitas tidak dihilangkan , Anda dapat mengabaikannya, dengan mempertimbangkan kelayakan pengecualian.

    1. Bagian proyek

    2.1. Informasi dan dukungan metodologis penelitian ekonometrik

    Informasi pendukung penelitian ekonometrika meliputi informasi sebagai berikut:

    Informasi masukan:

    • data statistik pada indikator sosial ekonomi, didefinisikan sebagai variabel dependen (faktor - hasil);
    • data statistik indikator sosial ekonomi, yang didefinisikan sebagai variabel penjelas (faktor - tanda);

    Informasi menengah:

    • model persamaan regresi, estimasi persamaan regresi, indikator kualitas dan kesimpulan tentang kualitas persamaan regresi, kesimpulan tentang ada (tidak adanya) masalah multikolinearitas, rekomendasi penggunaan model;

    Informasi yang efektif:

    • estimasi persamaan regresi, kesimpulan tentang kualitas persamaan regresi, kesimpulan tentang ada (tidaknya) masalah multikolinearitas, rekomendasi penerapan model.

    Metodologi penelitian ekonometrika adalah sebagai berikut: spesifikasi; parameterisasi, verifikasi, penelitian tambahan, peramalan.

    1. Spesifikasi model persamaan regresi meliputi analisis grafis dari korelasi ketergantungan variabel dependen pada setiap variabel penjelas. Berdasarkan hasil analisis grafik tersebut, diperoleh kesimpulan tentang model persamaan regresi tipe linier atau nonlinier. Untuk analisis grafis, alat yang paling sering direkomendasikan adalah Scatter Chart MsExcel. Sebagai hasil dari tahap ini, model persamaan regresi ditentukan, dan dalam kasus bentuk nonlinier, metode linierisasinya juga ditentukan.

    2. Parametrisasi persamaan regresi meliputi estimasi parameter regresi dan interpretasi sosial ekonominya. Untuk parameterisasi gunakan alat "Regresi" sebagai bagian dari add-in "Analisis Data" MsExcel. Berdasarkan hasil analisis regresi otomatis (kolom "Koefisien"), parameter regresi ditentukan, dan interpretasinya juga diberikan sesuai dengan aturan standar:

    Bj adalah jumlah di mana nilai variabel Y berubah rata-rata ketika variabel independen Xj meningkat satu, ceteris paribus.

    Intersep dari persamaan regresi sama dengan nilai prediksi variabel dependen Y ketika semua variabel independen adalah nol.

    3. Verifikasi persamaan regresi dilakukan berdasarkan hasil analisis regresi otomatis (tahap 2) sesuai dengan indikator berikut: "R-kuadrat", "Signifikan F", "nilai-P" (untuk setiap regresi parameter), serta pada grafik seleksi dan residual ...

    Signifikansi koefisien ditentukan dan kualitas model dinilai. Untuk ini, "Significance F", "P-Value" dan "R-square" dipertimbangkan. Jika “P-value” lebih kecil dari persamaan signifikansi statis, maka ini menunjukkan signifikansi koefisien. Jika “R-squared” lebih besar dari 0,6, berarti model regresi menggambarkan dengan baik perilaku variabel dependen Y terhadap faktor-faktor variabel.

    Jika “Signifikan F” lebih kecil dari persamaan signifikansi statis, maka koefisien determinasi (R-kuadrat) dianggap signifikan secara statistik kondisional.

    Plot residual memungkinkan Anda untuk memperkirakan variasi kesalahan. Jika tidak ada perbedaan khusus antara kesalahan yang sesuai dengan nilai Xi yang berbeda, yaitu variasi kesalahan untuk nilai Xi yang berbeda kira-kira sama dan dapat diasumsikan bahwa tidak ada masalah. Jadwal yang pas memungkinkan Anda untuk membuat penilaian tentang nilai dasar, prediksi, dan faktor.

    Kesimpulannya, penilaian terbentuk tentang kualitas persamaan regresi.

    1. Penelitian tambahan.

    4.1 Deteksi tanda pertama multikolinearitas. Berdasarkan hasil analisis regresi yang diperoleh pada klausa 2-3, keadaan diperiksa dimana koefisien determinasi bernilai tinggi (R 2 > 0,7) dan signifikan secara statis (Signifikan F<0,05), и хотя бы один из коэффициентов регрессии не может быть признан статистически значим (P-значение >0,05) .Ketika situasi seperti itu terdeteksi, kesimpulan dibuat tentang asumsi multikolinearitas.

    4.2 Deteksi tanda kedua multikolinearitas. Berdasarkan perhitungan koefisien korelasi antar variabel faktor, ditentukan hubungan yang signifikan dari faktor individu. Untuk perhitungan di MS Excel, disarankan untuk menggunakan alat Analisis Data / Korelasi. Menurut nilai koefisien korelasi, ditarik kesimpulan: semakin dekat (r) ke titik ekstrem (± 1), semakin besar derajat hubungan linier, jika koefisien korelasi kurang dari 0,5, maka dianggap bahwa hubungan itu lemah. Kehadiran multikolinearitas diasumsikan dalam kasus berikut jika ada koefisien korelasi yang signifikan antara setidaknya dua variabel (yaitu, lebih besar dari 0,7 dalam modulus).

    4.3 Deteksi tanda ketiga multikolinearitas. Berdasarkan penilaian regresi bantu antar variabel faktor, dan antar variabel yang memiliki koefisien korelasi yang signifikan (bagian 4.2), disimpulkan bahwa multikolinearitas ada jika setidaknya dalam satu regresi bantu signifikan dan signifikan. Metode regresi tambahan dari koefisien determinasi adalah sebagai berikut: 1) dibangun persamaan regresi yang menghubungkan setiap regresi dengan semua yang tersisa; 2) koefisien determinasi R 2 dihitung untuk setiap persamaan regresi; 3) jika persamaan dan koefisien determinasi dianggap signifikan secara statistik, maka regressor ini mengarah pada multikolinearitas.

    4.4 Generalisasi penilaian.

    Berdasarkan klausul 4.1-4.3, penilaian dibentuk tentang ada / tidaknya multikolinearitas dan regressor yang mengarah ke multikolinearitas.

    Selanjutnya, arah penggunaan model dibentuk (dalam kasus pengabaian atau tidak adanya masalah multikolinearitas) atau rekomendasi untuk menghilangkan multikolinearitas (dalam praktiknya, tidak termasuk variabel).

    Saat mengecualikan variabel, disarankan untuk menggunakan aturan:

    Koefisien determinasi ditentukan untuk persamaan regresi yang awalnya dibangun dari n pengamatan (R 2 1);

    Dengan mengecualikan variabel terakhir dari pertimbangan (k), sebuah persamaan dibentuk untuk faktor-faktor yang tersisa berdasarkan pengamatan n awal dan koefisien determinasi (R 2 2) ditentukan untuk itu;

    F-statistik dihitung: di mana (R 1 2 -R 2 2) adalah hilangnya persamaan akibat penurunan ke variabel, (K) adalah jumlah derajat kebebasan tambahan yang muncul, (1- R 1 2) / (nml) adalah varians yang tidak dapat dijelaskan dari persamaan awal;

    Nilai kritis F a, k, n-m -1 ditentukan menurut tabel titik kritis distribusi Fisher pada tingkat signifikansi a dan derajat kebebasan tertentu v 1 = k, v 2 = n-m-l;

    Penilaian dibentuk tentang kelayakan pengecualian sesuai dengan aturan: pengecualian (simultan) dari persamaan variabel k dianggap tidak sesuai untuk F> F a, k, n-m - 1, jika tidak, pengecualian seperti itu diizinkan.

    Ketika variabel dihilangkan, model yang dihasilkan dianalisis sesuai dengan klausa 3-4; dan dibandingkan dengan model aslinya, sebagai hasilnya, yang "terbaik" dipilih. Dalam prakteknya, karena multikolinearitas tidak mempengaruhi kualitas prediksi model, masalah ini dapat diabaikan.

    5. Peramalan dilakukan sesuai dengan model awal / "terbaik", yang dipilih pada paragraf 4.4, sesuai dengan skema peramalan retrospektif, di mana 1/3 pengamatan terakhir digunakan untuk peramalan.

    5.1. Perkiraan titik. Nilai sebenarnya dari variabel faktor dalam periode perkiraan dianggap diprediksi, nilai prediksi variabel yang dihasilkan ditentukan seperti yang diprediksi oleh model asli / "terbaik" berdasarkan variabel faktor dalam periode perkiraan. Menggunakan alat "Grafik" Microsoft Excel, grafik nilai aktual dan prediksi dari variabel yang dihasilkan diplot sesuai dengan pengamatan dan kesimpulan dibuat tentang kedekatan nilai aktual dengan yang diprediksi.

    5.2. Peramalan interval melibatkan penghitungan kesalahan standar prediksi (menggunakan variabel dummy Salkever) dan batas atas dan bawah dari nilai prediksi.

    Menggunakan alat Analisis / Regresi Data Microsoft Excel, regresi dibangun untuk kumpulan data agregat sampel dan periode perkiraan, tetapi dengan penambahan variabel dummy D 1, D 2, ..., D p. Dalam hal ini, D i = 1 hanya untuk momen pengamatan (n + i), untuk semua momen lainnya D i = 0. Maka koefisien variabel dummy D i sama dengan kesalahan prediksi saat ini (n + i), dan kesalahan standar koefisien sama dengan kesalahan standar prediksi (S i). Jadi, analisis regresi otomatis model dilakukan, di mana nilai agregat (sampel dan prediksi) dari variabel faktor dan nilai variabel dummy Salkever digunakan sebagai nilai X, dan nilai agregat (sampel dan diprediksi) nilai variabel yang dihasilkan digunakan sebagai nilai Y.

    Kesalahan standar yang diperoleh dari koefisien untuk variabel dummy Salkever sama dengan kesalahan standar prediksi. Kemudian batas-batas ramalan interval dihitung dengan menggunakan rumus berikut: Ymin n + i = Yemp n + i -S i * t cr, Ymax n + i = Yemp n + i + S i * t cr, dimana t cr adalah nilai kritis dari distribusi Student, ditentukan dengan rumus “= STYURASPOBR (0,05; nm-1)”, m adalah jumlah faktor penjelas dalam model (Y * t), Yemp n + i adalah nilai prediksi dari variabel yang dihasilkan (klausul 5.1).

    Menggunakan alat "Grafik" Microsoft Excel, grafik dibangun sesuai dengan nilai aktual dan prediksi dari variabel yang dihasilkan, batas atas dan bawah perkiraan untuk pengamatan. Kesimpulan dibuat tentang kecocokan nilai aktual dari variabel yang dihasilkan ke dalam batas peramalan interval.

    5.3. Penilaian stabilitas model menggunakan uji NCO dilakukan sebagai berikut:

    a) menggunakan alat "Analisis / Regresi Data" Microsoft Excel, regresi dibangun, di mana nilai agregat (sampel dan prediksi) dari variabel faktor diambil sebagai nilai X, dan nilai agregat (sampel dan prediksi) dari variabel yang dihasilkan diambil sebagai nilai Y. Regresi ini digunakan untuk menentukan jumlah kuadrat dari residual S;

    b) menurut regresi dalam klausa 5.2 dengan variabel dummy Salkever, jumlah kuadrat dari residual Sd ditentukan;

    c) nilai F statistik dihitung dan diestimasi dengan rumus:

    di mana p adalah jumlah langkah prediksi. Jika nilai yang diperoleh lebih besar dari nilai kritis F cr yang ditentukan dengan rumus “= FDESTR (0,05; p; nm-1)”, maka hipotesis tentang stabilitas model pada periode prakiraan ditolak, sebaliknya dinyatakan diterima.

    5.4 Generalisasi penilaian tentang kualitas prediksi model berdasarkan klausa 5.1-5.3, sebagai hasilnya, kesimpulan terbentuk pada kualitas prediksi model dan rekomendasi untuk menggunakan model untuk peramalan.

    Dengan demikian, informasi yang dikembangkan dan dukungan metodologis sesuai dengan tugas utama studi ekonometrik masalah multikolinearitas dalam model regresi berganda.

    2.2. Contoh studi ekonometrika

    Penelitian ini dilakukan berdasarkan data yang mencerminkan indikator ekonomi makro riil Federasi Rusia untuk periode 2003-2011. (tabel. 1), menurut metode klausa 2.1.

    Tabel 1

    Biaya rumah. pertanian (miliar rubel) [Y]

    Populasi (juta orang)

    Uang beredar (miliar rubel)

    Tingkat pengangguran (%)

    1.Spesifikasi Model persamaan regresi mencakup analisis grafis dari korelasi ketergantungan variabel dependen Y (Pengeluaran rumah tangga pada variabel penjelas X 1 (Populasi) (Gbr. 1), ketergantungan korelasi variabel dependen Y (Pengeluaran rumah tangga pada variabel penjelas X 2 (Uang beredar) (Gbr. 2), korelasi ketergantungan variabel dependen Y (Pengeluaran rumah tangga pada variabel penjelas X 3 (Tingkat pengangguran) (Gbr. 3).

    Grafik ketergantungan korelasi antara Y dan X 1, yang disajikan pada Gambar 1, mencerminkan ketergantungan linier terbalik yang signifikan (R 2 = 0,71) dari Y terhadap X 1.

    Grafik ketergantungan korelasi antara Y dan X 2, yang disajikan pada Gambar 2, mencerminkan ketergantungan linier langsung Y yang signifikan (R 2 = 0,98) terhadap X 2.

    Grafik ketergantungan korelasi antara Y dan X 3, yang disajikan pada Gambar 3, mencerminkan ketergantungan linier terbalik yang tidak signifikan (R 2 = 0,15) dari Y terhadap X 3.

    Gambar 1

    Gambar 2

    Gambar 3

    Akibatnya, model regresi linier berganda dapat ditentukan Y = b 0 + b 1 X 1 + b 2 X 2 + b 3 X 3.

    2.Parametrisasi persamaan regresi dilakukan menggunakan alat "Regresi" sebagai bagian dari add-on "Analisis Data" MsExcel (Gbr. 4).

    Gambar 4

    Persamaan regresi yang diestimasi adalah:

    233983.8-1605.6X 1 + 1.0X 2 + 396.22X 3.

    Dalam hal ini, koefisien regresi ditafsirkan sebagai berikut: dengan peningkatan populasi sebesar 1 juta orang, biaya rumah. pertanian berkurang 1605,6 miliar rubel; dengan peningkatan jumlah uang beredar sebesar 1 miliar rubel. biaya rumah. pertanian akan meningkat 1,0 miliar rubel; dengan peningkatan tingkat pengangguran 1%, biaya rumah. pertanian akan meningkat 396,2 miliar rubel. Dengan nilai nol dari variabel faktor, biaya rumah. pertanian akan berjumlah 233.983,8 miliar rubel, yang, mungkin, tidak memiliki interpretasi ekonomi.

    3.Verifikasi persamaan regresi dilakukan berdasarkan hasil analisis regresi otomatis (tahap 2).

    Jadi, "R-kuadrat" sama dengan 0,998, mis. persamaan regresi menggambarkan perilaku variabel dependen sebesar 99%, yang menunjukkan tingkat deskripsi persamaan yang tinggi. Nilai "signifikansi F" adalah 2.14774253442155E-07, yang menunjukkan bahwa "R-kuadrat" signifikan. “P-Value” untuk b 0 adalah 0,002, yang menunjukkan bahwa parameter ini signifikan. “P-Value” untuk b 1 adalah 0,002, yang menunjukkan bahwa koefisien ini signifikan. “P-Value” untuk b 2 adalah 8.29103190343224E-07, yang menunjukkan bahwa koefisien ini signifikan. Nilai “P-Value” untuk b 3 adalah 0,084, yang menunjukkan bahwa koefisien ini tidak signifikan.

    Berdasarkan plot residual, e residual adalah nilai acak.

    Berdasarkan plot pas, kesimpulan dibuat tentang kedekatan nilai aktual dan prediksi untuk model.

    Jadi, model tersebut berkualitas baik, sedangkan b3 tidak signifikan, sehingga dapat diasumsikan adanya multikolinearitas.

    4. Penelitian tambahan.

    4.1. Deteksi tanda pertama multikolinearitas. Menurut data analisis regresi (Gambar 5), kita dapat mengatakan bahwa ada tanda pertama multikolinearitas, karena R 2 yang tinggi dan signifikan terungkap, terungkap bahwa persamaan tersebut memiliki koefisien determinasi yang tinggi, dan salah satu koefisien tidak signifikan. Hal ini menunjukkan adanya multikolinearitas.

    4.2 Deteksi tanda kedua multikolinearitas.

    Berdasarkan perhitungan koefisien korelasi antar variabel faktor, ditentukan hubungan yang signifikan dari faktor individu. (Meja 2). Kehadiran multikolinearitas diasumsikan dalam kasus berikut jika ada koefisien korelasi yang signifikan antara setidaknya dua variabel (yaitu, lebih besar dari 0,5 dalam modulus).

    Meja 2

    [ X2]

    [ X3]

    [ X2]

    [ X3]

    Dalam kasus kami, ada koefisien korelasi antara X 1 dan X 2 (-0,788), yang menunjukkan ketergantungan yang kuat antara variabel X 1, X 2, ada juga koefisien korelasi antara X 1 dan X 3 (0,54), yang menunjukkan ketergantungan yang kuat antara variabel X 1, X 3.

    Akibatnya, kehadiran multikolinearitas dapat diasumsikan.

    4.3 Deteksi tanda ketiga multikolinearitas.

    Karena dalam Bagian 4.2 ditemukan hubungan yang kuat antara variabel X 1 dan X 2, maka regresi tambahan antara variabel-variabel ini dianalisis (Gbr. 5).

    Gambar 5

    Karena "F signifikansi" adalah 0,01, yang menunjukkan bahwa "R-kuadrat" dan regresi bantu adalah signifikan, dapat diasumsikan bahwa regresor X 2 mengarah ke multikolinearitas.

    Karena dalam Bagian 4.2 hubungan antara variabel X 1 dan X 3 ditemukan di atas tingkat rata-rata, maka regresi bantu antara variabel-variabel ini dianalisis (Gbr. 6).

    Gambar 6

    Karena "Signifikan F" adalah 0,13, yang berarti bahwa "R-kuadrat" dan regresi bantu tidak signifikan, maka dapat diasumsikan bahwa regresor X 3 tidak menyebabkan multikolinearitas.

    Jadi, menurut fitur ketiga, adanya multikolinearitas dapat diasumsikan.

    4.4 Generalisasi penilaian.

    Berdasarkan analisis paragraf 4.1-4.3, ketiga tanda multikolinearitas ditemukan, sehingga dapat diasumsikan dengan probabilitas tinggi. Pada saat yang sama, meskipun asumsi dalam Bagian 4.3 mengenai regressor yang mengarah ke multikolinearitas, dimungkinkan untuk merekomendasikan pengecualian X 3 dari model asli, karena X 3 memiliki koefisien korelasi terkecil dengan Y dan koefisien regresi ini tidak signifikan dalam persamaan aslinya. Hasil analisis regresi setelah mengeluarkan X3 ditunjukkan pada Gambar. 7.

    Gambar 7

    Dalam hal ini, kami akan menghitung F - statistik untuk memeriksa kelayakan pengecualian:

    F fakta = 4,62,

    dan F tab = F 0,05; 1; 5 = 6,61, karena F fakta< F табл, то исключение допустимо для переменной X 3 .

    Estimasi kualitas model regresi linier berganda Y = b 0 + b 1 X 1 + b 2 X 2. "R-kuadrat" adalah 0,996, mis. persamaan regresi menggambarkan perilaku variabel dependen sebesar 99%, yang menunjukkan tingkat deskripsi persamaan yang tinggi. "F signifikansi" adalah 3.02415218982089E-08, yang menunjukkan bahwa "R-kuadrat" signifikan. “P-Value” untuk b 0 adalah 0,004, yang menunjukkan bahwa parameter ini signifikan, “P-Value” untuk b 1 adalah 0,005, yang menunjukkan bahwa koefisien ini signifikan. Nilai “P-Value” untuk b 2 adalah 3,87838361673427E-07, yang menunjukkan bahwa koefisien ini signifikan. Persamaan regresi yang diestimasi adalah:

    201511.7 -1359.6X 1 + 1,01X 2

    Dalam hal ini, koefisien regresi ditafsirkan sebagai berikut: dengan penurunan populasi sebesar 1 juta orang, biaya rumah. pertanian berkurang 1.359,6 miliar rubel; dengan peningkatan jumlah uang beredar, biaya rumah. pertanian akan meningkat 1,0) (miliar rubel). Dengan nilai nol dari variabel faktor, biaya rumah. pertanian akan berjumlah 201511,7 miliar rubel, yang mungkin memiliki interpretasi ekonomi.

    Jadi, model = 201511.7 -1359.6X 1 + 1.01X 2 berkualitas baik dan direkomendasikan untuk peramalan sebagai “terbaik” dibandingkan dengan model aslinya.

    5. Peramalan.

    5.1 Prediksi poin. Nilai sebenarnya dari variabel faktor dalam periode perkiraan dianggap diprediksi, nilai prediksi variabel yang dihasilkan ditentukan seperti yang diprediksi oleh model "terbaik" (= 201511.7 -1359.6X 1 + 1.01X 2) berdasarkan variabel faktor dalam periode perkiraan. Menggunakan alat "Grafik" Microsoft Excel, grafik nilai aktual dan prediksi dari variabel yang dihasilkan diplot sesuai dengan pengamatan dan kesimpulan dibuat tentang kedekatan nilai aktual dengan yang diprediksi.

    Nilai prediksi variabel faktor disajikan pada Tabel 3.

    Tabel 3

    Nilai prediksi variabel efektif ditentukan seperti yang diprediksi oleh model "terbaik" (= 201511,7 -1359,6X 1 + 1,01X 2) berdasarkan variabel faktor pada periode perkiraan. Nilai prediksi disajikan pada Tabel 4; nilai aktual ditambahkan untuk perbandingan.

    Tabel 4

    [Y] empiris

    Gambar 8 menunjukkan nilai aktual dan prakiraan dari variabel yang dihasilkan, serta batas bawah dan atas prakiraan.

    Angka 8

    Menurut Gambar. 8, perkiraan mempertahankan tren yang meningkat, dan semua nilai perkiraan mendekati yang sebenarnya.

    5.2. Perkiraan interval.

    Menggunakan alat Analisis / Regresi Data Microsoft Excel, regresi dibangun untuk kumpulan data agregat sampel dan periode perkiraan, tetapi dengan penambahan variabel dummy D 1, D 2, ..., D p. Dalam hal ini, D i = 1 hanya untuk momen pengamatan (n + i), untuk semua momen lainnya D i = 0. Data disajikan pada Tabel 5, hasil regresi pada Gambar 9.

    Tabel 5

    [Y] burung hantu

    Gambar 9

    Maka standard error koefisien untuk variabel dummy sama dengan standard error prediksi (S i): untuk tahun 2012 sebesar 738.5; untuk tahun 2013 akan menjadi 897.1; untuk 2014 akan menjadi 1139,4.

    Batas-batas peramalan interval dihitung pada Tabel 6.

    Tabel 6

    [Y] empiris

    [Y] burung hantu

    [S] sebelum

    Menurut tabel. 6, menggunakan alat "Grafik" Microsoft Excel, grafik dibangun sesuai dengan nilai aktual dan prediksi dari variabel yang dihasilkan, batas atas dan bawah perkiraan untuk pengamatan (Gbr. 10).

    Gambar 10

    Menurut grafik, nilai prediksi masuk ke dalam batas interval prakiraan, yang menunjukkan kualitas prakiraan yang baik.

    5.3. Menilai stabilitas model menggunakan uji NCO dilakukan sebagai berikut:

    a) menggunakan alat Microsoft Excel "Analisis / Regresi Data", regresi dibangun (Gbr. 11), di mana nilai agregat (sampel dan perkiraan) dari variabel faktor diambil sebagai nilai X, dan agregat ( sampel dan perkiraan) nilai diambil sebagai nilai Y variabel hasil. Regresi ini digunakan untuk menentukan jumlah kuadrat dari residual S = 2058232.333.

    Gambar 11

    b) dengan regresi butir 3.2 dengan variabel dummy Salkever (Gbr. 9), jumlah kuadrat dari residual Sd = 1270272.697 ditentukan.

    c) nilai F statistik dihitung dan dievaluasi:

    sedangkan F cr = F 0,05;3;5 = 5,40, maka nilai yang diperoleh lebih kecil dari nilai kritis F cr dan hipotesis tentang kestabilan model pada periode prakiraan diterima.

    5.4 Generalisasi penilaian tentang kualitas prediksi model berdasarkan klausa 5.1-5.3, sebagai hasilnya, sebuah kesimpulan terbentuk pada kualitas prediksi yang tinggi dari model (= 201511.7 -1359.6X 1 + 1.01X 2) dan rekomendasi diberikan tentang penggunaan model untuk peramalan.

    Teknik klausa 2.1 telah berhasil diuji, memungkinkan kita untuk mengidentifikasi tanda-tanda utama multikolinearitas dan dapat direkomendasikan untuk studi semacam itu.

    Kesimpulan

    Multikolinearitas - dalam ekonometrika (analisis regresi) - adanya hubungan linier antara variabel penjelas (faktor) dari model regresi. Pada saat yang sama, perbedaan dibuat antara collinearity lengkap, yang berarti adanya hubungan linier fungsional (identik), dan parsial atau multikolinieritas sederhana, yang berarti adanya korelasi yang kuat antara faktor-faktor.

    Akibat utama dari multikolinearitas adalah: varians penduga yang besar, penurunan t-statistik koefisien, pendugaan koefisien dengan metode kuadrat terkecil menjadi tidak stabil, sulit untuk menentukan kontribusi variabel, dan koefisien memiliki tanda yang salah. .

    Kriteria utama untuk mendeteksi multikolinearitas adalah sebagai berikut: R2 tinggi dengan koefisien yang tidak signifikan; Koefisien korelasi berpasangan tinggi; nilai tinggi dari koefisien VIF.

    Metode utama untuk menghilangkan multikolinearitas adalah: pengecualian variabel (s) dari model; memperoleh data tambahan atau sampel baru; mengubah spesifikasi model; penggunaan informasi awal tentang beberapa parameter.

    Informasi yang dikembangkan dan dukungan metodologis sesuai dengan tujuan utama studi ekonometrika masalah multikolinearitas dalam model regresi berganda dan dapat direkomendasikan untuk studi semacam itu.

    Daftar sumber yang digunakan

    1. Astakhov, S.N. Ekonometrika [Teks]: Kompleks pendidikan-metodis. Kazan, 2008 .-- 107s.
    2. Bardasov, SA EKONOMETRI [Teks]: tutorial. edisi ke-2, Pdt. dan tambahkan. Tyumen: Rumah Penerbitan Universitas Negeri Tyumen, 2010.264 hal.
    3. Borodkina, L.I. Kursus kuliah [Sumber daya elektronik]. Mode akses - http://www.iskunstvo.info/materials/history/2/inf/correl.htm
    4. Voskoboinikov, Yu. EKONOMETRI dalam EXCEL Bagian 1 [Teks]: panduan belajar, Novosibirsk 2005,156 hal.
    5. Eliseeva, I.I. Workshop ekonometrika: buku teks. panduan untuk ekonomi. universitas / Eliseeva, I.I., Kurysheva, S.V., Gordeenko, N.M. , [dan sebagainya.] ; ed. I.I. Eliseeva - M.: Keuangan dan Statistik, 2001 .-- 191 hal. - (14126-1).
    6. Multikolinearitas [Sumber daya elektronik]. Mode akses - https://ru.wikipedia.org/wiki/Multicollinearity.
    7. Novikov, A.I. Ekonometrika [Teks]: buku teks. manual untuk eks. "Keuangan dan Kredit", "Ekonomi" - M .: Dashkov dan K, 2013. - 223 hal. - (93895-1).
    8. Masalah multikolinearitas [Sumber daya elektronik]. Mode akses - http://crow.academy.ru/econometrics/lectures_/lect_09_/lect_09_4.pdf.
    9. Chernyak, V. Ekonometrika Terapan. Kuliah No. 9 [Sumber daya elektronik]. Mode akses http://www.slideshare.net/vtcherniak/lect-09.
    10. ru - situs ensiklopedis [Sumber daya elektronik]. Mode akses - http://kodcupon.ru/ra17syplinoe97/ Multikolinearitas.

    Unduh: Anda tidak memiliki akses untuk mengunduh file dari server kami.

    Misalkan kita sedang mempertimbangkan persamaan regresi dan data untuk estimasinya berisi pengamatan untuk objek dengan kualitas berbeda: untuk pria dan wanita, untuk kulit putih dan kulit hitam. pertanyaan yang mungkin menarik bagi kita di sini adalah sebagai berikut - benarkah model yang dipertimbangkan bertepatan untuk dua sampel yang terkait dengan objek dengan kualitas berbeda? Anda dapat menjawab pertanyaan ini dengan menggunakan tes Chow.

    Pertimbangkan modelnya:

    , saya=1,…,tidak (1);

    , saya=tidak+1,…,tidak+saya (2).

    Pada sampel pertama tidak pengamatan, di kedua - saya pengamatan. Contoh: kamu- upah, menjelaskan variabel - usia, masa kerja, tingkat pendidikan. Apakah mengikuti dari data yang ada bahwa model ketergantungan upah pada variabel penjelas di sebelah kanan adalah sama untuk laki-laki dan perempuan?

    Untuk menguji hipotesis ini, Anda dapat menggunakan skema pengujian hipotesis umum dengan membandingkan regresi terbatas dan regresi tidak terbatas. Regresi tanpa kendala di sini adalah gabungan dari regresi (1) dan (2), yaitu. ESS UR = ESS 1 + ESS 2, jumlah derajat kebebasan - tidak + saya - 2k... Regresi terbatas (yaitu, regresi dengan asumsi bahwa hipotesis nol terpenuhi) akan menjadi regresi untuk seluruh rangkaian pengamatan yang tersedia:

    , saya = 1,…, tidak+saya (3).

    Menaksir (3), kita peroleh ESS R... Untuk menguji hipotesis nol, kami menggunakan statistik berikut:

    Yang mana, jika hipotesis nol benar, memiliki distribusi Fisher dengan jumlah derajat kebebasan pembilang k dan penyebut tidak+ saya- 2k.

    Jika hipotesis nol benar, kita dapat menggabungkan sampel yang tersedia menjadi satu dan memperkirakan model untuk tidak+saya pengamatan. Jika kita menolak hipotesis nol, maka kita tidak dapat menggabungkan dua sampel menjadi satu, dan kita harus mengevaluasi kedua model ini secara terpisah.


    Studi tentang model linier umum, yang telah kita bahas sebelumnya, sangat penting, seperti yang telah kita lihat, berdasarkan peralatan statistik. Namun seperti pada semua aplikasi sobat. statistik, kekuatan suatu metode tergantung pada asumsi yang mendasarinya dan diperlukan untuk penerapannya. Untuk sementara, kami akan mempertimbangkan situasi di mana satu atau lebih hipotesis yang mendasari model linier dilanggar. Kami akan mempertimbangkan metode penilaian alternatif dalam kasus ini. Kita akan melihat bahwa peran beberapa hipotesis lebih signifikan daripada peran yang lain. Kita perlu melihat apa konsekuensi pelanggaran kondisi (asumsi) tertentu dapat menyebabkan, dapat memeriksa apakah mereka puas atau tidak dan mengetahui metode statistik apa yang dapat dan harus diterapkan ketika metode kuadrat terkecil klasik tidak cocok.

    1. Hubungan antar variabel adalah linier dan dinyatakan oleh persamaan - kesalahan spesifikasi model (tidak dimasukkannya variabel penjelas yang signifikan dalam persamaan, dimasukkannya variabel yang tidak perlu dalam persamaan, pilihan bentuk ketergantungan yang salah antara variabel variabel);


    2. X 1 ,…,X k- variabel deterministik - regresi stokastik, bebas linier - multikolinearitas penuh;

    4. - heteroskedastisitas;

    5.kapan saya ¹ k- autokorelasi kesalahan

    Sebelum memulai percakapan, perhatikan konsep berikut: koefisien korelasi pasangan dan koefisien korelasi parsial.

    Misalkan kita sedang menyelidiki pengaruh satu variabel pada variabel lain ( kamu dan X). Untuk memahami bagaimana variabel-variabel ini terkait satu sama lain, kami menghitung koefisien korelasi pasangan menggunakan rumus berikut:

    Jika kita mendapatkan nilai koefisien korelasi yang mendekati 1, kita menyimpulkan bahwa variabel-variabel tersebut berhubungan cukup kuat satu sama lain.

    Namun, jika koefisien korelasi antara dua variabel yang menarik mendekati 1, mereka mungkin tidak benar-benar tergantung. Contoh orang sakit jiwa dan radio adalah contoh dari apa yang disebut "korelasi palsu". Nilai koefisien korelasi yang tinggi juga dapat disebabkan oleh adanya variabel ketiga yang berpengaruh kuat pada dua variabel pertama, yang menjadi alasan tingginya korelasi tersebut. Oleh karena itu, muncul masalah dalam menghitung korelasi "murni" antara variabel X dan kamu, yaitu, korelasi di mana pengaruh (linier) variabel lain dikecualikan. Untuk ini, konsep koefisien korelasi parsial diperkenalkan.

    Jadi, kami ingin menentukan koefisien korelasi parsial antara variabel X dan kamu, tidak termasuk pengaruh linier variabel Z... Untuk menentukannya, digunakan prosedur berikut:

    1. Kami memperkirakan regresi,

    2. Kami mendapatkan sisa makanan,

    3. Kami memperkirakan regresi,

    4. Kami mendapatkan sisa makanan,

    5. - koefisien sampel korelasi parsial, mengukur tingkat hubungan antar variabel X dan kamu, dibersihkan dari pengaruh variabel Z.

    Perhitungan langsung:

    Properti:

    Prosedur untuk membangun koefisien korelasi parsial digeneralisasikan jika kita ingin menghilangkan pengaruh dua variabel atau lebih.


    1. Multikolinearitas sempurna.

    Salah satu persyaratan Gauss-Markov memberitahu kita bahwa variabel penjelas tidak boleh berhubungan dengan hubungan yang tepat. Jika ada hubungan seperti itu antara variabel, kita mengatakan bahwa ada multikolinearitas sempurna dalam model. Contoh. Pertimbangkan model dengan skor ujian rata-rata yang terdiri dari tiga variabel penjelas: saya- pendapatan orang tua, D- rata-rata jumlah jam yang dihabiskan untuk pelatihan per hari, W- jumlah rata-rata jam yang dihabiskan untuk pelatihan per minggu. Jelas bahwa W=7D... Dan rasio ini akan terpenuhi untuk setiap siswa yang termasuk dalam sampel kami. Kasus multikolinearitas lengkap mudah dilacak, karena dalam kasus ini tidak mungkin untuk membuat estimasi menggunakan metode kuadrat terkecil.

    2. Multikolinearitas parsial atau multikolinieritas sederhana.

    Situasi yang jauh lebih umum adalah ketika tidak ada hubungan linier yang tepat antara variabel penjelas, tetapi ada korelasi yang erat di antara mereka - kasus ini disebut multikolinearitas nyata atau parsial (hanya multikolinearitas) - adanya hubungan statistik yang erat antara variabel. Harus dikatakan bahwa masalah multikolinearitas lebih merupakan masalah derajat manifestasi fenomena, daripada jenisnya. Skor regresi apa pun akan menderita karenanya dalam satu atau lain bentuk, kecuali semua variabel penjelas sama sekali tidak berkorelasi. Pertimbangan masalah ini dimulai hanya ketika masalah itu mulai berdampak serius pada hasil estimasi regresi (adanya hubungan statistik antara regressor tidak selalu memberikan estimasi yang tidak memuaskan). Jadi multikolinearitas adalah masalah di mana korelasi yang erat antara regressor mengarah pada estimasi regresi yang tidak dapat diandalkan.

    Konsekuensi dari multikolinearitas:

    Secara formal, sejak ( X"X) Apakah non-degenerate, maka kita dapat membuat estimasi OLS dari koefisien regresi. Namun, mari kita ingat bagaimana varians teoretis dari estimasi koefisien regresi dinyatakan:, di mana sebuah ii - saya elemen diagonal matriks. Karena matriks (X "X) mendekati degenerasi dan det ( X"X) »0, maka

    1) ada bilangan yang sangat besar pada diagonal utama dari matriks invers, karena elemen-elemen dari matriks invers berbanding terbalik dengan det ( X"X). Oleh karena itu, varians teoritis saya koefisien -th cukup besar dan estimasi varians juga besar, oleh karena itu, untuk- statistik kecil, yang dapat menyebabkan statistik tidak signifikan saya koefisien th. Artinya, variabel memiliki pengaruh yang signifikan terhadap variabel yang dijelaskan, dan kami menyimpulkan bahwa itu tidak signifikan.

    2) Karena perkiraan dan bergantung pada ( X"X) -1, yang elemen-elemennya berbanding terbalik dengan det ( X"X), maka jika kita menambahkan atau menghapus satu atau dua pengamatan, menambah atau menghapus, dengan demikian, satu atau dua baris ke matriks X"X, maka nilai dan dapat berubah secara signifikan, hingga perubahan tanda - ketidakstabilan hasil estimasi.

    3) Kesulitan dalam menginterpretasikan persamaan regresi. Katakanlah kita memiliki dua variabel dalam persamaan yang terkait satu sama lain: X 1 dan X 2. Koefisien regresi pada X 1 diartikan sebagai ukuran perubahan kamu dengan mengganti X 1 ceteris paribus, yaitu nilai semua variabel lainnya tetap sama. Namun, karena variabel X 1 dan X 2 terhubung, maka perubahan variabel X 1 akan menyebabkan perubahan variabel yang dapat diprediksi X 2 dan nilai X 2 tidak akan tetap sama.

    Contoh: dimana X 1 - luas total, X 2 - ruang tamu. Kami mengatakan: "Jika ruang tamu bertambah 1 sq. M., Kemudian, semua hal lain dianggap sama, harga apartemen akan meningkat sebesar USD." Namun, dalam hal ini, ruang tamu juga akan bertambah 1 sq. m. dan kenaikan harga akan. Menggambarkan pengaruh pada variabel kamu setiap variabel secara terpisah tidak mungkin lagi. Jalan keluar dalam situasi ini dengan harga apartemen adalah memasukkan dalam model bukan luas total, tetapi apa yang disebut luas "tambahan" atau "tambahan".

    Tanda-tanda multikolinearitas.

    Tidak ada kriteria yang tepat untuk menentukan ada (tidak adanya) multikolinearitas. Namun, ada rekomendasi heuristik untuk mendeteksinya:

    1) Menganalisis matriks koefisien korelasi berpasangan antara regressor dan jika nilai koefisien korelasi mendekati 1, maka ini dianggap sebagai tanda multikolinearitas.

    2) Analisis matriks korelasi hanya merupakan penilaian dangkal tentang ada (tidak adanya) multikolinearitas. Sebuah studi yang lebih hati-hati dari masalah ini dicapai dengan menghitung koefisien korelasi parsial atau menghitung koefisien determinasi dari masing-masing variabel penjelas untuk semua variabel penjelas lainnya dalam regresi.

    4) (XX) Merupakan matriks definit positif simetris; oleh karena itu, semua nilai eigennya nonnegatif. Jika determinan matriks ( XX) sama dengan nol, maka nilai eigen minimum juga nol dan kontinuitas dipertahankan. Akibatnya, nilai manimal eigenvalue juga dapat dinilai dari kedekatannya dengan nol dari determinan matriks ( XX). Selain sifat ini, nilai eigen minimum juga penting karena kesalahan standar koefisien berbanding terbalik.

    5) Adanya multikolinearitas dapat dinilai dari tanda-tanda eksternal yang merupakan konsekuensi dari multikolinearitas:

    a) beberapa perkiraan memiliki tanda-tanda yang tidak benar dari sudut pandang teori ekonomi atau nilai yang terlalu tinggi;

    b) perubahan kecil pada data ekonomi awal menyebabkan perubahan signifikan dalam estimasi koefisien model;

    c) mayoritas untuk- statistik koefisien berbeda tidak signifikan dari nol, pada saat yang sama, model secara keseluruhan signifikan, sebagaimana dibuktikan oleh nilai tinggi F-statistik.

    Cara menghilangkan multikolinearitas, cara menghilangkannya:

    1) Menggunakan analisis faktor. Transisi dari set regressor asli, di antaranya ada yang bergantung secara statistik, ke regressor baru Z 1 ,…,Z m menggunakan metode komponen utama - alih-alih variabel awal, alih-alih variabel awal, kami mempertimbangkan beberapa kombinasi liniernya, korelasi di antaranya kecil atau tidak ada sama sekali. Tantangannya di sini adalah memberikan interpretasi yang berarti terhadap variabel baru. Z... Jika gagal, kami kembali ke variabel asli menggunakan transformasi terbalik. Perkiraan yang diperoleh akan, bagaimanapun, menjadi bias, tetapi akan memiliki varians yang lebih rendah.

    2) Di antara semua variabel yang tersedia, pilih faktor yang paling signifikan mempengaruhi variabel yang dijelaskan. Prosedur seleksi akan dibahas di bawah ini.

    3) Transisi ke metode estimasi bias.

    Ketika kita dihadapkan dengan masalah multikolinearitas, peneliti yang tidak berpengalaman pada awalnya memiliki keinginan untuk mengecualikan regresi yang tidak perlu yang mungkin menyebabkannya. Namun, tidak selalu jelas variabel mana yang berlebihan dalam pengertian ini. Selain itu, seperti yang akan ditunjukkan di bawah ini, membuang apa yang disebut variabel yang mempengaruhi secara signifikan menyebabkan bias estimasi OLS.