Apa dampak negatif dari multikolinearitas? Konsep multikolinearitas

  • 4. Estimasi statistik parameter PLR menggunakan metode kuadrat terkecil. Properti estimasi kuadrat terkecil
  • Properti estimasi kuadrat terkecil:
  • 5. Pengecekan kualitas regresi linier berganda: signifikansi parameter, interval kepercayaan, kecukupan model. Peramalan.
  • 6. Regresi linier berganda (MLR). Asumsi klasik. Estimasi OLS parameter model.
  • 7. Sifat estimasi OLS dari regresi linier berganda. Teorema Gauss-Markov.
  • 8. Pengecekan kualitas regresi linier berganda: signifikansi parameter, interval kepercayaan, kecukupan model. Peramalan.
  • 5. Koefisien Penentuan
  • Peramalan menggunakan model regresi linier berganda
  • 9. Spesifikasi model ekonometrik: metode dan diagnostik pemilihan variabel eksogen. Tes Ramsey dan Amemya.
  • Kriteria Ramsey:
  • 10. Spesifikasi model ekonometrik: pemilihan bentuk ketergantungan model nonlinier
  • Prinsip spesifikasi
  • 11. Masalah multikolinearitas. Konsekuensi dari adanya dan diagnosis multikolinearitas.
  • Metode untuk mendiagnosis multikolinearitas:
  • 12. Metode menghilangkan multikolinearitas. Metode komponen utama. Regresi punggungan.
  • 13. Masalah heteroskedastisitas model. Kriteria diagnosisnya.
  • 1. Kriteria taman.
  • 2. Kriteria Goldfeld-Quandt.
  • 3. Kriteria Breusch-Pagan.
  • 4. Kriteria putih.
  • 14. Kuadrat terkecil yang digeneralisasi (oms). Properti perkiraan mlr untuk omnk. Metode kuadrat terkecil tertimbang dalam masalah estimasi parameter model. Properti estimasi menggunakan kuadrat terkecil tertimbang.
  • Pertanyaan 15. Masalah autokorelasi residu model. Implikasi autokorelasi saat menggunakan model.
  • Alasan Autokorelasi Residual
  • Konsekuensi dari autokorelasi:
  • 16. Kriteria diagnostik autokorelasi Durbin-Watson
  • 17.Metode menghilangkan autokorelasi. Prosedur penilaian Cochrane-Orcutt dan Hildreth-Lou
  • 18. Model dengan lag terdistribusi: struktur lag menurut Koik: Kasus khusus (model dengan penyesuaian tidak lengkap dan ekspektasi adaptif)
  • 19 Model dengan lag terdistribusi: struktur lag aritmatika linier dan struktur lag polinomial menurut Almon
  • 20. Uji h-Durbin dan uji Lagrange ganda untuk memeriksa autokorelasi pada model lag
  • 21. Konsep deret waktu (time). Model VR, tugas utama analisis VR. Metode pemulusan waktu (rata-rata bergerak, pemulusan eksponensial, perbedaan sekuensial)
  • 22 Stasioneritas deret waktu (time). Karakteristik korelasi tingkat suhu.
  • 23 Model deret waktu stasioner: autoregresi, rata-rata bergerak, arsc
  • 24. Model ariss non stasioner. Estimasi parameter model.
  • 28. Peramalan deret waktu. Indikator keakuratan perkiraan.
  • 30. Uji chow untuk mendiagnosis masuknya variabel dummy dalam model ekonometrik.
  • 32. Sistem persamaan ekonometrik simultan (BUMN). Bentuk sistem yang struktural dan tereduksi (representasi grafis dan matriks).
  • 33. Masalah identifikasi sistem persamaan simultan (BUMN). Identifikasi persamaan kedelai (kriteria ordinal dan peringkat)
  • 34. Metode pendugaan sistem persamaan simultan: metode kuadrat terkecil tidak langsung, metode kuadrat terkecil dua langkah. Penerapan dan sifat penilaian
  • 35. Keadaan ekonometrik saat ini. Contoh model ekonometrik besar
  • 11. Masalah multikolinearitas. Konsekuensi dari adanya dan diagnosis multikolinearitas.

    Jika tersedia hubungan linier variabel eksogen , misalnya, maka estimasi OLS tidak akan ada, karena tidak ada invers suatu matriks yang bersifat tunggal. Situasi dalam ekonometrik ini disebut masalah multikolinearitas.

    Alasan terjadinya multikolinearitas:

    spesifikasi model yang salah

    pengumpulan data statistik yang ceroboh (penggunaan observasi berulang).

    Membedakan eksplisit Dan implisit multikolinearitas.

    Eksplisit - diketahui hubungan linier yang tepat antar variabel model.

    Misalnya, jika model proses investasi mencakup tingkat bunga nominal dan riil, yaitu.

    dimana hubungan antara tingkat riil dan nominal dengan tingkat inflasi diketahui

    maka terdapat multikolinearitas yang nyata.

    Implisit terjadi ketika ada ketergantungan linier stokastik (tidak pasti, acak). antar variabel eksogen.

    implisit berlaku, kehadirannya ditandai dengan6 tanda :

    1. Estimasi OLS terhadap parameter model kehilangan sifat-sifatnya yang tidak dipindahkan .

    2. Varians estimasi OLS meningkat:

    Oleh karena itu, koefisien korelasi yang diperlukan

    3. Terjadi penurunan T- statistik yang merupakan indikator pentingnya parameter:

    4. Koefisien determinasi tidak lagi menjadi ukuran kecukupan model, karena nilainya rendah T-ahli statistik menyebabkan ketidakpercayaan terhadap model ketergantungan yang dipilih.

    5. Estimasi parameter variabel eksogen non-kolinear menjadi sangat sensitif terhadap perubahan data.

    6. Estimasi parameter variabel eksogen yang tidak kolinear menjadi tidak signifikan.

    Metode untuk mendiagnosis multikolinearitas:

    Langkah 1. Dalam model regresi linier berganda (awal), kita akan membahas semua submodel di mana variabel eksogen menjadi endogen, yaitu

    Langkah 2. Kami menghitung koefisien determinasi semua model yang dihasilkan, yang menjadi dasar kami menghitung apa yang disebut faktor inflasi:

    Jika , maka disimpulkan adanya multikolinearitas.

    a) mereka tidak mengubah struktur apa pun dalam model, tetapi, dengan menggunakan kuadrat terkecil komputer, menganalisis adanya masalah multikolinearitas menggunakan metode visual.

    b) memperbaiki spesifikasi model dengan menghilangkan variabel eksogen yang kolinear dari model aslinya.

    c) meningkatkan volume data statistik.

    d) menggabungkan variabel kolinear dan memasukkan variabel eksogen yang sama ke dalam model.

    12. Metode menghilangkan multikolinearitas. Metode komponen utama. Regresi punggungan.

    Jika tugas utama model adalah memprediksi nilai masa depan dari variabel dependen, maka dengan koefisien determinasi R2 yang cukup besar (≥ 0,9), adanya multikolinearitas seringkali tidak mempengaruhi kualitas prediksi model.

    Jika tujuan penelitian adalah untuk mengetahui besarnya pengaruh masing-masing variabel penjelas terhadap variabel terikat, maka adanya multikolinearitas akan mendistorsi hubungan yang sebenarnya antar variabel. Dalam situasi ini, multikolinearitas nampaknya menjadi masalah yang serius.

    Perhatikan bahwa tidak ada metode tunggal untuk menghilangkan multikolinearitas yang cocok dalam kasus apa pun. Hal ini karena penyebab dan akibat multikolinearitas bersifat ambigu dan sangat bergantung pada hasil sampel.

    METODE:

    Tidak termasuk Variabel dari Model

    Misalnya, ketika mempelajari permintaan suatu barang tertentu, harga barang tersebut dan harga substitusi barang tersebut, yang seringkali berkorelasi satu sama lain, dapat digunakan sebagai variabel penjelas. Dengan mengecualikan harga pengganti dari model, kemungkinan besar kita akan menimbulkan kesalahan spesifikasi. Akibatnya, perkiraan yang bias dapat diperoleh dan kesimpulan yang tidak berdasar dapat diperoleh. Dalam penerapan model ekonometrik, sebaiknya tidak mengecualikan variabel penjelas sampai kolinearitas menjadi masalah serius.

    Mendapatkan lebih banyak data atau sampel baru

    Terkadang menambah ukuran sampel saja sudah cukup. Misalnya, jika Anda menggunakan data tahunan, Anda dapat beralih ke data triwulanan. Meningkatkan jumlah data akan mengurangi varians koefisien regresi dan dengan demikian meningkatkan signifikansi statistiknya. Namun, memperoleh sampel baru atau memperluas sampel lama tidak selalu memungkinkan atau menimbulkan biaya yang serius. Selain itu, pendekatan ini dapat memperkuat autokorelasi. Masalah-masalah ini membatasi penggunaan metode ini.

    Mengubah Spesifikasi Model

    Dalam beberapa kasus, masalah multikolinearitas dapat diselesaikan dengan mengubah spesifikasi model: baik dengan mengubah bentuk model, atau dengan menambahkan variabel penjelas yang tidak diperhitungkan dalam model asli, tetapi berpengaruh signifikan terhadap variabel terikat. .

    Menggunakan informasi awal tentang beberapa parameter

    Terkadang, saat membuat model regresi berganda, Anda dapat menggunakan beberapa informasi awal, khususnya nilai yang diketahui dari beberapa koefisien regresi. Kemungkinan besar nilai koefisien yang diperoleh untuk beberapa model awal (biasanya lebih sederhana), atau untuk model serupa berdasarkan sampel yang diperoleh sebelumnya, dapat digunakan untuk model yang sedang dikembangkan.

    Sebagai ilustrasi, kami memberikan contoh berikut. Regresi dibangun. Misalkan variabel X1 dan X2 berkorelasi. Untuk model regresi berpasangan yang dibuat sebelumnya Y = γ0 + γ1X1+υ, koefisien signifikan secara statistik γ1 ditentukan (untuk kepastian, misalkan γ1 = 0,8), menghubungkan Y dengan X1. Jika ada alasan untuk menganggap bahwa hubungan antara Y dan X1 tidak akan berubah, maka kita dapat menetapkan γ1 = β1 = 0,8. Kemudian:

    Y = β0 + 0,8X1 + β2X2 + ε. ⇒ Y – 0,8X1 = β0 + β2X2 + ε.

    Persamaan tersebut sebenarnya merupakan persamaan regresi berpasangan yang tidak terdapat masalah multikolinearitas.

    Keterbatasan penggunaan metode ini disebabkan oleh:

      Mendapatkan informasi awal seringkali sulit,

      kemungkinan koefisien regresi yang dialokasikan akan sama untuk model yang berbeda tidaklah tinggi.

    Mengonversi Variabel

    Dalam beberapa kasus, masalah multikolinearitas dapat diminimalkan atau bahkan dihilangkan dengan melakukan transformasi variabel.

    Misalnya persamaan regresi empirisnya adalah Y = b0 + b1X1 + b2X2

    dimana X1 dan X2 merupakan variabel yang berkorelasi. Dalam situasi ini, Anda dapat mencoba menentukan ketergantungan regresi nilai relatif. Kemungkinan besar pada model serupa, masalah multikolinearitas tidak akan muncul.

    Metode komponen utama adalah salah satu metode utama untuk menghilangkan variabel dari model regresi berganda.

    Metode ini digunakan untuk menghilangkan atau mengurangi multikolinearitas variabel faktor dalam suatu model regresi. Inti dari metode ini : mengurangi jumlah variabel faktor menjadi faktor yang paling berpengaruh signifikan . Hal ini dicapai dengan mentransformasikan secara linear semua variabel faktor xi (i=0,...,n) menjadi variabel baru yang disebut komponen utama, yaitu. terjadi transisi dari matriks variabel faktor X ke matriks komponen utama F. Dalam hal ini diajukan syarat bahwa pemilihan komponen utama pertama sesuai dengan maksimum total varians semua variabel faktor xi (i=0,...,n), komponen kedua sesuai dengan maksimum varians yang tersisa, setelah pengaruh komponen utama pertama dihilangkan, dan seterusnya.

    Jika tidak ada variabel faktor yang termasuk dalam model regresi berganda yang dapat dikecualikan, maka salah satu metode bias utama untuk memperkirakan koefisien model regresi digunakan - regresi ridge atau ridge. Saat menggunakan metode regresi ridge sejumlah kecil ditambahkan ke semua elemen diagonal matriks (XTX) τ: 10-6 ‹ τ ‹ 0,1. Estimasi parameter yang tidak diketahui dari model regresi berganda dilakukan dengan menggunakan rumus:

    dimana ln adalah matriks identitas.

    Multikolinearitas berarti bahwa dalam model regresi berganda, dua atau lebih variabel (faktor) independen mempunyai hubungan linier yang erat atau dengan kata lain mempunyai derajat korelasi yang tinggi ().

    Konsekuensi dari multikolinearitas:

    1. Konsekuensi praktis pertama dari multikolinearitas adalah besarnya varians dan kovarians dari estimasi parameter kuadrat terkecil.

    2. Konsekuensi praktis kedua dari multikolinearitas adalah peningkatan interval kepercayaan koefisien teoritis persamaan regresi linier.

    3. Statistik koefisiennya menurun, sehingga dapat disimpulkan bahwa koefisien tersebut tidak signifikan secara statistik.

    4. Koefisien persamaan regresi menjadi sangat sensitif terhadap perubahan sekecil apa pun pada data.

    5. Sulit untuk menentukan kontribusi masing-masing variabel terhadap varians sifat yang dijelaskan oleh persamaan.

    Sayangnya, tidak ada pendekatan yang seragam untuk menentukan multikolinearitas. Berikut beberapa metode untuk menguji adanya multikolinearitas.

    1) Nilai koefisien determinasi yang tinggi dan rendahnya statistik beberapa variabel.

    2) Nilai koefisien korelasi parsial yang tinggi. Namun kondisi ini cukup, namun bukan merupakan kondisi yang diperlukan untuk adanya multikolinearitas. Hal ini dapat terjadi bahkan dengan nilai koefisien korelasi yang relatif kecil, ketika jumlah faktornya lebih dari dua.

    3) Tes Farrar–Glober.

    Tes ini memiliki nama lain: konstruksi regresi bantu.

    Koefisien determinasi adalah koefisien determinasi suatu persamaan regresi yang menghubungkan suatu faktor dengan faktor lainnya, misalnya adalah koefisien determinasi regresi tersebut:

    Untuk setiap koefisien determinasi kami menghitung rasionya:

    Tes tersebut menguji hipotesis

    dengan hipotesis yang bersaing

    Nilai yang dihitung dibandingkan dengan nilai kritis yang diperoleh dari tabel distribusi Fisher dengan derajat kebebasan dan tingkat signifikansi tertentu. Jika kemudian kita menolak hipotesis nol dan menganggap bahwa faktor tersebut multikolinear; jika maka kita menerima hipotesis nol dan memastikan bahwa faktor tersebut tidak multikolinear.

    Ada beberapa cara untuk menghilangkan multikolinearitas.

    Cara pertama. Jika terdapat multikolinearitas antara dua faktor, maka salah satu faktor tersebut dikeluarkan dari pertimbangan.

    PERTANYAAN UNTUK UJIAN KURSUS

    "EKONOMETRIK (tingkat lanjutan)"

    1. Model regresi berganda. Jenis model regresi berganda.

    2. Bentuk pencatatan matriks dan rumus matriks untuk memperkirakan parameter regresi berganda.

    3. Menilai kualitas persamaan regresi. Komponen persamaan regresi yang dapat dijelaskan dan tidak dapat dijelaskan.

    4. Koefisien determinasi dan koefisien korelasi, perhitungannya dalam model regresi berpasangan.

    5. Koefisien determinasi berganda selektif dan pengecekan signifikansinya menggunakan uji Fisher.

    6. Mengecek signifikansi persamaan regresi berganda menggunakan uji Fisher.

    Signifikansi persamaan regresi, yaitu. kesesuaian model ekonometrik Y= Aˆ0 + A 1 X+ e data aktual (empiris), memungkinkan kita melakukannya

    menentukan apakah persamaan regresi cocok untuk penggunaan praktis (untuk analisis dan peramalan) atau tidak.

    Untuk menguji signifikansi persamaan, gunakan F- Kriteria Fisher. Dihitung dari data aktual sebagai rasio yang tidak bias

    varians komponen sisa terhadap varians deret aslinya. Signifikansi koefisien determinasi diperiksa dengan menggunakan kriteria Fisher, yang nilai hitungnya dicari dengan menggunakan rumus:

    ,

    dimana adalah koefisien korelasi berganda, adalah jumlah observasi, adalah jumlah variabel, adalah elemen diagonal matriks.

    Untuk menguji hipotesis, nilai tabel ditentukan dari tabel

    Tes Fisher F.

    F(α ν1 ν2) adalah nilai maksimum yang mungkin dari kriteria tergantung pada pengaruh faktor acak untuk derajat kebebasan tertentu

    ν = m1, ν2 = NM−1, dan tingkat signifikansi α. Di Sini M– jumlah argumen dalam model.

    Tingkat signifikansi α adalah kemungkinan ditolaknya hipotesis yang benar, tetapi asalkan hipotesis tersebut benar (kesalahan tipe I). Biasanya α dianggap 0,05 atau 0,01.

    Jika F f> F meja, lalu H0– hipotesis tentang sifat acak dari karakteristik yang dinilai ditolak dan signifikansi statistik serta keandalannya diakui. Jika sebaliknya, maka hipotesisnya H0 tidak ditolak dan persamaan regresi dianggap tidak signifikan secara statistik dan tidak dapat diandalkan.

    7. Menilai signifikansi koefisien korelasi linier. -Uji-t siswa.

    Untuk menilai signifikansi statistik dari koefisien regresi dan koefisien korelasi, uji-t Student dihitung. Sebuah hipotesis diajukan H 0 tentang sifat acak dari indikator, mis. tentang perbedaan signifikan mereka dari nol. Nilai uji-t yang teramati dihitung dengan menggunakan rumus:

    , , ,

    dimana adalah kesalahan acak dari parameter regresi linier dan koefisien korelasi.


    Untuk regresi berpasangan linier, persamaan terpenuhi, oleh karena itu pengujian hipotesis tentang signifikansi koefisien regresi di bawah suatu faktor dan koefisien korelasi setara dengan pengujian hipotesis tentang signifikansi statistik persamaan regresi secara keseluruhan.

    Secara umum, kesalahan acak dihitung menggunakan rumus:

    , , .

    dimana sisa dispersi per derajat kebebasan:

    .

    Nilai tabulasi (kritis) t-statistik diperoleh dari tabel distribusi t-Student pada taraf signifikansi α = 0,05 dan jumlah derajat kebebasan. Jika T meja< T faktanya, kalau begitu H 0 ditolak, mis. Bukan suatu kebetulan bahwa koefisien regresi berbeda dari nol dan terbentuk di bawah pengaruh faktor yang bertindak secara sistematis.

    8. Analisis pengaruh faktor berdasarkan model regresi multifaktor: koefisien elastisitas; koefisien beta dan koefisien delta.

    9. Metode penghitungan parameter , , dari fungsi produksi Cobb-Douglas.

    10. Persamaan regresi dengan struktur variabel. Variabel tiruan. Jenis variabel dummy. Keuntungan menggunakan variabel dummy saat membuat model regresi.

    11. Menggunakan variabel dummy untuk mempelajari perubahan struktural. Pemodelan musiman. Jumlah variabel biner di k gradasi.

    Konsep multikolinearitas. Metode untuk mendeteksi dan menghilangkan multikolinearitas.

    Penilaian kuantitatif terhadap parameter persamaan regresi mengasumsikan bahwa kondisi independensi linier antara variabel independen terpenuhi. Namun dalam praktiknya, variabel penjelas seringkali memiliki tingkat keterkaitan yang tinggi satu sama lain, sehingga hal ini merupakan pelanggaran terhadap kondisi ini. Fenomena ini disebut multikolinearitas.

    Ketentuan kolinearitas (segaris) menunjukkan korelasi linier antara dua variabel independen, dan Multikolinearitas (multi-kolinear) – antara lebih dari dua variabel independen. Biasanya, multikolinearitas mengacu pada kedua kasus.

    Dengan demikian, multikolinearitas berarti terdapat hubungan linier yang erat atau korelasi yang kuat antara dua atau lebih variabel penjelas (independen). Salah satu tugas ekonometrik adalah mengidentifikasi multikolinearitas antar variabel independen.

    Membedakan sempurna Dan tidak sempurna multikolinearitas. Sempurna Multikolinearitas berarti variasi pada salah satu variabel independen dapat dijelaskan sepenuhnya oleh perubahan variabel lainnya.

    Jika tidak, hubungan antara keduanya dinyatakan dengan fungsi linier

    Interpretasi grafis dari kasus ini:

    Tidak sempurna Multikolinearitas dapat didefinisikan sebagai hubungan fungsional linier antara dua atau lebih variabel independen yang begitu kuat sehingga dapat mempengaruhi estimasi koefisien variabel-variabel dalam model secara signifikan.

    Multikolinearitas tidak sempurna terjadi ketika dua (atau lebih) variabel independen berada dalam hubungan fungsional linier satu sama lain, dijelaskan oleh persamaan

    Berbeda dengan persamaan yang telah dibahas sebelumnya, persamaan ini mencakup besarnya kesalahan stokastik. Hal ini menunjukkan bahwa meskipun hubungan antara dan mungkin cukup kuat, namun tidak terlalu kuat sehingga perubahan dalam variabel dapat dijelaskan sepenuhnya oleh perubahan dalam , yaitu ada beberapa variasi yang tidak dapat dijelaskan.

    Secara grafis kasus ini disajikan sebagai berikut:


    Dalam kasus apa multikolinearitas bisa terjadi? Setidaknya ada dua di antaranya.

    1. Terdapat tren global perubahan indikator ekonomi secara simultan. Sebagai contoh, kita dapat menyebutkan indikator-indikator seperti volume produksi, pendapatan, konsumsi, akumulasi, lapangan kerja, investasi, dll., yang nilainya meningkat selama periode pertumbuhan ekonomi dan menurun selama periode resesi.

    Salah satu penyebab terjadinya multikolinearitas adalah adanya tren (tendensi) dalam dinamika indikator perekonomian.

    2. Penggunaan nilai variabel yang tertinggal dalam model ekonomi.

    Sebagai contoh, kita dapat mempertimbangkan model yang menggunakan pendapatan periode saat ini dan biaya konsumsi periode sebelumnya.

    Secara umum, ketika mempelajari proses dan fenomena ekonomi dengan menggunakan metode ekonometrik, sangat sulit untuk menghindari ketergantungan antar indikator.

    Konsekuensi dari multikolinearitas adalah:

    1. penurunan akurasi penilaian, yang diwujudkan melalui

    A. kesalahan terlalu besar dalam beberapa perkiraan,

    B. tingkat korelasi yang tinggi antara kesalahan,

    C. Peningkatan tajam dalam dispersi estimasi parameter. Manifestasi multikolinearitas ini juga dapat tercermin dalam perolehan tanda yang tidak terduga saat memperkirakan parameter;

    2. tidak signifikannya estimasi parameter untuk beberapa variabel model, pertama-tama, karena adanya hubungan dengan variabel lain, dan bukan karena tidak mempengaruhi variabel terikat. Artinya, -statistik parameter model tidak memenuhi tingkat signifikansi (uji t Student tidak lolos uji kecukupan);

    3. peningkatan yang kuat dalam sensitivitas estimasi parameter terhadap ukuran populasi observasi. Artinya, peningkatan jumlah observasi dapat mempengaruhi estimasi parameter model secara signifikan;

    4. meningkatkan interval kepercayaan;

    5. meningkatkan sensitivitas estimasi terhadap perubahan spesifikasi model (misalnya, penambahan atau pengecualian variabel dari model, bahkan variabel yang pengaruhnya tidak signifikan).

    Tanda-tanda multikolinearitas:

    1. ketika koefisien korelasi antar pasangan

    di antara variabel-variabel penjelas (independen) ada yang tingkatnya mendekati atau sama dengan koefisien korelasi berganda.

    Jika terdapat lebih dari dua variabel bebas dalam model, maka perlu dilakukan kajian yang lebih mendalam mengenai hubungan antar variabel tersebut. Prosedur ini dapat dilakukan dengan menggunakan algoritma Farrar-Glober;

    2. bila determinan matriks koefisien korelasi berpasangan antar variabel bebas mendekati nol:

    jika , maka terjadi multikolinearitas sempurna,

    jika , maka tidak terjadi multikolinearitas;

    3. jika nilai parameter kecil ditemukan dalam model pada tingkat koefisien determinasi parsial yang tinggi dan pada saat yang sama kriterianya berbeda secara signifikan dari nol;

    Saat membangun persamaan regresi berganda, masalah multikolinearitas faktor mungkin timbul. Multikolinearitas adalah hubungan linier antara dua atau lebih variabel penjelas, yang dapat memanifestasikan dirinya dalam bentuk fungsional (eksplisit) atau stokastik (laten).
    Identifikasi hubungan antara karakteristik yang dipilih dan penilaian kuantitatif keeratan hubungan tersebut dilakukan dengan menggunakan metode analisis korelasi. Untuk mengatasi masalah ini, pertama-tama diperkirakan, kemudian, atas dasar itu, koefisien korelasi dan determinasi parsial dan ganda ditentukan, dan signifikansinya diperiksa. Tujuan akhir dari analisis korelasi adalah pemilihan karakteristik faktor x 1, x 2,…, x m untuk konstruksi persamaan regresi lebih lanjut.

    Jika variabel faktor dihubungkan oleh ketergantungan fungsional yang ketat, maka kita bicarakan multikolinearitas penuh. Dalam hal ini, antar kolom matriks variabel faktor X terdapat kolom-kolom yang bergantung linier, dan berdasarkan sifat determinan matriks, det(X T X) = 0, yaitu matriks (X T X) berbentuk tunggal, artinya tidak ada matriks invers. Matriks (X T X) -1 digunakan dalam membuat estimasi OLS. Dengan demikian, multikolinearitas lengkap tidak memungkinkan kita memperkirakan parameter model regresi asli secara jelas.

    Kesulitan apa yang ditimbulkan oleh multikolinearitas faktor-faktor yang termasuk dalam model, dan bagaimana cara mengatasinya?

    Multikolinearitas dapat menimbulkan akibat yang tidak diinginkan:

    1. estimasi parameter menjadi tidak dapat diandalkan. Mereka menemukan kesalahan standar yang besar. Ketika volume observasi berubah, perkiraannya juga berubah (tidak hanya besarannya, tetapi juga tandanya), sehingga model tersebut tidak cocok untuk analisis dan peramalan.
    2. menjadi sulit untuk menafsirkan parameter regresi berganda sebagai karakteristik tindakan faktor-faktor dalam bentuk “murni”, karena faktor-faktor tersebut berkorelasi; parameter regresi linier kehilangan makna ekonominya;
    3. Menjadi tidak mungkin untuk menentukan pengaruh faktor-faktor tertentu terhadap indikator kinerja.

    Jenis multikolinearitas di mana variabel faktor dihubungkan oleh ketergantungan stokastik disebut sebagian. Jika derajat korelasi antar variabel faktor tinggi, maka matriks (X T X) mendekati degenerasi, yaitu det(X T X) ≈ 0.
    Matriks (X T X) -1 akan berkondisi buruk, yang menyebabkan ketidakstabilan estimasi OLS. Multikolinieritas parsial menimbulkan akibat sebagai berikut:

    • peningkatan varians estimasi parameter memperluas interval estimasi dan memperburuk akurasinya;
    • mengurangi T-statistik koefisien mengarah pada kesimpulan yang salah tentang pentingnya faktor;
    • ketidakstabilan estimasi OLS dan variansnya.

    Tidak ada kriteria kuantitatif yang tepat untuk mendeteksi multikolinearitas parsial. Adanya multikolinearitas dapat ditunjukkan dengan kedekatan determinan matriks (X T X) dengan nol. Nilai koefisien korelasi berpasangan juga diperiksa. Jika determinan matriks korelasi antarfaktor mendekati satu, maka tidak terjadi multikolinearitas.

    Ada berbagai pendekatan untuk mengatasi korelasi antarfaktor yang kuat. Yang paling sederhana adalah pengecualian dari model faktor (atau faktor-faktor) yang paling bertanggung jawab atas multikolinieritas, asalkan kualitas model tidak terlalu terpengaruh (yaitu, koefisien determinasi teoretis -R 2 y(x1...xm ) akan berkurang secara signifikan).

    Tindakan apa yang tidak dapat digunakan untuk menghilangkan multikolinearitas?
    a) meningkatkan ukuran sampel;
    b) mengecualikan variabel yang berkorelasi tinggi dengan variabel lain;
    c) perubahan spesifikasi model;
    d) transformasi komponen acak.

    Koefisien korelasi berpasangan (linier) dan parsial

    Kedekatan hubungan misalnya antara variabel x dan y untuk sampel nilai (xi, y i), i=1,n, (1)
    di mana x dan y adalah nilai rata-rata, S x dan S y adalah simpangan baku dari sampel yang bersangkutan.

    Koefisien korelasi berpasangan bervariasi dari –1 hingga +1. Semakin dekat nilai absolutnya dengan kesatuan, semakin dekat hubungan statistik antara x dan y dengan fungsi linier. Nilai koefisien yang positif menunjukkan bahwa hubungan antar sifat bersifat langsung (jika x bertambah, nilai y meningkat), nilai negatif menunjukkan bahwa hubungan tersebut berbanding terbalik (jika x bertambah, nilai y berkurang).
    Interpretasi kualitatif berikut dapat diberikan tentang kemungkinan nilai koefisien korelasi: jika |r|<0.3 – связь практически отсутствует; 0.3≤ |r| < 0.7 - связь средняя; 0.7≤ |r| < 0.9 – связь сильная; 0.9≤ |r| < 0.99 – связь весьма сильная.
    Untuk menilai multikolinearitas faktor, gunakan matriks koefisien korelasi berpasangan dari karakteristik dependen (resultan) y dengan karakteristik faktor x 1, x 2,…, x m, yang memungkinkan Anda menilai tingkat pengaruh setiap indikator faktor x j pada variabel terikat y, serta keeratan hubungan antar faktor . Matriks korelasi pada umumnya berbentuk
    .
    Matriksnya simetris, ada yang diagonalnya. Jika matriks mempunyai koefisien korelasi antarfaktor r xjxi >0,7 maka terjadi multikolinearitas pada model regresi berganda ini.
    Karena data awal yang membentuk hubungan karakteristik adalah sampel dari populasi umum tertentu, maka koefisien korelasi yang dihitung dari data tersebut akan bersifat selektif, yaitu hanya memperkirakan hubungan tersebut. Diperlukan uji signifikansi yang menjawab pertanyaan: apakah hasil perhitungan yang diperoleh acak atau tidak?
    Signifikansi koefisien korelasi berpasangan periksa oleh T- Tes t siswa. Hipotesis diajukan bahwa koefisien korelasi umum sama dengan nol: H 0: ρ = 0. Kemudian ditetapkan parameternya: tingkat signifikansi α dan jumlah derajat kebebasan v = n-2. Dengan menggunakan parameter ini, tcr ditemukan dari tabel titik kritis distribusi Student, dan dari data yang tersedia dihitung nilai kriteria yang diamati:
    , (2)
    dimana r adalah koefisien korelasi berpasangan yang dihitung dari data yang dipilih untuk penelitian. Koefisien korelasi berpasangan dianggap signifikan (hipotesis bahwa koefisien sama dengan nol ditolak) dengan probabilitas kepercayaan γ = 1- α, jika t Obs modulo lebih besar dari t crit.
    Apabila variabel-variabel tersebut saling berkorelasi, maka nilai koefisien korelasinya sebagian dipengaruhi oleh pengaruh variabel lain.

    Koefisien korelasi parsial mencirikan kedekatan hubungan linier antara hasil dan faktor yang bersesuaian dengan menghilangkan pengaruh faktor lain. Koefisien korelasi parsial mengevaluasi keeratan hubungan antara dua variabel dengan nilai tetap faktor lainnya. Kalau dihitung misalnya r yx 1| x2 (koefisien korelasi parsial antara y dan x 1 dengan pengaruh tetap sebesar x 2), artinya ditentukan ukuran kuantitatif hubungan linier antara y dan x 1, yang akan terjadi jika pengaruh x 2 terhadap karakteristik tersebut adalah dihilangkan. Jika pengaruh hanya satu faktor saja dikecualikan, kita peroleh koefisien korelasi parsial orde pertama.
    Perbandingan nilai koefisien korelasi berpasangan dan parsial menunjukkan arah pengaruh faktor tetap. Jika koefisien korelasi parsial r yx 1| x2 akan lebih kecil dari koefisien pasangan yang bersesuaian r yx 1, yang berarti bahwa hubungan antara karakteristik y dan x 1 sampai batas tertentu ditentukan oleh pengaruh variabel tetap x 2 terhadap karakteristik tersebut. Sebaliknya, nilai koefisien parsial yang lebih besar dibandingkan dengan koefisien berpasangan menunjukkan bahwa variabel tetap x 2 memperlemah hubungan antara y dan x 1 beserta pengaruhnya.
    Koefisien korelasi parsial antara dua variabel (y dan x 2) tanpa memperhitungkan pengaruh salah satu faktor (x 1) dapat dihitung dengan menggunakan rumus berikut:
    . (3)
    Untuk variabel lain, rumus dibuat dengan cara yang serupa. Pada tetap x 2
    ;
    pada tetap x 3
    .
    Signifikansi koefisien korelasi parsial diperiksa serupa dengan kasus koefisien korelasi berpasangan. Satu-satunya perbedaan adalah jumlah derajat kebebasan, yang harus diambil sama dengan v = n – l -2, dimana l adalah jumlah faktor tetap.

    Regresi bertahap

    Pemilihan faktor x 1 , x 2 , …, x m yang dimasukkan dalam model regresi berganda merupakan salah satu tahapan terpenting dalam pemodelan ekonometrik. Metode penyertaan (atau pengecualian) faktor-faktor secara berurutan (langkah demi langkah) dalam model memungkinkan Anda memilih dari serangkaian variabel yang mungkin merupakan faktor-faktor yang akan meningkatkan kualitas model.
    Saat menerapkan metode ini, langkah pertama adalah menghitung matriks korelasi. Berdasarkan koefisien korelasi berpasangan, terungkap adanya faktor kolinear. Faktor x i dan x j dianggap segaris jika r xjxi >0,7. Hanya satu faktor yang saling berhubungan yang dimasukkan ke dalam model. Apabila tidak ada faktor yang kolinear diantara faktor-faktor tersebut, maka faktor apa saja yang mempunyai pengaruh nyata kamu.

    Pada langkah kedua, persamaan regresi dibangun dengan satu variabel yang memiliki nilai absolut maksimum dari koefisien korelasi berpasangan dengan atribut yang dihasilkan.

    Pada langkah ketiga, variabel baru dimasukkan ke dalam model yang mempunyai nilai absolut terbesar dari koefisien korelasi parsial dengan variabel terikat dengan pengaruh tetap dari variabel yang dimasukkan sebelumnya.
    Ketika faktor tambahan dimasukkan ke dalam model, koefisien determinasi akan meningkat dan varians sisa akan menurun. Jika hal ini tidak terjadi, yaitu koefisien determinasi berganda sedikit meningkat, maka pengenalan faktor baru dianggap tidak tepat.

    Contoh No.1. Untuk 20 perusahaan di wilayah tersebut, ketergantungan output per karyawan y (ribu rubel) pada bagian pekerja berkualifikasi tinggi dalam jumlah total pekerja x1 (% dari nilai aset pada akhir tahun) dan pada commissioning aset tetap baru x2 (%) dipelajari. .

    Y X1 X2
    6 10 3,5
    6 12 3,6
    7 15 3,9
    7 17 4,1
    7 18 4,2
    8 19 4,5
    8 19 5,3
    9 20 5,3
    9 20 5,6
    10 21 6
    10 21 6,3
    11 22 6,4
    11 23 7
    12 25 7,5
    12 28 7,9
    13 30 8,2
    13 31 8,4
    14 31 8,6
    14 35 9,5
    15 36 10

    Diperlukan:

    1. Buatlah bidang korelasi antara output per pekerja dan jumlah pekerja berkualifikasi tinggi. Mengajukan hipotesis tentang keeratan dan jenis hubungan antara indikator X1 dan Y.
    2. Menilai keeratan hubungan linier antara output per pekerja dan proporsi pekerja berkualifikasi tinggi dengan reliabilitas 0,9.
    3. Hitung koefisien persamaan regresi linier untuk ketergantungan output per pekerja terhadap jumlah pekerja berkualifikasi tinggi.
    4. Periksa signifikansi statistik dari parameter persamaan regresi dengan reliabilitas 0,9 dan buat interval kepercayaan untuk parameter tersebut.
    5. Hitung koefisien determinasi. Dengan menggunakan uji F Fisher, evaluasi signifikansi statistik persamaan regresi dengan reliabilitas 0,9.
    6. Berikan perkiraan titik dan interval dengan keandalan 0,9 output per karyawan untuk perusahaan yang 24% pekerjanya berkualifikasi tinggi.
    7. Hitung koefisien persamaan regresi linier berganda dan jelaskan arti ekonomi dari parameternya.
    8. Analisis signifikansi statistik dari beberapa koefisien persamaan dengan reliabilitas 0,9 dan buatlah interval kepercayaan untuk koefisien tersebut.
    9. Temukan koefisien korelasi berpasangan dan parsial. Analisislah mereka.
    10. Temukan koefisien determinasi berganda yang disesuaikan. Bandingkan dengan koefisien determinasi (keseluruhan) yang tidak disesuaikan.
    11. Dengan menggunakan uji F Fisher, evaluasi kecukupan persamaan regresi dengan reliabilitas 0,9.
    12. Berikan perkiraan titik dan interval dengan keandalan output 0,9 per karyawan untuk perusahaan di mana 24% pekerjanya berkualifikasi tinggi, dan commissioning aset tetap baru adalah 5%.
    13. Periksa persamaan yang dibangun untuk mengetahui adanya multikolinearitas menggunakan: Uji Siswa; tes χ2. Bandingkan hasilnya.

    Larutan Kami melakukannya menggunakan kalkulator. Berikut progres penyelesaian pasal 13.
    Matriks koefisien korelasi berpasangan R:

    - kamux 1x 2
    kamu 1 0.97 0.991
    x 1 0.97 1 0.977
    x 2 0.991 0.977 1

    Dengan adanya multikolinearitas, determinan matriks korelasi mendekati nol. Sebagai contoh kita: det = 0,00081158, yang menunjukkan adanya multikolinearitas yang kuat.
    Untuk memilih faktor x i yang paling signifikan, kondisi berikut diperhitungkan:
    - hubungan antara karakteristik resultan dan faktor satu harus lebih tinggi dari hubungan antarfaktor;
    - hubungan antar faktor tidak boleh lebih dari 0,7. Jika matriks mempunyai koefisien korelasi antarfaktor r xjxi > 0,7 maka terjadi multikolinearitas pada model regresi berganda ini;
    - dengan hubungan antarfaktor yang tinggi dari suatu karakteristik, faktor-faktor dengan koefisien korelasi yang lebih rendah di antara mereka dipilih.
    Dalam kasus kita, r x 1 x 2 memiliki |r|>0,7, yang menunjukkan multikolinearitas faktor-faktor tersebut dan perlunya mengecualikan salah satu faktor tersebut dari analisis lebih lanjut.
    Analisis baris pertama matriks ini memungkinkan pemilihan karakteristik faktor yang dapat dimasukkan dalam model korelasi berganda. Karakteristik faktor yang |r yxi | 0,3 – praktis tidak ada koneksi; 0,3 ≤ |r| ≤ 0,7 - koneksi rata-rata; 0,7 ≤ |r| ≤ 0,9 – koneksi kuat; |r| > 0,9 – koneksinya sangat kuat.
    Mari kita periksa signifikansi koefisien korelasi berpasangan yang diperoleh dengan menggunakan uji-t Student. Koefisien yang nilai modulo t-statistiknya lebih besar dari nilai kritis yang ditemukan dianggap signifikan.
    Mari kita hitung nilai t-statistik yang diamati untuk r yx 1 menggunakan rumus:

    dimana m = 1 adalah banyaknya faktor dalam persamaan regresi.

    Dengan menggunakan tabel Siswa kita mencari Ttabel
    t krit (n-m-1;α/2) = (18;0,025) = 2,101
    Karena t obs > t crit, maka hipotesis yang menyatakan koefisien korelasi sama dengan 0 ditolak. Dengan kata lain, koefisien korelasi signifikan secara statistik
    Mari kita hitung nilai t-statistik yang diamati untuk ryx 2 menggunakan rumus:

    Karena t obs > t crit, maka hipotesis yang menyatakan koefisien korelasi sama dengan 0 ditolak. Dengan kata lain, koefisien korelasi signifikan secara statistik
    Dengan demikian, hubungan antara (y dan x x 1), (y dan x x 2) adalah signifikan.
    Faktor x2 (r = 0,99) mempunyai pengaruh paling besar terhadap atribut efektif, artinya pada saat membangun model akan menjadi yang pertama masuk ke persamaan regresi.
    Menguji dan menghilangkan multikolinearitas.
    Algoritma yang paling lengkap untuk mempelajari multikolinearitas adalah algoritma Farrar-Glober. Ini menguji tiga jenis multikolinearitas:
    1. Semua faktor (χ 2 - chi-kuadrat).
    2. Masing-masing faktor dengan faktor lainnya (kriteria Fisher).
    3. Setiap pasangan faktor (Uji-t Student).
    Mari kita periksa multikolinearitas variabel menggunakan metode Farrar-Glouber menggunakan kriteria statistik tipe pertama (uji chi-square).
    Rumus untuk menghitung nilai statistik Farrar-Glouber adalah:
    χ 2 = -ln(det[R])
    dimana m = 2 adalah jumlah faktor, n = 20 adalah jumlah observasi, det[R] adalah determinan matriks koefisien korelasi berpasangan R.
    Kita bandingkan dengan nilai tabel pada v = m/2(m-1) = 1 derajat kebebasan dan tingkat signifikansi α. Jika χ 2 > χ tabel 2, maka terjadi multikolinearitas pada vektor faktor.
    χ tabel 2 (1;0,05) = 3,84146
    Mari kita periksa multikolinearitas variabel menggunakan kriteria statistik jenis kedua (kriteria Fisher).

    Mari kita periksa multikolinearitas variabel menggunakan kriteria statistik jenis ketiga (Uji Siswa). Untuk melakukan ini, kita akan menemukan koefisien korelasi parsial.
    Koefisien korelasi parsial.
    Koefisien korelasi parsial berbeda dari koefisien korelasi pasangan linier sederhana karena koefisien ini mengukur korelasi berpasangan dari karakteristik yang bersesuaian (y dan x i), asalkan pengaruh faktor lain (x j) terhadap karakteristik tersebut dihilangkan.
    Berdasarkan koefisien parsial, kita dapat menyimpulkan bahwa dimasukkannya variabel ke dalam model regresi dapat dibenarkan. Jika nilai koefisiennya kecil atau tidak signifikan, berarti hubungan antara faktor tersebut dengan variabel hasil sangat lemah atau tidak ada sama sekali, sehingga faktor tersebut dapat dikeluarkan dari model.


    Kepadatan komunikasi rendah.
    Mari kita tentukan signifikansi koefisien korelasi ryx 1 / x 2. Seperti yang kita lihat, hubungan antara y dan x 2, asalkan x 1 dimasukkan dalam model, mengalami penurunan. Dari sini kita dapat menyimpulkan bahwa memasukkan x 2 ke dalam persamaan regresi masih belum tepat.
    Kita dapat menyimpulkan bahwa ketika membuat persamaan regresi, faktor x 1, x 2 harus dipilih.

    Contoh No.2. Untuk 30 observasi, matriks koefisien korelasi berpasangan ternyata sebagai berikut:

    kamux 1x 2x 3
    kamu1,0
    x 10,30 1,0
    x 20,60 0,10 1,0
    x 30,40 0,15 0,80 1,0
    Menilai multikolinearitas faktor. Buatlah persamaan regresi pada skala standar dan tarik kesimpulan.
    Perhatikan bahwa dalam beberapa kasus, multikolinearitas bukanlah suatu “kejahatan” yang serius sehingga upaya yang signifikan harus dilakukan untuk mengidentifikasi dan menghilangkannya. Pada dasarnya semua tergantung pada tujuan penelitian.
    Jika tugas utama model adalah memprediksi nilai masa depan dari variabel dependen, maka dengan koefisien determinasi yang cukup besar R2(gt; 0,9), adanya multikolinearitas biasanya tidak mempengaruhi kualitas prediksi model (jika di masa depan hubungan yang sama antara variabel-variabel yang berkorelasi akan dipertahankan seperti sebelumnya).
    Jika perlu untuk menentukan sejauh mana setiap variabel penjelas mempengaruhi variabel terikat, maka multikolinearitas, yang menyebabkan kesalahan standar yang lebih besar, kemungkinan besar akan mendistorsi hubungan sebenarnya antar variabel. Dalam situasi ini, multikolinearitas merupakan masalah yang serius.
    Tidak ada metode tunggal untuk menghilangkan multikolinearitas yang cocok untuk kasus apa pun. Hal ini karena penyebab dan akibat multikolinearitas bersifat ambigu dan sangat bergantung pada hasil sampel.
    Tidak termasuk Variabel dari Model
    Metode paling sederhana untuk menghilangkan multikolinearitas adalah dengan mengeluarkan satu atau beberapa variabel berkorelasi dari model. Diperlukan kehati-hatian saat menggunakan metode ini. Dalam situasi ini, kesalahan spesifikasi mungkin terjadi, sehingga dalam penerapan model ekonometrik disarankan untuk tidak mengecualikan variabel penjelas sampai multikolinearitas menjadi masalah yang serius.
    Mendapatkan lebih banyak data atau sampel baru
    Karena multikolinearitas bergantung langsung pada sampel, ada kemungkinan bahwa dengan sampel yang berbeda tidak akan terjadi multikolinearitas atau tidak akan terlalu serius. Terkadang, untuk mengurangi multikolinearitas, cukup dengan menambah ukuran sampel. Misalnya, jika Anda menggunakan data tahunan, Anda dapat beralih ke data triwulanan. Meningkatkan jumlah data akan mengurangi varians koefisien regresi dan dengan demikian meningkatkan signifikansi statistiknya. Namun, memperoleh sampel baru atau memperluas sampel lama tidak selalu memungkinkan atau menimbulkan biaya yang serius. Selain itu, pendekatan ini dapat meningkatkan autokorelasi. Masalah-masalah ini membatasi penggunaan metode ini.
    Mengubah Spesifikasi Model
    Dalam beberapa kasus, masalah multikolinearitas dapat diselesaikan dengan mengubah spesifikasi model: mengubah bentuk model, atau menambahkan variabel penjelas yang tidak diperhitungkan dalam model asli, tetapi berpengaruh signifikan terhadap variabel terikat. Jika metode ini dapat dibenarkan, maka penggunaannya mengurangi jumlah deviasi kuadrat, sehingga mengurangi kesalahan standar regresi. Hal ini menghasilkan pengurangan kesalahan standar koefisien.
    Menggunakan informasi awal tentang beberapa parameter
    Terkadang, saat membuat model regresi berganda, Anda dapat menggunakan informasi awal, khususnya, nilai yang diketahui dari beberapa koefisien regresi.
    Kemungkinan besar nilai koefisien yang dihitung untuk beberapa model awal (biasanya lebih sederhana) atau untuk model serupa berdasarkan sampel yang diperoleh sebelumnya dapat digunakan untuk model yang sedang dikembangkan.
    Pemilihan variabel penjelas yang paling signifikan. Prosedur untuk menghubungkan elemen secara berurutan
    Peralihan ke variabel penjelas yang lebih sedikit dapat mengurangi duplikasi informasi yang diberikan oleh sifat-sifat yang sangat saling bergantung. Hal inilah yang kita temui dalam kasus multikolinearitas variabel penjelas.
    Membiarkan

    Koefisien berganda
    korelasi antara variabel terikat Y dan himpunan variabel penjelas X 1,X 2,...,Xm. Ini didefinisikan sebagai koefisien korelasi berpasangan biasa antara Y dan fungsi linier
    regresi Y = b0 + KX1 + b2X2+... + bmXm. Membiarkan & = R-1 - invers matriks ke matriks R:


    Maka kuadrat koefisien Ry.X = Rr(xi,x2,..,x) dapat dihitung dengan menggunakan rumus:


    Estimasi R*2.X koefisien determinasi R2y.X, dikoreksi unbias, berbentuk:

    (Jika rumus (6.7) menghasilkan angka negatif, asumsikan


    Batas kepercayaan yang lebih rendah untuk

    bertekad
    sesuai dengan rumus:

    Dalam praktiknya, ketika memutuskan variabel penjelas mana yang harus dimasukkan ke dalam model, sering kali digunakan prosedur penambahan elemen secara berurutan.
    (j = 1, 2,...,m) . Di mana

    bertepatan dengan persegi biasa
    koefisien korelasi berpasangan

    Membiarkan


    maka variabel xp akan menjadi yang paling informatif. Kemudian koefisien yang dikoreksi untuk ketidakbiasannya dihitung
    (untuk m = 1) dan batas kepercayaan bawahnya R2min (1) .


    pasangan jxp,xq akan lebih informatif). Kemudian koefisien yang dikoreksi ketidakbiasannya dihitung (pada m = 2)
    dan batas kepercayaan bawahnya R2min (2) .

    Prosedur dilanjutkan hingga kondisi berikut terpenuhi pada langkah (ke +1):
    Kemudian variabel paling informatif yang diperoleh pada langkah pertama dimasukkan ke dalam model. Perhatikan bahwa perhitungannya menggunakan rumus (6.7) dan (6.8), di mana alih-alih m, diambil nilai yang sesuai dari nomor langkah k.
    Faktanya, cara ini tidak menjamin kita akan menghilangkan multikolinearitas.
    Metode lain untuk menghilangkan multikolinearitas juga digunakan.
    Contoh 6.1. Data kondisional berikut tersedia (Tabel 6.1):
    Tabel 6.1
    Data untuk metode rantai daisy


    X1

    X2

    X3

    kamu

    1

    1,5

    0,7

    12

    2

    2,5

    1,2

    20

    3

    1

    1,4

    15

    4

    5,5

    1,9

    41

    5

    3

    2,5

    33

    6

    3

    3,1

    35

    7

    2,8

    3,5

    38

    8

    0,5

    4

    28

    9

    4

    3,8

    47

    10

    2

    5,3

    40

    Mari kita perhatikan pengaruh masing-masing variabel penjelas terhadap variabel terikat secara terpisah. Menghitung koefisien korelasi berpasangan, kita menemukan bahwa koefisien tersebut memiliki nilai terbesar

    Kemudian:


    Mari kita perhatikan pengaruh pasangan variabel (x1, x2) dan (x1, x3) terhadap variabel terikat. Pertama, perhatikan pengaruh sepasang variabel (x1, x2).



    icuvum uvjpcuuivi, dikeluarkan oleh rsimsldsіtshіm msiida ііі^ісдіїслп-
    Saat menambahkan variabel, dua variabel penjelas harus dimasukkan dalam persamaan. Oleh karena itu, persamaan teoritisnya akan berbentuk:
    Metode sisir
    Mari kita pertimbangkan “metode punggungan” (“regresi punggungan”) untuk menghilangkan multikolinearitas. Metode ini dikemukakan oleh A.E. Hoerl pada tahun 1962 dan digunakan ketika matriks (xtX) mendekati singular. Beberapa bilangan kecil (dari 0,1 hingga 0,4) ditambahkan ke elemen diagonal matriks (xtX). Dalam hal ini, estimasi bias dari parameter persamaan diperoleh. Namun kesalahan standar estimasi tersebut dalam kasus multikolinearitas lebih rendah daripada kesalahan yang diberikan oleh metode kuadrat terkecil biasa.
    Contoh 6.2. Data awal disajikan pada “Tabel 6 2 Koefisien korelasi variabel penjelas

    Apa
    menunjukkan multikolinearitas yang kuat.
    Tabel 6.2
    Data untuk mempelajari multikolinearitas menggunakan metode ridge


    x1

    x2

    kamu

    1

    1,4

    7

    2

    3,1

    12


    Maka kita mendapatkan persamaan y = 2,63 +1,37x1 + 1,95x2. Elemen diagonal dari matriks invers akan berkurang secara signifikan dan akan sama dengan z00 = 0,45264, z11 = 1,57796, z00 = 0,70842, yang menyebabkan penurunan kesalahan standar koefisien.
    Ringkasan
    Di antara konsekuensi utama yang ditimbulkan oleh multikolinearitas adalah sebagai berikut:
    1. ketika menguji hipotesis utama tentang tidak signifikannya koefisien regresi berganda dengan menggunakan uji-t, dalam banyak kasus diterima, tetapi persamaan regresi itu sendiri, ketika diuji dengan menggunakan uji-A, ternyata signifikan, yang menunjukkan nilai yang terlalu tinggi. dari koefisien korelasi berganda;
    2. estimasi yang diperoleh atas koefisien persamaan regresi berganda umumnya meningkat secara tidak wajar atau memiliki tanda yang salah;
    3. menambahkan atau mengecualikan satu atau dua observasi dari data asli mempunyai dampak yang kuat pada estimasi koefisien model;
    4. adanya multikolinearitas dalam model regresi berganda mungkin membuatnya tidak cocok untuk digunakan lebih lanjut (misalnya, untuk membuat perkiraan).
    Pertanyaan tes mandiri
    1. Apa itu multikolinearitas?
    2. Indikator apa yang menunjukkan adanya multikolinearitas?
    3. Berapakah determinan matriks XTX pada kasus multikolinearitas sempurna?
    4. Apa yang dapat dikatakan tentang arti koefisien variabel penjelas dalam kasus multikolinearitas?
    5. Transformasi apa yang dilakukan dalam metode ridge, apa hasilnya?
    6. Bagaimana prosedur dalam metode penambahan jumlah variabel penjelas secara berturut-turut?
    7. Apa yang ditunjukkan oleh koefisien korelasi?
    8. Apa yang ditunjukkan oleh koefisien korelasi parsial?