Generalized Least Squares ( GLS , GLS ) on regressiomallien parametrien estimointimenetelmä , joka on klassisen pienimmän neliösumman menetelmän yleistys . Yleistetty pienimmän neliösumman menetelmä pelkistää regressiojäännösten "yleistetty neliösumma" minimoimiseen - , jossa on residuaalien vektori, on symmetrinen positiivinen määrätyn painon matriisi. Tavallinen pienimmän neliösumman menetelmä on yleisen erikoistapaus, jolloin painomatriisi on verrannollinen identiteettiin.
On huomattava, että erikoistapausta kutsutaan yleensä yleistetyksi pienimmän neliösumman menetelmäksi, jolloin painomatriisina käytetään matriisia, joka on mallin satunnaisvirheiden kovarianssimatriisin käänteisarvo.
Tiedetään, että symmetrinen positiivinen määrätty matriisi voidaan hajottaa muodossa , jossa P on jokin rappeutumaton neliömatriisi. Sitten yleistetty neliösumma voidaan esittää muunnettujen (käyttäen P) jäännösten neliösummana . Lineaarisessa regressiossa tämä tarkoittaa, että arvo on minimoitu:
jossa , eli itse asiassa yleistettyjen pienimmän neliösumman olemus on pelkistetty datan lineaariseen muunnokseen ja tavanomaisten pienimmän neliösumman soveltamiseen näihin tietoihin . Jos painomatriisina käytetään satunnaisvirheiden käänteistä kovarianssimatriisia (eli ) , muunnos P saa muunnetun mallin tyydyttämään klassiset (Gauss-Markov) oletukset, joten parametrien estimaatit tavallisilla pienimmän neliösumman avulla ovat suurimmat. tehokas lineaaristen puolueettomien estimaattorien luokassa. Ja koska alkuperäisen ja muunnetun mallin parametrit ovat samat, tämä viittaa väitteeseen, että GLSM-estimaatit ovat tehokkaimpia lineaaristen puolueettomien arvioiden luokassa (Aitkenin lause). Yleistetyn pienimmän neliösumman kaavan muoto on:
Näiden arvioiden kovarianssimatriisi on:
Yleistettyjen pienimmän neliösumman käytön ongelmana on, että satunnaisvirheiden kovarianssimatriisia ei tunneta. Siksi käytännössä käytetään GLS:n saavutettavaa varianttia, kun V:n sijasta käytetään jotakin sen estimaattia. Tässä tapauksessa syntyy kuitenkin myös ongelma: kovarianssimatriisin riippumattomien elementtien lukumäärä on , missä on havaintojen määrä (esimerkiksi 100 havainnosta täytyy arvioida 5050 parametria!). Siksi tämä vaihtoehto ei salli parametrien kvalitatiivisten arvioiden saamista. Käytännössä kovarianssimatriisin rakenteesta tehdään lisäoletuksia, eli oletetaan, että kovarianssimatriisin elementit ovat riippuvaisia pienestä määrästä tuntemattomia parametreja . Niiden lukumäärän tulisi olla paljon pienempi kuin havaintojen lukumäärä. Ensin käytetään tavallista pienimmän neliösumman menetelmää, saadaan jäännökset, jonka jälkeen estimoidaan ilmoitetut parametrit niiden perusteella . Saatujen arvioiden avulla virhekovarianssimatriisi estimoidaan ja sovelletaan yleistettyä pienimmän neliösumman kanssa tällä matriisilla. Tämä on esteettömän GMS:n ydin. On osoitettu, että tietyissä melko yleisissä olosuhteissa, jos estimaatit ovat johdonmukaisia, myös saatavilla olevan CLSM:n estimaatit ovat yhdenmukaisia.
Jos virhekovarianssimatriisi on diagonaalinen (virheen heteroskedastisuutta on, mutta ei autokorrelaatiota), niin yleistetty neliösumma on itse asiassa painotettu neliösumma, jossa painot ovat kääntäen verrannollisia virhevariansseihin. Tässä tapauksessa puhutaan painotetusta pienimmän neliösummasta (WLS, Weighted LS). Muunnos P tässä tapauksessa koostuu tietojen jakamisesta satunnaisten virheiden keskihajonnalla. Tällä tavalla painotettuihin tietoihin sovelletaan tavallista pienimmän neliösumman menetelmää.
Kuten yleensäkin, virhevarianssit ovat tuntemattomia ja ne on arvioitava samoista tiedoista. Siksi tehdään joitain yksinkertaistavia oletuksia heteroskedastisuuden rakenteesta.
Tässä tapauksessa todelliset diagonaaliset alkiot ovat suureita, jotka ovat verrannollisia tähän muuttujaan (merkitkäämme sitä Z ) . Lisäksi suhteellisuuskerrointa ei tarvita arvioinnissa. Siksi itse asiassa menettely on tässä tapauksessa seuraava: jaa kaikki muuttujat Z :lla (mukaan lukien vakio, eli uusi muuttuja 1/Z tulee näkyviin ). Lisäksi Z voi olla yksi itse alkuperäisen mallin muuttujista (tässä tapauksessa muunnetulla mallilla on vakio). Normaalia pienimmän neliösumman menetelmää sovelletaan muunnettuihin tietoihin parametrien arvioiden saamiseksi:
Olkoon n havaintoa jaettuna m homogeeniseen ryhmään, joissa jokaisen sisällä oletetaan sama varianssi. Tässä tapauksessa malli arvioidaan ensin tavanomaisten pienimmän neliösumman avulla ja löydetään jäännökset. Kunkin ryhmän jäännösten osalta ryhmän virhevarianssit arvioidaan jäännösten neliösumman suhteeksi ryhmän havaintojen määrään. Lisäksi kunkin j:nnen havaintoryhmän tiedot jaetaan ja tavanomaista LSM:ää sovelletaan tällä tavalla muunnettuihin tietoihin parametrien estimoimiseksi.
Jos satunnaisvirheet noudattavat AR(1)-mallia , niin ensimmäistä havaintoa huomioimatta, muunnos P on seuraava: aiemmat arvot kerrottuna :lla vähennetään muuttujien nykyisestä arvosta :
Tätä muutosta kutsutaan autoregressiiviseksi muunnokseksi . Ensimmäiseen havaintoon sovelletaan Price-Winsten-korjausta - ensimmäisen havainnon tiedot kerrotaan . Muunnetun mallin satunnaisvirhe on , jonka oletetaan olevan valkoista kohinaa. Siksi tavanomaisten pienimmän neliösumman käyttö antaa meille mahdollisuuden saada kvalitatiivisia arvioita tällaisesta mallista.
Koska autoregressiokerrointa ei tunneta, käytetään käytettävissä olevan GLS:n erilaisia menetelmiä.
Vaihe 1. Arvioi alkuperäinen malli pienimmän neliösumman menetelmällä ja hanki mallin jäännösarvot.
Vaihe 2. Mallin residuaalien autokorrelaatiokertoimen estimointi (muodollisesti se voidaan saada myös residuaalien apuregression autoregressioparametrin OLS-estimaatina )
Vaihe 3. Datan autoregressiivinen muunnos (käyttäen toisessa vaiheessa estimoitua autokorrelaatiokerrointa) ja muunnetun mallin parametrien estimointi tavanomaisilla pienimmän neliösumman avulla.
Muunnetun mallin ja parametriestimaatit ovat alkuperäisen mallin parametriestimaatteja, paitsi vakio, joka palautetaan jakamalla muunnetun mallin vakio luvulla 1-r . Toimenpide voidaan toistaa toisesta vaiheesta, kunnes vaadittu tarkkuus on saavutettu.
Tässä menettelyssä tehdään suora haku autokorrelaatiokertoimen arvolle, joka minimoi muunnetun mallin residuaalien neliösumman. Nimittäin r:n arvot asetetaan mahdollisesta intervallista (-1; 1) jollain askeleella. Jokaiselle niistä suoritetaan autoregressiivinen muunnos, malli arvioidaan tavallisilla pienimmillä neliöillä ja löydetään residuaalien neliöiden summa. Autokorrelaatiokerroin valitaan, jolle tämä neliösumma on minimaalinen. Lisäksi löydetyn pisteen läheisyyteen rakennetaan ruudukko, jossa on hienompi askel ja toimenpide toistetaan uudelleen.
Muunneltu malli näyttää tältä:
Laajentamalla sulkuja ja siirtämällä viiveestä riippuvaa muuttujaa oikealle, saamme
Otetaan käyttöön merkintä . Sitten meillä on seuraava malli
Tämä malli on arvioitava tavallisella pienimmän neliösumman menetelmällä. Sitten alkuperäisen mallin kertoimet palautetaan muodossa .
Tässä tapauksessa saatua autokorrelaatiokertoimen estimaattia voidaan käyttää autoregressiiviseen muunnokseen ja pienimmän neliösumman soveltamiseen tälle muunnetulle mallille tarkempien parametriestimaattien saamiseksi.
Pienin neliösumma ja regressioanalyysi | |||||||||
---|---|---|---|---|---|---|---|---|---|
Laskennalliset tilastot |
| ||||||||
Korrelaatio ja riippuvuus |
| ||||||||
Taantumisanalyysi |
| ||||||||
Regressio tilastollisena mallina |
| ||||||||
Varianssihajotus |
| ||||||||
Mallitutkimus |
| ||||||||
Edellytykset |
| ||||||||
Kokeilun suunnittelu |
| ||||||||
Numeerinen likiarvo | |||||||||
Sovellukset |
|