Argumenttien ryhmälaskentamenetelmä

Kokeneet kirjoittajat eivät ole vielä tarkistaneet sivun nykyistä versiota, ja se voi poiketa merkittävästi 3.10.2021 tarkistetusta versiosta . tarkastukset vaativat 2 muokkausta .

Argumenttien ryhmälaskentamenetelmä ( MGUA ) on induktiivisten algoritmien perhe moniparametrisen datan matemaattiseen mallintamiseen . Menetelmä perustuu rekursiiviseen valikoivaan mallien valintaan, jonka pohjalta rakennetaan monimutkaisempia malleja. Mallintamisen tarkkuus jokaisessa seuraavassa rekursiovaiheessa kasvaa mallin monimutkaisuuden vuoksi.

Menetelmän laatija on Ukrainan kansallisen tiedeakatemian akateemikko Aleksei Grigorjevitš Ivakhnenko .

Jurgen Schmidhuber  mainitsee GMDH:n varhaisimpana syväoppimisen menetelmänä ja huomauttaa, että sitä käytettiin kahdeksankerroksisen hermoverkon kouluttamiseen jo vuonna 1971. [1]

Historia

Algoritmi

Havaintojen tiedot annetaan: . On välttämätöntä rakentaa paras malli tietyssä mielessä .

  1. Valitaan yleisnäkymä luetelluista malleista, ns. tukitoiminnot. Kolmogorov-Gabor-polynomia käytetään usein : Polynomien valinta johtuu siitä ominaisuudesta, että Weierstrassin lauseen mukaan mikä tahansa äärellisellä välillä jatkuva funktio voidaan esittää mielivaltaisen suurella tarkkuudella tietyn asteen polynomina. Mallin monimutkaisuus tässä tapauksessa määräytyy kertoimien lukumäärän mukaan
  2. Tukitoimintoja käyttämällä rakennetaan erilaisia ​​mallien muunnelmia joillekin tai kaikille argumenteille. Konstruoidaan esimerkiksi polynomeja, joissa on yksi muuttuja, polynomeja, joissa on kaikki mahdolliset muuttujaparit, polynomit, joissa on kaikki mahdolliset muuttujien kolmoiskappaleet, jne., polynomi, jossa on kaikki muuttujat. Jokaiselle mallille sen kertoimet määritetään regressioanalyysimenetelmällä .
  3. Kaikista malleista valitaan useita (2 - 10) parasta. Mallien laatu määräytyy determinaatiokertoimen eli virheen keskihajonnan tai Y:n ja alkuperäisen tiedon korrelaatiolla .
  4. Jos riittävän "hyvä" malli löytyy tai mallien suurin sallittu kompleksisuus saavutetaan, algoritmi päättyy.
  5. Muussa tapauksessa 3. vaiheessa löydettyjä malleja käytetään argumentteina ( ) seuraavan iteraatiovaiheen (siirtymä toiseen vaiheeseen) tukifunktioille. Eli jo löydetyt mallit ovat mukana monimutkaisempien muodostumisessa.

Yleensä tukifunktiopolynomin aste valitaan korkeintaan , missä on näytepisteiden lukumäärä. Usein riittää, että tukifunktioina käytetään toisen asteen polynomeja. Tässä tapauksessa jokaisessa iterointivaiheessa tuloksena olevan polynomin aste kaksinkertaistuu.

Fourier-sarjaa voidaan käyttää Kolmogorov-Gabor-polynomin sijasta . Niitä on järkevää käyttää, jos lähtötiedoissa havaitaan jaksollisuus (esimerkiksi jokien vedenkorkeus, ilman lämpötila, sademäärä). Tässä tapauksessa saatu malli on polyharmoninen [1] (pääsemätön linkki) .  

Usein alkuperäinen näyte jaetaan kahteen osaotteeseen ja . Alinäytteistystä käytetään mallin kertoimien määrittämiseen ja alinäytteenottoa käytetään laadun määrittämiseen ( määrityskerroin tai standardipoikkeama). Tässä tapauksessa datamäärän suhde molemmissa otoksissa voi olla joko 50 %/50 % tai 60 %/40 %.

Tilastot osoittavat, että jokaisella iteraatiovaiheella keskihajonna pienenee. Mutta saavutettuaan tietyn monimutkaisuustason (riippuen datan luonteesta ja määrästä sekä mallin yleisestä ulkonäöstä) keskihajonnat alkavat kasvaa.

Ominaisuudet

Muistiinpanot

  1. Schmidhuber, Jürgen. Syväoppiminen hermoverkoissa: yleiskatsaus  (määrittämätön)  // Neuraaliverkot. - 2015. - T. 61 . - S. 85-117 . - doi : 10.1016/j.neunet.2014.09.003 . - arXiv : 1404.7828 .

Linkit