EM-algoritmi ( eng. Expectation-maximization (EM) algoritmi ) on algoritmi, jota käytetään matemaattisissa tilastoissa maksimitodennäköisyysestimaattien löytämiseen todennäköisyysmallien parametreille siinä tapauksessa, että malli riippuu joistakin piilomuuttujista . Jokainen algoritmin iteraatio koostuu kahdesta vaiheesta. E-vaiheessa (odotus) lasketaan todennäköisyysfunktion odotusarvo , kun taas piileviä muuttujia pidetään havainnoitavina .. M-vaiheessa (maksimointi) lasketaan maksimitodennäköisyysestimaatti, mikä lisää E-vaiheessa laskettua odotettua todennäköisyyttä. Tätä arvoa käytetään sitten E-vaiheessa seuraavassa iteraatiossa. Algoritmi suoritetaan konvergenssiin asti.
Usein EM-algoritmia käytetään erottamaan Gaussin sekoitus .
Olkoon joitain havaittujen muuttujien arvoja ja olemaan piilotettuja muuttujia. Yhdessä ne muodostavat täydellisen tietojoukon. Yleisesti ottaen ongelman tiedossa voi olla jokin vihje, joka helpottaa ongelman ratkaisemista. Jos esimerkiksi jakaumia on sekoitus , todennäköisyysfunktio ilmaistaan helposti seoksen yksittäisten jakaumien parametreilla.
Oletetaan, että se on täydellisen parametrien sisältävän tietojoukon todennäköisyystiheys (jatkuvassa tapauksessa) tai todennäköisyysfunktio (diskreetissä tapauksessa) : Tämä funktio voidaan ymmärtää koko mallin todennäköisyydeksi , jos ajatellaan sitä parametrien funktio . Huomaa, että piilotetun komponentin ehdollinen jakautuminen tietyn havainnon ja kiinteän parametrijoukon aikana voidaan ilmaista seuraavasti:
,käyttämällä laajennettua Bayesin kaavaa ja kokonaistodennäköisyyskaavaa . Näin ollen meidän tarvitsee vain tietää havaitun komponentin jakautuminen kiinteälle latentille ja piilevän datan todennäköisyys .
EM-algoritmi parantaa iteratiivisesti alkuperäistä pistemäärää laskemalla uusia pistearvoja ja niin edelleen. Jokaisessa vaiheessa siirtyminen kohteesta suoritetaan seuraavasti:
missä on todennäköisyyden odotettu logaritmi. Toisin sanoen emme voi heti laskea tarkkaa todennäköisyyttä, mutta tunnetuista tiedoista ( ) voimme löytää jälkiarvion piilevien muuttujien eri arvojen todennäköisyyksistä . Jokaiselle arvo- ja parametrijoukolle voimme laskea tämän joukon todennäköisyysfunktion odotukset . Se riippuu edellisestä arvosta, koska tämä arvo vaikuttaa piilevien muuttujien todennäköisyyksiin .
lasketaan seuraavasti:
eli tämä on ehdollinen odotus ehdolla .
Toisin sanoen on arvo, joka maksimoi (M) log-todennäköisyyden ehdollisen keskiarvon (E) havaittujen muuttujien annetuille arvoille ja parametrien edelliselle arvolle. Jatkuvassa tapauksessa arvo lasketaan seuraavasti:
Tietyissä olosuhteissa on kätevää ajatella EM-algoritmia kahdeksi vuorottelevaksi maksimointivaiheeksi. [1] [2] Harkitse funktiota:
missä q on havaitsemattomien muuttujien Z todennäköisyysjakauma ; p Z | X ( · | x ; θ ) on havainnoimattomien muuttujien ehdollinen jakauma kiinteille havaittaville x ja parametreille θ ; H on entropia ja D KL on Kullback-Leibler-etäisyys .
Sitten EM-algoritmin vaiheet voidaan esittää seuraavasti:
E(odotus)vaihe : Valitse q maksimoidaksesi F : M(maksimointi) askel : Valitse θ maksimoidaksesi F :Koneoppiminen ja tiedon louhinta | |
---|---|
Tehtävät | |
Opettajan kanssa oppimista | |
ryhmäanalyysi | |
Mittasuhteiden vähentäminen | |
Rakenteellinen ennustaminen | |
Anomalian havaitseminen | |
Piirrä todennäköisyysmallit | |
Neuroverkot | |
Vahvistusoppiminen |
|
Teoria | |
Lehdet ja konferenssit |
|