Ydinmenetelmät koneoppimisessa on hahmontunnistusalgoritmien luokka , jonka tunnetuin edustaja on tukivektorikone (SVM, eng. SVM ). Kuviontunnistuksen yleistehtävä on löytää ja oppia tietojoukoista yleisiä suhdetyyppejä (esim. klusterit , rankingit , pääkomponentit , korrelaatiot , luokitukset ). Monissa algoritmeissa, jotka ratkaisevat nämä ongelmat, raakadata muunnetaan eksplisiittisesti piirrevektoriesitykseen tietyn ominaisuuden jakautumismallin avulla , mutta ydinmenetelmät vaativat vain tietyn ytimen , ts. datapisteparien samankaltaisuusfunktiot raakaesityksessä.
Ydinmenetelmät ovat saaneet nimensä ytimen funktioiden käytöstä , joiden avulla ne voivat toimia korkeadimensionaalisessa implisiittisessä ominaisuusavaruudessa laskematta avaruudessa olevien tietojen koordinaatteja, yksinkertaisesti laskemalla kaikkien tietojen kuvien väliset pistetulot . paria ominaisuustilassa. Tämä operaatio on usein laskennallisesti halvempi kuin eksplisiittiset koordinaattilaskelmat. Tätä lähestymistapaa kutsutaan " ydintemppuksi " [1] . Ydinfunktiot on otettu käyttöön sarjatiedoille, kaavioille , teksteille, kuville ja myös vektoreille.
Ytimen kanssa toimivia algoritmeja ovat ydinperceptron , tukivektorikoneet, Gaussin prosessit , pääkomponenttianalyysi ( PCA ), kanoninen korrelaatioanalyysi , harjaregressio , spektriklusterit , lineaariset adaptiiviset suodattimet ja monet muut . Mikä tahansa lineaarinen malli voidaan muuntaa epälineaariseksi malliksi soveltamalla malliin ytimen temppua ja korvaamalla sen ominaisuudet (ennustajat) ydinfunktiolla.
Useimmat ytimen algoritmit perustuvat kuperaan optimointiin tai ominaisvektorien etsimiseen ja ovat tilastollisesti hyvin perusteltuja. Yleensä niiden tilastollisia ominaisuuksia analysoidaan tilastollisen oppimisteorian avulla (esim. Rademacherin kompleksisuutta ).
Ytimen menetelmiä voidaan pitää esimerkin kautta oppimisena – sen sijaan, että oppisivat jonkin kiinteän syöttöominaisuuksia vastaavien parametrien joukon, ne "muistavat" harjoitusesimerkin ja harjoittelevat sen painojen mukaan . Ennuste merkitsemättömälle syötteelle, ts. ei sisälly harjoitussarjaan, opitaan käyttämällä samankaltaisuusfunktiota (kutsutaan ytimeksi ) merkitsemättömän syötteen ja kunkin opetussyötteen välillä . Esimerkiksi ytimen binääriluokittaja yleensä laskee painotetun samankaltaisuussumman käyttämällä kaavaa
,missä
Ydinluokittelijat kuvattiin 1960-luvun alussa ydinperceptronin keksimisen myötä [2] . Ne saivat laajan hyväksynnän tukivektorikoneiden suosion myötä 1990-luvulla, kun SVM:n havaittiin olevan kilpailukykyinen hermoverkkojen kanssa tehtävissä, kuten käsinkirjoituksen tunnistuksessa .
Ytimen temppu välttää eksplisiittisen mappauksen, jota tarvitaan lineaarisen oppimisalgoritmin saamiseksi epälineaariselle funktiolle tai päätösrajalle . Kaikille ja syöttöavaruudessa jotkin funktiot voidaan esittää pistetulona toisessa tilassa . Toimintoa kutsutaan usein ytimeksi tai ydinfunktioksi . Sanaa "ydin" käytetään matematiikassa viittaamaan painofunktioon tai integraaliin .
Joillakin koneoppimisongelmilla on enemmän rakennetta pelkän painofunktion sijaan . Laskelmat ovat paljon helpompia, jos ydin voidaan kirjoittaa "ominaisuuskartoituksena" , joka täyttää tasa-arvon
Tärkein rajoitus tässä on se, minkä tulee olla sopiva pistetuote. Toisaalta nimenomaista esitystapaa ei tarvita, koska se on pistetuloavaruus . Vaihtoehto seuraa Mercerin lauseesta — implisiittisesti määritelty funktio on olemassa, jos avaruus voidaan varustaa sopivalla suurella, joka varmistaa , että funktio täyttää Mercerin ehdon .
Mercerin lause on kuin yleistys lineaarialgebran tuloksesta, joka yhdistää pistetulon mihin tahansa positiiviseen määrättyyn matriisiin . Itse asiassa Mercerin tila voidaan supistaa tähän yksinkertaiseen tapaukseen. Jos valitsemme mittaamme kaikille laskevan suuren, joka laskee joukon sisällä olevien pisteiden määrän , niin Mercerin lauseen integraali pelkistyy summaksi
Jos tämä epäyhtälö pätee kaikkiin äärellisiin pistejonoihin ja kaikkiin reaaliarvoisten kertoimien sarjoihin (vrt. Positiivinen määrätty ydin ), funktio täyttää Mercerin ehdon.
Joillakin algoritmeilla, jotka ovat riippuvaisia mielivaltaisista linkeistä alkuperäisessä avaruudessa , on itse asiassa lineaarinen esitys muissa olosuhteissa - vaihtelevassa avaruudessa . Lineaarinen tulkinta antaa meille käsityksen algoritmista. Lisäksi usein ei ole tarpeen laskea suoraan laskentahetkellä, kuten tukivektorikoneen tapauksessa . Jotkut pitävät tästä johtuvaa ajan lyhenemistä algoritmin pääeduna. Tutkijat käyttävät sitä tarkentamaan olemassa olevien algoritmien merkitystä ja ominaisuuksia.
Teoreettisesti Gram-matriisin suhteessa (jota joskus kutsutaan "ytimen matriiksi" [3] ), jossa , pitäisi olla positiivinen puolidefiniitti [4] . Empiirisesti koneoppimisheuristiikassa sellaisen funktion valinta , joka ei täytä Mercerin ehtoa, voi silti olla perusteltua, jos se ainakin vastaa intuitiivista ajatusta samankaltaisuudesta [5] . Olipa ydin Mercer vai ei, sitä voidaan edelleen kutsua "ytimeksi".
Jos ydinfunktio on myös kovarianssifunktio , jota käytetään Gaussin prosessissa , niin Gram-matriisia voidaan kutsua kovarianssimatriisiksi [6] .
Ydinmenetelmien sovellukset ovat erilaisia ja sisältävät geostatistiikkaa [7] , krigingiä , etäisyyspainotusta , 3D-rekonstruktiota , bioinformatiikkaa , kemoinformatiikkaa , tiedon poiminta ja käsinkirjoituksen tunnistusta .
Koneoppiminen ja tiedon louhinta | |
---|---|
Tehtävät | |
Opettajan kanssa oppimista | |
ryhmäanalyysi | |
Mittasuhteiden vähentäminen | |
Rakenteellinen ennustaminen | |
Anomalian havaitseminen | |
Piirrä todennäköisyysmallit | |
Neuroverkot | |
Vahvistusoppiminen |
|
Teoria | |
Lehdet ja konferenssit |
|