Neuroverkkojen verbalisointi

Verbalisointi on minimoitu kuvaus syntetisoidun ja jo koulutetun hermoverkon toiminnasta useiden toisistaan ​​riippuvaisten algebrallisten tai loogisten funktioiden muodossa.

Sanallisuuden tavoitteet

Yksi koulutettujen hermoverkkojen suurimmista haitoista monien käyttäjien näkökulmasta on, että on vaikea poimia selkeää ja käyttäjäystävällistä algoritmia ongelman ratkaisemiseksi koulutetusta hermoverkosta - hermoverkko itsessään on tämä algoritmi. , ja jos verkon rakenne on monimutkainen, tämä algoritmi on käsittämätön. Erityisesti rakennettu yksinkertaistamis- ja sanamuotomenettely mahdollistaa kuitenkin usein eksplisiittisen ratkaisumenetelmän poimimisen.

Verbalisointi suoritetaan erityisesti koulutetun ja yksinkertaistetun hermoverkon valmistelemiseksi toteutettavaksi ohjelmakoodissa tai erikoistuneen elektronisen (optoelektronisen) laitteen muodossa sekä tulosten käyttämiseksi eksplisiittisen tiedon muodossa . [1] Tässä tapauksessa oireet ovat hermoverkon tuloarvoja ja oireyhtymät ovat arvoja hermosolujen  ulostuloissa . Loppusyndrooma on hermoverkon lähtöarvo. Verbalisointi suoritetaan yleensä erikoispakettien avulla.

Yksinkertaistamisen ja sanamuodon erityisongelmat

  1. Neuraaliverkkoarkkitehtuurin yksinkertaistaminen
  2. Tulosignaalien määrän vähentäminen
  3. Neuraaliverkon parametrien vähentäminen pieneen määrään valittuja arvoja
  4. Vähennetyt vaatimukset tulosignaalin tarkkuudelle
  5. Eksplisiittisen tiedon muotoilu oire-oireyhtymän rakenteen muodossa ja eksplisiittiset kaavat oireyhtymien muodostumiseen oireista.

Harvennusalgoritmit

Ennen verkon verbalointia, yleensä tuotantosääntöjen avulla, tietyntyyppisille verkoille ehdotettiin verkkojen rakenteen yksinkertaistamista - ohentamista. Karsimisen pääideana on, että ne mallin elementit tai verkon neuronit, joilla on vain vähän vaikutusta approksimaatiovirheeseen , voidaan jättää mallista pois ilman, että approksimoinnin laatu heikkenee merkittävästi [2] . Mutta samalla on pidettävä mielessä, että tämä koskee vain ratkaistavaa ongelmaa. Jos koulutukseen tulee uusia tilastoja, niin harva verkko menettää yleistyskyvyn, joka sillä olisi ollut, jos yhteyksiä ei olisi kadonnut (ainakaan päinvastaista ei ole todistettu). Puhumme siis häviöllisistä algoritmeista, joita voidaan käyttää tiettyihin ongelmiin, mutta joita ei voida käyttää ongelmasta riippumatta. Kasvava erikoistuminen, he menettävät joustavuutta.

Rumelhartin monikerroksiselle perceptronille ja siihen perustuville

Toisen kertaluvun menetelmää (käyttämällä herkkyysanalyysiä, joka perustuu toisen johdannaisen laskemiseen) ehdotti LeCun vuonna 1990 [3] , ja sitä kutsuttiin "optimaaliseksi aivovaurioksi". Sitten sen kehitti Hussibey [4] ja se sai nimen "optimaalinen aivoleikkaus".

Hieman aikaisemmin ehdotettiin menetelmiä hermoverkkojen ohentamiseen [5] ja luurankoimiseen [6] , jotka perustuivat yksinkertaisesti pienimmän painoisten elementtien poistamiseen ( nolla-asteen menetelmät ).

Lopuksi, samassa 1990, A. N. Gorban ehdotti tehokasta menetelmää, joka perustuu ensimmäisten derivaattojen analysointiin gradienttimenetelmillä oppimisen aikana ja joka ei vaadi erillistä erottelua. [7] Elementtien poistotehtävän lisäksi ratkaistiin myös muita yksinkertaistamisongelmia: painojen ja signaalien sanapituuden lyhentäminen (karkeus), hermosolujen aktivaatiotoimintojen yksinkertaistaminen, tulkittavissa olevan tiedon hankkiminen jne. Koko lähestymistavasarja oli kutsutaan myös " vastakohtaisiksi neuroverkoiksi ". Herkkyysindikaattoreiden kuvaus on esitetty katsauksessa. [kahdeksan]

E. M. Mirkes hankkeessa "Ideal neurocomputer ", joka perustui Gorbanin lähestymistapaan ja sovellettujen ohjelmistojen kehittämisen kokemukseen, otti käyttöön "Contrast"-elementin, rakensi kirjaston sen päätoiminnoista ja kehitti kuvauskielen. [9]

Neuroverkon valmistelemiseksi yksinkertaistamista varten on hyödyllistä sisällyttää sen työn arviointiin, joka on minimoitu koulutuksen aikana, rangaistusehdot (englanniksi rangaistus), rankaisemalla monimutkaisuudesta. Nämä algoritmit esitellään A. N. Gorbanin kirjassa [7] . Ishikawa ja Zurada löysivät tämän lähestymistavan myöhemmin uudelleen ja loivat perustan rakenteellisen oppimisen teorialle. [10] [11]

Rosenblatt - perceptronille ja siihen perustuville

Desimointialgoritmia Rosenblattin perceptronille ei tarvita. Tämä johtuu siitä, että toisin kuin Rumelhartin monikerroksinen perceptron , perceptron ei ole täysin yhdistetty verkko, eli kokeen suorittaja voi suoraan ohjata yhteyksien määrää keskielementistä tuloon riippuen tehtävän monimutkaisuudesta. . Siksi lisäliitäntöjen harjoittelua ei tarvita, ja voit valita heti tehtävään tarvittavan yhteyksien määrän. Tällainen valinta tehdään kokeellisesti, jos konvergenssi saavutettiin koulutuksen aikana, sitä voidaan edelleen vähentää. Heti kun konvergenssi alkoi vaatia huomattavasti enemmän iteraatioita, tämä on merkki siitä, että haluttu yhteyksien määrä on saavutettu.

Toinen ohjattu parametri, jolla on merkittävämpi vaikutus yhteyksien määrään, on keskielementtien lukumäärä. Mitä enemmän perceptronia voidaan harjoitella pienemmällä määrällä keskielementtejä, sitä optimaalisempi rakenne saadaan.

Siksi näitä kahta parametria ohjaamalla saadaan ohennus automaattisesti ilman lisäalgoritmeja.

Muistiinpanot

  1. Mirkes E. M. , Loogisesti läpinäkyvät neuroverkot ja eksplisiittisen tiedon tuottaminen tiedoista Arkistokopio 25. helmikuuta 2008 Wayback Machinessa , Kirjassa: Neuroinformatiikka / A. N. Gorban, V. L. Dunin-Barkovsky, A. N Kirdin ja muut - Novosibirsk : Tiede. Venäjän tiedeakatemian Siperian yritys, 1998. - 296 s. ISBN 5-02-031410-2
  2. Neuroverkkojen optimaalinen oheneminen . Haettu 30. elokuuta 2008. Arkistoitu alkuperäisestä 18. toukokuuta 2011.
  3. LeCun Y., Denker J. S., Solla S. A. Optimaalinen aivovaurio Arkistoitu 20. toukokuuta 2008 at the Wayback Machine  / Touretzky D. S. ed., Advances in Neural Information Processing Systems 2. Morgan Kaufmann, San Mateo, CA. 1990. s. 598-605.
  4. Hassibi B., Stork D. G. Toisen asteen johdannaiset verkon karsimiseen: Optimaalinen aivokirurgi Arkistoitu 7. toukokuuta 2008 Wayback Machinessa  / NIPS 5. 1993.
  5. Sietsma J., Dow RJF, Neuraaliverkon karsiminen - miksi ja miten. Julkaisussa: Proc. IJCNN'88, San Diego, CA., IEEE, osa 1. - s. 325-333.
  6. Mozer MC, Smolensky P. Skeletonization: tekniikka rasvan leikkaamiseksi verkosta relevanssiarvioinnin avulla. Julkaisussa: Advances in Neural Network Information Processing Systems, Morgan Kaufmann, 1989. Vol.1, s. 107-115.
  7. 1 2 Gorban A.N., Learning neuro networks Arkistoitu 9. elokuuta 2010 Wayback Machinessa . M.: toim. Neuvostoliiton ja Yhdysvaltojen yhteisyritys "Paragraph", 1990. 160 s.
  8. Gorban AN, Mirkes Eu. M., Tsaregorodtsev VG Eksplisiittisen tiedon luominen empiirisestä tiedosta koulutettavien hermoverkkojen karsimisen kautta Arkistoitu 17. helmikuuta 2016 Wayback Machinessa julkaisussa: Proc. IJCNN'99, Washington DC, heinäkuu 1999, IEEE, Voi. 6, s. 4393-4398.
  9. Mirkes E.M., Neurocomputer. Standardin luonnos. Arkistokopio päivätty 15. kesäkuuta 2009 Wayback Machinessa - Novosibirsk: Nauka, Siberian Publishing Company RAS, 1999 .- 337 s. ISBN 5-02-031409-9 (Luku 9: "Kontrasti") Muut kopiot verkossa: Arkistoitu kopio (linkki ei ole käytettävissä) . Haettu 15. lokakuuta 2008. Arkistoitu alkuperäisestä 3. heinäkuuta 2009.   .
  10. Ishikawa S., Strukturaalinen oppiminen unohtamisen kanssa, Neural Networks, 1996, Vol. 9, 3, 509-521.
  11. Miller DA, Zurada, JM, Dynaamisen järjestelmän näkökulma rakenteelliseen oppimiseen unohtamisen kanssa, IEEE Transactions on Neural Networks, Vol. 9, 3, 1998, 508-515.