Delta-sääntö

Kokeneet kirjoittajat eivät ole vielä tarkistaneet sivun nykyistä versiota, ja se voi poiketa merkittävästi 22. syyskuuta 2018 tarkistetusta versiosta . tarkastukset vaativat 11 muokkausta .

Deltasääntö on perceptronin  oppimismenetelmä, joka perustuu gradienttilaskeutumisen periaatteeseen virhepinnan yli. Sen jatkokehitys johti backpropagation - menetelmän luomiseen .

Delta Rule

Itse asiassa delta-sääntöä kutsutaan merkinnän matemaattiseksi muodoksi. Olkoon vektori  tulosignaalien vektori ja vektori  signaalien vektori, joka tulisi vastaanottaa perceptronista tulovektorin vaikutuksesta. Tässä  on perceptronin muodostavien neuronien lukumäärä. Perceptronin tuloissa vastaanotetut tulosignaalit painotettiin ja summattiin, jolloin saatiin perceptronin lähtöarvojen vektori. Sitten on mahdollista määrittää virhevektori , jonka mitta on sama kuin lähtösignaalien vektorin mitta. Virhevektorin komponentit määritellään erotukseksi perceptronin neuronin lähtösignaalin odotetun ja todellisen arvon välillä:

Tällaisilla merkinnöillä kaava i:nnen neuronin j:nnen painon säätämiseksi voidaan kirjoittaa seuraavasti:

Signaalin numero vaihtelee yhdestä tulovektorin mittaan . Hermosolujen lukumäärä vaihtelee yhdestä hermosolujen lukumäärään . Arvo  on nykyisen harjoitustoiston numero. Siten neuronin tulosignaalin paino muuttuu virheen pienentämisen suuntaan suhteessa hermosolun kokonaisvirheen arvoon. Usein otetaan käyttöön suhteellisuustekijä , jolla virheen suuruus kerrotaan. Tätä kerrointa kutsutaan oppimisnopeudeksi tai -nopeudeksi [1 ] . Näin ollen lopullinen kaava painojen säätämiseksi on:

Yleistetty deltasääntö

Laajentaakseen perceptronin ratkaisemien tehtävien valikoimaa Widrow ja Hoff [2] ehdottivat sigmoidista aktivointitoimintoa hermosoluille. Tämä antoi perceptronille mahdollisuuden toimia jatkuvilla signaaleilla, mutta vaati oppimisalgoritmin muuttamisen [3] . Muokatun algoritmin tarkoituksena on minimoida neliövirhefunktio:

Tämä funktio määritellään painomatriisin avulla . Tässä  on neuronin  numero ja syötteen numero. Tämän funktion kuvaama pinta on pseudoparaboloidin muotoinen [4] . Oppimisen tehtävänä on löytää tämän pinnan globaali minimi. Yksi tapa löytää minimi on gradienttilaskumenetelmä . Painot on säädetty pinnan anti-kaltevuuden suuntaan:

Tässä  on oppimisnopeuskerroin.

Virhefunktio on monimutkainen ja riippuu ensisijaisesti perceptronin lähtösignaaleista. Monimutkaisten toimintojen eriyttämissääntöjen mukaan :

(*)

Kunkin neuronin lähtösignaali määritetään kaavalla:

Tässä  on perceptronin tulojen lukumäärä,  signaali j:nnessä sisääntulossa ja  aktivointitoiminto. Sitten saamme:

(**)

Erottamalla virhefunktio lähtösignaalin arvolla, saamme:

(***)

Kun kaavat (**) ja (***) korvataan lausekkeella (*), saadaan lauseke i:nnen hermosolun j:nnen tulon painon säätämiseksi mille tahansa aktivointifunktiolle [5] :

Tästä kaavasta voidaan nähdä, että aktivointifunktiona yleistä delta-sääntöä käytettäessä hermosolujen aktivaatiofunktion tulee olla jatkuvasti differentioituva koko x-akselilla. Aktivointifunktioilla yksinkertaisella derivaatalla (esimerkiksi logistinen käyrä tai hyperbolinen tangentti) on etu.

Delta-säännön pohjalta Widrow ja Hopf loivat yhden ensimmäisistä laitteiston neurotietokoneista Adalin ( 1960 ).

Muistiinpanot

  1. Nielsen, Michael A. Neuraaliverkot ja syväoppiminen . – 1.1.2015. Arkistoitu alkuperäisestä 6. syyskuuta 2016.
  2. Widrow B., Hoff ME - Mukautuvat kytkentäpiirit. 1969 IRE WESTCON -konferenssiennätys. – New York, 1960
  3. L. N. Yasnitsky - Johdatus tekoälyyn. - s.34-36
  4. L. N. Yasnitsky - Johdatus tekoälyyn. - s. 35
  5. L. N. Yasnitsky - Johdatus tekoälyyn. - s. 36

Katso myös

Kirjallisuus