Perceptronin konvergenssilause on F. Rosenblattin kuvaama ja todistama lause (johon osallistuivat Blok, Joseph, Kesten ja muut hänen kanssaan työskennelleet tutkijat). Se osoittaa, että virheenkorjausmenetelmällä (kvantisoinnilla tai ilman) harjoitettu alkeisperceptroni , riippumatta painokertoimien alkutilasta ja ärsykkeiden esiintymisjärjestyksestä, johtaa aina ratkaisun saavuttamiseen rajallisessa jaksossa. aika. F. Rosenblatt esitti myös todisteita useista toisiinsa liittyvistä teoreemoista, joiden seurauksista voitiin päätellä, mitä ehtoja keinohermoverkkojen arkkitehtuurin ja niiden koulutusmenetelmien tulee täyttää.
Ennen perceptronin pääkonvergenssilauseen todistamista F. Rosenblatt osoitti, että perceptronin arkkitehtuuri on riittävä ratkaisun saamiseksi mihin tahansa ajateltaviin luokitteluongelmaan , eli perceptroni on siis "universaali järjestelmä".
Lause 1. Annettu verkkokalvo, jossa on kaksi tulosignaalin tilaa (Kyllä ja Ei). Tällöin alkeisperceptronien luokka, jolle on olemassa ratkaisu mahdollisten ympäristöjen W luokittelulle C(W), ei ole tyhjä. |
Edelleen F. Rosenblatt osoitti ja osoitti lauseessa 2 , että välttämättömät, mutta eivät vielä riittävät ehdot ratkaisun olemassaololle ovat seuraavat:
Toinen ehto kaipaa selvennystä. F. Rosenblatt kutsui A-elementin bias-tekijäksi suhdetta harjoitusnäytteessä yhteen luokkaan kuuluvien ja tämän A-elementin viritteiden määrään toiseen luokkaan kuuluvien ärsykkeiden määrään, mutta samalla myös herättää samaa A:ta. -elementti. Toisen ehdon rikkominen tekee suhteesta vakion A-elementeille, jotka vastaavat ärsykkeisiin sellaisesta erityisestä ärsykkeiden esiintymisen osajaksosta perceptronin tuloissa. Ja tämän vuoksi, kuten Lause 2 osoittaa , ainakin yksi ärsykkeistä luokitellaan väärin.
Rosenblatt osoitti myös, että nämä ehdot eivät riittäisi seuraavalla esimerkillä
Ärsyke | Kiihottaa A-elementtejä | kuuluu luokkaan |
---|---|---|
Nro 1 | Nro 1 | Nro 1 (positiivinen) |
Nro 2 | Nro 2 | Nro 1 (positiivinen) |
Numero 3 | Nro 3 ja nro 4 | Nro 1 (positiivinen) |
Nro 4 | Nro 1, nro 2 ja nro 3 | Nro 2 (negatiivinen) |
Nro 5 | Nro 1, nro 2 ja nro 4 | Nro 2 (negatiivinen) |
A on elementti | Siirtymäkerroin |
---|---|
Nro 1 | 1/2 |
Nro 2 | 1/2 |
Numero 3 | 1/1 |
Nro 4 | 1/1 |
Tämä esimerkki täyttää kaksi välttämätöntä ehtoa, mutta siihen ei silti ole ratkaisua. Saadaksesi oikean luokituksen ensimmäiselle luokalle tarvitset:
Saadaksesi oikean luokituksen toiselle luokalle tarvitset:
Tämä osoittaa, että jos meillä on positiiviset painokertoimet A-elementeillä nro 1 ja nro 2 ja ainakin yksi A-elementtien nro 3 ja nro 4 painokertoimista on positiivinen, voimme saavuttaa tämän summan. painojen nro 1 (+), nro 2(+) ja nro 3(-) olisi negatiivinen, mutta tässä tapauksessa meidän on jätettävä painon nro 4 paino positiiviseksi ja sitten numeron nro summa. 1(+), nro 2(+) ja nro 4(+) ei voi koskaan olla negatiivinen. Joten ärsyke #4 tai ärsyke #5 luokitellaan väärin. Tätä kutsutaan konvergenssin puutteeksi luokittelua ratkaistaessa.
Puhtaassa muodossaan Rosenblatt kuvaa riittävät ehdot vasta myöhemmin seuraavassa Josephin ehdottamassa lauseessa:
Lause 9. Esitetään alkeisperceptroni ja luokitus C(W). Välttämätön ja riittävä ehto, että ratkaisu voidaan saavuttaa virheenkorjausmenetelmällä äärellisessä ajassa ja mielivaltaisesta alkutilasta, on se, että ei saa olla nollasta poikkeavaa vektoria , niin että kaikille i on siirtymäeksponentti |
mutta koska tämä on matemaattinen esitys, vaikkakin elegantimpi, mutta ei silti kerro juurikaan siitä, mitkä ehdot perceptronin arkkitehtuurin kannalta on täytettävä, Rosenblatt todistaa ensin seuraavan lauseen:
Lause 3. Annettu alkeisperceptroni, ärsykeavaruus W ja jokin luokitus C(W). Tällöin C(W):n ratkaisun olemassaoloon on välttämätöntä ja riittävää, että on olemassa jokin vektori u, joka sijaitsee samassa ortantissa kuin C(W), ja jokin vektori x, jolloin Gx=u. |
Mutta kolme tämän lauseen seurausta ovat käytännössä merkittäviä:
Pääkonvergenssilauseessa F. Rosenblatt osoittaa, että olemassa olevat mahdolliset ratkaisut voidaan saavuttaa tarkasti soveltamalla oppimisalgoritmia virheenkorjauksella:
Lause 4. Annettu alkeisperceptroni, ärsykeavaruus W ja jokin luokitus C(W), jolle tiedetään olevan ratkaisu. Oletetaan, että kaikki W:n ärsykkeet esiintyvät missä tahansa järjestyksessä, mutta sillä ehdolla, että jokainen ärsyke ilmaantuu uudelleen jonkin äärellisen aikavälin jälkeen. Tällöin virheenkorjaava oppimisprosessi (vahvistuskvantisoinnilla tai ilman), joka alkaa mielivaltaisesta alkutilasta, johtaa aina ratkaisuun C(W):lle rajallisen aikavälin sisällä. Tässä tapauksessa kaikki R - elementtien tulosignaalit saavuttavat arvon, joka on vähintään yhtä suuri kuin jokin mielivaltainen arvo d >= 0. |
Useissa seuraavista lauseista F. Rosenblatt osoittaa, mitkä ominaisuudet oppimisalgoritmilla on oltava, jotta se saavuttaa ratkaisun.
Ei ole olemassa äärellistä automaattia, joka kertoisi kaksi mielivaltaista kapasiteettia olevaa binaarilukua a ja b
Marvin Minsky esitti useita todisteita perceptronin konvergenssilauseesta. Mutta hänen todistuksensa mahdollistivat painokertoimien suuruuden, mikä on välttämätöntä niiden tallentamiseksi tietokoneen muistiin, sekä painokertoimien tarvittavien korjausten lukumäärän, mikä on tärkeää perceptronin oppimisnopeuden arvioinnissa. .
Painokertoimien tallentamiseen tarvittavan muistikapasiteetin arvioimiseksi pariteettipredikaatin harjoittelua ratkaistessaan Minsky lähti seuraavista näkökohdista. Kertoimien tasaiseen esitykseen tarvitaan bittejä jokaiselle, missä on pisteiden lukumäärä perceptronin verkkokalvolla. Tämä johtuu siitä, että tämän tulisi olla suurimman kertoimen paino, jotta ratkaisun olemassaolon ehdot täyttyvät. Ja tarvittava määrä kertoimia (maksimi vaadittu) . Siksi vähän tarvitaan . Jos vertaamme tätä lukua siihen, mitä tapahtuu, jos muistamme kaikki mahdolliset kuvat, joita voidaan soveltaa perceptronin verkkokalvoon, tarvitsemme kapasiteettia = . Näillä oletuksilla käy ilmi, että perceptron vaatii lähes yhtä paljon kapasiteettipainoja kuin se vaatii kaikkien mahdollisten kuvien tallentamiseen.
Arvioidakseen alkeisperceptronilta painojen määrittämiseen tarvittavien iteraatioiden lukumäärän Minsky analysoi pariteettipredikaatin oppimista, joka on yksi teoreettisesti vaikeimmista perceptronille. Samalla hän otti perceptronin, jolla oli pienin mahdollinen määrä A-elementtejä ja siten pienimmällä määrällä painokertoimia, ja tätä varten hän määritti korjausten lukumäärän ala- ja ylärajat: , missä on perceptronin verkkokalvon pisteiden lukumäärä.
Siksi Minskyn kritiikki perceptronin konvergenssista osoittaa, että:
silloin perceptroni vaatii epärealistisen suuren tietokonemuistin ja pitkän harjoitusajan, vaikka konvergenssilause sanookin äärellisestä määrästä iteraatioita.
Tässä on lisättävä vain, että useimpiin todellisten kuvien tunnistusongelmiin ei vaadita tällaisia matemaattisia funktioita, ja eri luokkien kuvien erityispiirteet löytyvät vain pieneltä alueelta, joka koostuu esimerkiksi 20 pisteestä. 8000 mahdollisesta. Kun tällaiset predikaatit on rakennettu 20 elementistä (predikaatit vastaavat A-elementtejä), on mahdollista luokitella kuvat ottamatta huomioon kaikkia niiden ominaisuuksia (yleensä tällaisten predikaattien lukumäärä, kuten edellä mainittiin, on 60-80 % kaikkien kuvien määrästä). Tämä viittaa siihen, että merkityksellisten kuvien määrä tietyssä ulottuvuudessa on useita suuruusluokkia pienempi kuin kaikkien mahdollisten kuvien lukumäärä. Jos et vaadi joidenkin matemaattisten funktioiden (siirto, kierto) suorittamista tällaisissa merkityksellisissä kuvissa, käy selväksi, että perceptroni ei voi vain tallentaa optimaalisesti useita kuvia luokittelua varten, vaan se toimii myös tavallaan häviöllisenä kuvanpakkauksena . algoritmi , joka määrittää ne tarkasti vaadittuun luokkaan.