Machine Intelligence Research Institute | |
---|---|
Hallintokeskus |
|
Organisaation tyyppi | voittoa tavoittelematon organisaatio |
Pohja | |
Perustamispäivämäärä | 2000 |
Verkkosivusto | intelligence.org _ |
Machine Intelligence Research Institute (MIRI; entinen Singularity Institute ja Singularity Institute for Artificial Intelligence ) on voittoa tavoittelematon organisaatio, jonka päätavoitteena on luoda turvallista tekoälyä sekä tutkia mahdollisia vaaroja ja mahdollisuuksia, joita voi syntyä tekoälyä luotaessa. Organisaatio tukee Irving Gooden ja Vernor Vingen alun perin esittämiä ajatuksia "älyllisestä räjähdyksestä" tai singulaarisuudesta sekä Eliezer Yudkowskyn ideoita.ystävällisen tekoälyn luomisesta. Yudkowsky tutkii Singularity Institutessa Yhdysvalloissa globaalin riskin ongelmia, joita tulevaisuuden yli-inhimillinen tekoäly voi luoda, jos sitä ei ohjelmoida ihmisystävälliseksi [ 1] .
Vuosina 2007–2010 keksijä ja tulevaisuudentutkija Ray Kurzweil oli yksi organisaation johtajista . Organisaation neuvoa-antavaan henkilöstöön kuuluvat Oxfordin filosofi Nick Bostrom , gerontologi Aubrey de Gray , PayPalin perustaja Peter Thiel ja Foresight Nanotech Instituten perustaja Christina Paterson.
Organisaatiolla on toimistot Yhdysvalloissa ja Kanadassa.
SIAI:n (Singularity Institute for Artificial Intelligence) ensimmäinen projekti oli "annotatiivinen ohjelmointikieli" (annotative programming language) Flare [2] , jonka kehittäminen aloitettiin heinäkuussa 2001. Kieli on suunniteltu luomaan tekoälyn siemen sen avulla. Projekti saatiin päätökseen alle vuodessa.
Vuonna 2002 SIAI:n verkkosivusto julkaisi esipainoksen luvusta "Yleisen älykkyyden organisoinnin tasot" [3] kirjasta Real AI: New Approaches to Artificial General Intelligence (toimittaneet Ben Herzel ja Cassio Pennachin). Myöhemmin samana vuonna SIAI julkaisi kaksi suurta johdantolukua, "Mikä on singulaarisuus" [4] ja "Miksi työstää singulaarisuuden approksimaatiota" [5] .
Vuonna 2003 organisaation edustaja Michael Anissimov piti esitelmän Yalen yliopistossa pidetyssä kansainvälisessä Transvision 2003 -konferenssissa .
Vuonna 2004 SIAI loi AsimovLaws.com -sivuston [6] keskustellakseen tekoälyn eettisyydestä vain kaksi päivää myöhemmin julkaistussa I, Robot -elokuvassa esille tuotujen ongelmien yhteydessä . Ensi vuoden alussa instituutin pääkonttori muuttaa Atlantasta Piilaaksoon .
Helmikuussa 2006 instituutti muodostaa rahaston, jonka määrä on 200 tuhatta dollaria [7] . Suurin osa rahastosta (100 000 dollaria) tuli Paypalin perustajilta Peter Thieliltä. Toukokuussa 2006 Stanfordin Singularity Summitissa tehtiin päätös instituutin henkilöstön laajentamisesta.
Instituutti, KurzweilAI.net ja Center for Language and Information Studies, sponsoroivat Stanfordin Singularity Summit -kokousta. Instituutin johtaja Peter Thiel toimii huippukokouksen moderaattorina [8] . Huippukokous kokosi yhteen noin 1 300 asiantuntijaa. Huippukokoukseen osallistuivat Ray Kurzweil , Nick Bostrom , Corey Doctorow , Eric Drexler , Douglas Hofstadter , Steve BillMax , Sebastian Thrun ja Eliezer Yudkowsky
Vuonna 2007 vastaava huippukokous pidettiin Palace of the Arts Theatressa San Franciscossa. Kolmas Singularity Summit pidettiin 5. lokakuuta 2008 San Josessa.
Instituutti rahoittaa Open Cognition Framework ( OpenCog ) -projektia, jonka tavoitteena on tarjota "ohjelmistotutkijoille ja -kehittäjille yhteinen alusta tekoälyohjelmien rakentamiseen".
Vuonna 2013 organisaatio muutti nimensä Machine Intelligence Research Instituteksi [9] .
Machine Intelligence Research Institute tutkii tekoälyyn liittyviä strategisia kysymyksiä, kuten: Mitä voimme (ja emme) ennustaa tekoälyteknologian tulevaisuudesta? Kuinka voimme parantaa ennustamiskykyämme? Mitkä nykyään saatavilla olevat interventiot näyttävät olevan hyödyllisimpiä, kun otetaan huomioon, mitä vähän tiedämme? [kymmenen]
Vuodesta 2014 lähtien MIRI on rahoittanut ennustetyötä itsenäisen AI Impacts -projektin kautta. AI Impacts tutkii historiallisia esimerkkejä epäjatkuvista teknologisista muutoksista ja on kehittänyt uusia mittareita ihmisten ja tietokonelaitteistojen suhteellisesta prosessointitehosta. [11] [12]
MIRI-tutkijoiden kiinnostus epäjatkuvaan tekoälyyn juontaa juurensa I.J. Goodin väitteestä, jonka mukaan riittävän kehittyneet tekoälyjärjestelmät pärjäävät lopulta ohjelmistokehitystehtävissä, mikä johtaa yhä kykenevämpien tekoälyjärjestelmien palautesilmukaan:
Ultraälykäs kone määritellään koneeksi, joka voi niin pitkälle kuin mahdollista ylittää minkä tahansa ihmisen kaiken älyllisen toiminnan. Koska konesuunnittelu on yksi näistä älykkäistä tehtävistä, erittäin älykäs kone voisi suunnitella vielä parempia koneita; Silloin olisi epäilemättä tapahtunut " älyräjähdys " (alkuperäinen: "älyräjähdys"), ja ihmismieli olisi jäänyt kauas taakse. Näin ollen ensimmäinen ultraälykäs kone on viimeinen keksintö, jonka ihmisen tulisi koskaan tehdä, mikäli kone on tarpeeksi tottelevainen kertomaan meille, kuinka se pidetään hallinnassa. [13]
Kirjailijat, kuten Bostrom , käyttävät termiä superäly Gooden ultraälyn sijaan. Vernor Vingen jälkeen Gooden ajatus älykkyyden räjähdyksestä yhdistettiin ajatukseen "teknologisesta singulaarisuudesta". Bostrom ja MIRI:n tutkijat ovat ilmaisseet skeptisisyytensä singulaarisuuden kannattajien, kuten Ray Kurzweilin , näkemyksiä kohtaan, että superäly on "kulman takana". MIRI-tutkijat kannattavat varhaista turvallisuustyötä varotoimenpiteenä ja väittävät, että aiemmat ennusteet tekoälyn edistymisestä eivät ole olleet luotettavia. [neljätoista]
Future of Life Instituten (FLI) tutkimuksen painopisteasiakirjassa todetaan:
Matemaattiset työkalut, kuten muodollinen logiikka, todennäköisyyslaskenta ja päätösteoria, ovat antaneet merkittävän käsityksen päättelyn ja päätöksenteon perusteista. Päättelyn ja päätösten ytimessä on kuitenkin edelleen monia avoimia ongelmia. Ratkaisut näihin ongelmiin voivat tehdä erittäin suorituskykyisten järjestelmien käyttäytymisestä paljon luotettavampaa ja ennakoitavampaa. Esimerkkejä tämän alan tutkimuksesta ovat Horvitzin ja Russellin rajallisten laskentaresurssien pohtiminen ja päättäminen, miten tekoälyjärjestelmien ja niiden ympäristön käyttäytymisen väliset korrelaatiot, agentit ympäristöönsä sisäänrakennetuina agentteina tai muut deterministiset tekijät otetaan huomioon. laskelmat. Näitä aiheita voi olla hyödyllistä tarkastella yhdessä, koska ne näyttävät liittyvän syvästi toisiinsa.
Vakiopäätösmenettelyjä ei ole määritelty tarkasti (esimerkiksi kontrafaktuaalien suhteen), jotta ne voitaisiin formalisoida algoritmeiksi. Machine Intelligence Research Instituten tutkija Benja Pallenstein ja silloinen tutkija Nate Soares kirjoittavat, että kausaalinen päätösteoria on "heijastava epävakaa" siinä mielessä, että rationaalinen agentti, joka seuraa kausaalista päätösteoriaa "tunnistaa oikein, että agentin on muutettava itseään lopettaakseen syyteorian käytön . ja vaikuttaa päätöksentekoon ." Tutkijat tunnistavat "loogiset päätösteoriat" vaihtoehdoiksi, jotka suoriutuvat paremmin yleisissä päätöksentekotehtävissä.
Jos tekoälyjärjestelmä valitsee toiminnot, jotka mahdollistavat sen parhaiten suorittavan tehtävän, olosuhteiden välttäminen, jotka estävät järjestelmää jatkamasta tehtävän suorittamista, on luonnollinen osatavoite (ja päinvastoin, ehdottomien tilanteiden löytäminen on joskus hyödyllistä heuristiikkaa). Tämä voi kuitenkin muodostua ongelmalliseksi, jos haluamme jakaa järjestelmän uudelleen, deaktivoida sen tai muuttaa merkittävästi päätöksentekoprosessia; Tällainen järjestelmä rationaalisesti välttäisi nämä muutokset. Järjestelmiä, joissa ei esiinny tätä käyttäytymistä, kutsutaan korjaaviksi järjestelmiksi, ja teoreettinen ja käytännöllinen työ tällä alalla näyttää olevan hyväksyttävää ja hyödyllistä.
Machine Intelligence Research Instituten painopisteet näillä alueilla on tiivistetty vuoden 2015 teknisessä ohjelmassa .
![]() |
---|
transhumanismi | ||
---|---|---|
Perusasiat | ||
virrat | ||
Organisaatiot | ||
Ihmiset |