Judkovski, Eliezer

Eliezer Judkovski
Englanti  Eliezer Yudkowsky

Eliezer Yudkowsky Stanfordin Singularity Summitissa vuonna 2006.
Nimi syntyessään Englanti  Eliezer Shlomo Yudkowsky
Syntymäaika 11. syyskuuta 1979( 11.9.1979 ) [1] (43-vuotias)
Syntymäpaikka
Maa
Tieteellinen ala Tekoäly
Työpaikka Machine Intelligence Research Institute
Tunnetaan Harry Potter and the Methods of Rationality kirjoittaja
Verkkosivusto yudkowsky.net
 Mediatiedostot Wikimedia Commonsissa

Eliezer Shlomo Yudkowsky ( englanniksi  Eliezer S. Yudkowsky , 11. syyskuuta 1979) on amerikkalainen tekoälyasiantuntija , joka tutkii teknologisen singulaarisuuden ongelmia ja kannattaa ystävällisen tekoälyn luomista [2] [3] . Avainhenkilö rationalistisessa yhteisössä .

Elämäkerta

Eliezer Yudkowsky syntyi 11. syyskuuta 1979 ortodoksiseen juutalaisperheeseen [4] .

Tieteelliset kiinnostuksen kohteet

Yudkowsky on Singularity Institute for Artificial Intelligence -instituutin (SIAI) perustaja ja stipendiaatti [5] . Hän on kirjoittanut kirjan "Creating Friendly AI" [6] , artikkelit "Levels of Organisation of Universal Intelligence" [7] , "Coherent Extrapolated Will" [8] ja "Timeless Decision Theory" [9] [10] . . Hänen viimeisimmät tieteelliset julkaisunsa ovat kaksi artikkelia Nick Bostromin toimittamassa kokoelmassa "Risks of Global Catastrophe" (2008) , nimittäin "Tekoäly positiivisena ja negatiivisena tekijänä globaalissa riskissä" ja "Kognitiivinen harha globaalien riskien arvioinnissa" [ 11] [12] [13] . Yudkovsky ei opiskellut yliopistoissa ja on itseoppinut ilman muodollista koulutusta tekoälyn alalla [14] .

Yudkowsky tutkii niitä tekoälyrakenteita, jotka pystyvät ymmärtämään itseään, muokkaamaan itseään ja kehittämään itseään rekursiivisesti ( Seed AI ), sekä niitä tekoälyarkkitehtuureja, joilla on vakaa ja positiivinen motivaatiorakenne ( Friendly Artificial Intelligence ). Tutkimustyön lisäksi Yudkowsky tunnetaan monimutkaisten mallien selityksistä ei-akateemisella kielellä, joka on saatavilla laajalle lukijajoukolle, katso esimerkiksi hänen artikkelinsa "Bayes'in lauseen intuitiivinen selitys" [15] [16] .

Yudkowsky oli yhdessä Robin Hansonin kanssa yksi blogin Overcoming Bias (ennakkoluulojen voittaminen) päätekijöistä. Vuoden 2009 alussa hän perusti LessWrong -blogin , jonka tavoitteena oli "kehittää ihmisen rationaalisuutta ja voittaa kognitiiviset harhakäsitykset". Sen jälkeen Overcoming Biasista tuli Hansonin henkilökohtainen blogi. Näissä blogeissa esitetty materiaali järjestettiin viestiketjuiksi, jotka pystyivät houkuttelemaan tuhansia lukijoita - katso esimerkiksi "viihdeteoria" -säie [17] .

Yudkowsky on kirjoittanut useita tieteiskirjallisia tarinoita, joissa hän havainnollistaa joitain kognitiiviseen tieteeseen ja rationaalisuuteen liittyviä teemoja. Ei-akateemisissa piireissä hänet tunnetaan paremmin Harry Potter and the Methods of Rationality -fanfictionin kirjoittajana Less Wrongin [18] suojeluksessa .

Sävellykset

Artikkelit venäjäksi

Muistiinpanot

  1. http://www.nndb.com/lists/517/000063328/
  2. Russell, Stuart. Tekoäly: moderni lähestymistapa / Stuart Russell, Peter Norvig . - Prentice Hall, 2009. - ISBN 978-0-13-604259-4 .
  3. Leighton, Jonathan. Taistelu myötätunnosta: Etiikka apaattisessa maailmankaikkeudessa. - Algora, 2011. - ISBN 978-0-87586-870-7 .
  4. Uskomuksesi todellisten heikkouksien välttäminen . Vähemmän väärin . Käyttöönottopäivä: 31.5.2021.
  5. Ray Kurzweil . Singulariteetti on lähellä  (uuspr.) . - New York, Yhdysvallat: Viking Penguin , 2005. - S. 599. - ISBN 0-670-03384-7 .
  6. Luomme ystävällistä tekoälyä , 2001
  7. Organisaation tasot yleisessä tiedustelussa , 2002
  8. Coherent Extrapolated Volition , 2004
  9. Timeless Decision Theory , 2010
  10. Eliezer Yudkowsky -profiili (downlink) . Kiihtyvä tulevaisuus. Haettu 15. marraskuuta 2010. Arkistoitu alkuperäisestä 4. joulukuuta 2010. 
  11. Tekoäly positiivisena ja negatiivisena tekijänä maailmanlaajuisessa riskissä (linkki ei saatavilla) . Singularity Institute for Artificial Intelligence. Haettu 28. heinäkuuta 2009. Arkistoitu alkuperäisestä 2. maaliskuuta 2013. 
  12. Kognitiiviset harhat, jotka mahdollisesti vaikuttavat globaalien riskien arviointiin (linkki ei saatavilla) . Singularity Institute for Artificial Intelligence. Haettu 29. lokakuuta 2018. Arkistoitu alkuperäisestä 7. toukokuuta 2015. 
  13. Globaalit katastrofaaliset riskit  / Bostrom, Nick . - Oxford, Iso-Britannia: Oxford University Press , 2008. - P.  91-119 , 308-345. — ISBN 978-0-19-857050-9 .
  14. GDay World #238: Eliezer Yudkowsky . Podcast-verkko. Käyttöpäivä: 26. heinäkuuta 2009. Arkistoitu alkuperäisestä 17. heinäkuuta 2007.
  15. "Bayesin lauseen intuitiivinen selitys"
  16. käännös
  17. Jaksot - Lesswrongwiki
  18. Yudkowsky - Fiktio

Linkit