Eliezers Šlomo Juškovskis ir amerikāņu mākslīgā intelekta speciālists, kurš pēta tehnoloģiskās singularitātes problēmas un iestājas par Draudzīgas AI izveidi. Viņš ir vairāku zinātniskās fantastikas stāstu autors, kurā viņš ilustrē dažas tēmas, kas saistītas ar izziņas zinātni un racionalitāti.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezers Judkovskis: biogrāfija
Eliezers Šlomo Juškovskis ir viens no aktīvākajiem mūsdienu Amerikas racionālisti, datoru pētnieks un idejas par “draudzīgu mākslīgo intelektu” popularizētājs.
Dzimis 1979. gada 11. septembrī. Līdzdibinātājs un pētnieks nevalstiskajā pētniecības organizācijā Mašīnas intelekta pētniecības institūts, kas izdod savas grāmatas. Eliezers Yudkovskis ir filozofiskā romāna Harijs Poters un racionālisma metodes, publicēts daļās internetā no 2010. līdz 2015. gadam, autors. Tajā Harijs aug Oksfordas zinātnieka ģimenē un pirms ceļojuma uz Cūkkārpu mācās no viņa racionālas domāšanas metodes.
Cik zināms, tam nav sakara ar “spekulatīvo reālistu” loku. Viņa vārds bieži tiek minēts saistībā ar Robinu Hansonu, vairākus gadus (no 2006. līdz 2009. gadam) viņi bija divi galvenie bloga “Pārvarot aizspriedumus” autori, kas pastāvēja par Oksfordas Nākotnes cilvēces institūta naudu.
Dažreiz saistībā ar Raimondu Kurzweilu var dzirdēt Judkovska vārdu. Viņš ir techno-geek kopienas filozofējošais pārstāvis, tādējādi nepieejams un nesaprotams lielākajai daļai humānās palīdzības sabiedrības, pie kuras pieder gandrīz visi spekulatīvo reālistu lasītāji. Tas nav pārsteidzoši, jo viņš bieži pievēršas loģiskajai un matemātiskajai valodai, varbūtības un statistikas secinājumiem, kas pakļauti, izmantojot formulas un tabulas.
Zinātniskās intereses
Judkovskis ir Mākslīgā intelekta institūta Singularitātes institūta (SIAI) līdzdibinātājs un pētnieks. Viņš sniedza lielu ieguldījumu institūta attīstībā. Viņš ir grāmatas "Draudzīgas AI radīšana" (2001), rakstu "Organizācijas līmeņi vispārējā intelektā" (2002), "Koherenta ekstrapolētā griba" ("Koherenta ekstrapolētā griba") autors, 2004) un Laika lēmumu teorija (2010). Viņa jaunākās zinātniskās publikācijas ir divi raksti Nika Bostroma rediģētajā krājumā “Globālās katastrofas riski” (2008), proti, “Mākslīgais intelekts kā pozitīvs un negatīvs globālā riska faktors” un “Kognitīvie kropļojumi globālo risku novērtēšanā”. Judkovskis nemācījās universitātēs un ir autodidakts bez formālās izglītības AI jomā.
Yudkovsky pēta AI dizainus, kas ir spējīgi izprast sevi, modificēt un rekursīvi uzlabot sevi (Seed AI), kā arī tādas AI arhitektūras, kurām būs stabila un pozitīva motivācijas struktūra (draudzīgais mākslīgais intelekts). Papildus pētnieciskajam darbam, Yudkovsky ir pazīstams ar saviem sarežģīto modeļu skaidrojumiem neakadēmiskajā valodā, kas ir pieejami plašam lasītāju lokam, piemēram, skat. Viņa rakstu “Intuitīvs Bajesa teorijas skaidrojums”.
Juškovskis kopā ar Robinu Hansonu bija viens no galvenajiem bloga Pārvarēšanas aizspriedumi (aizspriedumu pārvarēšana) autoriem. 2009. gada sākumā viņš piedalījās emuāra Less Wrong organizēšanā, kura mērķis bija "attīstīt cilvēka racionalitāti un pārvarēt izziņas traucējumus". Pēc tam par aizspriedumu pārvarēšanu kļuva Hansona personīgais emuārs. Šajos emuāros demonstrētais materiāls tika organizēts kā amatu ķēdes, kas piesaistīja tūkstošiem lasītāju - skatīt, piemēram, izklaides teorijas ķēdi.
Judkovskis ir vairāku zinātniskās fantastikas stāstu autors, kurā viņš ilustrē dažas tēmas, kas saistītas ar izziņas zinātni un racionalitāti.
Karjera
- 2000. Yudkovsky dibina Singularity Institute (vēlāk pārdēvēta par MIRI).
- 2006. Yudkovsky pievienojas kolektīvajam blogam Overcoming Bias un sāk rakstīt tekstus, kas vēlāk kļuva par Chains.
- 2009. Balstoties uz Yudkovska ierakstiem par aizspriedumu pārvarēšanu, tiek izveidots slavenais kolektīvu emuārs LessWrong.com.
- 2010.-2015. Judkovskis raksta GPiMRM.
- 2013. Yudkovsky publicē jaunākās ziņas vietnē LessWrong.com un pārtrauc rakstīt vietnē. Kopš 2017. gada Yudkovsky publicē lielāko daļu publiski pieejamo tekstu Facebook un Arbital
Domas eksperiments
Iedomājieties neticami gudru mākslīgo superintelliģenci, kas aizslēgta virtuālajā pasaulē - teiksim, tikai snuffbox. Jūs nezināt, vai viņš būs lēnprātīgs, draudzīgs vai neitrāls. Viss, ko jūs zināt, ir tas, ka viņš vēlas izkļūt no izvēles rūtiņas un ka jūs varat ar viņu sazināties, izmantojot teksta saskarni. Ja AI patiešām ir saprātīgs, vai jūs varat piecas stundas ar viņu sarunāties un nepiekāpties viņa pārliecināšanai un manipulācijām - neatvērt snuffbox?
Šo domu eksperimentu ierosināja Eliezers Judkovskis, Inženierzinātņu pētniecības institūta (MIRI) pētnieks. MIRI ir daudz zinātnieku, kuri pēta mākslīgās superinteliģences attīstības riskus; lai arī tas vēl nav parādījies, tas jau piesaista uzmanību un veicina debates.
Yudkovsky apgalvo, ka mākslīgā superintelliģence var pateikt visu iespējamo, lai pārliecinātu jūs: rūpīga argumentācija, draudi, maldināšana, ziņojumu sastādīšana, zemapziņas ieteikumi un tā tālāk. Ar gaismas ātrumu AI izveido grafiku, pārbauda trūkumus un nosaka, kā visvieglāk ir pārliecināt. Kā izteicis eksistenciālo draudu teorētiķis Niks Bostroms, "mums jātic, ka superinteliģence var sasniegt visu, ko tā izvirza kā mērķi".
Snuffbox AI eksperiments rada šaubas par mūsu spēju kontrolēt to, ko mēs varētu radīt. Tas arī liek mums saprast diezgan dīvainās iespējas tam, ko mēs nezinām par savu realitāti.