Eliezer Shlomo Yudkovsky američki je specijalist za umjetnu inteligenciju, koji proučava probleme tehnološke singularnosti i zagovara stvaranje Prijateljskog AI-ja. Autor je nekoliko znanstvenofantastičnih priča u kojima ilustrira neke teme povezane s kognitivnom znanošću i racionalnošću.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografija
Eliezer Shlomo Yudkovsky jedan je od najaktivnijih racionalista moderne Amerike, računalni istraživač i popularizator ideje o "prijateljskoj umjetnoj inteligenciji".
Rođen je 11. rujna 1979. Suosnivač i istraživač nevladine istraživačke organizacije Institut za istraživanje strojne inteligencije, koja objavljuje njegove knjige. Eliezer Yudkovsky autor je filozofskog romana Harry Potter i metode racionalizma, objavljenog u dijelovima na Internetu između 2010. i 2015. godine. U njemu Harry odrasta u obitelji oksfordskog znanstvenika i prije putovanja u Hogwarts od njega uči metode racionalnog razmišljanja.
Koliko je poznato, ona nema veze s krugom "špekulativnih realista". Njegovo se ime često spominje u vezi s Robinom Hansonom, jer su nekoliko godina (od 2006. do 2009.) bili dva glavna autora bloga "Prevladavanje predrasuda", koji je postojao na novcu Instituta za buduće čovječanstvo u Oxfordu.
Ponekad se ime Yudkovsky može čuti u vezi s Raymondom Kurzweilom. On je filozofski predstavnik zajednice tehničara, nepristupačnog i nerazumljivog, tako većini humanitarne javnosti, kojoj pripadaju gotovo svi čitatelji špekulativnih realista. To i ne čudi, jer se često obraća logičkom i matematičkom jeziku, vjerojatnim i statističkim zaključcima, izložen pomoću formula i tablica.
Znanstveni interesi
Yudkovsky je suosnivač i istraživač Instituta za jedinstvo za umjetnu inteligenciju (SIAI). Dao je veliki doprinos u razvoju instituta. Autor je knjige "Stvaranje prijateljskih AI" (2001), članaka "Razine organizacije u općoj inteligenciji" (2002), "Koherentna ekstrapolirana volja" ("Koherentna ekstrapolirana volja", 2004) i Teorija bezvremenskih odluka (2010). Njegove posljednje znanstvene publikacije dva su članaka u zbirci „Rizici globalne katastrofe“ (2008) koju je uredio Nick Bostrom, naime, „Umjetna inteligencija kao pozitivan i negativan globalni faktor rizika“ i „Kognitivna distorzija u procjeni globalnih rizika“. Yudkovsky nije studirao na sveučilištima i auto-je didakt bez formalnog obrazovanja iz područja AI.
Yudkovsky istražuje AI nacrte koji su sposobni za samorazumijevanje, samo-modificiranje i rekurzivno samo-poboljšanje (Seed AI), kao i AI arhitekture koje će imati stabilnu i pozitivnu motivacijsku strukturu (Friendly Artificial Intelligence). Pored svog istraživačkog rada, Yudkovsky je poznat po objašnjenjima složenih modela na neakademskom jeziku, dostupnom širokom krugu čitatelja, primjerice pogledajte njegov članak „Intuitivno objašnjenje Bayesove teoreme“.
Yudkovsky je, zajedno s Robinom Hansonom, bio jedan od glavnih autora bloga Overcoming Bias (prevladavanje predrasuda). Početkom 2009. godine sudjelovao je u organizaciji bloga Less Wrong, čiji je cilj bio „razvoj ljudske racionalnosti i prevladavanje kognitivnih distorzija“. Nakon toga, Overward Bias postao je Hansonov osobni blog. Materijal predstavljen na tim blogovima organiziran je u obliku lanaca postova koji su privukli tisuće čitatelja - pogledajte, primjerice, lanac teorije zabave.
Yudkovsky je autor nekoliko priča o znanstvenoj fantastici u kojima ilustrira neke teme povezane s kognitivnom znanošću i racionalnošću.
karijera
- 2000. Yudkovsky osniva Institut za singularnost (kasnije preimenovan u MIRI).
- 2006. Yudkovsky se pridružuje kolektivnom blogu Overcoming Bias i počinje pisati tekstove koji su kasnije postali Lanci.
- 2009. Na temelju unosa Yudkovskog o Prevladavanju pristranosti, stvoren je poznati kolektivni blog LessWrong.com.
- 2010-2015. Yudkovsky piše GPiMRM.
- 2013. Yudkovsky objavljuje najnovije postove na LessWrong.com i prestaje pisati na web mjestu. Od 2017. godine Yudkovsky objavljuje većinu javno dostupnih tekstova na Facebooku i Arbitalu
Misaoni eksperiment
Zamislite nevjerojatno pametnu umjetnu superinteligenciju zaključanu u virtualnom svijetu - recimo, samo u gutljaju. Ne znate hoće li on biti zao, prijateljski ili neutralan. Sve što znate je da želi izaći iz okvira i da možete komunicirati s njim putem tekstualnog sučelja. Ako je AI stvarno superinteligentan, možete li razgovarati s njim pet sati i ne podlegnuti njegovom uvjeravanju i manipuliranju - da ne otvorim kutiju za paljenje?
Ovaj misaoni eksperiment predložio je Eliezer Yudkowsky, istraživač iz Instituta za inženjerski inženjering (MIRI). MIRI ima mnogo znanstvenika koji istražuju rizike razvoja umjetne superinteligence; iako se još nije pojavio, već privlači pažnju i potiče raspravu.
Yudkovsky tvrdi da umjetna superinteligencija može reći sve što može kako bi vas uvjerila: pažljivo rasuđivanje, prijetnje, prijevara, izgradnja odnosa, podsvjesni prijedlog i tako dalje. Brzina svjetlosti, AI gradi zaplet, provjerava slabosti i određuje kako vas je najlakše uvjeriti. Kao što je rekao teoretičar egzistencijalne prijetnje Nick Bostrom, "moramo vjerovati da superinteligencija može postići sve što postavi kao svoj cilj."
AI eksperiment snuffbox baca sumnju na našu sposobnost kontrole onoga što bismo mogli stvoriti. To nas također čini da shvatimo prilično bizarne mogućnosti onoga što ne znamo o vlastitoj stvarnosti.