Eliezer Yudkowski: Biografija, Kreativnost, Karijera, Lični život

Sadržaj:

Eliezer Yudkowski: Biografija, Kreativnost, Karijera, Lični život
Eliezer Yudkowski: Biografija, Kreativnost, Karijera, Lični život

Video: Eliezer Yudkowski: Biografija, Kreativnost, Karijera, Lični život

Video: Eliezer Yudkowski: Biografija, Kreativnost, Karijera, Lični život
Video: Элиэзер Юдковски - Меньше ошибочных вопросов и ответов (30/30) 2024, Maj
Anonim

Eliezer Shlomo Yudkowski američki je stručnjak za umjetnu inteligenciju koji istražuje probleme tehnološke singularnosti i zalaže se za stvaranje prijateljske umjetne inteligencije. Autor je nekoliko priča o naučnoj fantastici u kojima ilustrira neke teme povezane s kognitivnom naukom i racionalnošću.

Eliezer Yudkowski
Eliezer Yudkowski

Eliezer Yudkowski: biografija

Eliezer Shlomo Yudkowsky jedan je od najaktivnijih racionalista moderne Amerike, istraživač računara i popularizator ideje o "prijateljskoj umjetnoj inteligenciji".

Rođen 11. septembra 1979. Suosnivač i istraživač na Institutu za istraživanje mašinske inteligencije, nevladinoj istraživačkoj organizaciji koja objavljuje njegove knjige. Eliezer Yudkowski autor je filozofskog romana Harry Potter and the Methods of Rationalism, koji je objavljen u dijelovima na Internetu od 2010. do 2015. godine. U njemu Harry odrasta u porodici oksfordskog naučnika i, prije nego što otputuje u Hogwarts, od njega uči metode racionalnosti.

Slika
Slika

Koliko nam je poznato, on nema nikakve veze sa krugom „spekulativnih realista“. Njegovo se ime često spominje u vezi s Robinom Hansonom, nekoliko godina (od 2006. do 2009.) bili su dva glavna autora bloga "Prevladavanje predrasuda", koji je financirao Institut za budućnost čovječanstva iz Oxforda.

Ponekad se ime Yudkowskog može čuti u vezi s Raymondom Kurzweilom. Filozofski je predstavnik tehno-geekove zajednice, nepristupačan i nerazumljiv, dakle, većini humanitarne javnosti, kojoj pripadaju gotovo svi čitatelji spekulativnih realista. Nije iznenađujuće, jer se često obraća logičko-matematičkom jeziku, vjerojatnosnim i statističkim zaključcima, izloženim pomoću formula i tablica.

Naučni interesi

Yudkowski je suosnivač i saradnik na Institutu za umjetnu inteligenciju Singularity (SIAI). Dao je veliki doprinos razvoju instituta. Autor je knjige "Stvaranje prijateljske inteligencije" (2001.), članaka "Nivoi organizacije u opštoj inteligenciji" (2002.), "Koherentna ekstrapolirana volja" 2004.) i bezvremenske teorije odlučivanja (2010.) Njegova najnovija naučna izdanja su dva članka u Rizicima od globalne katastrofe (2008) koji je uredio Nick Bostrom, i to „Umjetna inteligencija kao pozitivan i negativan faktor globalnog rizika“i „Kognitivna pristranost u procjeni globalnih rizika“. Yudkovsky nije studirao na univerzitetima i autodidakt je bez formalnog obrazovanja u oblasti AI.

Yudkowsky istražuje one AI konstrukte koji su sposobni za samorazumijevanje, samo-modificiranje i rekurzivno samo-poboljšanje (Seed AI), kao i one AI arhitekture koje će imati stabilnu i pozitivnu strukturu motivacije (Friendly umjetna inteligencija). Pored svog istraživačkog rada, Yudkowski je poznat po svojim objašnjenjima složenih modela na neakademskom jeziku dostupnom širokom krugu čitatelja, na primjer, pogledajte njegov članak Intuitivno objašnjenje Bayesove teoreme.

Yudkowski je, zajedno s Robinom Hansonom, bio jedan od glavnih autora bloga Overcoming Bias. Početkom 2009. godine osnovao je blog Less Wrong, čiji je cilj "razviti ljudsku racionalnost i prevladati kognitivne pristranosti". Nakon toga, Prevladavanje pristranosti postalo je Hansonov lični blog. Materijal predstavljen na ovim blogovima organiziran je u poštanskim lancima koji su privukli hiljade čitatelja - pogledajte, na primjer, nit "teorije zabave".

Yudkowsky je autor nekoliko priča o znanstvenoj fantastici u kojima ilustrira neke teme povezane s kognitivnom znanošću i racionalnošću.

Slika
Slika

Karijera

  • 2000. Yudkowski osniva Institut za singularnost (kasnije preimenovan u MIRI).
  • 2006. Yudkowski se pridružuje kolektivnom blogu Overcoming Bias i počinje pisati tekstove koji su kasnije postali "Lanci".
  • 2009. Na osnovu objava Yudkowskog o Prevladavanju pristranosti, stvoren je poznati kolektivni blog LessWrong.com.
  • 2010-2015. Yudkovsky piše GPiMRM.
  • 2013. Yudkowski objavljuje posljednje postove na LessWrong.com i prestaje pisati na web mjestu. Od 2017. godine Yudkowski objavljuje većinu javno dostupnih tekstova na Facebooku i Arbitalu

Misaoni eksperiment

Zamislite neverovatno inteligentnu veštačku superinteligenciju zarobljenu u virtuelnom svetu - recimo, samo burmuticu. Ne znate hoće li biti zao, prijateljski ili neutralan. Sve što znate je da želi izaći iz burmutice i da možete s njim komunicirati putem tekstualnog sučelja. Ako je AI zaista superinteligentan, hoćete li moći razgovarati s njim pet sati i ne podleći njegovom nagovaranju i manipulaciji - da ne otvorite burmuticu?

Ovaj misaoni eksperiment predložio je Eliezer Yudkowski, istraživač sa Instituta za istraživanje mašinstva (MIRI). Mnogi naučnici u MIRI istražuju rizike od razvoja umjetne superinteligencije; iako se još nije ni pojavio, već privlači pažnju i podstiče raspravu.

Yudkowsky tvrdi da umjetna superinteligencija može reći sve što može da vas ubijedi: pažljivo rasuđivanje, prijetnje, obmana, izgradnja odnosa, podsvjesna sugestija i tako dalje. Brzinom svjetlosti, AI gradi priču, ispituje slabosti i određuje najlakši način da vas uvjeri. Kao što je rekao teoretičar egzistencijalne prijetnje Nick Bostrom, "moramo pretpostaviti da superinteligencija može postići sve što zacrta."

Analitički eksperiment sa burmutom stvara sumnje u našu sposobnost da kontroliramo ono što bismo mogli stvoriti. Također nas tjera da konceptualiziramo prilično bizarne mogućnosti onoga što ne znamo o vlastitoj stvarnosti.

Slika
Slika

Članci na ruskom

E. Yudkovsky. Sistematske greške u obrazloženju, koje mogu uticati na procjenu globalnih rizika. E. Yudkovsky. Umjetna inteligencija kao pozitivan i negativan faktor globalnog rizika. E. Yudkovsky. Zavirivanje u Singularnost. E. Yudkovsky. Tabela kritičnih grešaka AI. E. Yudkovsky. Tri škole singularnosti. E. Yudkovsky. Organizacijski nivoi univerzalne inteligencije.

Preporučuje se: