Eliezer Shlomo Yudkovsky és un especialista nord-americà en intel·ligència artificial, que estudia els problemes de la singularitat tecnològica i defensa la creació d’una IA amable. És autor de diverses històries de ciència ficció en les quals il·lustra alguns temes relacionats amb la ciència cognitiva i la racionalitat.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografia
Eliezer Shlomo Yudkovsky és un dels racionalistes més actius de l'Amèrica moderna, investigador informàtic i popularitzador de la idea d '"intel·ligència artificial amable".
Nascut l'11 de setembre de 1979. Cofundador i investigador de l’Institut de recerca no governamental Institut de Recerca en Intel·ligència de Màquines, que publica els seus llibres. Eliezer Yudkovsky és l’autor de la novel·la filosòfica Harry Potter i els Mètodes del racionalisme, publicada a parts a Internet entre el 2010 i el 2015. En ella, Harry creix en la família d’un científic d’Oxford i, abans de viatjar a Hogwarts, aprèn d’ell els mètodes del pensament racional.
Pel que se sap, no té cap connexió amb el cercle de “realistes especulatius”. El seu nom s'esmenta sovint en relació amb Robin Hanson, durant diversos anys (del 2006 al 2009) van ser els dos autors principals del bloc "Superant el prejudici", que existia amb diners de l'Institut per a la futura humanitat d'Oxford.
De vegades es pot escoltar el nom de Yudkovsky en relació amb Raymond Kurzweil. És un representant filosòfic de la comunitat de tecnòlegs, inaccessible i incomprensible, per tant, per a la majoria del públic humanitari, al qual pertanyen gairebé tots els lectors de realistes especulatius. No és estrany, perquè sovint recorre al llenguatge lògic i matemàtic, conclusions probabilístiques i estadístiques, exposat mitjançant fórmules i taules.
Interessos científics
Yudkovsky és cofundador i investigador del Singularity Institute for Artificial Intelligence Institute (SIAI). Va fer una gran contribució al desenvolupament de l’institut. És l’autor del llibre "Creating AI AI" (2001), articles "Levels of Organisation in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) i La teoria de la decisió atemporal (2010). Les seves darreres publicacions científiques són dos articles de la col·lecció “Riscos d’una catàstrofe global” (2008) editada per Nick Bostrom, a saber, “Intel·ligència artificial com a factor de risc global positiu i negatiu” i “Distorsió cognitiva en l’avaluació dels riscos globals”. Yudkovsky no va estudiar a les universitats i és un autodidacta sense educació formal en el camp de la IA.
Yudkovsky explora dissenys de la IA que siguin capaços d’entendre, auto-modificar-se i auto-millorar recursivament (Seed AI), així com arquitectures d’IA que tindran una estructura de motivació estable i positiva (Intel·ligència Artificial Amable). A més del seu treball de recerca, Yudkovsky és conegut per les seves explicacions de models complexos en un llenguatge no acadèmic, accessible per a un ampli cercle de lectors, per exemple, vegeu el seu article "Una explicació intuïtiva del teorema de Bayes".
Yudkovsky, juntament amb Robin Hanson, va ser un dels principals autors del bloc de superació de prejudicis (superar prejudicis). A principis de 2009, va participar en l’organització del bloc Menys greus, dirigit a "desenvolupar la racionalitat humana i superar les distorsions cognitives". Després d'això, Superar Bias es va convertir en el bloc personal de Hanson. El material presentat en aquests blocs es va organitzar com a cadenes de publicacions que van atraure milers de lectors, vegeu, per exemple, la cadena de teoria de l'entreteniment.
Yudkovsky és l’autor de diverses històries de ciència ficció en les quals il·lustra alguns temes relacionats amb la ciència cognitiva i la racionalitat.
Carrera professional
- 2000. Yudkovsky funda l’Institut de Singularitat (més tard rebatejat com MIRI).
- 2006. Yudkovsky s’incorpora al bloc col·lectiu Superant Bias i comença a escriure textos que després es van convertir en Cadenes.
- 2009. A partir de les entrades de Yudkovsky a Superar el biaix, es crea el famós bloc col·lectiu LessWrong.com.
- 2010-2015. Yudkovsky escriu GPiMRM.
- 2013. Yudkovsky publica les darreres publicacions a LessWrong.com i deixa d’escriure al lloc. A partir del 2017, Yudkovsky publica la majoria dels textos a disposició pública a Facebook i Arbital
Experiment de pensament
Imagineu-vos una superintel·ligència artificial increïblement intel·ligent tancada en un món virtual, per exemple, només en un cafè de caixa. No saps si serà mig, amable o neutral. Tot el que sabeu és que vol sortir de la caixa i que podeu interactuar amb ell mitjançant una interfície de text. Si la IA és realment superintel·ligent, pot parlar amb ell durant cinc hores i no sucumbir a la seva persuasió i manipulació, no obrir el botó?
Aquest experiment de pensament va ser proposat per Eliezer Yudkowsky, investigador de l'Institut d'Enginyeria de Recerca d'Enginyeria (MIRI). MIRI té molts científics que estan explorant els riscos de desenvolupar la superintel·ligència artificial; tot i que encara no ha aparegut, encara crida l'atenció i genera un debat.
Yudkovsky sosté que la superintel·ligència artificial pot dir tot el que pot per convèncer-lo: raonament minuciós, amenaces, enganys, elaboració de relacions, suggeriment inconscient i així successivament. Amb la velocitat de la llum, la IA construeix una trama, sondeja punts febles i determina com és més fàcil convèncer-lo. Tal com va dir el teòric de l'amenaça existencial Nick Bostrom, "hem de creure que la superintel·ligència pot aconseguir tot allò que es fixa com a objectiu".
L’experiment AI de snuffbox posa en dubte la nostra capacitat de controlar el que podríem crear. També ens fa comprendre les possibilitats més aviat estranyes d’allò que desconeixem sobre la nostra pròpia realitat.