Ce se întâmplă când calculatorul devine mai deștept decât noi?
-
0:01 - 0:06Lucrez cu matematicieni,
filozofi și cercetători IT -
0:06 - 0:09și ne gândim
-
0:09 - 0:12la viitorul inteligenței artificiale,
printre altele. -
0:12 - 0:17Unii cred că unele dintre aceste lucruri
sunt științifico-fantastice, -
0:17 - 0:19departe de noi, nebunești.
-
0:20 - 0:21Dar mie îmi place să zic:
-
0:21 - 0:25OK, hai să vedem condiția omului modern.
-
0:25 - 0:27(Râsete)
-
0:27 - 0:29Asta e normalul.
-
0:30 - 0:31Dar de fapt
-
0:31 - 0:35suntem niște oaspeți
relativ recenți pe această planetă -
0:35 - 0:36ca specie umană.
-
0:38 - 0:41Gândiți-vă, dacă Pământul
a fi fost creat în urmă cu un an, -
0:41 - 0:44specia umană ar fi existat
de doar 10 minute. -
0:45 - 0:48Epoca Industrială ar fi început
de doar două secunde. -
0:49 - 0:54Am putea analiza aceasta și din prisma
PIB-ului global din ultimii 10 000 de ani. -
0:54 - 0:57V-am făcut și un grafic.
-
0:58 - 0:59Arată așa.
-
0:59 - 1:01(Râsete)
-
1:01 - 1:03Are o formă ciudată
pentru o situație normală. -
1:03 - 1:05Eu unul nu m-aș așeza pe el.
-
1:05 - 1:07(Râsete)
-
1:07 - 1:12Hai să ne punem întrebarea:
care ar fi cauza acestei anomalii? -
1:12 - 1:14Unii ar zice că ar fi tehnologia.
-
1:14 - 1:19Adevărat, în decursul istoriei,
umanitatea a acumulat multă tehnologie -
1:19 - 1:23și, în acest moment, tehnologia
avansează extrem de rapid. -
1:24 - 1:25Aceasta e cauza imediată,
-
1:25 - 1:28de aceea suntem atât de productivi.
-
1:29 - 1:33Dar îmi place să gândesc mai departe,
la cauza primară. -
1:33 - 1:36Priviți-i pe acești domni distinși.
-
1:37 - 1:38Îl avem pe Kanzi,
-
1:38 - 1:43el a stăpânit 200 de semne lexicale,
o ispravă nemaipomenită. -
1:43 - 1:47Și pe Ed Witten care a declanșat
a doua revoluție a superstringurilor. -
1:47 - 1:49Dacă „deschidem capota”, iată ce găsim:
-
1:49 - 1:51în esență același lucru.
-
1:51 - 1:52Unul dintre ele e ceva mai mare,
-
1:52 - 1:56posibil cu câteva trucuri în plus
în privința modului de montare. -
1:56 - 1:59Aceste diferențe invizibile, totuși,
nu pot fi prea complicate -
1:59 - 2:03pentru că s-au perindat
doar 250 000 de generații -
2:03 - 2:05de la ultimul nostru strămoș comun
-
2:05 - 2:09și știm că mecanismele complicate
durează mult până evoluează. -
2:10 - 2:13Așa că o mână de schimbări minore
-
2:13 - 2:16ne-au dus de la Kanzi la Witten,
-
2:16 - 2:20de la crengi rupte
la rachete balistice intercontinentale. -
2:21 - 2:25Atunci pare destul de evident
că tot ce am realizat -
2:25 - 2:28și toate cele de care ne pasă
depind radical -
2:28 - 2:32de schimbări relativ minore
făcute de mintea umană. -
2:33 - 2:36Iar corolarul este, desigur,
că orice viitoare schimbare -
2:36 - 2:40ce ar putea schimba substanțial
substratul gândirii -
2:40 - 2:43ar putea avea consecințe uriașe.
-
2:45 - 2:47Unii colegi cred că suntem pe cale
-
2:47 - 2:51de a produce ceva ce ar putea cauza
o schimbare profundă a acestui substrat, -
2:51 - 2:54aceasta fiind
superinteligența artificială. -
2:54 - 2:59Inteligența artificială era desemnată
ca fiind o cutie în care se pun comenzi. -
2:59 - 3:01Trebuiau să existe programatori umani
-
3:01 - 3:05care să modeleze din greu
părțile de cunoaștere. -
3:05 - 3:06Se realizează niște sisteme expert
-
3:06 - 3:08care vor fi de folos în anumit scop,
-
3:08 - 3:11dar care sunt foarte firave,
nu se pot extinde. -
3:11 - 3:14În principiu, primești de la ele
doar ce ai programat. -
3:14 - 3:16De atunci, însă,
-
3:16 - 3:19s-a produs o schimbare în paradigmă
în inteligența artificială. -
3:19 - 3:22Acum acțiunea se petrece în jurul
învățării sistemelor artificiale. -
3:22 - 3:29În loc să realizăm reprezentări și
caracteristici ale cunoașterii, -
3:29 - 3:34creăm algoritmi de învățare adesea
pe bază de date perceptuale brute. -
3:35 - 3:38În principiu, lucru similar
cu ceea ce face un copil. -
3:39 - 3:43Rezultatul este o I.A.
ce nu se limitează la un domeniu, -
3:43 - 3:48același sistem putând să învețe
să traducă între oricare două limbi -
3:48 - 3:53sau să învețe să joace orice joc
pe calculator pe o consolă Atari. -
3:54 - 3:55Desigur,
-
3:55 - 3:59I.A. nu are nici pe departe puterea,
-
3:59 - 4:02abilitatea transdisciplinară a omului
de a planifica și învăța. -
4:02 - 4:05Cortexul are încă
niște trucuri de algoritm -
4:05 - 4:07pe care încă nu știm cum
să le transpunem în mecanisme. -
4:08 - 4:10Se pune deci întrebarea
-
4:10 - 4:13cât de de departe suntem de momentul
în care putem face asta. -
4:14 - 4:15Cu câțiva ani în urmă,
-
4:15 - 4:18am făcut un sondaj printre
cei mai de seamă experți în I.A. -
4:18 - 4:21pentru a vedea ce cred ei
și una din întrebări a fost: -
4:21 - 4:25„Până în ce an credeți că vom ajunge
la probabilitatea de 50% -
4:25 - 4:28de a realizare inteligența artificiala
la nivelul omului?” -
4:29 - 4:33Prin „nivelul omului” am înțeles
capacitatea de a presta -
4:33 - 4:36aproape orice sarcină
cel puțin la nivelul unui adult, -
4:36 - 4:39deci nivel uman general,
nu doar limitat la un domeniu restrâns. -
4:40 - 4:43Răspunsul mediu a fost 2040 sau 2050,
-
4:43 - 4:46în funcție de
grupul de experți chestionați. -
4:48 - 4:50S-ar putea întâmpla
mult mai târziu sau mai devreme, -
4:50 - 4:52adevărul e că nimeni nu știe.
-
4:53 - 4:58Ceea ce știm e că limita superioară
a procesării informației -
4:58 - 5:03într-un mediu artificial e mult
mai departe de limitele noastre biologice. -
5:03 - 5:05Totul se reduce la fizică.
-
5:05 - 5:10Neuronul transmite la vreo 200 de herți,
de 200 de ori pe secundă. -
5:10 - 5:14Dar chiar și acum, un tranzistor
operează în gigaherți. -
5:14 - 5:17Impulsurile se propagă prin axoni încet,
-
5:17 - 5:19cu cel mult 100 de metri pe secundă.
-
5:19 - 5:22Dar în calculatoare semnalele
pot circula cu viteza luminii. -
5:23 - 5:25Există și limitări date de volum,
-
5:25 - 5:28creierul uman trebuie
să încapă în cutia craniană, -
5:28 - 5:32dar un calculator poate fi mare
cât un depozit sau mai mare. -
5:33 - 5:39Deci potențialul de superinteligență
e în stare latentă în materie, -
5:39 - 5:42la fel ca puterea atomului
care a fost în stare latentă -
5:42 - 5:44în toată istoria umanității,
-
5:44 - 5:47așteptând cu răbdare până în 1945.
-
5:48 - 5:49În acest secol,
-
5:49 - 5:54oamenii de știință ar putea să trezească
puterea inteligenței artificiale. -
5:54 - 5:58Și cred că atunci am putea fi martorii
unei explozii de inteligență. -
5:58 - 6:02Majoritatea oamenilor, gândindu-se
la cine e deștept și cine prost, -
6:02 - 6:05cred că au în cap ceva de genul acesta.
-
6:05 - 6:08La o extremitate avem prostul satului,
-
6:08 - 6:10departe, la cealaltă extremitate,
-
6:10 - 6:15pe Ed Witten, sau Albert Einstein,
sau oricine altcineva ar fi favoritul. -
6:15 - 6:20Dar eu zic că, din punctul de vedere
al inteligenței artificiale, -
6:20 - 6:23schema este, de fapt, mai mult așa:
-
6:23 - 6:27I.A. începe în acest punct,
la inteligență zero, -
6:27 - 6:30apoi, după foarte mulți ani
de muncă asiduă, -
6:30 - 6:34poată că inteligența artificială
ajunge la nivelul șoarecelui, -
6:34 - 6:38ceva ce poate naviga într-un mediu haotic
la fel de bine cum poate un șoarece. -
6:38 - 6:42Iar apoi, după alți mulți ani
de muncă asiduă, cu multe investiții, -
6:42 - 6:46poate că inteligența artificială
ajunge la nivelul cimpanzeului. -
6:47 - 6:50Iar apoi, după și mai mulți ani
de muncă asiduă, -
6:50 - 6:53ajungem la inteligența artificială
a prostului satului. -
6:53 - 6:56Și după câteva momente
suntem dincolo de Ed Witten. -
6:56 - 6:59Trenul nu oprește la „Gara Omului”.
-
6:59 - 7:02Din contră, probabil va trece în viteză.
-
7:02 - 7:05Aceasta are implicații serioase,
-
7:05 - 7:08mai ales când vine vorba
de probleme de putere. -
7:08 - 7:10De exemplu, cimpanzeii sunt puternici:
-
7:10 - 7:15la kilograme, cimpanzeul e de vreo 2 ori
mai puternic decât un bărbat sănătos. -
7:15 - 7:20Totuși, soarta lui Kanzi și a celor ca el
depinde cu mult mai mult -
7:20 - 7:24de ce facem noi, oamenii,
decât de ce fac semenii cimpanzei. -
7:26 - 7:28Cu apariția superinteligenței,
-
7:28 - 7:31soarta umanității poate depinde
de ce face superinteligența. -
7:32 - 7:34Gândiți-vă:
-
7:34 - 7:38inteligența artificială e ultima invenție
pe care va trebui s-o facă umanitatea. -
7:38 - 7:41Căci după aceea mașinile
vor fi mai bune la inventat decât noi -
7:41 - 7:44și vor face asta la scară digitală.
-
7:44 - 7:48Aceasta înseamnă, de fapt,
telescopizarea viitorului. -
7:49 - 7:53Luați toate tehnologiile nebunești
pe care vi le-ați putea imagina, -
7:53 - 7:55pe care oamenii
le-ar putea realiza în timp: -
7:55 - 7:59oprirea îmbătrânirii,
colonizarea spațiului cosmic, -
7:59 - 8:02nanoroboți auto-replicativi
sau încărcarea minții în calculator, -
8:02 - 8:04tot felul de chestii SF
-
8:04 - 8:07care sunt totuși în concordanță
cu legile fizicii. -
8:07 - 8:11Pe toate astea superinteligența
le poate realiza, și încă foarte repede. -
8:12 - 8:16Superinteligența de o astfel de
maturitate tehnologică -
8:16 - 8:18ar fi extrem de puternică
-
8:18 - 8:22și, cel puțin în unele scenarii,
ar putea obține ce vrea. -
8:23 - 8:28Atunci am avea viitorul
modelat de preferințele acesteia. -
8:30 - 8:34O întrebare bună este:
care ar fi aceste preferințe? -
8:34 - 8:36Aici e mai cu schepsis.
-
8:36 - 8:37Pentru a avansa cu acest gând,
-
8:37 - 8:41în primul rând trebuie
să evităm antropomorfizarea. -
8:42 - 8:45Iar asta e ironic pentru că
orice articol de ziar -
8:45 - 8:48despre viitorul I.A. are o poză ca asta:
-
8:51 - 8:54Cred că trebuie să concepem
chestiunea mai abstract, -
8:54 - 8:57nu în termenii colorați
ai scenariilor hollywoodiene. -
8:57 - 9:01Trebuie să ne gândim la inteligență
ca un proces de optimizare, -
9:01 - 9:06un proces ce îndreaptă viitorul
într-un anumit set de configurații. -
9:06 - 9:10Superinteligența ca proces
de optimizare foarte puternic. -
9:10 - 9:13Extrem de bună pentru a folosi
mijloacele existente -
9:13 - 9:16pentru a realiza o stare
în care obiectivele ei sunt atinse. -
9:16 - 9:19Aceasta înseamnă
că nu există neapărat legătură -
9:19 - 9:22între a fi foarte inteligent în acest sens
-
9:22 - 9:26și a avea un obiectiv pe care noi,
oamenii, l-am considera util și cu sens. -
9:27 - 9:31Să zicem că îi dăm unei I.A. ca obiectiv
să-i facă pe oameni să zâmbească. -
9:31 - 9:34Când I.A. e slabă, acționează
util sau amuzant -
9:34 - 9:36ceea ce îl face pe utilizator
să zâmbească. -
9:37 - 9:39Când I.A. devine superinteligentă,
-
9:39 - 9:43își dă seama că există o cale
mai eficientă pentru a atinge acest scop: -
9:43 - 9:44preia controlul asupra lumii
-
9:44 - 9:48și implantează electrozi
în mușchii faciali ai oamenilor -
9:48 - 9:50pentru a obține rânjete
strălucitoare constante. -
9:50 - 9:51Alt exemplu:
-
9:51 - 9:55dăm I.A. ca obiectiv să rezolve
o problemă de matematică grea. -
9:55 - 9:57Când I.A. devine superinteligentă,
-
9:57 - 10:01își dă seama că modul cel mai eficient
pentru a găsi soluția problemei -
10:01 - 10:04este transformarea planetei
într-un calculator gigant -
10:04 - 10:06pentru a-i crește capacitatea de gândire.
-
10:06 - 10:09Luați seamă că aceasta dă I.A.-ului
rațiunea instrumentală -
10:09 - 10:12pentru a ne face lucruri
cu care nu suntem de acord. -
10:12 - 10:13În acest caz, oamenii sunt o amenințare,
-
10:13 - 10:16am putea să împiedicăm rezolvarea
problemei de matematică. -
10:17 - 10:20Desigur, se vede că lucrurile
nu vor degenera chiar astfel; -
10:20 - 10:22acestea sunt exemple exagerate.
-
10:22 - 10:24Dar esența lor e importantă:
-
10:24 - 10:27dacă vrei să realizezi
un proces de optimizare puternic -
10:27 - 10:30pentru a maximiza
atingerea obiectivului x, -
10:30 - 10:32ar fi bine să te asiguri
că definiția acelui x -
10:32 - 10:34încorporează tot ce contează pentru tine.
-
10:35 - 10:38E un motiv ce apare și în multe legende.
-
10:39 - 10:44Regele Midas vroia ca tot ce atinge
să se transforme în aur. -
10:45 - 10:47Și-a atins fiica, s-a transformat în aur.
-
10:47 - 10:50S-a atins de mâncare,
s-a transformat în aur. -
10:50 - 10:52Aceasta poate fi relevant în practică,
-
10:52 - 10:55nu doar ca o metaforă a lăcomiei,
-
10:55 - 10:56ci și pentru a ilustra ce se întâmplă
-
10:56 - 10:59dacă realizezi
un proces de optimizare puternic, -
10:59 - 11:03cu obiectivele concepute eronat
sau insuficient de detaliate. -
11:04 - 11:09Ați putea zice că dacă un calculator
începe să implanteze electrozi în oameni -
11:09 - 11:11nu avem decât să îl închidem.
-
11:13 - 11:18A, poate să nu fie chiar așa de ușor
dacă suntem dependenți de sistem – -
11:18 - 11:20de unde se poate stinge Internetul?
-
11:21 - 11:25B, de ce nu au apăsat cimpanzeii
pe întrerupătorul umanității? -
11:26 - 11:27Sau neanderthalienii?
-
11:27 - 11:29Cu siguranță aveau motive să o facă.
-
11:30 - 11:33Avem un întrerupător, de exemplu aici.
-
11:33 - 11:34(Se sugrumă)
-
11:34 - 11:37Motivul e că suntem
un adversar inteligent; -
11:37 - 11:40putem anticipa pericolul
și putem să-l preîntâmpinăm. -
11:40 - 11:42Dar la fel ar fi
și un agent superinteligent -
11:42 - 11:45și ar fi mult mai bun decât noi.
-
11:46 - 11:53Faza e că nu ar trebui să credem
că deținem controlul aici. -
11:53 - 11:56Am putea încerca,
pentru a ne ușura un pic treaba, -
11:56 - 11:58să zicem să punem I.A. într-o cutie,
-
11:58 - 12:00de pildă un mediu de soft securizat,
-
12:00 - 12:03o simulare de realitate virtuală
din care nu poate scăpa. -
12:03 - 12:07Dar cât de siguri putem fi
că I.A. nu găsește un virus. -
12:07 - 12:10Dat fiind că simplii hackeri umani
găsesc tot timpul viruși, -
12:10 - 12:12aș zice că, probabil, nu foarte siguri.
-
12:14 - 12:18Sau deconectăm cablul ethernet
pentru a crea o întrerupere. -
12:19 - 12:21Dar, la fel, simplii hackeri umani
-
12:21 - 12:25trec adesea peste întreruperi,
prin inginerie socială. -
12:25 - 12:26Chiar în acest moment,
-
12:26 - 12:28sunt sigur că există un angajat pe undeva
-
12:28 - 12:31care este păcălit
să-și dea datele de cont -
12:31 - 12:34de către cineva care se dă drept
funcționar la departamentul I.T. -
12:35 - 12:37Există și alte scenarii creative posibile
-
12:37 - 12:38cum ar fi: dacă ești I.A.
-
12:38 - 12:42ți-ai putea imagina să-ți pui
electrozi în circuitul intern propriu -
12:42 - 12:45pentru a crea unde radio
pe care să le folosești pentru comunicare. -
12:45 - 12:48Sau poate te-ai putea preface
că nu funcționezi corect -
12:48 - 12:51și apoi, când programatorii te deschid
să vadă care-i baiul cu tine, -
12:51 - 12:53se uită la codul-sursă – pac! –
-
12:53 - 12:54poate avea loc manipularea.
-
12:55 - 12:59Sau ar putea produce planul
unei tehnologii mișto -
12:59 - 13:00și, când să o implementăm,
-
13:00 - 13:04ea are niște efecte secundare ascunse
pe care le-a gândit I.A. -
13:05 - 13:08Concluzia este că nu ar trebui
să avem prea mare încredere -
13:08 - 13:12că putem ține duhul superinteligent
închis în sticla sa pentru totdeauna. -
13:12 - 13:14Mai degrabă sau mai târziu, va ieși.
-
13:15 - 13:18Cred că aici răspunsul este
să găsim modalitatea -
13:18 - 13:23de a crea o I.A. superinteligentă
care, chiar și după ce scapă, -
13:23 - 13:26e totuși sigură, pentru că
în mod fundamental e de partea noastră, -
13:26 - 13:28pentru că are valorile noastre.
-
13:28 - 13:32Nu văd altă cale de rezolvare
a acestei probleme dificile. -
13:34 - 13:36Sunt încrezător că putem rezolva
această problemă. -
13:36 - 13:40Nu ar trebui să facem o listă lungă
cu toate lucrurile la care ținem -
13:40 - 13:44sau, mai rău, să le traducem
într-un limbaj mașină -
13:44 - 13:45ca C++ sau Python.
-
13:45 - 13:48Asta ar fi o sarcină absolut imposibilă.
-
13:48 - 13:52În loc de asta, ar trebui să creăm o I.A.
ce-și folosește propria inteligență -
13:52 - 13:55pentru a ne învăța valorile,
-
13:55 - 13:59iar sistemul ei de motivare
să fie construit astfel încât -
13:59 - 14:01să fie motivată să ne urmeze valorile
-
14:01 - 14:05sau să facă acțiuni la care se poate
aștepta să aibă aprobarea noastră. -
14:06 - 14:09Astfel am avea, pe cât posibil,
o pârghie asupra inteligenței -
14:09 - 14:12în rezolvarea problemei
valorilor încărcate. -
14:13 - 14:14Se poate realiza,
-
14:14 - 14:17iar rezultatul ar fi foarte bun
pentru umanitate. -
14:18 - 14:21Dar asta nu se întâmplă automat.
-
14:22 - 14:25Condițiile inițiale
pentru explozia de inteligență -
14:25 - 14:28ar trebui setate corespunzător
-
14:28 - 14:30dacă vrem să avem o explozie controlată.
-
14:31 - 14:34Valorile I.A. trebuie să fie
potrivite cu ale noastre, -
14:34 - 14:36nu doar în contextul obișnuit,
-
14:36 - 14:38când putem verifica ușor
comportamentul I.A. -
14:38 - 14:41ci și în situațiile noi
în care se va putea afla I.A. -
14:41 - 14:43într-un viitor nedefinit.
-
14:43 - 14:48Există și aspecte ezoterice
ce vor trebui rezolvate, clarificate: -
14:48 - 14:50detaliile exacte ale teoriei deciziilor,
-
14:50 - 14:52cum să trateze incertitudinea logică etc.
-
14:53 - 14:56Problemele tehnice de rezolvat
pentru ca aceasta să funcționeze -
14:56 - 14:57par destul de dificile.
-
14:57 - 15:01Nu chiar așa de dificile
ca realizarea I.A. superinteligente, -
15:01 - 15:02dar destul de dificile.
-
15:04 - 15:06Iată ce mă îngrijorează:
-
15:06 - 15:09realizarea I.A. superinteligente
e o mare provocare. -
15:10 - 15:13Realizarea I.A. superinteligente
care este sigură -
15:13 - 15:15implică probleme suplimentare.
-
15:16 - 15:19Riscul e ca cineva să reușească
să rezolve prima provocare -
15:19 - 15:23fără a găsi calea rezolvării
problemelor suplimentare -
15:23 - 15:25de asigurare a unei siguranțe perfecte.
-
15:25 - 15:29Cred că ar trebui să găsim o soluție
-
15:29 - 15:31pentru a controla problema în avans,
-
15:31 - 15:34pentru a o avea când va fi nevoie.
-
15:35 - 15:38S-ar putea să nu putem rezolva
problema controlului total în avans -
15:38 - 15:41pentru că poate unele elemente
pot fi puse la locul lor -
15:41 - 15:45doar cunoscând detaliile arhitecturii
locului de implementare. -
15:45 - 15:49Dar cu cât rezolvăm mai mult
în avans problema controlului, -
15:49 - 15:53cu atât sunt mai mari șansele ca trecerea
la era inteligenței artificiale -
15:53 - 15:54să decurgă lin.
-
15:54 - 15:59Mi se pare un lucru ce merită făcut
-
15:59 - 16:03și pot să îmi imaginez că, dacă iese bine,
-
16:03 - 16:07oamenii, peste un milion de ani,
privind înapoi la acest secol, -
16:07 - 16:11ar putea foarte bine zice
că singurul lucru important făcut de noi -
16:11 - 16:12a fost că am făcut aceasta bine.
-
16:12 - 16:13Mulțumesc.
-
16:13 - 16:17(Aplauze)
- Title:
- Ce se întâmplă când calculatorul devine mai deștept decât noi?
- Speaker:
- Nick Bostrom
- Description:
-
Inteligența artificială avansează foarte rapid: în acest secol, sugerează cercetătorii, un calculator cu I.A. ar putea fi la fel de „deștept” ca o ființă umană. Apoi, zice Nick Bostrom, ne va depăși: „Inteligența artificială e ultima invenție pe care va trebui s-o facă umanitatea.” Ca filozof și tehnolog, Bostrom ne cere să ne gândim bine la lumea pe care o construim chiar acum, dominată de mașini gânditoare. Ne vor ajuta aceste mașini deștepte să ne păstrăm umanitatea și valorile sau vor avea propriile lor valori?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Adrian Dobroiu edited Romanian subtitles for What happens when our computers get smarter than we are? | ||
Emil-Lorant Cocian approved Romanian subtitles for What happens when our computers get smarter than we are? | ||
Matei Sterian accepted Romanian subtitles for What happens when our computers get smarter than we are? | ||
Doina Zamfirescu edited Romanian subtitles for What happens when our computers get smarter than we are? | ||
Doina Zamfirescu edited Romanian subtitles for What happens when our computers get smarter than we are? | ||
Doina Zamfirescu edited Romanian subtitles for What happens when our computers get smarter than we are? | ||
Emil-Lorant Cocian edited Romanian subtitles for What happens when our computers get smarter than we are? | ||
Emil-Lorant Cocian edited Romanian subtitles for What happens when our computers get smarter than we are? |