Putem crea Inteligență Artificială fără să o scăpăm de sub control?
-
0:01 - 0:03Voi vorbi despre o greșeală de intuiție
-
0:03 - 0:05de care mulți dintre noi suferim.
-
0:05 - 0:09E greșeala de a detecta
un anumit tip de pericol. -
0:09 - 0:11Voi descrie un scenariu
-
0:11 - 0:14care cred că e înfricoșător
-
0:14 - 0:16și probabil să se întâmple,
-
0:17 - 0:19iar asta nu e o combinație bună
-
0:19 - 0:20după cum se pare.
-
0:20 - 0:23Totuși, în loc să fiți speriați,
majoritatea dintre voi -
0:23 - 0:25vor considera că e interesant.
-
0:25 - 0:28Voi descrie cum progresele
pe care le facem -
0:28 - 0:30în inteligența artificială (IA)
-
0:30 - 0:32ne-ar putea distruge în final.
-
0:32 - 0:35De fapt, cred că e foarte greu
să vedem cum nu ne vor distruge -
0:35 - 0:37sau să ne inspire să ne distrugem.
-
0:37 - 0:39Dar dacă sunteți ca mine,
-
0:39 - 0:42veți crede că e amuzant
să te gândești la astfel de lucruri. -
0:42 - 0:45Acest răspuns e parte din problemă.
-
0:45 - 0:48Această reacție
ar trebui să vă îngrijoreze. -
0:48 - 0:51Dacă v-aș convinge cu discursul meu
-
0:51 - 0:54că ar fi probabil
să suferim o foamete globală, -
0:54 - 0:57fie din cauza schimbării climatice
ori a altei catastrofe, -
0:57 - 1:01și că nepoții voștri sau nepoții lor
-
1:01 - 1:02foarte probabil vor trăi așa,
-
1:03 - 1:04nu v-ați gândi:
-
1:05 - 1:07„Interesant.
-
1:07 - 1:08Îmi place discursul ăsta.”
-
1:09 - 1:11Foametea nu e amuzantă.
-
1:12 - 1:15Moartea cauzată de science-fiction,
pe de altă parte, e amuzantă, -
1:15 - 1:19iar ce mă îngrijorează cel mai mult
despre dezvoltarea IA în prezent -
1:19 - 1:23e că părem incapabili să avem
o reacție emoțională adecvată -
1:23 - 1:25pentru pericolului din fața noastră.
-
1:25 - 1:28Eu nu pot avea un răspuns adecvat,
și țin acest discurs. -
1:30 - 1:33E ca și cum am avea două uși în față.
-
1:33 - 1:34În spatele primei uși
-
1:34 - 1:37încetăm să progresăm
în construirea mașinăriilor inteligente. -
1:37 - 1:41Software-ul și hardware-ul
nu se mai îmbunătățesc. -
1:41 - 1:44Acum gândiți-vă de ce s-ar întâmpla asta.
-
1:45 - 1:49Știind cât de importante sunt
inteligența și automatizarea, -
1:49 - 1:52vom continua să îmbunătățim
tehnologia cât putem. -
1:53 - 1:55Ce ne-ar opri să facem asta?
-
1:56 - 1:58Un război nuclear la scară mare?
-
1:59 - 2:01O pandemie globală?
-
2:02 - 2:04Un impact cu un asteroid?
-
2:06 - 2:08Justin Bieber devenind președintele SUA?
-
2:08 - 2:11(Râsete)
-
2:13 - 2:17Ideea e că ceva ar trebui să distrugă
civilizația pe care o știm noi. -
2:17 - 2:22Imaginați-vă cât de rău ar trebui să fie
-
2:22 - 2:25încât să ne împiedice să mai facem
îmbunătățiri în tehnologie -
2:25 - 2:26permanent,
-
2:26 - 2:28generație după generație.
-
2:28 - 2:31Aproape prin definiție,
ăsta e cel mai rău lucru -
2:31 - 2:33care s-a întâmplat în istoria umană.
-
2:33 - 2:34Deci singura alternativă,
-
2:34 - 2:36și asta e după a doua ușă,
-
2:36 - 2:39e să îmbunătățim în continuare
mașinăriile inteligente -
2:39 - 2:41an după an după an.
-
2:42 - 2:45La un moment dat, vom construi
mașinării mai inteligente decât noi -
2:46 - 2:49și odată ce avem mașinării
mai inteligente decât noi, -
2:49 - 2:51ele vor începe să se îmbunătățească.
-
2:51 - 2:53Apoi există riscul
numit de matematicianul IJ Good -
2:53 - 2:55o „explozie de inteligență”,
-
2:55 - 2:57procesul ne-ar putea scăpa de sub control.
-
2:58 - 3:01Scenariul ăsta e caricaturizat adesea
-
3:01 - 3:04ca o frică față de o armată
de roboți răzbunători -
3:04 - 3:05care ne vor ataca.
-
3:05 - 3:08Dar nu ăsta e scenariul cel mai probabil.
-
3:08 - 3:13Mașinăriile noastre
nu vor deveni brusc răzbunătoare. -
3:13 - 3:16Îngrijorarea e că vom construi mașinării
-
3:16 - 3:18care sunt mult mai competente decât noi
-
3:18 - 3:22astfel că cea mai mică divergență
între scopurile lor și ale noastre -
3:22 - 3:23ne-ar putea distruge.
-
3:24 - 3:26Gândiți-vă cum ne purtăm cu furnicile.
-
3:27 - 3:28Nu le urâm.
-
3:28 - 3:30Nu ne străduim să le rănim.
-
3:30 - 3:33De fapt, uneori ne străduim
să nu le rănim. -
3:33 - 3:35Le ocolim pe trotuar.
-
3:35 - 3:37Dar oricând prezența lor
-
3:37 - 3:39intră în conflict cu un scop de-al nostru,
-
3:39 - 3:42să zicem să construim o clădire ca asta,
-
3:42 - 3:44le anihilăm fără remușcări.
-
3:44 - 3:47Îngrijorarea e că într-o zi
vom construi mașinării -
3:47 - 3:50care, conștiente sau nu,
-
3:50 - 3:53ne-ar putea trata
cu o nepăsare asemănătoare. -
3:54 - 3:57Cred că asta vi se pare exagerat,
-
3:57 - 4:04pariez că unii dintre voi se îndoiesc
că IA superinteligentă e posibilă, -
4:04 - 4:05cu atât mai puțin inevitabilă.
-
4:05 - 4:09Dar atunci trebuie să găsiți ceva greșit
în una din următoarele presupuneri. -
4:09 - 4:11Sunt doar trei.
-
4:12 - 4:17Inteligența e o problemă de procesare
a informației în sisteme fizice. -
4:17 - 4:20De fapt, asta e mai mult
decât o presupunere. -
4:20 - 4:23Deja am construit inteligență îngustă
în mașinăriile noastre -
4:23 - 4:25și multe dintre ele funcționează deja
-
4:25 - 4:28la un nivel de inteligență suprauman.
-
4:29 - 4:31Știm că simpla materie
-
4:31 - 4:34poate da naștere așa-numitei
„inteligență generală”, -
4:34 - 4:38o abilitate de a gândi flexibil
în diverse domenii -
4:38 - 4:41deoarece creierele noastre
sunt capabile de asta. Corect? -
4:43 - 4:45Sunt doar atomi aici
-
4:45 - 4:49și atâta vreme cât continuăm
să construim sisteme de atomi -
4:49 - 4:52care prezintă comportament
din ce în ce mai inteligent, -
4:52 - 4:55într-un final, dacă nu suntem întrerupți,
-
4:55 - 4:58vom construi inteligență generală
-
4:58 - 5:00în mașinăriile noastre.
-
5:00 - 5:03E crucial să realizăm
că rata progresului nu contează -
5:03 - 5:06deoarece orice progres e îndeajuns
să ne aducă la capăt de drum. -
5:06 - 5:10Nu ne trebuie legea lui Moore
să continuăm, nici progres exponențial. -
5:10 - 5:12Trebuie doar să continuăm.
-
5:13 - 5:16A doua presupunere e că vom continua.
-
5:17 - 5:20Vom continua să îmbunătățim
mașinăriile inteligente. -
5:23 - 5:25Dată fiind valoarea inteligenței --
-
5:25 - 5:29inteligența fie e sursa
a tot ce valorăm, -
5:29 - 5:32fie ne trebuie
ca să protejăm tot ce prețuim. -
5:32 - 5:34E resursa noastră cea mai prețioasă.
-
5:34 - 5:36Deci asta vrem să facem.
-
5:36 - 5:39Avem probleme pe care trebuie
să le rezolvăm urgent. -
5:39 - 5:42Vrem să vindecăm boli
ca Alzheimer și cancer. -
5:43 - 5:47Vrem să înțelegem sisteme economice.
Vrem să îmbunătățim știința climatică. -
5:47 - 5:49Vom face asta dacă putem.
-
5:49 - 5:52Trenul a plecat deja din stație
și nu are frâne. -
5:54 - 5:59În final, nu stăm în vârful inteligenței
-
5:59 - 6:01sau oriunde lângă el.
-
6:02 - 6:04Asta e o informație crucială.
-
6:04 - 6:06Asta ne face situația atât de precară
-
6:06 - 6:10și de aceea nu ne putem baza
pe intuițiile noastre despre risc. -
6:11 - 6:14Acum gândiți-vă la persoana
cea mai deșteaptă. -
6:15 - 6:18În topul tuturor e John von Neumann.
-
6:18 - 6:21Impresia pe care a lăsat-o
von Neumann celor din jurul său, -
6:21 - 6:26inclusiv celor mai mari
matematicieni și fizicieni, -
6:26 - 6:27e bine documentată.
-
6:27 - 6:31Dacă doar jumătate din poveștile
despre el sunt pe jumătate adevărate, -
6:31 - 6:33nu încape îndoială
-
6:33 - 6:35că e unul din cei mai deștepți
oameni vreodată. -
6:35 - 6:38Gândiți-vă la spectrul inteligenței.
-
6:38 - 6:40Îl avem pe John von Neumann,
-
6:42 - 6:43apoi suntem eu și voi,
-
6:44 - 6:45apoi o găină.
-
6:45 - 6:47(Râsete)
-
6:47 - 6:49Scuze, o găină.
-
6:49 - 6:50(Râsete)
-
6:50 - 6:54Nu e nevoie să fac discursul
mai deprimant decât e deja. -
6:54 - 6:55(Râsete)
-
6:56 - 7:00E copleșitor de probabil
că spectrul inteligenței -
7:00 - 7:03se extinde mult după cât putem noi percepe
-
7:04 - 7:07și dacă construim mașinării
mai inteligente decât noi, -
7:07 - 7:09probabil vor explora acest spectru
-
7:09 - 7:11în moduri pe care nu le putem imagina
-
7:11 - 7:14și ne depășesc în moduri inimaginabile.
-
7:15 - 7:19E important să recunoaștem
că e adevărat în virtutea vitezei. -
7:19 - 7:24Imaginați-vă dacă am construi
o IA superinteligentă -
7:24 - 7:28care n-ar fi mai inteligentă
decât echipa medie de cercetători -
7:28 - 7:30de la Stanford sau MIT.
-
7:30 - 7:33Circuitele electronice funcționează
de un milion de ori mai rapid -
7:33 - 7:35decât cele biochimice,
-
7:35 - 7:38deci mașinăria ar trebui să gândească
de un milion de ori mai rapid -
7:38 - 7:40decât mințile care au construit-o.
-
7:40 - 7:41Dacă o pornești pentru o săptămână
-
7:41 - 7:46va face 20.000 de ani
de muncă intelectuală la nivel uman, -
7:46 - 7:48săptămână după săptămână.
-
7:50 - 7:53Cum am putea să înțelegem,
darămite să constrângem -
7:53 - 7:55o minte care face astfel de progrese?
-
7:57 - 7:59Celălalt lucru îngrijorător e următorul:
-
7:59 - 8:04imaginați-vă cel mai bun scenariu posibil.
-
8:04 - 8:08Imaginați-vă că dăm peste un design
de IA superinteligentă -
8:08 - 8:10care nu are probleme de siguranță.
-
8:10 - 8:13Avem designul perfect din prima încercare.
-
8:13 - 8:15E ca și cum ne-ar fi dat un oracol
-
8:15 - 8:17care se comportă așa cum vrem.
-
8:18 - 8:22Această mașinărie ar fi aparatul perfect
de economisire a forței de muncă. -
8:22 - 8:24Poate crea mașinăria
care poate construi mașinăria -
8:24 - 8:26care poate face orice muncă fizică,
-
8:26 - 8:27folosind energie solară,
-
8:27 - 8:30aproape la costul materiilor prime.
-
8:30 - 8:33Vorbim despre sfârșitul corvoadei umane.
-
8:33 - 8:36E și despre sfârșitul
majorității muncii intelectuale. -
8:37 - 8:40Ce ar face maimuțe ca noi
în aceste circumstanțe? -
8:40 - 8:44Am fi liberi să jucăm frisbee
și să ne facem masaje. -
8:46 - 8:49Adăugați niște LSD și niște haine ciudate
-
8:49 - 8:51și toată lumea ar putea fi
ca la Burning Man. -
8:51 - 8:53(Râsete)
-
8:54 - 8:56Asta sună destul de bine,
-
8:57 - 9:00dar întrebați-vă ce s-ar întâmpla
-
9:00 - 9:02în ordinea economică și politică actuală?
-
9:02 - 9:05Pare probabil că vom fi martorii
-
9:05 - 9:11unui nivel de inegalitate de avere
și șomaj nemaivăzut. -
9:11 - 9:13Fără voința de a pune această nouă avere
-
9:13 - 9:15în serviciul umanității,
-
9:16 - 9:19câțiva miliardari ar zâmbi
pe copertele revistelor de afaceri -
9:19 - 9:22în timp ce restul lumii ar muri de foame.
-
9:22 - 9:25Și ce ar face rușii sau chinezii
-
9:25 - 9:27dacă ar auzi
că o companie din Silicon Valley -
9:27 - 9:30ar fi pe cale să lanseze
o IA superinteligentă? -
9:30 - 9:33Această mașinărie ar fi capabilă
să ducă un război, -
9:33 - 9:35terestru sau cibernetic,
-
9:35 - 9:37cu o putere nemaivăzută.
-
9:38 - 9:40E un scenariu
în care câștigătorul ia tot. -
9:40 - 9:43Să fii cu șase luni înaintea competiției
-
9:43 - 9:46înseamnă să fii cu 500.000 de ani înainte,
-
9:46 - 9:47cel puțin.
-
9:47 - 9:52Se pare că doar zvonurile
despre acest fel de descoperire -
9:52 - 9:55ar putea să înnebunească specia noastră.
-
9:55 - 9:58Unul din cele mai înfricoșătoare lucruri
-
9:58 - 10:00în acest moment, după părerea mea,
-
10:00 - 10:05sunt lucrurile
pe care le spun cercetătorii IA -
10:05 - 10:06când vor să ne liniștească.
-
10:07 - 10:10Cel mai comun motiv
să nu ne îngrijorăm e timpul. -
10:10 - 10:13Se va întâmpla peste mult timp.
-
10:13 - 10:15Probabil peste 50 sau 100 de ani.
-
10:16 - 10:17Un cercetător a spus:
-
10:17 - 10:19„Să vă îngrijorați din cauza IA
-
10:19 - 10:22e ca și cum v-ați îngrijora
de suprapopulare pe Marte.” -
10:22 - 10:24Asta e versiunea de Silicon Valley
-
10:24 - 10:26de „nu-ți bate căpșorul cu asta”.
-
10:26 - 10:28(Râsete)
-
10:28 - 10:29Nimeni nu pare să observe
-
10:29 - 10:32că referința la acea perioadă de timp
-
10:32 - 10:35nu e logică.
-
10:35 - 10:38Dacă inteligența e doar o problemă
de procesare a informației -
10:38 - 10:41și noi continuăm
să îmbunătățim mașinăriile, -
10:41 - 10:44vom produce o formă de superinteligență.
-
10:44 - 10:48Nu avem idee cât ne va lua
-
10:48 - 10:50să creăm condițiile de siguranță
pentru asta. -
10:52 - 10:54Lăsați-mă să repet.
-
10:54 - 10:57Nu avem idee cât ne va lua
-
10:57 - 11:00să creăm condițiile de siguranță
pentru asta. -
11:01 - 11:04Dacă nu ați observat,
50 de ani nu mai sunt ce-au fost. -
11:04 - 11:07Iată 50 de ani în luni.
-
11:07 - 11:09De atâta timp avem iPhone.
-
11:09 - 11:12De atâta timp The Simpsons
rulează la televizor. -
11:13 - 11:1550 de ani nu e un timp lung
-
11:15 - 11:19pentru a rezolva una din cele mai mari
provocări ale speciei noastre. -
11:20 - 11:24Încă o dată, se pare că eșuăm
să avem o reacție emoțională adecvată -
11:24 - 11:26la ce va veni, foarte probabil.
-
11:26 - 11:30Informaticianul Stuart Russell
are o analogie bună. -
11:30 - 11:35A spus: să ne imaginăm că am primit
un mesaj de la o civilizație extraterestră -
11:35 - 11:37care zice:
-
11:37 - 11:39„Oameni de pe Pământ,
-
11:39 - 11:41vom veni pe planeta voastră în 50 de ani.
-
11:42 - 11:43Pregătiți-vă.”
-
11:43 - 11:48Acum rămânem să numărăm lunile
până aterizează nava? -
11:48 - 11:51Am simți nevoia să facem ceva mai urgent.
-
11:52 - 11:55Alt motiv pentru care
ni se spune să nu ne îngrijorăm -
11:55 - 11:58e că aceste mașinării pot să aibă
doar aceleași valori ca noi -
11:58 - 12:00deoarece vor fi practic
extensiile noastre. -
12:00 - 12:02Vor fi în creierele noastre
-
12:02 - 12:04și noi vom deveni practic
sistemele lor limbice. -
12:05 - 12:07Să ne gândim un moment
-
12:07 - 12:10la calea de viitor
cea mai sigură și prudentă, -
12:10 - 12:11recomandată,
-
12:11 - 12:14e să implantăm tehnologia
direct în creierele noastre. -
12:15 - 12:18Asta ar fi calea de viitor
cea mai sigură și prudentă, -
12:18 - 12:21dar de obicei măsurile de siguranță
ale unei tehnologii -
12:21 - 12:25trebuie să fie clarificate
înainte de a ți-o pune în creier. -
12:25 - 12:27(Râsete)
-
12:27 - 12:32Problema mai delicată e că
construcția unei IA superinteligente -
12:32 - 12:34pare mai ușoară
-
12:34 - 12:36decât a unei IA superinteligente
-
12:36 - 12:38și neuroștiința completă
-
12:38 - 12:40care ne ajută să ne integrăm
mintea cu aceasta. -
12:41 - 12:44Dat fiind că guvernele și companiile
care lucrează la asta -
12:44 - 12:48probabil se cred într-o cursă
împotriva tuturor, -
12:48 - 12:51și câștigarea cursei
înseamnă câștigarea lumii, -
12:51 - 12:53dacă nu o distrugem în clipa următoare,
-
12:53 - 12:56pare probabil că ce e mai ușor de făcut
-
12:56 - 12:58va fi făcut mai întâi.
-
12:59 - 13:01Din păcate, nu am o soluție
la această problemă, -
13:01 - 13:04alta decât să vă recomand
să vă gândiți la asta. -
13:04 - 13:06Cred că ne trebuie
un fel de Manhattan Project -
13:06 - 13:09pe subiectul IA.
-
13:09 - 13:11Nu s-o construim, deoarece
cred că inevitabil o vom face, -
13:11 - 13:15ci să înțelegem
cum să evităm cursa înarmărilor -
13:15 - 13:18și să o construim într-un fel
corespunzător valorilor noastre. -
13:18 - 13:20Când vorbiți despre IA superinteligentă,
-
13:20 - 13:23care se poate schimba pe sine,
-
13:23 - 13:27se pare că avem doar o șansă
să alegem condițiile inițiale corecte -
13:27 - 13:29și chiar și atunci va trebui să absorbim
-
13:29 - 13:32consecințele economice și politice
ale alegerii corecte. -
13:34 - 13:36Dar momentul în care admitem
-
13:36 - 13:40că procesarea informației
e sursa inteligenței, -
13:41 - 13:46că un sistem computațional adecvat
e baza inteligenței, -
13:46 - 13:50și admitem că vom îmbunătăți
continuu aceste sisteme -
13:51 - 13:56și admitem că orizontul cogniției
foarte probabil depășește -
13:56 - 13:57ce știm noi acum,
-
13:58 - 13:59atunci trebuie să admitem
-
13:59 - 14:02că suntem în procesul
de creare a unui fel de zeu. -
14:03 - 14:05Acum ar fi momentul potrivit
-
14:05 - 14:07să ne asigurăm că e un zeu
cu care putem trăi. -
14:08 - 14:10Vă mulțumesc mult.
-
14:10 - 14:13(Aplauze)
- Title:
- Putem crea Inteligență Artificială fără să o scăpăm de sub control?
- Speaker:
- Sam Harris
- Description:
-
Vă e teamă de Inteligența Artificială? Ar trebui, spune cercetătorul în neuroștiințe și filosoful Sam Harris -- nu doar teoretic. Vom construi mașinării supraumane, spune Harris, dar încă nu am realizat problemele asociate cu crearea unui obiect care ne-ar trata așa cum tratăm noi furnicile.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Bianca-Ioanidia Mirea approved Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Bianca-Ioanidia Mirea edited Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Mirel-Gabriel Alexa accepted Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Mirel-Gabriel Alexa edited Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Mirel-Gabriel Alexa edited Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Lorena Ciutacu edited Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Lorena Ciutacu edited Romanian subtitles for Can we build AI without losing control over it? | |
![]() |
Lorena Ciutacu edited Romanian subtitles for Can we build AI without losing control over it? |