Nu vă temeți de superinteligența artificială
-
0:01 - 0:05Când eram copil,
eram tocilar prin chintesență. -
0:05 - 0:07Cred că și unii dintre voi
ați fost la fel. -
0:08 - 0:09(Râsete)
-
0:09 - 0:11Și dumneavoastră domnule,
care ați râs cel mai tare, -
0:11 - 0:13probabil că încă mai sunteți.
-
0:13 - 0:14(Râsete)
-
0:14 - 0:18Am crescut într-un mic oraș
în câmpiile prăfuite din nordul Texasului, -
0:18 - 0:21fiu de șerif care a fost fiul unui pastor.
-
0:21 - 0:23A intra în belele nu era o opțiune.
-
0:24 - 0:27Așa că am început să citesc cărți
cu calcule ca sursă de distracție. -
0:27 - 0:29(Râsete)
-
0:29 - 0:31Și tu la fel.
-
0:31 - 0:34Și asta m-a făcut să construiesc un laser
și un computer și să modelez rachete, -
0:34 - 0:38iar apoi să fac combustibil
pentru rachete în dormitorul meu. -
0:38 - 0:45Acum, în termeni științifici,
numim asta o idee foarte proastă. -
0:45 - 0:46(Râsete)
-
0:46 - 0:49Cam pe atunci, „2001: Odiseea spațială”
a lui Stanley Kubrick -
0:49 - 0:51apăruse în cinematografe,
-
0:52 - 0:54iar viața mi s-a schimbat
pentru totdeauna. -
0:54 - 0:59Am iubit absolut totul legat de acel film,
în special pe HAL 9000. -
0:59 - 1:01HAL era un computer dotat cu conștiință,
-
1:01 - 1:03conceput pentru a ghida
nava spațială Discovery -
1:03 - 1:06de la Pământ până la Jupiter.
-
1:06 - 1:08HAL avea de asemenea
un caracter imperfect, -
1:08 - 1:12întrucât a ales să prețuiască mai mult
misiunea, în defavoarea vieții umane. -
1:13 - 1:15HAL a fost un personaj fictiv,
-
1:15 - 1:16dar cu toate acestea,
-
1:16 - 1:20el vorbește despre temerile noastre,
temerile noastre de a fi subjugați -
1:20 - 1:23de o inteligență artificială
fără sentimente, -
1:23 - 1:25care este indiferentă în fața omenirii.
-
1:26 - 1:28Cred că astfel de temeri sunt nefondate.
-
1:28 - 1:33Într-adevăr, ne aflăm într-un moment
remarcabil în istoria omenirii, -
1:33 - 1:38când, motivați de refuzul de a accepta
limitele corpurilor și minților noastre, -
1:38 - 1:43construim mașinării de un rafinament
și o grație frumoasă și complexă -
1:43 - 1:45care va extinde cunoașterea umană
-
1:45 - 1:47dincolo de imaginația noastră.
-
1:47 - 1:50După o carieră care mi-a purtat pașii
de la Academia Forțelor Aeriene -
1:50 - 1:53la Space Command în prezent,
-
1:53 - 1:54am devenit inginer de sisteme
-
1:54 - 1:57și recent am fost implicat
într-o problemă de inginerie -
1:57 - 1:59în legătură cu misiunea NASA către Marte.
-
1:59 - 2:02În zborurile spațiale către Lună
-
2:02 - 2:05ne putem baza că cei de la controlul
misiunii din Houston -
2:05 - 2:07urmăresc toate aspectele unui zbor.
-
2:07 - 2:11Însă Marte e de 200 de ori mai departe
-
2:11 - 2:14și în consecință, e nevoie
în medie de 13 minute -
2:14 - 2:17ca un sunet să parcurgă distanța
dintre Pământ și Marte. -
2:17 - 2:20Dacă apare o problemă,
nu există suficient timp. -
2:21 - 2:23Astfel, o soluție rezonabilă de inginerie
-
2:23 - 2:29ne determină să punem controlul misiunii
între pereții navetei spațiale Orion. -
2:29 - 2:32O altă idee fascinantă
din profilul misiunii -
2:32 - 2:35e plasarea de roboți humanoizi
pe suprafața planetei Marte -
2:35 - 2:37înaintea sosirii oamenilor,
-
2:37 - 2:39mai întâi pentru a construi
echipamente și instalații -
2:39 - 2:43și apoi pentru a servi ca membri
colaboratori ai echipei științifice. -
2:43 - 2:46Pe măsură ce priveam asta
dintr-o perspectivă inginerească, -
2:46 - 2:50devenea foarte clar pentru mine
că ceea ce aveam nevoie să creez -
2:50 - 2:52era o inteligență artificială
-
2:52 - 2:54abilă, cooperantă și dotată
cu inteligență socială. -
2:54 - 2:58Cu alte cuvinte, aveam nevoie
să construiesc ceva asemănător lui HAL, -
2:58 - 3:01dar fără tendințele sale ucigătoare.
-
3:01 - 3:02(Râsete)
-
3:03 - 3:05Să facem o mică pauză.
-
3:05 - 3:09Este oare posibil să construim
o asemenea inteligență artificială? -
3:09 - 3:10De fapt, chiar este.
-
3:10 - 3:13În multe feluri, aceasta este
o problemă grea de inginerie -
3:13 - 3:15cu elemente de inteligență artificială,
-
3:15 - 3:20și nu o problemă inextricabilă
de IA care necesită inginerie. -
3:20 - 3:22Ca să-l parafrazez pe Alan Turing:
-
3:22 - 3:25„Nu sunt interesat să construiesc
o mașinărie dotată cu conștiință”. -
3:25 - 3:26Nu construiesc un HAL.
-
3:26 - 3:32Tot ce vreau este un creier simplu,
ceva ce oferă iluzia inteligenței. -
3:33 - 3:36Arta și știința informatică
au parcurs un drum lung -
3:36 - 3:38de când HAL a fost adus pe ecran
-
3:38 - 3:41și-mi imaginez că dacă inventatorul său,
Dr. Chandra, ar fi fost aici azi, -
3:42 - 3:44ar fi avut o listă întreagă
de întrebări pentru noi. -
3:44 - 3:46E într-adevăr posibil pentru noi
-
3:46 - 3:49să folosim un sistem de milioane
și milioane de dispozitive, -
3:49 - 3:51ca să citim în fluxurile lor de date,
-
3:51 - 3:54pentru a le prezice erorile
și a acționa înainte? -
3:54 - 3:55Da.
-
3:55 - 3:58Putem construi sisteme care să converseze
cu oamenii în limba lor naturală? -
3:58 - 3:59Da.
-
3:59 - 4:03Putem construi sisteme care să recunoască
obiecte, să identifice emoții, -
4:03 - 4:06să arate emoții, să joace jocuri
și chiar să citească de pe buze? -
4:06 - 4:07Da.
-
4:07 - 4:10Putem construi sisteme
care să stabilească obiective, -
4:10 - 4:14să realizeze planuri pentru îndeplinirea
acestor obiective și să învețe pe parcurs? -
4:14 - 4:15Da.
-
4:15 - 4:18Putem construi sisteme
care să aibă o gândire empatică? -
4:18 - 4:19Asta învățăm să facem.
-
4:19 - 4:22Putem construi sisteme care să aibă
o baza etică și morală? -
4:22 - 4:25Asta trebuie să învățăm cum se face.
-
4:25 - 4:27Așa că haideți să acceptăm pentru moment
-
4:27 - 4:30că este posibil să construim
o astfel de inteligență artificială -
4:30 - 4:33pentru acest tip de misiuni
și pentru altele. -
4:33 - 4:35Următoarea întrebare
pe care trebuie să v-o puneți e: -
4:36 - 4:37ar trebui să ne fie frică de ea?
-
4:37 - 4:39Ei bine, fiecare tehnologie nouă
-
4:39 - 4:41ne dă palpitații
într-o anumită măsură. -
4:41 - 4:43Când au apărut
pentru prima oară automobilele, -
4:43 - 4:47oamenii s-au lamentat că vom asista
la destrămarea familiei. -
4:47 - 4:49Când au apărut
pentru prima oară telefoanele, -
4:49 - 4:53oamenii erau îngrijorați
că vor distruge complet conversația. -
4:53 - 4:56La un moment dat am văzut
cum cuvântul scris a devenit omniprezent, -
4:56 - 4:59iar oamenii au crezut că vom pierde
abilitatea de a memora. -
4:59 - 5:01Toate acestea sunt adevărate
până la un anumit punct, -
5:01 - 5:04dar de asemenea este adevărat
și că aceste tehnologii -
5:04 - 5:07ne-au adus lucruri care ne-au lărgit
cunoașterea umană -
5:07 - 5:09în câteva moduri profunde.
-
5:10 - 5:12Așa că hai să mergem un pic mai departe.
-
5:13 - 5:18Eu nu mă tem de crearea
unei astfel de inteligențe artificiale -
5:18 - 5:22pentru că în final ea va îngloba
câteva dintre valorile noastre. -
5:22 - 5:23Luați în considerare acest lucru:
-
5:23 - 5:26construirea unui sistem cognitiv
este fundamental diferită -
5:26 - 5:30de construirea unui sistem
software-intensiv tradițional, din trecut. -
5:30 - 5:31Nu le programăm. Le învățăm.
-
5:31 - 5:34Pentru a învăța un sistem
cum să recunoască florile, -
5:34 - 5:37îi arăt mii de flori
din diverse tipuri care-mi plac. -
5:37 - 5:39Pentru a învăța un sistem
cum să joace un joc... -
5:39 - 5:41Ei bine, eu aș face-o. Și tu la fel.
-
5:43 - 5:45Îmi plac florile. Pe bune!
-
5:45 - 5:48Ca să înveți un sistem
cum se joacă un joc de GO, -
5:48 - 5:50ar trebui să joc mii de partide de GO,
-
5:50 - 5:52dar în acest proces aș învăța de asemenea
-
5:52 - 5:55cum să discern
între un joc bun și unul prost. -
5:55 - 5:58Dacă vreau să creez IA
care să ofere asistență juridică, -
5:58 - 6:03o s-o învăț corpusul legislativ,
dar în același timp voi integra -
6:03 - 6:07și simțul clemenței și al dreptății
ca parte a legii respective. -
6:07 - 6:10În termeni științifici, asta este
ceea ce numim adevărul de bază, -
6:10 - 6:13și asta e ce contează cu adevărat:
când producem aceste mașinării, -
6:13 - 6:16le învățăm o parte din valorile noastre.
-
6:17 - 6:20În acest scop, mă încred
în inteligență artificială -
6:20 - 6:23la fel, dacă nu și mai mult
decât într-un om care este bine instruit. -
6:24 - 6:28Dar ați putea întreba: ce ne facem
cu agenții necinstiți, -
6:28 - 6:31cu anumite ONG-uri bine finanțate?
-
6:31 - 6:35Nu mă tem de o inteligență artificială
aflată în mâinile unui lup singuratic. -
6:35 - 6:38Cu certitudine, nu ne putem proteja
-
6:38 - 6:40împotriva tuturor actelor
aleatorii de violență, -
6:40 - 6:42dar realitatea e că un asemenea sistem
-
6:42 - 6:45necesită o instruire
substanțială și subtilă, -
6:45 - 6:47cu mult peste resursele
unui singur individ. -
6:47 - 6:49În plus, înseamnă mult mai mult
-
6:49 - 6:52decât să introduci
un virus informatic în societate, -
6:52 - 6:55unde apeși pe un buton deodată
și se răspândește în milioane de locuri -
6:55 - 6:57și laptopurile explodează pretutindeni.
-
6:57 - 7:00Ei bine, acest fel de conținut
este mult mai amplu -
7:00 - 7:02și cu siguranță ne așteptam la el.
-
7:03 - 7:06Să mă tem că o astfel
de inteligență artificială -
7:06 - 7:08ar putea amenința întreaga umanitate?
-
7:08 - 7:10Dacă vă uitați la filme
-
7:10 - 7:16precum „Matrix”, „Metropolis”
„Terminatorul”, seriale ca „Westworld” -
7:16 - 7:18toate vorbesc despre acest tip de teamă.
-
7:18 - 7:22Într-adevăr, în cartea „Superinteligență”,
filozoful Nick Bostrom -
7:22 - 7:24abordează această temă
-
7:24 - 7:28și observă că superinteligența
poate fi nu doar periculoasă, -
7:28 - 7:32ci poate reprezenta o amenințare
existențială la adresa întregii omeniri. -
7:32 - 7:34Argumentul de bază al Dr. Bostrom
-
7:34 - 7:37este că astfel de sisteme vor sfârși
-
7:37 - 7:40prin a avea o nestăvilită
sete de informație -
7:40 - 7:43așa încât, probabil,
vor învăța cum să învețe -
7:43 - 7:46și în final să descopere
că pot avea interese -
7:46 - 7:48care sunt contrarii nevoilor umanității.
-
7:48 - 7:51Dr. Bostrom are un număr
de persoane care-l urmăresc. -
7:51 - 7:54El este sprijinit de persoane
ca Elon Musk și Stephen Hawking. -
7:55 - 8:00Cu tot respectul
pentru aceste minți luminate, -
8:00 - 8:02cred că greșesc fundamental.
-
8:02 - 8:06Există numeroase aspecte de disecat
la argumentul Dr. Bostrom -
8:06 - 8:08și nu am timp să le expun pe toate,
-
8:08 - 8:11dar foarte pe scurt,
luați în considerare asta: -
8:11 - 8:14super cunoașterea este
foarte diferită de super acțiunea. -
8:14 - 8:17HAL a fost o amenințare
pentru echipajul Discovery -
8:17 - 8:21doar în măsura în care HAL avea comanda
tuturor aspectelor legate de Discovery. -
8:21 - 8:23Așa ar trebui să fie
și în cazul unei superinteligențe.??? -
8:23 - 8:26ar trebui să stăpânească
toată lumea noastră. -
8:26 - 8:29Aceste idei provin de la Skynet
din filmul „Terminatorul” -
8:29 - 8:32în care avem o superinteligență
care comanda voința umană, -
8:32 - 8:36care controla fiecare dispozitiv
aflat în orice colț al lumii. -
8:36 - 8:39Practic vorbind, asta nu se va întâmpla.
-
8:39 - 8:42Nu vom construi inteligențe artificiale
care să controleze vremea, -
8:42 - 8:44să direcționeze valurile,
-
8:44 - 8:47care să ne comande pe noi,
oameni capricioși și haotici. -
8:47 - 8:51Și mai mult decât atât, dacă astfel
de inteligență artificială ar exista, -
8:51 - 8:54ar trebui să concureze
cu economiile oamenilor, -
8:54 - 8:57și astfel să concureze
pentru resurse cu noi. -
8:57 - 9:00Și la sfârșit...
Nu-i spuneți asta lui Siri... -
9:00 - 9:03Noi putem oricând să-i scoatem din priză.
-
9:03 - 9:04(Râsete)
-
9:05 - 9:10Suntem într-o incredibilă călătorie
de evoluție comună cu mașinăriile noastre. -
9:10 - 9:15Oamenii de azi
nu sunt oamenii de mâine. -
9:15 - 9:19Să îți faci griji acum
de ascensiunea superinteligenței -
9:19 - 9:22este într-o mulțime de feluri,
o periculoasă distragere a atenției, -
9:22 - 9:24deoarece însăși ascensiunea computerelor
-
9:24 - 9:27ne aduce o serie de probleme
umane și sociale -
9:27 - 9:29la care trebuie să participăm acum.
-
9:29 - 9:32Cum să organizez societatea cel mai bine
-
9:32 - 9:35când nevoia de munci executate
de oameni se diminuează? -
9:35 - 9:38Cum să aduc înțelegere și educație
de-a lungul globului -
9:38 - 9:41și totuși să respect
diferențele dintre noi? -
9:41 - 9:43Cum aș putea să prelungesc
și să îmbunătățesc -
9:43 - 9:45viața prin asistență medicală cognitivă?
-
9:45 - 9:49Cum aș putea utiliza informatica
pentru a ne ajuta să ajungem la stele? -
9:50 - 9:52Și acesta este lucrul interesant.
-
9:52 - 9:55Oportunitățile de a utiliza
informatica -
9:55 - 9:58pentru a îmbunătăți cunoașterea umană
stă în puterea noastră, -
9:58 - 10:01aici și acum și suntem doar la început.
-
10:02 - 10:03Vă mulțumesc foarte mult.
-
10:04 - 10:08(Aplauze)
- Title:
- Nu vă temeți de superinteligența artificială
- Speaker:
- Grady Booch
- Description:
-
Noile tehnologii generează noi anxietăți, spune omul de știintă și filozoful Grady Booch, dar nu trebuie să ne temem de o inteligență artificială atotputernică și fără sentimente. Booch ne domolește cele mai mari temeri - induse de literatura ştiinţifico-fantastică - despre computerele superinteligente explicând cum le vom învăța, nu programa, să împărtășească valorile noastre. În loc să ne facem griji în legătură cu o amenințare inexistentă, el ne îndeamnă să ne gândim cum va influența inteligența artificială viața umană.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Cristina Nicolae approved Romanian subtitles for Don't fear superintelligent AI | ||
Cristina Nicolae edited Romanian subtitles for Don't fear superintelligent AI | ||
Bianca-Ioanidia Mirea commented on Romanian subtitles for Don't fear superintelligent AI | ||
Denise RQ commented on Romanian subtitles for Don't fear superintelligent AI | ||
Bianca-Ioanidia Mirea accepted Romanian subtitles for Don't fear superintelligent AI | ||
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI | ||
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI | ||
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI |
Denise RQ
Hi Bianca,
Thanks a lot for the review! I sent you a PM as well.
Best regards and see you around,
Bianca-Ioanidia Mirea
Rugăminte către LC: Întrucât la minutul 3:20 - 3:22 se parafrazează, ar fi indicat să se elimine ghilimelele. Mulțumiri coordonatoarei și Denisei pentru atenționare.