< Return to Video

Nu vă temeți de superinteligența artificială

  • 0:01 - 0:05
    Când eram copil,
    eram tocilar prin chintesență.
  • 0:05 - 0:07
    Cred că și unii dintre voi
    ați fost la fel.
  • 0:08 - 0:09
    (Râsete)
  • 0:09 - 0:11
    Și dumneavoastră domnule,
    care ați râs cel mai tare,
  • 0:11 - 0:13
    probabil că încă mai sunteți.
  • 0:13 - 0:14
    (Râsete)
  • 0:14 - 0:18
    Am crescut într-un mic oraș
    în câmpiile prăfuite din nordul Texasului,
  • 0:18 - 0:21
    fiu de șerif care a fost fiul unui pastor.
  • 0:21 - 0:23
    A intra în belele nu era o opțiune.
  • 0:24 - 0:27
    Așa că am început să citesc cărți
    cu calcule ca sursă de distracție.
  • 0:27 - 0:29
    (Râsete)
  • 0:29 - 0:31
    Și tu la fel.
  • 0:31 - 0:34
    Și asta m-a făcut să construiesc un laser
    și un computer și să modelez rachete,
  • 0:34 - 0:38
    iar apoi să fac combustibil
    pentru rachete în dormitorul meu.
  • 0:38 - 0:45
    Acum, în termeni științifici,
    numim asta o idee foarte proastă.
  • 0:45 - 0:46
    (Râsete)
  • 0:46 - 0:49
    Cam pe atunci, „2001: Odiseea spațială”
    a lui Stanley Kubrick
  • 0:49 - 0:51
    apăruse în cinematografe,
  • 0:52 - 0:54
    iar viața mi s-a schimbat
    pentru totdeauna.
  • 0:54 - 0:59
    Am iubit absolut totul legat de acel film,
    în special pe HAL 9000.
  • 0:59 - 1:01
    HAL era un computer dotat cu conștiință,
  • 1:01 - 1:03
    conceput pentru a ghida
    nava spațială Discovery
  • 1:03 - 1:06
    de la Pământ până la Jupiter.
  • 1:06 - 1:08
    HAL avea de asemenea
    un caracter imperfect,
  • 1:08 - 1:12
    întrucât a ales să prețuiască mai mult
    misiunea, în defavoarea vieții umane.
  • 1:13 - 1:15
    HAL a fost un personaj fictiv,
  • 1:15 - 1:16
    dar cu toate acestea,
  • 1:16 - 1:20
    el vorbește despre temerile noastre,
    temerile noastre de a fi subjugați
  • 1:20 - 1:23
    de o inteligență artificială
    fără sentimente,
  • 1:23 - 1:25
    care este indiferentă în fața omenirii.
  • 1:26 - 1:28
    Cred că astfel de temeri sunt nefondate.
  • 1:28 - 1:33
    Într-adevăr, ne aflăm într-un moment
    remarcabil în istoria omenirii,
  • 1:33 - 1:38
    când, motivați de refuzul de a accepta
    limitele corpurilor și minților noastre,
  • 1:38 - 1:43
    construim mașinării de un rafinament
    și o grație frumoasă și complexă
  • 1:43 - 1:45
    care va extinde cunoașterea umană
  • 1:45 - 1:47
    dincolo de imaginația noastră.
  • 1:47 - 1:50
    După o carieră care mi-a purtat pașii
    de la Academia Forțelor Aeriene
  • 1:50 - 1:53
    la Space Command în prezent,
  • 1:53 - 1:54
    am devenit inginer de sisteme
  • 1:54 - 1:57
    și recent am fost implicat
    într-o problemă de inginerie
  • 1:57 - 1:59
    în legătură cu misiunea NASA către Marte.
  • 1:59 - 2:02
    În zborurile spațiale către Lună
  • 2:02 - 2:05
    ne putem baza că cei de la controlul
    misiunii din Houston
  • 2:05 - 2:07
    urmăresc toate aspectele unui zbor.
  • 2:07 - 2:11
    Însă Marte e de 200 de ori mai departe
  • 2:11 - 2:14
    și în consecință, e nevoie
    în medie de 13 minute
  • 2:14 - 2:17
    ca un sunet să parcurgă distanța
    dintre Pământ și Marte.
  • 2:17 - 2:20
    Dacă apare o problemă,
    nu există suficient timp.
  • 2:21 - 2:23
    Astfel, o soluție rezonabilă de inginerie
  • 2:23 - 2:29
    ne determină să punem controlul misiunii
    între pereții navetei spațiale Orion.
  • 2:29 - 2:32
    O altă idee fascinantă
    din profilul misiunii
  • 2:32 - 2:35
    e plasarea de roboți humanoizi
    pe suprafața planetei Marte
  • 2:35 - 2:37
    înaintea sosirii oamenilor,
  • 2:37 - 2:39
    mai întâi pentru a construi
    echipamente și instalații
  • 2:39 - 2:43
    și apoi pentru a servi ca membri
    colaboratori ai echipei științifice.
  • 2:43 - 2:46
    Pe măsură ce priveam asta
    dintr-o perspectivă inginerească,
  • 2:46 - 2:50
    devenea foarte clar pentru mine
    că ceea ce aveam nevoie să creez
  • 2:50 - 2:52
    era o inteligență artificială
  • 2:52 - 2:54
    abilă, cooperantă și dotată
    cu inteligență socială.
  • 2:54 - 2:58
    Cu alte cuvinte, aveam nevoie
    să construiesc ceva asemănător lui HAL,
  • 2:58 - 3:01
    dar fără tendințele sale ucigătoare.
  • 3:01 - 3:02
    (Râsete)
  • 3:03 - 3:05
    Să facem o mică pauză.
  • 3:05 - 3:09
    Este oare posibil să construim
    o asemenea inteligență artificială?
  • 3:09 - 3:10
    De fapt, chiar este.
  • 3:10 - 3:13
    În multe feluri, aceasta este
    o problemă grea de inginerie
  • 3:13 - 3:15
    cu elemente de inteligență artificială,
  • 3:15 - 3:20
    și nu o problemă inextricabilă
    de IA care necesită inginerie.
  • 3:20 - 3:22
    Ca să-l parafrazez pe Alan Turing:
  • 3:22 - 3:25
    „Nu sunt interesat să construiesc
    o mașinărie dotată cu conștiință”.
  • 3:25 - 3:26
    Nu construiesc un HAL.
  • 3:26 - 3:32
    Tot ce vreau este un creier simplu,
    ceva ce oferă iluzia inteligenței.
  • 3:33 - 3:36
    Arta și știința informatică
    au parcurs un drum lung
  • 3:36 - 3:38
    de când HAL a fost adus pe ecran
  • 3:38 - 3:41
    și-mi imaginez că dacă inventatorul său,
    Dr. Chandra, ar fi fost aici azi,
  • 3:42 - 3:44
    ar fi avut o listă întreagă
    de întrebări pentru noi.
  • 3:44 - 3:46
    E într-adevăr posibil pentru noi
  • 3:46 - 3:49
    să folosim un sistem de milioane
    și milioane de dispozitive,
  • 3:49 - 3:51
    ca să citim în fluxurile lor de date,
  • 3:51 - 3:54
    pentru a le prezice erorile
    și a acționa înainte?
  • 3:54 - 3:55
    Da.
  • 3:55 - 3:58
    Putem construi sisteme care să converseze
    cu oamenii în limba lor naturală?
  • 3:58 - 3:59
    Da.
  • 3:59 - 4:03
    Putem construi sisteme care să recunoască
    obiecte, să identifice emoții,
  • 4:03 - 4:06
    să arate emoții, să joace jocuri
    și chiar să citească de pe buze?
  • 4:06 - 4:07
    Da.
  • 4:07 - 4:10
    Putem construi sisteme
    care să stabilească obiective,
  • 4:10 - 4:14
    să realizeze planuri pentru îndeplinirea
    acestor obiective și să învețe pe parcurs?
  • 4:14 - 4:15
    Da.
  • 4:15 - 4:18
    Putem construi sisteme
    care să aibă o gândire empatică?
  • 4:18 - 4:19
    Asta învățăm să facem.
  • 4:19 - 4:22
    Putem construi sisteme care să aibă
    o baza etică și morală?
  • 4:22 - 4:25
    Asta trebuie să învățăm cum se face.
  • 4:25 - 4:27
    Așa că haideți să acceptăm pentru moment
  • 4:27 - 4:30
    că este posibil să construim
    o astfel de inteligență artificială
  • 4:30 - 4:33
    pentru acest tip de misiuni
    și pentru altele.
  • 4:33 - 4:35
    Următoarea întrebare
    pe care trebuie să v-o puneți e:
  • 4:36 - 4:37
    ar trebui să ne fie frică de ea?
  • 4:37 - 4:39
    Ei bine, fiecare tehnologie nouă
  • 4:39 - 4:41
    ne dă palpitații
    într-o anumită măsură.
  • 4:41 - 4:43
    Când au apărut
    pentru prima oară automobilele,
  • 4:43 - 4:47
    oamenii s-au lamentat că vom asista
    la destrămarea familiei.
  • 4:47 - 4:49
    Când au apărut
    pentru prima oară telefoanele,
  • 4:49 - 4:53
    oamenii erau îngrijorați
    că vor distruge complet conversația.
  • 4:53 - 4:56
    La un moment dat am văzut
    cum cuvântul scris a devenit omniprezent,
  • 4:56 - 4:59
    iar oamenii au crezut că vom pierde
    abilitatea de a memora.
  • 4:59 - 5:01
    Toate acestea sunt adevărate
    până la un anumit punct,
  • 5:01 - 5:04
    dar de asemenea este adevărat
    și că aceste tehnologii
  • 5:04 - 5:07
    ne-au adus lucruri care ne-au lărgit
    cunoașterea umană
  • 5:07 - 5:09
    în câteva moduri profunde.
  • 5:10 - 5:12
    Așa că hai să mergem un pic mai departe.
  • 5:13 - 5:18
    Eu nu mă tem de crearea
    unei astfel de inteligențe artificiale
  • 5:18 - 5:22
    pentru că în final ea va îngloba
    câteva dintre valorile noastre.
  • 5:22 - 5:23
    Luați în considerare acest lucru:
  • 5:23 - 5:26
    construirea unui sistem cognitiv
    este fundamental diferită
  • 5:26 - 5:30
    de construirea unui sistem
    software-intensiv tradițional, din trecut.
  • 5:30 - 5:31
    Nu le programăm. Le învățăm.
  • 5:31 - 5:34
    Pentru a învăța un sistem
    cum să recunoască florile,
  • 5:34 - 5:37
    îi arăt mii de flori
    din diverse tipuri care-mi plac.
  • 5:37 - 5:39
    Pentru a învăța un sistem
    cum să joace un joc...
  • 5:39 - 5:41
    Ei bine, eu aș face-o. Și tu la fel.
  • 5:43 - 5:45
    Îmi plac florile. Pe bune!
  • 5:45 - 5:48
    Ca să înveți un sistem
    cum se joacă un joc de GO,
  • 5:48 - 5:50
    ar trebui să joc mii de partide de GO,
  • 5:50 - 5:52
    dar în acest proces aș învăța de asemenea
  • 5:52 - 5:55
    cum să discern
    între un joc bun și unul prost.
  • 5:55 - 5:58
    Dacă vreau să creez IA
    care să ofere asistență juridică,
  • 5:58 - 6:03
    o s-o învăț corpusul legislativ,
    dar în același timp voi integra
  • 6:03 - 6:07
    și simțul clemenței și al dreptății
    ca parte a legii respective.
  • 6:07 - 6:10
    În termeni științifici, asta este
    ceea ce numim adevărul de bază,
  • 6:10 - 6:13
    și asta e ce contează cu adevărat:
    când producem aceste mașinării,
  • 6:13 - 6:16
    le învățăm o parte din valorile noastre.
  • 6:17 - 6:20
    În acest scop, mă încred
    în inteligență artificială
  • 6:20 - 6:23
    la fel, dacă nu și mai mult
    decât într-un om care este bine instruit.
  • 6:24 - 6:28
    Dar ați putea întreba: ce ne facem
    cu agenții necinstiți,
  • 6:28 - 6:31
    cu anumite ONG-uri bine finanțate?
  • 6:31 - 6:35
    Nu mă tem de o inteligență artificială
    aflată în mâinile unui lup singuratic.
  • 6:35 - 6:38
    Cu certitudine, nu ne putem proteja
  • 6:38 - 6:40
    împotriva tuturor actelor
    aleatorii de violență,
  • 6:40 - 6:42
    dar realitatea e că un asemenea sistem
  • 6:42 - 6:45
    necesită o instruire
    substanțială și subtilă,
  • 6:45 - 6:47
    cu mult peste resursele
    unui singur individ.
  • 6:47 - 6:49
    În plus, înseamnă mult mai mult
  • 6:49 - 6:52
    decât să introduci
    un virus informatic în societate,
  • 6:52 - 6:55
    unde apeși pe un buton deodată
    și se răspândește în milioane de locuri
  • 6:55 - 6:57
    și laptopurile explodează pretutindeni.
  • 6:57 - 7:00
    Ei bine, acest fel de conținut
    este mult mai amplu
  • 7:00 - 7:02
    și cu siguranță ne așteptam la el.
  • 7:03 - 7:06
    Să mă tem că o astfel
    de inteligență artificială
  • 7:06 - 7:08
    ar putea amenința întreaga umanitate?
  • 7:08 - 7:10
    Dacă vă uitați la filme
  • 7:10 - 7:16
    precum „Matrix”, „Metropolis”
    „Terminatorul”, seriale ca „Westworld”
  • 7:16 - 7:18
    toate vorbesc despre acest tip de teamă.
  • 7:18 - 7:22
    Într-adevăr, în cartea „Superinteligență”,
    filozoful Nick Bostrom
  • 7:22 - 7:24
    abordează această temă
  • 7:24 - 7:28
    și observă că superinteligența
    poate fi nu doar periculoasă,
  • 7:28 - 7:32
    ci poate reprezenta o amenințare
    existențială la adresa întregii omeniri.
  • 7:32 - 7:34
    Argumentul de bază al Dr. Bostrom
  • 7:34 - 7:37
    este că astfel de sisteme vor sfârși
  • 7:37 - 7:40
    prin a avea o nestăvilită
    sete de informație
  • 7:40 - 7:43
    așa încât, probabil,
    vor învăța cum să învețe
  • 7:43 - 7:46
    și în final să descopere
    că pot avea interese
  • 7:46 - 7:48
    care sunt contrarii nevoilor umanității.
  • 7:48 - 7:51
    Dr. Bostrom are un număr
    de persoane care-l urmăresc.
  • 7:51 - 7:54
    El este sprijinit de persoane
    ca Elon Musk și Stephen Hawking.
  • 7:55 - 8:00
    Cu tot respectul
    pentru aceste minți luminate,
  • 8:00 - 8:02
    cred că greșesc fundamental.
  • 8:02 - 8:06
    Există numeroase aspecte de disecat
    la argumentul Dr. Bostrom
  • 8:06 - 8:08
    și nu am timp să le expun pe toate,
  • 8:08 - 8:11
    dar foarte pe scurt,
    luați în considerare asta:
  • 8:11 - 8:14
    super cunoașterea este
    foarte diferită de super acțiunea.
  • 8:14 - 8:17
    HAL a fost o amenințare
    pentru echipajul Discovery
  • 8:17 - 8:21
    doar în măsura în care HAL avea comanda
    tuturor aspectelor legate de Discovery.
  • 8:21 - 8:23
    Așa ar trebui să fie
    și în cazul unei superinteligențe.???
  • 8:23 - 8:26
    ar trebui să stăpânească
    toată lumea noastră.
  • 8:26 - 8:29
    Aceste idei provin de la Skynet
    din filmul „Terminatorul”
  • 8:29 - 8:32
    în care avem o superinteligență
    care comanda voința umană,
  • 8:32 - 8:36
    care controla fiecare dispozitiv
    aflat în orice colț al lumii.
  • 8:36 - 8:39
    Practic vorbind, asta nu se va întâmpla.
  • 8:39 - 8:42
    Nu vom construi inteligențe artificiale
    care să controleze vremea,
  • 8:42 - 8:44
    să direcționeze valurile,
  • 8:44 - 8:47
    care să ne comande pe noi,
    oameni capricioși și haotici.
  • 8:47 - 8:51
    Și mai mult decât atât, dacă astfel
    de inteligență artificială ar exista,
  • 8:51 - 8:54
    ar trebui să concureze
    cu economiile oamenilor,
  • 8:54 - 8:57
    și astfel să concureze
    pentru resurse cu noi.
  • 8:57 - 9:00
    Și la sfârșit...
    Nu-i spuneți asta lui Siri...
  • 9:00 - 9:03
    Noi putem oricând să-i scoatem din priză.
  • 9:03 - 9:04
    (Râsete)
  • 9:05 - 9:10
    Suntem într-o incredibilă călătorie
    de evoluție comună cu mașinăriile noastre.
  • 9:10 - 9:15
    Oamenii de azi
    nu sunt oamenii de mâine.
  • 9:15 - 9:19
    Să îți faci griji acum
    de ascensiunea superinteligenței
  • 9:19 - 9:22
    este într-o mulțime de feluri,
    o periculoasă distragere a atenției,
  • 9:22 - 9:24
    deoarece însăși ascensiunea computerelor
  • 9:24 - 9:27
    ne aduce o serie de probleme
    umane și sociale
  • 9:27 - 9:29
    la care trebuie să participăm acum.
  • 9:29 - 9:32
    Cum să organizez societatea cel mai bine
  • 9:32 - 9:35
    când nevoia de munci executate
    de oameni se diminuează?
  • 9:35 - 9:38
    Cum să aduc înțelegere și educație
    de-a lungul globului
  • 9:38 - 9:41
    și totuși să respect
    diferențele dintre noi?
  • 9:41 - 9:43
    Cum aș putea să prelungesc
    și să îmbunătățesc
  • 9:43 - 9:45
    viața prin asistență medicală cognitivă?
  • 9:45 - 9:49
    Cum aș putea utiliza informatica
    pentru a ne ajuta să ajungem la stele?
  • 9:50 - 9:52
    Și acesta este lucrul interesant.
  • 9:52 - 9:55
    Oportunitățile de a utiliza
    informatica
  • 9:55 - 9:58
    pentru a îmbunătăți cunoașterea umană
    stă în puterea noastră,
  • 9:58 - 10:01
    aici și acum și suntem doar la început.
  • 10:02 - 10:03
    Vă mulțumesc foarte mult.
  • 10:04 - 10:08
    (Aplauze)
Title:
Nu vă temeți de superinteligența artificială
Speaker:
Grady Booch
Description:

Noile tehnologii generează noi anxietăți, spune omul de știintă și filozoful Grady Booch, dar nu trebuie să ne temem de o inteligență artificială atotputernică și fără sentimente. Booch ne domolește cele mai mari temeri - induse de literatura ştiinţifico-fantastică - despre computerele superinteligente explicând cum le vom învăța, nu programa, să împărtășească valorile noastre. În loc să ne facem griji în legătură cu o amenințare inexistentă, el ne îndeamnă să ne gândim cum va influența inteligența artificială viața umană.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Cristina Nicolae approved Romanian subtitles for Don't fear superintelligent AI
Cristina Nicolae edited Romanian subtitles for Don't fear superintelligent AI
Bianca-Ioanidia Mirea commented on Romanian subtitles for Don't fear superintelligent AI
Denise RQ commented on Romanian subtitles for Don't fear superintelligent AI
Bianca-Ioanidia Mirea accepted Romanian subtitles for Don't fear superintelligent AI
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI
Bianca-Ioanidia Mirea edited Romanian subtitles for Don't fear superintelligent AI
Show all
  • Hi Bianca,

    Thanks a lot for the review! I sent you a PM as well.

    Best regards and see you around,

  • Rugăminte către LC: Întrucât la minutul 3:20 - 3:22 se parafrazează, ar fi indicat să se elimine ghilimelele. Mulțumiri coordonatoarei și Denisei pentru atenționare.

Romanian subtitles

Revisions