Možemo li napraviti umjetnu inteligenciju bez da izgubimo kontrolu nad njom?
-
0:01 - 0:03Pričat ću vam
o neuspjehu intuicije -
0:03 - 0:05koji pogađa brojne među nama.
-
0:05 - 0:09To je zapravo neuspjeh
uočavanja određene vrste opasnosti. -
0:09 - 0:11Opisat ću scenarij
-
0:11 - 0:14za koji smatram kako je jednako zastrašujuć
-
0:14 - 0:16koliko i vjerojatan da se dogodi,
-
0:17 - 0:18a to nije dobra kombinacija,
-
0:19 - 0:20kako se ispostavlja.
-
0:20 - 0:23A ipak umjesto da budete prestrašeni,
većina će vas osjećati -
0:23 - 0:25kako je ono o čemu govorim
nekako fora. -
0:25 - 0:28Opisat ću kako bi nas
dobici koje stvaramo -
0:28 - 0:30u umjetnoj inteligenciji (dalje: AI)
-
0:30 - 0:32na kraju mogli uništiti.
-
0:32 - 0:35I zapravo, mislim ako je jako teško
vidjeti kako nas oni neće uništiti -
0:35 - 0:37ili nas nadahnuti da se sami uništimo.
-
0:37 - 0:39Pa ipak ako ste imalo poput mene,
-
0:39 - 0:42naći ćete kako je zabavno
razmišljati o ovim stvarima. -
0:42 - 0:45A taj je odgovor dio problema.
-
0:45 - 0:47Ok? Taj bi vas odgovor trebao brinuti.
-
0:48 - 0:51A ako bih vas uvjeravao
ovim govorom -
0:51 - 0:54kako ćemo vjerojatno
doživjeti globalnu glad, -
0:54 - 0:57bilo zbog klimatskih promjena
ili neke druge katastrofe, -
0:57 - 1:01te kako će vaši unuci,
ili njihovi unuci, -
1:01 - 1:02vrlo vjerojatno živjeti ovako,
-
1:03 - 1:04ne biste mislili:
-
1:05 - 1:07"Zanimljivo.
-
1:07 - 1:08Sviđa mi se ovaj TED govor."
-
1:09 - 1:11Glad nije zabavna.
-
1:12 - 1:15Smrt znanstvenom fantastikom,
s druge strane, jest zabavna, -
1:15 - 1:19a jedna od stvari koje me najviše brinu
oko razvoja AI u ovom trenutku -
1:19 - 1:23je kako se činimo nesposobnim
stvoriti prikladan emotivni odgovor -
1:23 - 1:25na opasnosti pred kojima se nalazimo.
-
1:25 - 1:28Ja sam nesposoban stvorti taj odgovor,
a držim ovaj govor. -
1:30 - 1:33Ovo je kao da stojimo
pred dvama vratima. -
1:33 - 1:34Iza vrata broj jedan,
-
1:34 - 1:37prestanemo stvarati napredak
u izgradnji inteligentnih strojeva. -
1:37 - 1:41Hardver se i softver naših računala
samo iz nekog razloga prestane poboljšavati. -
1:41 - 1:44Sad uzmite trenutak,
razmislite zašto bi se to moglo dogoditi. -
1:45 - 1:49MIslim, uzevši kako su vrijedne
inteligencija i automatizacija, -
1:49 - 1:52nastavit ćemo unaprijeđivati tehnologiju
ako smo to ikako sposobni. -
1:53 - 1:55Što bi nas moglo zaustaviti u tome?
-
1:56 - 1:58Potpuni nuklearni rat?
-
1:59 - 2:01Globalna pandemija?
-
2:02 - 2:04Udar asteroida?
-
2:06 - 2:08Da Justin Bieber postane
predsjednik Sjedinjenih država? -
2:08 - 2:11(Smijeh)
-
2:13 - 2:17Poanta je, nešto bi moralo
uništiti civilizaciju kakvu znamo. -
2:17 - 2:22Morate zamisliti
kako bi loše to moralo biti -
2:22 - 2:25da nas spriječi od pravljenja
poboljšanja u našoj tehnologiji -
2:25 - 2:26trajno,
-
2:26 - 2:28generaciju za generacijom.
-
2:28 - 2:30Skoro po definiciji,
to je najgora stvar -
2:30 - 2:32koja se ikad dogodila u ljudskoj povijesti.
-
2:33 - 2:34Dakle jedina alternativa,
-
2:34 - 2:36a to je ono što leži
iza vrata broj dva, -
2:36 - 2:39je da nastavimo poboljšavati
naše inteligentne strojeve -
2:39 - 2:41godinu za godinom za godinom.
-
2:42 - 2:45U nekom trenutku, sagradit ćemo
strojeve koji su pametniji od nas, -
2:46 - 2:49a jednom kad imamo strojeve
koji su pametniji od nas, -
2:49 - 2:51oni će početi poboljšavati sami sebe.
-
2:51 - 2:53A tada risikiramo što je
matematičar I.J. Good nazvao -
2:53 - 2:55"eksplozijom inteligencije,"
-
2:55 - 2:57da bi nam se proces mogao izmaknuti.
-
2:58 - 3:01Sad, to je često karikirano,
kako imam ovdje, -
3:01 - 3:04kao strah da će
vojske zloćudnih robota -
3:04 - 3:05udariti na nas.
-
3:05 - 3:08Ali to nije najvjerojatniji scenarij.
-
3:08 - 3:13Nije da će naši strojevi
spontano postati zloćudnim. -
3:13 - 3:16Zapravo je briga
kako ćemo izraditi strojeve -
3:16 - 3:18koji su toliko
sposobniji od nas -
3:18 - 3:22da bi nas najmanje razmimoilaženje
između njihovih i naših ciljeva -
3:22 - 3:23moglo uništiti.
-
3:24 - 3:26Samo pomislite kako se odnosimo prema mravima.
-
3:27 - 3:28Ne mrzimo ih.
-
3:28 - 3:30Ne silazimo sa svog puta
kako bismo im naudili. -
3:30 - 3:33Zapravo, ponekad
se baš i trudimo kako im ne bismo naudili. -
3:33 - 3:35Prekoračimo ih na pločniku.
-
3:35 - 3:37Ali kad god sje njihova prisutnost
-
3:37 - 3:39ozbiljno sukobi s nekim od naših ciljeva,
-
3:39 - 3:42recimo kad dižemo
građevinu poput ove, -
3:42 - 3:44uništavamo ih bez pol muke.
-
3:44 - 3:47Briga je kako ćemo
jednog dana sagraditi strojeve -
3:47 - 3:50koji, bili oni svjesni ili ne,
-
3:50 - 3:52bi se mogli odnositi spram nas
sa sličnim nehajem. -
3:54 - 3:57Sad, pretpostavljam kako
vam se ovo doima nategnutim. -
3:57 - 4:04Kladim se kako vas ima koji sumnjate
kako je superinteligentan AI moguć, -
4:04 - 4:05a još manje neizbježan.
-
4:05 - 4:09Ali onda morate naći nešto krivo
s nekom od slijedeći pretpostavki. -
4:09 - 4:11A samo ih je tri.
-
4:12 - 4:17Inteligencija je stvar obrade
informacija u fizičkim sustavima. -
4:17 - 4:20Zapravo, ovo je
malo više od pretpostavke. -
4:20 - 4:23Već smo ugradili
usku inteligenciju u naše strojeve, -
4:23 - 4:25i puno tih strojeva imaju izvedbu
-
4:25 - 4:28na razini nadljudske
inteligencije već sada. -
4:29 - 4:31I znamo kako puka materija
-
4:31 - 4:34može omogućiti nastanak
onog što nazivamo "opća inteligencija," -
4:34 - 4:38sposobnost razmišljanja
rastezljivog na višestruka područja, -
4:38 - 4:41jer to mogu naši mozgovi. U redu?
-
4:41 - 4:45Mislim, ovdje su samo atomi,
-
4:45 - 4:49i sve dok nastavimo
graditi sustave atoma -
4:49 - 4:52koji pokazuju sve više
inteligentnog ponašanja -
4:52 - 4:55s vremenom ćemo,
osim ako ne budemo ometeni, -
4:55 - 4:58s vremenom ćemo
ugraditi opću inteligenciju -
4:58 - 4:59u naše strojeve.
-
4:59 - 5:03Ključno je shvatiti
kako stopa napretka nije bitna, -
5:03 - 5:06jer će nas bilo kakav
napredak dovesti u krajnju zonu. -
5:06 - 5:10Ne trebamo nastavak Mooreovog zakona.
Ne trebamo eksponencijalni rast. -
5:10 - 5:12Samo trebamo nastaviti napredovati.
-
5:13 - 5:16Druga je pretpostavka
kako ćemo nastaviti napredovati. -
5:17 - 5:20Nastavit ćemo unapređivati
naše inteligentne strojeve. -
5:21 - 5:25A uzevši vrijednost inteligencije --
-
5:25 - 5:29Mislim, inteligencija je ili
izvor svega što držimo vrijednim -
5:29 - 5:32ili je trebamo kako bi zaštitili
sve što smatramo vrijednim. -
5:32 - 5:34Ona je naš najvredniji resurs.
-
5:34 - 5:36Pa želimo to raditi.
-
5:36 - 5:39Imamo probleme
koje očajnički trebamo riješiti. -
5:39 - 5:42Želimo liječiti bolesti
poput Alzheimera ili raka. -
5:43 - 5:47Želimo razumjeti ekonomske sustave.
Želimo unaprijediti naše klimatske znanosti. -
5:47 - 5:49Pa ćemo to učiniti, ako možemo.
-
5:49 - 5:52Vlak je već napustio postaju
a nema kočnice za povući. -
5:54 - 5:59Konačno, ne stojimo
na vrhuncu inteligencije, -
5:59 - 6:01ili igdje blizu njega, vjerojatno.
-
6:02 - 6:04A to je zbilja ključan uvid.
-
6:04 - 6:06To je ono što čini
našu situaciju tako neizvjesnom, -
6:06 - 6:10i to je ono što čini
naše intuicije o riziku tako nepouzdanim. -
6:11 - 6:14Sad, samo razmotrite najpametniju osobu
koja je ikad živjela. -
6:15 - 6:18U gotovo svačijem užem izboru
ovdje je John von Neumann. -
6:18 - 6:21Mislim, utisak koji je von Neumann
ostavljao na ljude oko sebe, -
6:21 - 6:25a ti uključuju najveće matematičare
i fizičare njegovog doba, -
6:26 - 6:27je dobro dokumentirana.
-
6:27 - 6:31Ako je samo pola priča
o njemu na pola istinito, -
6:31 - 6:32nema pitanja
-
6:33 - 6:35on je jedna od najpametnijih
osoba koje su ikad živjele. -
6:35 - 6:38Pa razmotrite spektar inteligencije.
-
6:38 - 6:40Ovdje imamo John von Neumanna.
-
6:42 - 6:43A onda imamo vas i mene.
-
6:44 - 6:45A onda imamo piceka.
-
6:45 - 6:47(Smijeh)
-
6:47 - 6:49Pardon, piceka.
-
6:49 - 6:50(Smijeh)
-
6:50 - 6:54Nema razloga da učinim ovaj govor
depresivnijem nego što mora biti. -
6:54 - 6:55(Smijeh)
-
6:56 - 7:00Izgleda premoćno vjerojatno,
međutim, kako se spektar inteligencije -
7:00 - 7:03proteže puno dalje
nego što trenutno poimamo, -
7:04 - 7:07i ako sagradimo strojeve
koji su inteligentniji od nas, -
7:07 - 7:09oni će vrlo vjerojatno
istražiti ovaj spektar -
7:09 - 7:11na načine koje ne možemo zamisliti,
-
7:11 - 7:14te nas nadmašiti na načine
koje ne možemo zamisliti. -
7:15 - 7:19A bitno je prepoznati kako je
to istinito već po samom svojstvu brzine. -
7:19 - 7:24U redu? Zamislite kako smo
upravo sagradili superinteligentan AI -
7:24 - 7:28koji nije pametniji od
vašeg prosječnog tima istraživača -
7:28 - 7:30na Stanfordu ili MIT-u.
-
7:30 - 7:33Dobro, elektronički krugovi
rade oko milijun puta brže -
7:33 - 7:34od onih biokemijskih,
-
7:35 - 7:38pa bi ovaj stroj trebao
razmišljati oko milijun puta brže -
7:38 - 7:39od umova koji su ga sagradili.
-
7:40 - 7:41Pa ga pustite raditi tjedan dana,
-
7:41 - 7:46a on će izvesti 20.000 godina
intelektualnog rada ljudske razine, -
7:46 - 7:48tjedan za tjednom za tjednom.
-
7:50 - 7:53Kako bi uopće mogli razumjeti,
puno manje ograničiti, -
7:53 - 7:55um koji stvara ovu vrst napretka?
-
7:57 - 7:59Druga stvar koja je
zabrinjavajuća, iskreno, -
7:59 - 8:04je kako, zamislite najbolji scenarij.
-
8:04 - 8:08dakle zamislite kako pogodimo
dizajn superinteligentne AI -
8:08 - 8:10koji nema sigurnosnih problema.
-
8:10 - 8:13Imamo savršen dizajn
iz prve. -
8:13 - 8:15Kao da nam je dano proročanstvo
-
8:15 - 8:17koje se ponaša posve kako bi i trebalo.
-
8:17 - 8:21Dobro, taj bi stroj bio
savršena naprava za uštedu rada. -
8:22 - 8:24Može dizajnirati stroj
koji može izraditi stroj -
8:24 - 8:26koji može obavljati
svaki fizički rad, -
8:26 - 8:27pogonjen sunčanom svjetlošću,
-
8:27 - 8:30manje ili više po cijeni
sirovog materijala. -
8:30 - 8:33Dakle pričamo o
kraju ljudske tlake. -
8:33 - 8:36Također pričamo o kraju
većine intelektualnog rada. -
8:37 - 8:40Pa što bi majmuni poput nas
činili u takvim okolnostima? -
8:40 - 8:44Ok, bili bi slobodni
igrati frizbi i masirati se međusobno. -
8:46 - 8:49Dodajte nešto LSD i nešto
upitnih odluka oko odjeće, -
8:49 - 8:51i cijeli bi svijet mogao
biti poput Burning Mana. -
8:51 - 8:53(Smijeh)
-
8:54 - 8:56Sad, to može zvučati prilično dobro,
-
8:57 - 9:00ali pitajte se što bi se dogodilo
-
9:00 - 9:02pod našim trenutnim
ekonomskim i političkim poretkom? -
9:02 - 9:05Čini se vjerojatnim
kako bismo svjedočili -
9:05 - 9:09razini nejednakosti u bogatstvu
te nezaposlenosti -
9:09 - 9:11kakvu nismo vidjeli nikad prije.
-
9:11 - 9:13Bez volje za trenutnim
stavljanjem tog novog bogatstva -
9:13 - 9:15u službu svog čovječanstva,
-
9:16 - 9:19nekoliko bi trilijunaša moglo
resiti naslovnice naših poslovni časopisa -
9:19 - 9:22dok bi ostatak svijeta
bio slobodan gladovati. -
9:22 - 9:25A što bi Rusi
ili Kinezi učinili -
9:25 - 9:27ako bi čuli kako se
neka kompanija u Silicijskoj dolini -
9:27 - 9:30upravo sprema izbaciti
superinteligentnu AI? -
9:30 - 9:33Taj bi stroj bio
sposoban voditi rat, -
9:33 - 9:35bilo zemaljski ili cyber,
-
9:35 - 9:37sa neviđenom moći.
-
9:38 - 9:40Ovo je scenarij gdje pobjednik dobija sve.
-
9:40 - 9:43Biti šest mjeseci ispred
konkurencije ovdje -
9:43 - 9:46je biti 500.000 godina ispred,
-
9:46 - 9:47minimalno.
-
9:47 - 9:52Pa se čini kako bi čak i puke glasine
o ovakvoj vrsti probitka -
9:52 - 9:55mogle prouzročiti našu vrstu da poludi.
-
9:55 - 9:58Sad, jedna od najviše
zastrašujućih stvari, -
9:58 - 10:00kako ja to vidim, u ovom trenutku,
-
10:00 - 10:05su stvari koje istraživači AI govore
-
10:05 - 10:06kada žele biti ohrabrujući.
-
10:07 - 10:10A najčešći razlog za bezbrižnost
koji navode je vrijeme. -
10:10 - 10:13To je sve daleko,
ne znaš li? -
10:13 - 10:15To je vjerojatno 50 ili 100 godina od nas.
-
10:16 - 10:17Jedan je istraživač rekao:
-
10:17 - 10:19"Brinuti se oko sigurnosti AI
-
10:19 - 10:21je poput brige
o prekomjernoj populaciji na Marsu." -
10:22 - 10:24To je verzija iz Silicijske doline
-
10:24 - 10:26one: "nemoj brinuti
svoju lijepu malu glavu sa time." -
10:26 - 10:27(Smijeh)
-
10:28 - 10:29Izgleda kako nitko ne primjećuje
-
10:29 - 10:32kako je oslanjanje na vremenski horizont
-
10:32 - 10:35potpuni non sequitur.
-
10:35 - 10:38Ako je inteligencija samo pitanje
procesiranja informacija, -
10:38 - 10:41te ako nastavimo
unapređivati naše strojeve, -
10:41 - 10:44stvorit ćemo
neki oblik superinteligencije. -
10:44 - 10:48A nemamo pojma
koliko će nam dugo trebati -
10:48 - 10:50stvoriti uvjete
kako bismo to učinili sigurno. -
10:52 - 10:53Dajte da to kažem ponovo.
-
10:54 - 10:57Nemamo pojma
koliko će nam dugo trebati -
10:57 - 11:00stvoriti uvjete
kako bismo to učinili sigurno. -
11:01 - 11:04A ako niste primijetili,
50 godina nije što je nekad bilo. -
11:04 - 11:07Ovo je 50 godina u mjesecima.
-
11:07 - 11:09Ovo je koliko dugo imamo iPhone.
-
11:09 - 11:12Ovo je koliko dugo su
"Simpsoni" na televiziji. -
11:13 - 11:15Pedeset godina nije tako puno vremena
-
11:15 - 11:18za sučeliti se sa jednim od
najvećih izazova koje će naša vrsta ikad imati. -
11:20 - 11:24Još jednom, izgleda da ne uspijevamo
imati prikladan emotivni odgovor -
11:24 - 11:26za što imamo
svaki razlog vjerovati kako dolazi. -
11:26 - 11:30Računalni znanstvenik Stuart Russell
ovdje pravi zgodnu analogiju. -
11:30 - 11:35On kaže, zamislite kako smo primili
poruku od vanzemaljske civilizacije, -
11:35 - 11:37koja piše:
-
11:37 - 11:39"Ljudi Zemlje,
-
11:39 - 11:41stići ćemo na vaš planet za 50 godina.
-
11:42 - 11:43Pripremite se."
-
11:43 - 11:48I sad mi samo brojimo
mjesece dok matični brod ne sleti? -
11:48 - 11:51Osjećali bismo malo veću
hitnost nego što osjećamo. -
11:53 - 11:55Još jedan razlog
što nam govore da ne brinemo -
11:55 - 11:58je kako si ti strojevi
ne mogu pomoći da ne dijele naše vrijednosti -
11:58 - 12:00jer će doslovno biti
produžeci nas samih. -
12:00 - 12:02Bit će usađeni u naše mozgove,
-
12:02 - 12:04a mi ćemo u biti
postati njihov limbički sustav. -
12:05 - 12:07sad uzmite trenutak pa razmislite
-
12:07 - 12:10kako je najsigurniji
i jedini razborit put naprijed, -
12:10 - 12:11preporučeno,
-
12:11 - 12:14ugraditi tu tehnologiju
izravno u naše mozgove. -
12:15 - 12:18Sad, to može zapravo biti najsigurniji
i jedini razborit put nparijed, -
12:18 - 12:21ali obično sigurnosni problemi
oko tehnologije -
12:21 - 12:25moraju biti manje više izglađeni
prije nego ju zabijete u vlastitu glavu. -
12:25 - 12:27(Smijeh)
-
12:27 - 12:32Dublji je problem što se
izgradnja superinteligentne AI -
12:32 - 12:34čini vjerojatno lakšim
-
12:34 - 12:36nego izgradnja superinteligentne AI
-
12:36 - 12:38i imanje zaokružene neuroznanosti
-
12:38 - 12:40koja nam omogućuje da ju glatko
integriramo s našim umovima. -
12:41 - 12:44A uzevši kako će kompanije
i vlade koje se bave ovim poslom -
12:44 - 12:48vjerojatno percipirati
kako su u utrci protiv svih ostalih, -
12:48 - 12:51uzevši kako je osvojiti ovu utrku
isto što i osvojiti svijet, -
12:51 - 12:53pod pretpostavkom kako ga
nećete uništiti u slijedećem trenutku, -
12:53 - 12:56onda se čini vjerojatnim
kako će što god je lakše učiniti -
12:56 - 12:57biti učinjeno prvo.
-
12:59 - 13:01Sad, na nesreću,
nemam rješenje za ovaj problem, -
13:01 - 13:04osim preporučiti kako bi više nas
trebalo razmišljati o njemu. -
13:04 - 13:06Mislim kako trebamo nešto
poput Manhattan Projecta -
13:06 - 13:08po pitanju umjetne inteligencije.
-
13:09 - 13:11Ne kako bismo je stvorili, jer
ćemo to neizbježno napraviti, -
13:11 - 13:15već kako bismo razumjeli
kako izbjeći utrku u naoružanju -
13:15 - 13:18te kako ju sagraditi na način
koji se podudara s našim interesima. -
13:18 - 13:20Kad pričate o
superinteligentnoj AI -
13:20 - 13:23koja može raditi preinake sebi samoj,
-
13:23 - 13:27čini se kako imamo samo jednu priliku
za posložiti ispravne početne uvjete, -
13:27 - 13:29a čak i tada ćemo trebati upiti
-
13:29 - 13:32ekonomske i političke
posljedice slaganja takvih uvjeta. -
13:34 - 13:36Ali trenutak u kojem priznamo
-
13:36 - 13:40kako je obrada informacija
izvor inteligencije, -
13:41 - 13:46kako je neki prikladan račualni sustav
ono na čemu se inteligencija temelji, -
13:46 - 13:50te priznamo kako ćemo
trajno unaprijeđivati te sustave, -
13:51 - 13:56te priznamo kako horizont
spoznaje vrlo vjerojatno daleko premašuje -
13:56 - 13:57što trenutno znamo,
-
13:58 - 13:59onda moramo priznati
-
13:59 - 14:02kako smo u postupku
izgradnje neke vrste boga. -
14:03 - 14:05Sad bi bilo dobro vrijeme
-
14:05 - 14:07osigurati da to bude bog
s kakvim možemo živjeti. -
14:08 - 14:10Hvala Vam puno.
-
14:10 - 14:15(Pljesak)
- Title:
- Možemo li napraviti umjetnu inteligenciju bez da izgubimo kontrolu nad njom?
- Speaker:
- Sam Harris
- Description:
-
Prestrašeni superintelignetnom umjetnom inteligencijom? Trebali bi biti, kaže neuroznanstvenik i filozof Sam Harris -- i to ne samo na neki teorijski način. Sagradit ćemo nadljudske strojeve, kaže Harris, a još se nismo primili ukoštac sa problemima vezanim uz stvaranje nečega što bi moglo postupati s nama onako kako mi postupamo s mravima.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Retired user approved Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user accepted Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user edited Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Stjepan Mateljan edited Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Stjepan Mateljan edited Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Stjepan Mateljan edited Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Stjepan Mateljan edited Croatian subtitles for Can we build AI without losing control over it? | |
![]() |
Stjepan Mateljan edited Croatian subtitles for Can we build AI without losing control over it? |