Možemo li napraviti veštačku inteligenciju, a da ne izgubimo kontrolu nad njom?
-
0:01 - 0:03Pričaću vam o porazu intuicije
-
0:03 - 0:05od koga mnogi patimo.
-
0:05 - 0:09Zista je porazno opaziti
određenu vrstu opasnosti. -
0:09 - 0:11Opisaću vam jedan scenario
-
0:11 - 0:14za koji mislim da je i zastrašujuć
-
0:14 - 0:16i koji se realno može dogoditi,
-
0:17 - 0:18a to, kako se čini,
-
0:19 - 0:20nije dobra kombinacija.
-
0:20 - 0:23A opet umesto da se uplaše,
mnogi od vas će misliti -
0:23 - 0:25da je ono o čemu pričam nešto kul.
-
0:25 - 0:28Opisaću vam kako bi
napredak koji pravimo -
0:28 - 0:30u veštačkoj inteligenciji
-
0:30 - 0:32mogao na kraju da nas uništi.
-
0:32 - 0:35Zapravo, mislim da je jako teško
zamisliti kako nas neće uništiti, -
0:35 - 0:37ili navesti da se samouništimo.
-
0:37 - 0:39A opet ako ste imalo kao ja,
-
0:39 - 0:42shvatićete da je zabavno
razmišljati o ovim stvarima. -
0:42 - 0:45I taj odgovor je deo ovog problema.
-
0:45 - 0:47OK? Taj odgovor treba da vas brine.
-
0:48 - 0:51Kad bih vas u ovom govoru ubedio
-
0:51 - 0:54da ćemo vrlo verovatno
globalno gladovati, -
0:54 - 0:57bilo zbog klimatskih promena
ili neke druge katastrofe, -
0:57 - 1:01i da će vaši unuci, ili njihovi unuci,
-
1:01 - 1:02vrlo verovatno živeti ovako,
-
1:03 - 1:04ne biste mislili:
-
1:05 - 1:07"Zanimljivo.
-
1:07 - 1:08Dobar ovaj TED Talk."
-
1:09 - 1:11Glad nije zabavna.
-
1:12 - 1:15Smrt u naučnoj fantastici,
sa druge strane, jeste zabavna, -
1:15 - 1:19i nešto što me najviše brine
u ovom trenutku u vezi sa razvojem VI -
1:19 - 1:23je što izgleda da ne možemo da pružimo
odgovarajući emocionalni odgovor -
1:23 - 1:25na opasnosti koje dolaze.
-
1:25 - 1:28Ni ja ne mogu da pružim ovaj odgovor,
a držim ovaj govor. -
1:30 - 1:33To je kao da stojimo ispred dvoja vrata.
-
1:33 - 1:34Iza vrata broj jedan,
-
1:34 - 1:37zaustavljamo napredak
u pravljenju inteligentnih mašina. -
1:37 - 1:41Kompjuterski hardver i softver prosto
prestaju da budu bolji iz nekog razloga. -
1:41 - 1:44Sada na trenutak razmislite
zašto bi se ovo moglo desiti. -
1:45 - 1:49Mislim, s obzirom koliku vrednost
imaju inteligencija i automatizacija, -
1:49 - 1:52nastavićemo da unapređujemo tehnologiju
ako smo uopšte kadri za to. -
1:53 - 1:55Šta bi nas moglo sprečiti u tome?
-
1:56 - 1:58Svetski nuklearni rat?
-
1:59 - 2:01Globalna pandemija?
-
2:02 - 2:04Pad asteroida?
-
2:06 - 2:08Ako Džastin Biber postane
predsednik Amerike? -
2:08 - 2:11(Smeh)
-
2:13 - 2:17Poenta je u tome, da bi nešto moralo
da uništi civilizaciju ovakvu kakva je. -
2:17 - 2:22Morate zamisliti kako
bi zaista loše moralo biti to -
2:22 - 2:25što bi nas trajno sprečilo
da unapređujemo, -
2:25 - 2:26tehnologiju,
-
2:26 - 2:28generaciju za generacijom.
-
2:28 - 2:30Skoro po definiciji, ovo je najgora stvar
-
2:30 - 2:32koja se ikada desila u ljudskoj istoriji.
-
2:33 - 2:34Pa je jedina alternativa,
-
2:34 - 2:36a ovo se nalazi iza vrata broj dva,
-
2:36 - 2:39da nastavimo da unapređujemo
naše inteligentne mašine -
2:39 - 2:41bez prestanka.
-
2:42 - 2:45U jednom trenutku, napravićemo
mašine koje su pametnije od nas, -
2:46 - 2:49i tad kad budemo imali mašine
koje su pametnije od nas, -
2:49 - 2:51one će same početi da se razvijaju.
-
2:51 - 2:53I onda rizikujemo ono
što je matematičar I.Dž. Gud nazvao -
2:53 - 2:55"eksplozija inteligencije",
-
2:55 - 2:57da proces može da nam pobegne.
-
2:58 - 3:01E, sad, ovo se često karikira,
kao što ću i ja uraditi, -
3:01 - 3:04kao strah od napada armije
-
3:04 - 3:05zlih robota.
-
3:05 - 3:08Ali to nije najverovatniji scenario.
-
3:08 - 3:13Nije kao da će naše mašine
spontano postati zle. -
3:13 - 3:16Brine nas, zapravo,
da ćemo mi napraviti mašine -
3:16 - 3:18koje su mnogo, mnogo
kompetentnije od nas, -
3:18 - 3:22brinemo da će nas uništiti
i najmanja razlika između -
3:22 - 3:23naših i njihovih ciljeva.
-
3:24 - 3:26Zamislite kakvi smo mi prema mravima.
-
3:27 - 3:28Ne mrzimo ih.
-
3:28 - 3:30Ne povređujemo ih namerno.
-
3:30 - 3:33Zapravo, ponekad se
trudimo se da ih ne povredimo. -
3:33 - 3:35Preskačemo ih na trotoaru.
-
3:35 - 3:37Ali kada god njihovo prisustvo
-
3:37 - 3:39ozbiljno ugrozi neke naše ciljeve,
-
3:39 - 3:42recimo kada konstruišemo
neku zgradu poput ove, -
3:42 - 3:44bez po muke ih istrebimo.
-
3:44 - 3:47Brine nas da ćemo
jednog dana napraviti mašine -
3:47 - 3:50koje će, bilo da su svesne ili ne,
-
3:50 - 3:52nas tretirati na isti način.
-
3:54 - 3:57E, sad, cenim da većini vas
ovo zvuči kao daleka budućnost. -
3:57 - 4:04Kladim se da ima onih koji ne veruju
da je superinteligentna VI moguća, -
4:04 - 4:05a kamoli neizbežna.
-
4:05 - 4:09Ali onda morate naći neku grešku
u sledećim pretpostavkama. -
4:09 - 4:11A samo ih je tri.
-
4:12 - 4:17Inteligencija je stvar obrade
informacija u fizičkim sistemima. -
4:17 - 4:20U stvari, ovo je malo više
od neke pretpostavke. -
4:20 - 4:23Već smo ugradili specifičnu
inteligenciju u naše mašine, -
4:23 - 4:25i mnoge od ovih mašina već
-
4:25 - 4:28imaju performanse na nivou
superljudske inteligencije. -
4:29 - 4:31I znamo da sama materija
-
4:31 - 4:34može da omogući takozvanu
"uopštenu inteligenciju", -
4:34 - 4:38sposobnost da se fleksibilno
razmišlja u različitim domenima, -
4:38 - 4:41jer to može i naš mozak. Je l' tako?
-
4:41 - 4:45Mislim, ovde postoje samo atomi,
-
4:45 - 4:49i sve dok mi nastavljamo
da gradimo sisteme atoma -
4:49 - 4:52koji su sve inteligentniji
i inteligentniji, -
4:52 - 4:55mi ćemo na kraju, osim ako nas prekinu,
-
4:55 - 4:58mi ćemo na kraju
ugraditi uopštenu inteligenciju -
4:58 - 4:59u naše mašine.
-
4:59 - 5:03Od suštinske je važnosti da shvatimo
da stopa napretka nije važna, -
5:03 - 5:06jer bilo kakav napredak
je dovoljan da nas dovede do cilja. -
5:06 - 5:10Ne treba nam Murov zakon.
Ne treba nam eksponencijalni napredak. -
5:10 - 5:12Samo treba da nastavimo dalje.
-
5:13 - 5:16Druga pretpostavka je
da ćemo nastaviti dalje. -
5:17 - 5:20Nastavićemo da poboljšavamo
naše inteligentne mašine. -
5:21 - 5:25I uz postojeću vrednost inteligencije -
-
5:25 - 5:29mislim, inteligencija je
ili izvor svega što je vredno -
5:29 - 5:32ili nam treba da sačuvamo
sve ono što nam je vredno. -
5:32 - 5:34To je naš najvredniji resurs.
-
5:34 - 5:36I zato želimo da uradimo ovo.
-
5:36 - 5:39Imamo probleme koje
očajnički moramo da rešimo. -
5:39 - 5:42Želimo da izlečimo bolesti poput
Alchajmera i raka. -
5:43 - 5:47Želimo da shvatimo ekonomske sisteme.
Želimo da poboljšamo nauku o klimi. -
5:47 - 5:49Tako da, ako možemo, to ćemo i uraditi.
-
5:49 - 5:52Voz je već napustio stanicu,
i nema kočnice. -
5:54 - 5:59Konačno, mi ne stojimo
na vrhuncu inteligencije, -
5:59 - 6:01a verovatno ni blizu toga.
-
6:02 - 6:04I ovo je zaista suštinski uvid.
-
6:04 - 6:06Zbog ovoga je naša
situacija tako nepouzdana, -
6:06 - 6:10i zbog toga je naša intuicija
o riziku tako nepouzdana. -
6:11 - 6:14E, sad, samo razmislite
o najpametnijoj osobi ikada. -
6:15 - 6:18Na skoro svačijem užem spisku ovde
je Džon fon Nojman. -
6:18 - 6:21Mislim, utisak koji je Nojman
ostavio na ljude oko sebe, -
6:21 - 6:25uključujući tu najveće
matematičare i fizičare tog vremena, -
6:26 - 6:27je prilično dobro dokumentovan.
-
6:27 - 6:31I ako je samo pola onih
priča o njemu polutačna, -
6:31 - 6:32nema dileme da je on
-
6:33 - 6:35jedan od najpametnijih ljudi
koji su ikada živeli. -
6:35 - 6:38Samo zamislite opseg inteligencije.
-
6:38 - 6:40Ovde imamo Džona fon Nojmana.
-
6:42 - 6:43Onda smo tu vi i ja.
-
6:44 - 6:45I onda imamo neko pile.
-
6:45 - 6:47(Smeh)
-
6:47 - 6:49Pardon, neko pile.
-
6:49 - 6:50(Smeh)
-
6:50 - 6:54Nema potrebe da idem dalje u dubiozu
u ovom govoru nego što treba. -
6:54 - 6:55(Smeh)
-
6:56 - 7:00Međutim, čini se da je više nego verovatno
da se spektar inteligencije -
7:00 - 7:03proteže mnogo više
nego što trenutno možemo da shvatimo, -
7:04 - 7:07i ako napravimo mašine
koje su mnogo inteligentnije od nas, -
7:07 - 7:09one će skoro sigurno
istražiti ovaj spektar -
7:09 - 7:11onako kako to ne možemo ni zamisliti,
-
7:11 - 7:14i preteći nas na načine
koje ne možemo ni zamisliti. -
7:15 - 7:19I važno je shvatiti da je ovo
moguće samo putem brzine. -
7:19 - 7:24U redu? Zamislite samo da napravimo
jednu superinteligentnu VI -
7:24 - 7:28koja nije ništa pametnija
od vašeg prosečnog tima istraživača -
7:28 - 7:30na Stanfordu ili MIT-u.
-
7:30 - 7:33Pa, električna kola
funkcionišu oko milion puta brže -
7:33 - 7:34od biohemijskih,
-
7:35 - 7:38tako da bi ove mašine razmišljale
oko milion puta brže -
7:38 - 7:39od umova koje su ih sastavile.
-
7:40 - 7:41Pustite ih da rade nedelju dana,
-
7:41 - 7:46i izvešće 20.000 godina
ljudskog intelektualnog rada, -
7:46 - 7:48nedelju za nedeljom.
-
7:50 - 7:53Kako čak možemo i razumeti,
a kamoli ograničiti -
7:53 - 7:55um koji bi mogao ovo da uradi?
-
7:57 - 7:59Iskreno, ono drugo što je zabrinjavajuće
-
7:59 - 8:04je da, zamislite najbolji mogući scenario.
-
8:04 - 8:08Zamislite da nabasamo na neki dizajn
superinteligentne VI -
8:08 - 8:10čija nas sigurnost ne brine.
-
8:10 - 8:13Po prvi put imamo savršeni dizajn.
-
8:13 - 8:15To je kao da nam je dato proročanstvo
-
8:15 - 8:17koje se odvija baš kako je zapisano.
-
8:17 - 8:21Ta mašina bi bila savršeni
uređaj za uštedu radne snage. -
8:22 - 8:24Dizajnirala bi mašinu
koja može napraviti mašine -
8:24 - 8:26za bilo kakav fizički posao,
-
8:26 - 8:27a koje bi napajalo sunce,
-
8:27 - 8:30manje-više po ceni sirovina.
-
8:30 - 8:33Pričamo o kraju teškog ljudskog rada.
-
8:33 - 8:36Takođe pričamo o kraju
većeg dela intelektualnog rada. -
8:37 - 8:40Pa šta će onda majmuni poput nas
da rade u takvim okolnostima? -
8:40 - 8:44Pa, imali bismo vremena za frizbi
i da masiramo jedni druga. -
8:46 - 8:49Dodajmo malo LSD-a i neke
diskutabilne garderobe, -
8:49 - 8:51i ceo svet bi mogao
biti poput festivala Burning Man. -
8:51 - 8:53(Smeh)
-
8:54 - 8:56E, sad, to možda zvuči kao dobra ideja,
-
8:57 - 9:00ali zapitajte se šta bi se desilo
-
9:00 - 9:02pod našim trenutnim ekonomskim
i političkim poretkom? -
9:02 - 9:05Čini se verovatnim da bismo bili svedoci
-
9:05 - 9:09određenog nivoa novčane nejednakosti
i nezaposlenosti -
9:09 - 9:11koji ranije nismo viđali.
-
9:11 - 9:13Uz odsustvo volje da
se odmah ovo novo bogatstvo stavi -
9:13 - 9:15na raspolaganje čovečanstvu,
-
9:16 - 9:19nekoliko bilionera bi poziralo
na omotima biznis magazina -
9:19 - 9:22dok bi ostatak sveta slobodno
mogao umreti od gladi. -
9:22 - 9:25I šta bi radili Rusi ili Kinezi
-
9:25 - 9:27kada bi čuli da tamo neka firma
iz Silicijumske doline -
9:27 - 9:30treba da izbaci superinteligentnu VI?
-
9:30 - 9:33Ova mašina bi bila sposobna da vodi rat,
-
9:33 - 9:35bilo klasični, bilo sajber rat,
-
9:35 - 9:37nadmoćna bez presedana.
-
9:38 - 9:40Ovo je scenario pobednik nosi sve.
-
9:40 - 9:43Biti šest meseci ispred konkurencije ovde
-
9:43 - 9:46je isto biti 500 000 godina ispred,
-
9:46 - 9:47u najmanju ruku.
-
9:47 - 9:52Tako se čini da bi čak i samo glasina
o proboju ovog tipa -
9:52 - 9:55izazvala ludnicu među ljudima.
-
9:55 - 9:58I, sad, jedna od najstarašnijih stvari,
-
9:58 - 10:00prema mom mišljenju, trenutno,
-
10:00 - 10:05su one stvari koje istraživači VI kažu
-
10:05 - 10:06kada žele da vas ohrabre.
-
10:07 - 10:10I najuobičajeniji razlog zbog koga
nam kažu da ne brinemo jeste vreme. -
10:10 - 10:13Sve je to daleko, znate.
-
10:13 - 10:15To je verovatno 50 ili 100 godina daleko.
-
10:16 - 10:17Jedan istraživač je rekao:
-
10:17 - 10:19"Briga o bezbednosti VI
-
10:19 - 10:21je kao briga o prenaseljenosti Marsa."
-
10:21 - 10:24Ovo je kao kada vam
iz Silicijumske doline kažu: -
10:24 - 10:26"Nemojte vi zamarati vaše glavice time."
-
10:26 - 10:27(Smeh)
-
10:28 - 10:29Izgleda da niko ne primećuje
-
10:29 - 10:32da je odnos prema vremenu
-
10:32 - 10:35potpuni non sequitur.
-
10:35 - 10:38Ako je inteligencija samo stvar
procesuiranja informacija, -
10:38 - 10:41i mi nastavimo da poboljšavamo mašine,
-
10:41 - 10:44proizvešćemo neki
oblik superinteligencije. -
10:44 - 10:48I nemamo pojma
koliko će nam trebati vremena -
10:48 - 10:50da stvorimo uslove da to uradimo bezbedno.
-
10:52 - 10:53Dozvolite mi da ponovim.
-
10:54 - 10:57Nemamo pojma koliko vremena će nam trebati
-
10:57 - 11:00da stvorimo uslove da to uradimo bezbedno.
-
11:01 - 11:04Ako niste primetili,
50 godina nije kao što je bilo ranije. -
11:04 - 11:07Ovo je 50 godina u mesecima.
-
11:07 - 11:09Ovoliko dugo već imamo iPhone.
-
11:09 - 11:12Ovoliko se već prikazuju "Simpsonovi".
-
11:13 - 11:15Pedeset godina nije mnogo vremena
-
11:15 - 11:18da se ostvari jedan od najvećih
izazova naše vrste. -
11:20 - 11:24Još jedanput, izgleda da nam nedostaje
odgovarajući emocionalni odgovor -
11:24 - 11:26na ono na šta imamo svako pravo
da verujemo da dolazi. -
11:26 - 11:30Kompjuterski naučnik Stjuart Rasel
ima lepu analogiju za ovo. -
11:30 - 11:35On kaže, zamislite da smo primili
neku poruku od vanzemaljaca, -
11:35 - 11:37u kojoj stoji:
-
11:37 - 11:39"Zemljani,
-
11:39 - 11:41stižemo na vašu planetu za 50 godina.
-
11:42 - 11:43Spremite se."
-
11:43 - 11:48I mi ćemo samo da odbrojavamo mesece
dok se njihov brod ne spusti? -
11:48 - 11:51Osetili bismo malo
više straha nego obično. -
11:53 - 11:55Drugo zbog čega kažu da ne brinemo
-
11:55 - 11:58je da ove mašine ne mogu drugačije
nego da dele naše vrednosti -
11:58 - 12:00zato što će one bukvalno biti
produžeci nas samih. -
12:00 - 12:02One će biti nakalamljene na naš mozak
-
12:02 - 12:04i mi ćemo suštinski postati
limbički sistem. -
12:05 - 12:07Sad na trenutak razmislite
-
12:07 - 12:10da je najbezbednija i jedina
razborita i preporučena, -
12:10 - 12:11putanja napred,
-
12:11 - 12:14da ovu tehnologiju implementiramo
direktno u naš mozak. -
12:15 - 12:18Sad, ovo može biti najbezbednija i jedina
razborita putanja napred, -
12:18 - 12:21ali obično se bezbednost neke tehnologije
-
12:21 - 12:25mora baš dobro razmotriti
pre nego što vam se zabode u mozak. -
12:25 - 12:27(Smeh)
-
12:27 - 12:32Veći problem je što pravljenje
superinteligentne VI same od sebe -
12:32 - 12:34izgleda lakše
-
12:34 - 12:36od pravljenja superinteligentne VI
-
12:36 - 12:38i kompletiranja neuronauke
-
12:38 - 12:40koja nam omogućava da
integrišemo naše umove sa njom. -
12:41 - 12:44I ako imamo to da kompanije
i vlade rade ovaj posao, -
12:44 - 12:48one će verovatno to shvatiti
kao da se takmiče protiv svih drugih, -
12:48 - 12:51jer pobediti u ovoj trci
znači osvojiti svet, -
12:51 - 12:53uz uslov da ga sledećeg
trenutka ne uništite, -
12:53 - 12:56a onda će verovatno prvo biti urađeno
-
12:56 - 12:57ono što je najlakše.
-
12:59 - 13:01E, sad, nažalost,
ja nemam rešenje za ovaj problem, -
13:01 - 13:04osim toga da preporučim
da više nas promisli o tome. -
13:04 - 13:07Smatram da nam je potrebno
nešto poput Projekta Menhetn -
13:07 - 13:08na temu veštačke inteligencije.
-
13:09 - 13:11Ne da bismo je izgradili, jer mislim
da je to neizbežno, -
13:11 - 13:15već da razumemo
kako da izbegnemo trku naoružanja -
13:15 - 13:18i da je napravimo na način
koji je u skladu sa našim interesima. -
13:18 - 13:20Kada se razgovara o superinteligentnoj VI
-
13:20 - 13:23koja sama sebe može da menja,
-
13:23 - 13:27čini se da imamo samo jednu šansu
da početne uslove postavimo kako treba, -
13:27 - 13:29a čak i onda ćemo morati da prihvatimo
-
13:29 - 13:32ekonomske i političke
posledice pravilne upotrebe. -
13:34 - 13:36Ali trenutak kada priznamo
-
13:36 - 13:40da je obrada informacija
izvor inteligencije, -
13:41 - 13:46da je neki odgovarajući računarski sistem
osnova onoga što je inteligencija, -
13:46 - 13:50i prihvatimo da ćemo stalno
unapređivati ove sisteme, -
13:51 - 13:56i prihvatimo da će horizont
shvatanja vrlo verovatno daleko nadmašiti -
13:56 - 13:57ono što trenutno znamo,
-
13:58 - 13:59onda moramo da prihvatimo
-
13:59 - 14:02da smo u procesu
pravljenja neke vrste božanstva. -
14:03 - 14:05Sada bi bilo dobro vreme
-
14:05 - 14:08da se postaramo da je to božanstvo
sa kojim bismo mogli živeti. -
14:08 - 14:10Hvala vam mnogo.
-
14:10 - 14:14(Aplauz)
- Title:
- Možemo li napraviti veštačku inteligenciju, a da ne izgubimo kontrolu nad njom?
- Speaker:
- Sem Haris (Sam Harris)
- Description:
-
Plašite se superinteligentne veštačke inteligencije? I treba, i to ne samo u teroji, kaže neuronaučnik i filozof Sem Haris. Napravićemo nadljudske mašine, kaže Haris, ali još uvek se nismo izborili sa problemom da ćemo stvoriti nešto što će se prema nama odnositi kao što se mi odnosimo prema mravima.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Ivana Korom approved Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Ivana Korom edited Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Ivana Korom edited Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Mile Živković accepted Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Mile Živković edited Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Vesna Radovic edited Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Vesna Radovic edited Serbian subtitles for Can we build AI without losing control over it? | |
![]() |
Vesna Radovic edited Serbian subtitles for Can we build AI without losing control over it? |