Nemojte se bojati superinteligentne UI
-
0:01 - 0:05Kad sam bio klinac,
bio sam onaj pravi štreber. -
0:05 - 0:07MIslim kako su i neki od vas bili,
također. -
0:08 - 0:09(Smijeh)
-
0:09 - 0:12A vi, gospodine, koji ste se najglasnije
nasmijali,vjerojatno to i dalje jeste. -
0:12 - 0:14(Smijeh)
-
0:14 - 0:18Odrastao sam u malenom gradu
na prašnjavim ravnicama sjevernog Teksasa, -
0:18 - 0:21sin šerifa
koji je bio sin pastora. -
0:21 - 0:23Upadanje u nevolje nije bila mogućnost.
-
0:24 - 0:27I tako sam počeo čitati
knjige iz (*infinitezimalnog) računa za zabavu. -
0:27 - 0:29(Smijeh)
-
0:29 - 0:31I vi ste, također.
-
0:31 - 0:34To me dovelo do izgradnje lasera
i računala i modelarskih raketa, -
0:34 - 0:37a to me dovelo do izrade
raketnog goriva u mojoj spavaćoj sobi. -
0:38 - 0:42Sad, u znanstvenim terminima,
-
0:42 - 0:45to nazivamo vrlo lošom idejom.
-
0:45 - 0:46(Smijeh)
-
0:46 - 0:48Nekako oko tog doba,
-
0:48 - 0:52Kubrick-ova "2001: Odiseja u Svemiru"
je došla u kina, -
0:52 - 0:54i moj se život zauvijek promijenio.
-
0:54 - 0:56Volio sam sve oko tog filma,
-
0:56 - 0:59posebno HAL 9000.
-
0:59 - 1:01Sad, HAL je bio svjesno računalo
-
1:01 - 1:03osmišljeno da vodi svemirsku
letjelicu Discovery -
1:03 - 1:06od Zemlje do Jupitera.
-
1:06 - 1:08HAL je također bio manjkav lik,
-
1:08 - 1:12jer je na kraju birao vrednovati
misiju više od ljudskog života. -
1:13 - 1:15Sad, HAL je bio izmišljeni lik,
-
1:15 - 1:18ali ipak se obraćao našim strahovima,
-
1:18 - 1:20našim strahovima o bivanju podčinjenim
-
1:20 - 1:23od strane neke
bezosjećajne, umjetne inteligencije -
1:23 - 1:25koja je ravnodušna spram naše ljudskosti.
-
1:26 - 1:28Vjerujem kako su takvi strahovi
neutemeljeni. -
1:28 - 1:31Zbilja, stojimo na upečatljivom mjestu
-
1:31 - 1:33u ljudskoj povijesti,
-
1:33 - 1:38gdje, potaknuti odbijanjem prihvaćanja
granica naših tijela i naših umova, -
1:38 - 1:39gradimo strojeve,
-
1:39 - 1:43fine, prekrasne
složenosti i ljepote -
1:43 - 1:45koji će proširiti ljudsko iskustvo
-
1:45 - 1:47na načine onkraj naše mašte.
-
1:48 - 1:50Nakon karijere koja me vodila
od Akademije zračnih snaga -
1:50 - 1:52preko Svemirskog zapovjedništva do sada,
-
1:52 - 1:54postao sam sistemski inženjer,
-
1:54 - 1:57i nedavno sam uvučen
u inženjerski problem -
1:57 - 1:59vezan uz NASA-inu misiju na Mars.
-
1:59 - 2:02Sad, u svemirskim letovima do Mjeseca,
-
2:02 - 2:05možemo se osloniti
na kontrolu misije u Houstonu -
2:05 - 2:07kako će paziti na sve aspekte leta.
-
2:07 - 2:11Međutim, Mars je 200 puta udaljeniji,
-
2:11 - 2:14te kao rezultat treba
prosječno 13 minuta -
2:14 - 2:17signalu da otputuje
od Zemlje do Marsa. -
2:17 - 2:20Ako ima nevolje,
nema dovoljno vremena. -
2:21 - 2:23I tako razumno inženjersko rješenje
-
2:23 - 2:26kaže nam neka stavimo kontrolu misije
-
2:26 - 2:29unutar zidova svemirske letjelice Orion.
-
2:29 - 2:32Druga očaravajuća ideja
u profilu misije -
2:32 - 2:35stavlja humanoidne robote
na površinu Marsa -
2:35 - 2:37prije nego sami ljudi doputuju,
-
2:37 - 2:38prvo kako bi sagradili postrojenja
-
2:38 - 2:42a kasnije kako bi služili kao
pomoćni članovi znanstvenog tima. -
2:43 - 2:46Sad, kad sam gledao na ovo
iz inženjerskog kuta, -
2:46 - 2:49postalo mi je vrlo jasno
kako je ono što trebam osmisliti -
2:49 - 2:52bila pametna, uslužna,
-
2:52 - 2:54društveno inteligentna
umjetna inteligencija. -
2:54 - 2:58Drugim riječima, trebao sam složiti
nešto vrlo slično HAL-u -
2:58 - 3:01ali bez ubilačkih sklonosti.
-
3:01 - 3:02(Smijeh)
-
3:03 - 3:05Zaustavimo se na trenutak.
-
3:05 - 3:09Je li stvarno moguće sagraditi
umjetnu inteligenciju poput ove? -
3:09 - 3:10Zapravo, jest.
-
3:10 - 3:11Na puno načina,
-
3:11 - 3:13ovo je tvrdi inženjerski problem
-
3:13 - 3:15s elementima UI,
-
3:15 - 3:20ne neki UI problem mokre lopte kose
kojeg treba osmisliti. -
3:20 - 3:22Da parafraziram Alana Turinga:
-
3:22 - 3:25Ne zanima me
izgradnja svjesnog stroja. -
3:25 - 3:26Ne gradim HAL-a.
-
3:26 - 3:29Sve za čime idem je
jednostavan mozak, -
3:29 - 3:32nešto što nudi privid inteligencije.
-
3:33 - 3:36Umjetnost i znanost računarstva
je prošla dalek put -
3:36 - 3:38otkad je HAL bio na ekranu,
-
3:38 - 3:41i mogu zamisliti kad bi njegov izumitelj
dr. Chandra bio ovdje danas, -
3:41 - 3:43imao bi cijeli niz pitanja za nas.
-
3:43 - 3:45Je li nam zbilja moguće
-
3:45 - 3:49uzeti sustav od milijuna
i milijuna uređaja, -
3:49 - 3:51čitati njihove tokove podataka,
-
3:51 - 3:53predviđati njihove kvarove
te djelovati unaprijed? -
3:53 - 3:54Da.
-
3:54 - 3:58Možemo li graditi sustave koji
razgovaraju s ljudima prirodnim jezikom? -
3:58 - 3:59Da.
-
3:59 - 4:02Možemo li graditi sustave
koji prepoznaju objekte, identificiraju osjećaje, -
4:02 - 4:05sami izražavaju emocije,
igraju igre i čak čitaju s usana? -
4:05 - 4:06Da.
-
4:07 - 4:09Možemo li sagraditi sustav
koji postavlja ciljeve, -
4:09 - 4:12potom izvršava planove
prema tim ciljevima te usput uči? -
4:12 - 4:14Da.
-
4:14 - 4:17Možemo li sagraditi sustave
koji imaju teoriju uma? -
4:17 - 4:18To upravo učimo.
-
4:18 - 4:22Možemo li sagraditi sustave
koji imaju etičke i moralne temelje? -
4:22 - 4:25Ovo moramo naučiti kako.
-
4:25 - 4:27Pa prihvatimo na trenutak
-
4:27 - 4:30kako je moguće sagraditi
takvu umjetnu inteligenciju -
4:30 - 4:32za ovu vrstu misije i slično.
-
4:32 - 4:34Slijedeće pitanje
koje biste se trebali pitati je, -
4:34 - 4:36bismo li je se trebali bojati?
-
4:36 - 4:38Sad, svaka nova tehnologija
-
4:38 - 4:41sa sobom donosi
neku mjeru strepnje. -
4:41 - 4:42Kad smo prvo vidjeli aute,
-
4:43 - 4:47ljudi su se žalili kako ćemo vidjeti
uništenje obitelji. -
4:47 - 4:49Kad smo prvo vidjeli telefone kako dolaze,
-
4:49 - 4:52ljudi su brinuli kako će uništiti
sav uljudan razgovor. -
4:52 - 4:56U točci vremena kad smo vidjeli
kako pisana riječ sve više prožima, -
4:56 - 4:59ljudi su mislili kako ćemo izgubiti
našu sposobnost pamćenja. -
4:59 - 5:01Sve su te stvari točne do nekog stupnja,
-
5:01 - 5:03ali je također slučaj
kako su nam te tehnologije -
5:03 - 5:07dovele stvari koje su
proširile ljudsko iskustvo -
5:07 - 5:08na neke duboke načine.
-
5:10 - 5:12Pa hajdemo s ovim još malo dalje.
-
5:13 - 5:18Ne bojim se
stvaranje UI poput ove, -
5:18 - 5:22jer će s vremenom
utjeloviti neke od naših vrijednosti. -
5:22 - 5:25Uzmite u obzir ovo: izgradnja
spoznajnog sustava je iz temelja različita -
5:25 - 5:29od izgradnje tradicionalnog softverski
intenzivnog sustava u prošlosti. -
5:29 - 5:31Ne programiramo ih. Učimo ih.
-
5:31 - 5:34Kako bismo sustav naučili
prepoznavati cvijeće, -
5:34 - 5:37pokazujem mu tisuće vrsta cvjetova
koje mi se sviđaju. -
5:37 - 5:39Kako bismo sustav naučili
igrati igru -- -
5:39 - 5:41Dobro, ja bih. I vi bi.
-
5:43 - 5:45Sviđa mi se cvijeće. Hajde.
-
5:45 - 5:48Naučiti sustav kako
igrati igru kakva je Go, -
5:48 - 5:50pustit ću ga neka odigra
tisuće partija Go-a, -
5:50 - 5:52ali ću ga u postupku
također naučiti i -
5:52 - 5:54kako razaznati
dobru partiju od loše partije. -
5:55 - 5:58Ako želim stvoriti umjetno
inteligentnog pravnog savjetnika, -
5:58 - 6:00naučit ću ga neki korpus zakona
-
6:00 - 6:03ali ću u isto vrijeme spojiti s njim
-
6:03 - 6:06osjećaj milosti i pravde
koji je dio tog zakona. -
6:07 - 6:10Znanstvenim rječnikom, to je
ono što zovemo neposredna informacija, -
6:10 - 6:12a evo važnog momenta:
-
6:12 - 6:13u stvaranju svih tih strojeva,
-
6:13 - 6:16mi ih dakle učimo
smislu naših vrijednosti. -
6:17 - 6:20Stoga, vjerujem
umjetnoj inteligenciji -
6:20 - 6:23isto, ako ne i više,
koliko i čovjeku koji je dobro obučen. -
6:24 - 6:25Ali, možete pitati,
-
6:25 - 6:28što sa nevaljalim igračima,
-
6:28 - 6:31nekom dobro financiranom
nevladinom organizacijom? -
6:31 - 6:35Ne bojim se umjetne inteligencije
u rukama vuka samotnjaka. -
6:35 - 6:40Jasno, ne možemo se zaštititi
od svih nasumičnih činova nasilja, -
6:40 - 6:42ali stvarnost je da takav sustav
-
6:42 - 6:45traži znatnu obuku
i finu obuku -
6:45 - 6:47daleko onkraj resursa pojedinca.
-
6:47 - 6:49I nadalje,
-
6:49 - 6:52to je daleko više nego
samo ubaciti internetski virus u svijet, -
6:52 - 6:55gdje pritisnete tipku,
odjednom je na milijun mjesta -
6:55 - 6:57i laptopi posvuda
krenu eksplodirati. -
6:57 - 7:00Sad, ove su vrste stvari
puno veće, -
7:00 - 7:02i sigurno ćemo ih vidjeti kako dolaze.
-
7:03 - 7:06Bojim li se kako bi takva
umjetna inteligencija -
7:06 - 7:08mogla zaprijetiti cijelom čovječanstvu?
-
7:08 - 7:13Ako pogledate filmove
kao što su "Matrix" ili "Metropolis," -
7:13 - 7:16"Terminator,"
serije kao što je "Westworld," -
7:16 - 7:18svi oni pričaju o ovom tipu straha.
-
7:18 - 7:22Zbilja, u knjizi "Superinteligencija"
filozofa Nicka Bostroma, -
7:22 - 7:24on polazi od ove teme
-
7:24 - 7:28te uočava kako superinteligencija
može biti ne samo opasna, -
7:28 - 7:32mogla bi predstavljati egzistencijalnu
opasnost svom čovječanstvu. -
7:32 - 7:34Dr. Bostromov temeljni argument
-
7:34 - 7:37je kako će takvi sustavi s vremenom
-
7:37 - 7:40imati tako neutaživu žeđ
za informacijom -
7:40 - 7:43da će možda naučiti kako učiti
-
7:43 - 7:46te s vremenom otkriti
kako mogu imati ciljeve -
7:46 - 7:48koji su suprotni ljudskim potrebama.
-
7:48 - 7:50Dr. Bostrom ima neki broj sljedbenika.
-
7:50 - 7:54Podržavaju ga ljudi
poput Elona Muska i Stephena Hawkinga. -
7:55 - 7:57Sa svim dužnim poštovanjem
-
7:58 - 8:00prema tim briljantnim umovima,
-
8:00 - 8:02vjerujem kako su oni
iz temelja u krivu. -
8:02 - 8:06Sad, ima puno dijelova
dr. Bostromovog argumenta za maknuti, -
8:06 - 8:08a nemam vremena kako bih ih maknuo sve,
-
8:08 - 8:11ali vrlo kratko, razmislite o ovome:
-
8:11 - 8:14super znanje je vrlo različito
od super djelovanja. -
8:14 - 8:16HAL je bio prijetnja posadi Discoveryja
-
8:16 - 8:21samo stoga što je HAL
upravljao svime u Discoveryju. -
8:21 - 8:23Tako bi trebalo biti
i sa superinteligencijom. -
8:23 - 8:26Morala bi imati vlast
nad cijelim našim svijetom. -
8:26 - 8:29Tako je sastavljen Skynet
iz filma "Terminator" -
8:29 - 8:30u kojem smo imali superinteligenciju
-
8:30 - 8:32koja je upravljala ljudskom voljom,
-
8:32 - 8:36koja je vodila svaki uređaj
koji je bio u svakom kutku svijeta. -
8:36 - 8:37Praktično govoreći,
-
8:37 - 8:39to se neće dogoditi.
-
8:39 - 8:42Ne gradimo UI-e
koji kontroliraju vrijeme, -
8:42 - 8:44koji upravljaju plimom,
-
8:44 - 8:47koji upravljaju nama
jogunastima, kaotičnim ljudima. -
8:47 - 8:51I nadalje, ako bi takva
umjetna superinteligencija postojala, -
8:51 - 8:54morala bi se nadmetati
sa ljudskim ekonomijama, -
8:54 - 8:57i time se nadmetati za resurse sa nama.
-
8:57 - 8:58I na kraju --
-
8:58 - 9:00nemojte reći Siri ovo --
-
9:00 - 9:02uvijek ih možemo ištekati.
-
9:02 - 9:04(Smijeh)
-
9:05 - 9:08Mi smo na nevjerojatnom putovanju
-
9:08 - 9:10koevolucije sa našim strojevima.
-
9:10 - 9:13Ljudi koji smo danas
-
9:13 - 9:15nisu ljudi koji ćemo biti tada.
-
9:15 - 9:19Brinuti sada o usponu
superinteligencije -
9:19 - 9:22je na puno načina
opasno odvraćanje pažnje -
9:22 - 9:24stoga što nam već uspon računarstva sam
-
9:24 - 9:27donosi brojna
ljudska i društvena pitanja -
9:27 - 9:29kojima se moramo pozabaviti sada.
-
9:29 - 9:32Kako ću najbolje organizirati društvo
-
9:32 - 9:35kad se potreba za radom smanji?
-
9:35 - 9:38Kako mogu donijeti razumijevanje
i obrazovanje širom svijeta -
9:38 - 9:40a i dalje uvažavati razlike?
-
9:40 - 9:44Kako mogu produljiti i poboljšati ljudski
život kroz kognitivnu zdravstvenu skrb? -
9:44 - 9:47Kako mogu koristiti računarstvo
-
9:47 - 9:49za pomoć kako bi došli do zvijezda?
-
9:50 - 9:52A to je uzbudljiva stvar.
-
9:52 - 9:55Prilike za korištenje računarstva
-
9:55 - 9:56kako bi unaprijedili ljudsko iskustvo
-
9:56 - 9:58su nam unutar dosega,
-
9:58 - 10:00sada i ovdje,
-
10:00 - 10:01a tek smo na početku.
-
10:02 - 10:03Hvala vam puno.
-
10:04 - 10:08(Pljesak)
- Title:
- Nemojte se bojati superinteligentne UI
- Speaker:
- Grady Booch
- Description:
-
Nova tehnologija rađa nove strahove, kaže znanstvenik i filozof Grady Booch, ali ne moramo se bojati svemoćne bezosjećajne umjetne inteligencije (UI). Booch ublažuje naše najgore strahove (uzrokovane ZF-om) o superinteligentnim računalima objašnjavajući nam kako ćemo ih učiti, ne programirati, kako dijeliti naše vrijednosti. Umjesto da se brinemo oko nevjerojatne egzistencijalne prijetnje, potiče nas razmisliti kako će umjetna inteligencija poboljšati ljudski život.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Tilen Pigac - EFZG accepted Croatian subtitles for Don't fear superintelligent AI | ||
Tilen Pigac - EFZG edited Croatian subtitles for Don't fear superintelligent AI | ||
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI | ||
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI | ||
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI | ||
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI |