Šta će se desiti kad naši kompjuteri postanu pametniji od nas?
-
0:01 - 0:05Ja radim sa grupom matematičara,
filozofa i informatičara -
0:05 - 0:10i mi, između ostalog, sedimo
i razmišljamo o budućnosti -
0:10 - 0:12mašinske inteligencije.
-
0:12 - 0:17Neki misle da su neke od ovih stvari
kao naučna fantastika, -
0:17 - 0:20uvrnute, lude.
-
0:20 - 0:21Ali ja volim da kažem:
-
0:21 - 0:25pogledajmo kako izgleda moderni čovek.
-
0:25 - 0:27(Smeh)
-
0:27 - 0:29Normalno je da bude ovako.
-
0:29 - 0:31Ali ako razmislimo,
-
0:31 - 0:35mi smo, kao ljudska vrsta,
skoro pristigli gosti -
0:35 - 0:37na ovoj planeti.
-
0:37 - 0:41Zamislite da je Zemlja nastala
pre godinu dana. -
0:41 - 0:45Ljudska vrsta bi onda
bila stara 10 minuta, -
0:45 - 0:48a industrijsko doba je počelo
pre dve sekunde. -
0:49 - 0:52Drugi način da predstavimo ovo
-
0:52 - 0:55jeste da pogledamo svetski BDP
u poslednjih 10.000 godina. -
0:55 - 0:58Potrudio sam se
da vam ovo predstavim grafički. -
0:58 - 0:59To izgleda ovako.
-
0:59 - 1:01(Smeh)
-
1:01 - 1:03U normalnoj situaciji,
to je neobičan oblik. -
1:03 - 1:05Sigurno ne bih voleo da sednem na njega.
-
1:05 - 1:07(Smeh)
-
1:07 - 1:12Zapitajmo se: šta je razlog
ove savremene anomalije? -
1:12 - 1:14Neki bi rekli da je to tehnologija.
-
1:14 - 1:19Istina je, tehnologija se nagomilala
tokom ljudske istorije, -
1:19 - 1:24a sada napreduje ekstremno brzo.
-
1:24 - 1:25To je neposredan uzrok,
-
1:25 - 1:28zbog toga smo toliko produktivni.
-
1:28 - 1:32Ali želeo bih da se vratim unazad
do prvobitnog uzroka. -
1:33 - 1:37Pogledajte ova dva cenjena gospodina.
-
1:37 - 1:38Imamo Kanzija -
-
1:38 - 1:43on je ovladao sa 200 leksičkih simbola,
što je neverovatan podvig. -
1:43 - 1:47A Ed Viten je pokrenuo drugu
revoluciju superstruna. -
1:47 - 1:49Ako pogledamo ispod haube,
pronaći ćemo ovo: -
1:49 - 1:51u osnovi istu stvar.
-
1:51 - 1:53Jedna je malo veća
-
1:53 - 1:55i možda ima par trikova
u načinu na koji je povezana. -
1:55 - 1:59Ove nevidljive razlike ne mogu biti
previše komplikovane, -
1:59 - 2:03jer je prošlo samo 250.000 generacija
-
2:03 - 2:05od našeg poslednjeg zajedničkog pretka.
-
2:05 - 2:09Znamo da komplikovanim mehanizmima
treba mnogo vremena da se razviju. -
2:10 - 2:12Tako da skup relativno malih promena
-
2:12 - 2:16nas od Kanzija dovodi do Vitena,
-
2:16 - 2:20od slomljenih grana drveća,
do interkontinentalnih raketa. -
2:21 - 2:25Onda izgleda prilično očigledno
da sve što smo postigli -
2:25 - 2:26i sve što nam je važno
-
2:26 - 2:31zavisi od nekih relativno malih promena
koje su stvorile ljudski um. -
2:33 - 2:36I onda, logično, sve dalje promene
-
2:36 - 2:40koje značajno menjaju osnovu mišljenja
-
2:40 - 2:43mogle bi imati potencijalno
ogromne posledice. -
2:44 - 2:47Neke moje kolege misle
da se nalazimo nadomak -
2:47 - 2:51nečega što bi moglo da prouzrokuje
duboku promenu u toj osnovi, -
2:51 - 2:54a to je mašinska superinteligencija.
-
2:54 - 2:59Veštačka inteligencija je dosad bila
kutija u koju ste ubacivali komande. -
2:59 - 3:01Ljudski programeri
-
3:01 - 3:04su brižljivo brusili kolekcije znanja.
-
3:04 - 3:06Razvijali su te ekspertske sisteme
-
3:06 - 3:08i oni su bili korisni za neke namene,
-
3:08 - 3:11ali su bili vrlo krhki,
niste mogli da ih podešavate. -
3:11 - 3:14U suštini, dobijali ste samo
ono što ste već imali ubačeno. -
3:14 - 3:15Ali od tada,
-
3:15 - 3:19desila se promena paradigme
na polju veštačke inteligencije. -
3:19 - 3:22Danas se najviše radi na mašinskom učenju.
-
3:22 - 3:28Ne kreiramo imitacije znanja
i njegove komponente, -
3:29 - 3:34već kreiramo algoritme koji uče
iz sirovih opažajnih podataka. -
3:34 - 3:39U suštini, isto kao što
to radi novorođenče. -
3:39 - 3:43Rezultat je veštačka inteligencija (V.I.)
koja nije ograničena na jednu oblast - -
3:43 - 3:48isti sistem može da nauči da prevodi
između bilo koja dva jezika -
3:48 - 3:53ili da nauči da igra
bilo koju igricu na Atariju. -
3:53 - 3:55Naravno,
-
3:55 - 3:59V.I. je još uvek daleko od toga
da može kao i ljudi -
3:59 - 4:02da uči i planira između
više oblasti istovremeno. -
4:02 - 4:04Korteks ima neke algoritamske trikove
-
4:04 - 4:07koje još uvek ne znamo kako
da postignemo kod mašina. -
4:08 - 4:10Tako da, pitanje je:
-
4:10 - 4:13koliko smo daleko od toga
da to postignemo? -
4:14 - 4:15Pre nekoliko godina
-
4:15 - 4:18anketirali smo neke
vodeće stručnjake za V.I. -
4:18 - 4:21da vidimo šta oni misle
i jedno od naših pitanja je bilo: -
4:21 - 4:25"Do koje godine mislite
da postoji 50% šanse -
4:25 - 4:28da ćemo kod mašina postići
inteligenciju koja je na nivou ljudske?" -
4:29 - 4:33Definisali smo "ljudski nivo"
kao sposobnost da se obavi -
4:33 - 4:36skoro svaki posao onako kao što
bi to uradila odrasla osoba. -
4:36 - 4:40Znači, na pravom ljudskom nivou,
a ne u nekoj ograničenoj oblasti. -
4:40 - 4:43I srednji odgovor je bio:
oko 2040. ili 2050, -
4:43 - 4:46u zavisnosti od toga koju smo tačno
grupu stručnjaka pitali. -
4:46 - 4:50Moglo bi da se desi i mnogo,
mnogo kasnije, ili ranije. -
4:50 - 4:52U stvari, niko to ne zna.
-
4:53 - 4:58Ono što znamo je da se
konačna granica obrade informacija -
4:58 - 5:03kod mašina nalazi daleko
izvan granica biološkog tkiva. -
5:03 - 5:06Ovo se svodi na fiziku.
-
5:06 - 5:10Biološki neuron radi, možda,
na 200 herca, 200 puta u sekundi. -
5:10 - 5:14Ali čak i današnji tranzistor
radi na jednom gigahercu. -
5:14 - 5:19Neuroni se razmnožavaju sporo u aksonima -
najviše 100 m u sekundi. -
5:19 - 5:22Ali u kompjuteru, signali mogu
da putuju brzinom svetlosti. -
5:23 - 5:25Takođe postoje ograničenja u veličini,
-
5:25 - 5:28kao što ih ima ljudski mozak
da bi stao u lobanju, -
5:28 - 5:33ali kompjuter može biti
veličine skladišta ili veći. -
5:33 - 5:38Tako da potencijal superinteligencije
čeka uspavan, -
5:38 - 5:44kao što je moć atoma
bila uspavana tokom ljudske istorije, -
5:44 - 5:48strpljivo čekajući do 1945.
-
5:48 - 5:50U ovom veku,
-
5:50 - 5:54naučnici možda nauče da probude
moć veštačke inteligencije. -
5:54 - 5:58I mislim da bismo tada mogli
da vidimo eksploziju inteligencije. -
5:58 - 6:02Većina ljudi kad pomisli
šta je pametno, a šta glupo, -
6:02 - 6:05mislim da u glavi ima sliku sličnu ovoj.
-
6:05 - 6:08Na jednom kraju imamo idiota,
-
6:08 - 6:10a daleko na drugom kraju
-
6:10 - 6:15imamo Eda Vitena, ili Alberta Ajnštajna,
ili nekog vašeg omiljenog gurua. -
6:15 - 6:19Ali s tačke gledišta
veštačke inteligencije, -
6:19 - 6:23prava slika više izgleda ovako:
-
6:23 - 6:27V.i. počinje u ovoj ovde tački,
na nultoj inteligenciji -
6:27 - 6:30i onda, posle mnogo, mnogo
godina vrednog rada, -
6:30 - 6:33možda konačno stignemo
do veštačke inteligencije na nivou miša, -
6:33 - 6:36koja može da se kreće
u zakrčenim prostorima -
6:36 - 6:38kao što to može miš.
-
6:38 - 6:42I zatim, posle još mnogo godina
vrednog rada i mnogo ulaganja, -
6:42 - 6:47možda konačno stignemo do nivoa šimpanze,
-
6:47 - 6:50a posle još više godina vrednog rada,
-
6:50 - 6:53do nivoa veštačke inteligencije idiota.
-
6:53 - 6:56A nekoliko trenutaka kasnije,
pretekli smo Eda Vitena. -
6:56 - 6:59Voz se neće zaustaviti
kad pretekne ljude, -
6:59 - 7:02već će najverovatnije,
samo prošišati pored. -
7:02 - 7:04Ovo ima suštinske posledice,
-
7:04 - 7:08naročito što se tiče pitanja moći.
-
7:08 - 7:10Na primer, šimpanze su snažne -
-
7:10 - 7:15šimpanza je oko dva puta
snažnija od čoveka. -
7:15 - 7:20Pa ipak, sudbina Kanzija
i njegovih drugara zavisi više -
7:20 - 7:24od toga šta mi ljudi radimo,
nego od toga šta šimpanze rade. -
7:25 - 7:28Kad se pojavi superinteligencija,
-
7:28 - 7:31sudbina čovečanstva može zavisiti od toga
šta superinteligencija radi. -
7:32 - 7:34Razmislite:
-
7:34 - 7:39mašinska inteligencija je poslednji izum
koji će čovečanstvo morati da napravi. -
7:39 - 7:42Mašine će tada biti bolje
u pronalazaštvu od nas -
7:42 - 7:44i to će raditi u digitalnim
vremenskim rokovima. -
7:44 - 7:49To u suštini znači skraćivanje budućnosti.
-
7:49 - 7:53Pomislite na svu neverovatnu tehnologiju
koju možete da zamislite -
7:53 - 7:55da bi ljudi mogli da razviju kroz vreme:
-
7:55 - 7:59lek protiv starenja, kolonizaciju svemira,
-
7:59 - 8:02samoreplikaciju nanorobota
ili čuvanje umova u kompjuterima, -
8:02 - 8:04raznorazne stvari iz naučne fantastike
-
8:04 - 8:07koje su ipak u skladu sa zakonima fizike.
-
8:07 - 8:11Sve to bi superinteligencija mogla
da napravi, i to verovatno jako brzo. -
8:12 - 8:16Superinteligecija s takvom
tehnološkom zrelošću -
8:16 - 8:18bila bi izuzetno moćna
-
8:18 - 8:23i, barem po nekim scenarijima,
mogla bi da dobije šta hoće. -
8:23 - 8:28Onda bismo imali budućnost
koja bi bila oblikovana po želji te V.I. -
8:30 - 8:34Sada je pitanje: kakve su te želje?
-
8:34 - 8:36Ovde nastaje začkoljica.
-
8:36 - 8:37Da bismo napredovali dalje,
-
8:37 - 8:41moramo prvo da izbegnemo antropomorfnost.
-
8:42 - 8:45To je ironično,
jer svaki novinski članak -
8:45 - 8:49o budućnosti V.I. zamišlja ovo:
-
8:50 - 8:54Mislim da bi trebalo da zamislimo
problem apstraktnije, -
8:54 - 8:57a ne kao živopisni holivudski scenario.
-
8:57 - 9:01Moramo da posmatramo inteligenciju
kao proces optimizacije, -
9:01 - 9:06proces koji vodi budućnost
u određeni set konfiguracija. -
9:06 - 9:10Superinteligencija je vrlo
snažan proces optimizacije. -
9:10 - 9:14Izuzetno je dobra u korišćenju
dostupnih sredstava da postigne stanje -
9:14 - 9:16u kome je njen cilj ostvaren.
-
9:16 - 9:19To znači da ne postoji
obavezno veza između: -
9:19 - 9:22biti visoko inteligentan u ovom smislu
-
9:22 - 9:27i imati cilj koji mi ljudi
smatramo važnim ili smislenim. -
9:27 - 9:31Pretpostavimo da damo V.I.
zadatak da nasmeje ljude. -
9:31 - 9:34Kada je V.I. slaba, ona izvodi
korisne ili zabavne radnje -
9:34 - 9:37koje prouzrokuju osmeh kod korisnika.
-
9:37 - 9:39Kada V.I. postane superinteligentna,
-
9:39 - 9:43ona shvata da postoji efikasniji način
da postigne taj cilj, -
9:43 - 9:44a to je da preuzme kontrolu nad svetom
-
9:44 - 9:48i prikači elektrode
na mišiće ljudskih lica -
9:48 - 9:51da bi proizvela konstantne kezove.
-
9:51 - 9:52Drugi primer je:
-
9:52 - 9:55pretpostavimo da V. I. damo zadatak
da reši težak matetematički problem. -
9:55 - 9:57Kad V.I. postane superinteligentna,
-
9:57 - 10:01shvati da je najefikasniji način
za rešenje ovog problema -
10:01 - 10:04da transformiše planetu
u džinovski kompjuter, -
10:04 - 10:06kako bi uvećala svoj
kapacitet za razmišljanje. -
10:06 - 10:09To daje veštačkoj inteligenciji
instrumentalni razlog -
10:09 - 10:12da nam radi stvari s kojima se
možda ne slažemo. -
10:12 - 10:13Ljudska bića su pretnja u ovom modelu,
-
10:13 - 10:16mogli bi da budu prepreka
za rešavanje matematičkog problema. -
10:17 - 10:21Naravno, stvari neće krenuti loše
baš na ovaj način; -
10:21 - 10:22ovo su primeri iz crtanog filma.
-
10:22 - 10:24Ali ovde je važna poenta:
-
10:24 - 10:27ako kreirate veoma moćan
proces optimizacije -
10:27 - 10:30da se postigne
maksimalan učinak za cilj X, -
10:30 - 10:32onda neka vaša definicija X-a
-
10:32 - 10:34obavezno uključi sve ono
do čega vam je stalo. -
10:35 - 10:39Ovo je lekcija kojoj nas takođe
uče i mnogi mitovi. -
10:39 - 10:45Kralj Mida poželi da sve što dodirne
bude pretvoreno u zlato. -
10:45 - 10:47I tako, dodirne ćerku
i ona se pretvori u zlato. -
10:47 - 10:50Dodirne hranu i ona se pretvori u zlato.
-
10:50 - 10:53To može biti relevantno i u praksi,
-
10:53 - 10:55ne samo kao metafora za pohlepu,
-
10:55 - 10:57već i kao ilustracija
za ono što bi se desilo -
10:57 - 10:59ako pogrešno kreirate
moćan proces optimizacije -
10:59 - 11:04ili loše formulišete ciljeve.
-
11:04 - 11:09Mogli biste reći: pa ako kompjuter počne
da kači elektrode ljudima na lica, -
11:09 - 11:12prosto ćemo ga isključiti.
-
11:13 - 11:18Pod A: to možda ne bi bilo tako lako,
ako bismo bili zavisni od sistema - -
11:18 - 11:21na primer: gde je prekidač
za gašenje interneta? -
11:21 - 11:26Pod B: zašto šimpanze nisu isključile
prekidač čovečanstvu, -
11:26 - 11:27ili Neandertalci?
-
11:27 - 11:30Sigurno ima razloga.
-
11:30 - 11:33Imamo prekidač za gašenje:
na primer, ovde. -
11:33 - 11:34(Gušenje)
-
11:34 - 11:37Razlog je to što smo mi
inteligentan neprijatelj; -
11:37 - 11:40možemo predvideti pretnje
i planirati kako da ih izbegnemo. -
11:40 - 11:42Ali to može i predstavnik
superinteligencije, -
11:42 - 11:46i bio bi mnogo bolji u tome od nas.
-
11:46 - 11:53Poenta je da ne treba da budemo
tako sigurni da imamo kontrolu ovde. -
11:53 - 11:56Mogli bismo da pokušamo
da malo olakšamo posao -
11:56 - 11:58tako što ćemo, recimo,
staviti V.I. u kutiju, -
11:58 - 12:00kao bezbedno okruženje za softver,
-
12:00 - 12:03simulaciju virtuelne realnosti
iz koje ona ne može pobeći. -
12:03 - 12:07Ali koliko možemo biti sigurni
da V.I. neće naći rupu? -
12:07 - 12:10S obzirom da ljudski hakeri
stalno nalaze rupe, -
12:10 - 12:13ja ne bih bio tako siguran.
-
12:14 - 12:19Isključimo eternet kabl
da bismo stvorili vazdušni zid, -
12:19 - 12:21ali, kao obični ljudski hakeri,
-
12:21 - 12:25rutinski preskačemo vazdušne zidove
pomoću socijalnog inženjeringa. -
12:25 - 12:26Upravo sada, dok govorim,
-
12:26 - 12:28siguran sam da negde
postoji neki zaposleni -
12:28 - 12:32koga neko nagovara
da mu da podatke o svom računu, -
12:32 - 12:35neko ko se predstavlja
da je iz IT sektora. -
12:35 - 12:37Ima još mogućih kreativnih scenarija,
-
12:37 - 12:39kao na primer, ako ste vi V.I.,
-
12:39 - 12:42možete zamisliti elektrode
u vašem unutrašnjem sistemu -
12:42 - 12:45koje stvaraju radio talase
koje možete koristiti za komunikaciju. -
12:45 - 12:47Ili možete da se pretvarate
da ste pokvareni -
12:47 - 12:51i kada vas programeri otvore
da vide šta nije u redu, -
12:51 - 12:53vide izvorni kod
-
12:53 - 12:55i manipulacija može da se desi.
-
12:55 - 12:59Ili može da prenese šemu
na pogodan tehnološki uređaj -
12:59 - 13:00i kada je sprovedemo,
-
13:00 - 13:05ima podrivajući efekat
koji je V.I. planirala. -
13:05 - 13:08Poenta je da treba da budemo sigurni
-
13:08 - 13:12da ćemo držati superinteligentnog duha
zaključanog u boci zauvek. -
13:12 - 13:14Pre ili kasnije će izaći.
-
13:15 - 13:18Mislim da je odgovor to da shvatimo
-
13:18 - 13:23kako da napravimo V.I. tako da,
čak i ako pobegne -
13:23 - 13:26budemo bezbedni
jer je suštinski na našoj strani -
13:26 - 13:28jer deli naše vrednosti.
-
13:28 - 13:32Ne vidim drugo rešenje
za ovaj težak problem. -
13:33 - 13:36Ali sam optimista da ovaj problem
može da se reši. -
13:36 - 13:40Ne bismo morali da pišemo dugu listu
svega onoga do čega nam je stalo -
13:40 - 13:44ili, još gore, pišemo to
na nekom kompjuterskom jeziku -
13:44 - 13:45kao što je C++ ili Pajton,
-
13:45 - 13:48što bi bio beznadežan zadatak.
-
13:48 - 13:52Umesto toga, napravili bismo V.I.
koja koristi svoju inteligenciju -
13:52 - 13:55da nauči šta mi vrednujemo
-
13:55 - 14:01i čiji motivacioni sistem
je konstruisan tako da je motivisan -
14:01 - 14:06da sledi naše vrednosti ili obavlja radnje
za koje predviđa da ih mi odobravamo. -
14:06 - 14:09Tako bismo iskoristili njenu inteligenciju
što je više moguće -
14:09 - 14:12da rešimo problem prenošenja vrednosti.
-
14:13 - 14:14Ovo može da se desi
-
14:14 - 14:18i ishod bi bio veoma dobar za čovečanstvo.
-
14:18 - 14:22Ali to se ne dešava automatski.
-
14:22 - 14:25Početni uslovi za eksploziju inteligencije
-
14:25 - 14:28možda treba da budu postavljeni
na tačno određen način -
14:28 - 14:31ako želimo da imamo
kontrolisanu detonaciju. -
14:31 - 14:34Vrednosti V.I. tribe
da se poklope sa našim, -
14:34 - 14:36ne samo u poznatim kontekstima,
-
14:36 - 14:38gde možemo lako proveriti
kako se V.I. ponaša, -
14:38 - 14:41nego i u novim kontekstima
u kojima se V.I. može naći -
14:41 - 14:43u neodređenoj budućnosti.
-
14:43 - 14:48Postoje i neka ezoterična pitanja
koja bi trebalo rešiti: -
14:48 - 14:50tačne detalje njene teorije odlučivanja,
-
14:50 - 14:52kako rešiti logičku nesigurnost itd.
-
14:53 - 14:57Tako da tehnički problemi koje bi
trebalo rešiti da bi ovo funkcionisalo -
14:57 - 14:58izgledaju prilično teški -
-
14:58 - 15:01ne toliko kao pravljenje
superinteligentne V.I., -
15:01 - 15:04ali prilično teški.
-
15:04 - 15:05Problem je u sledećem:
-
15:05 - 15:10napraviti superinteligentnu V.I.
je vrlo težak izazov. -
15:10 - 15:13Pravljenje superinteligentne V.I.
koja je bezbedna -
15:13 - 15:15uključuje još neke dodatne teškoće.
-
15:16 - 15:20Postoji rizik da neko otkrije
kako da razbije prvu teškoću, -
15:20 - 15:23a da nije razbio i dodatnu teškoću
-
15:23 - 15:25obezbeđivanja savršene bezbednosti.
-
15:25 - 15:29Mislim da bi trebalo da nađemo rešenje
-
15:29 - 15:32za kontrolu problema unapred
-
15:32 - 15:34da bismo ga imali na raspolaganju
kad dođe vreme. -
15:35 - 15:38Ali možda ne možemo da rešimo
ceo problem kontrole unapred, -
15:38 - 15:41jer možda neki elementi mogu da se ubace
-
15:41 - 15:45tek kad znamo detaljnu strukturu
na kojoj bi bilo primenjeno. -
15:45 - 15:49Ali što veći deo problema kontrole
rešimo unapred, -
15:49 - 15:53to su bolje šanse da će tranzicija
ka dobu mašinske inteligencije -
15:53 - 15:54proteći dobro
-
15:54 - 15:59To mi izgleda kao stvar
koju bi vredelo uraditi -
15:59 - 16:02i mogu da zamislim
da ako stvari ispadnu okej, -
16:02 - 16:07ljudi će za milion godina
pogledati unazad na ovo doba -
16:07 - 16:11i možda će reći da je
ono što je bilo zaista važno -
16:11 - 16:13bilo to da smo ovo uradili dobro.
-
16:13 - 16:14Hvala vam.
-
16:14 - 16:17(Aplauz)
- Title:
- Šta će se desiti kad naši kompjuteri postanu pametniji od nas?
- Speaker:
- Nik Bostrom (Nick Bostrom)
- Description:
-
Veštačka inteligencija napreduje krupnim koracima. U ovom veku, kažu naučnici, kompjuterska veštačka inteligencija mogla bi biti "pametna" kao čovek. A onda će nas, kaže Nik Bostrom, preteći: "Mašinska inteligencija je poslednji izum koji će čovečanstvo morati da napravi." Filozof i tehnolog, Bostrom nas moli da dobro razmislimo o svetu koji trenutno gradimo i kojim upravljaju misleće mašine. Da li će naše pametne mašine pomoći da se očuva čovečanstvo i naše vrednosti - ili će imati svoje sopstvene vrednosti?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Ivana Korom edited Serbian subtitles for What happens when our computers get smarter than we are? | ||
Ivana Korom edited Serbian subtitles for What happens when our computers get smarter than we are? | ||
Ivana Korom edited Serbian subtitles for What happens when our computers get smarter than we are? | ||
Ivana Korom edited Serbian subtitles for What happens when our computers get smarter than we are? | ||
Mile Živković approved Serbian subtitles for What happens when our computers get smarter than we are? | ||
Mile Živković edited Serbian subtitles for What happens when our computers get smarter than we are? | ||
Mile Živković accepted Serbian subtitles for What happens when our computers get smarter than we are? | ||
Mile Živković edited Serbian subtitles for What happens when our computers get smarter than we are? |