Kevin Slavin: Kako algoritmi oblikuju naš svijet
-
0:00 - 0:02Ovo je fotografija
-
0:02 - 0:04od umjetnika Michaela Najjara,
-
0:04 - 0:06i ona je stvarna,
-
0:06 - 0:08u smislu da je otišao u Argentinu
-
0:08 - 0:10kako bi uslikao ovu fotografiju.
-
0:10 - 0:13No ona je i fikcija. Mnogo posla je još uloženo nakon toga.
-
0:13 - 0:15A ono što je učinio
-
0:15 - 0:17je da je zapravo preoblikovao, digitalno,
-
0:17 - 0:19sve konture planina
-
0:19 - 0:22kako bi pratio promjene Dow Jones indeksa.
-
0:22 - 0:24Stoga ono što vidite,
-
0:24 - 0:26da litica, da je visoka litica u dolini,
-
0:26 - 0:28financijska kriza 2008.
-
0:28 - 0:30Fotografija je uslikana
-
0:30 - 0:32kada smo bili duboko u dolini ondje.
-
0:32 - 0:34Neznam gdje smo sada.
-
0:34 - 0:36Ovo je Hang Seng index
-
0:36 - 0:38za Hong Kong.
-
0:38 - 0:40I slična topografija.
-
0:40 - 0:42Pitam se zašto.
-
0:42 - 0:45Ovo je umjetnost. Ovo je metafora.
-
0:45 - 0:47No mislim da je poanta u
-
0:47 - 0:49tome da su ovo metafore sa zubima.
-
0:49 - 0:52I s ovim zubima želim danas predložiti
-
0:52 - 0:54da promislimo malo
-
0:54 - 0:57o ulozi suvremene matematike --
-
0:57 - 1:00ne samo financijske matematike, već matematike općenito.
-
1:00 - 1:02Da je ona tranzicija
-
1:02 - 1:05od nečega što smo istisnuli i izvukli iz svijeta
-
1:05 - 1:08do nečega što zapravo počinje oblikovati
-
1:08 - 1:11svijet oko nas i svijet unutar nas.
-
1:11 - 1:13To se posebno odnosi na algoritme,
-
1:13 - 1:15koji su zapravo matematika
-
1:15 - 1:18koju računala koriste kako bi odlučili o nečemu.
-
1:18 - 1:20Oni stječu senzibilitet istine,
-
1:20 - 1:22jer se iznova ponavljaju.
-
1:22 - 1:25Oni se okoštavaju i kalcificiraju,
-
1:25 - 1:27te postaju stvarni.
-
1:27 - 1:30O ovome sam razmišljao, od svih mjesta,
-
1:30 - 1:33na prekoatlantskom letu prije nekoliko godina,
-
1:33 - 1:35zato jer sam slučajno dobio mjesto
-
1:35 - 1:37kraj mađarskog fizičara mojih godina
-
1:37 - 1:39i pričali smo o
-
1:39 - 1:41tome kakav je bio život tokom hladnog rata
-
1:41 - 1:43za fizičare u Mađarskoj.
-
1:43 - 1:45Pitao sam, "I što ste radili?"
-
1:45 - 1:47On odgovara, "Više manje smo razbijali nevidljivost."
-
1:47 - 1:49Odgovaram, "To je dobar posao. To je zanimljivo.
-
1:49 - 1:51Kako to funkcionira?"
-
1:51 - 1:53Da biste to razumjeli,
-
1:53 - 1:56morate malo razumjeti kako nevidljivost funkcionira.
-
1:56 - 1:59I tako -- ovo je pojednostavljenje --
-
1:59 - 2:01no u osnovi, nije samo da
-
2:01 - 2:03može proći radarski signal
-
2:03 - 2:06kroz 156 tona čelika u zraku.
-
2:06 - 2:09Neće samo odjedanput nestati.
-
2:09 - 2:12No ukoliko možete uzeti ovu veliku, masivnu stvar,
-
2:12 - 2:15i možete ju pretvoriti u
-
2:15 - 2:17milijun malih stvari --
-
2:17 - 2:19nešto kao jato ptica --
-
2:19 - 2:21onda zapravo radar koji to traži
-
2:21 - 2:23mora biti u mogućnosti da vidi
-
2:23 - 2:25sva jata ptica u zraku.
-
2:25 - 2:29A ukoliko ste radar, to je stvarno težak posao.
-
2:29 - 2:32On odgovara, "Da." Kaže on, "No to ako si radar."
-
2:32 - 2:34Stoga nismo koristili radar;
-
2:34 - 2:37izradili smo crnu kutiju koja traži električne signale,
-
2:37 - 2:40elektroničku komunikaciju.
-
2:40 - 2:43I svaki put kada smo vidjeli jato ptica koje ima elektroničku komunikaciju,
-
2:43 - 2:46mislili smo kako vjerovatno ima nekakve veze s amerikancima."
-
2:46 - 2:48"Da" kažem ja.
-
2:48 - 2:50To je dobro.
-
2:50 - 2:52Znači vi ste efikasno negirali
-
2:52 - 2:5460 godina aeronautičkog istraživanja.
-
2:54 - 2:56Koji vam je drugi čin?
-
2:56 - 2:58Što radite nakon što odrastete?"
-
2:58 - 3:00Odgovara on,
-
3:00 - 3:02"Pa, financijske usluge."
-
3:02 - 3:04"Oh," kažem ja.
-
3:04 - 3:07Zato jer toga vidimo po vijestima u zadnje vrijeme.
-
3:07 - 3:09Kažem ja, "I kako to funkcionira?"
-
3:09 - 3:11Odgovara on, "Trenutno je 2.000 fizičara na Wall Street-u,
-
3:11 - 3:13a ja sam jedan od njih."
-
3:13 - 3:16Kažem ja, "I što je crna kutija za Wall Street?"
-
3:16 - 3:18Odgovara on, "Smiješno što me tako pitaš,
-
3:18 - 3:21jer se zapravo zove trgovanje crnom kutijom.
-
3:21 - 3:23Nekada se još naziva algo trgovanje,
-
3:23 - 3:26algoritamsko trgovanje."
-
3:26 - 3:29I algoritamsko trgovanje je djelomično evoluiralo
-
3:29 - 3:32iz razloga što su institucionalni 'trejderi' imali iste probleme
-
3:32 - 3:35koje je imalo Američko zrakoplovstvo,
-
3:35 - 3:38gdje oni zapravo premještaju ove pozicije --
-
3:38 - 3:40nebitno radi li se o Proctor & Gamble-u ili Accenturu --
-
3:40 - 3:42oni premještaju milijun udjela nečega
-
3:42 - 3:44kroz tržište.
-
3:44 - 3:46Te ukoliko sve to naprave odjednom,
-
3:46 - 3:48to je kao da igrate poker i odmah sve ulažete.
-
3:48 - 3:50Zapravo ste pokazali svoje karte.
-
3:50 - 3:52Stoga moraju pronaći način --
-
3:52 - 3:54i koriste algoritme kako bi to učinili --
-
3:54 - 3:56da razbijete tu veliku stvar
-
3:56 - 3:58na milijun malih transakcija.
-
3:58 - 4:00Magija i horor iza toga
-
4:00 - 4:02je da ista ta matematika
-
4:02 - 4:04koju koristite da razbijete tu veliku stvar
-
4:04 - 4:06na milijun malih stvari
-
4:06 - 4:08može se koristiti za pronalaženje milijuna malih stvari
-
4:08 - 4:10koje spajate natrag zajedno
-
4:10 - 4:12i odgonetnete što se zapravo događa na tržištu.
-
4:12 - 4:14Stoga ako trebate imati neku sliku
-
4:14 - 4:17o tome što se trenutno događa na tržištu vrijednosnica,
-
4:17 - 4:19ono što možete zamisliti je hrpa algoritama
-
4:19 - 4:22koji su u biti programirani da se sakriju,
-
4:22 - 4:25i hrpa algoritama koja je programirana da ih pronađe i djeluje.
-
4:25 - 4:28I to je sve super, u redu je.
-
4:28 - 4:30I to se odnosi na 70 posto
-
4:30 - 4:32tržišta vrijednosnica u Sjedinjenim Državama.
-
4:32 - 4:3470 posto od operativnog sustava
-
4:34 - 4:37poznatog kao vaša mirovina,
-
4:37 - 4:40vaša hipoteka.
-
4:40 - 4:42Što može poći po zlu?
-
4:42 - 4:44Ono što može poći po zlu
-
4:44 - 4:46je da prije godinu dana,
-
4:46 - 4:49devet posto cijelog tržišta samo je nestalo u pet minuta,
-
4:49 - 4:52i nazivaju ga 'flash crash' od 2:45
-
4:52 - 4:55Odjednom, devet posto samo nestane,
-
4:55 - 4:57i nitko do danas
-
4:57 - 4:59se ne može složiti što se zapravo dogodilo,
-
4:59 - 5:02jer nitko nije to naručio, nitko nije zatražio.
-
5:02 - 5:05Nitko nije imaju bilo kakvu kontrolu nad onime što se zapravo događalo.
-
5:05 - 5:07Sve što su imali
-
5:07 - 5:09je monitor ispred njih
-
5:09 - 5:11koji je prikazivao brojeve
-
5:11 - 5:13i crveno dugme
-
5:13 - 5:15na kojemu piše, "Stop."
-
5:15 - 5:17O tome se radi,
-
5:17 - 5:19da pišemo stvari,
-
5:19 - 5:22pišemo te stvari koje više ne možemo pročitati.
-
5:22 - 5:24Napravili smo nešto
-
5:24 - 5:26nečitko.
-
5:26 - 5:29I izgubili smo osjećaj
-
5:29 - 5:31što se zapravo događa
-
5:31 - 5:33u ovome svijetu koji smo stvorili.
-
5:33 - 5:35Počinjemo stvarati svoj put.
-
5:35 - 5:38Postoji kompanija u Bostonu pod imenom Nanex,
-
5:38 - 5:40koja koristi matematiku i magiju
-
5:40 - 5:42i tko zna što drugo,
-
5:42 - 5:44posežu za svim podacima s tržišta
-
5:44 - 5:47i pronađu, nekada, neke od ovih algoritama.
-
5:47 - 5:50I kada ih nađu izvuku ih van
-
5:50 - 5:53i zakvače ih za zid kao leptire.
-
5:53 - 5:55I učine, ono što uvijek činimo
-
5:55 - 5:58kad se suočavamo s velikom količinom podataka koju ne razumijemo --
-
5:58 - 6:00a to je da im daju ime
-
6:00 - 6:02i priču.
-
6:02 - 6:04Ovo je jedan kojeg su našli,
-
6:04 - 6:08zovu ga Nož,
-
6:08 - 6:10Karneval,
-
6:10 - 6:14Bostonski prevrtljivac,
-
6:14 - 6:16Sumrak.
-
6:16 - 6:18I problem je taj,
-
6:18 - 6:21naravno, da ovi ne prolaze samo kroz tržište.
-
6:21 - 6:24Možete naći ovakve stvari gdjegod pogledate,
-
6:24 - 6:26jednom kad naučite kako ih pronaći.
-
6:26 - 6:29Možete ih naći ovdje: na ovoj knjizi o muhama
-
6:29 - 6:31koju ste možda tražili na Amazonu.
-
6:31 - 6:33Možda ste primjetili
-
6:33 - 6:35kada joj je početna cijena bila 1,7 milijuna dolara.
-
6:35 - 6:37Još uvijek je izvan tiska --
-
6:37 - 6:39(Smijeh)
-
6:39 - 6:42Da ste ju kupili za 1,7, to bi bilo jeftino.
-
6:42 - 6:44Nekoliko sati poslije, porasla je
-
6:44 - 6:46na 23,6 milijuna dolara,
-
6:46 - 6:48plus troškovi transporta i rukovanja.
-
6:48 - 6:50I pitanje je:
-
6:50 - 6:52Nitko nije kupovao ni prodavao ništa; što se događalo?
-
6:52 - 6:54Vidite ovo ponašanje na Amazonu
-
6:54 - 6:56jednako kao što vidite na Wall Streetu.
-
6:56 - 6:58I kada vidite ovakvo ponašanje,
-
6:58 - 7:00vidite dokaz
-
7:00 - 7:02algoritama u konfliktu,
-
7:02 - 7:04algoritama zatvorenih u petlje jedne s drugima,
-
7:04 - 7:06bez ljudskog nadzora,
-
7:06 - 7:09bez nadzora odrasle osobe
-
7:09 - 7:12koja kaže, "Zapravo, 1,7 milijuna je puno."
-
7:12 - 7:15(Smijeh)
-
7:15 - 7:18Kao i s Amazonom, tako je i s Netflixom.
-
7:18 - 7:20Netflix je prošao kroz
-
7:20 - 7:22nekoliko različitih algoritama tokom godina.
-
7:22 - 7:25Počeli su s 'Cinematch', a postoje i mnogi drugi.
-
7:25 - 7:27Imate Dinaosaurov planet, tu je Gravitacija.
-
7:27 - 7:29Trenutno koriste Pragmatični Kaos.
-
7:29 - 7:31Pragmatični Kaos, kao i svi Netflixovi algoritmi,
-
7:31 - 7:33pokušava činiti istu stvar.
-
7:33 - 7:35Pokušava vas dokučiti,
-
7:35 - 7:37sistem unutar ljudske lubanje,
-
7:37 - 7:39tako da bi mogao preporučiti koji film
-
7:39 - 7:41možda želite gledati --
-
7:41 - 7:44što je vrlo, vrlo težak problem.
-
7:44 - 7:46No težina problema
-
7:46 - 7:49i činjenica da zapravo još nismo na čisto,
-
7:49 - 7:51ne osporava
-
7:51 - 7:53efekte koje ima Pragmatični Kaos.
-
7:53 - 7:56Pragmatični Kaos, kao svi Netflixovi algoritmi,
-
7:56 - 7:58određuje, u konačnici,
-
7:58 - 8:0060 posto
-
8:00 - 8:02filmova koji se iznajme.
-
8:02 - 8:04Stoga jedan komad koda
-
8:04 - 8:07s jednom idejom o vama
-
8:07 - 8:10je odgovoran za 60 posto tih filmova.
-
8:10 - 8:12No što ukoliko biste mogli ocjeniti te filmove
-
8:12 - 8:14prije nego što se naprave?
-
8:14 - 8:16Ne bi li to bilo zgodno?
-
8:16 - 8:19Pa, nekolicina podatkovnih znanstvenika iz U.K. su u Hollywoodu,
-
8:19 - 8:21i imaju algoritme priče --
-
8:21 - 8:23kompanija pod imenom Epagogix.
-
8:23 - 8:26I možete provući svoj scenario ovdje,
-
8:26 - 8:28i mogu vam reći, kvantificirano,
-
8:28 - 8:30da je to film od 30 milijuna dolara
-
8:30 - 8:32ili film od 200 milijuna dolara.
-
8:32 - 8:34A radi se o tome da ovo nije Google.
-
8:34 - 8:36Ovo nije informacija.
-
8:36 - 8:38Ovo nisu financijski pokazatelji; ovo je kultura.
-
8:38 - 8:40Ono što ovdje vidite,
-
8:40 - 8:42ili što normalno ne vidite,
-
8:42 - 8:46je da je ovo fizika kulture.
-
8:46 - 8:48I ukoliko se ovi algoritmi,
-
8:48 - 8:50kao algoritmi na Wall Street-u,
-
8:50 - 8:53jednoga dana sruše i odu naopako,
-
8:53 - 8:55kako bismo znali,
-
8:55 - 8:57kako bi to izgledalo?
-
8:57 - 9:00I oni su u vašim kućama. Oni su u vašim kućama.
-
9:00 - 9:02Ovo su dva algoritma koji se natječu za vaš dnevni boravak.
-
9:02 - 9:04Ovo su dva različita robota spremača
-
9:04 - 9:07koji imaju vrlo različite ideje o tome što znači čisto.
-
9:07 - 9:09I možete to vidjeti
-
9:09 - 9:12ukoliko ih usporite i zakvačite svijetlo na njih.
-
9:12 - 9:15I oni su kao tajni arhitekti u vašoj spavačoj sobi.
-
9:15 - 9:18Te ideja da je arhitektura sama po sebi
-
9:18 - 9:20na neki način subjekt algoritamske optimizacije
-
9:20 - 9:22nije daleka.
-
9:22 - 9:25To je super stvarno i događa se oko vas.
-
9:25 - 9:27Najviše možete osjetiti
-
9:27 - 9:29kada ste u zatvorenoj metalnoj kutiji,
-
9:29 - 9:31dizala novog stila,
-
9:31 - 9:33nazivaju se dizala kontrole destinacije.
-
9:33 - 9:36To su ona na kojima morate prisitsnuti na koji kat želite ići
-
9:36 - 9:38prije nego uđete u dizalo.
-
9:38 - 9:40I koristi tzv. algoritam pakiranja kutije.
-
9:40 - 9:42Stoga ništa od ovih besmislica
-
9:42 - 9:44dopuštanja svima ulazak u vozilo koje žele.
-
9:44 - 9:46Svatko to želi ići na 10 kat ulazi u vozilo dva,
-
9:46 - 9:49a svatko tko želi ići na treći kat ulazi u vozilo pet.
-
9:49 - 9:51A problem s time je
-
9:51 - 9:53da ljudi polude.
-
9:53 - 9:55Ljudi paniče.
-
9:55 - 9:57I možete vidjeti zašto. Vidite zašto.
-
9:57 - 9:59To je zato jer dizalu
-
9:59 - 10:02nedostaju neki važni instrumenti, kao dugmad.
-
10:02 - 10:04(Smijeh)
-
10:04 - 10:06Nešto što ljudi koriste.
-
10:06 - 10:08Jedino što ima
-
10:08 - 10:11je broj koji se kreće gore ili dolje
-
10:11 - 10:14i crveno dugme koje kaže, "Stop."
-
10:14 - 10:17I zbog toga dizajniramo.
-
10:17 - 10:19Mi dizajniramo
-
10:19 - 10:21za ovaj dijalekt strojeva.
-
10:21 - 10:24I koliko daleko možete ići s time? Koliko daleko možete otići?
-
10:24 - 10:26Možete otići jako, jako daleko.
-
10:26 - 10:29Vratimo se nazad na Wall Street.
-
10:30 - 10:32Jer algoritmi s Wall Streeta
-
10:32 - 10:35ovisni su o jednoj kvaliteti iznad svega,
-
10:35 - 10:37a to je brzina.
-
10:37 - 10:40I oni rade na milisekundama i mikrosekundama.
-
10:40 - 10:42Da dobijete osjećaj što su mikrosekunde,
-
10:42 - 10:44potrebno je 500.000 mikrosekundi
-
10:44 - 10:46kako bi kliknuli miša.
-
10:46 - 10:48No ako ste algoritam s Wall Street-a
-
10:48 - 10:50i zaostajete pet mikrosekundi,
-
10:50 - 10:52vi ste gubitnik.
-
10:52 - 10:54Stoga da ste algoritam,
-
10:54 - 10:57potražili bi arhitekta kao onoga što sam sreo u Frankfurtu
-
10:57 - 10:59koji je ispražnjavao neboder --
-
10:59 - 11:02izbacujući sav namještaj, svu infrastrukturu potrebnu čovjeku,
-
11:02 - 11:05i samo ostavljajući čelik na podovima
-
11:05 - 11:08spremajući ga za postavljanje servera --
-
11:08 - 11:10sve kako bi algoritam
-
11:10 - 11:13bio bliže Internetu.
-
11:13 - 11:16A vi zamišljate Internet kao sistem distribucije.
-
11:16 - 11:19Naravno, on to je, ali se distribuira s određenog mjesta.
-
11:19 - 11:21U New Yorku, odavde se distribuira:
-
11:21 - 11:23Carrier Hotel
-
11:23 - 11:25smješten u Hudson ulici.
-
11:25 - 11:28I ovdje je zapravo mjesto gdje žice izlaze van u grad.
-
11:28 - 11:32I stvarnost je ta da što ste dalje od toga,
-
11:32 - 11:34vi ste nekoliko mikrosekundi iza svaki put.
-
11:34 - 11:36Ovi momci dolje s Wall Streeta,
-
11:36 - 11:38Marko Polo i Cherokee Nacija,
-
11:38 - 11:40oni su osam mikrosekundi
-
11:40 - 11:42iza svih ovih drugih
-
11:42 - 11:46koji se nalaze u ovim praznim ispraznjenim zgradama
-
11:46 - 11:48oko Carrier Hotela.
-
11:48 - 11:51I to će se nastaviti događati.
-
11:51 - 11:53Nastavit ćemo ih ispražnjavati
-
11:53 - 11:56zato jer, inč po inč
-
11:56 - 11:59i funtu za funtu i dolar za dolar,
-
11:59 - 12:02nitko od vas ne može iscjediti prihod iz prostora
-
12:02 - 12:05kao što to može Bostonski Prevrtljivac.
-
12:05 - 12:07No ako odzumirate
-
12:07 - 12:09ako odzumirate,
-
12:09 - 12:13vidjeli bi rov od 825 milja
-
12:13 - 12:15između New Yorka i Chicaga
-
12:15 - 12:17koji se gradi zadnjih nekoliko godina
-
12:17 - 12:20od kompanije Spread Networks.
-
12:20 - 12:22Ovo je svjetlosni optički kabel
-
12:22 - 12:24koji je položen između ova dva grada
-
12:24 - 12:27kako bi bili u mogućnosti poslati samo jedan signal
-
12:27 - 12:3037 puta brže nego što možete kliknuti mišem --
-
12:30 - 12:33samo za ove algoritme,
-
12:33 - 12:36samo za Karneval i Nož.
-
12:36 - 12:38I kada razmislite o ovome,
-
12:38 - 12:40da prolazimo kroz Sjedinjene Države
-
12:40 - 12:43s dinamitom i pilama za kamen
-
12:43 - 12:45kako bi algoritam mogao zatvoriti poziciju
-
12:45 - 12:48tri mikrosekunde brže,
-
12:48 - 12:50sve za komunikacijski sistem
-
12:50 - 12:54za koji čovjek nikad neće znati,
-
12:54 - 12:57to je kao manifest sudbine
-
12:57 - 13:00i uvijek će tražiti nove granice.
-
13:00 - 13:03Nažalost, mi smo izostavljeni iz ovog posla.
-
13:03 - 13:05Ovo je samo teoretski.
-
13:05 - 13:07Ovo su neki matematičari sa MIT-a.
-
13:07 - 13:09Istina je da nažalost ne razumijem
-
13:09 - 13:11mnogo toga o čemu pričaju.
-
13:11 - 13:14Uključuje svjetlosni stožac i kvantnu zapreku,
-
13:14 - 13:16i ne razumijem ništa od toga.
-
13:16 - 13:18Ali mogu čitati ovu kartu.
-
13:18 - 13:20A ono o čemu ova karta govori je da
-
13:20 - 13:23ukoliko želite zaraditi novac na tržištima gdje se nalaze crvene točke,
-
13:23 - 13:25tamo gdje se nalaze ljudi, gradovi,
-
13:25 - 13:28morat ćete postaviti servere tamo gdje se nalaze plave točke
-
13:28 - 13:30kako bi bili što efikasniji.
-
13:30 - 13:33Ono što ste mogli zamjetiti na plavim točkama
-
13:33 - 13:36je da se mnogo njih nalaze usred oceana.
-
13:36 - 13:39I to je što ćemo napraviti, sagradit ćemo balone ili nešto drugo,
-
13:39 - 13:41ili platforme.
-
13:41 - 13:43Mi ćemo zapravo razdvajati vodu
-
13:43 - 13:45kako bi izvukli novac iz zraka
-
13:45 - 13:47zato jer je to sjajna budućnost
-
13:47 - 13:49ukoliko ste algoritam.
-
13:49 - 13:51(Smijeh)
-
13:51 - 13:54I ne radi se o novcu da je toliko interesantan zapravo.
-
13:54 - 13:56Radi se o tome što novac motivira.
-
13:56 - 13:58Mi zapravo teraformiramo
-
13:58 - 14:00samu Zemlju
-
14:00 - 14:02s ovom algoritamskom efikasnošću.
-
14:02 - 14:04U tome svjetlu,
-
14:04 - 14:06vratite se nazad
-
14:06 - 14:08i pogledajte fotografije Michaela Najjara,
-
14:08 - 14:11i shvatite da one nisu metafora, one su proročanstvo.
-
14:11 - 14:13One su proročanstvo
-
14:13 - 14:17za ove seizmičke, zemaljske učinke
-
14:17 - 14:19matematike koju stvaramo.
-
14:19 - 14:22I pejzaž je uvijek bio načinjen
-
14:22 - 14:25od ove čudne, nelagodne suradnje
-
14:25 - 14:28između prirode i čovjeka.
-
14:28 - 14:31No sada imamo i treću ko-evolucijsku silu: algoritme --
-
14:31 - 14:34Bostonskog Prevrtljivca, Karneval.
-
14:34 - 14:37I morat ćemo ih shvatiti kao prirodu.
-
14:37 - 14:39Na neki način, oni to i jesu.
-
14:39 - 14:41Hvala vam.
-
14:41 - 15:01(Pljesak)
- Title:
- Kevin Slavin: Kako algoritmi oblikuju naš svijet
- Speaker:
- Kevin Slavin
- Description:
-
Kevin Slavin tvrdi da živimo u svijetu dizajniranom za -- te sve više kontroliranom od -- algoritama. U ovome govoru s TEDGlobal-a koji će vas prikovati, on pokazuje kako kompleksni računalni programi određuju: špijunske taktike, cijene dionica, filmske scenarije i arhitekturu. Upozorava da pišemo kod koji ne možemo razumjeti, s posljedicama koje ne možemo kontrolirati.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 15:02