< Return to Video

Kevin Slavin: Kako algoritmi oblikuju naš svijet

  • 0:00 - 0:02
    Ovo je fotografija
  • 0:02 - 0:04
    od umjetnika Michaela Najjara,
  • 0:04 - 0:06
    i ona je stvarna,
  • 0:06 - 0:08
    u smislu da je otišao u Argentinu
  • 0:08 - 0:10
    kako bi uslikao ovu fotografiju.
  • 0:10 - 0:13
    No ona je i fikcija. Mnogo posla je još uloženo nakon toga.
  • 0:13 - 0:15
    A ono što je učinio
  • 0:15 - 0:17
    je da je zapravo preoblikovao, digitalno,
  • 0:17 - 0:19
    sve konture planina
  • 0:19 - 0:22
    kako bi pratio promjene Dow Jones indeksa.
  • 0:22 - 0:24
    Stoga ono što vidite,
  • 0:24 - 0:26
    da litica, da je visoka litica u dolini,
  • 0:26 - 0:28
    financijska kriza 2008.
  • 0:28 - 0:30
    Fotografija je uslikana
  • 0:30 - 0:32
    kada smo bili duboko u dolini ondje.
  • 0:32 - 0:34
    Neznam gdje smo sada.
  • 0:34 - 0:36
    Ovo je Hang Seng index
  • 0:36 - 0:38
    za Hong Kong.
  • 0:38 - 0:40
    I slična topografija.
  • 0:40 - 0:42
    Pitam se zašto.
  • 0:42 - 0:45
    Ovo je umjetnost. Ovo je metafora.
  • 0:45 - 0:47
    No mislim da je poanta u
  • 0:47 - 0:49
    tome da su ovo metafore sa zubima.
  • 0:49 - 0:52
    I s ovim zubima želim danas predložiti
  • 0:52 - 0:54
    da promislimo malo
  • 0:54 - 0:57
    o ulozi suvremene matematike --
  • 0:57 - 1:00
    ne samo financijske matematike, već matematike općenito.
  • 1:00 - 1:02
    Da je ona tranzicija
  • 1:02 - 1:05
    od nečega što smo istisnuli i izvukli iz svijeta
  • 1:05 - 1:08
    do nečega što zapravo počinje oblikovati
  • 1:08 - 1:11
    svijet oko nas i svijet unutar nas.
  • 1:11 - 1:13
    To se posebno odnosi na algoritme,
  • 1:13 - 1:15
    koji su zapravo matematika
  • 1:15 - 1:18
    koju računala koriste kako bi odlučili o nečemu.
  • 1:18 - 1:20
    Oni stječu senzibilitet istine,
  • 1:20 - 1:22
    jer se iznova ponavljaju.
  • 1:22 - 1:25
    Oni se okoštavaju i kalcificiraju,
  • 1:25 - 1:27
    te postaju stvarni.
  • 1:27 - 1:30
    O ovome sam razmišljao, od svih mjesta,
  • 1:30 - 1:33
    na prekoatlantskom letu prije nekoliko godina,
  • 1:33 - 1:35
    zato jer sam slučajno dobio mjesto
  • 1:35 - 1:37
    kraj mađarskog fizičara mojih godina
  • 1:37 - 1:39
    i pričali smo o
  • 1:39 - 1:41
    tome kakav je bio život tokom hladnog rata
  • 1:41 - 1:43
    za fizičare u Mađarskoj.
  • 1:43 - 1:45
    Pitao sam, "I što ste radili?"
  • 1:45 - 1:47
    On odgovara, "Više manje smo razbijali nevidljivost."
  • 1:47 - 1:49
    Odgovaram, "To je dobar posao. To je zanimljivo.
  • 1:49 - 1:51
    Kako to funkcionira?"
  • 1:51 - 1:53
    Da biste to razumjeli,
  • 1:53 - 1:56
    morate malo razumjeti kako nevidljivost funkcionira.
  • 1:56 - 1:59
    I tako -- ovo je pojednostavljenje --
  • 1:59 - 2:01
    no u osnovi, nije samo da
  • 2:01 - 2:03
    može proći radarski signal
  • 2:03 - 2:06
    kroz 156 tona čelika u zraku.
  • 2:06 - 2:09
    Neće samo odjedanput nestati.
  • 2:09 - 2:12
    No ukoliko možete uzeti ovu veliku, masivnu stvar,
  • 2:12 - 2:15
    i možete ju pretvoriti u
  • 2:15 - 2:17
    milijun malih stvari --
  • 2:17 - 2:19
    nešto kao jato ptica --
  • 2:19 - 2:21
    onda zapravo radar koji to traži
  • 2:21 - 2:23
    mora biti u mogućnosti da vidi
  • 2:23 - 2:25
    sva jata ptica u zraku.
  • 2:25 - 2:29
    A ukoliko ste radar, to je stvarno težak posao.
  • 2:29 - 2:32
    On odgovara, "Da." Kaže on, "No to ako si radar."
  • 2:32 - 2:34
    Stoga nismo koristili radar;
  • 2:34 - 2:37
    izradili smo crnu kutiju koja traži električne signale,
  • 2:37 - 2:40
    elektroničku komunikaciju.
  • 2:40 - 2:43
    I svaki put kada smo vidjeli jato ptica koje ima elektroničku komunikaciju,
  • 2:43 - 2:46
    mislili smo kako vjerovatno ima nekakve veze s amerikancima."
  • 2:46 - 2:48
    "Da" kažem ja.
  • 2:48 - 2:50
    To je dobro.
  • 2:50 - 2:52
    Znači vi ste efikasno negirali
  • 2:52 - 2:54
    60 godina aeronautičkog istraživanja.
  • 2:54 - 2:56
    Koji vam je drugi čin?
  • 2:56 - 2:58
    Što radite nakon što odrastete?"
  • 2:58 - 3:00
    Odgovara on,
  • 3:00 - 3:02
    "Pa, financijske usluge."
  • 3:02 - 3:04
    "Oh," kažem ja.
  • 3:04 - 3:07
    Zato jer toga vidimo po vijestima u zadnje vrijeme.
  • 3:07 - 3:09
    Kažem ja, "I kako to funkcionira?"
  • 3:09 - 3:11
    Odgovara on, "Trenutno je 2.000 fizičara na Wall Street-u,
  • 3:11 - 3:13
    a ja sam jedan od njih."
  • 3:13 - 3:16
    Kažem ja, "I što je crna kutija za Wall Street?"
  • 3:16 - 3:18
    Odgovara on, "Smiješno što me tako pitaš,
  • 3:18 - 3:21
    jer se zapravo zove trgovanje crnom kutijom.
  • 3:21 - 3:23
    Nekada se još naziva algo trgovanje,
  • 3:23 - 3:26
    algoritamsko trgovanje."
  • 3:26 - 3:29
    I algoritamsko trgovanje je djelomično evoluiralo
  • 3:29 - 3:32
    iz razloga što su institucionalni 'trejderi' imali iste probleme
  • 3:32 - 3:35
    koje je imalo Američko zrakoplovstvo,
  • 3:35 - 3:38
    gdje oni zapravo premještaju ove pozicije --
  • 3:38 - 3:40
    nebitno radi li se o Proctor & Gamble-u ili Accenturu --
  • 3:40 - 3:42
    oni premještaju milijun udjela nečega
  • 3:42 - 3:44
    kroz tržište.
  • 3:44 - 3:46
    Te ukoliko sve to naprave odjednom,
  • 3:46 - 3:48
    to je kao da igrate poker i odmah sve ulažete.
  • 3:48 - 3:50
    Zapravo ste pokazali svoje karte.
  • 3:50 - 3:52
    Stoga moraju pronaći način --
  • 3:52 - 3:54
    i koriste algoritme kako bi to učinili --
  • 3:54 - 3:56
    da razbijete tu veliku stvar
  • 3:56 - 3:58
    na milijun malih transakcija.
  • 3:58 - 4:00
    Magija i horor iza toga
  • 4:00 - 4:02
    je da ista ta matematika
  • 4:02 - 4:04
    koju koristite da razbijete tu veliku stvar
  • 4:04 - 4:06
    na milijun malih stvari
  • 4:06 - 4:08
    može se koristiti za pronalaženje milijuna malih stvari
  • 4:08 - 4:10
    koje spajate natrag zajedno
  • 4:10 - 4:12
    i odgonetnete što se zapravo događa na tržištu.
  • 4:12 - 4:14
    Stoga ako trebate imati neku sliku
  • 4:14 - 4:17
    o tome što se trenutno događa na tržištu vrijednosnica,
  • 4:17 - 4:19
    ono što možete zamisliti je hrpa algoritama
  • 4:19 - 4:22
    koji su u biti programirani da se sakriju,
  • 4:22 - 4:25
    i hrpa algoritama koja je programirana da ih pronađe i djeluje.
  • 4:25 - 4:28
    I to je sve super, u redu je.
  • 4:28 - 4:30
    I to se odnosi na 70 posto
  • 4:30 - 4:32
    tržišta vrijednosnica u Sjedinjenim Državama.
  • 4:32 - 4:34
    70 posto od operativnog sustava
  • 4:34 - 4:37
    poznatog kao vaša mirovina,
  • 4:37 - 4:40
    vaša hipoteka.
  • 4:40 - 4:42
    Što može poći po zlu?
  • 4:42 - 4:44
    Ono što može poći po zlu
  • 4:44 - 4:46
    je da prije godinu dana,
  • 4:46 - 4:49
    devet posto cijelog tržišta samo je nestalo u pet minuta,
  • 4:49 - 4:52
    i nazivaju ga 'flash crash' od 2:45
  • 4:52 - 4:55
    Odjednom, devet posto samo nestane,
  • 4:55 - 4:57
    i nitko do danas
  • 4:57 - 4:59
    se ne može složiti što se zapravo dogodilo,
  • 4:59 - 5:02
    jer nitko nije to naručio, nitko nije zatražio.
  • 5:02 - 5:05
    Nitko nije imaju bilo kakvu kontrolu nad onime što se zapravo događalo.
  • 5:05 - 5:07
    Sve što su imali
  • 5:07 - 5:09
    je monitor ispred njih
  • 5:09 - 5:11
    koji je prikazivao brojeve
  • 5:11 - 5:13
    i crveno dugme
  • 5:13 - 5:15
    na kojemu piše, "Stop."
  • 5:15 - 5:17
    O tome se radi,
  • 5:17 - 5:19
    da pišemo stvari,
  • 5:19 - 5:22
    pišemo te stvari koje više ne možemo pročitati.
  • 5:22 - 5:24
    Napravili smo nešto
  • 5:24 - 5:26
    nečitko.
  • 5:26 - 5:29
    I izgubili smo osjećaj
  • 5:29 - 5:31
    što se zapravo događa
  • 5:31 - 5:33
    u ovome svijetu koji smo stvorili.
  • 5:33 - 5:35
    Počinjemo stvarati svoj put.
  • 5:35 - 5:38
    Postoji kompanija u Bostonu pod imenom Nanex,
  • 5:38 - 5:40
    koja koristi matematiku i magiju
  • 5:40 - 5:42
    i tko zna što drugo,
  • 5:42 - 5:44
    posežu za svim podacima s tržišta
  • 5:44 - 5:47
    i pronađu, nekada, neke od ovih algoritama.
  • 5:47 - 5:50
    I kada ih nađu izvuku ih van
  • 5:50 - 5:53
    i zakvače ih za zid kao leptire.
  • 5:53 - 5:55
    I učine, ono što uvijek činimo
  • 5:55 - 5:58
    kad se suočavamo s velikom količinom podataka koju ne razumijemo --
  • 5:58 - 6:00
    a to je da im daju ime
  • 6:00 - 6:02
    i priču.
  • 6:02 - 6:04
    Ovo je jedan kojeg su našli,
  • 6:04 - 6:08
    zovu ga Nož,
  • 6:08 - 6:10
    Karneval,
  • 6:10 - 6:14
    Bostonski prevrtljivac,
  • 6:14 - 6:16
    Sumrak.
  • 6:16 - 6:18
    I problem je taj,
  • 6:18 - 6:21
    naravno, da ovi ne prolaze samo kroz tržište.
  • 6:21 - 6:24
    Možete naći ovakve stvari gdjegod pogledate,
  • 6:24 - 6:26
    jednom kad naučite kako ih pronaći.
  • 6:26 - 6:29
    Možete ih naći ovdje: na ovoj knjizi o muhama
  • 6:29 - 6:31
    koju ste možda tražili na Amazonu.
  • 6:31 - 6:33
    Možda ste primjetili
  • 6:33 - 6:35
    kada joj je početna cijena bila 1,7 milijuna dolara.
  • 6:35 - 6:37
    Još uvijek je izvan tiska --
  • 6:37 - 6:39
    (Smijeh)
  • 6:39 - 6:42
    Da ste ju kupili za 1,7, to bi bilo jeftino.
  • 6:42 - 6:44
    Nekoliko sati poslije, porasla je
  • 6:44 - 6:46
    na 23,6 milijuna dolara,
  • 6:46 - 6:48
    plus troškovi transporta i rukovanja.
  • 6:48 - 6:50
    I pitanje je:
  • 6:50 - 6:52
    Nitko nije kupovao ni prodavao ništa; što se događalo?
  • 6:52 - 6:54
    Vidite ovo ponašanje na Amazonu
  • 6:54 - 6:56
    jednako kao što vidite na Wall Streetu.
  • 6:56 - 6:58
    I kada vidite ovakvo ponašanje,
  • 6:58 - 7:00
    vidite dokaz
  • 7:00 - 7:02
    algoritama u konfliktu,
  • 7:02 - 7:04
    algoritama zatvorenih u petlje jedne s drugima,
  • 7:04 - 7:06
    bez ljudskog nadzora,
  • 7:06 - 7:09
    bez nadzora odrasle osobe
  • 7:09 - 7:12
    koja kaže, "Zapravo, 1,7 milijuna je puno."
  • 7:12 - 7:15
    (Smijeh)
  • 7:15 - 7:18
    Kao i s Amazonom, tako je i s Netflixom.
  • 7:18 - 7:20
    Netflix je prošao kroz
  • 7:20 - 7:22
    nekoliko različitih algoritama tokom godina.
  • 7:22 - 7:25
    Počeli su s 'Cinematch', a postoje i mnogi drugi.
  • 7:25 - 7:27
    Imate Dinaosaurov planet, tu je Gravitacija.
  • 7:27 - 7:29
    Trenutno koriste Pragmatični Kaos.
  • 7:29 - 7:31
    Pragmatični Kaos, kao i svi Netflixovi algoritmi,
  • 7:31 - 7:33
    pokušava činiti istu stvar.
  • 7:33 - 7:35
    Pokušava vas dokučiti,
  • 7:35 - 7:37
    sistem unutar ljudske lubanje,
  • 7:37 - 7:39
    tako da bi mogao preporučiti koji film
  • 7:39 - 7:41
    možda želite gledati --
  • 7:41 - 7:44
    što je vrlo, vrlo težak problem.
  • 7:44 - 7:46
    No težina problema
  • 7:46 - 7:49
    i činjenica da zapravo još nismo na čisto,
  • 7:49 - 7:51
    ne osporava
  • 7:51 - 7:53
    efekte koje ima Pragmatični Kaos.
  • 7:53 - 7:56
    Pragmatični Kaos, kao svi Netflixovi algoritmi,
  • 7:56 - 7:58
    određuje, u konačnici,
  • 7:58 - 8:00
    60 posto
  • 8:00 - 8:02
    filmova koji se iznajme.
  • 8:02 - 8:04
    Stoga jedan komad koda
  • 8:04 - 8:07
    s jednom idejom o vama
  • 8:07 - 8:10
    je odgovoran za 60 posto tih filmova.
  • 8:10 - 8:12
    No što ukoliko biste mogli ocjeniti te filmove
  • 8:12 - 8:14
    prije nego što se naprave?
  • 8:14 - 8:16
    Ne bi li to bilo zgodno?
  • 8:16 - 8:19
    Pa, nekolicina podatkovnih znanstvenika iz U.K. su u Hollywoodu,
  • 8:19 - 8:21
    i imaju algoritme priče --
  • 8:21 - 8:23
    kompanija pod imenom Epagogix.
  • 8:23 - 8:26
    I možete provući svoj scenario ovdje,
  • 8:26 - 8:28
    i mogu vam reći, kvantificirano,
  • 8:28 - 8:30
    da je to film od 30 milijuna dolara
  • 8:30 - 8:32
    ili film od 200 milijuna dolara.
  • 8:32 - 8:34
    A radi se o tome da ovo nije Google.
  • 8:34 - 8:36
    Ovo nije informacija.
  • 8:36 - 8:38
    Ovo nisu financijski pokazatelji; ovo je kultura.
  • 8:38 - 8:40
    Ono što ovdje vidite,
  • 8:40 - 8:42
    ili što normalno ne vidite,
  • 8:42 - 8:46
    je da je ovo fizika kulture.
  • 8:46 - 8:48
    I ukoliko se ovi algoritmi,
  • 8:48 - 8:50
    kao algoritmi na Wall Street-u,
  • 8:50 - 8:53
    jednoga dana sruše i odu naopako,
  • 8:53 - 8:55
    kako bismo znali,
  • 8:55 - 8:57
    kako bi to izgledalo?
  • 8:57 - 9:00
    I oni su u vašim kućama. Oni su u vašim kućama.
  • 9:00 - 9:02
    Ovo su dva algoritma koji se natječu za vaš dnevni boravak.
  • 9:02 - 9:04
    Ovo su dva različita robota spremača
  • 9:04 - 9:07
    koji imaju vrlo različite ideje o tome što znači čisto.
  • 9:07 - 9:09
    I možete to vidjeti
  • 9:09 - 9:12
    ukoliko ih usporite i zakvačite svijetlo na njih.
  • 9:12 - 9:15
    I oni su kao tajni arhitekti u vašoj spavačoj sobi.
  • 9:15 - 9:18
    Te ideja da je arhitektura sama po sebi
  • 9:18 - 9:20
    na neki način subjekt algoritamske optimizacije
  • 9:20 - 9:22
    nije daleka.
  • 9:22 - 9:25
    To je super stvarno i događa se oko vas.
  • 9:25 - 9:27
    Najviše možete osjetiti
  • 9:27 - 9:29
    kada ste u zatvorenoj metalnoj kutiji,
  • 9:29 - 9:31
    dizala novog stila,
  • 9:31 - 9:33
    nazivaju se dizala kontrole destinacije.
  • 9:33 - 9:36
    To su ona na kojima morate prisitsnuti na koji kat želite ići
  • 9:36 - 9:38
    prije nego uđete u dizalo.
  • 9:38 - 9:40
    I koristi tzv. algoritam pakiranja kutije.
  • 9:40 - 9:42
    Stoga ništa od ovih besmislica
  • 9:42 - 9:44
    dopuštanja svima ulazak u vozilo koje žele.
  • 9:44 - 9:46
    Svatko to želi ići na 10 kat ulazi u vozilo dva,
  • 9:46 - 9:49
    a svatko tko želi ići na treći kat ulazi u vozilo pet.
  • 9:49 - 9:51
    A problem s time je
  • 9:51 - 9:53
    da ljudi polude.
  • 9:53 - 9:55
    Ljudi paniče.
  • 9:55 - 9:57
    I možete vidjeti zašto. Vidite zašto.
  • 9:57 - 9:59
    To je zato jer dizalu
  • 9:59 - 10:02
    nedostaju neki važni instrumenti, kao dugmad.
  • 10:02 - 10:04
    (Smijeh)
  • 10:04 - 10:06
    Nešto što ljudi koriste.
  • 10:06 - 10:08
    Jedino što ima
  • 10:08 - 10:11
    je broj koji se kreće gore ili dolje
  • 10:11 - 10:14
    i crveno dugme koje kaže, "Stop."
  • 10:14 - 10:17
    I zbog toga dizajniramo.
  • 10:17 - 10:19
    Mi dizajniramo
  • 10:19 - 10:21
    za ovaj dijalekt strojeva.
  • 10:21 - 10:24
    I koliko daleko možete ići s time? Koliko daleko možete otići?
  • 10:24 - 10:26
    Možete otići jako, jako daleko.
  • 10:26 - 10:29
    Vratimo se nazad na Wall Street.
  • 10:30 - 10:32
    Jer algoritmi s Wall Streeta
  • 10:32 - 10:35
    ovisni su o jednoj kvaliteti iznad svega,
  • 10:35 - 10:37
    a to je brzina.
  • 10:37 - 10:40
    I oni rade na milisekundama i mikrosekundama.
  • 10:40 - 10:42
    Da dobijete osjećaj što su mikrosekunde,
  • 10:42 - 10:44
    potrebno je 500.000 mikrosekundi
  • 10:44 - 10:46
    kako bi kliknuli miša.
  • 10:46 - 10:48
    No ako ste algoritam s Wall Street-a
  • 10:48 - 10:50
    i zaostajete pet mikrosekundi,
  • 10:50 - 10:52
    vi ste gubitnik.
  • 10:52 - 10:54
    Stoga da ste algoritam,
  • 10:54 - 10:57
    potražili bi arhitekta kao onoga što sam sreo u Frankfurtu
  • 10:57 - 10:59
    koji je ispražnjavao neboder --
  • 10:59 - 11:02
    izbacujući sav namještaj, svu infrastrukturu potrebnu čovjeku,
  • 11:02 - 11:05
    i samo ostavljajući čelik na podovima
  • 11:05 - 11:08
    spremajući ga za postavljanje servera --
  • 11:08 - 11:10
    sve kako bi algoritam
  • 11:10 - 11:13
    bio bliže Internetu.
  • 11:13 - 11:16
    A vi zamišljate Internet kao sistem distribucije.
  • 11:16 - 11:19
    Naravno, on to je, ali se distribuira s određenog mjesta.
  • 11:19 - 11:21
    U New Yorku, odavde se distribuira:
  • 11:21 - 11:23
    Carrier Hotel
  • 11:23 - 11:25
    smješten u Hudson ulici.
  • 11:25 - 11:28
    I ovdje je zapravo mjesto gdje žice izlaze van u grad.
  • 11:28 - 11:32
    I stvarnost je ta da što ste dalje od toga,
  • 11:32 - 11:34
    vi ste nekoliko mikrosekundi iza svaki put.
  • 11:34 - 11:36
    Ovi momci dolje s Wall Streeta,
  • 11:36 - 11:38
    Marko Polo i Cherokee Nacija,
  • 11:38 - 11:40
    oni su osam mikrosekundi
  • 11:40 - 11:42
    iza svih ovih drugih
  • 11:42 - 11:46
    koji se nalaze u ovim praznim ispraznjenim zgradama
  • 11:46 - 11:48
    oko Carrier Hotela.
  • 11:48 - 11:51
    I to će se nastaviti događati.
  • 11:51 - 11:53
    Nastavit ćemo ih ispražnjavati
  • 11:53 - 11:56
    zato jer, inč po inč
  • 11:56 - 11:59
    i funtu za funtu i dolar za dolar,
  • 11:59 - 12:02
    nitko od vas ne može iscjediti prihod iz prostora
  • 12:02 - 12:05
    kao što to može Bostonski Prevrtljivac.
  • 12:05 - 12:07
    No ako odzumirate
  • 12:07 - 12:09
    ako odzumirate,
  • 12:09 - 12:13
    vidjeli bi rov od 825 milja
  • 12:13 - 12:15
    između New Yorka i Chicaga
  • 12:15 - 12:17
    koji se gradi zadnjih nekoliko godina
  • 12:17 - 12:20
    od kompanije Spread Networks.
  • 12:20 - 12:22
    Ovo je svjetlosni optički kabel
  • 12:22 - 12:24
    koji je položen između ova dva grada
  • 12:24 - 12:27
    kako bi bili u mogućnosti poslati samo jedan signal
  • 12:27 - 12:30
    37 puta brže nego što možete kliknuti mišem --
  • 12:30 - 12:33
    samo za ove algoritme,
  • 12:33 - 12:36
    samo za Karneval i Nož.
  • 12:36 - 12:38
    I kada razmislite o ovome,
  • 12:38 - 12:40
    da prolazimo kroz Sjedinjene Države
  • 12:40 - 12:43
    s dinamitom i pilama za kamen
  • 12:43 - 12:45
    kako bi algoritam mogao zatvoriti poziciju
  • 12:45 - 12:48
    tri mikrosekunde brže,
  • 12:48 - 12:50
    sve za komunikacijski sistem
  • 12:50 - 12:54
    za koji čovjek nikad neće znati,
  • 12:54 - 12:57
    to je kao manifest sudbine
  • 12:57 - 13:00
    i uvijek će tražiti nove granice.
  • 13:00 - 13:03
    Nažalost, mi smo izostavljeni iz ovog posla.
  • 13:03 - 13:05
    Ovo je samo teoretski.
  • 13:05 - 13:07
    Ovo su neki matematičari sa MIT-a.
  • 13:07 - 13:09
    Istina je da nažalost ne razumijem
  • 13:09 - 13:11
    mnogo toga o čemu pričaju.
  • 13:11 - 13:14
    Uključuje svjetlosni stožac i kvantnu zapreku,
  • 13:14 - 13:16
    i ne razumijem ništa od toga.
  • 13:16 - 13:18
    Ali mogu čitati ovu kartu.
  • 13:18 - 13:20
    A ono o čemu ova karta govori je da
  • 13:20 - 13:23
    ukoliko želite zaraditi novac na tržištima gdje se nalaze crvene točke,
  • 13:23 - 13:25
    tamo gdje se nalaze ljudi, gradovi,
  • 13:25 - 13:28
    morat ćete postaviti servere tamo gdje se nalaze plave točke
  • 13:28 - 13:30
    kako bi bili što efikasniji.
  • 13:30 - 13:33
    Ono što ste mogli zamjetiti na plavim točkama
  • 13:33 - 13:36
    je da se mnogo njih nalaze usred oceana.
  • 13:36 - 13:39
    I to je što ćemo napraviti, sagradit ćemo balone ili nešto drugo,
  • 13:39 - 13:41
    ili platforme.
  • 13:41 - 13:43
    Mi ćemo zapravo razdvajati vodu
  • 13:43 - 13:45
    kako bi izvukli novac iz zraka
  • 13:45 - 13:47
    zato jer je to sjajna budućnost
  • 13:47 - 13:49
    ukoliko ste algoritam.
  • 13:49 - 13:51
    (Smijeh)
  • 13:51 - 13:54
    I ne radi se o novcu da je toliko interesantan zapravo.
  • 13:54 - 13:56
    Radi se o tome što novac motivira.
  • 13:56 - 13:58
    Mi zapravo teraformiramo
  • 13:58 - 14:00
    samu Zemlju
  • 14:00 - 14:02
    s ovom algoritamskom efikasnošću.
  • 14:02 - 14:04
    U tome svjetlu,
  • 14:04 - 14:06
    vratite se nazad
  • 14:06 - 14:08
    i pogledajte fotografije Michaela Najjara,
  • 14:08 - 14:11
    i shvatite da one nisu metafora, one su proročanstvo.
  • 14:11 - 14:13
    One su proročanstvo
  • 14:13 - 14:17
    za ove seizmičke, zemaljske učinke
  • 14:17 - 14:19
    matematike koju stvaramo.
  • 14:19 - 14:22
    I pejzaž je uvijek bio načinjen
  • 14:22 - 14:25
    od ove čudne, nelagodne suradnje
  • 14:25 - 14:28
    između prirode i čovjeka.
  • 14:28 - 14:31
    No sada imamo i treću ko-evolucijsku silu: algoritme --
  • 14:31 - 14:34
    Bostonskog Prevrtljivca, Karneval.
  • 14:34 - 14:37
    I morat ćemo ih shvatiti kao prirodu.
  • 14:37 - 14:39
    Na neki način, oni to i jesu.
  • 14:39 - 14:41
    Hvala vam.
  • 14:41 - 15:01
    (Pljesak)
Title:
Kevin Slavin: Kako algoritmi oblikuju naš svijet
Speaker:
Kevin Slavin
Description:

Kevin Slavin tvrdi da živimo u svijetu dizajniranom za -- te sve više kontroliranom od -- algoritama. U ovome govoru s TEDGlobal-a koji će vas prikovati, on pokazuje kako kompleksni računalni programi određuju: špijunske taktike, cijene dionica, filmske scenarije i arhitekturu. Upozorava da pišemo kod koji ne možemo razumjeti, s posljedicama koje ne možemo kontrolirati.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:02
Matija Stepic added a translation

Croatian subtitles

Revisions