1 00:00:01,644 --> 00:00:04,789 Dakle, umjetna inteligencija 2 00:00:04,789 --> 00:00:08,318 poznata je po remećenju svih vrsta industrija. 3 00:00:08,961 --> 00:00:11,004 Što je sa sladoledima? 4 00:00:11,879 --> 00:00:15,518 Koje nevjerojatne vrste novih okusa bismo mogli napraviti 5 00:00:15,542 --> 00:00:18,518 uz sposobnosti napredne umjetne inteligencije? 6 00:00:19,011 --> 00:00:23,172 Dakle, udružila sam se s timom programera iz Srednje škole "Kealing" 7 00:00:23,196 --> 00:00:25,437 kako bih pronašla odgovor na ovo pitanje. 8 00:00:25,461 --> 00:00:30,542 Oni su skupili preko 1600 postojećih okusa sladoleda 9 00:00:30,566 --> 00:00:36,088 i zajedno smo ih stavili u algoritam kako bismo vidjeli što će proizvesti. 10 00:00:36,112 --> 00:00:39,865 I evo nekoliko okusa koje je UI smislila. 11 00:00:40,264 --> 00:00:41,915 [Pauza za smeće od bundeve] 12 00:00:41,939 --> 00:00:42,961 (Smijeh) 13 00:00:42,985 --> 00:00:45,834 [Ljiga od kikiriki maslaca] 14 00:00:46,442 --> 00:00:48,165 [Bolest kreme od jagoda] 15 00:00:48,189 --> 00:00:50,315 (Smijeh) 16 00:00:50,339 --> 00:00:54,936 Ovi okusi nisu ukusni onoliko koliko smo se nadali da bi mogli biti. 17 00:00:54,960 --> 00:00:56,824 Dakle, pitanje je: Što se dogodilo? 18 00:00:56,848 --> 00:00:58,242 Što je pošlo po zlu? 19 00:00:58,266 --> 00:01:00,225 Pokušava li nas UI ubiti? 20 00:01:01,027 --> 00:01:05,337 Ili pokušava napraviti ono što smo tražili, ali se pojavio problem? 21 00:01:06,567 --> 00:01:09,031 U filmovima, kada nešto s UI pođe po zlu, 22 00:01:09,055 --> 00:01:11,767 obično je to zato što je UI odlučila 23 00:01:11,791 --> 00:01:14,063 kako ne želi više izvršavati naredbe ljude 24 00:01:14,087 --> 00:01:16,710 i kako ima svoje ciljeve, molim lijepo. 25 00:01:17,266 --> 00:01:20,432 U stvarnosti, ipak, UI koju imamo 26 00:01:20,436 --> 00:01:22,609 nije ni blizu toliko pametna za takvo nešto. 27 00:01:22,781 --> 00:01:25,763 Računalna moć joj je otprilike veličine 28 00:01:25,787 --> 00:01:27,063 gliste 29 00:01:27,087 --> 00:01:30,490 ili možda najviše jedne pčele, 30 00:01:30,514 --> 00:01:32,729 a zapravo, vjerojatno i manja. 31 00:01:32,753 --> 00:01:35,347 Stalno učimo nove stvari o mozgu 32 00:01:35,371 --> 00:01:39,731 koje potvrđuju koliko zapravo naša UI nije ni blizu pravog mozga. 33 00:01:39,755 --> 00:01:45,418 Današnja UI može obaviti zadatak kao što je identificiranje pješaka na slici, 34 00:01:45,442 --> 00:01:48,425 ali nema predodžbu toga što je pješak, 35 00:01:48,449 --> 00:01:53,273 osim što je skup linija, tekstura i stvari. 36 00:01:53,792 --> 00:01:56,313 Ne zna što je zapravo čovjek. 37 00:01:56,822 --> 00:02:00,104 Dakle, hoće li današnja UI učiniti ono što od nje tražimo? 38 00:02:00,128 --> 00:02:01,722 Hoće ako može, 39 00:02:01,746 --> 00:02:04,472 ali možda neće moći napraviti ono što mi zapravo želimo. 40 00:02:04,496 --> 00:02:06,911 Recimo da pokušavate učiniti da UI 41 00:02:06,935 --> 00:02:09,554 uzme ovu skupinu dijelova robota 42 00:02:09,578 --> 00:02:13,775 i sastavi ih u nekakvog robota da dođe od točke A do točke B. 43 00:02:13,799 --> 00:02:15,705 Ako pokušate riješiti problem 44 00:02:15,705 --> 00:02:18,655 tako da napišete tradicionalan kompjutorski program, 45 00:02:18,679 --> 00:02:22,096 dali biste programu upute korak po korak 46 00:02:22,120 --> 00:02:23,449 kako da uzme dijelove 47 00:02:23,473 --> 00:02:25,880 i sastavi ih u robota s nogama, 48 00:02:25,904 --> 00:02:28,846 a onda kako da upotrijebi te noge da dođe do točke B. 49 00:02:29,441 --> 00:02:31,781 Ali kada koristite UI za rješavanje problema, 50 00:02:31,805 --> 00:02:32,979 to ide drugačije. 51 00:02:33,003 --> 00:02:35,385 Ne kažete joj kako da riješi problem, 52 00:02:35,409 --> 00:02:36,888 samo joj date cilj, 53 00:02:36,912 --> 00:02:40,174 a ona mora sama zaključiti, kroz sustav pokušaja i pogrešaka, 54 00:02:40,198 --> 00:02:41,682 kako doći do tog cilja. 55 00:02:42,254 --> 00:02:46,356 Ispada kako UI ovaj problem nastoji riješiti 56 00:02:46,380 --> 00:02:47,864 radeći ovo: 57 00:02:47,888 --> 00:02:51,255 sastavi se u toranj i onda se sruši 58 00:02:51,279 --> 00:02:53,106 i sleti na točku B. 59 00:02:53,130 --> 00:02:55,959 Tehnički, ovo rješava problem. 60 00:02:55,983 --> 00:02:57,622 Tehnički, došla je do točke B. 61 00:02:57,646 --> 00:03:01,911 Opasnost od UI nije što će se pobuniti protiv nas, 62 00:03:01,935 --> 00:03:06,209 nego što će napraviti točno ono što od nje tražimo. 63 00:03:06,876 --> 00:03:09,374 Tako da pitanje rada s UI postaje: 64 00:03:09,398 --> 00:03:13,226 Kako postaviti problem tako da zapravo napravi ono što mi želimo? 65 00:03:14,726 --> 00:03:18,032 Ovim malim robotom ovdje upravlja UI. 66 00:03:18,056 --> 00:03:20,870 UI smislila je dizajn za noge robota 67 00:03:20,894 --> 00:03:24,972 i onda pronašla način kako ih iskoristiti da prijeđe sve ove prepreke. 68 00:03:24,996 --> 00:03:27,737 Ali kada je David Ha postavio ovaj eksperiment, 69 00:03:27,761 --> 00:03:30,617 morao ga je postaviti s veoma, veoma čvrstim ograničenjima 70 00:03:30,641 --> 00:03:33,933 u vezi toga koliko velike noge UI smije napraviti, 71 00:03:33,957 --> 00:03:35,507 inače... 72 00:03:43,058 --> 00:03:46,989 (Smijeh) 73 00:03:48,563 --> 00:03:52,308 I tehnički, došla je do kraja tog slijeda prepreka. 74 00:03:52,332 --> 00:03:57,274 Dakle, vidite koliko je teško dobiti da UI napravi nešto jednostavno kao hodanje. 75 00:03:57,298 --> 00:04:01,118 Gledajući kako UI ovo radi možete reći, OK, nije fer, 76 00:04:01,142 --> 00:04:03,722 ne možeš biti samo visoki toranj i srušiti se, 77 00:04:03,746 --> 00:04:07,181 moraš zapravo upotrijebiti noge za hodanje. 78 00:04:07,205 --> 00:04:09,964 A ispada kako ni to ne upali svaki puta. 79 00:04:09,988 --> 00:04:12,747 Posao je ove UI da se kreće brzo. 80 00:04:13,115 --> 00:04:16,708 Nisu joj rekli da mora trčati dok je okrenuta prema naprijed 81 00:04:16,732 --> 00:04:18,990 ili da ne smije koristiti ruke. 82 00:04:19,487 --> 00:04:24,105 Ovo dobijete kada kažete UI da se kreće brzo, 83 00:04:24,129 --> 00:04:27,663 dobijete salta i čudna hodanja. 84 00:04:27,687 --> 00:04:29,087 To je uobičajeno. 85 00:04:29,667 --> 00:04:32,846 Kao i što je trzanje po podu dok je skupljena na hrpu. 86 00:04:32,870 --> 00:04:34,020 (Smijeh) 87 00:04:35,241 --> 00:04:38,495 Tako da po mom mišljenju, znate što bi trebalo biti puno čudnije? 88 00:04:38,519 --> 00:04:39,915 "Terminator" roboti. 89 00:04:40,256 --> 00:04:44,011 Hakiranje "Matrice" još je jedna stvar koju će UI napraviti ako joj date priliku. 90 00:04:44,035 --> 00:04:46,552 Tako da ako stavite UI u simulaciju, 91 00:04:46,576 --> 00:04:50,689 naučit će kako napraviti stvari kao što su hakiranje u matematičke pogreške simulacije 92 00:04:50,713 --> 00:04:52,920 i upotrijebiti ih za energiju. 93 00:04:52,924 --> 00:04:58,429 Ili će skužiti kako se kretati brže tražeći greške kako bi prošla ispod površine. 94 00:04:58,443 --> 00:05:00,028 Kada radite s UI, 95 00:05:00,052 --> 00:05:02,441 nije kao da radite s drugim čovjekom, 96 00:05:02,465 --> 00:05:06,094 više je kao da radite s nekakvom čudnom silom prirode. 97 00:05:06,562 --> 00:05:11,185 I veoma je jednostavno slučajno dati UI da riješi krivi problem, 98 00:05:11,209 --> 00:05:15,747 a to često ne shvatimo dok nešto ne pođe po zlu. 99 00:05:16,242 --> 00:05:18,322 Evo eksperimenta koji sam napravila 100 00:05:18,346 --> 00:05:21,528 u kojem sam htjela da UI kopira boje za slikanje, 101 00:05:21,552 --> 00:05:23,298 kako bi izmislila nove boje, 102 00:05:23,322 --> 00:05:26,309 kada joj damo popis kao što je ovaj lijevo. 103 00:05:26,798 --> 00:05:28,826 I evo što je UI smislila. 104 00:05:29,826 --> 00:05:32,969 [Sindis kakica, Govnasto, Patiti, Siva stidna] (okvirna značenja) 105 00:05:32,993 --> 00:05:37,223 (Smijeh) 106 00:05:39,177 --> 00:05:41,063 Dakle tehnički, 107 00:05:41,087 --> 00:05:42,951 napravila je ono što sam je tražila. 108 00:05:42,975 --> 00:05:46,283 Mislila sam da sam je tražila lijepa imena za boje, 109 00:05:46,307 --> 00:05:48,614 ali ono što sam je zapravo tražila 110 00:05:48,638 --> 00:05:51,724 je da samo imitira vrste kombinacije slova 111 00:05:51,748 --> 00:05:53,653 koje je vidjela u originalu. 112 00:05:53,677 --> 00:05:56,775 I nisam joj rekla ništa o tome što riječi znače 113 00:05:56,799 --> 00:05:59,359 ili o tome kako bi mogle postojati riječi 114 00:05:59,383 --> 00:06:02,272 koje bi trebala izbjegavati u ovim bojama za slikanje. 115 00:06:03,141 --> 00:06:06,635 Dakle njezin cijeli svijet sastoji se od podataka koje joj dam. 116 00:06:06,659 --> 00:06:10,687 Kao i s okusima sladoleda, ne zna ni za što drugo. 117 00:06:12,491 --> 00:06:14,129 Tako da zapravo kroz podatke 118 00:06:14,153 --> 00:06:18,197 često UI slučajno govorimo da napravi krivu stvar. 119 00:06:18,694 --> 00:06:21,726 Ovo je riba linjak. 120 00:06:21,750 --> 00:06:23,565 Bila je grupa istraživača 121 00:06:23,589 --> 00:06:27,463 koja je trenirala UI da pronađe linjaka na slikama. 122 00:06:27,487 --> 00:06:28,713 Ali kada su je upitali 123 00:06:28,717 --> 00:06:32,233 koji je dio slike zapravo koristila da pronađe ribu, 124 00:06:32,257 --> 00:06:33,615 evo što je pokazala. 125 00:06:35,203 --> 00:06:37,392 Da, to su ljudski prsti. 126 00:06:37,416 --> 00:06:39,285 Zašto bi tražila ljudske prste 127 00:06:39,309 --> 00:06:41,420 ako nastoji pronaći ribu? 128 00:06:42,126 --> 00:06:45,290 Pa, ispada kako je linjak trofejna riba, 129 00:06:45,314 --> 00:06:49,125 tako da je na većini slika riba koje je UI vidjela 130 00:06:49,149 --> 00:06:50,300 tijekom treninga, 131 00:06:50,324 --> 00:06:51,814 ova riba izgledala ovako. 132 00:06:51,838 --> 00:06:53,473 (Smijeh) 133 00:06:53,497 --> 00:06:56,827 I nije znala kako prsti nisu dio ribe. 134 00:06:58,808 --> 00:07:02,928 Tako da vidite zašto je toliko teško dizajnirati UI 135 00:07:02,952 --> 00:07:06,271 koja zapravo razumije u što gleda. 136 00:07:06,295 --> 00:07:09,157 I zato je dizajniranje prepoznavanja slike 137 00:07:09,181 --> 00:07:11,248 u samovozećim autima toliko teško, 138 00:07:11,272 --> 00:07:13,477 i zašto je toliko pogrešaka u samovozećim autima 139 00:07:13,501 --> 00:07:16,386 zato što se UI zbunila. 140 00:07:16,410 --> 00:07:20,418 Želim vam pričati o primjeru iz 2016. 141 00:07:20,442 --> 00:07:24,897 Dogodila se smrtna nesreća kada je netko koristio Teslin autopilot, 142 00:07:24,921 --> 00:07:28,335 ali umjesto da su ga koristili na autocesti za što je i bio napravljen, 143 00:07:28,359 --> 00:07:30,564 koristili su ga na gradskim ulicama. 144 00:07:31,239 --> 00:07:32,414 I ono što se dogodilo je 145 00:07:32,438 --> 00:07:35,834 da je kamion izletio pred auto i auto nije zakočio. 146 00:07:36,507 --> 00:07:41,269 UI definitivno je bila trenirana da prepozna kamion na slikama. 147 00:07:41,293 --> 00:07:43,438 Ali izgleda kako je ono što se dogodilo bilo 148 00:07:43,462 --> 00:07:46,393 da je UI trenirana da prepozna kamione u vožnji autocestom 149 00:07:46,417 --> 00:07:49,316 gdje biste očekivali vidjeti kamion sa stražnje strane. 150 00:07:49,340 --> 00:07:52,760 Stranice kamiona nisu ono što bi se trebalo vidjeti na autocesti, 151 00:07:52,784 --> 00:07:56,239 tako da kad je UI vidjela ovaj kamion, 152 00:07:56,263 --> 00:08:01,090 izgleda kako ga je vjerojatno prepoznala kao znak na cesti 153 00:08:01,114 --> 00:08:03,387 i zbog toga, kao sigurno za proći ispod. 154 00:08:04,114 --> 00:08:06,694 Evo pogreška UI na drugom polju. 155 00:08:06,718 --> 00:08:10,178 Amazon je nedavno morao odustati od algoritma za razvrstavanje životopisa 156 00:08:10,202 --> 00:08:11,342 na kojem su radili, 157 00:08:11,342 --> 00:08:14,934 kada su otkrili kako je algoritam naučio diskriminirati žene. 158 00:08:14,934 --> 00:08:17,938 Ono što se dogodilo je da su ga trenirali na primjerima životopisa 159 00:08:17,938 --> 00:08:20,360 ljudi koje su ranije zaposlili. 160 00:08:20,384 --> 00:08:24,407 A iz tih je primjera UI naučila izbjegavati životopise ljudi 161 00:08:24,431 --> 00:08:26,457 koji su išli na ženske fakultete 162 00:08:26,481 --> 00:08:29,287 ili koji su imali riječ "žena" negdje unutar životopisa, 163 00:08:29,311 --> 00:08:33,887 kao u "ženska nogometna momčad" ili "Društvo žena inženjera". 164 00:08:33,911 --> 00:08:37,885 UI nije znala kako nije trebala kopirati ovu osobitu stvar 165 00:08:37,909 --> 00:08:39,887 koju je vidjela da ljudi rade. 166 00:08:39,911 --> 00:08:43,088 I tehnički, učinila je ono što su je tražili. 167 00:08:43,112 --> 00:08:45,909 Samo su je slučajno tražili da napravi krivu stvar. 168 00:08:46,653 --> 00:08:49,548 A ovo se s UI stalno događa. 169 00:08:50,120 --> 00:08:53,711 Može biti destruktivna a da i ne zna. 170 00:08:53,735 --> 00:08:58,813 Tako da UI koje preporučuju nove sadržaje na Facebooku, YouTubeu, 171 00:08:58,837 --> 00:09:02,376 optimizirane su da povećaju broj klikova i pregleda. 172 00:09:02,400 --> 00:09:05,836 A nažalost, jedan način na koji se ovo može raditi 173 00:09:05,860 --> 00:09:10,363 je preporučiti sadržaj teorija urote ili netrpeljivosti. 174 00:09:10,902 --> 00:09:16,204 UI same po sebi nemaju predodžbu što taj sadržaj zapravo je 175 00:09:16,228 --> 00:09:19,623 i nemaju predodžbu o tome koje bi posljedice mogle biti 176 00:09:19,647 --> 00:09:21,756 kada se preporučuje ovaj sadržaj. 177 00:09:22,296 --> 00:09:24,307 Tako da kada radimo s UI, 178 00:09:24,331 --> 00:09:28,513 na nama je da izbjegavamo probleme. 179 00:09:28,537 --> 00:09:30,860 A izbjegavanjem toga da stvari krenu u krivom smjeru 180 00:09:30,884 --> 00:09:35,410 može doći do drevnog problema komunikacije 181 00:09:35,434 --> 00:09:39,179 gdje mi kao ljudi moramo naučiti kako komunicirati s UI. 182 00:09:39,203 --> 00:09:43,242 Moramo naučiti za što je UI sposobna, a za što nije, 183 00:09:43,266 --> 00:09:46,352 i razumjeti kako, sa svojim minijaturnim mozgom gliste, 184 00:09:46,376 --> 00:09:50,389 UI zapravo ne razumije što želimo od nje da napravi. 185 00:09:51,148 --> 00:09:54,469 Dakle, drugim riječima, moramo se pripremiti na rad s UI 186 00:09:54,493 --> 00:09:59,751 koja nije svemoguća i sveznajuća UI iz znanstvene fantastike. 187 00:09:59,775 --> 00:10:02,087 Moramo se pripremiti na rad s UI 188 00:10:02,101 --> 00:10:05,599 koju zapravo imamo u sadašnjosti. 189 00:10:05,623 --> 00:10:09,828 A sadašnja UI je već dovoljno čudna. 190 00:10:09,852 --> 00:10:11,042 Hvala. 191 00:10:11,066 --> 00:10:16,291 (Pljesak)