Dakle, umjetna inteligencija poznata je po remećenju svih vrsta industrija. Što je sa sladoledima? Koje nevjerojatne vrste novih okusa bismo mogli napraviti uz sposobnosti napredne umjetne inteligencije? Dakle, udružila sam se s timom programera iz Srednje škole "Kealing" kako bih pronašla odgovor na ovo pitanje. Oni su skupili preko 1600 postojećih okusa sladoleda i zajedno smo ih stavili u algoritam kako bismo vidjeli što će proizvesti. I evo nekoliko okusa koje je UI smislila. [Pauza za smeće od bundeve] (Smijeh) [Ljiga od kikiriki maslaca] [Bolest kreme od jagoda] (Smijeh) Ovi okusi nisu ukusni onoliko koliko smo se nadali da bi mogli biti. Dakle, pitanje je: Što se dogodilo? Što je pošlo po zlu? Pokušava li nas UI ubiti? Ili pokušava napraviti ono što smo tražili, ali se pojavio problem? U filmovima, kada nešto s UI pođe po zlu, obično je to zato što je UI odlučila kako ne želi više izvršavati naredbe ljude i kako ima svoje ciljeve, molim lijepo. U stvarnosti, ipak, UI koju imamo nije ni blizu toliko pametna za takvo nešto. Računalna moć joj je otprilike veličine gliste ili možda najviše jedne pčele, a zapravo, vjerojatno i manja. Stalno učimo nove stvari o mozgu koje potvrđuju koliko zapravo naša UI nije ni blizu pravog mozga. Današnja UI može obaviti zadatak kao što je identificiranje pješaka na slici, ali nema predodžbu toga što je pješak, osim što je skup linija, tekstura i stvari. Ne zna što je zapravo čovjek. Dakle, hoće li današnja UI učiniti ono što od nje tražimo? Hoće ako može, ali možda neće moći napraviti ono što mi zapravo želimo. Recimo da pokušavate učiniti da UI uzme ovu skupinu dijelova robota i sastavi ih u nekakvog robota da dođe od točke A do točke B. Ako pokušate riješiti problem tako da napišete tradicionalan kompjutorski program, dali biste programu upute korak po korak kako da uzme dijelove i sastavi ih u robota s nogama, a onda kako da upotrijebi te noge da dođe do točke B. Ali kada koristite UI za rješavanje problema, to ide drugačije. Ne kažete joj kako da riješi problem, samo joj date cilj, a ona mora sama zaključiti, kroz sustav pokušaja i pogrešaka, kako doći do tog cilja. Ispada kako UI ovaj problem nastoji riješiti radeći ovo: sastavi se u toranj i onda se sruši i sleti na točku B. Tehnički, ovo rješava problem. Tehnički, došla je do točke B. Opasnost od UI nije što će se pobuniti protiv nas, nego što će napraviti točno ono što od nje tražimo. Tako da pitanje rada s UI postaje: Kako postaviti problem tako da zapravo napravi ono što mi želimo? Ovim malim robotom ovdje upravlja UI. UI smislila je dizajn za noge robota i onda pronašla način kako ih iskoristiti da prijeđe sve ove prepreke. Ali kada je David Ha postavio ovaj eksperiment, morao ga je postaviti s veoma, veoma čvrstim ograničenjima u vezi toga koliko velike noge UI smije napraviti, inače... (Smijeh) I tehnički, došla je do kraja tog slijeda prepreka. Dakle, vidite koliko je teško dobiti da UI napravi nešto jednostavno kao hodanje. Gledajući kako UI ovo radi možete reći, OK, nije fer, ne možeš biti samo visoki toranj i srušiti se, moraš zapravo upotrijebiti noge za hodanje. A ispada kako ni to ne upali svaki puta. Posao je ove UI da se kreće brzo. Nisu joj rekli da mora trčati dok je okrenuta prema naprijed ili da ne smije koristiti ruke. Ovo dobijete kada kažete UI da se kreće brzo, dobijete salta i čudna hodanja. To je uobičajeno. Kao i što je trzanje po podu dok je skupljena na hrpu. (Smijeh) Tako da po mom mišljenju, znate što bi trebalo biti puno čudnije? "Terminator" roboti. Hakiranje "Matrice" još je jedna stvar koju će UI napraviti ako joj date priliku. Tako da ako stavite UI u simulaciju, naučit će kako napraviti stvari kao što su hakiranje u matematičke pogreške simulacije i upotrijebiti ih za energiju. Ili će skužiti kako se kretati brže tražeći greške kako bi prošla ispod površine. Kada radite s UI, nije kao da radite s drugim čovjekom, više je kao da radite s nekakvom čudnom silom prirode. I veoma je jednostavno slučajno dati UI da riješi krivi problem, a to često ne shvatimo dok nešto ne pođe po zlu. Evo eksperimenta koji sam napravila u kojem sam htjela da UI kopira boje za slikanje, kako bi izmislila nove boje, kada joj damo popis kao što je ovaj lijevo. I evo što je UI smislila. [Sindis kakica, Govnasto, Patiti, Siva stidna] (okvirna značenja) (Smijeh) Dakle tehnički, napravila je ono što sam je tražila. Mislila sam da sam je tražila lijepa imena za boje, ali ono što sam je zapravo tražila je da samo imitira vrste kombinacije slova koje je vidjela u originalu. I nisam joj rekla ništa o tome što riječi znače ili o tome kako bi mogle postojati riječi koje bi trebala izbjegavati u ovim bojama za slikanje. Dakle njezin cijeli svijet sastoji se od podataka koje joj dam. Kao i s okusima sladoleda, ne zna ni za što drugo. Tako da zapravo kroz podatke često UI slučajno govorimo da napravi krivu stvar. Ovo je riba linjak. Bila je grupa istraživača koja je trenirala UI da pronađe linjaka na slikama. Ali kada su je upitali koji je dio slike zapravo koristila da pronađe ribu, evo što je pokazala. Da, to su ljudski prsti. Zašto bi tražila ljudske prste ako nastoji pronaći ribu? Pa, ispada kako je linjak trofejna riba, tako da je na većini slika riba koje je UI vidjela tijekom treninga, ova riba izgledala ovako. (Smijeh) I nije znala kako prsti nisu dio ribe. Tako da vidite zašto je toliko teško dizajnirati UI koja zapravo razumije u što gleda. I zato je dizajniranje prepoznavanja slike u samovozećim autima toliko teško, i zašto je toliko pogrešaka u samovozećim autima zato što se UI zbunila. Želim vam pričati o primjeru iz 2016. Dogodila se smrtna nesreća kada je netko koristio Teslin autopilot, ali umjesto da su ga koristili na autocesti za što je i bio napravljen, koristili su ga na gradskim ulicama. I ono što se dogodilo je da je kamion izletio pred auto i auto nije zakočio. UI definitivno je bila trenirana da prepozna kamion na slikama. Ali izgleda kako je ono što se dogodilo bilo da je UI trenirana da prepozna kamione u vožnji autocestom gdje biste očekivali vidjeti kamion sa stražnje strane. Stranice kamiona nisu ono što bi se trebalo vidjeti na autocesti, tako da kad je UI vidjela ovaj kamion, izgleda kako ga je vjerojatno prepoznala kao znak na cesti i zbog toga, kao sigurno za proći ispod. Evo pogreška UI na drugom polju. Amazon je nedavno morao odustati od algoritma za razvrstavanje životopisa na kojem su radili, kada su otkrili kako je algoritam naučio diskriminirati žene. Ono što se dogodilo je da su ga trenirali na primjerima životopisa ljudi koje su ranije zaposlili. A iz tih je primjera UI naučila izbjegavati životopise ljudi koji su išli na ženske fakultete ili koji su imali riječ "žena" negdje unutar životopisa, kao u "ženska nogometna momčad" ili "Društvo žena inženjera". UI nije znala kako nije trebala kopirati ovu osobitu stvar koju je vidjela da ljudi rade. I tehnički, učinila je ono što su je tražili. Samo su je slučajno tražili da napravi krivu stvar. A ovo se s UI stalno događa. Može biti destruktivna a da i ne zna. Tako da UI koje preporučuju nove sadržaje na Facebooku, YouTubeu, optimizirane su da povećaju broj klikova i pregleda. A nažalost, jedan način na koji se ovo može raditi je preporučiti sadržaj teorija urote ili netrpeljivosti. UI same po sebi nemaju predodžbu što taj sadržaj zapravo je i nemaju predodžbu o tome koje bi posljedice mogle biti kada se preporučuje ovaj sadržaj. Tako da kada radimo s UI, na nama je da izbjegavamo probleme. A izbjegavanjem toga da stvari krenu u krivom smjeru može doći do drevnog problema komunikacije gdje mi kao ljudi moramo naučiti kako komunicirati s UI. Moramo naučiti za što je UI sposobna, a za što nije, i razumjeti kako, sa svojim minijaturnim mozgom gliste, UI zapravo ne razumije što želimo od nje da napravi. Dakle, drugim riječima, moramo se pripremiti na rad s UI koja nije svemoguća i sveznajuća UI iz znanstvene fantastike. Moramo se pripremiti na rad s UI koju zapravo imamo u sadašnjosti. A sadašnja UI je već dovoljno čudna. Hvala. (Pljesak)