1 00:00:03,616 --> 00:00:05,544 Dopustite da vam pokažem nešto 2 00:00:06,104 --> 00:00:09,530 [Video] Djevojka: Dobro, to je mačka koja sjedi na krevetu. 3 00:00:10,260 --> 00:00:12,140 Dječak mazi slona. 4 00:00:14,300 --> 00:00:17,424 Ovo su ljudi koji idu u avion. 5 00:00:18,654 --> 00:00:20,134 To je veliki avion. 6 00:00:21,244 --> 00:00:23,670 Fei-Fei Li: Ovo je trogodišnje dijete 7 00:00:23,670 --> 00:00:27,349 koje opisuje što vidi na ovim slikama. 8 00:00:27,349 --> 00:00:30,194 Iako ima još dosta toga što mora naučiti o svijetu 9 00:00:30,194 --> 00:00:34,743 već je ekspert u nečemu važnom: 10 00:00:34,743 --> 00:00:36,999 razumije što vidi. 11 00:00:38,229 --> 00:00:42,455 Naše društvo je tehnološki naprednije no ikada. 12 00:00:42,455 --> 00:00:46,084 Šaljemo ljude na mjesec, izrađujemo telefone koji pričaju s nama 13 00:00:46,084 --> 00:00:51,030 i prilagođene radio stanice koje puštaju samo glazbu koju volimo. 14 00:00:51,030 --> 00:00:55,085 Ipak, naši najnapredniji uređaj i računala 15 00:00:55,085 --> 00:00:57,988 imaju poteškoća s ovim zadatkom. 16 00:00:57,988 --> 00:01:01,447 Ovdje sam danas kako bi vas izvijestila 17 00:01:01,447 --> 00:01:05,494 o najnovijim dostignućima u istraživanju računalnog vida, 18 00:01:05,494 --> 00:01:09,655 jednoj od glavnih i potencijalno revolucionarnih 19 00:01:09,655 --> 00:01:11,491 tehnologija računarstva. 20 00:01:12,861 --> 00:01:17,412 Imamo prototipe auta koji se sami voze, 21 00:01:17,412 --> 00:01:21,265 ali bez pametnog vida, ne mogu zapravo vidjeti razliku 22 00:01:21,265 --> 00:01:25,235 između zgužvane papirnate vrećice na putu, koju mogu pregaziti, 23 00:01:25,235 --> 00:01:28,575 i kamena te veličine koji treba izbjeći. 24 00:01:29,415 --> 00:01:32,805 imamo odlične megapikselne kamere, 25 00:01:32,805 --> 00:01:35,670 ali nismo dali vid slijepima. 26 00:01:36,420 --> 00:01:39,725 Dronovi mogu letjeti vrlo daleko 27 00:01:39,725 --> 00:01:41,859 ali nemaju dovoljno tehnologije vida 28 00:01:41,859 --> 00:01:45,320 da nam pomognu pratiti promjene u kišnim šumama 29 00:01:45,320 --> 00:01:48,270 Sigurnosne kamere su svugdje, 30 00:01:48,270 --> 00:01:53,117 ali ne upozoravaju nas kada se dijete utaplja u bazenu. 31 00:01:54,167 --> 00:01:59,762 Slike i videi postaju integralni dio globalnog života. 32 00:01:59,762 --> 00:02:03,849 Stvaraju se brzinom koja je daleko veća od od one koji bi čovjek 33 00:02:03,849 --> 00:02:06,632 ili timovi ljudi željeli vidjeti, 34 00:02:06,632 --> 00:02:09,893 a vi i ja pridonosimo tome ovdje na TED-u. 35 00:02:10,553 --> 00:02:15,785 Ipak naš najnapredniji softver se i dalje muči oko razumjevanja 36 00:02:15,785 --> 00:02:18,821 i upravljanja tog ogromnog sadržaja. 37 00:02:19,661 --> 00:02:23,483 Drugim riječima, zajedno kao društvo, 38 00:02:24,603 --> 00:02:26,459 poprilično smo slijepi, 39 00:02:26,459 --> 00:02:29,626 jer su naši najpametniji uređaji i dalje slijepi. 40 00:02:31,526 --> 00:02:33,572 "Zašto je to tako teško?", možda se pitate. 41 00:02:34,452 --> 00:02:36,815 Kamere mogu fotografirati slike poput ove 42 00:02:36,815 --> 00:02:40,839 pretvarajući svjetlost u dvodimenzionalne redove brojeva 43 00:02:40,839 --> 00:02:42,789 poznate kao pikseli, 44 00:02:42,789 --> 00:02:45,040 ali to su samo beživotni brojevi. 45 00:02:45,040 --> 00:02:47,331 Ne nose smisao u sebi. 46 00:02:48,151 --> 00:02:51,824 Jednako kao što slušati ne znači isto što i čuti, 47 00:02:52,494 --> 00:02:56,534 fotografirati sliku nije isto što i vidjeti, 48 00:02:56,534 --> 00:02:59,923 a pod vidjeti mislimo na razumijevanje. 49 00:03:01,293 --> 00:03:07,470 Zapravo, prirodi je bilo potrebno 540 milijuna godina teškog posla 50 00:03:07,470 --> 00:03:09,443 da to uspije, 51 00:03:09,443 --> 00:03:11,324 a većina tog posla 52 00:03:11,324 --> 00:03:16,475 otišla je u razvijanje uređaja za obradu vida u našem mozgu, 53 00:03:16,475 --> 00:03:17,882 ne u samim očima. 54 00:03:19,242 --> 00:03:21,989 Vid započinje s očima, 55 00:03:21,989 --> 00:03:24,757 ali zapravo se sve događa u mozgu. 56 00:03:26,287 --> 00:03:31,347 Već 15 godina, započevši od mog doktorata u Caltech-u 57 00:03:31,347 --> 00:03:34,273 i zatim vodeći Stanfordov laboratorij za vid, 58 00:03:34,273 --> 00:03:38,669 radila sam s mentorima, suradnicima i studentima 59 00:03:38,669 --> 00:03:41,018 kako bi naučili računala da vide. 60 00:03:42,658 --> 00:03:45,952 Naše polje se zove računarni vid i strojno učenje. 61 00:03:45,952 --> 00:03:49,280 Dio je većeg polja umjetne inteligencije. 62 00:03:51,000 --> 00:03:56,493 Naposljetku, želimo naučiti uređaje da vide kao što mi vidimo: 63 00:03:56,493 --> 00:04:01,880 imenovanje objekata, prepoznavanje ljudi, razumjevanje trodimenzionalnosti objekata, 64 00:04:01,880 --> 00:04:07,568 razumjevanje odnosa, emocija akcija i namjera. 65 00:04:07,568 --> 00:04:13,721 Vi i ja vidimo cijele priče ljudi, mjesta i stvari 66 00:04:13,721 --> 00:04:15,885 u trenutku kada ih pogledamo. 67 00:04:17,355 --> 00:04:22,538 Prvi korak do ovog cilja je naučiti računala da vide objekte, 68 00:04:22,538 --> 00:04:25,906 građevne jedinice vizualnog svijeta. 69 00:04:25,906 --> 00:04:30,340 U svom najjednostavnijem obliku, zamislite ovaj proces učenja 70 00:04:30,340 --> 00:04:33,335 kao pokazivanje računalu raznih prizora za trening 71 00:04:33,335 --> 00:04:36,656 određenog objekta, recimo mačaka, 72 00:04:36,656 --> 00:04:41,393 i dizajniranje modela koji uči iz ovih prikaza za . 73 00:04:41,393 --> 00:04:43,437 Koliko teško to može biti? 74 00:04:43,437 --> 00:04:47,489 Nakon svega, mačka je samo skup oblika i boja, 75 00:04:47,489 --> 00:04:51,575 i ovo je ono što smo radili u početcima modeliranja objekta. 76 00:04:51,575 --> 00:04:55,197 Napisali bi računalu algoritme u matematičkom jeziku 77 00:04:55,197 --> 00:04:58,540 da mačka ima okruglo lice, debeljuškasto tijelo, 78 00:04:58,540 --> 00:05:00,839 dva šiljata uha i dugačak rep, 79 00:05:00,839 --> 00:05:02,249 i da izgleda lijepo. 80 00:05:02,859 --> 00:05:04,972 ali što je s ovom mačkom? 81 00:05:04,972 --> 00:05:06,063 (Smijeh) 82 00:05:06,063 --> 00:05:07,689 Sva je izvijena. 83 00:05:07,689 --> 00:05:12,408 Sad morate dodati drugi oblik i pogled modelnom objektu. 84 00:05:12,408 --> 00:05:14,123 Što ako su mačke skrivene? 85 00:05:15,143 --> 00:05:17,362 Što je sa smiješnim mačkama? 86 00:05:19,112 --> 00:05:21,529 Sad vidite što želim reći. 87 00:05:21,529 --> 00:05:24,896 Čak i nešto jednostavno poput kućnog ljubimca 88 00:05:24,896 --> 00:05:29,400 može imati beskonačan broj varijacija modelnog objekta, 89 00:05:29,400 --> 00:05:31,633 i to je samo jedan objekt. 90 00:05:32,573 --> 00:05:35,065 Prije osam godina, 91 00:05:35,065 --> 00:05:40,095 vrlo jednostavno i duboko zapažanje promjenilo mi je razmišljanje. 92 00:05:41,425 --> 00:05:44,110 Nitko ne govori djetetu kako da vidi, 93 00:05:44,110 --> 00:05:46,371 posebno u ranijim godinama. 94 00:05:46,371 --> 00:05:51,371 Oni to uče kroz iskustvo i primjere iz stvarnog svijeta. 95 00:05:51,371 --> 00:05:54,111 Ako smatrate dječje oči 96 00:05:54,111 --> 00:05:56,665 parom bioloških kamera, 97 00:05:56,665 --> 00:06:00,845 one fotografiraju svakih 200 milisekundi, 98 00:06:00,845 --> 00:06:03,979 prosječno vrijeme koliko je potrebno za pokret oka. 99 00:06:03,979 --> 00:06:09,529 Do svoje treće godine, dijete bi vidjelo stotine milijuna slika 100 00:06:09,529 --> 00:06:11,363 stvarnog svijeta. 101 00:06:11,363 --> 00:06:13,423 To je puno primjera za vježbu. 102 00:06:14,383 --> 00:06:20,372 Umjesto fokusiranja samo na sve bolje i bolje algoritme, 103 00:06:20,372 --> 00:06:25,644 mislila sam dati algoritmima nekakakve podatke za vježbu 104 00:06:25,644 --> 00:06:28,963 koje je dijete dobijalo kroz iskustva 105 00:06:28,963 --> 00:06:32,841 i to kvantitativno i kvalitativno. 106 00:06:32,841 --> 00:06:34,699 Jednom kada znamo ovo, 107 00:06:34,699 --> 00:06:37,670 znali smo da moramo skupiti skup podataka 108 00:06:37,670 --> 00:06:42,129 koji ima puno više prikaza no što smo mi imali ikad prije, 109 00:06:42,129 --> 00:06:43,896 možda i tisuću puta više, 110 00:06:44,706 --> 00:06:48,817 i zajedno s profesorom Kai Li na sveučilištu Princeton, 111 00:06:48,817 --> 00:06:52,399 2007. lansirali smo ImageNet projekt. 112 00:06:53,929 --> 00:06:57,407 Sva sreća nismo morali montirati kamere na naše glave 113 00:06:57,407 --> 00:06:59,051 i čekati godinama. 114 00:06:59,051 --> 00:07:00,634 Otišli smo na Internet, 115 00:07:00,634 --> 00:07:05,070 najveću riznicu slika koju je čovječanstvo stvorilo. 116 00:07:05,070 --> 00:07:08,111 skinuli smo skoro milijardu slika i 117 00:07:08,111 --> 00:07:13,991 koristili crowdsourcing tehnologiju poput platforme Amazon Mechanical Turk 118 00:07:13,991 --> 00:07:16,330 da označimo te prikaze. 119 00:07:16,330 --> 00:07:21,230 Kako je raslo, ImageNet je bio jedan od najvećih poslodavaca 120 00:07:21,230 --> 00:07:24,226 radnika Amazon Mechanical Turk-a: 121 00:07:24,226 --> 00:07:28,080 zajedno, skoro 50.000 radnika 122 00:07:28,080 --> 00:07:32,120 iz 167 država svijeta 123 00:07:32,120 --> 00:07:36,067 pomoglo nam je da očistimo, sortiramo i označimo 124 00:07:36,067 --> 00:07:38,812 skoro milijardu korisnih prikaza. 125 00:07:40,612 --> 00:07:43,265 Toliko truda je trebalo 126 00:07:43,265 --> 00:07:47,165 da se uhvati dio prikaza 127 00:07:47,165 --> 00:07:50,666 koje djetetov um uhvati u ranim godinama razvoja. 128 00:07:52,148 --> 00:07:56,050 Na očigled, ova ideja korištenja mnogo podataka 129 00:07:56,050 --> 00:08:00,600 da se istreniraju računalni algoritmi se možda sada čini očiglednim, 130 00:08:00,600 --> 00:08:04,710 ali 2007., nije bilo tako očigledno. 131 00:08:04,710 --> 00:08:08,588 Prilično dugo bili smo poprilično sami na tom putu. 132 00:08:08,588 --> 00:08:13,591 Neke prijateljski nastrojene kolege su me savjetovale da radim nešto korisnije, 133 00:08:13,591 --> 00:08:17,933 i cijelo vrijeme smo se borili za financiranje istraživanja. 134 00:08:17,933 --> 00:08:20,418 Jednom, sam se čak našalila sa studentima 135 00:08:20,418 --> 00:08:24,481 da ću ponovno otvoriti kemijsku čistionicu kako bih mogla financirati ImageNet. 136 00:08:24,481 --> 00:08:27,452 Naposljetku, tako sam financirala svoj studij. 137 00:08:29,242 --> 00:08:31,098 Nastavili smo dalje. 138 00:08:31,098 --> 00:08:34,813 2009. ImageNet je dosegao 139 00:08:34,813 --> 00:08:38,855 bazu podataka od 15 milijuna prikaza 140 00:08:38,855 --> 00:08:43,660 preko 22.000 klasa objekata i stvari 141 00:08:43,660 --> 00:08:46,980 organiziranih u svakodnevne engleske riječi. 142 00:08:46,980 --> 00:08:49,906 I po kvantiteti i po kvaliteti 143 00:08:49,906 --> 00:08:52,108 ovo je dosad nedostignuta skala. 144 00:08:53,688 --> 00:08:56,339 Kao primjer, u slučaju mačaka, 145 00:08:56,339 --> 00:08:59,148 imamo više od 62.000 mačaka 146 00:08:59,148 --> 00:09:03,258 u svim oblicima i pozama, 147 00:09:03,258 --> 00:09:08,481 i različitih vrsta domaćih i divljih mačaka. 148 00:09:08,481 --> 00:09:11,825 Bili smo oduševljeni što smo sastavili ImageNet, 149 00:09:11,825 --> 00:09:15,563 i htjeli smo da cijeli znanstveni svijet ima koristi od njega, 150 00:09:15,563 --> 00:09:19,604 tako da smo po modi TED-a otvorili cijeli skup podataka 151 00:09:19,604 --> 00:09:23,196 svim istraživačkim zajednicama, besplatno. 152 00:09:23,456 --> 00:09:28,636 (Pljesak) 153 00:09:29,416 --> 00:09:33,954 Sad kad imamo podatke da opskrbimo mozgove naših računala, 154 00:09:33,954 --> 00:09:37,691 spremni smo vratiti se na same algoritme. 155 00:09:37,691 --> 00:09:42,869 Ispalo je kako je bogatstvo informacija s ImageNet-a 156 00:09:42,869 --> 00:09:47,675 savršeno za određene vrste algoritama za strojno učenje 157 00:09:47,675 --> 00:09:50,090 koji se zovu konvolucijske neuronske mreže 158 00:09:50,090 --> 00:09:55,338 osmišljene od strane Kunihiko Fukushime, Geoff Hintona i Yann LeCuna 159 00:09:55,338 --> 00:09:58,983 davnih 1970-ih i 1980-ih. 160 00:09:58,983 --> 00:10:04,602 Upravo kako se mozak sastoji od milijardu vrlo povezanih neurona, 161 00:10:04,602 --> 00:10:08,456 osnovna operacijska jedinica neuronskih mreža 162 00:10:08,456 --> 00:10:10,871 jest čvor sličan neuronu. 163 00:10:10,871 --> 00:10:13,425 Prima podatke od drugih čvorova 164 00:10:13,425 --> 00:10:16,053 i šalje ih drugima. 165 00:10:16,053 --> 00:10:20,856 Ove stotine tisuća ili čak milijuni čvorova 166 00:10:20,856 --> 00:10:24,083 su organizirani po hijerarhijskim slojevima 167 00:10:24,083 --> 00:10:26,637 sličnim onima u mozgu. 168 00:10:26,637 --> 00:10:31,420 U tipičnoj neuralnoj mreži koju koristimo u učenju prepoznavanja modela, 169 00:10:31,420 --> 00:10:34,601 ima 24 milijuna čvorova, 170 00:10:34,601 --> 00:10:37,898 140 milijuna parametara, 171 00:10:37,898 --> 00:10:40,661 i 15 milijardi veza. 172 00:10:40,661 --> 00:10:43,076 To je ogroman model. 173 00:10:43,076 --> 00:10:46,977 Upogonjen je s mnoštvom podataka s ImageNet-a 174 00:10:46,977 --> 00:10:52,410 te modernih CPJ-a i GPJ-a kako bi istrenirao ove ogrome modele, 175 00:10:52,410 --> 00:10:54,779 skupna neuronska mreža 176 00:10:54,779 --> 00:10:57,565 je procvala na način koji nitko nije očekivao. 177 00:10:58,215 --> 00:11:00,723 Postala je ključna struktura 178 00:11:00,723 --> 00:11:04,733 koja je dovodila do novih uzbudljivih rezultata u prepoznavanju objekata. 179 00:11:06,063 --> 00:11:08,873 Ovo je računalo koje nam govori 180 00:11:08,873 --> 00:11:11,173 da je na slici mačka 181 00:11:11,173 --> 00:11:13,076 i gdje je mačka. 182 00:11:13,076 --> 00:11:15,188 Naravno ne radi se samo o mački, 183 00:11:15,188 --> 00:11:17,626 ovdje nam računalni algoritam govori 184 00:11:17,626 --> 00:11:20,000 da slika sadrži dječaka i medvjedića; 185 00:11:20,900 --> 00:11:24,276 psa, osobu i malog zmaja u pozadini; 186 00:11:25,266 --> 00:11:28,401 ili slika vrlo zbrkanih stvari 187 00:11:28,401 --> 00:11:32,185 poput čovjeka, skateboarda, ograde, lampe itd. 188 00:11:33,045 --> 00:11:38,338 Ponekad kada računalo nije sigurno što vidi, 189 00:11:39,498 --> 00:11:41,774 moramo ga naučiti da bude dovoljno pametno 190 00:11:41,774 --> 00:11:45,652 da nam pruži siguran odgovor, 191 00:11:45,652 --> 00:11:47,563 kao što bismo mi odgovorili, 192 00:11:48,463 --> 00:11:53,129 ali u drugim slučajevima računalni alogoritam nam besprijekorno kaže 193 00:11:53,129 --> 00:11:55,382 što su točno ti objekti, 194 00:11:55,382 --> 00:11:58,818 poput materijala, modela, godine auta. 195 00:11:58,818 --> 00:12:04,204 Primjenili smo ovaj algoritam na milijune Google Street View prikaza 196 00:12:04,204 --> 00:12:07,339 u stotinama američkih gradova, 197 00:12:07,339 --> 00:12:10,265 i spoznali smo nešto vrlo zanimljivo: 198 00:12:10,265 --> 00:12:13,585 prvo, potvrdilo se staro pravilo 199 00:12:13,585 --> 00:12:16,875 da cijene auta dobro koreliraju 200 00:12:16,875 --> 00:12:18,560 s kućnim primanjima. 201 00:12:19,220 --> 00:12:23,747 Ali isto tako cijene auta koreliraju također sa 202 00:12:23,747 --> 00:12:25,827 stopom kriminala u gradovima, 203 00:12:27,007 --> 00:12:30,100 ili načina glasanja po poštanskom broju. 204 00:12:32,060 --> 00:12:34,266 Čekajte. Je li to, to? 205 00:12:34,266 --> 00:12:38,469 Je li nas računalo već sustigao ili čak prestiglo u našim sposobnostima? 206 00:12:39,419 --> 00:12:40,757 Ne tako brzo. 207 00:12:41,557 --> 00:12:46,480 Zasad smo samo naučili računalo da vidi objekte. 208 00:12:46,480 --> 00:12:51,124 To je kao da malo dijete učite reći nekoliko imenica. 209 00:12:51,124 --> 00:12:53,674 To je ogromno postignuće, 210 00:12:53,674 --> 00:12:56,254 ali je to tek prvi korak. 211 00:12:56,254 --> 00:13:00,016 Uskoro će drugo razvojno postignuće biti dosegnuto, 212 00:13:00,016 --> 00:13:03,477 i djeca počinju komunicirati u rečenicama. 213 00:13:03,477 --> 00:13:07,701 Stoga umjesto govorenja kako je mačka na slici, 214 00:13:07,701 --> 00:13:11,903 već ste čuli malu djevojčicu koja govori da mačka leži na krevetu. 215 00:13:12,903 --> 00:13:18,498 Kako bi naučili računalo da vidi sliku i stvori rečenice, 216 00:13:18,498 --> 00:13:22,446 brak između velikih podataka i algoritama strojnog učenja 217 00:13:22,446 --> 00:13:24,051 mora ići korak dalje. 218 00:13:24,721 --> 00:13:28,877 Računalo mora naučiti učiti i iz slika 219 00:13:28,877 --> 00:13:31,733 i iz prirodnih jezičnih rečenica 220 00:13:31,733 --> 00:13:33,585 stvorenih od strane ljudi. 221 00:13:35,055 --> 00:13:38,908 Upravo kako mozak integrira vid i jezik, 222 00:13:38,908 --> 00:13:44,109 razvili smo model koji spaja vidljive dijelove 223 00:13:44,109 --> 00:13:46,013 poput vidnih komada 224 00:13:46,013 --> 00:13:49,556 s riječima i frazama u rečenicama. 225 00:13:51,026 --> 00:13:52,979 Otprilike prije četiri mjeseca, 226 00:13:52,979 --> 00:13:55,626 konačno smo uspjelo sve povezati 227 00:13:55,626 --> 00:13:59,410 i proizveli smo jedan od prvih modela računalnog vida 228 00:13:59,410 --> 00:14:03,404 koji je sposoban stvoriti rečenicu sličnu ljudskoj 229 00:14:03,404 --> 00:14:06,050 kada vidi sliku po prvi puta. 230 00:14:06,910 --> 00:14:11,554 Pokazat ću vam što računalo kaže 231 00:14:11,554 --> 00:14:13,529 kada vidi slike 232 00:14:13,529 --> 00:14:16,789 koje je mala djevojčica vidjela na početku govora. 233 00:14:19,519 --> 00:14:22,063 (Video) Računalo: Čovjek stoji pored slona. 234 00:14:24,393 --> 00:14:28,027 Veliki avion sjedi na vrhu avionske piste. 235 00:14:29,057 --> 00:14:33,269 FFL: Naravno, i dalje se trudimo unaprijediti naše algoritme, 236 00:14:33,269 --> 00:14:35,455 i još puno toga mora naučiti. 237 00:14:35,455 --> 00:14:39,556 (Pljesak) 238 00:14:39,556 --> 00:14:41,657 I računalo i dalje pravi greške. 239 00:14:42,797 --> 00:14:44,998 (Video) Računalo: Mačka leži na krevetu u deci. 240 00:14:45,898 --> 00:14:48,821 FFL: Naravno, kada vidi previše mačaka, 241 00:14:48,821 --> 00:14:51,167 misli da bi sve moglo izgledati kao mačka. 242 00:14:53,317 --> 00:14:56,181 (Video) Računalo: Dječak drži bejzbolsku palicu. 243 00:14:56,181 --> 00:14:57,946 (Smijeh) 244 00:14:57,946 --> 00:15:02,529 FFL: Ili, ako nije vidio četkicu za zube, pomiješat će je s bejzbolskom palicom. 245 00:15:03,309 --> 00:15:06,743 (Video) Računalo: Čovjek jaše konja niz ulicu pored zgrade. 246 00:15:06,743 --> 00:15:08,766 (Smijeh) 247 00:15:08,766 --> 00:15:12,318 FFL: Nismo računalo naučili neke osnove umjetnosti. 248 00:15:13,768 --> 00:15:16,652 (Video) Računalo: Zebra stoji u polju trave. 249 00:15:16,652 --> 00:15:20,019 FFL: I nije naučio diviti se prekrasnoj ljepoti prirode 250 00:15:20,019 --> 00:15:21,317 kao vi i ja. 251 00:15:22,457 --> 00:15:25,289 Bilo je to dugo putovanje. 252 00:15:25,289 --> 00:15:29,515 Od rođenja do treće godine je bilo teško. 253 00:15:29,515 --> 00:15:35,111 Pravi izazov je doći od treće do trinaeste godine, i dalje. 254 00:15:35,111 --> 00:15:39,476 Podsjetit ću vas s opet s ovom slikom dječaka i kolača. 255 00:15:39,476 --> 00:15:43,540 Dosad smo naučili računalo da vidi objekte 256 00:15:43,540 --> 00:15:47,258 ili čak nam kaže jednostavnu priču onoga što je na slici. 257 00:15:47,998 --> 00:15:50,704 (Video) Računalo: Osoba sjedi za stolom s kolačem. 258 00:15:51,484 --> 00:15:53,764 FFL: Ali postoji puno više na ovoj slici 259 00:15:53,764 --> 00:15:56,234 nego samo osoba i kolač. 260 00:15:56,234 --> 00:16:00,941 Što računalo ne vidi jest da je to poseban talijanski kolač 261 00:16:00,941 --> 00:16:04,158 koji se jedino servira za vrijeme Uskrsa. 262 00:16:04,158 --> 00:16:07,073 Dječak nosi svoju omiljenu majicu 263 00:16:07,073 --> 00:16:11,333 koju je dobio od oca nakon putovanja u Sidney, 264 00:16:11,333 --> 00:16:15,141 i vi i ja možemo reći da je jako stretan 265 00:16:15,141 --> 00:16:17,764 i što je na njegovom umu u ovom trenu. 266 00:16:19,214 --> 00:16:21,419 To je moj sin Leo. 267 00:16:22,339 --> 00:16:24,763 Na mom pohodu na vidnu inteligenciju, 268 00:16:24,763 --> 00:16:27,354 razmišljam o Leu konstantno 269 00:16:27,354 --> 00:16:29,577 i budućnosti u kojoj će živjeti. 270 00:16:30,257 --> 00:16:32,278 Kada uređaji vide, 271 00:16:32,278 --> 00:16:36,990 doktori i sestre će imati dodatan par neumornih očiju 272 00:16:36,990 --> 00:16:41,082 koje im pomažu dijagnosticirati i pobrinuti se za pacijenta. 273 00:16:41,082 --> 00:16:45,465 Auti će voziti pametnije i sigurnije na putu. 274 00:16:45,465 --> 00:16:48,159 Roboti, ne samo ljudi, 275 00:16:48,159 --> 00:16:53,008 će pomoći u opasnim situacijama kako bi spasili zatočene i ozljeđene. 276 00:16:53,488 --> 00:16:57,594 Otkrit ćemo nove vrste, bolje materijale, 277 00:16:57,594 --> 00:17:01,493 i istražiti neviđene granice uz pomoć uređaja. 278 00:17:03,113 --> 00:17:07,280 Malo po malo, dajemo vid uređajima. 279 00:17:07,280 --> 00:17:10,078 Prvo, smo ih naučili da vide. 280 00:17:10,078 --> 00:17:12,841 Onda nam oni pomažu vidjeti bolje. 281 00:17:12,841 --> 00:17:17,006 Po prvi put, ljudsko oko neće biti jedino 282 00:17:17,006 --> 00:17:19,360 koje gleda i istražuje svijet. 283 00:17:19,940 --> 00:17:23,400 Nećemo koristiti uređaje zbog njihove inteligencije, 284 00:17:23,400 --> 00:17:28,159 surađivat ćemo s njima na načine koje ne možemo zamisliti. 285 00:17:29,579 --> 00:17:31,740 Ovo je moj pothvat: 286 00:17:31,740 --> 00:17:34,452 dati računalima vidnu inteligenciju 287 00:17:34,452 --> 00:17:38,803 i stvoriti bolje sutra za Lea i za svijet. 288 00:17:39,583 --> 00:17:40,694 Hvala vam. 289 00:17:40,694 --> 00:17:45,179 (Pljesak)