1 00:00:02,875 --> 00:00:04,765 Umělá inteligence, 2 00:00:04,789 --> 00:00:08,318 jak známo, se míchá do spousty průmyslových odvětví. 3 00:00:08,961 --> 00:00:11,004 Tak třeba zmrzlina. 4 00:00:11,879 --> 00:00:15,518 Jakou spoustu neskutečných nových příchutí bychom mohli vytvořit 5 00:00:15,542 --> 00:00:18,518 pomocí pokročilé umělé inteligence? 6 00:00:19,011 --> 00:00:23,072 Dala jsem se dohromady se skupinou programátorů z Kealingovy střední školy, 7 00:00:23,196 --> 00:00:25,437 abych našla odpověď na tuto otázku. 8 00:00:25,461 --> 00:00:30,472 Sebrali více než 1600 existujících zmrzlinových příchutí 9 00:00:30,566 --> 00:00:36,088 a společně jsme je nacpali do jednoho algoritmu a čekali, co z něj vzejde. 10 00:00:36,112 --> 00:00:39,865 A tohle jsou příklady příchutí, se kterými umělá inteligence přišla. 11 00:00:39,884 --> 00:00:41,915 [Dýňová kopa odpadků] 12 00:00:41,939 --> 00:00:43,125 (Smích) 13 00:00:43,125 --> 00:00:45,834 [Sliz s arašídovým máslem] 14 00:00:46,402 --> 00:00:48,745 [Jahodovo-smetanová choroba] 15 00:00:48,745 --> 00:00:50,315 (Smích) 16 00:00:50,339 --> 00:00:54,936 To nejsou lahodné příchutě, které jsme doufali získat. 17 00:00:54,960 --> 00:00:56,824 Takže otázka zní: Co se stalo? 18 00:00:56,848 --> 00:00:58,242 Co se pokazilo? 19 00:00:58,266 --> 00:01:00,225 Snaží se nás umělá inteligence zabít? 20 00:01:01,027 --> 00:01:05,337 Nebo se snaží dělat, co po ní chceme, ale má s tím nějaký problém? 21 00:01:06,307 --> 00:01:09,031 Když se ve filmech začne dít něco špatného s UI, 22 00:01:09,055 --> 00:01:11,767 je to většinou proto, že se umělá inteligence rozhodla, 23 00:01:11,791 --> 00:01:13,863 že už nechce lidstvo poslouchat 24 00:01:13,863 --> 00:01:16,486 a má svoje vlastní cíle - děkuji pěkně. 25 00:01:17,046 --> 00:01:20,482 Nicméně ve skutečném světě ta umělá inteligence, kterou máme, 26 00:01:20,506 --> 00:01:22,369 není ani zdaleka tak chytrá. 27 00:01:22,781 --> 00:01:26,553 Má výpočetní sílu přibližně jako žížala 28 00:01:27,087 --> 00:01:29,620 nebo maximálně jako jediná včela, 29 00:01:30,514 --> 00:01:32,603 ale ve skutečnosti spíš méně. 30 00:01:32,623 --> 00:01:35,347 Jak stále získáváme nové poznatky o mozku 31 00:01:35,351 --> 00:01:39,641 nám ukazuje, jak moc je umělá inteligence vzdálená skutečným mozkům. 32 00:01:39,755 --> 00:01:45,418 Dneska třeba dokáže UI rozpoznat chodce na obrázku, 33 00:01:45,442 --> 00:01:48,425 ale nechápe, co to vlastně chodec je, 34 00:01:48,449 --> 00:01:53,273 pro ni je to jenom soubor linek, textur a podobných věcí. 35 00:01:53,792 --> 00:01:56,313 Ale neví, co to vlastně je člověk. 36 00:01:56,822 --> 00:02:00,024 Bude dnešní umělá inteligence dělat to, co po ní chceme? 37 00:02:00,128 --> 00:02:01,722 Bude, když to bude umět, 38 00:02:01,746 --> 00:02:04,472 ale může se stát, že neudělá to, co jsme měli na mysli. 39 00:02:04,496 --> 00:02:06,911 Řekněme, že se snažíte vyvinout UI, 40 00:02:06,935 --> 00:02:09,554 která vezme tuhle sadu robotích součástek 41 00:02:09,578 --> 00:02:13,775 a sestaví z nich robota, který se má dostat z bodu A do bodu B. 42 00:02:13,799 --> 00:02:16,280 Kdybyste se snažili vyřešit tento problém 43 00:02:16,304 --> 00:02:18,655 napsáním tradičního počítačového programu, 44 00:02:18,679 --> 00:02:22,096 programovali byste instrukce krok po kroku, 45 00:02:22,120 --> 00:02:23,449 jak má vzít ty součástky 46 00:02:23,473 --> 00:02:25,880 a jak z nich sestavit robota, který má nohy, 47 00:02:25,904 --> 00:02:28,656 jak má ty nohy použít, aby se dostal do bodu B. 48 00:02:29,441 --> 00:02:31,781 Ale když používáte umělou inteligenci, 49 00:02:31,805 --> 00:02:32,979 tak to funguje jinak. 50 00:02:33,003 --> 00:02:35,385 Neřeknete jí, jak ten problém vyřešit, 51 00:02:35,409 --> 00:02:36,888 dáte jí jenom cíl 52 00:02:36,912 --> 00:02:40,174 a ona musí sama metodou pokusu a omylu přijít na to, 53 00:02:40,198 --> 00:02:41,682 jak toho cíle dosáhnout. 54 00:02:42,254 --> 00:02:47,356 Ukáže se, že UI se tenhle konkrétní úkol snaží vyřešit takto: 55 00:02:47,888 --> 00:02:51,255 postaví z dílů věž a pak se skácí tak, 56 00:02:51,279 --> 00:02:53,106 že dopadne do bodu B. 57 00:02:53,130 --> 00:02:55,899 V podstatě je to skutečně řešení problému. 58 00:02:55,899 --> 00:02:57,736 Technicky vzato se dostala do bodu B. 59 00:02:57,736 --> 00:03:01,911 Nebezpečí UI není v tom, že by proti nám povstala, 60 00:03:01,935 --> 00:03:06,209 ale že bude dělat přesně to, o co jí požádáme. 61 00:03:06,876 --> 00:03:09,374 Vtip práce s umělou inteligencí zní: 62 00:03:09,398 --> 00:03:13,226 Jak zformulovat náši úlohu, aby udělala to, co po ní skutečně chceme? 63 00:03:14,726 --> 00:03:18,032 Tady ten malý robot je ovládán umělou inteligencí. 64 00:03:18,056 --> 00:03:20,870 UI navrhla, jak mají vypadat jeho nohy 65 00:03:20,894 --> 00:03:24,972 a vymyslela, jak je používat, aby překonala všechny tyto překážky. 66 00:03:24,996 --> 00:03:27,737 Ale když David Ha navrhoval tento experiment, 67 00:03:27,761 --> 00:03:30,617 musel v něm nastavit velmi velmi přísné limity, 68 00:03:30,641 --> 00:03:33,933 jak dlouhé smí mít ten robot nohy, 69 00:03:33,957 --> 00:03:35,507 protože jinak ... 70 00:03:43,058 --> 00:03:46,989 (Smích) 71 00:03:48,563 --> 00:03:52,308 A technicky vzato, překonalo to všechny překážky. 72 00:03:52,332 --> 00:03:57,084 Takže vidíte, jak je těžké přimět UI k něčemu tak jednoduchému jako chůze. 73 00:03:57,298 --> 00:04:01,118 Když vidíte, že UI udělá tohle, mohli byste říct, fajn, tohle není fér, 74 00:04:01,142 --> 00:04:03,722 nemůžeš se prostě stát věží a pak spadnout, 75 00:04:03,746 --> 00:04:07,181 musíš používat nohy a chodit. 76 00:04:07,205 --> 00:04:09,964 Ale pak se ukáže, že to taky nefunguje. 77 00:04:09,988 --> 00:04:12,747 Úkolem téhle umělé inteligence byl rychlý pohyb. 78 00:04:13,115 --> 00:04:16,708 Neřekli jí, že má běžet směrem dopředu, 79 00:04:16,732 --> 00:04:18,990 nebo že nesmí používat ruce. 80 00:04:19,487 --> 00:04:24,105 Tohle dostanete, když chcete naučit UI rychle běhat: 81 00:04:24,129 --> 00:04:27,663 dostanete věci jako salta a švihlou chůzi. 82 00:04:27,687 --> 00:04:29,087 A to je skutečně běžné. 83 00:04:29,667 --> 00:04:32,846 Podobně jako lezení po zemi. 84 00:04:32,870 --> 00:04:34,020 (Smích) 85 00:04:35,241 --> 00:04:38,495 Podle mého názoru by daleko divnější měly být 86 00:04:38,519 --> 00:04:39,915 roboti jako Terminátor. 87 00:04:40,166 --> 00:04:44,011 Nabourat se do „Matrixu“ je další věc, kterou UI udělá, když jí dáte příležitost. 88 00:04:44,035 --> 00:04:46,552 Když trénujete UI v simulaci, 89 00:04:46,576 --> 00:04:50,689 naučí se dělat věci jako nabourat se do matematických chyb v simulaci 90 00:04:50,713 --> 00:04:52,500 a získávat z nich energii. 91 00:04:52,944 --> 00:04:58,252 Nebo si najde způsob, hýbat se rychleji opakovaným padáním na zem. 92 00:04:58,443 --> 00:05:00,028 Když pracujete s UI, 93 00:05:00,052 --> 00:05:02,441 není to jako práce s jiným člověkem, 94 00:05:02,465 --> 00:05:06,094 daleko více se to podobá práci s nějakou zvláštní přírodní silou. 95 00:05:06,562 --> 00:05:11,185 A je velice jednoduché UI omylem špatně zadat řešený problém. 96 00:05:11,209 --> 00:05:15,747 Často si to neuvědomíme do té doby, než se něco stane. 97 00:05:16,242 --> 00:05:18,322 Tohle je můj pokus, 98 00:05:18,346 --> 00:05:21,528 chtěla jsem po UI, aby napodobila nátěrové barvy, 99 00:05:21,552 --> 00:05:23,298 aby vymyslela nové barvy, 100 00:05:23,322 --> 00:05:26,309 přičemž dostala seznam jako tady nalevo. 101 00:05:26,798 --> 00:05:29,802 A UI nakonec přišla s tímto. 102 00:05:29,826 --> 00:05:33,469 [Sindino kakání, lejno, utrpení, pubická šedá] 103 00:05:33,469 --> 00:05:37,223 (Smích) 104 00:05:39,177 --> 00:05:41,063 Takže vlastně udělala, 105 00:05:41,087 --> 00:05:42,835 co jsem si přála. 106 00:05:42,835 --> 00:05:46,283 Jenom jsem chtěla, aby vymysla pro barvy nějaké hezké názvy, 107 00:05:46,307 --> 00:05:48,614 ale ve skutečnosti jsem požádala o to, 108 00:05:48,638 --> 00:05:51,724 aby napodobila kombinace písmen, 109 00:05:51,748 --> 00:05:53,653 které viděla v předloze. 110 00:05:53,677 --> 00:05:56,775 Neřekla jsem jí nic o tom, co ta slova znamenají, 111 00:05:56,799 --> 00:05:59,359 nebo že by některá slova 112 00:05:59,383 --> 00:06:02,272 možná neměla používat pro názvy barev. 113 00:06:03,141 --> 00:06:06,635 Celý svět jsou pro ni jenom ta data která jsem jí zadala. 114 00:06:06,659 --> 00:06:10,587 Podobně jako s těmi příchutěmi zmrzlin, nezná nic jiného. 115 00:06:12,491 --> 00:06:14,129 Takže jsou to data, 116 00:06:14,153 --> 00:06:18,197 kterými často omylem žádáme UI o něco, co nechceme. 117 00:06:18,694 --> 00:06:21,726 Tahle ryba je lín. 118 00:06:21,750 --> 00:06:23,565 Jedna skupina vědců 119 00:06:23,589 --> 00:06:27,463 se jednou snažila naučit UI rozpoznávat lína na obrázcích. 120 00:06:27,487 --> 00:06:28,933 Ale když se potom zeptali, 121 00:06:28,933 --> 00:06:32,233 kterou část obrázku skutečně používá k rozpoznání té ryby, 122 00:06:32,257 --> 00:06:33,615 vyznačila toto. 123 00:06:35,203 --> 00:06:37,392 Ano, to jsou lidské prsty. 124 00:06:37,416 --> 00:06:39,475 Proč by se dívala na lidské prsty, 125 00:06:39,499 --> 00:06:41,420 když se snaží rozpoznat rybu? 126 00:06:42,126 --> 00:06:45,290 Jde o to, že lín je ryba, která se loví na udici, 127 00:06:45,314 --> 00:06:49,954 takže na spoustě obrázků, kde ji UI při tréninku viděla, 128 00:06:49,954 --> 00:06:51,814 ta ryba vypadala takto. 129 00:06:51,838 --> 00:06:53,473 (Smích) 130 00:06:53,497 --> 00:06:56,827 Ona nevěděla, že ty prsty nejsou součástí ryby. 131 00:06:58,808 --> 00:07:02,928 Tady vidíte, jak je to těžké, navrhnout umělou inteligenci, 132 00:07:02,952 --> 00:07:06,271 která skutečně dokáže pochopit, na co se dívá. 133 00:07:06,295 --> 00:07:09,157 A to je důvod, proč je vývoj rozpoznávání obrazu 134 00:07:09,181 --> 00:07:11,248 pro samořiditelná auta tak těžký 135 00:07:11,272 --> 00:07:13,777 a proč je spousta selhání samořiditelných aut 136 00:07:13,777 --> 00:07:16,386 způsobena tím, že UI byla zmatená. 137 00:07:16,410 --> 00:07:20,418 Chtěla bych zmínit příklad z roku 2016. 138 00:07:20,442 --> 00:07:24,897 Došlo ke smrtelné nehodě, když někdo používal autopilota Tesly, 139 00:07:24,921 --> 00:07:28,335 ale místo aby ho používal na dálnici, pro kterou byl autopilot navržen, 140 00:07:28,359 --> 00:07:30,564 použil ho ve městě. 141 00:07:31,239 --> 00:07:32,414 A stalo se, 142 00:07:32,438 --> 00:07:35,834 že před auto vjel náklaďák a to auto nezabrzdilo. 143 00:07:36,507 --> 00:07:41,079 Umělá inteligence určitě byla trénovaná na rozpoznávání nákladních aut. 144 00:07:41,293 --> 00:07:43,438 Ale problém byl nejspíš v tom, 145 00:07:43,462 --> 00:07:46,393 že UI byla trénovaná na rozpoznávání náklaďáků na dálnici, 146 00:07:46,417 --> 00:07:49,316 kde lze očekávat, že jsou vidět jenom zezadu. 147 00:07:49,340 --> 00:07:52,760 Na dálnici se nemůže vyskytnout náklaďák ze strany, 148 00:07:52,784 --> 00:07:56,239 takže když UI viděla ten náklaďák, 149 00:07:56,263 --> 00:08:01,090 tak si nejspíš řekla, že to asi bude dopravní značka 150 00:08:01,114 --> 00:08:03,387 a může bezpečně projet pod ní. 151 00:08:04,114 --> 00:08:06,694 Teď přešlap UI z jiné oblasti. 152 00:08:06,718 --> 00:08:11,428 V Amazonu museli nedávno vzdát vývoj algoritmu na třídění životopisů, 153 00:08:11,446 --> 00:08:14,758 když zjistili, že ten algoritmus se naučil diskriminovat ženy. 154 00:08:14,858 --> 00:08:18,094 Trénovali ho na příkladech životopisů lidí, 155 00:08:18,118 --> 00:08:20,360 které zaměstnali v minulosti. 156 00:08:20,384 --> 00:08:24,407 A z těchto příkladů se UI naučila vyhýbat se životopisům lidí, 157 00:08:24,431 --> 00:08:26,457 kteří chodili na ženské univerzity, 158 00:08:26,481 --> 00:08:29,287 nebo měli slovo ‚žena‘ někde ve svém životopisu, 159 00:08:29,311 --> 00:08:33,887 jako třeba ‚ženský fotbalový tým‘, nebo ‚Společnost ženských inženýrů‘. 160 00:08:33,911 --> 00:08:37,885 Umělá inteligence nevěděla, že neměla napodobovat tuhle konkrétní věc, 161 00:08:37,909 --> 00:08:39,787 kterou viděla u lidí. 162 00:08:39,911 --> 00:08:43,008 A technicky vzato dělala to, o co jí žádali. 163 00:08:43,112 --> 00:08:45,909 Jenom ji omylem požádali o špatnou věc. 164 00:08:46,653 --> 00:08:49,548 A tohle se děje s umělou inteligencí stále. 165 00:08:50,120 --> 00:08:53,711 UI může být opravdu destruktivní a nevědět o tom. 166 00:08:53,735 --> 00:08:58,813 UI, která doporučuje obsah na Facebooku nebo YouTube, 167 00:08:58,837 --> 00:09:02,276 je optimalizovaná na zvyšování počtu kliknutí a shlédnutí. 168 00:09:02,400 --> 00:09:05,866 Bohužel se ukázalo, že jeden způsob jak toho dosahuje, 169 00:09:05,866 --> 00:09:10,363 je doporučovat obsah plný předsudků nebo konspiračních teorií. 170 00:09:10,902 --> 00:09:16,204 Samotná umělá inteligence nemá ponětí, co ten obsah skutečně znamená 171 00:09:16,228 --> 00:09:21,773 a nemá ani ponětí o možných důsledcích doporučování takového obsahu. 172 00:09:22,296 --> 00:09:24,307 Takže když pracujeme s UI, 173 00:09:24,331 --> 00:09:28,441 je na nás, abychom se vyvarovali problémů. 174 00:09:28,537 --> 00:09:30,860 A vyvarovat se problémů 175 00:09:30,884 --> 00:09:35,080 může být otázkou prastarého problému komunikace, 176 00:09:35,434 --> 00:09:39,179 přičemž my jako lidé se musíme naučit komunikovat s umělou inteligencí. 177 00:09:39,203 --> 00:09:43,242 Musíme se naučit, co UI dokáže a co nedokáže 178 00:09:43,266 --> 00:09:46,352 a pochopit, že se svým malinkatým žížalím mozečkem 179 00:09:46,376 --> 00:09:50,389 UI tak úplně nerozumí tomu, o co se ji snažíme požádat. 180 00:09:51,148 --> 00:09:54,469 Jinými slovy, musíme být připraveni pracovat s UI, 181 00:09:54,493 --> 00:09:59,751 která není superschopná vševědoucí umělá inteligence ze sci-fi. 182 00:09:59,775 --> 00:10:02,637 Musíme být připraveni pracovat s UI, 183 00:10:02,661 --> 00:10:05,599 kterou máme k dispozici dnes. 184 00:10:05,623 --> 00:10:09,828 Dnešní UI je docela dost divná. 185 00:10:09,852 --> 00:10:11,042 Děkuji. 186 00:10:11,066 --> 00:10:16,291 (Potlesk)