Umělá inteligence, jak známo, se míchá do spousty průmyslových odvětví. Tak třeba zmrzlina. Jakou spoustu neskutečných nových příchutí bychom mohli vytvořit pomocí pokročilé umělé inteligence? Dala jsem se dohromady se skupinou programátorů z Kealingovy střední školy, abych našla odpověď na tuto otázku. Sebrali více než 1600 existujících zmrzlinových příchutí a společně jsme je nacpali do jednoho algoritmu a čekali, co z něj vzejde. A tohle jsou příklady příchutí, se kterými umělá inteligence přišla. [Dýňová kopa odpadků] (Smích) [Sliz s arašídovým máslem] [Jahodovo-smetanová choroba] (Smích) To nejsou lahodné příchutě, které jsme doufali získat. Takže otázka zní: Co se stalo? Co se pokazilo? Snaží se nás umělá inteligence zabít? Nebo se snaží dělat, co po ní chceme, ale má s tím nějaký problém? Když se ve filmech začne dít něco špatného s UI, je to většinou proto, že se umělá inteligence rozhodla, že už nechce lidstvo poslouchat a má svoje vlastní cíle - děkuji pěkně. Nicméně ve skutečném světě ta umělá inteligence, kterou máme, není ani zdaleka tak chytrá. Má výpočetní sílu přibližně jako žížala nebo maximálně jako jediná včela, ale ve skutečnosti spíš méně. Jak stále získáváme nové poznatky o mozku nám ukazuje, jak moc je umělá inteligence vzdálená skutečným mozkům. Dneska třeba dokáže UI rozpoznat chodce na obrázku, ale nechápe, co to vlastně chodec je, pro ni je to jenom soubor linek, textur a podobných věcí. Ale neví, co to vlastně je člověk. Bude dnešní umělá inteligence dělat to, co po ní chceme? Bude, když to bude umět, ale může se stát, že neudělá to, co jsme měli na mysli. Řekněme, že se snažíte vyvinout UI, která vezme tuhle sadu robotích součástek a sestaví z nich robota, který se má dostat z bodu A do bodu B. Kdybyste se snažili vyřešit tento problém napsáním tradičního počítačového programu, programovali byste instrukce krok po kroku, jak má vzít ty součástky a jak z nich sestavit robota, který má nohy, jak má ty nohy použít, aby se dostal do bodu B. Ale když používáte umělou inteligenci, tak to funguje jinak. Neřeknete jí, jak ten problém vyřešit, dáte jí jenom cíl a ona musí sama metodou pokusu a omylu přijít na to, jak toho cíle dosáhnout. Ukáže se, že UI se tenhle konkrétní úkol snaží vyřešit takto: postaví z dílů věž a pak se skácí tak, že dopadne do bodu B. V podstatě je to skutečně řešení problému. Technicky vzato se dostala do bodu B. Nebezpečí UI není v tom, že by proti nám povstala, ale že bude dělat přesně to, o co jí požádáme. Vtip práce s umělou inteligencí zní: Jak zformulovat náši úlohu, aby udělala to, co po ní skutečně chceme? Tady ten malý robot je ovládán umělou inteligencí. UI navrhla, jak mají vypadat jeho nohy a vymyslela, jak je používat, aby překonala všechny tyto překážky. Ale když David Ha navrhoval tento experiment, musel v něm nastavit velmi velmi přísné limity, jak dlouhé smí mít ten robot nohy, protože jinak ... (Smích) A technicky vzato, překonalo to všechny překážky. Takže vidíte, jak je těžké přimět UI k něčemu tak jednoduchému jako chůze. Když vidíte, že UI udělá tohle, mohli byste říct, fajn, tohle není fér, nemůžeš se prostě stát věží a pak spadnout, musíš používat nohy a chodit. Ale pak se ukáže, že to taky nefunguje. Úkolem téhle umělé inteligence byl rychlý pohyb. Neřekli jí, že má běžet směrem dopředu, nebo že nesmí používat ruce. Tohle dostanete, když chcete naučit UI rychle běhat: dostanete věci jako salta a švihlou chůzi. A to je skutečně běžné. Podobně jako lezení po zemi. (Smích) Podle mého názoru by daleko divnější měly být roboti jako Terminátor. Nabourat se do „Matrixu“ je další věc, kterou UI udělá, když jí dáte příležitost. Když trénujete UI v simulaci, naučí se dělat věci jako nabourat se do matematických chyb v simulaci a získávat z nich energii. Nebo si najde způsob, hýbat se rychleji opakovaným padáním na zem. Když pracujete s UI, není to jako práce s jiným člověkem, daleko více se to podobá práci s nějakou zvláštní přírodní silou. A je velice jednoduché UI omylem špatně zadat řešený problém. Často si to neuvědomíme do té doby, než se něco stane. Tohle je můj pokus, chtěla jsem po UI, aby napodobila nátěrové barvy, aby vymyslela nové barvy, přičemž dostala seznam jako tady nalevo. A UI nakonec přišla s tímto. [Sindino kakání, lejno, utrpení, pubická šedá] (Smích) Takže vlastně udělala, co jsem si přála. Jenom jsem chtěla, aby vymysla pro barvy nějaké hezké názvy, ale ve skutečnosti jsem požádala o to, aby napodobila kombinace písmen, které viděla v předloze. Neřekla jsem jí nic o tom, co ta slova znamenají, nebo že by některá slova možná neměla používat pro názvy barev. Celý svět jsou pro ni jenom ta data která jsem jí zadala. Podobně jako s těmi příchutěmi zmrzlin, nezná nic jiného. Takže jsou to data, kterými často omylem žádáme UI o něco, co nechceme. Tahle ryba je lín. Jedna skupina vědců se jednou snažila naučit UI rozpoznávat lína na obrázcích. Ale když se potom zeptali, kterou část obrázku skutečně používá k rozpoznání té ryby, vyznačila toto. Ano, to jsou lidské prsty. Proč by se dívala na lidské prsty, když se snaží rozpoznat rybu? Jde o to, že lín je ryba, která se loví na udici, takže na spoustě obrázků, kde ji UI při tréninku viděla, ta ryba vypadala takto. (Smích) Ona nevěděla, že ty prsty nejsou součástí ryby. Tady vidíte, jak je to těžké, navrhnout umělou inteligenci, která skutečně dokáže pochopit, na co se dívá. A to je důvod, proč je vývoj rozpoznávání obrazu pro samořiditelná auta tak těžký a proč je spousta selhání samořiditelných aut způsobena tím, že UI byla zmatená. Chtěla bych zmínit příklad z roku 2016. Došlo ke smrtelné nehodě, když někdo používal autopilota Tesly, ale místo aby ho používal na dálnici, pro kterou byl autopilot navržen, použil ho ve městě. A stalo se, že před auto vjel náklaďák a to auto nezabrzdilo. Umělá inteligence určitě byla trénovaná na rozpoznávání nákladních aut. Ale problém byl nejspíš v tom, že UI byla trénovaná na rozpoznávání náklaďáků na dálnici, kde lze očekávat, že jsou vidět jenom zezadu. Na dálnici se nemůže vyskytnout náklaďák ze strany, takže když UI viděla ten náklaďák, tak si nejspíš řekla, že to asi bude dopravní značka a může bezpečně projet pod ní. Teď přešlap UI z jiné oblasti. V Amazonu museli nedávno vzdát vývoj algoritmu na třídění životopisů, když zjistili, že ten algoritmus se naučil diskriminovat ženy. Trénovali ho na příkladech životopisů lidí, které zaměstnali v minulosti. A z těchto příkladů se UI naučila vyhýbat se životopisům lidí, kteří chodili na ženské univerzity, nebo měli slovo ‚žena‘ někde ve svém životopisu, jako třeba ‚ženský fotbalový tým‘, nebo ‚Společnost ženských inženýrů‘. Umělá inteligence nevěděla, že neměla napodobovat tuhle konkrétní věc, kterou viděla u lidí. A technicky vzato dělala to, o co jí žádali. Jenom ji omylem požádali o špatnou věc. A tohle se děje s umělou inteligencí stále. UI může být opravdu destruktivní a nevědět o tom. UI, která doporučuje obsah na Facebooku nebo YouTube, je optimalizovaná na zvyšování počtu kliknutí a shlédnutí. Bohužel se ukázalo, že jeden způsob jak toho dosahuje, je doporučovat obsah plný předsudků nebo konspiračních teorií. Samotná umělá inteligence nemá ponětí, co ten obsah skutečně znamená a nemá ani ponětí o možných důsledcích doporučování takového obsahu. Takže když pracujeme s UI, je na nás, abychom se vyvarovali problémů. A vyvarovat se problémů může být otázkou prastarého problému komunikace, přičemž my jako lidé se musíme naučit komunikovat s umělou inteligencí. Musíme se naučit, co UI dokáže a co nedokáže a pochopit, že se svým malinkatým žížalím mozečkem UI tak úplně nerozumí tomu, o co se ji snažíme požádat. Jinými slovy, musíme být připraveni pracovat s UI, která není superschopná vševědoucí umělá inteligence ze sci-fi. Musíme být připraveni pracovat s UI, kterou máme k dispozici dnes. Dnešní UI je docela dost divná. Děkuji. (Potlesk)