Umělá inteligence,
jak známo, se míchá do spousty
průmyslových odvětví.
Tak třeba zmrzlina.
Jakou spoustu neskutečných
nových příchutí bychom mohli vytvořit
pomocí pokročilé umělé inteligence?
Dala jsem se dohromady se skupinou
programátorů z Kealingovy střední školy,
abych našla odpověď na tuto otázku.
Sebrali více než 1600 existujících
zmrzlinových příchutí
a společně jsme je nacpali do jednoho
algoritmu a čekali, co z něj vzejde.
A tohle jsou příklady příchutí,
se kterými umělá inteligence přišla.
[Dýňová kopa odpadků]
(Smích)
[Sliz s arašídovým máslem]
[Jahodovo-smetanová choroba]
(Smích)
To nejsou lahodné příchutě,
které jsme doufali získat.
Takže otázka zní: Co se stalo?
Co se pokazilo?
Snaží se nás umělá inteligence zabít?
Nebo se snaží dělat, co po ní chceme,
ale má s tím nějaký problém?
Když se ve filmech začne dít
něco špatného s UI,
je to většinou proto,
že se umělá inteligence rozhodla,
že už nechce lidstvo poslouchat
a má svoje vlastní cíle - děkuji pěkně.
Nicméně ve skutečném světě
ta umělá inteligence, kterou máme,
není ani zdaleka tak chytrá.
Má výpočetní sílu přibližně jako žížala
nebo maximálně jako jediná včela,
ale ve skutečnosti spíš méně.
Jak stále získáváme
nové poznatky o mozku
nám ukazuje, jak moc je umělá inteligence
vzdálená skutečným mozkům.
Dneska třeba dokáže UI
rozpoznat chodce na obrázku,
ale nechápe, co to vlastně chodec je,
pro ni je to jenom soubor linek,
textur a podobných věcí.
Ale neví, co to vlastně je člověk.
Bude dnešní umělá inteligence
dělat to, co po ní chceme?
Bude, když to bude umět,
ale může se stát, že neudělá to,
co jsme měli na mysli.
Řekněme, že se snažíte vyvinout UI,
která vezme tuhle sadu
robotích součástek
a sestaví z nich robota,
který se má dostat z bodu A do bodu B.
Kdybyste se snažili vyřešit tento problém
napsáním tradičního počítačového programu,
programovali byste instrukce
krok po kroku,
jak má vzít ty součástky
a jak z nich sestavit robota,
který má nohy,
jak má ty nohy použít,
aby se dostal do bodu B.
Ale když používáte umělou inteligenci,
tak to funguje jinak.
Neřeknete jí, jak ten problém vyřešit,
dáte jí jenom cíl
a ona musí sama metodou pokusu a omylu
přijít na to,
jak toho cíle dosáhnout.
Ukáže se, že UI se tenhle konkrétní
úkol snaží vyřešit takto:
postaví z dílů věž a pak se skácí tak,
že dopadne do bodu B.
V podstatě je to skutečně řešení problému.
Technicky vzato se dostala do bodu B.
Nebezpečí UI není v tom,
že by proti nám povstala,
ale že bude dělat přesně to,
o co jí požádáme.
Vtip práce s umělou inteligencí zní:
Jak zformulovat náši úlohu,
aby udělala to, co po ní skutečně chceme?
Tady ten malý robot je ovládán
umělou inteligencí.
UI navrhla, jak mají vypadat jeho nohy
a vymyslela, jak je používat,
aby překonala všechny tyto překážky.
Ale když David Ha navrhoval
tento experiment,
musel v něm nastavit
velmi velmi přísné limity,
jak dlouhé smí mít ten robot nohy,
protože jinak ...
(Smích)
A technicky vzato, překonalo to
všechny překážky.
Takže vidíte, jak je těžké přimět UI
k něčemu tak jednoduchému jako chůze.
Když vidíte, že UI udělá tohle,
mohli byste říct, fajn, tohle není fér,
nemůžeš se prostě stát věží
a pak spadnout,
musíš používat nohy a chodit.
Ale pak se ukáže, že to taky nefunguje.
Úkolem téhle umělé inteligence
byl rychlý pohyb.
Neřekli jí, že má běžet směrem dopředu,
nebo že nesmí používat ruce.
Tohle dostanete,
když chcete naučit UI rychle běhat:
dostanete věci jako salta
a švihlou chůzi.
A to je skutečně běžné.
Podobně jako lezení po zemi.
(Smích)
Podle mého názoru
by daleko divnější měly být
roboti jako Terminátor.
Nabourat se do „Matrixu“ je další věc,
kterou UI udělá, když jí dáte příležitost.
Když trénujete UI v simulaci,
naučí se dělat věci jako nabourat se
do matematických chyb v simulaci
a získávat z nich energii.
Nebo si najde způsob, hýbat se rychleji
opakovaným padáním na zem.
Když pracujete s UI,
není to jako práce s jiným člověkem,
daleko více se to podobá práci
s nějakou zvláštní přírodní silou.
A je velice jednoduché UI
omylem špatně zadat řešený problém.
Často si to neuvědomíme do té doby,
než se něco stane.
Tohle je můj pokus,
chtěla jsem po UI,
aby napodobila nátěrové barvy,
aby vymyslela nové barvy,
přičemž dostala seznam
jako tady nalevo.
A UI nakonec přišla s tímto.
[Sindino kakání, lejno,
utrpení, pubická šedá]
(Smích)
Takže vlastně udělala,
co jsem si přála.
Jenom jsem chtěla, aby vymysla
pro barvy nějaké hezké názvy,
ale ve skutečnosti jsem požádala o to,
aby napodobila kombinace písmen,
které viděla v předloze.
Neřekla jsem jí nic o tom,
co ta slova znamenají,
nebo že by některá slova
možná neměla používat pro názvy barev.
Celý svět jsou pro ni jenom ta data
která jsem jí zadala.
Podobně jako s těmi příchutěmi zmrzlin,
nezná nic jiného.
Takže jsou to data,
kterými často omylem žádáme UI o něco,
co nechceme.
Tahle ryba je lín.
Jedna skupina vědců
se jednou snažila naučit UI
rozpoznávat lína na obrázcích.
Ale když se potom zeptali,
kterou část obrázku skutečně používá
k rozpoznání té ryby,
vyznačila toto.
Ano, to jsou lidské prsty.
Proč by se dívala na lidské prsty,
když se snaží rozpoznat rybu?
Jde o to, že lín je ryba,
která se loví na udici,
takže na spoustě obrázků,
kde ji UI při tréninku viděla,
ta ryba vypadala takto.
(Smích)
Ona nevěděla, že ty prsty
nejsou součástí ryby.
Tady vidíte, jak je to těžké,
navrhnout umělou inteligenci,
která skutečně dokáže pochopit,
na co se dívá.
A to je důvod, proč je vývoj
rozpoznávání obrazu
pro samořiditelná auta tak těžký
a proč je spousta selhání
samořiditelných aut
způsobena tím, že UI byla zmatená.
Chtěla bych zmínit příklad
z roku 2016.
Došlo ke smrtelné nehodě,
když někdo používal autopilota Tesly,
ale místo aby ho používal na dálnici,
pro kterou byl autopilot navržen,
použil ho ve městě.
A stalo se,
že před auto vjel náklaďák
a to auto nezabrzdilo.
Umělá inteligence určitě byla trénovaná
na rozpoznávání nákladních aut.
Ale problém byl nejspíš v tom,
že UI byla trénovaná na rozpoznávání
náklaďáků na dálnici,
kde lze očekávat,
že jsou vidět jenom zezadu.
Na dálnici se nemůže vyskytnout
náklaďák ze strany,
takže když UI viděla ten náklaďák,
tak si nejspíš řekla,
že to asi bude dopravní značka
a může bezpečně projet pod ní.
Teď přešlap UI z jiné oblasti.
V Amazonu museli nedávno vzdát
vývoj algoritmu na třídění životopisů,
když zjistili, že ten algoritmus
se naučil diskriminovat ženy.
Trénovali ho na příkladech
životopisů lidí,
které zaměstnali v minulosti.
A z těchto příkladů se UI naučila
vyhýbat se životopisům lidí,
kteří chodili na ženské univerzity,
nebo měli slovo ‚žena‘
někde ve svém životopisu,
jako třeba ‚ženský fotbalový tým‘,
nebo ‚Společnost ženských inženýrů‘.
Umělá inteligence nevěděla, že neměla
napodobovat tuhle konkrétní věc,
kterou viděla u lidí.
A technicky vzato dělala to,
o co jí žádali.
Jenom ji omylem požádali o špatnou věc.
A tohle se děje
s umělou inteligencí stále.
UI může být opravdu destruktivní
a nevědět o tom.
UI, která doporučuje obsah
na Facebooku nebo YouTube,
je optimalizovaná na zvyšování počtu
kliknutí a shlédnutí.
Bohužel se ukázalo, že jeden způsob
jak toho dosahuje,
je doporučovat obsah plný předsudků
nebo konspiračních teorií.
Samotná umělá inteligence nemá ponětí,
co ten obsah skutečně znamená
a nemá ani ponětí o možných důsledcích
doporučování takového obsahu.
Takže když pracujeme s UI,
je na nás, abychom se vyvarovali problémů.
A vyvarovat se problémů
může být otázkou
prastarého problému komunikace,
přičemž my jako lidé se musíme naučit
komunikovat s umělou inteligencí.
Musíme se naučit, co UI dokáže
a co nedokáže
a pochopit, že se svým malinkatým
žížalím mozečkem
UI tak úplně nerozumí tomu,
o co se ji snažíme požádat.
Jinými slovy, musíme být připraveni
pracovat s UI,
která není superschopná vševědoucí
umělá inteligence ze sci-fi.
Musíme být připraveni pracovat s UI,
kterou máme k dispozici dnes.
Dnešní UI je docela dost divná.
Děkuji.
(Potlesk)