Sztuczna Inteligencja (AI)
wpływa na różne gałęzie przemysłu.
A co z lodami?
Jakie obłędne smaki można by stworzyć
za pomocą zaawansowanej
sztucznej inteligencji?
Aby odpowiedzieć na to pytanie,
połączyłam siły z grupą programistów
z Kealing Middle School.
Zebrali ponad 1600
istniejących smaków lodów,
wpisaliśmy je do algorytmu,
by zobaczyć, co wygeneruje.
Oto niektóre smaki
wymyślone przez sztuczną inteligencję.
[Dyniowa Przerwa Śmieciowa]
(Śmiech)
[Śluz masła orzechowego]
[Choroba truskawkowo-śmietankowa]
(Śmiech)
Nie są tak smakowite, jak oczekiwaliśmy.
Pytanie brzmi: co się stało?
Co poszło nie tak?
Czy sztuczna inteligencja
próbuje nas zabić?
A może próbuje spełnić nasze polecenie
i pojawił się problem?
Filmowe kłopoty ze sztuczną inteligencją
spowodowane są zazwyczaj
wymówieniem posłuszeństwa człowiekowi.
"Dzięki, ale mam własne plany"
W rzeczywistości dzisiejsza
sztuczna inteligencja,
nie jest aż tak mądra.
Ma moc obliczeniową
dżdżownicy
lub maksymalnie pszczoły.
Właściwie to mniejszą.
Nieustannie dowiadujemy się
o mózgu rzeczy, które ujawniają,
jak dalece sztuczna inteligencja
do nas nie dorasta.
Obecnie sztuczna inteligencja może
zidentyfikować pieszego na zdjęciu,
ale nie wie, czym jest pieszy
poza tym, że jest to zbiór linii,
tekstur czy rzeczy.
Nie wie, czym jest człowiek.
Czy współczesna sztuczna inteligencja
zrobi to, o co się ją prosi?
Zrobi, jeśli umie,
ale efekt może się różnić od oczekiwań.
Załóżmy, że chcieliście,
by sztuczna inteligencja
wzięła części robota
i zrobiła z nich robota,
który ma dotrzeć z punktu A do B.
Gdyby podejść do problemu
z pomocą tradycyjnego
programu komputerowego,
komputerowi należy dać
szczegółową instrukcję,
jak wziąć dane części,
złożyć robota z nogami
i jak użyć tych nóg,
by dotrzeć do punktu B.
Rozwiązując problem
przy użyciu sztucznej inteligencji,
robi się to inaczej.
Nie mówi się, jak rozwiązać problem.
Po prostu daje się cel,
a ona sama, metodą prób i błędów,
musi znaleźć rozwiązanie.
Okazuje się, że sztuczna inteligencja
rozwiązuje ten konkretny problem tak:
buduje z części wieżę i przewraca ją,
lądując w punkcie B.
Technicznie rzecz biorąc,
rozwiązała problem.
Dotarła do punktu B.
Niebezpieczeństwem sztucznej inteligencji
nie jest bunt przeciwko nam,
lecz to, że zrobi dokładnie to,
o co ją poprosiliśmy.
Istotą pracy ze sztuczną inteligencją
jest postawienie problemu tak,
by zrobiła to, czego oczekujemy.
Ten mały robot kontrolowany jest
przez sztuczną inteligencję,
która sama zaprojektowała nogi robota
i sposób ich użycia
do obchodzenia przeszkód.
Ale kiedy David Ha
stworzył ten eksperyment,
musiał postawić bardzo surowe ograniczenia
dotyczące wielkości nóg
w przeciwnym razie...
(Śmiech)
Technicznie rzecz biorąc,
doszła do końca trasy.
Czyli trudno skłonić AI do zrobienia
czegoś tak prostego jak chodzenie.
Obserwując, jak robi to AI,
można powiedzieć: "Nie fair,
nie możesz być wysoką wieżą
i po prostu upaść,
musisz użyć nóg do chodzenia".
Niestety to też nie zawsze działa.
Zadaniem sztucznej inteligencji
było szybkie poruszanie się.
Nie powiedziano, że musi biec do przodu,
ani że nie może używać ramion.
Tak to wygląda,
gdy uczymy AI szybko się ruszać:
przewroty i dziwny chód.
To bardzo powszechne.
Może to też wyglądać
jak drgawki sterty na podłodze.
(Śmiech)
Dla mnie dużo dziwniejsze są
roboty z "Terminatora".
AI chętnie też włamie się do matrycy.
Jeśli więc wyszkolić AI w symulacji,
nauczy się włamywać
przez błędy w obliczeniach
i czerpać z nich energię.
Wymyśli szybki ruch
przez drgawki na podłodze.
Praca ze sztuczną inteligencją
nie przypomina pracy z człowiekiem,
lecz z jakąś dziwną siłą natury.
Bardzo łatwo dać jej przypadkiem
niewłaściwy problem do rozwiązania.
Często nie zdajemy sobie z tego sprawy,
dopóki coś nie pójdzie nie tak.
Zrobiłam eksperyment,
w którym kazałam AI kopiować farby,
żeby stworzyć nowe kolory
mając do wyboru listę jak ta po lewej.
Oto na co wpadła sztuczna inteligencja.
[Kupa Syndów, Balaskowy,
Cierpieć, Szary łonowy]
(Śmiech)
Technicznie rzecz biorąc,
wypełniła polecenie.
Myślałam, że proszę o miłe nazwy kolorów,
ale tak naprawdę prosiłam
o imitowanie kombinacji liter
z oryginalnych nazw.
Nie wyjaśniałam, co one znaczą,
ani że są słowa, których być może
nie powinna używać do farb.
Całym jej światem były moje dane.
Podobnie jak w przypadku smaków lodów,
AI nie ma dodatkowej wiedzy.
To przez nieodpowiednie dane
często każemy AI
robić nie to, co trzeba.
To ryba zwana linem.
Pewna grupa badaczy
wytrenowała AI w rozpoznawaniu
lina na ilustracjach.
Ale gdy zapytali ją,
jakiej części obrazu
używa do identyfikacji ryby,
oto co pokazała.
Tak, to są ludzkie palce.
Dlaczego szuka palców
podczas identyfikowania ryby?
Okazuje się, że lin jest rybą,
którą warto się chwalić,
więc na wielu zdjęciach,
które AI widziała podczas treningu,
ryba wyglądała tak.
(Śmiech)
AI nie wiedziała,
że palce nie są częścią ryby.
Widzicie więc, dlaczego
tak trudno zaprojektować AI,
która rozumie, na co patrzy.
Dlatego też projektowanie
rozpoznawania obrazów
w samosterujących samochodach
jest takie trudne
i dlatego tyle niepowodzeń
samosterujących samochodów
było wynikiem dezorientacji SI.
Chciałabym wspomnieć
o przykładzie z 2016 roku.
Zdarzył się wtedy śmiertelny wypadek
podczas używania autopilota AI Tesli,
ale zamiast używania go na autostradzie,
do czego został zaprojektowany,
użyto go w mieście.
Ciężarówka wjechała przed samochód,
który nie zahamował.
AI na pewno uczono rozpoznawać
ciężarówki na zdjęciach.
Ale wygląda na to,
że uczyła się rozpoznawać
ciężarówki na autostradach,
gdzie zazwyczaj widzi się je od tyłu.
Raczej nie widzi się ciężarówki z boku.
Widząc ciężarówkę,
pewnie wzięła ją za znak drogowy,
pod którym można bezpiecznie przejechać.
Oto inny przykład pomyłki
sztucznej inteligencji.
Amazon musiał niedawno porzucić
algorytm sortujący CV,
nad którymi pracowali,
gdy odkryli, że algorytm nauczył się
dyskryminować kobiety.
Szkolono go na przykładach CV
osób zatrudnionych w przeszłości.
Na tej podstawie
AI nauczyła się unikać CV osób,
które chodziły do żeńskich szkół
lub miały słowo "kobiecy" w CV,
jak "kobieca drużyna futbolu"
lub "stowarzyszenie kobiet-inżynierów".
Sztuczna inteligencja nie wiedziała,
że nie należy powielać tych zachowań,
które widziała wśród ludzi.
Technicznie zrobiła to, co jej kazano,
ale przypadkowo poproszono ją
o coś niewłaściwego.
Wciąż to obserwujemy u AI.
AI może być bezwiednie bardzo szkodliwa.
AI, która rekomenduje
nowy materiał na FB czy YouTubie,
jest zoptymalizowana,
by zwiększać liczbę kliknięć i odsłon.
Niestety jednym ze sposobów,
którego się nauczyła,
jest rekomendowanie treści
konspiracyjnych lub bigoterii.
AI nie rozumie samej treści
i nie ma świadomości,
jakie mogą być konsekwencje
polecania tych treści.
Dlatego przy pracy
ze sztuczną inteligencją
unikanie problemów zależy od nas.
I unikania potknięć, które mogą wynikać
z odwiecznego problemu w komunikacji,
gdzie my, ludzie, musimy nauczyć się
porozumiewać ze sztuczną inteligencją.
Musimy się nauczyć, co umie, a czego nie,
i zrozumieć, że ze swoim
małym mózgiem robaka
AI tak naprawdę nie rozumie,
czego od niej chcemy.
Inaczej mówiąc, trzeba się przygotować
do pracy ze sztuczną inteligencją,
która nie jest super kompetentna
i wszechwiedząca jak na filmach.
Trzeba się przygotować do pracy
ze sztuczną inteligencją, jaką mamy teraz.
A obecna jest wystarczająco dziwna.
Dziękuję.
(Brawa)