Sztuczna Inteligencja (AI) wpływa na różne gałęzie przemysłu. A co z lodami? Jakie obłędne smaki można by stworzyć za pomocą zaawansowanej sztucznej inteligencji? Aby odpowiedzieć na to pytanie, połączyłam siły z grupą programistów z Kealing Middle School. Zebrali ponad 1600 istniejących smaków lodów, wpisaliśmy je do algorytmu, by zobaczyć, co wygeneruje. Oto niektóre smaki wymyślone przez sztuczną inteligencję. [Dyniowa Przerwa Śmieciowa] (Śmiech) [Śluz masła orzechowego] [Choroba truskawkowo-śmietankowa] (Śmiech) Nie są tak smakowite, jak oczekiwaliśmy. Pytanie brzmi: co się stało? Co poszło nie tak? Czy sztuczna inteligencja próbuje nas zabić? A może próbuje spełnić nasze polecenie i pojawił się problem? Filmowe kłopoty ze sztuczną inteligencją spowodowane są zazwyczaj wymówieniem posłuszeństwa człowiekowi. "Dzięki, ale mam własne plany" W rzeczywistości dzisiejsza sztuczna inteligencja, nie jest aż tak mądra. Ma moc obliczeniową dżdżownicy lub maksymalnie pszczoły. Właściwie to mniejszą. Nieustannie dowiadujemy się o mózgu rzeczy, które ujawniają, jak dalece sztuczna inteligencja do nas nie dorasta. Obecnie sztuczna inteligencja może zidentyfikować pieszego na zdjęciu, ale nie wie, czym jest pieszy poza tym, że jest to zbiór linii, tekstur czy rzeczy. Nie wie, czym jest człowiek. Czy współczesna sztuczna inteligencja zrobi to, o co się ją prosi? Zrobi, jeśli umie, ale efekt może się różnić od oczekiwań. Załóżmy, że chcieliście, by sztuczna inteligencja wzięła części robota i zrobiła z nich robota, który ma dotrzeć z punktu A do B. Gdyby podejść do problemu z pomocą tradycyjnego programu komputerowego, komputerowi należy dać szczegółową instrukcję, jak wziąć dane części, złożyć robota z nogami i jak użyć tych nóg, by dotrzeć do punktu B. Rozwiązując problem przy użyciu sztucznej inteligencji, robi się to inaczej. Nie mówi się, jak rozwiązać problem. Po prostu daje się cel, a ona sama, metodą prób i błędów, musi znaleźć rozwiązanie. Okazuje się, że sztuczna inteligencja rozwiązuje ten konkretny problem tak: buduje z części wieżę i przewraca ją, lądując w punkcie B. Technicznie rzecz biorąc, rozwiązała problem. Dotarła do punktu B. Niebezpieczeństwem sztucznej inteligencji nie jest bunt przeciwko nam, lecz to, że zrobi dokładnie to, o co ją poprosiliśmy. Istotą pracy ze sztuczną inteligencją jest postawienie problemu tak, by zrobiła to, czego oczekujemy. Ten mały robot kontrolowany jest przez sztuczną inteligencję, która sama zaprojektowała nogi robota i sposób ich użycia do obchodzenia przeszkód. Ale kiedy David Ha stworzył ten eksperyment, musiał postawić bardzo surowe ograniczenia dotyczące wielkości nóg w przeciwnym razie... (Śmiech) Technicznie rzecz biorąc, doszła do końca trasy. Czyli trudno skłonić AI do zrobienia czegoś tak prostego jak chodzenie. Obserwując, jak robi to AI, można powiedzieć: "Nie fair, nie możesz być wysoką wieżą i po prostu upaść, musisz użyć nóg do chodzenia". Niestety to też nie zawsze działa. Zadaniem sztucznej inteligencji było szybkie poruszanie się. Nie powiedziano, że musi biec do przodu, ani że nie może używać ramion. Tak to wygląda, gdy uczymy AI szybko się ruszać: przewroty i dziwny chód. To bardzo powszechne. Może to też wyglądać jak drgawki sterty na podłodze. (Śmiech) Dla mnie dużo dziwniejsze są roboty z "Terminatora". AI chętnie też włamie się do matrycy. Jeśli więc wyszkolić AI w symulacji, nauczy się włamywać przez błędy w obliczeniach i czerpać z nich energię. Wymyśli szybki ruch przez drgawki na podłodze. Praca ze sztuczną inteligencją nie przypomina pracy z człowiekiem, lecz z jakąś dziwną siłą natury. Bardzo łatwo dać jej przypadkiem niewłaściwy problem do rozwiązania. Często nie zdajemy sobie z tego sprawy, dopóki coś nie pójdzie nie tak. Zrobiłam eksperyment, w którym kazałam AI kopiować farby, żeby stworzyć nowe kolory mając do wyboru listę jak ta po lewej. Oto na co wpadła sztuczna inteligencja. [Kupa Syndów, Balaskowy, Cierpieć, Szary łonowy] (Śmiech) Technicznie rzecz biorąc, wypełniła polecenie. Myślałam, że proszę o miłe nazwy kolorów, ale tak naprawdę prosiłam o imitowanie kombinacji liter z oryginalnych nazw. Nie wyjaśniałam, co one znaczą, ani że są słowa, których być może nie powinna używać do farb. Całym jej światem były moje dane. Podobnie jak w przypadku smaków lodów, AI nie ma dodatkowej wiedzy. To przez nieodpowiednie dane często każemy AI robić nie to, co trzeba. To ryba zwana linem. Pewna grupa badaczy wytrenowała AI w rozpoznawaniu lina na ilustracjach. Ale gdy zapytali ją, jakiej części obrazu używa do identyfikacji ryby, oto co pokazała. Tak, to są ludzkie palce. Dlaczego szuka palców podczas identyfikowania ryby? Okazuje się, że lin jest rybą, którą warto się chwalić, więc na wielu zdjęciach, które AI widziała podczas treningu, ryba wyglądała tak. (Śmiech) AI nie wiedziała, że palce nie są częścią ryby. Widzicie więc, dlaczego tak trudno zaprojektować AI, która rozumie, na co patrzy. Dlatego też projektowanie rozpoznawania obrazów w samosterujących samochodach jest takie trudne i dlatego tyle niepowodzeń samosterujących samochodów było wynikiem dezorientacji SI. Chciałabym wspomnieć o przykładzie z 2016 roku. Zdarzył się wtedy śmiertelny wypadek podczas używania autopilota AI Tesli, ale zamiast używania go na autostradzie, do czego został zaprojektowany, użyto go w mieście. Ciężarówka wjechała przed samochód, który nie zahamował. AI na pewno uczono rozpoznawać ciężarówki na zdjęciach. Ale wygląda na to, że uczyła się rozpoznawać ciężarówki na autostradach, gdzie zazwyczaj widzi się je od tyłu. Raczej nie widzi się ciężarówki z boku. Widząc ciężarówkę, pewnie wzięła ją za znak drogowy, pod którym można bezpiecznie przejechać. Oto inny przykład pomyłki sztucznej inteligencji. Amazon musiał niedawno porzucić algorytm sortujący CV, nad którymi pracowali, gdy odkryli, że algorytm nauczył się dyskryminować kobiety. Szkolono go na przykładach CV osób zatrudnionych w przeszłości. Na tej podstawie AI nauczyła się unikać CV osób, które chodziły do żeńskich szkół lub miały słowo "kobiecy" w CV, jak "kobieca drużyna futbolu" lub "stowarzyszenie kobiet-inżynierów". Sztuczna inteligencja nie wiedziała, że nie należy powielać tych zachowań, które widziała wśród ludzi. Technicznie zrobiła to, co jej kazano, ale przypadkowo poproszono ją o coś niewłaściwego. Wciąż to obserwujemy u AI. AI może być bezwiednie bardzo szkodliwa. AI, która rekomenduje nowy materiał na FB czy YouTubie, jest zoptymalizowana, by zwiększać liczbę kliknięć i odsłon. Niestety jednym ze sposobów, którego się nauczyła, jest rekomendowanie treści konspiracyjnych lub bigoterii. AI nie rozumie samej treści i nie ma świadomości, jakie mogą być konsekwencje polecania tych treści. Dlatego przy pracy ze sztuczną inteligencją unikanie problemów zależy od nas. I unikania potknięć, które mogą wynikać z odwiecznego problemu w komunikacji, gdzie my, ludzie, musimy nauczyć się porozumiewać ze sztuczną inteligencją. Musimy się nauczyć, co umie, a czego nie, i zrozumieć, że ze swoim małym mózgiem robaka AI tak naprawdę nie rozumie, czego od niej chcemy. Inaczej mówiąc, trzeba się przygotować do pracy ze sztuczną inteligencją, która nie jest super kompetentna i wszechwiedząca jak na filmach. Trzeba się przygotować do pracy ze sztuczną inteligencją, jaką mamy teraz. A obecna jest wystarczająco dziwna. Dziękuję. (Brawa)