Nie bójcie się superinteligentnej sztucznej inteligencji
-
0:01 - 0:05Jako dziecko byłem typowym nerdem.
-
0:05 - 0:07Niektórzy z was pewnie też.
-
0:08 - 0:09(Śmiech)
-
0:09 - 0:12Pan, który zaśmiał się najgłośniej,
pewnie nadal nim jest. -
0:12 - 0:14(Śmiech)
-
0:14 - 0:18Dorastałem w małym miasteczku
w zakurzonym północnym Teksasie. -
0:18 - 0:21Syn szeryfa, który był synem pastora.
-
0:21 - 0:23Nie mogłem sprawiać kłopotów.
-
0:24 - 0:27Dla zabawy zacząłem czytać
podręczniki do matematyki. -
0:28 - 0:29(Śmiech)
-
0:29 - 0:31Pan też.
-
0:31 - 0:34Dzięki temu zbudowałem
laser, komputer, modele rakiet -
0:34 - 0:37i stworzyłem paliwo rakietowe
domowej roboty. -
0:38 - 0:42Mówiąc naukowo,
-
0:42 - 0:45to był bardzo zły pomysł.
-
0:45 - 0:46(Śmiech)
-
0:46 - 0:48Mniej więcej w tym samym czasie
-
0:48 - 0:52weszła do kin "2001: Odyseja Kosmiczna"
Stanleya Kubricka, -
0:52 - 0:54która zmieniła moje życie.
-
0:54 - 0:56Wszystko mi się w tym filmie podobało,
-
0:56 - 0:59a szczególnie HAL 9000.
-
0:59 - 1:01HAL to inteligentny komputer.
-
1:01 - 1:03Zaprojektowany, żeby kierować
statkiem Discovery -
1:03 - 1:06w misji z Ziemi na Jowisza.
-
1:06 - 1:08Ale HAL nie był bez skazy,
-
1:08 - 1:12bo postawił powodzenie misji
ponad ludzkie życie. -
1:13 - 1:15HAL był postacią fikcyjną,
-
1:15 - 1:18ale odzwierciedla nasze obawy,
-
1:18 - 1:20strach przed zniewoleniem
-
1:20 - 1:23przez bezduszną sztuczną inteligencję,
-
1:23 - 1:25obojętną na nasze człowieczeństwo.
-
1:26 - 1:28Uważam, że taki strach jest bezzasadny.
-
1:28 - 1:31Żyjemy w niezwykłym okresie
-
1:31 - 1:33w historii ludzkości,
-
1:33 - 1:38w którym, chcąc przezwyciężyć
ograniczenia ciała i umysłu, -
1:38 - 1:39budujemy maszyny
-
1:39 - 1:43zachwycająco skomplikowane,
-
1:43 - 1:45pozwalające rozszerzyć ludzkie doznania
-
1:45 - 1:47w niewyobrażalny sposób.
-
1:48 - 1:50Pracowałem w Akademii Lotniczej.
-
1:50 - 1:52Teraz jestem w Dowództwie Kosmicznym.
-
1:52 - 1:54Pracuję jako inżynier systemów.
-
1:54 - 1:57Obecnie zajmuję się problemem
-
1:57 - 1:59związanym z misją NASA na Marsa.
-
1:59 - 2:02Podczas lotów na Księżyc
-
2:02 - 2:05można polegać na kontroli w Houston,
-
2:05 - 2:07skąd nadzoruje się wszystkie aspekty lotu.
-
2:07 - 2:11Mars jest 200 razy dalej,
-
2:11 - 2:14dlatego potrzeba 13 minut,
-
2:14 - 2:17żeby sygnał z Ziemi dotarł do Marsa.
-
2:17 - 2:20W razie problemów brakuje czasu.
-
2:21 - 2:23Rozsądnym rozwiązaniem byłoby
-
2:23 - 2:26umieszczenie centrum dowodzenia
-
2:26 - 2:29wewnątrz statku Orion.
-
2:29 - 2:32Inny fascynujący pomysł
-
2:32 - 2:35to umieszczenie humanoidalnych
robotów na powierzchni Marsa, -
2:35 - 2:37zanim dotrą tam ludzie,
-
2:37 - 2:38żeby przygotowały zaplecze,
-
2:38 - 2:42a później współtworzyły zespół naukowców.
-
2:43 - 2:46Podchodząc do tego
z perspektywy inżyniera, -
2:46 - 2:49oczywiste było, że muszę zaprojektować
-
2:49 - 2:52sprytną, współpracującą,
-
2:52 - 2:54przystosowaną społecznie
sztuczną inteligencję. -
2:54 - 2:58Innymi słowy, potrzeba czegoś jak HAL,
-
2:58 - 3:01ale bez morderczych skłonności.
-
3:01 - 3:02(Śmiech)
-
3:03 - 3:05Zatrzymajmy się na moment.
-
3:05 - 3:09Czy rzeczywiście można zbudować
taką sztuczną inteligencję? -
3:09 - 3:10W zasadzie tak.
-
3:10 - 3:11Pod wieloma względami
-
3:11 - 3:13to trudny problem konstruktorski
-
3:13 - 3:15z elementami AI,
-
3:15 - 3:20a nie problem AI dla konstruktorów.
-
3:20 - 3:22Parafrazując Alana Turinga,
-
3:22 - 3:25nie interesuje mnie budowa
inteligentnej maszyny, -
3:25 - 3:26nie buduję HALa.
-
3:26 - 3:29Potrzebuję prostego mózgu,
-
3:29 - 3:32takiego, który daje iluzję inteligencji.
-
3:33 - 3:36Informatyka przebyła długą drogę,
-
3:36 - 3:38od kiedy HAL był na ekranach.
-
3:38 - 3:41Gdyby dr Chandra,
konstruktor HALa, był z nami, -
3:41 - 3:43pewnie miałby wiele pytań.
-
3:43 - 3:45Czy rzeczywiście jest możliwe
-
3:45 - 3:49użycie milionów urządzeń,
-
3:49 - 3:51żeby odczytały strumienie danych,
-
3:51 - 3:53przewidziały usterki i im zapobiegły?
-
3:53 - 3:54Tak.
-
3:54 - 3:58Czy można stworzyć systemy
komunikujące się z ludźmi ich językiem? -
3:58 - 3:58Tak.
-
3:58 - 4:02Czy można stworzyć systemy
rozpoznające obiekty i emocje, -
4:02 - 4:05okazujące emocje, grające w gry,
a nawet czytające z ruchu warg? -
4:05 - 4:06Tak.
-
4:07 - 4:09A system określający cele,
-
4:09 - 4:12wdrażający plany, żeby je osiągnąć,
i jednocześnie uczący się? -
4:12 - 4:14Tak.
-
4:14 - 4:17A systemy świadome umysłu?
-
4:17 - 4:18Pracujemy nad tym.
-
4:18 - 4:22Czy potrafimy zbudować systemy
respektujące etyczne i moralne wartości? -
4:22 - 4:25Musimy się tego nauczyć.
-
4:25 - 4:27Przyjmijmy na razie,
-
4:27 - 4:30że można zbudować
taką sztuczną inteligencję -
4:30 - 4:32dla tej i innych misji.
-
4:32 - 4:34Kolejna kwestia to,
-
4:34 - 4:36czy powinniśmy się jej bać.
-
4:36 - 4:38Każda nowa technologia
-
4:38 - 4:41budzi pewne obawy.
-
4:41 - 4:42Pierwsze samochody
-
4:43 - 4:47miały być zagrożeniem dla rodziny.
-
4:47 - 4:49Pierwsze telefony
-
4:49 - 4:52miały stanowić kres uprzejmej rozmowy.
-
4:52 - 4:56Przez popularność słowa pisanego
-
4:56 - 4:59mieliśmy utracić zdolność zapamiętywania.
-
4:59 - 5:01To wszystko w pewnym stopniu prawda,
-
5:01 - 5:03ale prawdą jest też, że te technologie
-
5:03 - 5:07rozszerzyły ludzkie doznania
-
5:07 - 5:08w znaczny sposób.
-
5:10 - 5:12Pójdźmy dalej.
-
5:13 - 5:18Nie obawiam się
takiej sztucznej inteligencji, -
5:18 - 5:22bo w końcu uosobi ona
niektóre nasze wartości. -
5:22 - 5:25Budowa systemu poznawczego
to inna para kaloszy -
5:25 - 5:29niż tworzenie zwykłych systemów
silnie opartych na oprogramowaniu. -
5:29 - 5:31Nie programujemy ich, tylko uczymy.
-
5:31 - 5:34Żeby nauczyć system rozpoznawać kwiaty,
-
5:34 - 5:37pokazuję mu tysiące kwiatów, które lubię.
-
5:37 - 5:39Żeby nauczyć go grać w grę...
-
5:39 - 5:41Nauczyłbym go. Wy zresztą też.
-
5:43 - 5:45Lubię kwiaty.
-
5:45 - 5:48Żeby nauczyć system
grać w grę taką jak Go, -
5:48 - 5:50musi rozegrać tysiące partii,
-
5:50 - 5:52a ja przy okazji uczę go,
-
5:52 - 5:54jak odróżniać dobrą grę od złej.
-
5:55 - 5:58Chcąc stworzyć sztucznego
asystenta prawnego, -
5:58 - 6:00uczę go prawa,
-
6:00 - 6:03ale zarazem zaszczepiam w nim
-
6:03 - 6:06poczucie łaski i sprawiedliwości,
które są częścią prawa. -
6:07 - 6:10Naukowo nazywamy to wiedzą bazową,
-
6:10 - 6:12i tu ważna kwestia.
-
6:12 - 6:13Produkując te maszyny,
-
6:13 - 6:16uczymy ich poczucia naszych wartości.
-
6:17 - 6:21Ufam sztucznej inteligencji
tak samo, jeśli nie bardziej, -
6:21 - 6:24jak dobrze przeszkolonemu człowiekowi.
-
6:24 - 6:25Ale możecie zapytać,
-
6:25 - 6:28co w przypadku wrogich agentów,
-
6:28 - 6:31bogatej organizacji pozarządowej?
-
6:31 - 6:35Nie boję się sztucznej inteligencji
w rękach samotnego wilka. -
6:35 - 6:40Oczywiście nie można ochronić się
przed wszystkimi aktami przemocy, -
6:40 - 6:42ale taki system
-
6:42 - 6:45wymaga solidnego i misternego treningu
-
6:45 - 6:47wykraczającego poza możliwości jednostki.
-
6:47 - 6:49Poza tym
-
6:49 - 6:52to trudniejsze niż wpuszczenie
wirusa do Internetu, -
6:52 - 6:55gdzie wystarczy wcisnąć guzik
i nagle w różnych częściach świata -
6:55 - 6:57wybuchają laptopy.
-
6:57 - 7:00Te substancje są większe
-
7:00 - 7:02i na pewno nie umkną uwadze.
-
7:03 - 7:06Czy obawiam się,
że taka sztuczna inteligencja -
7:06 - 7:08może zagrozić całej ludzkości?
-
7:08 - 7:13Filmy jak "Matrix", "Metropolis",
-
7:13 - 7:16"Terminator", seriale jak "Westworld",
-
7:16 - 7:18wszystkie traktują o tym strachu.
-
7:18 - 7:22W książce "Superinteligencja"
filozof Nick Bostrom -
7:22 - 7:24podejmuje ten temat
-
7:24 - 7:28i zauważa, że superinteligencja
nie tylko może być niebezpieczna, -
7:28 - 7:32ale może stanowić egzystencjalne
zagrożenie dla całej ludzkości. -
7:32 - 7:36Dr Bostrom twierdzi, że takie systemy
-
7:36 - 7:40będą miały tak bardzo
niezaspokojony głód informacji, -
7:40 - 7:43że nauczą się, jak się uczyć,
-
7:43 - 7:46a w efekcie odkryją, że ich cele
-
7:46 - 7:48mogą być sprzeczne z potrzebami ludzi.
-
7:48 - 7:50Dr Bostrom ma szereg zwolenników.
-
7:50 - 7:54Popierają go ludzie
jak Elon Musk i Stephen Hawking. -
7:55 - 7:57Z całym szacunkiem
-
7:58 - 8:00dla tych wybitnych umysłów,
-
8:00 - 8:02uważam, że się mylą.
-
8:02 - 8:06Argumentacja dra Bostroma
składa się z wielu elementów, -
8:06 - 8:08nie mam czasu przybliżyć ich wszystkich,
-
8:08 - 8:11ale, w skrócie, rozważcie
następującą rzecz. -
8:11 - 8:14Superwiedza bardzo
różni się od superdziałania. -
8:14 - 8:16HAL zagrażał załodze Discovery,
-
8:16 - 8:21bo kontrolował cały statek.
-
8:21 - 8:23Musiałby posiadać superinteligencję.
-
8:23 - 8:26Musiałby panować nad całym światem.
-
8:26 - 8:29Coś jak Skynet z filmu "Terminator",
-
8:29 - 8:30w którym mieliśmy superinteligencję
-
8:30 - 8:32kontrolującą ludzką wolę
-
8:32 - 8:36i zarządzającą urządzeniami
w różnych zakątkach świata. -
8:36 - 8:37Praktycznie rzecz biorąc,
-
8:37 - 8:39nie ma na to szans.
-
8:39 - 8:42Nie budujemy AI kontrolującej pogodę,
-
8:42 - 8:44sterującej prądami,
-
8:44 - 8:47albo nami - kapryśnymi,
chaotycznymi ludźmi. -
8:47 - 8:51Nawet jakby taka sztuczna
inteligencja istniała, -
8:51 - 8:54musiałaby konkurować
z ludzkimi gospodarkami, -
8:54 - 8:57a więc rywalizować z nami o zasoby.
-
8:57 - 8:58Koniec końców,
-
8:58 - 9:00nie mówcie tego Siri,
-
9:00 - 9:02zawsze można je wyłączyć.
-
9:02 - 9:04(Śmiech)
-
9:05 - 9:08Uczestniczymy w niesamowitej wędrówce,
-
9:08 - 9:10koewoluując wspólnie z maszynami.
-
9:10 - 9:13Współcześni ludzie
-
9:13 - 9:15to nie ludzie, którymi będziemy kiedyś.
-
9:15 - 9:19Martwienie się rozwojem superinteligencji
-
9:19 - 9:22niebezpiecznie odwraca uwagę,
-
9:22 - 9:24bo sam rozwój komputerów
-
9:24 - 9:27powoduje szereg ludzkich
i społecznych problemów, -
9:27 - 9:29które trzeba rozwiązać.
-
9:29 - 9:32Jak zorganizować społeczeństwo,
-
9:32 - 9:35kiedy zanika popyt na siłę roboczą?
-
9:35 - 9:38Jak nieść kaganek oświaty przez świat
-
9:38 - 9:40i szanować różnice?
-
9:40 - 9:44Jak wydłużyć i poprawić życie
za sprawą kognitywnej opieki medycznej? -
9:44 - 9:47Jak użyć informatyki,
-
9:47 - 9:49żeby dosięgnąć gwiazd?
-
9:50 - 9:52To właśnie jest fascynujące.
-
9:52 - 9:55Możliwości, jakie daje komputer,
-
9:55 - 9:56żeby polepszyć ludzkie doznania,
-
9:56 - 9:58są w naszym zasięgu,
-
9:58 - 10:00tu i teraz,
-
10:00 - 10:01a to dopiero początek.
-
10:02 - 10:03Dziękuję bardzo.
-
10:04 - 10:08(Brawa)
- Title:
- Nie bójcie się superinteligentnej sztucznej inteligencji
- Speaker:
- Grady Booch
- Description:
-
Nowe technologie budzą nowe obawy, mówi naukowiec i filozof Grady Booch, ale nie musimy bać się wszechmocnej, bezdusznej sztucznej inteligencji. Booch rozwiewa nasze największe (wywołane przez science fiction) lęki związane z superinteligentnymi komputerami, wyjaśniając, jak nauczymy, a nie zaprogramujemy je, by podzielały nasze wartości. Zamiast zamartwiać się nad mało prawdopodobnymi zagrożeniami egzystencjalnymi, zachęca nas, by zastanowić się, jak sztuczna inteligencja polepszy ludzkie życie.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Sylwia Gliniewicz approved Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI | ||
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI |