< Return to Video

Nie bójcie się superinteligentnej sztucznej inteligencji

  • 0:01 - 0:05
    Jako dziecko byłem typowym nerdem.
  • 0:05 - 0:07
    Niektórzy z was pewnie też.
  • 0:08 - 0:09
    (Śmiech)
  • 0:09 - 0:12
    Pan, który zaśmiał się najgłośniej,
    pewnie nadal nim jest.
  • 0:12 - 0:14
    (Śmiech)
  • 0:14 - 0:18
    Dorastałem w małym miasteczku
    w zakurzonym północnym Teksasie.
  • 0:18 - 0:21
    Syn szeryfa, który był synem pastora.
  • 0:21 - 0:23
    Nie mogłem sprawiać kłopotów.
  • 0:24 - 0:27
    Dla zabawy zacząłem czytać
    podręczniki do matematyki.
  • 0:28 - 0:29
    (Śmiech)
  • 0:29 - 0:31
    Pan też.
  • 0:31 - 0:34
    Dzięki temu zbudowałem
    laser, komputer, modele rakiet
  • 0:34 - 0:37
    i stworzyłem paliwo rakietowe
    domowej roboty.
  • 0:38 - 0:42
    Mówiąc naukowo,
  • 0:42 - 0:45
    to był bardzo zły pomysł.
  • 0:45 - 0:46
    (Śmiech)
  • 0:46 - 0:48
    Mniej więcej w tym samym czasie
  • 0:48 - 0:52
    weszła do kin "2001: Odyseja Kosmiczna"
    Stanleya Kubricka,
  • 0:52 - 0:54
    która zmieniła moje życie.
  • 0:54 - 0:56
    Wszystko mi się w tym filmie podobało,
  • 0:56 - 0:59
    a szczególnie HAL 9000.
  • 0:59 - 1:01
    HAL to inteligentny komputer.
  • 1:01 - 1:03
    Zaprojektowany, żeby kierować
    statkiem Discovery
  • 1:03 - 1:06
    w misji z Ziemi na Jowisza.
  • 1:06 - 1:08
    Ale HAL nie był bez skazy,
  • 1:08 - 1:12
    bo postawił powodzenie misji
    ponad ludzkie życie.
  • 1:13 - 1:15
    HAL był postacią fikcyjną,
  • 1:15 - 1:18
    ale odzwierciedla nasze obawy,
  • 1:18 - 1:20
    strach przed zniewoleniem
  • 1:20 - 1:23
    przez bezduszną sztuczną inteligencję,
  • 1:23 - 1:25
    obojętną na nasze człowieczeństwo.
  • 1:26 - 1:28
    Uważam, że taki strach jest bezzasadny.
  • 1:28 - 1:31
    Żyjemy w niezwykłym okresie
  • 1:31 - 1:33
    w historii ludzkości,
  • 1:33 - 1:38
    w którym, chcąc przezwyciężyć
    ograniczenia ciała i umysłu,
  • 1:38 - 1:39
    budujemy maszyny
  • 1:39 - 1:43
    zachwycająco skomplikowane,
  • 1:43 - 1:45
    pozwalające rozszerzyć ludzkie doznania
  • 1:45 - 1:47
    w niewyobrażalny sposób.
  • 1:48 - 1:50
    Pracowałem w Akademii Lotniczej.
  • 1:50 - 1:52
    Teraz jestem w Dowództwie Kosmicznym.
  • 1:52 - 1:54
    Pracuję jako inżynier systemów.
  • 1:54 - 1:57
    Obecnie zajmuję się problemem
  • 1:57 - 1:59
    związanym z misją NASA na Marsa.
  • 1:59 - 2:02
    Podczas lotów na Księżyc
  • 2:02 - 2:05
    można polegać na kontroli w Houston,
  • 2:05 - 2:07
    skąd nadzoruje się wszystkie aspekty lotu.
  • 2:07 - 2:11
    Mars jest 200 razy dalej,
  • 2:11 - 2:14
    dlatego potrzeba 13 minut,
  • 2:14 - 2:17
    żeby sygnał z Ziemi dotarł do Marsa.
  • 2:17 - 2:20
    W razie problemów brakuje czasu.
  • 2:21 - 2:23
    Rozsądnym rozwiązaniem byłoby
  • 2:23 - 2:26
    umieszczenie centrum dowodzenia
  • 2:26 - 2:29
    wewnątrz statku Orion.
  • 2:29 - 2:32
    Inny fascynujący pomysł
  • 2:32 - 2:35
    to umieszczenie humanoidalnych
    robotów na powierzchni Marsa,
  • 2:35 - 2:37
    zanim dotrą tam ludzie,
  • 2:37 - 2:38
    żeby przygotowały zaplecze,
  • 2:38 - 2:42
    a później współtworzyły zespół naukowców.
  • 2:43 - 2:46
    Podchodząc do tego
    z perspektywy inżyniera,
  • 2:46 - 2:49
    oczywiste było, że muszę zaprojektować
  • 2:49 - 2:52
    sprytną, współpracującą,
  • 2:52 - 2:54
    przystosowaną społecznie
    sztuczną inteligencję.
  • 2:54 - 2:58
    Innymi słowy, potrzeba czegoś jak HAL,
  • 2:58 - 3:01
    ale bez morderczych skłonności.
  • 3:01 - 3:02
    (Śmiech)
  • 3:03 - 3:05
    Zatrzymajmy się na moment.
  • 3:05 - 3:09
    Czy rzeczywiście można zbudować
    taką sztuczną inteligencję?
  • 3:09 - 3:10
    W zasadzie tak.
  • 3:10 - 3:11
    Pod wieloma względami
  • 3:11 - 3:13
    to trudny problem konstruktorski
  • 3:13 - 3:15
    z elementami AI,
  • 3:15 - 3:20
    a nie problem AI dla konstruktorów.
  • 3:20 - 3:22
    Parafrazując Alana Turinga,
  • 3:22 - 3:25
    nie interesuje mnie budowa
    inteligentnej maszyny,
  • 3:25 - 3:26
    nie buduję HALa.
  • 3:26 - 3:29
    Potrzebuję prostego mózgu,
  • 3:29 - 3:32
    takiego, który daje iluzję inteligencji.
  • 3:33 - 3:36
    Informatyka przebyła długą drogę,
  • 3:36 - 3:38
    od kiedy HAL był na ekranach.
  • 3:38 - 3:41
    Gdyby dr Chandra,
    konstruktor HALa, był z nami,
  • 3:41 - 3:43
    pewnie miałby wiele pytań.
  • 3:43 - 3:45
    Czy rzeczywiście jest możliwe
  • 3:45 - 3:49
    użycie milionów urządzeń,
  • 3:49 - 3:51
    żeby odczytały strumienie danych,
  • 3:51 - 3:53
    przewidziały usterki i im zapobiegły?
  • 3:53 - 3:54
    Tak.
  • 3:54 - 3:58
    Czy można stworzyć systemy
    komunikujące się z ludźmi ich językiem?
  • 3:58 - 3:58
    Tak.
  • 3:58 - 4:02
    Czy można stworzyć systemy
    rozpoznające obiekty i emocje,
  • 4:02 - 4:05
    okazujące emocje, grające w gry,
    a nawet czytające z ruchu warg?
  • 4:05 - 4:06
    Tak.
  • 4:07 - 4:09
    A system określający cele,
  • 4:09 - 4:12
    wdrażający plany, żeby je osiągnąć,
    i jednocześnie uczący się?
  • 4:12 - 4:14
    Tak.
  • 4:14 - 4:17
    A systemy świadome umysłu?
  • 4:17 - 4:18
    Pracujemy nad tym.
  • 4:18 - 4:22
    Czy potrafimy zbudować systemy
    respektujące etyczne i moralne wartości?
  • 4:22 - 4:25
    Musimy się tego nauczyć.
  • 4:25 - 4:27
    Przyjmijmy na razie,
  • 4:27 - 4:30
    że można zbudować
    taką sztuczną inteligencję
  • 4:30 - 4:32
    dla tej i innych misji.
  • 4:32 - 4:34
    Kolejna kwestia to,
  • 4:34 - 4:36
    czy powinniśmy się jej bać.
  • 4:36 - 4:38
    Każda nowa technologia
  • 4:38 - 4:41
    budzi pewne obawy.
  • 4:41 - 4:42
    Pierwsze samochody
  • 4:43 - 4:47
    miały być zagrożeniem dla rodziny.
  • 4:47 - 4:49
    Pierwsze telefony
  • 4:49 - 4:52
    miały stanowić kres uprzejmej rozmowy.
  • 4:52 - 4:56
    Przez popularność słowa pisanego
  • 4:56 - 4:59
    mieliśmy utracić zdolność zapamiętywania.
  • 4:59 - 5:01
    To wszystko w pewnym stopniu prawda,
  • 5:01 - 5:03
    ale prawdą jest też, że te technologie
  • 5:03 - 5:07
    rozszerzyły ludzkie doznania
  • 5:07 - 5:08
    w znaczny sposób.
  • 5:10 - 5:12
    Pójdźmy dalej.
  • 5:13 - 5:18
    Nie obawiam się
    takiej sztucznej inteligencji,
  • 5:18 - 5:22
    bo w końcu uosobi ona
    niektóre nasze wartości.
  • 5:22 - 5:25
    Budowa systemu poznawczego
    to inna para kaloszy
  • 5:25 - 5:29
    niż tworzenie zwykłych systemów
    silnie opartych na oprogramowaniu.
  • 5:29 - 5:31
    Nie programujemy ich, tylko uczymy.
  • 5:31 - 5:34
    Żeby nauczyć system rozpoznawać kwiaty,
  • 5:34 - 5:37
    pokazuję mu tysiące kwiatów, które lubię.
  • 5:37 - 5:39
    Żeby nauczyć go grać w grę...
  • 5:39 - 5:41
    Nauczyłbym go. Wy zresztą też.
  • 5:43 - 5:45
    Lubię kwiaty.
  • 5:45 - 5:48
    Żeby nauczyć system
    grać w grę taką jak Go,
  • 5:48 - 5:50
    musi rozegrać tysiące partii,
  • 5:50 - 5:52
    a ja przy okazji uczę go,
  • 5:52 - 5:54
    jak odróżniać dobrą grę od złej.
  • 5:55 - 5:58
    Chcąc stworzyć sztucznego
    asystenta prawnego,
  • 5:58 - 6:00
    uczę go prawa,
  • 6:00 - 6:03
    ale zarazem zaszczepiam w nim
  • 6:03 - 6:06
    poczucie łaski i sprawiedliwości,
    które są częścią prawa.
  • 6:07 - 6:10
    Naukowo nazywamy to wiedzą bazową,
  • 6:10 - 6:12
    i tu ważna kwestia.
  • 6:12 - 6:13
    Produkując te maszyny,
  • 6:13 - 6:16
    uczymy ich poczucia naszych wartości.
  • 6:17 - 6:21
    Ufam sztucznej inteligencji
    tak samo, jeśli nie bardziej,
  • 6:21 - 6:24
    jak dobrze przeszkolonemu człowiekowi.
  • 6:24 - 6:25
    Ale możecie zapytać,
  • 6:25 - 6:28
    co w przypadku wrogich agentów,
  • 6:28 - 6:31
    bogatej organizacji pozarządowej?
  • 6:31 - 6:35
    Nie boję się sztucznej inteligencji
    w rękach samotnego wilka.
  • 6:35 - 6:40
    Oczywiście nie można ochronić się
    przed wszystkimi aktami przemocy,
  • 6:40 - 6:42
    ale taki system
  • 6:42 - 6:45
    wymaga solidnego i misternego treningu
  • 6:45 - 6:47
    wykraczającego poza możliwości jednostki.
  • 6:47 - 6:49
    Poza tym
  • 6:49 - 6:52
    to trudniejsze niż wpuszczenie
    wirusa do Internetu,
  • 6:52 - 6:55
    gdzie wystarczy wcisnąć guzik
    i nagle w różnych częściach świata
  • 6:55 - 6:57
    wybuchają laptopy.
  • 6:57 - 7:00
    Te substancje są większe
  • 7:00 - 7:02
    i na pewno nie umkną uwadze.
  • 7:03 - 7:06
    Czy obawiam się,
    że taka sztuczna inteligencja
  • 7:06 - 7:08
    może zagrozić całej ludzkości?
  • 7:08 - 7:13
    Filmy jak "Matrix", "Metropolis",
  • 7:13 - 7:16
    "Terminator", seriale jak "Westworld",
  • 7:16 - 7:18
    wszystkie traktują o tym strachu.
  • 7:18 - 7:22
    W książce "Superinteligencja"
    filozof Nick Bostrom
  • 7:22 - 7:24
    podejmuje ten temat
  • 7:24 - 7:28
    i zauważa, że superinteligencja
    nie tylko może być niebezpieczna,
  • 7:28 - 7:32
    ale może stanowić egzystencjalne
    zagrożenie dla całej ludzkości.
  • 7:32 - 7:36
    Dr Bostrom twierdzi, że takie systemy
  • 7:36 - 7:40
    będą miały tak bardzo
    niezaspokojony głód informacji,
  • 7:40 - 7:43
    że nauczą się, jak się uczyć,
  • 7:43 - 7:46
    a w efekcie odkryją, że ich cele
  • 7:46 - 7:48
    mogą być sprzeczne z potrzebami ludzi.
  • 7:48 - 7:50
    Dr Bostrom ma szereg zwolenników.
  • 7:50 - 7:54
    Popierają go ludzie
    jak Elon Musk i Stephen Hawking.
  • 7:55 - 7:57
    Z całym szacunkiem
  • 7:58 - 8:00
    dla tych wybitnych umysłów,
  • 8:00 - 8:02
    uważam, że się mylą.
  • 8:02 - 8:06
    Argumentacja dra Bostroma
    składa się z wielu elementów,
  • 8:06 - 8:08
    nie mam czasu przybliżyć ich wszystkich,
  • 8:08 - 8:11
    ale, w skrócie, rozważcie
    następującą rzecz.
  • 8:11 - 8:14
    Superwiedza bardzo
    różni się od superdziałania.
  • 8:14 - 8:16
    HAL zagrażał załodze Discovery,
  • 8:16 - 8:21
    bo kontrolował cały statek.
  • 8:21 - 8:23
    Musiałby posiadać superinteligencję.
  • 8:23 - 8:26
    Musiałby panować nad całym światem.
  • 8:26 - 8:29
    Coś jak Skynet z filmu "Terminator",
  • 8:29 - 8:30
    w którym mieliśmy superinteligencję
  • 8:30 - 8:32
    kontrolującą ludzką wolę
  • 8:32 - 8:36
    i zarządzającą urządzeniami
    w różnych zakątkach świata.
  • 8:36 - 8:37
    Praktycznie rzecz biorąc,
  • 8:37 - 8:39
    nie ma na to szans.
  • 8:39 - 8:42
    Nie budujemy AI kontrolującej pogodę,
  • 8:42 - 8:44
    sterującej prądami,
  • 8:44 - 8:47
    albo nami - kapryśnymi,
    chaotycznymi ludźmi.
  • 8:47 - 8:51
    Nawet jakby taka sztuczna
    inteligencja istniała,
  • 8:51 - 8:54
    musiałaby konkurować
    z ludzkimi gospodarkami,
  • 8:54 - 8:57
    a więc rywalizować z nami o zasoby.
  • 8:57 - 8:58
    Koniec końców,
  • 8:58 - 9:00
    nie mówcie tego Siri,
  • 9:00 - 9:02
    zawsze można je wyłączyć.
  • 9:02 - 9:04
    (Śmiech)
  • 9:05 - 9:08
    Uczestniczymy w niesamowitej wędrówce,
  • 9:08 - 9:10
    koewoluując wspólnie z maszynami.
  • 9:10 - 9:13
    Współcześni ludzie
  • 9:13 - 9:15
    to nie ludzie, którymi będziemy kiedyś.
  • 9:15 - 9:19
    Martwienie się rozwojem superinteligencji
  • 9:19 - 9:22
    niebezpiecznie odwraca uwagę,
  • 9:22 - 9:24
    bo sam rozwój komputerów
  • 9:24 - 9:27
    powoduje szereg ludzkich
    i społecznych problemów,
  • 9:27 - 9:29
    które trzeba rozwiązać.
  • 9:29 - 9:32
    Jak zorganizować społeczeństwo,
  • 9:32 - 9:35
    kiedy zanika popyt na siłę roboczą?
  • 9:35 - 9:38
    Jak nieść kaganek oświaty przez świat
  • 9:38 - 9:40
    i szanować różnice?
  • 9:40 - 9:44
    Jak wydłużyć i poprawić życie
    za sprawą kognitywnej opieki medycznej?
  • 9:44 - 9:47
    Jak użyć informatyki,
  • 9:47 - 9:49
    żeby dosięgnąć gwiazd?
  • 9:50 - 9:52
    To właśnie jest fascynujące.
  • 9:52 - 9:55
    Możliwości, jakie daje komputer,
  • 9:55 - 9:56
    żeby polepszyć ludzkie doznania,
  • 9:56 - 9:58
    są w naszym zasięgu,
  • 9:58 - 10:00
    tu i teraz,
  • 10:00 - 10:01
    a to dopiero początek.
  • 10:02 - 10:03
    Dziękuję bardzo.
  • 10:04 - 10:08
    (Brawa)
Title:
Nie bójcie się superinteligentnej sztucznej inteligencji
Speaker:
Grady Booch
Description:

Nowe technologie budzą nowe obawy, mówi naukowiec i filozof Grady Booch, ale nie musimy bać się wszechmocnej, bezdusznej sztucznej inteligencji. Booch rozwiewa nasze największe (wywołane przez science fiction) lęki związane z superinteligentnymi komputerami, wyjaśniając, jak nauczymy, a nie zaprogramujemy je, by podzielały nasze wartości. Zamiast zamartwiać się nad mało prawdopodobnymi zagrożeniami egzystencjalnymi, zachęca nas, by zastanowić się, jak sztuczna inteligencja polepszy ludzkie życie.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Sylwia Gliniewicz approved Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Sylwia Gliniewicz edited Polish subtitles for Don't fear superintelligent AI
Show all

Polish subtitles

Revisions