1 00:00:00,760 --> 00:00:04,600 Jako dziecko byłem typowym nerdem. 2 00:00:05,320 --> 00:00:07,496 Niektórzy z was pewnie też. 3 00:00:07,520 --> 00:00:08,736 (Śmiech) 4 00:00:08,760 --> 00:00:11,976 Pan, który zaśmiał się najgłośniej, pewnie nadal nim jest. 5 00:00:12,000 --> 00:00:14,256 (Śmiech) 6 00:00:14,280 --> 00:00:17,776 Dorastałem w małym miasteczku w zakurzonym północnym Teksasie. 7 00:00:17,800 --> 00:00:21,136 Syn szeryfa, który był synem pastora. 8 00:00:21,160 --> 00:00:23,080 Nie mogłem sprawiać kłopotów. 9 00:00:24,040 --> 00:00:27,486 Dla zabawy zacząłem czytać podręczniki do matematyki. 10 00:00:27,500 --> 00:00:28,856 (Śmiech) 11 00:00:28,880 --> 00:00:30,576 Pan też. 12 00:00:30,600 --> 00:00:34,336 Dzięki temu zbudowałem laser, komputer, modele rakiet 13 00:00:34,360 --> 00:00:37,360 i stworzyłem paliwo rakietowe domowej roboty. 14 00:00:37,960 --> 00:00:41,616 Mówiąc naukowo, 15 00:00:41,640 --> 00:00:44,896 to był bardzo zły pomysł. 16 00:00:44,920 --> 00:00:46,136 (Śmiech) 17 00:00:46,160 --> 00:00:48,336 Mniej więcej w tym samym czasie 18 00:00:48,360 --> 00:00:51,576 weszła do kin "2001: Odyseja Kosmiczna" Stanleya Kubricka, 19 00:00:51,600 --> 00:00:53,800 która zmieniła moje życie. 20 00:00:54,280 --> 00:00:56,336 Wszystko mi się w tym filmie podobało, 21 00:00:56,360 --> 00:00:58,896 a szczególnie HAL 9000. 22 00:00:58,920 --> 00:01:00,976 HAL to inteligentny komputer. 23 00:01:01,000 --> 00:01:03,456 Zaprojektowany, żeby kierować statkiem Discovery 24 00:01:03,480 --> 00:01:06,016 w misji z Ziemi na Jowisza. 25 00:01:06,040 --> 00:01:08,096 Ale HAL nie był bez skazy, 26 00:01:08,120 --> 00:01:12,400 bo postawił powodzenie misji ponad ludzkie życie. 27 00:01:12,840 --> 00:01:14,936 HAL był postacią fikcyjną, 28 00:01:14,960 --> 00:01:17,616 ale odzwierciedla nasze obawy, 29 00:01:17,640 --> 00:01:19,736 strach przed zniewoleniem 30 00:01:19,760 --> 00:01:22,776 przez bezduszną sztuczną inteligencję, 31 00:01:22,800 --> 00:01:24,760 obojętną na nasze człowieczeństwo. 32 00:01:25,880 --> 00:01:28,456 Uważam, że taki strach jest bezzasadny. 33 00:01:28,480 --> 00:01:31,176 Żyjemy w niezwykłym okresie 34 00:01:31,200 --> 00:01:32,736 w historii ludzkości, 35 00:01:32,760 --> 00:01:37,736 w którym, chcąc przezwyciężyć ograniczenia ciała i umysłu, 36 00:01:37,760 --> 00:01:39,456 budujemy maszyny 37 00:01:39,480 --> 00:01:43,096 zachwycająco skomplikowane, 38 00:01:43,120 --> 00:01:45,176 pozwalające rozszerzyć ludzkie doznania 39 00:01:45,200 --> 00:01:46,880 w niewyobrażalny sposób. 40 00:01:47,720 --> 00:01:50,296 Pracowałem w Akademii Lotniczej. 41 00:01:50,320 --> 00:01:52,256 Teraz jestem w Dowództwie Kosmicznym. 42 00:01:52,280 --> 00:01:53,976 Pracuję jako inżynier systemów. 43 00:01:54,000 --> 00:01:56,736 Obecnie zajmuję się problemem 44 00:01:56,760 --> 00:01:59,336 związanym z misją NASA na Marsa. 45 00:01:59,360 --> 00:02:01,856 Podczas lotów na Księżyc 46 00:02:01,880 --> 00:02:05,016 można polegać na kontroli w Houston, 47 00:02:05,040 --> 00:02:07,056 skąd nadzoruje się wszystkie aspekty lotu. 48 00:02:07,076 --> 00:02:10,576 Mars jest 200 razy dalej, 49 00:02:10,600 --> 00:02:13,816 dlatego potrzeba 13 minut, 50 00:02:13,840 --> 00:02:16,976 żeby sygnał z Ziemi dotarł do Marsa. 51 00:02:17,000 --> 00:02:20,400 W razie problemów brakuje czasu. 52 00:02:20,840 --> 00:02:23,336 Rozsądnym rozwiązaniem byłoby 53 00:02:23,360 --> 00:02:25,936 umieszczenie centrum dowodzenia 54 00:02:25,960 --> 00:02:28,976 wewnątrz statku Orion. 55 00:02:29,000 --> 00:02:31,896 Inny fascynujący pomysł 56 00:02:31,920 --> 00:02:34,816 to umieszczenie humanoidalnych robotów na powierzchni Marsa, 57 00:02:34,840 --> 00:02:36,696 zanim dotrą tam ludzie, 58 00:02:36,720 --> 00:02:38,376 żeby przygotowały zaplecze, 59 00:02:38,400 --> 00:02:41,760 a później współtworzyły zespół naukowców. 60 00:02:43,400 --> 00:02:46,136 Podchodząc do tego z perspektywy inżyniera, 61 00:02:46,160 --> 00:02:49,336 oczywiste było, że muszę zaprojektować 62 00:02:49,360 --> 00:02:51,536 sprytną, współpracującą, 63 00:02:51,560 --> 00:02:53,936 przystosowaną społecznie sztuczną inteligencję. 64 00:02:53,960 --> 00:02:58,256 Innymi słowy, potrzeba czegoś jak HAL, 65 00:02:58,280 --> 00:03:00,696 ale bez morderczych skłonności. 66 00:03:00,720 --> 00:03:02,080 (Śmiech) 67 00:03:02,920 --> 00:03:04,736 Zatrzymajmy się na moment. 68 00:03:04,760 --> 00:03:08,656 Czy rzeczywiście można zbudować taką sztuczną inteligencję? 69 00:03:08,680 --> 00:03:10,136 W zasadzie tak. 70 00:03:10,160 --> 00:03:11,416 Pod wieloma względami 71 00:03:11,440 --> 00:03:13,416 to trudny problem konstruktorski 72 00:03:13,440 --> 00:03:14,896 z elementami AI, 73 00:03:14,920 --> 00:03:19,616 a nie problem AI dla konstruktorów. 74 00:03:19,640 --> 00:03:22,296 Parafrazując Alana Turinga, 75 00:03:22,320 --> 00:03:24,696 nie interesuje mnie budowa inteligentnej maszyny, 76 00:03:24,720 --> 00:03:26,296 nie buduję HALa. 77 00:03:26,320 --> 00:03:28,736 Potrzebuję prostego mózgu, 78 00:03:28,760 --> 00:03:31,880 takiego, który daje iluzję inteligencji. 79 00:03:33,000 --> 00:03:36,136 Informatyka przebyła długą drogę, 80 00:03:36,160 --> 00:03:37,656 od kiedy HAL był na ekranach. 81 00:03:37,680 --> 00:03:40,896 Gdyby dr Chandra, konstruktor HALa, był z nami, 82 00:03:40,920 --> 00:03:43,256 pewnie miałby wiele pytań. 83 00:03:43,280 --> 00:03:45,376 Czy rzeczywiście jest możliwe 84 00:03:45,400 --> 00:03:49,236 użycie milionów urządzeń, 85 00:03:49,250 --> 00:03:50,896 żeby odczytały strumienie danych, 86 00:03:50,920 --> 00:03:53,176 przewidziały usterki i im zapobiegły? 87 00:03:53,200 --> 00:03:54,416 Tak. 88 00:03:54,440 --> 00:03:57,616 Czy można stworzyć systemy komunikujące się z ludźmi ich językiem? 89 00:03:57,640 --> 00:03:58,366 Tak. 90 00:03:58,390 --> 00:04:01,856 Czy można stworzyć systemy rozpoznające obiekty i emocje, 91 00:04:01,880 --> 00:04:05,256 okazujące emocje, grające w gry, a nawet czytające z ruchu warg? 92 00:04:05,280 --> 00:04:06,496 Tak. 93 00:04:06,520 --> 00:04:08,656 A system określający cele, 94 00:04:08,680 --> 00:04:12,296 wdrażający plany, żeby je osiągnąć, i jednocześnie uczący się? 95 00:04:12,320 --> 00:04:13,536 Tak. 96 00:04:13,560 --> 00:04:16,896 A systemy świadome umysłu? 97 00:04:16,920 --> 00:04:18,416 Pracujemy nad tym. 98 00:04:18,440 --> 00:04:21,920 Czy potrafimy zbudować systemy respektujące etyczne i moralne wartości? 99 00:04:22,480 --> 00:04:24,520 Musimy się tego nauczyć. 100 00:04:25,360 --> 00:04:26,736 Przyjmijmy na razie, 101 00:04:26,760 --> 00:04:29,656 że można zbudować taką sztuczną inteligencję 102 00:04:29,680 --> 00:04:31,816 dla tej i innych misji. 103 00:04:31,840 --> 00:04:34,376 Kolejna kwestia to, 104 00:04:34,400 --> 00:04:35,856 czy powinniśmy się jej bać. 105 00:04:35,880 --> 00:04:37,856 Każda nowa technologia 106 00:04:37,880 --> 00:04:40,776 budzi pewne obawy. 107 00:04:40,800 --> 00:04:42,496 Pierwsze samochody 108 00:04:42,520 --> 00:04:46,536 miały być zagrożeniem dla rodziny. 109 00:04:46,560 --> 00:04:49,256 Pierwsze telefony 110 00:04:49,280 --> 00:04:52,176 miały stanowić kres uprzejmej rozmowy. 111 00:04:52,200 --> 00:04:56,136 Przez popularność słowa pisanego 112 00:04:56,160 --> 00:04:58,656 mieliśmy utracić zdolność zapamiętywania. 113 00:04:58,680 --> 00:05:00,736 To wszystko w pewnym stopniu prawda, 114 00:05:00,760 --> 00:05:03,176 ale prawdą jest też, że te technologie 115 00:05:03,200 --> 00:05:06,576 rozszerzyły ludzkie doznania 116 00:05:06,600 --> 00:05:08,480 w znaczny sposób. 117 00:05:09,840 --> 00:05:12,120 Pójdźmy dalej. 118 00:05:13,120 --> 00:05:17,856 Nie obawiam się takiej sztucznej inteligencji, 119 00:05:17,880 --> 00:05:21,696 bo w końcu uosobi ona niektóre nasze wartości. 120 00:05:21,720 --> 00:05:25,216 Budowa systemu poznawczego to inna para kaloszy 121 00:05:25,240 --> 00:05:28,536 niż tworzenie zwykłych systemów silnie opartych na oprogramowaniu. 122 00:05:28,560 --> 00:05:31,016 Nie programujemy ich, tylko uczymy. 123 00:05:31,040 --> 00:05:33,696 Żeby nauczyć system rozpoznawać kwiaty, 124 00:05:33,720 --> 00:05:36,736 pokazuję mu tysiące kwiatów, które lubię. 125 00:05:36,760 --> 00:05:39,016 Żeby nauczyć go grać w grę... 126 00:05:39,040 --> 00:05:41,000 Nauczyłbym go. Wy zresztą też. 127 00:05:42,600 --> 00:05:44,640 Lubię kwiaty. 128 00:05:45,440 --> 00:05:48,296 Żeby nauczyć system grać w grę taką jak Go, 129 00:05:48,320 --> 00:05:50,376 musi rozegrać tysiące partii, 130 00:05:50,400 --> 00:05:52,056 a ja przy okazji uczę go, 131 00:05:52,080 --> 00:05:54,496 jak odróżniać dobrą grę od złej. 132 00:05:54,520 --> 00:05:58,216 Chcąc stworzyć sztucznego asystenta prawnego, 133 00:05:58,240 --> 00:06:00,016 uczę go prawa, 134 00:06:00,040 --> 00:06:02,896 ale zarazem zaszczepiam w nim 135 00:06:02,920 --> 00:06:05,800 poczucie łaski i sprawiedliwości, które są częścią prawa. 136 00:06:06,560 --> 00:06:09,536 Naukowo nazywamy to wiedzą bazową, 137 00:06:09,560 --> 00:06:11,576 i tu ważna kwestia. 138 00:06:11,600 --> 00:06:13,056 Produkując te maszyny, 139 00:06:13,080 --> 00:06:16,496 uczymy ich poczucia naszych wartości. 140 00:06:16,520 --> 00:06:21,116 Ufam sztucznej inteligencji tak samo, jeśli nie bardziej, 141 00:06:21,146 --> 00:06:24,060 jak dobrze przeszkolonemu człowiekowi. 142 00:06:24,080 --> 00:06:25,296 Ale możecie zapytać, 143 00:06:25,320 --> 00:06:27,936 co w przypadku wrogich agentów, 144 00:06:27,960 --> 00:06:31,296 bogatej organizacji pozarządowej? 145 00:06:31,320 --> 00:06:35,136 Nie boję się sztucznej inteligencji w rękach samotnego wilka. 146 00:06:35,160 --> 00:06:39,696 Oczywiście nie można ochronić się przed wszystkimi aktami przemocy, 147 00:06:39,720 --> 00:06:41,856 ale taki system 148 00:06:41,880 --> 00:06:44,976 wymaga solidnego i misternego treningu 149 00:06:45,000 --> 00:06:47,296 wykraczającego poza możliwości jednostki. 150 00:06:47,320 --> 00:06:48,536 Poza tym 151 00:06:48,560 --> 00:06:51,816 to trudniejsze niż wpuszczenie wirusa do Internetu, 152 00:06:51,840 --> 00:06:54,936 gdzie wystarczy wcisnąć guzik i nagle w różnych częściach świata 153 00:06:54,960 --> 00:06:57,416 wybuchają laptopy. 154 00:06:57,440 --> 00:07:00,256 Te substancje są większe 155 00:07:00,280 --> 00:07:01,995 i na pewno nie umkną uwadze. 156 00:07:02,520 --> 00:07:05,576 Czy obawiam się, że taka sztuczna inteligencja 157 00:07:05,600 --> 00:07:07,560 może zagrozić całej ludzkości? 158 00:07:08,280 --> 00:07:12,656 Filmy jak "Matrix", "Metropolis", 159 00:07:12,680 --> 00:07:15,856 "Terminator", seriale jak "Westworld", 160 00:07:15,880 --> 00:07:18,016 wszystkie traktują o tym strachu. 161 00:07:18,040 --> 00:07:22,336 W książce "Superinteligencja" filozof Nick Bostrom 162 00:07:22,360 --> 00:07:23,896 podejmuje ten temat 163 00:07:23,920 --> 00:07:27,936 i zauważa, że superinteligencja nie tylko może być niebezpieczna, 164 00:07:27,960 --> 00:07:31,816 ale może stanowić egzystencjalne zagrożenie dla całej ludzkości. 165 00:07:31,840 --> 00:07:35,706 Dr Bostrom twierdzi, że takie systemy 166 00:07:35,730 --> 00:07:40,096 będą miały tak bardzo niezaspokojony głód informacji, 167 00:07:40,120 --> 00:07:43,016 że nauczą się, jak się uczyć, 168 00:07:43,040 --> 00:07:45,656 a w efekcie odkryją, że ich cele 169 00:07:45,680 --> 00:07:47,976 mogą być sprzeczne z potrzebami ludzi. 170 00:07:48,000 --> 00:07:49,856 Dr Bostrom ma szereg zwolenników. 171 00:07:49,880 --> 00:07:54,200 Popierają go ludzie jak Elon Musk i Stephen Hawking. 172 00:07:54,880 --> 00:07:57,280 Z całym szacunkiem 173 00:07:58,160 --> 00:08:00,176 dla tych wybitnych umysłów, 174 00:08:00,200 --> 00:08:02,456 uważam, że się mylą. 175 00:08:02,480 --> 00:08:05,656 Argumentacja dra Bostroma składa się z wielu elementów, 176 00:08:05,680 --> 00:08:07,816 nie mam czasu przybliżyć ich wszystkich, 177 00:08:07,840 --> 00:08:10,536 ale, w skrócie, rozważcie następującą rzecz. 178 00:08:10,560 --> 00:08:14,296 Superwiedza bardzo różni się od superdziałania. 179 00:08:14,320 --> 00:08:16,216 HAL zagrażał załodze Discovery, 180 00:08:16,240 --> 00:08:20,656 bo kontrolował cały statek. 181 00:08:20,680 --> 00:08:23,176 Musiałby posiadać superinteligencję. 182 00:08:23,200 --> 00:08:25,696 Musiałby panować nad całym światem. 183 00:08:25,720 --> 00:08:28,536 Coś jak Skynet z filmu "Terminator", 184 00:08:28,560 --> 00:08:30,416 w którym mieliśmy superinteligencję 185 00:08:30,440 --> 00:08:31,816 kontrolującą ludzką wolę 186 00:08:31,840 --> 00:08:35,696 i zarządzającą urządzeniami w różnych zakątkach świata. 187 00:08:35,720 --> 00:08:37,176 Praktycznie rzecz biorąc, 188 00:08:37,200 --> 00:08:39,296 nie ma na to szans. 189 00:08:39,320 --> 00:08:42,376 Nie budujemy AI kontrolującej pogodę, 190 00:08:42,400 --> 00:08:43,736 sterującej prądami, 191 00:08:43,760 --> 00:08:47,136 albo nami - kapryśnymi, chaotycznymi ludźmi. 192 00:08:47,160 --> 00:08:51,056 Nawet jakby taka sztuczna inteligencja istniała, 193 00:08:51,080 --> 00:08:54,016 musiałaby konkurować z ludzkimi gospodarkami, 194 00:08:54,040 --> 00:08:56,560 a więc rywalizować z nami o zasoby. 195 00:08:57,200 --> 00:08:58,416 Koniec końców, 196 00:08:58,440 --> 00:08:59,680 nie mówcie tego Siri, 197 00:09:00,440 --> 00:09:01,816 zawsze można je wyłączyć. 198 00:09:01,840 --> 00:09:03,960 (Śmiech) 199 00:09:05,360 --> 00:09:07,816 Uczestniczymy w niesamowitej wędrówce, 200 00:09:07,840 --> 00:09:10,336 koewoluując wspólnie z maszynami. 201 00:09:10,360 --> 00:09:12,856 Współcześni ludzie 202 00:09:12,880 --> 00:09:15,416 to nie ludzie, którymi będziemy kiedyś. 203 00:09:15,440 --> 00:09:18,576 Martwienie się rozwojem superinteligencji 204 00:09:18,600 --> 00:09:21,656 niebezpiecznie odwraca uwagę, 205 00:09:21,680 --> 00:09:24,016 bo sam rozwój komputerów 206 00:09:24,040 --> 00:09:27,056 powoduje szereg ludzkich i społecznych problemów, 207 00:09:27,080 --> 00:09:28,720 które trzeba rozwiązać. 208 00:09:29,360 --> 00:09:32,176 Jak zorganizować społeczeństwo, 209 00:09:32,200 --> 00:09:34,536 kiedy zanika popyt na siłę roboczą? 210 00:09:34,560 --> 00:09:38,376 Jak nieść kaganek oświaty przez świat 211 00:09:38,400 --> 00:09:40,176 i szanować różnice? 212 00:09:40,200 --> 00:09:44,456 Jak wydłużyć i poprawić życie za sprawą kognitywnej opieki medycznej? 213 00:09:44,480 --> 00:09:47,336 Jak użyć informatyki, 214 00:09:47,360 --> 00:09:49,120 żeby dosięgnąć gwiazd? 215 00:09:49,760 --> 00:09:51,800 To właśnie jest fascynujące. 216 00:09:52,400 --> 00:09:54,736 Możliwości, jakie daje komputer, 217 00:09:54,760 --> 00:09:56,296 żeby polepszyć ludzkie doznania, 218 00:09:56,320 --> 00:09:57,736 są w naszym zasięgu, 219 00:09:57,760 --> 00:09:59,616 tu i teraz, 220 00:09:59,640 --> 00:10:01,320 a to dopiero początek. 221 00:10:02,280 --> 00:10:03,496 Dziękuję bardzo. 222 00:10:03,520 --> 00:10:07,806 (Brawa)