1 00:00:01,000 --> 00:00:03,216 Będę mówić o porażce intuicji, 2 00:00:03,240 --> 00:00:05,450 której tak wielu z nas doznaje. 3 00:00:05,480 --> 00:00:08,520 To niemożność dostrzegania pewnego rodzaju niebezpieczeństwa. 4 00:00:09,360 --> 00:00:11,096 Przedstawię scenariusz, 5 00:00:11,120 --> 00:00:14,376 który moim zdaniem jest zarówno przerażający, 6 00:00:14,400 --> 00:00:16,470 jak i prawdopodobny, 7 00:00:16,840 --> 00:00:18,496 a to kiepskie połączenie, 8 00:00:18,520 --> 00:00:20,056 jak się okazuje. 9 00:00:20,080 --> 00:00:22,536 A jednak, zamiast strachu, większość z was poczuje, 10 00:00:22,560 --> 00:00:24,870 że to, o czym mowa, jest nawet fajne. 11 00:00:25,200 --> 00:00:27,909 Będę mówić, jak postępy 12 00:00:27,910 --> 00:00:29,629 w tworzeniu sztucznej inteligencji 13 00:00:29,630 --> 00:00:31,915 mogą nas zniszczyć. 14 00:00:31,916 --> 00:00:34,839 Tak naprawdę trudno, żeby nas nie zniszczyły 15 00:00:34,840 --> 00:00:37,360 lub nie zainspirowały do samozniszczenia. 16 00:00:37,400 --> 00:00:39,256 Jeśli, podobnie jak ja, 17 00:00:39,280 --> 00:00:41,936 uważacie, że fajnie jest myśleć o tych sprawach, 18 00:00:41,960 --> 00:00:45,336 jesteście częścią problemu. 19 00:00:45,360 --> 00:00:47,850 To powinno was martwić. 20 00:00:47,920 --> 00:00:50,576 Gdybym starał się was przekonać, 21 00:00:50,600 --> 00:00:54,016 że czeka nas globalny głód, 22 00:00:54,040 --> 00:00:57,096 wynikający ze zmian klimatycznych lub innej katastrofy, 23 00:00:57,120 --> 00:01:00,536 i że wasze prawnuki, bądź ich prawnuki 24 00:01:00,560 --> 00:01:03,050 mogą tak żyć, 25 00:01:03,200 --> 00:01:05,160 zapewne nie pomyślelibyście: 26 00:01:05,440 --> 00:01:06,776 "Interesujące. 27 00:01:06,800 --> 00:01:09,060 Podoba mi się ta prelekcja". 28 00:01:09,200 --> 00:01:10,820 Głód nie jest zabawny. 29 00:01:11,800 --> 00:01:15,176 Natomiast śmierć spowodowana science fiction - owszem. 30 00:01:15,200 --> 00:01:18,919 W pracach nad SI najbardziej martwi mnie to, 31 00:01:18,920 --> 00:01:22,799 że nasza emocjonalna reakcja jest nieadekwatna 32 00:01:22,799 --> 00:01:25,275 do niebezpieczeństwa, przed jakim stoimy. 33 00:01:25,276 --> 00:01:29,280 Sam nie potrafię zdobyć się na taką reakcję, a o niej mówię. 34 00:01:30,120 --> 00:01:32,816 To tak, jakbyśmy mieli do wyboru dwoje drzwi. 35 00:01:32,840 --> 00:01:34,305 Za drzwiami numer jeden 36 00:01:34,306 --> 00:01:37,416 przestajemy pracować nad budową inteligentnych maszyn. 37 00:01:37,440 --> 00:01:41,456 Ulepszanie sprzętu komputerowego i oprogramowania ustaje. 38 00:01:41,480 --> 00:01:44,480 Zastanówmy się, co mogłoby być przyczyną. 39 00:01:45,080 --> 00:01:48,736 Biorąc pod uwagę, jak cenne są inteligencja i automatyka, 40 00:01:48,760 --> 00:01:52,280 będziemy nadal jak się da ulepszać technologię. 41 00:01:53,200 --> 00:01:55,257 Co mogłoby nas powstrzymać? 42 00:01:55,800 --> 00:01:58,320 Wojna atomowa na pełną skalę? 43 00:01:59,000 --> 00:02:00,990 Globalna pandemia? 44 00:02:02,320 --> 00:02:04,170 Uderzenie asteroidy? 45 00:02:05,640 --> 00:02:08,069 Justin Bieber jako prezydent USA? 46 00:02:08,069 --> 00:02:10,860 (Śmiech) 47 00:02:12,760 --> 00:02:16,680 Coś musiałoby zniszczyć znaną cywilizację. 48 00:02:17,360 --> 00:02:21,656 Tylko wyjątkowo zła sytuacja 49 00:02:21,680 --> 00:02:24,899 uniemożliwiłaby nam dokonywania ulepszeń technologicznych 50 00:02:24,900 --> 00:02:26,256 na stałe, 51 00:02:26,280 --> 00:02:28,296 pokolenie za pokoleniem. 52 00:02:28,320 --> 00:02:30,289 To chyba najgorsza rzecz, 53 00:02:30,290 --> 00:02:32,575 jaka mogłaby przydarzyć się ludzkości. 54 00:02:32,576 --> 00:02:34,310 Jedyną alternatywą jest to, 55 00:02:34,310 --> 00:02:36,176 co kryje się za drzwiami numer dwa: 56 00:02:36,200 --> 00:02:39,336 dalsze udoskonalanie inteligentnych maszyn, 57 00:02:39,360 --> 00:02:40,960 rok po roku. 58 00:02:41,720 --> 00:02:45,360 W pewnym momencie stworzymy maszyny mądrzejsze od nas, 59 00:02:46,080 --> 00:02:48,696 a takie maszyny 60 00:02:48,720 --> 00:02:50,696 zaczną ulepszać siebie same. 61 00:02:50,720 --> 00:02:53,456 Dojdziemy do tego, co matematyk IJ Good nazywa 62 00:02:53,480 --> 00:02:55,256 "eksplozją inteligencji", 63 00:02:55,280 --> 00:02:57,710 a ten proces może wymknąć spod kontroli. 64 00:02:58,120 --> 00:03:00,936 Często przedstawiają to takie karykatury, 65 00:03:00,960 --> 00:03:02,016 jako obawę 66 00:03:02,016 --> 00:03:05,535 przed atakiem armii złośliwych robotów. 67 00:03:05,536 --> 00:03:08,176 Ale to nie jest najbardziej prawdopodobny scenariusz. 68 00:03:08,200 --> 00:03:13,056 Maszyny nie staną się nagle złośliwe. 69 00:03:13,080 --> 00:03:15,836 Problemem może być raczej to, że będziemy budować maszyny 70 00:03:15,836 --> 00:03:17,995 tak dalece kompetentniejsze od nas, 71 00:03:17,996 --> 00:03:21,576 że najmniejsza rozbieżność między ich celami i naszymi 72 00:03:21,600 --> 00:03:23,560 może nas zniszczyć. 73 00:03:23,960 --> 00:03:26,589 Weźmy nasz stosunek do mrówek. 74 00:03:26,590 --> 00:03:28,256 Nie nienawidzimy ich. 75 00:03:28,280 --> 00:03:30,336 Nie chcemy im specjalnie zaszkodzić. 76 00:03:30,360 --> 00:03:32,736 Czasami nawet staramy się im nie zaszkodzić. 77 00:03:32,760 --> 00:03:34,776 Omijamy je na chodniku. 78 00:03:34,800 --> 00:03:36,936 Ale gdy ich obecność 79 00:03:36,960 --> 00:03:39,456 poważnie kłóci się z naszym celem, 80 00:03:39,480 --> 00:03:41,957 jak przy budowie budynku, 81 00:03:41,981 --> 00:03:44,161 niszczymy je bez skrupułów. 82 00:03:44,480 --> 00:03:47,416 Istnieje obawa, że kiedyś skonstruujemy maszyny, 83 00:03:47,440 --> 00:03:50,176 świadome, czy też nie, 84 00:03:50,200 --> 00:03:53,350 które potraktują nas z podobnym lekceważeniem. 85 00:03:53,760 --> 00:03:56,520 Pewnie dla wielu z was uzna, że posuwam się za daleko. 86 00:03:57,360 --> 00:04:03,360 Niektórzy pewnie wątpią, że superinteligentna SI jest możliwa, 87 00:04:03,360 --> 00:04:05,425 a co dopiero nieunikniona. 88 00:04:05,426 --> 00:04:09,020 Jednak wtedy musicie znaleźć wady następujących założeń. 89 00:04:09,044 --> 00:04:10,746 Założenia są trzy. 90 00:04:11,800 --> 00:04:16,519 Inteligencja dotyczy przetwarzania informacji w systemach fizycznych. 91 00:04:17,320 --> 00:04:19,935 Właściwie to więcej niż założenie. 92 00:04:19,959 --> 00:04:23,416 Wbudowaliśmy już pewną SI do maszyn 93 00:04:23,440 --> 00:04:25,525 i wiele z nich działa 94 00:04:25,526 --> 00:04:28,120 na poziomie nadludzkiej inteligencji. 95 00:04:28,840 --> 00:04:31,069 Tylko krok może nas dzielić 96 00:04:31,070 --> 00:04:34,469 od osiągnięcia czegoś, co nazywane jest "generalną inteligencją". 97 00:04:34,470 --> 00:04:37,915 To zdolność elastycznego myślenia na przekroju wielu dziedzin, 98 00:04:37,916 --> 00:04:40,896 co potrafi ludzki mózg, prawda? 99 00:04:40,920 --> 00:04:44,856 Tu w środku są głównie atomy 100 00:04:44,880 --> 00:04:49,376 i o ile budujemy z atomów systemy, 101 00:04:49,400 --> 00:04:52,096 wykazujące coraz bardziej inteligentne zachowanie, 102 00:04:52,120 --> 00:04:54,656 to, jeśli nam nic nie przeszkodzi, 103 00:04:54,680 --> 00:04:58,250 w końcu uda nam się stworzyć ogólną inteligencję 104 00:04:58,250 --> 00:04:59,400 w maszynach. 105 00:04:59,400 --> 00:05:03,056 Trzeba sobie uświadomić, że tempo postępu nie ma znaczenia, 106 00:05:03,080 --> 00:05:06,256 bo każde tempo doprowadzi do strefy końcowej. 107 00:05:06,280 --> 00:05:10,056 Nie potrzeba prawa Moore'a ani gwałtownego postępu. 108 00:05:10,080 --> 00:05:12,230 Wystarczy nie przestawać. 109 00:05:13,480 --> 00:05:16,400 To drugie założenie: nie przestaniemy. 110 00:05:17,000 --> 00:05:20,450 Będziemy nadal udoskonalać inteligentne maszyny. 111 00:05:21,000 --> 00:05:25,376 A biorąc pod uwagę wartość inteligencji... 112 00:05:25,400 --> 00:05:28,936 Inteligencja jest albo źródłem wszystkiego, co cenimy, 113 00:05:28,960 --> 00:05:31,736 albo zabezpiecza wszystko, co cenimy. 114 00:05:31,760 --> 00:05:33,969 Jest naszym najcenniejszym zasobem. 115 00:05:33,970 --> 00:05:35,765 Dlatego nie chcemy się jej pozbywać. 116 00:05:35,766 --> 00:05:38,936 Mamy problemy, które rozpaczliwie potrzebują rozwiązania. 117 00:05:38,960 --> 00:05:42,160 Szukamy leków na chorobę Alzheimera i raka, 118 00:05:42,960 --> 00:05:46,896 chcemy zrozumieć systemy gospodarcze, walczyć ze zmianami klimatycznymi. 119 00:05:46,920 --> 00:05:49,205 Zrobimy to, jeśli tylko się da. 120 00:05:49,206 --> 00:05:52,486 Pociąg już odjechał, nie ma odwrotu. 121 00:05:53,880 --> 00:05:59,336 Daleko nam również do osiągnięcia szczytu inteligencji. 122 00:05:59,360 --> 00:06:01,639 Nawet się do tego nie zbliżamy. 123 00:06:01,640 --> 00:06:03,575 To naprawdę bardzo istotne. 124 00:06:03,576 --> 00:06:05,976 Właśnie dlatego sytuacja jest tak niepewna, 125 00:06:06,000 --> 00:06:10,040 a przeczucia co do ryzyka tak zawodne. 126 00:06:11,120 --> 00:06:14,540 Kto był najmądrzejszym człowiekiem w historii? 127 00:06:14,640 --> 00:06:18,056 Prawie każdy zapewne pomyślał o Johnie von Neumannie. 128 00:06:18,080 --> 00:06:21,416 Neumann za takiego uchodził 129 00:06:21,440 --> 00:06:25,496 nawet wśród największych matematyków i fizyków swoich czasów, 130 00:06:25,520 --> 00:06:27,456 to dość dobrze udokumentowane. 131 00:06:27,480 --> 00:06:30,799 Nawet jeśli tylko połowa opowieści o nim jest w połowie prawdą, 132 00:06:30,800 --> 00:06:32,855 nie ma wątpliwości, że był jednym 133 00:06:32,855 --> 00:06:35,345 z najmądrzejszych ludzi w historii. 134 00:06:35,346 --> 00:06:38,110 Zastanówmy się nad spektrum inteligencji. 135 00:06:38,320 --> 00:06:40,469 Tutaj mamy Johna von Neumanna. 136 00:06:41,560 --> 00:06:43,344 Tutaj nas. 137 00:06:44,120 --> 00:06:45,416 A tu mamy kurczaka. 138 00:06:45,440 --> 00:06:46,929 (Śmiech) 139 00:06:46,930 --> 00:06:48,616 Przepraszam, kurczak jest tutaj. 140 00:06:48,640 --> 00:06:49,896 (Śmiech) 141 00:06:49,920 --> 00:06:53,679 Nie ma co przygnębiać tą prelekcją bez potrzeby. 142 00:06:53,679 --> 00:06:55,660 (Śmiech) 143 00:06:56,339 --> 00:06:59,816 Wydaje się jednak prawdopodobne, że spektrum inteligencji 144 00:06:59,840 --> 00:07:02,960 rozciąga się znacznie dalej, niż można to sobie wyobrazić. 145 00:07:03,880 --> 00:07:07,096 A jeśli tworzymy maszyny inteligentniejsze od nas, 146 00:07:07,120 --> 00:07:08,466 pewnie będą chciały 147 00:07:08,466 --> 00:07:11,605 to spektrum poznać na sposoby, jakich nie możemy sobie wyobrazić, 148 00:07:11,606 --> 00:07:14,900 i przewyższyć nas na sposoby, jakich nie możemy sobie wyobrazić. 149 00:07:15,000 --> 00:07:16,270 Trzeba zdać sobie sprawę, 150 00:07:16,270 --> 00:07:19,360 że prawda tego faktu wynika z samej prędkości postępu. 151 00:07:19,360 --> 00:07:24,416 Powiedzmy, że skonstruowano superinteligentną SI, 152 00:07:24,440 --> 00:07:27,896 która nie jest bystrzejsza od przeciętnego zespołu naukowców 153 00:07:27,920 --> 00:07:30,216 na Stanford czy MIT. 154 00:07:30,240 --> 00:07:33,216 Obwody elektroniczne funkcjonują około miliona razy szybciej 155 00:07:33,240 --> 00:07:34,496 niż biochemiczne, 156 00:07:34,520 --> 00:07:37,656 zatem maszyna powinna myśleć milion razy szybciej 157 00:07:37,680 --> 00:07:39,355 niż umysły, które je zbudowały. 158 00:07:39,356 --> 00:07:42,675 Po tygodniu pracy osiągnie intelektualnie to, 159 00:07:42,675 --> 00:07:45,760 nad czym ludzkość pracowała 20 000 lat, 160 00:07:46,400 --> 00:07:49,080 i tak tydzień za tygodniem. 161 00:07:49,640 --> 00:07:52,736 Jak można pojąć, a tym bardziej ograniczyć, 162 00:07:52,760 --> 00:07:55,420 umysł robiący tego rodzaju postępy? 163 00:07:56,840 --> 00:07:58,976 Inna niepokojąca sprawa. 164 00:07:59,000 --> 00:08:04,120 Wyobraźmy sobie najlepszy możliwy scenariusz. 165 00:08:04,120 --> 00:08:07,500 Zaprojektowano superinteligentną SI, 166 00:08:07,500 --> 00:08:10,135 która nie budzi obaw jeśli chodzi o bezpieczeństwo. 167 00:08:10,135 --> 00:08:12,856 Projekt jest idealny. 168 00:08:12,880 --> 00:08:15,096 Prawie jak wyrocznia 169 00:08:15,120 --> 00:08:17,136 spełniająca wszystkie oczekiwania. 170 00:08:17,160 --> 00:08:21,210 Idealne rozwiązanie dla oszczędności pracy. 171 00:08:21,680 --> 00:08:24,109 Może zaprojektować i zbudować urządzenie 172 00:08:24,133 --> 00:08:25,896 do wykonania każdej fizycznej pracy, 173 00:08:25,920 --> 00:08:27,725 zasilane przez światło słoneczne, 174 00:08:27,726 --> 00:08:30,096 po kosztach surowców. 175 00:08:30,120 --> 00:08:33,376 Mowa zatem o końcu ludzkiego znoju, 176 00:08:33,400 --> 00:08:36,570 ale też o końcu większości prac intelektualnych. 177 00:08:37,200 --> 00:08:40,256 Co zatem pozostaje dla człekokształtnych jak my? 178 00:08:40,280 --> 00:08:44,360 Będziemy mieć pewnie dużo czasu na grę w frisbee i masaże. 179 00:08:45,840 --> 00:08:48,696 Dodać trochę LSD i kiepskie ciuchy 180 00:08:48,720 --> 00:08:50,896 i cały świat będzie jak zlot hipisów. 181 00:08:50,920 --> 00:08:53,100 (Śmiech) 182 00:08:54,320 --> 00:08:57,110 To może brzmieć zachęcająco, 183 00:08:57,280 --> 00:08:59,656 ale co się stanie 184 00:08:59,680 --> 00:09:02,416 w obecnym porządku ekonomicznym i politycznym? 185 00:09:02,440 --> 00:09:04,856 Prawdopodobnie doświadczymy 186 00:09:04,880 --> 00:09:09,016 nierówności majątkowych i bezrobocia, 187 00:09:09,040 --> 00:09:10,725 na niespotykanym poziomie. 188 00:09:10,726 --> 00:09:13,405 Jeśli zabraknie woli oddania nowo zdobytego bogactwa 189 00:09:13,406 --> 00:09:15,630 na użytek całej ludzkości, 190 00:09:15,640 --> 00:09:19,256 kilku miliarderów będzie zdobić okładki magazynów, 191 00:09:19,280 --> 00:09:22,319 rzucając resztę świata na pastwę losu. 192 00:09:22,320 --> 00:09:24,616 Co zrobiliby Rosjanie czy Chińczycy 193 00:09:24,640 --> 00:09:27,385 na wieść, że firma w Dolinie Krzemowej 194 00:09:27,386 --> 00:09:30,016 stworzyła superinteligentną SI? 195 00:09:30,040 --> 00:09:32,896 Ta maszyna umiałaby przecież prowadzić wojny, 196 00:09:32,920 --> 00:09:35,136 tak naziemną jak i cybernetyczną, 197 00:09:35,160 --> 00:09:37,510 z niespotykaną dotąd mocą. 198 00:09:37,910 --> 00:09:40,215 To scenariusz typu "zwycięzca bierze wszystko". 199 00:09:40,215 --> 00:09:43,225 6-miesięczna przewaga nad konkurencją w tej dziedzinie 200 00:09:43,226 --> 00:09:45,936 równa się przewadze 500 000 lat, 201 00:09:45,960 --> 00:09:47,456 minimum. 202 00:09:47,480 --> 00:09:52,216 Nawet zwykłe pogłoski o tego rodzaju przełomie 203 00:09:52,240 --> 00:09:54,616 mogą spowodować panikę. 204 00:09:54,640 --> 00:09:59,619 Najbardziej przeraża mnie teraz 205 00:10:00,360 --> 00:10:04,656 sposób, w jaki naukowcy SI 206 00:10:04,680 --> 00:10:06,860 starają się nas uspakajać. 207 00:10:07,000 --> 00:10:10,456 Najczęstszym argumentem za odrzuceniem obaw jest czas. 208 00:10:10,480 --> 00:10:12,575 Że to wszystko bardzo odległe, 209 00:10:12,576 --> 00:10:15,320 że to kwestia 50 lub 100 lat. 210 00:10:15,720 --> 00:10:17,005 Jeden naukowiec powiedział, 211 00:10:17,006 --> 00:10:18,576 "Martwić się o bezpieczeństwo SI, 212 00:10:18,600 --> 00:10:21,810 to jak martwić się o przeludnienie na Marsie ". 213 00:10:21,856 --> 00:10:23,835 To w Dolinie Krzemowej odpowiednik 214 00:10:23,836 --> 00:10:26,136 "Nie zaprzątaj tym swojej ślicznej główki". 215 00:10:26,160 --> 00:10:27,496 (Śmiech) 216 00:10:27,520 --> 00:10:29,416 Nikt nie zdaje się zauważać, 217 00:10:29,440 --> 00:10:32,056 że odwoływanie się do horyzontu czasowego 218 00:10:32,080 --> 00:10:34,656 nie ma żadnego znaczenia. 219 00:10:34,680 --> 00:10:37,936 Jeśli inteligencja jest tylko kwestią przetwarzania informacji, 220 00:10:37,960 --> 00:10:40,616 a my nadal będziemy udoskonalać maszyny, 221 00:10:40,640 --> 00:10:44,030 w końcu stworzymy jakąś formę superinteligencji. 222 00:10:44,320 --> 00:10:49,046 Nie wiadomo, ile zajmie stworzenie warunków, 223 00:10:49,046 --> 00:10:51,070 aby to zrobić bezpiecznie. 224 00:10:52,200 --> 00:10:53,535 Pozwólcie, że powtórzę. 225 00:10:53,536 --> 00:10:57,336 Nie wiadomo, jak długo potrwa 226 00:10:57,360 --> 00:11:00,640 stworzenie warunków, aby to zrobić bezpiecznie. 227 00:11:00,920 --> 00:11:04,376 Trudno nie zauważyć, że 50 lat ma już inną miarę. 228 00:11:04,400 --> 00:11:06,856 Oto 50 lat w miesiącach. 229 00:11:06,880 --> 00:11:09,110 Oto, jak długo mamy iPhone. 230 00:11:09,440 --> 00:11:12,040 Oto, jak długo "Simpsonowie" lecą w telewizji. 231 00:11:12,680 --> 00:11:15,235 Pięćdziesiąt lat to niewiele, 232 00:11:15,236 --> 00:11:19,260 by stawić czoła największemu wyzwaniu, jakie czeka nasz gatunek. 233 00:11:19,640 --> 00:11:23,656 A my nie umiemy nawet właściwie zareagować na coś, 234 00:11:23,680 --> 00:11:26,376 co niemal na pewno nadchodzi. 235 00:11:26,400 --> 00:11:30,376 Informatyk Stuart Russell pięknie to ujął: 236 00:11:30,400 --> 00:11:35,296 "Wyobraźmy sobie wiadomość od obcej cywilizacji, 237 00:11:35,320 --> 00:11:37,016 która brzmi: 238 00:11:37,040 --> 00:11:38,576 "Ziemianie, 239 00:11:38,600 --> 00:11:41,669 dolecimy do waszej planety w ciągu 50 lat. 240 00:11:41,670 --> 00:11:43,376 Przygotujcie się". 241 00:11:43,400 --> 00:11:47,656 Pewnie zaczęlibyśmy odliczanie do ich przyjazdu, 242 00:11:47,680 --> 00:11:51,850 sprawa byłaby pilna. 243 00:11:52,440 --> 00:11:54,536 Mówią nam, żeby się nie martwić, 244 00:11:54,560 --> 00:11:57,576 bo maszyny na pewno będą podzielać nasze wartości, 245 00:11:57,600 --> 00:12:00,216 ponieważ będą dosłownie przedłużeniem nas samych. 246 00:12:00,240 --> 00:12:02,056 Wszczepi się nam je do mózgów, 247 00:12:02,080 --> 00:12:04,930 a my będziemy ich układem limbicznym. 248 00:12:05,120 --> 00:12:06,565 Weźmy pod uwagę, 249 00:12:06,566 --> 00:12:10,599 że najbezpieczniejsze i najrozsądniejsze zalecenie 250 00:12:11,120 --> 00:12:14,470 to wszczepić tę technologię bezpośrednio do mózgu. 251 00:12:14,600 --> 00:12:17,976 Może to rzeczywiście najbezpieczniejszy i najrozsądniejszy sposób, 252 00:12:18,000 --> 00:12:21,056 ale zazwyczaj względy bezpieczeństwa dotyczące technologii 253 00:12:21,080 --> 00:12:24,736 należy wypracować przed umieszczeniem jej w głowie. 254 00:12:24,760 --> 00:12:26,776 (Śmiech) 255 00:12:26,800 --> 00:12:32,136 Większym problemem jest to że, budowa samodzielnej superinteligentnej SI 256 00:12:32,160 --> 00:12:33,925 wydaje się łatwiejsza 257 00:12:33,926 --> 00:12:35,735 niż budowa superinteligentnej SI 258 00:12:35,735 --> 00:12:37,895 i skompletowanie badań neurobiologicznych 259 00:12:37,895 --> 00:12:41,179 pozwalających na bezproblemowe sprzężenie jej z umysłem. 260 00:12:41,179 --> 00:12:44,186 Zaangażowane przedsiębiorstwa i rządy 261 00:12:44,186 --> 00:12:47,656 uważają to za rywalizację, 262 00:12:47,680 --> 00:12:50,499 gdzie wygrany zyskuje cały świat, 263 00:12:50,500 --> 00:12:53,505 pod warunkiem, że nie zniszczy wszystkiego w ostatniej chwili, 264 00:12:53,506 --> 00:12:56,056 więc nie trudno zgadnąć, że to, co łatwiej osiągnąć, 265 00:12:56,080 --> 00:12:58,559 zostanie zrobione w pierwszej kolejności. 266 00:12:58,560 --> 00:13:01,416 Niestety, nie mam rozwiązania tego problemu. 267 00:13:01,440 --> 00:13:04,056 Zalecałbym jednak zacząć się nad tym zastanawiać. 268 00:13:04,080 --> 00:13:06,456 Potrzeba nam czegoś w rodzaju Projektu Manhattan 269 00:13:06,480 --> 00:13:08,496 odnośnie sztucznej inteligencji. 270 00:13:08,520 --> 00:13:10,979 Nie chodzi o zbudowanie jej, bo to jest nieuchronne, 271 00:13:10,979 --> 00:13:15,135 ale by zrozumieć, jak uniknąć wyścigu zbrojeń 272 00:13:15,136 --> 00:13:18,136 i zbudować ją w sposób zgodny z naszym interesem. 273 00:13:18,160 --> 00:13:20,345 Kiedy mowa o superinteligentnej SI, 274 00:13:20,346 --> 00:13:22,576 która sama może się udoskonalać, 275 00:13:22,600 --> 00:13:27,216 mamy tylko jedną szansę na stworzenie odpowiednich warunków początkowych 276 00:13:27,240 --> 00:13:29,446 i nawet wtedy będziemy musieli liczyć się 277 00:13:29,450 --> 00:13:33,220 z konsekwencjami ekonomicznymi i politycznymi tworzenia tych warunków. 278 00:13:33,760 --> 00:13:35,816 Ale w momencie, gdy przyznamy 279 00:13:35,840 --> 00:13:40,320 że przetwarzanie informacji jest źródłem inteligencji, 280 00:13:40,720 --> 00:13:46,150 że odpowiedni system obliczeniowy jest podstawą inteligencji 281 00:13:46,360 --> 00:13:50,880 i przyznamy, że chcemy te systemy ciągle udoskonalać, 282 00:13:51,280 --> 00:13:55,736 przyznamy też, że horyzont poznania prawdopodobnie znacznie przekracza 283 00:13:55,760 --> 00:13:57,630 naszą obecną wiedzę, 284 00:13:57,920 --> 00:13:59,426 będziemy musieli przyznać, 285 00:13:59,426 --> 00:14:02,890 że będzie to proces tworzenia pewnego rodzaju boga. 286 00:14:03,400 --> 00:14:04,976 Teraz jest odpowiedni czas, 287 00:14:05,000 --> 00:14:08,103 by upewnić się, że będzie to bóg, z którym da się żyć. 288 00:14:08,120 --> 00:14:09,479 Dziękuję bardzo. 289 00:14:09,480 --> 00:14:14,773 (Brawa)