0:00:01.000,0:00:03.216 Będę mówić o porażce intuicji, 0:00:03.240,0:00:05.450 której tak wielu z nas doznaje. 0:00:05.480,0:00:08.520 To niemożność dostrzegania[br]pewnego rodzaju niebezpieczeństwa. 0:00:09.360,0:00:11.096 Przedstawię scenariusz, 0:00:11.120,0:00:14.376 który moim zdaniem jest[br]zarówno przerażający, 0:00:14.400,0:00:16.470 jak i prawdopodobny, 0:00:16.840,0:00:18.496 a to kiepskie połączenie, 0:00:18.520,0:00:20.056 jak się okazuje. 0:00:20.080,0:00:22.536 A jednak, zamiast strachu,[br]większość z was poczuje, 0:00:22.560,0:00:24.870 że to, o czym mowa, jest nawet fajne. 0:00:25.200,0:00:27.909 Będę mówić, jak postępy 0:00:27.910,0:00:29.629 w tworzeniu sztucznej inteligencji 0:00:29.630,0:00:31.915 mogą nas zniszczyć. 0:00:31.916,0:00:34.839 Tak naprawdę trudno,[br]żeby nas nie zniszczyły 0:00:34.840,0:00:37.360 lub nie zainspirowały do samozniszczenia. 0:00:37.400,0:00:39.256 Jeśli, podobnie jak ja, 0:00:39.280,0:00:41.936 uważacie, że fajnie jest[br]myśleć o tych sprawach, 0:00:41.960,0:00:45.336 jesteście częścią problemu. 0:00:45.360,0:00:47.850 To powinno was martwić. 0:00:47.920,0:00:50.576 Gdybym starał się was przekonać, 0:00:50.600,0:00:54.016 że czeka nas globalny głód, 0:00:54.040,0:00:57.096 wynikający ze zmian klimatycznych [br]lub innej katastrofy, 0:00:57.120,0:01:00.536 i że wasze prawnuki, bądź ich prawnuki 0:01:00.560,0:01:03.050 mogą tak żyć, 0:01:03.200,0:01:05.160 zapewne nie pomyślelibyście: 0:01:05.440,0:01:06.776 "Interesujące. 0:01:06.800,0:01:09.060 Podoba mi się ta prelekcja". 0:01:09.200,0:01:10.820 Głód nie jest zabawny. 0:01:11.800,0:01:15.176 Natomiast śmierć spowodowana[br]science fiction - owszem. 0:01:15.200,0:01:18.919 W pracach nad SI[br]najbardziej martwi mnie to, 0:01:18.920,0:01:22.799 że nasza emocjonalna reakcja[br]jest nieadekwatna 0:01:22.799,0:01:25.275 do niebezpieczeństwa, przed jakim stoimy. 0:01:25.276,0:01:29.280 Sam nie potrafię zdobyć się [br]na taką reakcję, a o niej mówię. 0:01:30.120,0:01:32.816 To tak, jakbyśmy mieli [br]do wyboru dwoje drzwi. 0:01:32.840,0:01:34.305 Za drzwiami numer jeden 0:01:34.306,0:01:37.416 przestajemy pracować nad budową[br]inteligentnych maszyn. 0:01:37.440,0:01:41.456 Ulepszanie sprzętu komputerowego[br]i oprogramowania ustaje. 0:01:41.480,0:01:44.480 Zastanówmy się, co mogłoby być przyczyną. 0:01:45.080,0:01:48.736 Biorąc pod uwagę, jak cenne są[br]inteligencja i automatyka, 0:01:48.760,0:01:52.280 będziemy nadal jak się da[br]ulepszać technologię. 0:01:53.200,0:01:55.257 Co mogłoby nas powstrzymać? 0:01:55.800,0:01:58.320 Wojna atomowa na pełną skalę? 0:01:59.000,0:02:00.990 Globalna pandemia? 0:02:02.320,0:02:04.170 Uderzenie asteroidy? 0:02:05.640,0:02:08.069 Justin Bieber jako prezydent USA? 0:02:08.069,0:02:10.860 (Śmiech) 0:02:12.760,0:02:16.680 Coś musiałoby zniszczyć znaną cywilizację. 0:02:17.360,0:02:21.656 Tylko wyjątkowo zła sytuacja 0:02:21.680,0:02:24.899 uniemożliwiłaby nam dokonywania[br]ulepszeń technologicznych 0:02:24.900,0:02:26.256 na stałe, 0:02:26.280,0:02:28.296 pokolenie za pokoleniem. 0:02:28.320,0:02:30.289 To chyba najgorsza rzecz, 0:02:30.290,0:02:32.575 jaka mogłaby przydarzyć się ludzkości. 0:02:32.576,0:02:34.310 Jedyną alternatywą jest to, 0:02:34.310,0:02:36.176 co kryje się za drzwiami numer dwa: 0:02:36.200,0:02:39.336 dalsze udoskonalanie[br]inteligentnych maszyn, 0:02:39.360,0:02:40.960 rok po roku. 0:02:41.720,0:02:45.360 W pewnym momencie stworzymy[br]maszyny mądrzejsze od nas, 0:02:46.080,0:02:48.696 a takie maszyny 0:02:48.720,0:02:50.696 zaczną ulepszać siebie same. 0:02:50.720,0:02:53.456 Dojdziemy do tego,[br]co matematyk IJ Good nazywa 0:02:53.480,0:02:55.256 "eksplozją inteligencji", 0:02:55.280,0:02:57.710 a ten proces może wymknąć spod kontroli. 0:02:58.120,0:03:00.936 Często przedstawiają to takie karykatury, 0:03:00.960,0:03:02.016 jako obawę 0:03:02.016,0:03:05.535 przed atakiem armii złośliwych robotów. 0:03:05.536,0:03:08.176 Ale to nie jest najbardziej[br]prawdopodobny scenariusz. 0:03:08.200,0:03:13.056 Maszyny nie staną się nagle złośliwe. 0:03:13.080,0:03:15.836 Problemem może być raczej to,[br]że będziemy budować maszyny 0:03:15.836,0:03:17.995 tak dalece kompetentniejsze od nas, 0:03:17.996,0:03:21.576 że najmniejsza rozbieżność[br]między ich celami i naszymi 0:03:21.600,0:03:23.560 może nas zniszczyć. 0:03:23.960,0:03:26.589 Weźmy nasz stosunek do mrówek. 0:03:26.590,0:03:28.256 Nie nienawidzimy ich. 0:03:28.280,0:03:30.336 Nie chcemy im specjalnie zaszkodzić. 0:03:30.360,0:03:32.736 Czasami nawet staramy się[br]im nie zaszkodzić. 0:03:32.760,0:03:34.776 Omijamy je na chodniku. 0:03:34.800,0:03:36.936 Ale gdy ich obecność 0:03:36.960,0:03:39.456 poważnie kłóci się z naszym celem, 0:03:39.480,0:03:41.957 jak przy budowie budynku, 0:03:41.981,0:03:44.161 niszczymy je bez skrupułów. 0:03:44.480,0:03:47.416 Istnieje obawa, że kiedyś[br]skonstruujemy maszyny, 0:03:47.440,0:03:50.176 świadome, czy też nie, 0:03:50.200,0:03:53.350 które potraktują nas[br]z podobnym lekceważeniem. 0:03:53.760,0:03:56.520 Pewnie dla wielu z was uzna,[br]że posuwam się za daleko. 0:03:57.360,0:04:03.360 Niektórzy pewnie wątpią,[br]że superinteligentna SI jest możliwa, 0:04:03.360,0:04:05.425 a co dopiero nieunikniona. 0:04:05.426,0:04:09.020 Jednak wtedy musicie znaleźć[br]wady następujących założeń. 0:04:09.044,0:04:10.746 Założenia są trzy. 0:04:11.800,0:04:16.519 Inteligencja dotyczy przetwarzania[br]informacji w systemach fizycznych. 0:04:17.320,0:04:19.935 Właściwie to więcej niż założenie. 0:04:19.959,0:04:23.416 Wbudowaliśmy już pewną SI do maszyn 0:04:23.440,0:04:25.525 i wiele z nich działa 0:04:25.526,0:04:28.120 na poziomie nadludzkiej inteligencji. 0:04:28.840,0:04:31.069 Tylko krok może nas dzielić 0:04:31.070,0:04:34.469 od osiągnięcia czegoś, co nazywane[br]jest "generalną inteligencją". 0:04:34.470,0:04:37.915 To zdolność elastycznego myślenia[br]na przekroju wielu dziedzin, 0:04:37.916,0:04:40.896 co potrafi ludzki mózg, prawda? 0:04:40.920,0:04:44.856 Tu w środku są głównie atomy 0:04:44.880,0:04:49.376 i o ile budujemy z atomów systemy, 0:04:49.400,0:04:52.096 wykazujące coraz bardziej[br]inteligentne zachowanie, 0:04:52.120,0:04:54.656 to, jeśli nam nic nie przeszkodzi, 0:04:54.680,0:04:58.250 w końcu uda nam się[br]stworzyć ogólną inteligencję 0:04:58.250,0:04:59.400 w maszynach. 0:04:59.400,0:05:03.056 Trzeba sobie uświadomić,[br]że tempo postępu nie ma znaczenia, 0:05:03.080,0:05:06.256 bo każde tempo doprowadzi[br]do strefy końcowej. 0:05:06.280,0:05:10.056 Nie potrzeba prawa Moore'a [br]ani gwałtownego postępu. 0:05:10.080,0:05:12.230 Wystarczy nie przestawać. 0:05:13.480,0:05:16.400 To drugie założenie: nie przestaniemy. 0:05:17.000,0:05:20.450 Będziemy nadal udoskonalać[br]inteligentne maszyny. 0:05:21.000,0:05:25.376 A biorąc pod uwagę wartość inteligencji... 0:05:25.400,0:05:28.936 Inteligencja jest albo źródłem[br]wszystkiego, co cenimy, 0:05:28.960,0:05:31.736 albo zabezpiecza wszystko, co cenimy. 0:05:31.760,0:05:33.969 Jest naszym najcenniejszym zasobem. 0:05:33.970,0:05:35.765 Dlatego nie chcemy się jej pozbywać. 0:05:35.766,0:05:38.936 Mamy problemy, które rozpaczliwie[br]potrzebują rozwiązania. 0:05:38.960,0:05:42.160 Szukamy leków na chorobę[br]Alzheimera i raka, 0:05:42.960,0:05:46.896 chcemy zrozumieć systemy gospodarcze,[br]walczyć ze zmianami klimatycznymi. 0:05:46.920,0:05:49.205 Zrobimy to, jeśli tylko się da. 0:05:49.206,0:05:52.486 Pociąg już odjechał, nie ma odwrotu. 0:05:53.880,0:05:59.336 Daleko nam również[br]do osiągnięcia szczytu inteligencji. 0:05:59.360,0:06:01.639 Nawet się do tego nie zbliżamy. 0:06:01.640,0:06:03.575 To naprawdę bardzo istotne. 0:06:03.576,0:06:05.976 Właśnie dlatego[br]sytuacja jest tak niepewna, 0:06:06.000,0:06:10.040 a przeczucia co do ryzyka tak zawodne. 0:06:11.120,0:06:14.540 Kto był najmądrzejszym[br]człowiekiem w historii? 0:06:14.640,0:06:18.056 Prawie każdy zapewne pomyślał[br]o Johnie von Neumannie. 0:06:18.080,0:06:21.416 Neumann za takiego uchodził 0:06:21.440,0:06:25.496 nawet wśród największych[br]matematyków i fizyków swoich czasów, 0:06:25.520,0:06:27.456 to dość dobrze udokumentowane. 0:06:27.480,0:06:30.799 Nawet jeśli tylko połowa opowieści[br]o nim jest w połowie prawdą, 0:06:30.800,0:06:32.855 nie ma wątpliwości, że był jednym 0:06:32.855,0:06:35.345 z najmądrzejszych ludzi w historii. 0:06:35.346,0:06:38.110 Zastanówmy się nad spektrum inteligencji. 0:06:38.320,0:06:40.469 Tutaj mamy Johna von Neumanna. 0:06:41.560,0:06:43.344 Tutaj nas. 0:06:44.120,0:06:45.416 A tu mamy kurczaka. 0:06:45.440,0:06:46.929 (Śmiech) 0:06:46.930,0:06:48.616 Przepraszam, kurczak jest tutaj. 0:06:48.640,0:06:49.896 (Śmiech) 0:06:49.920,0:06:53.679 Nie ma co przygnębiać[br]tą prelekcją bez potrzeby. 0:06:53.679,0:06:55.660 (Śmiech) 0:06:56.339,0:06:59.816 Wydaje się jednak prawdopodobne,[br]że spektrum inteligencji 0:06:59.840,0:07:02.960 rozciąga się znacznie dalej,[br]niż można to sobie wyobrazić. 0:07:03.880,0:07:07.096 A jeśli tworzymy maszyny[br]inteligentniejsze od nas, 0:07:07.120,0:07:08.466 pewnie będą chciały 0:07:08.466,0:07:11.605 to spektrum poznać na sposoby,[br]jakich nie możemy sobie wyobrazić, 0:07:11.606,0:07:14.900 i przewyższyć nas na sposoby,[br]jakich nie możemy sobie wyobrazić. 0:07:15.000,0:07:16.270 Trzeba zdać sobie sprawę, 0:07:16.270,0:07:19.360 że prawda tego faktu wynika[br]z samej prędkości postępu. 0:07:19.360,0:07:24.416 Powiedzmy, że skonstruowano[br]superinteligentną SI, 0:07:24.440,0:07:27.896 która nie jest bystrzejsza[br]od przeciętnego zespołu naukowców 0:07:27.920,0:07:30.216 na Stanford czy MIT. 0:07:30.240,0:07:33.216 Obwody elektroniczne funkcjonują[br]około miliona razy szybciej 0:07:33.240,0:07:34.496 niż biochemiczne, 0:07:34.520,0:07:37.656 zatem maszyna powinna myśleć[br]milion razy szybciej 0:07:37.680,0:07:39.355 niż umysły, które je zbudowały. 0:07:39.356,0:07:42.675 Po tygodniu pracy[br]osiągnie intelektualnie to, 0:07:42.675,0:07:45.760 nad czym ludzkość pracowała 20 000 lat, 0:07:46.400,0:07:49.080 i tak tydzień za tygodniem. 0:07:49.640,0:07:52.736 Jak można pojąć,[br]a tym bardziej ograniczyć, 0:07:52.760,0:07:55.420 umysł robiący tego rodzaju postępy? 0:07:56.840,0:07:58.976 Inna niepokojąca sprawa. 0:07:59.000,0:08:04.120 Wyobraźmy sobie najlepszy[br]możliwy scenariusz. 0:08:04.120,0:08:07.500 Zaprojektowano superinteligentną SI, 0:08:07.500,0:08:10.135 która nie budzi obaw[br]jeśli chodzi o bezpieczeństwo. 0:08:10.135,0:08:12.856 Projekt jest idealny. 0:08:12.880,0:08:15.096 Prawie jak wyrocznia 0:08:15.120,0:08:17.136 spełniająca wszystkie oczekiwania. 0:08:17.160,0:08:21.210 Idealne rozwiązanie[br]dla oszczędności pracy. 0:08:21.680,0:08:24.109 Może zaprojektować i zbudować urządzenie 0:08:24.133,0:08:25.896 do wykonania każdej fizycznej pracy, 0:08:25.920,0:08:27.725 zasilane przez światło słoneczne, 0:08:27.726,0:08:30.096 po kosztach surowców. 0:08:30.120,0:08:33.376 Mowa zatem o końcu ludzkiego znoju, 0:08:33.400,0:08:36.570 ale też o końcu większości[br]prac intelektualnych. 0:08:37.200,0:08:40.256 Co zatem pozostaje[br]dla człekokształtnych jak my? 0:08:40.280,0:08:44.360 Będziemy mieć pewnie dużo czasu[br]na grę w frisbee i masaże. 0:08:45.840,0:08:48.696 Dodać trochę LSD i kiepskie ciuchy 0:08:48.720,0:08:50.896 i cały świat będzie jak zlot hipisów. 0:08:50.920,0:08:53.100 (Śmiech) 0:08:54.320,0:08:57.110 To może brzmieć zachęcająco, 0:08:57.280,0:08:59.656 ale co się stanie 0:08:59.680,0:09:02.416 w obecnym porządku[br]ekonomicznym i politycznym? 0:09:02.440,0:09:04.856 Prawdopodobnie doświadczymy 0:09:04.880,0:09:09.016 nierówności majątkowych i bezrobocia, 0:09:09.040,0:09:10.725 na niespotykanym poziomie. 0:09:10.726,0:09:13.405 Jeśli zabraknie woli oddania[br]nowo zdobytego bogactwa 0:09:13.406,0:09:15.630 na użytek całej ludzkości, 0:09:15.640,0:09:19.256 kilku miliarderów będzie zdobić[br]okładki magazynów, 0:09:19.280,0:09:22.319 rzucając resztę świata na pastwę losu. 0:09:22.320,0:09:24.616 Co zrobiliby Rosjanie czy Chińczycy 0:09:24.640,0:09:27.385 na wieść, że firma w Dolinie Krzemowej 0:09:27.386,0:09:30.016 stworzyła superinteligentną SI? 0:09:30.040,0:09:32.896 Ta maszyna umiałaby przecież [br]prowadzić wojny, 0:09:32.920,0:09:35.136 tak naziemną jak i cybernetyczną, 0:09:35.160,0:09:37.510 z niespotykaną dotąd mocą. 0:09:37.910,0:09:40.215 To scenariusz typu[br]"zwycięzca bierze wszystko". 0:09:40.215,0:09:43.225 6-miesięczna przewaga[br]nad konkurencją w tej dziedzinie 0:09:43.226,0:09:45.936 równa się przewadze 500 000 lat, 0:09:45.960,0:09:47.456 minimum. 0:09:47.480,0:09:52.216 Nawet zwykłe pogłoski[br]o tego rodzaju przełomie 0:09:52.240,0:09:54.616 mogą spowodować panikę. 0:09:54.640,0:09:59.619 Najbardziej przeraża mnie teraz 0:10:00.360,0:10:04.656 sposób, w jaki naukowcy SI 0:10:04.680,0:10:06.860 starają się nas uspakajać. 0:10:07.000,0:10:10.456 Najczęstszym argumentem[br]za odrzuceniem obaw jest czas. 0:10:10.480,0:10:12.575 Że to wszystko bardzo odległe, 0:10:12.576,0:10:15.320 że to kwestia 50 lub 100 lat. 0:10:15.720,0:10:17.005 Jeden naukowiec powiedział, 0:10:17.006,0:10:18.576 "Martwić się o bezpieczeństwo SI, 0:10:18.600,0:10:21.810 to jak martwić się[br]o przeludnienie na Marsie ". 0:10:21.856,0:10:23.835 To w Dolinie Krzemowej odpowiednik 0:10:23.836,0:10:26.136 "Nie zaprzątaj tym[br]swojej ślicznej główki". 0:10:26.160,0:10:27.496 (Śmiech) 0:10:27.520,0:10:29.416 Nikt nie zdaje się zauważać, 0:10:29.440,0:10:32.056 że odwoływanie się do horyzontu czasowego 0:10:32.080,0:10:34.656 nie ma żadnego znaczenia. 0:10:34.680,0:10:37.936 Jeśli inteligencja jest tylko[br]kwestią przetwarzania informacji, 0:10:37.960,0:10:40.616 a my nadal będziemy udoskonalać maszyny, 0:10:40.640,0:10:44.030 w końcu stworzymy jakąś[br]formę superinteligencji. 0:10:44.320,0:10:49.046 Nie wiadomo,[br]ile zajmie stworzenie warunków, 0:10:49.046,0:10:51.070 aby to zrobić bezpiecznie. 0:10:52.200,0:10:53.535 Pozwólcie, że powtórzę. 0:10:53.536,0:10:57.336 Nie wiadomo, jak długo potrwa 0:10:57.360,0:11:00.640 stworzenie warunków,[br]aby to zrobić bezpiecznie. 0:11:00.920,0:11:04.376 Trudno nie zauważyć, że 50 lat[br]ma już inną miarę. 0:11:04.400,0:11:06.856 Oto 50 lat w miesiącach. 0:11:06.880,0:11:09.110 Oto, jak długo mamy iPhone. 0:11:09.440,0:11:12.040 Oto, jak długo "Simpsonowie"[br]lecą w telewizji. 0:11:12.680,0:11:15.235 Pięćdziesiąt lat to niewiele, 0:11:15.236,0:11:19.260 by stawić czoła największemu wyzwaniu,[br]jakie czeka nasz gatunek. 0:11:19.640,0:11:23.656 A my nie umiemy nawet[br]właściwie zareagować na coś, 0:11:23.680,0:11:26.376 co niemal na pewno nadchodzi. 0:11:26.400,0:11:30.376 Informatyk Stuart Russell pięknie to ujął: 0:11:30.400,0:11:35.296 "Wyobraźmy sobie[br]wiadomość od obcej cywilizacji, 0:11:35.320,0:11:37.016 która brzmi: 0:11:37.040,0:11:38.576 "Ziemianie, 0:11:38.600,0:11:41.669 dolecimy do waszej planety w ciągu 50 lat. 0:11:41.670,0:11:43.376 Przygotujcie się". 0:11:43.400,0:11:47.656 Pewnie zaczęlibyśmy[br]odliczanie do ich przyjazdu, 0:11:47.680,0:11:51.850 sprawa byłaby pilna. 0:11:52.440,0:11:54.536 Mówią nam, żeby się nie martwić, 0:11:54.560,0:11:57.576 bo maszyny na pewno będą[br]podzielać nasze wartości, 0:11:57.600,0:12:00.216 ponieważ będą dosłownie[br]przedłużeniem nas samych. 0:12:00.240,0:12:02.056 Wszczepi się nam je do mózgów, 0:12:02.080,0:12:04.930 a my będziemy ich układem limbicznym. 0:12:05.120,0:12:06.565 Weźmy pod uwagę, 0:12:06.566,0:12:10.599 że najbezpieczniejsze[br]i najrozsądniejsze zalecenie 0:12:11.120,0:12:14.470 to wszczepić tę technologię[br]bezpośrednio do mózgu. 0:12:14.600,0:12:17.976 Może to rzeczywiście najbezpieczniejszy[br]i najrozsądniejszy sposób, 0:12:18.000,0:12:21.056 ale zazwyczaj względy bezpieczeństwa[br]dotyczące technologii 0:12:21.080,0:12:24.736 należy wypracować[br]przed umieszczeniem jej w głowie. 0:12:24.760,0:12:26.776 (Śmiech) 0:12:26.800,0:12:32.136 Większym problemem jest to że, budowa[br]samodzielnej superinteligentnej SI 0:12:32.160,0:12:33.925 wydaje się łatwiejsza 0:12:33.926,0:12:35.735 niż budowa superinteligentnej SI 0:12:35.735,0:12:37.895 i skompletowanie[br]badań neurobiologicznych 0:12:37.895,0:12:41.179 pozwalających na bezproblemowe[br]sprzężenie jej z umysłem. 0:12:41.179,0:12:44.186 Zaangażowane przedsiębiorstwa i rządy 0:12:44.186,0:12:47.656 uważają to za rywalizację, 0:12:47.680,0:12:50.499 gdzie wygrany zyskuje cały świat, 0:12:50.500,0:12:53.505 pod warunkiem, że nie zniszczy[br]wszystkiego w ostatniej chwili, 0:12:53.506,0:12:56.056 więc nie trudno zgadnąć,[br]że to, co łatwiej osiągnąć, 0:12:56.080,0:12:58.559 zostanie zrobione w pierwszej kolejności. 0:12:58.560,0:13:01.416 Niestety, nie mam [br]rozwiązania tego problemu. 0:13:01.440,0:13:04.056 Zalecałbym jednak zacząć się[br]nad tym zastanawiać. 0:13:04.080,0:13:06.456 Potrzeba nam czegoś w rodzaju[br]Projektu Manhattan 0:13:06.480,0:13:08.496 odnośnie sztucznej inteligencji. 0:13:08.520,0:13:10.979 Nie chodzi o zbudowanie jej,[br]bo to jest nieuchronne, 0:13:10.979,0:13:15.135 ale by zrozumieć,[br]jak uniknąć wyścigu zbrojeń 0:13:15.136,0:13:18.136 i zbudować ją w sposób[br]zgodny z naszym interesem. 0:13:18.160,0:13:20.345 Kiedy mowa o superinteligentnej SI, 0:13:20.346,0:13:22.576 która sama może się udoskonalać, 0:13:22.600,0:13:27.216 mamy tylko jedną szansę na stworzenie[br]odpowiednich warunków początkowych 0:13:27.240,0:13:29.446 i nawet wtedy będziemy musieli liczyć się 0:13:29.450,0:13:33.220 z konsekwencjami ekonomicznymi[br]i politycznymi tworzenia tych warunków. 0:13:33.760,0:13:35.816 Ale w momencie, gdy przyznamy 0:13:35.840,0:13:40.320 że przetwarzanie informacji[br]jest źródłem inteligencji, 0:13:40.720,0:13:46.150 że odpowiedni system obliczeniowy[br]jest podstawą inteligencji 0:13:46.360,0:13:50.880 i przyznamy, że chcemy[br]te systemy ciągle udoskonalać, 0:13:51.280,0:13:55.736 przyznamy też, że horyzont poznania[br]prawdopodobnie znacznie przekracza 0:13:55.760,0:13:57.630 naszą obecną wiedzę, 0:13:57.920,0:13:59.426 będziemy musieli przyznać, 0:13:59.426,0:14:02.890 że będzie to proces tworzenia[br]pewnego rodzaju boga. 0:14:03.400,0:14:04.976 Teraz jest odpowiedni czas, 0:14:05.000,0:14:08.103 by upewnić się, że będzie to bóg,[br]z którym da się żyć. 0:14:08.120,0:14:09.479 Dziękuję bardzo. 0:14:09.480,0:14:14.773 (Brawa)