0:00:01.103,0:00:03.480 Сьогодні я розповім [br]про нездатність до інтуїції, 0:00:03.480,0:00:05.280 від якої страждають багато з нас. 0:00:05.280,0:00:09.380 Це дійсно нездатність визначати[br]певний вид небезпеки. 0:00:09.410,0:00:10.950 Я опишу сценарій, 0:00:10.960,0:00:14.094 що, на мою думку, є водночас жахливий 0:00:14.314,0:00:16.310 та дуже ймовірний 0:00:16.760,0:00:18.400 і не є гарною комбінацією, 0:00:18.400,0:00:19.720 як виявляється. 0:00:19.990,0:00:22.716 Та все одно, замість того, щоб злякатися,[br]більшість з вас відчують, 0:00:22.804,0:00:25.120 що те, про що я веду мову,[br]скоріше прикольне. 0:00:25.550,0:00:27.580 Я розповім, як прибутки, 0:00:27.580,0:00:29.554 що ми отримуємо від штучного інтелекту, 0:00:29.554,0:00:31.460 можуть, врешті-решт, знищити нас. 0:00:31.460,0:00:34.566 Насправді, я думаю, дуже важко[br]зрозуміти, як вони НЕ знищать нас 0:00:34.566,0:00:36.880 або не надихнуть нас знищити самих себе. 0:00:37.250,0:00:39.050 Та якщо ви такий як я, 0:00:39.050,0:00:41.576 вам здасться, що думати [br]про такі речі - весело, 0:00:41.856,0:00:45.186 І така реакція є частиною проблеми. 0:00:45.186,0:00:47.466 Ця реакція має хвилювати вас. 0:00:48.036,0:00:50.720 І якщо б я хотів запевнити [br]вас у цій промові, 0:00:50.790,0:00:53.996 що нам, скоріше за все, доведеться [br]страждати від глобального голоду 0:00:54.026,0:00:56.556 через кліматичні зміни[br]або якусь іншу катастрофу, 0:00:57.436,0:01:00.386 та що ваші онуки та їхні онуки 0:01:00.466,0:01:02.446 будуть ймовірно жити саме так, 0:01:03.096,0:01:04.580 ви б не подумали: 0:01:05.410,0:01:06.510 "Цікаво. 0:01:06.664,0:01:08.430 Мені подобається цей виступ на ТED". 0:01:09.510,0:01:11.310 Голод - це не весело. 0:01:11.760,0:01:14.940 А от смерть у науковій фантастиці,[br]з іншого боку - це весело, 0:01:14.940,0:01:18.606 та одна з речей, що мене найбільше турбує[br]щодо розвитку штучного інтелекту - 0:01:18.606,0:01:23.260 це наша нездатність мати відповідну [br]емоційну реакцію 0:01:23.260,0:01:25.296 щодо небезпек, що чигають на нас попереду. 0:01:25.386,0:01:28.766 Я не здатний осягнути цю реакцію[br]і саме тому виступаю на цій сцені. 0:01:30.120,0:01:32.816 Це так, наче ми стоїмо [br]навпроти двох дверей. 0:01:32.840,0:01:34.096 За дверима номер 1 0:01:34.120,0:01:37.416 ми припиняємо прогрес[br]у створенні розумних машин. 0:01:37.440,0:01:41.456 Технічне та програмне забезпечення[br]перестає покращуватись через якісь обставини. 0:01:41.480,0:01:44.480 А тепер поміркуймо,[br]чому б це могло трапитися. 0:01:45.080,0:01:48.736 Знаючи, якими цінними є[br]інтелект та автоматизація, 0:01:48.760,0:01:52.280 ми продовжимо удосконалювати[br]наші технології, якщо матимемо можливість. 0:01:53.200,0:01:54.867 Що нас може зупинити від цього? 0:01:55.800,0:01:57.600 Широкомасштабна ядерна війна? 0:01:59.000,0:02:00.560 Глобальна пандемія? 0:02:02.320,0:02:03.640 Падіння астероїду? 0:02:05.640,0:02:08.216 Джастін Бібер, що став [br]президентом Сполучених Штатів? 0:02:08.240,0:02:10.520 (Сміх) 0:02:12.760,0:02:16.680 Суть у тому, що щось має знищити [br]цивілізацію у знайомому нас вигляді. 0:02:17.360,0:02:21.656 Уявіть собі, яке страхіття має статися, 0:02:21.680,0:02:25.016 щоб завадити нам удосконалювати[br]наші технології 0:02:25.040,0:02:26.256 постійно, 0:02:26.280,0:02:28.296 покоління за поколінням. 0:02:28.320,0:02:30.456 Майже за визначенням,[br]це найгірше, 0:02:30.480,0:02:32.496 що траплялося в історії людства. 0:02:32.520,0:02:33.816 Тому єдиною альтернативою, 0:02:33.840,0:02:36.176 а саме вона знаходиться[br]за дверима номер два, 0:02:36.200,0:02:39.336 є подальше удосконалення [br]розумних машин 0:02:39.360,0:02:40.960 рік за роком, рік за роком. 0:02:41.720,0:02:45.360 Та в певний момент ми збудуємо[br]машини, розумніші за нас, 0:02:46.080,0:02:48.696 та щойно з'являться машини,[br]що розумніші за нас, 0:02:48.720,0:02:50.696 вони почнуть самі себе удосконалювати. 0:02:50.720,0:02:53.456 А тоді ми ризикуємо тим, [br]що математик І.Дж. Ґуд назвав 0:02:53.480,0:02:55.256 "інтелектуальним вибухом", 0:02:55.540,0:02:57.840 тим, що цей процес може вийти [br]з-під нашого контролю. 0:02:58.120,0:03:00.936 Тепер це часто висміюють,[br]як ось на цьому зображенні, 0:03:00.960,0:03:04.176 як страх, що армії злісних роботів 0:03:04.200,0:03:05.456 нас атакують. 0:03:05.480,0:03:08.176 Та це не найімовірніший сценарій. 0:03:08.200,0:03:13.056 Йдеться не про те, що наші машини[br]зненацька зробляться злими. 0:03:13.080,0:03:15.696 Викликає тривогу те,[br]що ми збудуємо машини, 0:03:15.720,0:03:17.776 які будуть настільки компетентніші[br]за нас, 0:03:17.800,0:03:21.576 що найменші відхилення [br]між нашими та їхніми цілями 0:03:21.600,0:03:22.800 зможуть нас знищити. 0:03:23.730,0:03:26.430 Лише поміркуйте, як ми поводимося[br]з мурахами. 0:03:26.600,0:03:28.256 Ми не ненавидимо їх. 0:03:28.280,0:03:30.336 Ми не звертаємо зі шляху,[br]щоб нашкодити їм. 0:03:30.360,0:03:32.736 Насправді іноді ми намагаємося [br]не нашкодити їм. 0:03:32.760,0:03:34.776 Ми переступаємо через них на стежці. 0:03:34.800,0:03:36.936 Та коли їхня присутність 0:03:36.960,0:03:39.420 відчутно конфліктує [br]з будь-якою нашою метою, 0:03:39.420,0:03:41.947 скажімо, коли ми будуємо[br]таку споруду, як на зображенні, 0:03:41.981,0:03:43.941 ми знищуємо їх без сумнівів. 0:03:44.480,0:03:47.416 Тривога полягає в тому,[br]що одного дня ми збудуємо машини, 0:03:47.440,0:03:50.176 які, свідомі чи ні, 0:03:50.200,0:03:52.690 можуть поставитися до нас[br]так само байдуже. 0:03:53.760,0:03:56.720 Гадаю, що це здається[br]багатьом з вас малоймовірним. 0:03:57.360,0:04:03.696 Я впевнений, серед вас є ті, хто сумнівається,[br]що надрозумні машини можливі, 0:04:03.720,0:04:05.376 що й казати про неминучість. 0:04:05.400,0:04:09.020 Тоді ви засумніваєтеся у правильності[br]одного з таких припущень. 0:04:09.044,0:04:10.616 А їх лише три. 0:04:11.800,0:04:16.519 Інтелект - це обробка інформації[br]у фізичних системах. 0:04:17.320,0:04:19.935 Насправді, це трохи більше,[br]ніж припущення. 0:04:19.959,0:04:23.416 Ми вже вбудували певний інтелект[br]в наші машини, 0:04:23.440,0:04:25.456 і багато з цих машин видають результати 0:04:25.480,0:04:28.120 на рівні надлюдського інтелекту [br]вже сьогодні. 0:04:28.840,0:04:31.416 Та ми знаємо, що найменший привід 0:04:31.440,0:04:34.056 може призвести до так званого[br]"інтелектуального вибуху", 0:04:34.080,0:04:37.736 спроможності гнучко мислити[br]у багатьох сферах, 0:04:37.760,0:04:40.896 адже наш мозок вже зміг це зробити.[br]Чи не так? 0:04:40.920,0:04:44.856 Я маю на увазі, що тут є лише атоми, 0:04:44.880,0:04:49.376 та допоки ми продовжуємо[br]будувати системи з атомів, 0:04:49.400,0:04:52.096 що демонструють все більш[br]інтелектуальну поведінку, 0:04:52.120,0:04:54.656 ми поступово,[br]якщо нас не зупинять, 0:04:54.680,0:04:58.056 поступово вбудуємо[br]загальний інтелект 0:04:58.080,0:04:59.376 в наші машини. 0:04:59.400,0:05:02.836 Важливо зрозуміти,[br]що рівень прогресу не має значення, 0:05:02.870,0:05:06.256 тому що будь-який прогрес здатний[br]призвести нас до фінального пункту. 0:05:06.280,0:05:10.146 Нам не треба закону Мура, щоб продовжувати.[br]Нам не потрібний експоненційний прогрес. 0:05:10.146,0:05:11.680 Нам лише треба не зупинятися. 0:05:13.480,0:05:16.400 Друге припущення полягає в тому,[br]що ми не зупинимося. 0:05:17.000,0:05:19.760 Будемо далі удосконалювати[br]наші розумні машини. 0:05:21.000,0:05:25.376 Та враховуючи цінність інтелекту-- 0:05:25.400,0:05:28.936 Я маю на увазі, інтелект є або[br]джерелом всього, що ми цінуємо, 0:05:28.960,0:05:31.736 або він нам потрібен, щоб зберегти[br]все, що ми цінуємо. 0:05:31.760,0:05:34.016 Це наш найцінніший ресурс. 0:05:34.040,0:05:35.576 Тому ми хочемо це робити. 0:05:35.600,0:05:38.936 В нас є проблеми,[br]що їх нам вкрай необхідно залагодити. 0:05:38.960,0:05:42.160 Ми хочемо лікувати такі захворювання,[br]як Альцгеймер та рак. 0:05:42.960,0:05:46.896 Ми хочемо зрозуміти економічні системи.[br]Ми хочемо покращити нашу кліматичну науку. 0:05:46.920,0:05:49.176 Тому ми будемо це робити,[br]якщо зможемо. 0:05:49.200,0:05:52.486 Потяг вже поїхав зі станції,[br]і немає гальма, щоб його зупинити. 0:05:53.880,0:05:59.336 Нарешті, ми не стоїмо[br]на вершині інтелекту, 0:05:59.360,0:06:01.160 і навряд чи десь поблизу. 0:06:01.640,0:06:03.536 І це насправді ключовий факт. 0:06:03.560,0:06:05.976 Це те, що робить нашу ситуацію[br]такою небезпечною, 0:06:06.000,0:06:10.040 і це те, що робить нашу інтуїцію [br]щодо ризику настільки ненадійною. 0:06:11.120,0:06:14.130 Тепер подумайте про найрозумнішу людину,[br]яка будь-коли існувала. 0:06:14.640,0:06:18.056 Майже у всіх у списку є Джон фон Нейман. 0:06:18.080,0:06:21.416 Я гадаю, що враження, яке фон Нейман[br]справляв на людей довкола, 0:06:21.440,0:06:25.496 до яких входили найвидатніші математики[br]та фізики його часу, 0:06:25.520,0:06:27.456 достатньо добре задокументоване. 0:06:27.480,0:06:31.256 Якщо лише половина історій про нього [br]бодай наполовину правдива, 0:06:31.280,0:06:32.496 немає сумнівів, що 0:06:32.520,0:06:34.976 він один із найрозумніших людей,[br]які коли-небудь існували. 0:06:35.000,0:06:37.520 Тож обміркуємо спектр інтелекту. 0:06:38.320,0:06:39.749 Ось тут у нас Джон фон Нейман. 0:06:41.560,0:06:42.894 А ось тут ми з вами. 0:06:44.120,0:06:45.416 А ось тут курка. 0:06:45.440,0:06:47.376 (Сміх) 0:06:47.400,0:06:48.616 Вибачте, курка. 0:06:48.640,0:06:49.896 (Сміх) 0:06:49.920,0:06:53.816 Мені нема чого робити цю промову[br]гнітючішою, аніж вона має бути. 0:06:53.816,0:06:55.280 (Сміх) 0:06:56.339,0:06:59.816 Здається надзвичайно ймовірним,[br]що спектр інтелекту 0:06:59.840,0:07:02.960 простягається набагато далі,[br]ніж ми сьогодні уявляємо, 0:07:03.880,0:07:07.096 і якщо ми збудуємо машини,[br]що розумніші за нас, 0:07:07.120,0:07:09.416 вони, дуже ймовірно,[br]розвідають цей спектр 0:07:09.440,0:07:11.296 шляхами, які ми не можемо уявити, 0:07:11.320,0:07:13.840 та перевершать нас так,[br]як ми не можемо уявити. 0:07:15.000,0:07:19.336 Та важливо визнати, що[br]це правда вже з огляду на саму силу швидкості. 0:07:19.360,0:07:24.416 Правильно? Тож уявіть, що ми збудували[br]надрозумний штучний інтелект, 0:07:24.440,0:07:27.896 такий же розумний, як ваша[br]середньостатистична команда дослідників 0:07:27.920,0:07:30.216 у Стенфорді чи МТІ. 0:07:30.240,0:07:32.950 Електронні ланцюги[br]функціюють у мільйон разів швидше 0:07:32.990,0:07:34.496 за біохемічні, 0:07:34.520,0:07:37.656 тож ці машини мають думати[br]в мільйон разів швидше, 0:07:37.680,0:07:39.480 ніж розуми, що їх сконструювали. 0:07:39.480,0:07:41.336 Тож ви запускаєте її на тиждень, 0:07:41.336,0:07:45.760 і вона демонструє 20 000 років[br]інтелектуальної роботи людського рівня, 0:07:46.400,0:07:48.360 тиждень за тижнем, тиждень за тижнем. 0:07:49.640,0:07:52.736 Як ми можемо зрозуміти,[br]тим паче стримати 0:07:52.760,0:07:55.610 інтелект, що так прогресує? 0:07:56.840,0:07:58.976 Тривогу викликає ще одна річ: 0:07:59.000,0:08:03.976 це, уявіть собі, найкращий сценарій. 0:08:04.000,0:08:08.176 А тепер уявіть, ми створюємо надрозумний[br]штучний інтелект, 0:08:08.210,0:08:09.586 не зважаючи на жодні[br]міркування безпеки. 0:08:09.600,0:08:12.856 В нас уперше з'являється [br]бездоганний проект. 0:08:12.880,0:08:15.096 Так наче ми отримали оракула, 0:08:15.120,0:08:17.136 що поводиться саме так, як планувалося. 0:08:17.160,0:08:20.880 Тож така машина була б[br]ідеальним пристроєм з економії праці. 0:08:21.440,0:08:24.109 Вона може проектувати машини,[br]що можуть будувати машини, 0:08:24.133,0:08:25.896 що можуть робити будь-яку фізичну роботу, 0:08:25.920,0:08:27.476 працюватимуть на сонячній енергії, 0:08:27.476,0:08:30.096 більш-менш за ціною сировини. 0:08:30.120,0:08:33.376 Тож ми говоримо про кінець[br]важкої людської праці. 0:08:33.400,0:08:36.580 Ми також говоримо про кінець[br]найбільш інтелектуальної праці. 0:08:37.200,0:08:40.256 То що ж такі мавпи, як ми, [br]будуть робити за цих обставин? 0:08:40.280,0:08:44.360 Ми зможемо вільно грати в Фрізбі[br]та робити одне одному масаж. 0:08:45.840,0:08:48.696 Додайте трохи ЛСД та трохи[br]сумнівного гардеробу, 0:08:48.720,0:08:50.896 і весь світ буде[br]як фестиваль Burning Man. 0:08:50.920,0:08:52.560 (Сміх) 0:08:54.320,0:08:56.320 Непогано звучить, 0:08:57.280,0:08:59.656 але запитайте себе, що станеться 0:08:59.680,0:09:02.416 з нашим теперішнім економічним[br]та політичним ладом? 0:09:02.440,0:09:04.856 Ймовірно, ми станемо свідками 0:09:04.880,0:09:09.016 такої нерівності розподілу багатства[br]та безробіття, 0:09:09.040,0:09:10.536 яких ми ніколи не бачили. 0:09:10.560,0:09:13.176 Не бажаючи одразу[br]використовувати це нове багатство 0:09:13.200,0:09:14.680 на користь всього людства, 0:09:15.640,0:09:19.256 декілька мільярдерів прикрасять [br]обкладинки наших бізнес-журналів, 0:09:19.280,0:09:21.720 тоді як решта світу[br]голодуватиме. 0:09:22.320,0:09:24.616 А що робитимуть росіяни та китайці, 0:09:24.640,0:09:27.256 якщо вони почують, що якась компанія[br]у Кремнієвій долині 0:09:27.280,0:09:30.016 збирається ввести в дію [br]надрозумний штучний інтелект? 0:09:30.040,0:09:32.896 Ця машина зможе вести війну, 0:09:32.920,0:09:35.136 наземну або кібер, 0:09:35.160,0:09:36.840 з безпрецедентною могутністю. 0:09:38.120,0:09:39.976 Це сценарій, де переможець отримує все. 0:09:40.000,0:09:43.136 Бути на шість місяців попереду[br]у цьому змаганні, 0:09:43.160,0:09:45.936 це бути на 500 000 років попереду, 0:09:45.960,0:09:47.456 як мінімум. 0:09:47.480,0:09:52.216 Тож здається, що навіть незначні чутки[br]про такі досягнення 0:09:52.240,0:09:54.616 можуть спричинити [br]люту ненависть між людьми. 0:09:54.640,0:09:57.536 Але одна з найжахливіших речей, 0:09:57.560,0:10:00.336 на мою думку, на цей час - 0:10:00.360,0:10:04.656 це те, що кажуть розробники[br]штучного інтелекту, 0:10:04.680,0:10:06.750 коли хочуть заспокоїти нас. 0:10:07.000,0:10:10.456 Найпоширенішою підставою[br]не турбуватися, кажуть вони, є час. 0:10:10.480,0:10:12.536 Це ще так далеко, [br]хіба ви не знаєте. 0:10:12.560,0:10:15.000 Це ще може тривати 50 або 100 років. 0:10:15.720,0:10:16.976 Один із дослідників сказав: 0:10:17.000,0:10:18.576 "Хвилюватися через безпеку [br]штучного інтелекту - 0:10:18.600,0:10:20.880 те ж саме, що перейматися[br]перенаселенням на Марсі". 0:10:22.116,0:10:23.736 Це така версія Кремнієвої долини 0:10:23.760,0:10:26.136 фрази: "Не забивай цим[br]свою гарненьку голівку". 0:10:26.160,0:10:27.496 (Сміх) 0:10:27.520,0:10:29.416 Здається, ніхто не помічає, 0:10:29.440,0:10:32.056 що посилатися на часову віддаленість - 0:10:32.080,0:10:34.656 хибно. 0:10:34.680,0:10:37.936 Якщо інтелект - це питання[br]обробки інформації, 0:10:37.960,0:10:40.616 і ми далі удосконалюватимемо наші машини, 0:10:40.640,0:10:43.520 то ми створимо[br]якусь форму супер-інтелекту. 0:10:44.320,0:10:47.976 І ми не уявляємо,[br]скільки часу нам потрібно, 0:10:48.000,0:10:50.400 щоб створити умови,[br]де це буде безпечно. 0:10:51.980,0:10:53.496 Повторюю ще раз. 0:10:53.520,0:10:57.336 Ми не уявляємо, [br]скільки часу нам потрібно, 0:10:57.360,0:11:00.250 щоб створити умови,[br]де це буде безпечно. 0:11:00.920,0:11:04.376 І якщо ви не помітили,[br]50 років - вже не ті, що раніше. 0:11:04.400,0:11:06.856 Це 50 років у місяцях. 0:11:06.880,0:11:08.870 Стільки часу в нас уже є iPhone. 0:11:09.440,0:11:12.040 Стільки часу "Сімпсони" вже[br]існують на телебаченні. 0:11:12.550,0:11:15.056 П'ятдесят років -[br]це не так вже й багато часу, 0:11:15.080,0:11:18.780 щоб прийняти найбільший виклик,[br]з яким зіткнеться людський рід. 0:11:19.640,0:11:23.656 Повторюю: ми, здається, не маємо[br]відповідної емоційної реакції 0:11:23.680,0:11:26.376 на те, що точно до нас наближається. 0:11:26.400,0:11:30.376 Комп'ютерний експерт Стюарт Рассел[br]наводить гарну аналогію. 0:11:30.400,0:11:35.296 Він сказав: "Уявіть, що ми отримали[br]повідомлення від інопланетної цивілізації, 0:11:35.320,0:11:37.016 в якому йдеться: 0:11:37.040,0:11:38.576 "Земляни, 0:11:38.600,0:11:40.960 ми прибудемо на вашу планету через 50 років. 0:11:41.800,0:11:43.376 Готуйтеся". 0:11:43.400,0:11:47.656 І тепер ми лише рахуємо місяці, що[br]лишилися до прибуття космічного корабля? 0:11:47.680,0:11:50.680 Ми б відчули тоді трохи більше терміновості,[br]ніж ми відчуваємо тепер. 0:11:52.470,0:11:54.576 Інша причина, чому нам кажуть[br]не хвилюватися, полягає в тому, 0:11:54.576,0:11:57.576 що ці машини[br]муситимуть поділяти наші цінності, 0:11:57.600,0:12:00.216 адже вони будуть фактично[br]продовженням нас самих. 0:12:00.240,0:12:02.056 Їх трансплантують у наші мізки, 0:12:02.080,0:12:04.440 і ми, по суті,[br]станемо їхньою лімбічною системою. 0:12:05.120,0:12:06.536 Але задумаймось: 0:12:06.560,0:12:09.736 найбезпечніший[br]та єдиний розважливий шлях уперед, 0:12:09.760,0:12:11.096 що його нам рекомендують - 0:12:11.120,0:12:13.920 це імплантація цієї технології[br]прямо у мозок. 0:12:14.600,0:12:17.976 Так, це може бути найбезпечнішим[br]та єдиним розважливим шляхом уперед, 0:12:18.000,0:12:21.056 але зазвичай усі проблеми з безпекою 0:12:21.080,0:12:24.736 мають бути розв'язані до того,[br]як технологію вставлять у вашу голову. 0:12:24.760,0:12:26.776 (Сміх) 0:12:26.800,0:12:32.136 Глибшою проблемою є те, що створення[br]лише надрозумного штучного інтелекту 0:12:32.160,0:12:33.896 здається легшим, 0:12:33.920,0:12:35.776 ніж створення надрозумного[br]штучного інтелекту 0:12:35.800,0:12:37.576 та володіння повноцінною неврологією, 0:12:37.600,0:12:40.570 яка б дала нам змогу ефективно[br]інтегрувати наш розум із ним. 0:12:40.800,0:12:43.976 І, знаючи це, компанії та [br]уряди, що займаються цією розробкою, 0:12:44.000,0:12:47.656 сприймають себе наче у перегонах[br]проти всіх інших, 0:12:47.680,0:12:50.936 тому що виграти ці перегони - [br]це виграти світ, 0:12:50.960,0:12:53.416 якщо звісно його не буде знищено[br]наступної хвилини, 0:12:53.440,0:12:56.056 отже, здається, що те, [br]що зробити найлегше, 0:12:56.080,0:12:57.280 зроблять у першу чергу. 0:12:58.560,0:13:01.416 На жаль, у мене немає [br]розв'язку цієї проблеми, 0:13:01.440,0:13:04.056 окрім як порадити,[br]щоб більшість із нас думала про це. 0:13:04.080,0:13:06.456 Гадаю, нам потрібно, щось[br]на кшталт "Проекту Мангеттен" 0:13:06.480,0:13:08.496 на тему штучного інтелекту. 0:13:08.520,0:13:11.256 Не для того, щоб створити його, адже[br]я думаю, ми неминуче це зробимо, 0:13:11.280,0:13:14.616 а щоб зрозуміти,[br]як уникнути збройних перегонів 0:13:14.640,0:13:18.136 та створити його так, щоб він[br]відповідав нашим інтересам. 0:13:18.160,0:13:20.296 Коли ми розмовляємо про[br]надрозумний штучний інтелект, 0:13:20.320,0:13:22.576 що може самозмінюватися, 0:13:22.600,0:13:27.216 здається, в нас є лише один шанс[br]отримати правильні початкові умови, 0:13:27.240,0:13:29.296 і навіть тоді нам доведеться пережити 0:13:29.320,0:13:32.360 економічні та політичні наслідки[br]отримання правильних умов. 0:13:33.760,0:13:35.816 Та в той момент. коли ми визнаємо, 0:13:35.840,0:13:39.840 що оброблення інформації[br]є джерелом інтелекту, 0:13:40.720,0:13:45.520 що деякі відповідні обчислювальні системи[br]є базою інтелекту, 0:13:46.360,0:13:50.120 і визнаємо, що ми будемо удосконалювати[br]ці системи беззупинно, 0:13:51.280,0:13:55.736 а також те, що горизонт пізнання,[br]скоріш за все, простягається набагато далі, 0:13:55.760,0:13:57.400 ніж ми на цей час розуміємо, 0:13:57.860,0:13:59.336 тоді нам доведеться визнати, 0:13:59.360,0:14:02.000 що ми в процесі створення[br]своєрідного бога. 0:14:03.400,0:14:04.976 І настав час переконатися, 0:14:05.000,0:14:06.953 що з цим богом ми зможемо жити. 0:14:08.120,0:14:09.656 Дуже вам дякую. 0:14:09.680,0:14:14.773 (Оплески)