WEBVTT 00:00:01.103 --> 00:00:03.480 Сьогодні я розповім про нездатність до інтуїції, 00:00:03.480 --> 00:00:05.280 від якої страждають багато з нас. 00:00:05.280 --> 00:00:09.380 Це дійсно нездатність визначати певний вид небезпеки. 00:00:09.410 --> 00:00:10.950 Я опишу сценарій, 00:00:10.960 --> 00:00:14.094 що, на мою думку, є водночас жахливий 00:00:14.314 --> 00:00:16.310 та дуже ймовірний 00:00:16.760 --> 00:00:18.400 і не є гарною комбінацією, 00:00:18.400 --> 00:00:19.720 як виявляється. 00:00:19.990 --> 00:00:22.716 Та все одно, замість того, щоб злякатися, більшість з вас відчують, 00:00:22.804 --> 00:00:25.120 що те, про що я веду мову, скоріше прикольне. 00:00:25.550 --> 00:00:27.580 Я розповім, як прибутки, NOTE Paragraph 00:00:27.580 --> 00:00:29.554 що ми отримуємо від штучного інтелекту, 00:00:29.554 --> 00:00:31.460 можуть, врешті-решт, знищити нас. 00:00:31.460 --> 00:00:34.566 Насправді, я думаю, дуже важко зрозуміти, як вони НЕ знищать нас 00:00:34.566 --> 00:00:36.880 або не надихнуть нас знищити самих себе. 00:00:37.250 --> 00:00:39.050 Та якщо ви такий як я, 00:00:39.050 --> 00:00:41.576 вам здасться, що думати про такі речі - весело, 00:00:41.856 --> 00:00:45.186 І така реакція є частиною проблеми. 00:00:45.186 --> 00:00:47.466 Ця реакція має хвилювати вас. 00:00:48.036 --> 00:00:50.720 І якщо б я хотів запевнити вас у цій промові, 00:00:50.790 --> 00:00:53.996 що нам, скоріше за все, доведеться страждати від глобального голоду 00:00:54.026 --> 00:00:56.556 через кліматичні зміни або якусь іншу катастрофу, 00:00:57.436 --> 00:01:00.386 та що ваші онуки та їхні онуки 00:01:00.466 --> 00:01:02.446 будуть ймовірно жити саме так, 00:01:03.096 --> 00:01:04.580 ви б не подумали: 00:01:05.410 --> 00:01:06.510 "Цікаво. 00:01:06.664 --> 00:01:08.430 Мені подобається цей виступ на ТED". 00:01:09.510 --> 00:01:11.310 Голод - це не весело. NOTE Paragraph 00:01:11.760 --> 00:01:14.940 А от смерть у науковій фантастиці, з іншого боку - це весело, 00:01:14.940 --> 00:01:18.606 та одна з речей, що мене найбільше турбує щодо розвитку штучного інтелекту - 00:01:18.606 --> 00:01:23.260 це наша нездатність мати відповідну емоційну реакцію 00:01:23.260 --> 00:01:25.296 щодо небезпек, що чигають на нас попереду. 00:01:25.386 --> 00:01:28.766 Я не здатний осягнути цю реакцію і саме тому виступаю на цій сцені. NOTE Paragraph 00:01:30.120 --> 00:01:32.816 Це так, наче ми стоїмо навпроти двох дверей. 00:01:32.840 --> 00:01:34.096 За дверима номер 1 00:01:34.120 --> 00:01:37.416 ми припиняємо прогрес у створенні розумних машин. 00:01:37.440 --> 00:01:41.456 Технічне та програмне забезпечення перестає покращуватись через якісь обставини. 00:01:41.480 --> 00:01:44.480 А тепер поміркуймо, чому б це могло трапитися. 00:01:45.080 --> 00:01:48.736 Знаючи, якими цінними є інтелект та автоматизація, 00:01:48.760 --> 00:01:52.280 ми продовжимо удосконалювати наші технології, якщо матимемо можливість. 00:01:53.200 --> 00:01:54.867 Що нас може зупинити від цього? 00:01:55.800 --> 00:01:57.600 Широкомасштабна ядерна війна? 00:01:59.000 --> 00:02:00.560 Глобальна пандемія? 00:02:02.320 --> 00:02:03.640 Падіння астероїду? 00:02:05.640 --> 00:02:08.216 Джастін Бібер, що став президентом Сполучених Штатів? NOTE Paragraph 00:02:08.240 --> 00:02:10.520 (Сміх) NOTE Paragraph 00:02:12.760 --> 00:02:16.680 Суть у тому, що щось має знищити цивілізацію у знайомому нас вигляді. 00:02:17.360 --> 00:02:21.656 Уявіть собі, яке страхіття має статися, 00:02:21.680 --> 00:02:25.016 щоб завадити нам удосконалювати наші технології 00:02:25.040 --> 00:02:26.256 постійно, 00:02:26.280 --> 00:02:28.296 покоління за поколінням. 00:02:28.320 --> 00:02:30.456 Майже за визначенням, це найгірше, 00:02:30.480 --> 00:02:32.496 що траплялося в історії людства. NOTE Paragraph 00:02:32.520 --> 00:02:33.816 Тому єдиною альтернативою, 00:02:33.840 --> 00:02:36.176 а саме вона знаходиться за дверима номер два, 00:02:36.200 --> 00:02:39.336 є подальше удосконалення розумних машин 00:02:39.360 --> 00:02:40.960 рік за роком, рік за роком. 00:02:41.720 --> 00:02:45.360 Та в певний момент ми збудуємо машини, розумніші за нас, 00:02:46.080 --> 00:02:48.696 та щойно з'являться машини, що розумніші за нас, 00:02:48.720 --> 00:02:50.696 вони почнуть самі себе удосконалювати. 00:02:50.720 --> 00:02:53.456 А тоді ми ризикуємо тим, що математик І.Дж. Ґуд назвав 00:02:53.480 --> 00:02:55.256 "інтелектуальним вибухом", 00:02:55.540 --> 00:02:57.840 тим, що цей процес може вийти з-під нашого контролю. NOTE Paragraph 00:02:58.120 --> 00:03:00.936 Тепер це часто висміюють, як ось на цьому зображенні, 00:03:00.960 --> 00:03:04.176 як страх, що армії злісних роботів 00:03:04.200 --> 00:03:05.456 нас атакують. 00:03:05.480 --> 00:03:08.176 Та це не найімовірніший сценарій. 00:03:08.200 --> 00:03:13.056 Йдеться не про те, що наші машини зненацька зробляться злими. 00:03:13.080 --> 00:03:15.696 Викликає тривогу те, що ми збудуємо машини, 00:03:15.720 --> 00:03:17.776 які будуть настільки компетентніші за нас, 00:03:17.800 --> 00:03:21.576 що найменші відхилення між нашими та їхніми цілями NOTE Paragraph 00:03:21.600 --> 00:03:22.800 зможуть нас знищити. NOTE Paragraph 00:03:23.730 --> 00:03:26.430 Лише поміркуйте, як ми поводимося з мурахами. 00:03:26.600 --> 00:03:28.256 Ми не ненавидимо їх. 00:03:28.280 --> 00:03:30.336 Ми не звертаємо зі шляху, щоб нашкодити їм. 00:03:30.360 --> 00:03:32.736 Насправді іноді ми намагаємося не нашкодити їм. 00:03:32.760 --> 00:03:34.776 Ми переступаємо через них на стежці. 00:03:34.800 --> 00:03:36.936 Та коли їхня присутність 00:03:36.960 --> 00:03:39.420 відчутно конфліктує з будь-якою нашою метою, 00:03:39.420 --> 00:03:41.947 скажімо, коли ми будуємо таку споруду, як на зображенні, 00:03:41.981 --> 00:03:43.941 ми знищуємо їх без сумнівів. 00:03:44.480 --> 00:03:47.416 Тривога полягає в тому, що одного дня ми збудуємо машини, 00:03:47.440 --> 00:03:50.176 які, свідомі чи ні, 00:03:50.200 --> 00:03:52.690 можуть поставитися до нас так само байдуже. NOTE Paragraph 00:03:53.760 --> 00:03:56.720 Гадаю, що це здається багатьом з вас малоймовірним. 00:03:57.360 --> 00:04:03.696 Я впевнений, серед вас є ті, хто сумнівається, що надрозумні машини можливі, 00:04:03.720 --> 00:04:05.376 що й казати про неминучість. 00:04:05.400 --> 00:04:09.020 Тоді ви засумніваєтеся у правильності одного з таких припущень. 00:04:09.044 --> 00:04:10.616 А їх лише три. NOTE Paragraph 00:04:11.800 --> 00:04:16.519 Інтелект - це обробка інформації у фізичних системах. 00:04:17.320 --> 00:04:19.935 Насправді, це трохи більше, ніж припущення. 00:04:19.959 --> 00:04:23.416 Ми вже вбудували певний інтелект в наші машини, 00:04:23.440 --> 00:04:25.456 і багато з цих машин видають результати 00:04:25.480 --> 00:04:28.120 на рівні надлюдського інтелекту вже сьогодні. 00:04:28.840 --> 00:04:31.416 Та ми знаємо, що найменший привід 00:04:31.440 --> 00:04:34.056 може призвести до так званого "інтелектуального вибуху", 00:04:34.080 --> 00:04:37.736 спроможності гнучко мислити у багатьох сферах, 00:04:37.760 --> 00:04:40.896 адже наш мозок вже зміг це зробити. Чи не так? 00:04:40.920 --> 00:04:44.856 Я маю на увазі, що тут є лише атоми, 00:04:44.880 --> 00:04:49.376 та допоки ми продовжуємо будувати системи з атомів, 00:04:49.400 --> 00:04:52.096 що демонструють все більш інтелектуальну поведінку, 00:04:52.120 --> 00:04:54.656 ми поступово, якщо нас не зупинять, 00:04:54.680 --> 00:04:58.056 поступово вбудуємо загальний інтелект 00:04:58.080 --> 00:04:59.376 в наші машини. NOTE Paragraph 00:04:59.400 --> 00:05:02.836 Важливо зрозуміти, що рівень прогресу не має значення, 00:05:02.870 --> 00:05:06.256 тому що будь-який прогрес здатний призвести нас до фінального пункту. 00:05:06.280 --> 00:05:10.146 Нам не треба закону Мура, щоб продовжувати. Нам не потрібний експоненційний прогрес. 00:05:10.146 --> 00:05:11.680 Нам лише треба не зупинятися. NOTE Paragraph 00:05:13.480 --> 00:05:16.400 Друге припущення полягає в тому, що ми не зупинимося. 00:05:17.000 --> 00:05:19.760 Будемо далі удосконалювати наші розумні машини. 00:05:21.000 --> 00:05:25.376 Та враховуючи цінність інтелекту-- 00:05:25.400 --> 00:05:28.936 Я маю на увазі, інтелект є або джерелом всього, що ми цінуємо, 00:05:28.960 --> 00:05:31.736 або він нам потрібен, щоб зберегти все, що ми цінуємо. 00:05:31.760 --> 00:05:34.016 Це наш найцінніший ресурс. 00:05:34.040 --> 00:05:35.576 Тому ми хочемо це робити. 00:05:35.600 --> 00:05:38.936 В нас є проблеми, що їх нам вкрай необхідно залагодити. 00:05:38.960 --> 00:05:42.160 Ми хочемо лікувати такі захворювання, як Альцгеймер та рак. 00:05:42.960 --> 00:05:46.896 Ми хочемо зрозуміти економічні системи. Ми хочемо покращити нашу кліматичну науку. 00:05:46.920 --> 00:05:49.176 Тому ми будемо це робити, якщо зможемо. 00:05:49.200 --> 00:05:52.486 Потяг вже поїхав зі станції, і немає гальма, щоб його зупинити. NOTE Paragraph 00:05:53.880 --> 00:05:59.336 Нарешті, ми не стоїмо на вершині інтелекту, 00:05:59.360 --> 00:06:01.160 і навряд чи десь поблизу. 00:06:01.640 --> 00:06:03.536 І це насправді ключовий факт. 00:06:03.560 --> 00:06:05.976 Це те, що робить нашу ситуацію такою небезпечною, 00:06:06.000 --> 00:06:10.040 і це те, що робить нашу інтуїцію щодо ризику настільки ненадійною. NOTE Paragraph 00:06:11.120 --> 00:06:14.130 Тепер подумайте про найрозумнішу людину, яка будь-коли існувала. 00:06:14.640 --> 00:06:18.056 Майже у всіх у списку є Джон фон Нейман. 00:06:18.080 --> 00:06:21.416 Я гадаю, що враження, яке фон Нейман справляв на людей довкола, 00:06:21.440 --> 00:06:25.496 до яких входили найвидатніші математики та фізики його часу, 00:06:25.520 --> 00:06:27.456 достатньо добре задокументоване. 00:06:27.480 --> 00:06:31.256 Якщо лише половина історій про нього бодай наполовину правдива, 00:06:31.280 --> 00:06:32.496 немає сумнівів, що 00:06:32.520 --> 00:06:34.976 він один із найрозумніших людей, які коли-небудь існували. 00:06:35.000 --> 00:06:37.520 Тож обміркуємо спектр інтелекту. 00:06:38.320 --> 00:06:39.749 Ось тут у нас Джон фон Нейман. 00:06:41.560 --> 00:06:42.894 А ось тут ми з вами. 00:06:44.120 --> 00:06:45.416 А ось тут курка. NOTE Paragraph 00:06:45.440 --> 00:06:47.376 (Сміх) NOTE Paragraph 00:06:47.400 --> 00:06:48.616 Вибачте, курка. NOTE Paragraph 00:06:48.640 --> 00:06:49.896 (Сміх) NOTE Paragraph 00:06:49.920 --> 00:06:53.816 Мені нема чого робити цю промову гнітючішою, аніж вона має бути. NOTE Paragraph 00:06:53.816 --> 00:06:55.280 (Сміх) NOTE Paragraph 00:06:56.339 --> 00:06:59.816 Здається надзвичайно ймовірним, що спектр інтелекту 00:06:59.840 --> 00:07:02.960 простягається набагато далі, ніж ми сьогодні уявляємо, 00:07:03.880 --> 00:07:07.096 і якщо ми збудуємо машини, що розумніші за нас, 00:07:07.120 --> 00:07:09.416 вони, дуже ймовірно, розвідають цей спектр 00:07:09.440 --> 00:07:11.296 шляхами, які ми не можемо уявити, 00:07:11.320 --> 00:07:13.840 та перевершать нас так, як ми не можемо уявити. NOTE Paragraph 00:07:15.000 --> 00:07:19.336 Та важливо визнати, що це правда вже з огляду на саму силу швидкості. 00:07:19.360 --> 00:07:24.416 Правильно? Тож уявіть, що ми збудували надрозумний штучний інтелект, 00:07:24.440 --> 00:07:27.896 такий же розумний, як ваша середньостатистична команда дослідників 00:07:27.920 --> 00:07:30.216 у Стенфорді чи МТІ. 00:07:30.240 --> 00:07:32.950 Електронні ланцюги функціюють у мільйон разів швидше 00:07:32.990 --> 00:07:34.496 за біохемічні, 00:07:34.520 --> 00:07:37.656 тож ці машини мають думати в мільйон разів швидше, 00:07:37.680 --> 00:07:39.480 ніж розуми, що їх сконструювали. 00:07:39.480 --> 00:07:41.336 Тож ви запускаєте її на тиждень, 00:07:41.336 --> 00:07:45.760 і вона демонструє 20 000 років інтелектуальної роботи людського рівня, 00:07:46.400 --> 00:07:48.360 тиждень за тижнем, тиждень за тижнем. 00:07:49.640 --> 00:07:52.736 Як ми можемо зрозуміти, тим паче стримати 00:07:52.760 --> 00:07:55.610 інтелект, що так прогресує? NOTE Paragraph 00:07:56.840 --> 00:07:58.976 Тривогу викликає ще одна річ: 00:07:59.000 --> 00:08:03.976 це, уявіть собі, найкращий сценарій. 00:08:04.000 --> 00:08:08.176 А тепер уявіть, ми створюємо надрозумний штучний інтелект, 00:08:08.210 --> 00:08:09.586 не зважаючи на жодні міркування безпеки. 00:08:09.600 --> 00:08:12.856 В нас уперше з'являється бездоганний проект. 00:08:12.880 --> 00:08:15.096 Так наче ми отримали оракула, 00:08:15.120 --> 00:08:17.136 що поводиться саме так, як планувалося. 00:08:17.160 --> 00:08:20.880 Тож така машина була б ідеальним пристроєм з економії праці. 00:08:21.440 --> 00:08:24.109 Вона може проектувати машини, що можуть будувати машини, 00:08:24.133 --> 00:08:25.896 що можуть робити будь-яку фізичну роботу, 00:08:25.920 --> 00:08:27.476 працюватимуть на сонячній енергії, 00:08:27.476 --> 00:08:30.096 більш-менш за ціною сировини. 00:08:30.120 --> 00:08:33.376 Тож ми говоримо про кінець важкої людської праці. 00:08:33.400 --> 00:08:36.580 Ми також говоримо про кінець найбільш інтелектуальної праці. NOTE Paragraph 00:08:37.200 --> 00:08:40.256 То що ж такі мавпи, як ми, будуть робити за цих обставин? 00:08:40.280 --> 00:08:44.360 Ми зможемо вільно грати в Фрізбі та робити одне одному масаж. 00:08:45.840 --> 00:08:48.696 Додайте трохи ЛСД та трохи сумнівного гардеробу, 00:08:48.720 --> 00:08:50.896 і весь світ буде як фестиваль Burning Man. NOTE Paragraph 00:08:50.920 --> 00:08:52.560 (Сміх) NOTE Paragraph 00:08:54.320 --> 00:08:56.320 Непогано звучить, 00:08:57.280 --> 00:08:59.656 але запитайте себе, що станеться 00:08:59.680 --> 00:09:02.416 з нашим теперішнім економічним та політичним ладом? 00:09:02.440 --> 00:09:04.856 Ймовірно, ми станемо свідками 00:09:04.880 --> 00:09:09.016 такої нерівності розподілу багатства та безробіття, 00:09:09.040 --> 00:09:10.536 яких ми ніколи не бачили. 00:09:10.560 --> 00:09:13.176 Не бажаючи одразу використовувати це нове багатство 00:09:13.200 --> 00:09:14.680 на користь всього людства, 00:09:15.640 --> 00:09:19.256 декілька мільярдерів прикрасять обкладинки наших бізнес-журналів, 00:09:19.280 --> 00:09:21.720 тоді як решта світу голодуватиме. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 А що робитимуть росіяни та китайці, 00:09:24.640 --> 00:09:27.256 якщо вони почують, що якась компанія у Кремнієвій долині 00:09:27.280 --> 00:09:30.016 збирається ввести в дію надрозумний штучний інтелект? 00:09:30.040 --> 00:09:32.896 Ця машина зможе вести війну, 00:09:32.920 --> 00:09:35.136 наземну або кібер, 00:09:35.160 --> 00:09:36.840 з безпрецедентною могутністю. 00:09:38.120 --> 00:09:39.976 Це сценарій, де переможець отримує все. 00:09:40.000 --> 00:09:43.136 Бути на шість місяців попереду у цьому змаганні, 00:09:43.160 --> 00:09:45.936 це бути на 500 000 років попереду, 00:09:45.960 --> 00:09:47.456 як мінімум. 00:09:47.480 --> 00:09:52.216 Тож здається, що навіть незначні чутки про такі досягнення 00:09:52.240 --> 00:09:54.616 можуть спричинити люту ненависть між людьми. NOTE Paragraph 00:09:54.640 --> 00:09:57.536 Але одна з найжахливіших речей, 00:09:57.560 --> 00:10:00.336 на мою думку, на цей час - 00:10:00.360 --> 00:10:04.656 це те, що кажуть розробники штучного інтелекту, 00:10:04.680 --> 00:10:06.750 коли хочуть заспокоїти нас. 00:10:07.000 --> 00:10:10.456 Найпоширенішою підставою не турбуватися, кажуть вони, є час. 00:10:10.480 --> 00:10:12.536 Це ще так далеко, хіба ви не знаєте. 00:10:12.560 --> 00:10:15.000 Це ще може тривати 50 або 100 років. 00:10:15.720 --> 00:10:16.976 Один із дослідників сказав: 00:10:17.000 --> 00:10:18.576 "Хвилюватися через безпеку штучного інтелекту - 00:10:18.600 --> 00:10:20.880 те ж саме, що перейматися перенаселенням на Марсі". 00:10:22.116 --> 00:10:23.736 Це така версія Кремнієвої долини 00:10:23.760 --> 00:10:26.136 фрази: "Не забивай цим свою гарненьку голівку". NOTE Paragraph 00:10:26.160 --> 00:10:27.496 (Сміх) NOTE Paragraph 00:10:27.520 --> 00:10:29.416 Здається, ніхто не помічає, 00:10:29.440 --> 00:10:32.056 що посилатися на часову віддаленість - 00:10:32.080 --> 00:10:34.656 хибно. 00:10:34.680 --> 00:10:37.936 Якщо інтелект - це питання обробки інформації, 00:10:37.960 --> 00:10:40.616 і ми далі удосконалюватимемо наші машини, 00:10:40.640 --> 00:10:43.520 то ми створимо якусь форму супер-інтелекту. 00:10:44.320 --> 00:10:47.976 І ми не уявляємо, скільки часу нам потрібно, 00:10:48.000 --> 00:10:50.400 щоб створити умови, де це буде безпечно. 00:10:51.980 --> 00:10:53.496 Повторюю ще раз. 00:10:53.520 --> 00:10:57.336 Ми не уявляємо, скільки часу нам потрібно, 00:10:57.360 --> 00:11:00.250 щоб створити умови, де це буде безпечно. NOTE Paragraph 00:11:00.920 --> 00:11:04.376 І якщо ви не помітили, 50 років - вже не ті, що раніше. 00:11:04.400 --> 00:11:06.856 Це 50 років у місяцях. 00:11:06.880 --> 00:11:08.870 Стільки часу в нас уже є iPhone. 00:11:09.440 --> 00:11:12.040 Стільки часу "Сімпсони" вже існують на телебаченні. 00:11:12.550 --> 00:11:15.056 П'ятдесят років - це не так вже й багато часу, 00:11:15.080 --> 00:11:18.780 щоб прийняти найбільший виклик, з яким зіткнеться людський рід. 00:11:19.640 --> 00:11:23.656 Повторюю: ми, здається, не маємо відповідної емоційної реакції 00:11:23.680 --> 00:11:26.376 на те, що точно до нас наближається. NOTE Paragraph 00:11:26.400 --> 00:11:30.376 Комп'ютерний експерт Стюарт Рассел наводить гарну аналогію. 00:11:30.400 --> 00:11:35.296 Він сказав: "Уявіть, що ми отримали повідомлення від інопланетної цивілізації, 00:11:35.320 --> 00:11:37.016 в якому йдеться: 00:11:37.040 --> 00:11:38.576 "Земляни, 00:11:38.600 --> 00:11:40.960 ми прибудемо на вашу планету через 50 років. 00:11:41.800 --> 00:11:43.376 Готуйтеся". 00:11:43.400 --> 00:11:47.656 І тепер ми лише рахуємо місяці, що лишилися до прибуття космічного корабля? 00:11:47.680 --> 00:11:50.680 Ми б відчули тоді трохи більше терміновості, ніж ми відчуваємо тепер. NOTE Paragraph 00:11:52.470 --> 00:11:54.576 Інша причина, чому нам кажуть не хвилюватися, полягає в тому, 00:11:54.576 --> 00:11:57.576 що ці машини муситимуть поділяти наші цінності, 00:11:57.600 --> 00:12:00.216 адже вони будуть фактично продовженням нас самих. 00:12:00.240 --> 00:12:02.056 Їх трансплантують у наші мізки, 00:12:02.080 --> 00:12:04.440 і ми, по суті, станемо їхньою лімбічною системою. 00:12:05.120 --> 00:12:06.536 Але задумаймось: 00:12:06.560 --> 00:12:09.736 найбезпечніший та єдиний розважливий шлях уперед, 00:12:09.760 --> 00:12:11.096 що його нам рекомендують - 00:12:11.120 --> 00:12:13.920 це імплантація цієї технології прямо у мозок. 00:12:14.600 --> 00:12:17.976 Так, це може бути найбезпечнішим та єдиним розважливим шляхом уперед, 00:12:18.000 --> 00:12:21.056 але зазвичай усі проблеми з безпекою 00:12:21.080 --> 00:12:24.736 мають бути розв'язані до того, як технологію вставлять у вашу голову. NOTE Paragraph 00:12:24.760 --> 00:12:26.776 (Сміх) NOTE Paragraph 00:12:26.800 --> 00:12:32.136 Глибшою проблемою є те, що створення лише надрозумного штучного інтелекту 00:12:32.160 --> 00:12:33.896 здається легшим, 00:12:33.920 --> 00:12:35.776 ніж створення надрозумного штучного інтелекту 00:12:35.800 --> 00:12:37.576 та володіння повноцінною неврологією, 00:12:37.600 --> 00:12:40.570 яка б дала нам змогу ефективно інтегрувати наш розум із ним. 00:12:40.800 --> 00:12:43.976 І, знаючи це, компанії та уряди, що займаються цією розробкою, 00:12:44.000 --> 00:12:47.656 сприймають себе наче у перегонах проти всіх інших, 00:12:47.680 --> 00:12:50.936 тому що виграти ці перегони - це виграти світ, 00:12:50.960 --> 00:12:53.416 якщо звісно його не буде знищено наступної хвилини, 00:12:53.440 --> 00:12:56.056 отже, здається, що те, що зробити найлегше, 00:12:56.080 --> 00:12:57.280 зроблять у першу чергу. NOTE Paragraph 00:12:58.560 --> 00:13:01.416 На жаль, у мене немає розв'язку цієї проблеми, 00:13:01.440 --> 00:13:04.056 окрім як порадити, щоб більшість із нас думала про це. 00:13:04.080 --> 00:13:06.456 Гадаю, нам потрібно, щось на кшталт "Проекту Мангеттен" 00:13:06.480 --> 00:13:08.496 на тему штучного інтелекту. 00:13:08.520 --> 00:13:11.256 Не для того, щоб створити його, адже я думаю, ми неминуче це зробимо, 00:13:11.280 --> 00:13:14.616 а щоб зрозуміти, як уникнути збройних перегонів 00:13:14.640 --> 00:13:18.136 та створити його так, щоб він відповідав нашим інтересам. 00:13:18.160 --> 00:13:20.296 Коли ми розмовляємо про надрозумний штучний інтелект, 00:13:20.320 --> 00:13:22.576 що може самозмінюватися, 00:13:22.600 --> 00:13:27.216 здається, в нас є лише один шанс отримати правильні початкові умови, 00:13:27.240 --> 00:13:29.296 і навіть тоді нам доведеться пережити 00:13:29.320 --> 00:13:32.360 економічні та політичні наслідки отримання правильних умов. NOTE Paragraph 00:13:33.760 --> 00:13:35.816 Та в той момент. коли ми визнаємо, 00:13:35.840 --> 00:13:39.840 що оброблення інформації є джерелом інтелекту, 00:13:40.720 --> 00:13:45.520 що деякі відповідні обчислювальні системи є базою інтелекту, 00:13:46.360 --> 00:13:50.120 і визнаємо, що ми будемо удосконалювати ці системи беззупинно, 00:13:51.280 --> 00:13:55.736 а також те, що горизонт пізнання, скоріш за все, простягається набагато далі, 00:13:55.760 --> 00:13:57.400 ніж ми на цей час розуміємо, 00:13:57.860 --> 00:13:59.336 тоді нам доведеться визнати, 00:13:59.360 --> 00:14:02.000 що ми в процесі створення своєрідного бога. 00:14:03.400 --> 00:14:04.976 І настав час переконатися, 00:14:05.000 --> 00:14:06.953 що з цим богом ми зможемо жити. NOTE Paragraph 00:14:08.120 --> 00:14:09.656 Дуже вам дякую. NOTE Paragraph 00:14:09.680 --> 00:14:14.773 (Оплески)