1 00:00:01,103 --> 00:00:03,480 Сьогодні я розповім про нездатність до інтуїції, 2 00:00:03,480 --> 00:00:05,280 від якої страждають багато з нас. 3 00:00:05,280 --> 00:00:09,380 Це дійсно нездатність визначати певний вид небезпеки. 4 00:00:09,410 --> 00:00:10,950 Я опишу сценарій, 5 00:00:10,960 --> 00:00:14,094 що, на мою думку, є водночас жахливий 6 00:00:14,314 --> 00:00:16,310 та дуже ймовірний 7 00:00:16,760 --> 00:00:18,400 і не є гарною комбінацією, 8 00:00:18,400 --> 00:00:19,720 як виявляється. 9 00:00:19,990 --> 00:00:22,716 Та все одно, замість того, щоб злякатися, більшість з вас відчують, 10 00:00:22,804 --> 00:00:25,120 що те, про що я веду мову, скоріше прикольне. 11 00:00:25,550 --> 00:00:27,580 Я розповім, як прибутки, 12 00:00:27,580 --> 00:00:29,554 що ми отримуємо від штучного інтелекту, 13 00:00:29,554 --> 00:00:31,460 можуть, врешті-решт, знищити нас. 14 00:00:31,460 --> 00:00:34,566 Насправді, я думаю, дуже важко зрозуміти, як вони НЕ знищать нас 15 00:00:34,566 --> 00:00:36,880 або не надихнуть нас знищити самих себе. 16 00:00:37,250 --> 00:00:39,050 Та якщо ви такий як я, 17 00:00:39,050 --> 00:00:41,576 вам здасться, що думати про такі речі - весело, 18 00:00:41,856 --> 00:00:45,186 І така реакція є частиною проблеми. 19 00:00:45,186 --> 00:00:47,466 Ця реакція має хвилювати вас. 20 00:00:48,036 --> 00:00:50,720 І якщо б я хотів запевнити вас у цій промові, 21 00:00:50,790 --> 00:00:53,996 що нам, скоріше за все, доведеться страждати від глобального голоду 22 00:00:54,026 --> 00:00:56,556 через кліматичні зміни або якусь іншу катастрофу, 23 00:00:57,436 --> 00:01:00,386 та що ваші онуки та їхні онуки 24 00:01:00,466 --> 00:01:02,446 будуть ймовірно жити саме так, 25 00:01:03,096 --> 00:01:04,580 ви б не подумали: 26 00:01:05,410 --> 00:01:06,510 "Цікаво. 27 00:01:06,664 --> 00:01:08,430 Мені подобається цей виступ на ТED". 28 00:01:09,510 --> 00:01:11,310 Голод - це не весело. 29 00:01:11,760 --> 00:01:14,940 А от смерть у науковій фантастиці, з іншого боку - це весело, 30 00:01:14,940 --> 00:01:18,606 та одна з речей, що мене найбільше турбує щодо розвитку штучного інтелекту - 31 00:01:18,606 --> 00:01:23,260 це наша нездатність мати відповідну емоційну реакцію 32 00:01:23,260 --> 00:01:25,296 щодо небезпек, що чигають на нас попереду. 33 00:01:25,386 --> 00:01:28,766 Я не здатний осягнути цю реакцію і саме тому виступаю на цій сцені. 34 00:01:30,120 --> 00:01:32,816 Це так, наче ми стоїмо навпроти двох дверей. 35 00:01:32,840 --> 00:01:34,096 За дверима номер 1 36 00:01:34,120 --> 00:01:37,416 ми припиняємо прогрес у створенні розумних машин. 37 00:01:37,440 --> 00:01:41,456 Технічне та програмне забезпечення перестає покращуватись через якісь обставини. 38 00:01:41,480 --> 00:01:44,480 А тепер поміркуймо, чому б це могло трапитися. 39 00:01:45,080 --> 00:01:48,736 Знаючи, якими цінними є інтелект та автоматизація, 40 00:01:48,760 --> 00:01:52,280 ми продовжимо удосконалювати наші технології, якщо матимемо можливість. 41 00:01:53,200 --> 00:01:54,867 Що нас може зупинити від цього? 42 00:01:55,800 --> 00:01:57,600 Широкомасштабна ядерна війна? 43 00:01:59,000 --> 00:02:00,560 Глобальна пандемія? 44 00:02:02,320 --> 00:02:03,640 Падіння астероїду? 45 00:02:05,640 --> 00:02:08,216 Джастін Бібер, що став президентом Сполучених Штатів? 46 00:02:08,240 --> 00:02:10,520 (Сміх) 47 00:02:12,760 --> 00:02:16,680 Суть у тому, що щось має знищити цивілізацію у знайомому нас вигляді. 48 00:02:17,360 --> 00:02:21,656 Уявіть собі, яке страхіття має статися, 49 00:02:21,680 --> 00:02:25,016 щоб завадити нам удосконалювати наші технології 50 00:02:25,040 --> 00:02:26,256 постійно, 51 00:02:26,280 --> 00:02:28,296 покоління за поколінням. 52 00:02:28,320 --> 00:02:30,456 Майже за визначенням, це найгірше, 53 00:02:30,480 --> 00:02:32,496 що траплялося в історії людства. 54 00:02:32,520 --> 00:02:33,816 Тому єдиною альтернативою, 55 00:02:33,840 --> 00:02:36,176 а саме вона знаходиться за дверима номер два, 56 00:02:36,200 --> 00:02:39,336 є подальше удосконалення розумних машин 57 00:02:39,360 --> 00:02:40,960 рік за роком, рік за роком. 58 00:02:41,720 --> 00:02:45,360 Та в певний момент ми збудуємо машини, розумніші за нас, 59 00:02:46,080 --> 00:02:48,696 та щойно з'являться машини, що розумніші за нас, 60 00:02:48,720 --> 00:02:50,696 вони почнуть самі себе удосконалювати. 61 00:02:50,720 --> 00:02:53,456 А тоді ми ризикуємо тим, що математик І.Дж. Ґуд назвав 62 00:02:53,480 --> 00:02:55,256 "інтелектуальним вибухом", 63 00:02:55,540 --> 00:02:57,840 тим, що цей процес може вийти з-під нашого контролю. 64 00:02:58,120 --> 00:03:00,936 Тепер це часто висміюють, як ось на цьому зображенні, 65 00:03:00,960 --> 00:03:04,176 як страх, що армії злісних роботів 66 00:03:04,200 --> 00:03:05,456 нас атакують. 67 00:03:05,480 --> 00:03:08,176 Та це не найімовірніший сценарій. 68 00:03:08,200 --> 00:03:13,056 Йдеться не про те, що наші машини зненацька зробляться злими. 69 00:03:13,080 --> 00:03:15,696 Викликає тривогу те, що ми збудуємо машини, 70 00:03:15,720 --> 00:03:17,776 які будуть настільки компетентніші за нас, 71 00:03:17,800 --> 00:03:21,576 що найменші відхилення між нашими та їхніми цілями 72 00:03:21,600 --> 00:03:22,800 зможуть нас знищити. 73 00:03:23,730 --> 00:03:26,430 Лише поміркуйте, як ми поводимося з мурахами. 74 00:03:26,600 --> 00:03:28,256 Ми не ненавидимо їх. 75 00:03:28,280 --> 00:03:30,336 Ми не звертаємо зі шляху, щоб нашкодити їм. 76 00:03:30,360 --> 00:03:32,736 Насправді іноді ми намагаємося не нашкодити їм. 77 00:03:32,760 --> 00:03:34,776 Ми переступаємо через них на стежці. 78 00:03:34,800 --> 00:03:36,936 Та коли їхня присутність 79 00:03:36,960 --> 00:03:39,420 відчутно конфліктує з будь-якою нашою метою, 80 00:03:39,420 --> 00:03:41,947 скажімо, коли ми будуємо таку споруду, як на зображенні, 81 00:03:41,981 --> 00:03:43,941 ми знищуємо їх без сумнівів. 82 00:03:44,480 --> 00:03:47,416 Тривога полягає в тому, що одного дня ми збудуємо машини, 83 00:03:47,440 --> 00:03:50,176 які, свідомі чи ні, 84 00:03:50,200 --> 00:03:52,690 можуть поставитися до нас так само байдуже. 85 00:03:53,760 --> 00:03:56,720 Гадаю, що це здається багатьом з вас малоймовірним. 86 00:03:57,360 --> 00:04:03,696 Я впевнений, серед вас є ті, хто сумнівається, що надрозумні машини можливі, 87 00:04:03,720 --> 00:04:05,376 що й казати про неминучість. 88 00:04:05,400 --> 00:04:09,020 Тоді ви засумніваєтеся у правильності одного з таких припущень. 89 00:04:09,044 --> 00:04:10,616 А їх лише три. 90 00:04:11,800 --> 00:04:16,519 Інтелект - це обробка інформації у фізичних системах. 91 00:04:17,320 --> 00:04:19,935 Насправді, це трохи більше, ніж припущення. 92 00:04:19,959 --> 00:04:23,416 Ми вже вбудували певний інтелект в наші машини, 93 00:04:23,440 --> 00:04:25,456 і багато з цих машин видають результати 94 00:04:25,480 --> 00:04:28,120 на рівні надлюдського інтелекту вже сьогодні. 95 00:04:28,840 --> 00:04:31,416 Та ми знаємо, що найменший привід 96 00:04:31,440 --> 00:04:34,056 може призвести до так званого "інтелектуального вибуху", 97 00:04:34,080 --> 00:04:37,736 спроможності гнучко мислити у багатьох сферах, 98 00:04:37,760 --> 00:04:40,896 адже наш мозок вже зміг це зробити. Чи не так? 99 00:04:40,920 --> 00:04:44,856 Я маю на увазі, що тут є лише атоми, 100 00:04:44,880 --> 00:04:49,376 та допоки ми продовжуємо будувати системи з атомів, 101 00:04:49,400 --> 00:04:52,096 що демонструють все більш інтелектуальну поведінку, 102 00:04:52,120 --> 00:04:54,656 ми поступово, якщо нас не зупинять, 103 00:04:54,680 --> 00:04:58,056 поступово вбудуємо загальний інтелект 104 00:04:58,080 --> 00:04:59,376 в наші машини. 105 00:04:59,400 --> 00:05:02,836 Важливо зрозуміти, що рівень прогресу не має значення, 106 00:05:02,870 --> 00:05:06,256 тому що будь-який прогрес здатний призвести нас до фінального пункту. 107 00:05:06,280 --> 00:05:10,146 Нам не треба закону Мура, щоб продовжувати. Нам не потрібний експоненційний прогрес. 108 00:05:10,146 --> 00:05:11,680 Нам лише треба не зупинятися. 109 00:05:13,480 --> 00:05:16,400 Друге припущення полягає в тому, що ми не зупинимося. 110 00:05:17,000 --> 00:05:19,760 Будемо далі удосконалювати наші розумні машини. 111 00:05:21,000 --> 00:05:25,376 Та враховуючи цінність інтелекту-- 112 00:05:25,400 --> 00:05:28,936 Я маю на увазі, інтелект є або джерелом всього, що ми цінуємо, 113 00:05:28,960 --> 00:05:31,736 або він нам потрібен, щоб зберегти все, що ми цінуємо. 114 00:05:31,760 --> 00:05:34,016 Це наш найцінніший ресурс. 115 00:05:34,040 --> 00:05:35,576 Тому ми хочемо це робити. 116 00:05:35,600 --> 00:05:38,936 В нас є проблеми, що їх нам вкрай необхідно залагодити. 117 00:05:38,960 --> 00:05:42,160 Ми хочемо лікувати такі захворювання, як Альцгеймер та рак. 118 00:05:42,960 --> 00:05:46,896 Ми хочемо зрозуміти економічні системи. Ми хочемо покращити нашу кліматичну науку. 119 00:05:46,920 --> 00:05:49,176 Тому ми будемо це робити, якщо зможемо. 120 00:05:49,200 --> 00:05:52,486 Потяг вже поїхав зі станції, і немає гальма, щоб його зупинити. 121 00:05:53,880 --> 00:05:59,336 Нарешті, ми не стоїмо на вершині інтелекту, 122 00:05:59,360 --> 00:06:01,160 і навряд чи десь поблизу. 123 00:06:01,640 --> 00:06:03,536 І це насправді ключовий факт. 124 00:06:03,560 --> 00:06:05,976 Це те, що робить нашу ситуацію такою небезпечною, 125 00:06:06,000 --> 00:06:10,040 і це те, що робить нашу інтуїцію щодо ризику настільки ненадійною. 126 00:06:11,120 --> 00:06:14,130 Тепер подумайте про найрозумнішу людину, яка будь-коли існувала. 127 00:06:14,640 --> 00:06:18,056 Майже у всіх у списку є Джон фон Нейман. 128 00:06:18,080 --> 00:06:21,416 Я гадаю, що враження, яке фон Нейман справляв на людей довкола, 129 00:06:21,440 --> 00:06:25,496 до яких входили найвидатніші математики та фізики його часу, 130 00:06:25,520 --> 00:06:27,456 достатньо добре задокументоване. 131 00:06:27,480 --> 00:06:31,256 Якщо лише половина історій про нього бодай наполовину правдива, 132 00:06:31,280 --> 00:06:32,496 немає сумнівів, що 133 00:06:32,520 --> 00:06:34,976 він один із найрозумніших людей, які коли-небудь існували. 134 00:06:35,000 --> 00:06:37,520 Тож обміркуємо спектр інтелекту. 135 00:06:38,320 --> 00:06:39,749 Ось тут у нас Джон фон Нейман. 136 00:06:41,560 --> 00:06:42,894 А ось тут ми з вами. 137 00:06:44,120 --> 00:06:45,416 А ось тут курка. 138 00:06:45,440 --> 00:06:47,376 (Сміх) 139 00:06:47,400 --> 00:06:48,616 Вибачте, курка. 140 00:06:48,640 --> 00:06:49,896 (Сміх) 141 00:06:49,920 --> 00:06:53,816 Мені нема чого робити цю промову гнітючішою, аніж вона має бути. 142 00:06:53,816 --> 00:06:55,280 (Сміх) 143 00:06:56,339 --> 00:06:59,816 Здається надзвичайно ймовірним, що спектр інтелекту 144 00:06:59,840 --> 00:07:02,960 простягається набагато далі, ніж ми сьогодні уявляємо, 145 00:07:03,880 --> 00:07:07,096 і якщо ми збудуємо машини, що розумніші за нас, 146 00:07:07,120 --> 00:07:09,416 вони, дуже ймовірно, розвідають цей спектр 147 00:07:09,440 --> 00:07:11,296 шляхами, які ми не можемо уявити, 148 00:07:11,320 --> 00:07:13,840 та перевершать нас так, як ми не можемо уявити. 149 00:07:15,000 --> 00:07:19,336 Та важливо визнати, що це правда вже з огляду на саму силу швидкості. 150 00:07:19,360 --> 00:07:24,416 Правильно? Тож уявіть, що ми збудували надрозумний штучний інтелект, 151 00:07:24,440 --> 00:07:27,896 такий же розумний, як ваша середньостатистична команда дослідників 152 00:07:27,920 --> 00:07:30,216 у Стенфорді чи МТІ. 153 00:07:30,240 --> 00:07:32,950 Електронні ланцюги функціюють у мільйон разів швидше 154 00:07:32,990 --> 00:07:34,496 за біохемічні, 155 00:07:34,520 --> 00:07:37,656 тож ці машини мають думати в мільйон разів швидше, 156 00:07:37,680 --> 00:07:39,480 ніж розуми, що їх сконструювали. 157 00:07:39,480 --> 00:07:41,336 Тож ви запускаєте її на тиждень, 158 00:07:41,336 --> 00:07:45,760 і вона демонструє 20 000 років інтелектуальної роботи людського рівня, 159 00:07:46,400 --> 00:07:48,360 тиждень за тижнем, тиждень за тижнем. 160 00:07:49,640 --> 00:07:52,736 Як ми можемо зрозуміти, тим паче стримати 161 00:07:52,760 --> 00:07:55,610 інтелект, що так прогресує? 162 00:07:56,840 --> 00:07:58,976 Тривогу викликає ще одна річ: 163 00:07:59,000 --> 00:08:03,976 це, уявіть собі, найкращий сценарій. 164 00:08:04,000 --> 00:08:08,176 А тепер уявіть, ми створюємо надрозумний штучний інтелект, 165 00:08:08,210 --> 00:08:09,586 не зважаючи на жодні міркування безпеки. 166 00:08:09,600 --> 00:08:12,856 В нас уперше з'являється бездоганний проект. 167 00:08:12,880 --> 00:08:15,096 Так наче ми отримали оракула, 168 00:08:15,120 --> 00:08:17,136 що поводиться саме так, як планувалося. 169 00:08:17,160 --> 00:08:20,880 Тож така машина була б ідеальним пристроєм з економії праці. 170 00:08:21,440 --> 00:08:24,109 Вона може проектувати машини, що можуть будувати машини, 171 00:08:24,133 --> 00:08:25,896 що можуть робити будь-яку фізичну роботу, 172 00:08:25,920 --> 00:08:27,476 працюватимуть на сонячній енергії, 173 00:08:27,476 --> 00:08:30,096 більш-менш за ціною сировини. 174 00:08:30,120 --> 00:08:33,376 Тож ми говоримо про кінець важкої людської праці. 175 00:08:33,400 --> 00:08:36,580 Ми також говоримо про кінець найбільш інтелектуальної праці. 176 00:08:37,200 --> 00:08:40,256 То що ж такі мавпи, як ми, будуть робити за цих обставин? 177 00:08:40,280 --> 00:08:44,360 Ми зможемо вільно грати в Фрізбі та робити одне одному масаж. 178 00:08:45,840 --> 00:08:48,696 Додайте трохи ЛСД та трохи сумнівного гардеробу, 179 00:08:48,720 --> 00:08:50,896 і весь світ буде як фестиваль Burning Man. 180 00:08:50,920 --> 00:08:52,560 (Сміх) 181 00:08:54,320 --> 00:08:56,320 Непогано звучить, 182 00:08:57,280 --> 00:08:59,656 але запитайте себе, що станеться 183 00:08:59,680 --> 00:09:02,416 з нашим теперішнім економічним та політичним ладом? 184 00:09:02,440 --> 00:09:04,856 Ймовірно, ми станемо свідками 185 00:09:04,880 --> 00:09:09,016 такої нерівності розподілу багатства та безробіття, 186 00:09:09,040 --> 00:09:10,536 яких ми ніколи не бачили. 187 00:09:10,560 --> 00:09:13,176 Не бажаючи одразу використовувати це нове багатство 188 00:09:13,200 --> 00:09:14,680 на користь всього людства, 189 00:09:15,640 --> 00:09:19,256 декілька мільярдерів прикрасять обкладинки наших бізнес-журналів, 190 00:09:19,280 --> 00:09:21,720 тоді як решта світу голодуватиме. 191 00:09:22,320 --> 00:09:24,616 А що робитимуть росіяни та китайці, 192 00:09:24,640 --> 00:09:27,256 якщо вони почують, що якась компанія у Кремнієвій долині 193 00:09:27,280 --> 00:09:30,016 збирається ввести в дію надрозумний штучний інтелект? 194 00:09:30,040 --> 00:09:32,896 Ця машина зможе вести війну, 195 00:09:32,920 --> 00:09:35,136 наземну або кібер, 196 00:09:35,160 --> 00:09:36,840 з безпрецедентною могутністю. 197 00:09:38,120 --> 00:09:39,976 Це сценарій, де переможець отримує все. 198 00:09:40,000 --> 00:09:43,136 Бути на шість місяців попереду у цьому змаганні, 199 00:09:43,160 --> 00:09:45,936 це бути на 500 000 років попереду, 200 00:09:45,960 --> 00:09:47,456 як мінімум. 201 00:09:47,480 --> 00:09:52,216 Тож здається, що навіть незначні чутки про такі досягнення 202 00:09:52,240 --> 00:09:54,616 можуть спричинити люту ненависть між людьми. 203 00:09:54,640 --> 00:09:57,536 Але одна з найжахливіших речей, 204 00:09:57,560 --> 00:10:00,336 на мою думку, на цей час - 205 00:10:00,360 --> 00:10:04,656 це те, що кажуть розробники штучного інтелекту, 206 00:10:04,680 --> 00:10:06,750 коли хочуть заспокоїти нас. 207 00:10:07,000 --> 00:10:10,456 Найпоширенішою підставою не турбуватися, кажуть вони, є час. 208 00:10:10,480 --> 00:10:12,536 Це ще так далеко, хіба ви не знаєте. 209 00:10:12,560 --> 00:10:15,000 Це ще може тривати 50 або 100 років. 210 00:10:15,720 --> 00:10:16,976 Один із дослідників сказав: 211 00:10:17,000 --> 00:10:18,576 "Хвилюватися через безпеку штучного інтелекту - 212 00:10:18,600 --> 00:10:20,880 те ж саме, що перейматися перенаселенням на Марсі". 213 00:10:22,116 --> 00:10:23,736 Це така версія Кремнієвої долини 214 00:10:23,760 --> 00:10:26,136 фрази: "Не забивай цим свою гарненьку голівку". 215 00:10:26,160 --> 00:10:27,496 (Сміх) 216 00:10:27,520 --> 00:10:29,416 Здається, ніхто не помічає, 217 00:10:29,440 --> 00:10:32,056 що посилатися на часову віддаленість - 218 00:10:32,080 --> 00:10:34,656 хибно. 219 00:10:34,680 --> 00:10:37,936 Якщо інтелект - це питання обробки інформації, 220 00:10:37,960 --> 00:10:40,616 і ми далі удосконалюватимемо наші машини, 221 00:10:40,640 --> 00:10:43,520 то ми створимо якусь форму супер-інтелекту. 222 00:10:44,320 --> 00:10:47,976 І ми не уявляємо, скільки часу нам потрібно, 223 00:10:48,000 --> 00:10:50,400 щоб створити умови, де це буде безпечно. 224 00:10:51,980 --> 00:10:53,496 Повторюю ще раз. 225 00:10:53,520 --> 00:10:57,336 Ми не уявляємо, скільки часу нам потрібно, 226 00:10:57,360 --> 00:11:00,250 щоб створити умови, де це буде безпечно. 227 00:11:00,920 --> 00:11:04,376 І якщо ви не помітили, 50 років - вже не ті, що раніше. 228 00:11:04,400 --> 00:11:06,856 Це 50 років у місяцях. 229 00:11:06,880 --> 00:11:08,870 Стільки часу в нас уже є iPhone. 230 00:11:09,440 --> 00:11:12,040 Стільки часу "Сімпсони" вже існують на телебаченні. 231 00:11:12,550 --> 00:11:15,056 П'ятдесят років - це не так вже й багато часу, 232 00:11:15,080 --> 00:11:18,780 щоб прийняти найбільший виклик, з яким зіткнеться людський рід. 233 00:11:19,640 --> 00:11:23,656 Повторюю: ми, здається, не маємо відповідної емоційної реакції 234 00:11:23,680 --> 00:11:26,376 на те, що точно до нас наближається. 235 00:11:26,400 --> 00:11:30,376 Комп'ютерний експерт Стюарт Рассел наводить гарну аналогію. 236 00:11:30,400 --> 00:11:35,296 Він сказав: "Уявіть, що ми отримали повідомлення від інопланетної цивілізації, 237 00:11:35,320 --> 00:11:37,016 в якому йдеться: 238 00:11:37,040 --> 00:11:38,576 "Земляни, 239 00:11:38,600 --> 00:11:40,960 ми прибудемо на вашу планету через 50 років. 240 00:11:41,800 --> 00:11:43,376 Готуйтеся". 241 00:11:43,400 --> 00:11:47,656 І тепер ми лише рахуємо місяці, що лишилися до прибуття космічного корабля? 242 00:11:47,680 --> 00:11:50,680 Ми б відчули тоді трохи більше терміновості, ніж ми відчуваємо тепер. 243 00:11:52,470 --> 00:11:54,576 Інша причина, чому нам кажуть не хвилюватися, полягає в тому, 244 00:11:54,576 --> 00:11:57,576 що ці машини муситимуть поділяти наші цінності, 245 00:11:57,600 --> 00:12:00,216 адже вони будуть фактично продовженням нас самих. 246 00:12:00,240 --> 00:12:02,056 Їх трансплантують у наші мізки, 247 00:12:02,080 --> 00:12:04,440 і ми, по суті, станемо їхньою лімбічною системою. 248 00:12:05,120 --> 00:12:06,536 Але задумаймось: 249 00:12:06,560 --> 00:12:09,736 найбезпечніший та єдиний розважливий шлях уперед, 250 00:12:09,760 --> 00:12:11,096 що його нам рекомендують - 251 00:12:11,120 --> 00:12:13,920 це імплантація цієї технології прямо у мозок. 252 00:12:14,600 --> 00:12:17,976 Так, це може бути найбезпечнішим та єдиним розважливим шляхом уперед, 253 00:12:18,000 --> 00:12:21,056 але зазвичай усі проблеми з безпекою 254 00:12:21,080 --> 00:12:24,736 мають бути розв'язані до того, як технологію вставлять у вашу голову. 255 00:12:24,760 --> 00:12:26,776 (Сміх) 256 00:12:26,800 --> 00:12:32,136 Глибшою проблемою є те, що створення лише надрозумного штучного інтелекту 257 00:12:32,160 --> 00:12:33,896 здається легшим, 258 00:12:33,920 --> 00:12:35,776 ніж створення надрозумного штучного інтелекту 259 00:12:35,800 --> 00:12:37,576 та володіння повноцінною неврологією, 260 00:12:37,600 --> 00:12:40,570 яка б дала нам змогу ефективно інтегрувати наш розум із ним. 261 00:12:40,800 --> 00:12:43,976 І, знаючи це, компанії та уряди, що займаються цією розробкою, 262 00:12:44,000 --> 00:12:47,656 сприймають себе наче у перегонах проти всіх інших, 263 00:12:47,680 --> 00:12:50,936 тому що виграти ці перегони - це виграти світ, 264 00:12:50,960 --> 00:12:53,416 якщо звісно його не буде знищено наступної хвилини, 265 00:12:53,440 --> 00:12:56,056 отже, здається, що те, що зробити найлегше, 266 00:12:56,080 --> 00:12:57,280 зроблять у першу чергу. 267 00:12:58,560 --> 00:13:01,416 На жаль, у мене немає розв'язку цієї проблеми, 268 00:13:01,440 --> 00:13:04,056 окрім як порадити, щоб більшість із нас думала про це. 269 00:13:04,080 --> 00:13:06,456 Гадаю, нам потрібно, щось на кшталт "Проекту Мангеттен" 270 00:13:06,480 --> 00:13:08,496 на тему штучного інтелекту. 271 00:13:08,520 --> 00:13:11,256 Не для того, щоб створити його, адже я думаю, ми неминуче це зробимо, 272 00:13:11,280 --> 00:13:14,616 а щоб зрозуміти, як уникнути збройних перегонів 273 00:13:14,640 --> 00:13:18,136 та створити його так, щоб він відповідав нашим інтересам. 274 00:13:18,160 --> 00:13:20,296 Коли ми розмовляємо про надрозумний штучний інтелект, 275 00:13:20,320 --> 00:13:22,576 що може самозмінюватися, 276 00:13:22,600 --> 00:13:27,216 здається, в нас є лише один шанс отримати правильні початкові умови, 277 00:13:27,240 --> 00:13:29,296 і навіть тоді нам доведеться пережити 278 00:13:29,320 --> 00:13:32,360 економічні та політичні наслідки отримання правильних умов. 279 00:13:33,760 --> 00:13:35,816 Та в той момент. коли ми визнаємо, 280 00:13:35,840 --> 00:13:39,840 що оброблення інформації є джерелом інтелекту, 281 00:13:40,720 --> 00:13:45,520 що деякі відповідні обчислювальні системи є базою інтелекту, 282 00:13:46,360 --> 00:13:50,120 і визнаємо, що ми будемо удосконалювати ці системи беззупинно, 283 00:13:51,280 --> 00:13:55,736 а також те, що горизонт пізнання, скоріш за все, простягається набагато далі, 284 00:13:55,760 --> 00:13:57,400 ніж ми на цей час розуміємо, 285 00:13:57,860 --> 00:13:59,336 тоді нам доведеться визнати, 286 00:13:59,360 --> 00:14:02,000 що ми в процесі створення своєрідного бога. 287 00:14:03,400 --> 00:14:04,976 І настав час переконатися, 288 00:14:05,000 --> 00:14:06,953 що з цим богом ми зможемо жити. 289 00:14:08,120 --> 00:14:09,656 Дуже вам дякую. 290 00:14:09,680 --> 00:14:14,773 (Оплески)