0:00:01.000,0:00:02.809 Крис Андерсон: Ник Бостром 0:00:02.833,0:00:06.809 Вы уже делились[br]с нами своими безумными идеями. 0:00:06.833,0:00:08.559 Пару десятилетий назад, как мне 0:00:08.583,0:00:11.518 помнится, вы предположили, [br]что мы будем жить в симуляции 0:00:11.542,0:00:13.351 или мы уже в ней. 0:00:13.375,0:00:14.726 А относительно недавно 0:00:14.750,0:00:19.351 вы представили самый наглядный пример [br]того, как может навредить 0:00:19.375,0:00:21.208 всеобщий искусственный интеллект. 0:00:21.750,0:00:23.143 И уже в этом году 0:00:23.167,0:00:25.393 вы собираетесь издавать 0:00:25.417,0:00:29.351 книгу с самыми уязвимыми [br]мировыми гипотезами. 0:00:29.375,0:00:33.958 И сегодняшний выпуск должен стать[br]иллюстрированным руководством к ней. 0:00:34.417,0:00:36.250 Давайте начнём. 0:00:36.833,0:00:38.625 Что это за гипотезы? 0:00:40.000,0:00:42.778 Ник Бостром: Это попытка осмысления[br]структурных компонентов 0:00:42.778,0:00:45.542 текущего состояния человечества. 0:00:47.125,0:00:49.476 Вам нравится метафора про урну, 0:00:49.500,0:00:51.393 поэтому я использую её. 0:00:51.417,0:00:55.768 Представьте большу́ю урну, [br]наполненную шарами, 0:00:55.792,0:00:59.750 которые представляют собой идеи, методы 0:01:00.833,0:01:04.559 и всевозможные технологии. [br]Всю творческую деятельность человечества 0:01:04.583,0:01:08.393 можно сравнить с погружением в эту урну [br]и вытаскиванием оттуда шариков. 0:01:08.417,0:01:11.643 И долгие годы мы всегда [br]получали только пользу от этого, верно? 0:01:11.667,0:01:14.393 Мы изъяли слишком много белых шаров, 0:01:14.417,0:01:17.382 несколько с оттенками серого, [br]с неоднозначными последствиями. 0:01:18.042,0:01:21.000 Но нам так давно не попадался[br]чёрный шар — технология, 0:01:22.292,0:01:27.768 которая непременно уничтожит[br]своих создателей. 0:01:27.792,0:01:31.059 В книге содержатся версии того,[br]что́ будет внутри чёрного шара. 0:01:31.083,0:01:32.893 КА: То есть, вы определяете этот шар 0:01:32.917,0:01:36.601 как причину гибели цивилизации. 0:01:36.625,0:01:41.934 НБ: Пока мы не выйдем из своего[br]стандартного состояния полуанархии, 0:01:41.958,0:01:43.458 [br]как я это называю. 0:01:44.333,0:01:47.851 КА: В качестве доказательства вы приводите 0:01:47.875,0:01:49.893 несколько контрпримеров. 0:01:49.917,0:01:52.851 Вы убеждены, что нам везло[br]на протяжении многих лет. 0:01:52.875,0:01:55.726 И возможно мы, сами того не подозревая, 0:01:55.750,0:01:57.309 уже вытянули этот шар смерти. 0:01:57.333,0:01:59.625 Также вы приводите цитату. [br]Что она означает? 0:02:00.625,0:02:03.309 НБ: Она только показывает, 0:02:03.333,0:02:05.434 насколько сложно предусмотреть 0:02:05.458,0:02:08.143 все последствия базовых открытий. 0:02:08.167,0:02:11.226 У нас нет такой возможности. 0:02:11.250,0:02:14.601 Мы хорошо научились[br]вытаскивать шары из урны, 0:02:14.625,0:02:18.351 но не умеем возвращать их обратно. 0:02:18.375,0:02:20.542 То есть, мы можем изобретать, [br]но не наоборот. 0:02:21.583,0:02:24.351 В качестве стратегии[br]у нас есть только надежда на то, 0:02:24.375,0:02:26.809 что в урне нет шаров чёрного цвета. 0:02:26.833,0:02:30.893 КА: Однажды мы его вытащим[br]и не сможем вернуть обратно, 0:02:30.917,0:02:32.434 и вы считаете нам пока везло. 0:02:32.458,0:02:34.684 Прокомментируйте примеры,[br]где вы упоминаете 0:02:34.708,0:02:37.809 несколько типов уязвимости. 0:02:37.833,0:02:40.268 НБ: Самый простой тип для понимания — 0:02:40.292,0:02:43.434 технология, которая сможет [br]без особого труда 0:02:43.458,0:02:45.583 вызвать много массовых разрушений. 0:02:47.375,0:02:50.893 Синтетическая биология может стать[br]богатым источником 0:02:50.917,0:02:53.601 чёрных шаров подобного рода. 0:02:53.625,0:02:56.143 Также стоит задуматься[br]о продуктах геоинженерии. 0:02:56.167,0:02:58.393 Мы можем бороться[br]с глобальным потеплением, 0:02:58.417,0:03:00.559 но не нужно облегчать себе задачу. 0:03:00.583,0:03:03.059 Не нужно, чтобы случайный человек[br]и его бабушка 0:03:03.083,0:03:06.143 имели возможность радикальным образом[br]изменить климат на земле. 0:03:06.167,0:03:09.726 Или смертоносные беспилотные дроны[br]размером с комара, 0:03:09.750,0:03:13.083 которые массово производят[br]для уничтожения вредителей 0:03:14.500,0:03:17.226 Нанотехнологии, [br]всеобщий искусственный интеллект. 0:03:17.250,0:03:18.559 КА: В книге есть сомнение, 0:03:18.583,0:03:21.476 что нам повезло открыть ядерную энергию 0:03:21.500,0:03:24.934 для создания атомной бомбы. 0:03:24.958,0:03:26.351 Возможно, это тот случай, 0:03:26.375,0:03:28.226 когда возможно создать бомбу 0:03:28.250,0:03:31.809 с помощью более лёгких ресурсов,[br]доступных каждому. 0:03:31.833,0:03:35.393 НБ: Вернёмся в 30-е годы ХХ века, 0:03:35.417,0:03:40.018 когда мы впервые достигли прогресса [br]в ядерной физике. 0:03:40.042,0:03:43.726 Некоторые выдающиеся учёные выяснили, [br]как создать цепную ядерную реакцию 0:03:43.750,0:03:46.934 и потом довели её до бомбы. 0:03:46.958,0:03:48.851 Мы провели исследование. 0:03:48.875,0:03:51.601 Выяснилось, что для создания[br]атомной бомбы, содержащей 0:03:51.625,0:03:54.018 в огромном количестве уран и плутоний, 0:03:54.042,0:03:56.059 которые получить довольно трудно, 0:03:56.083,0:03:58.351 нужны ультрацентрифуги, нужны реакторы, 0:03:58.375,0:04:02.143 а также большое количество энергии. 0:04:02.167,0:04:03.976 Мы предполагаем, что вместо этого 0:04:04.000,0:04:07.976 существует более лёгкий способ [br]высвободить энергию из атома. 0:04:08.000,0:04:10.768 А что, если окажется возможным[br]вызвать ядерный взрыв 0:04:10.792,0:04:12.059 из песка в микроволновке 0:04:12.083,0:04:14.184 или более простым способом. 0:04:14.208,0:04:16.351 Сейчас это невозможно[br]с точки зрения физики. 0:04:16.375,0:04:18.268 Но пока не проведены такие опыты, 0:04:18.292,0:04:20.483 как узнать, что из этого выйдет? 0:04:20.507,0:04:22.059 КА: Согласитесь, для нормального 0:04:22.083,0:04:24.018 развития жизни на Земле необходима 0:04:24.042,0:04:27.309 стабильная среда. 0:04:27.333,0:04:31.078 И если бы имелся более лёгкий способ[br]получения крупных ядерных реакций, 0:04:31.078,0:04:33.400 то стабильной среды на Земле[br]бы не существовало, 0:04:33.424,0:04:34.976 и нас здесь не было. 0:04:35.000,0:04:38.393 НБ: Да, если бы существовало что-то,[br]созданное специально, 0:04:38.417,0:04:41.268 а не само по себе. 0:04:41.292,0:04:42.871 Так мы делаем многое. 0:04:42.896,0:04:45.006 Мы можем уложить 10 блоков друг на друга, 0:04:45.031,0:04:48.228 но в природе такого не встретишь. 0:04:48.253,0:04:49.926 КА: А сейчас поговорим о том, 0:04:49.950,0:04:51.893 что волнует нас больше всего. 0:04:51.917,0:04:55.434 На данный момент, из того,[br]что мы можем предсказать, 0:04:55.458,0:04:58.476 синтетическая биология — кратчайший путь[br]к самоуничтожению. 0:04:58.500,0:05:01.434 НБ: И только представьте,[br]как это будет выглядеть, 0:05:01.458,0:05:05.101 если сказать кому-то, [br]что он может разнести город, 0:05:05.125,0:05:06.518 готовя что-то на кухне. 0:05:06.542,0:05:10.101 Трудно представить, как современная[br]цивилизация в привычном нам виде 0:05:10.125,0:05:11.559 сможет пережить подобное. 0:05:11.583,0:05:14.101 Потому что среди любого [br]многомилионного населения 0:05:14.125,0:05:16.809 найдутся те, кто по непонятной причине 0:05:16.833,0:05:18.987 захотят использовать[br]эту разрушительную силу. 0:05:19.750,0:05:22.893 И если бы этот любитель апокалипсиса 0:05:22.917,0:05:24.977 выбрал бы уничтожить город[br]или, что-то хуже, 0:05:24.977,0:05:26.476 то города были бы разрушены. 0:05:26.500,0:05:28.851 КА: Есть другой тип уязвимости. 0:05:28.875,0:05:30.518 Расскажите о нём, пожалуйста. 0:05:30.542,0:05:34.518 НБ: Помимо простых для понимания[br]чёрных шаров, 0:05:34.542,0:05:37.352 которые снесут всё на своем пути, 0:05:37.376,0:05:41.809 другие будут создавать людям стимул[br]для совершения плохих поступков 0:05:41.833,0:05:44.059 и причинение вреда. 0:05:44.083,0:05:48.184 То есть, если подумать о так называемом [br]Типе-2а, то это технология, 0:05:48.208,0:05:52.726 которая подвигнет великие мировые державы 0:05:52.750,0:05:57.226 на использование всей своей военной мощи [br]для разрушения. 0:05:57.250,0:06:00.083 На самом деле, ядерное оружие[br]очень близко к этому, да? 0:06:02.083,0:06:05.143 Что мы сделали: мы потратили более [br]10 триллионов долларов 0:06:05.167,0:06:07.584 на создание 70 тыс. ядерных боеголовок 0:06:07.584,0:06:10.143 и держим их в состоянии повышенной [br]боевой готовности. 0:06:10.167,0:06:12.334 Во время Холодной войны мы несколько раз 0:06:12.334,0:06:13.893 были на грани взаимоуничтожения. 0:06:13.917,0:06:17.018 Не потому, что люди считают [br]замечательной идеей 0:06:17.042,0:06:19.726 спустить 10 миллионов долларов[br]на самоуничтожение. 0:06:19.750,0:06:22.684 Стимулировало то, что мы только ищем себя, 0:06:22.708,0:06:24.018 и это могло быть худшим. 0:06:24.042,0:06:27.020 Представьте, если бы первый удар[br]прошёл без особых последствий, 0:06:27.020,0:06:28.809 то было бы очень сложно 0:06:28.833,0:06:30.101 в кризисной ситуации 0:06:30.125,0:06:32.602 воздержаться от запуска[br]всех ядерных ракет. 0:06:32.626,0:06:36.018 Если не иначе, потому что вы боитесь,[br]что это сделают с другой стороны. 0:06:36.042,0:06:37.851 КА: Гарантированное взаимоуничтожение 0:06:37.875,0:06:40.601 поддерживало стабильность[br]в период холодной войны. 0:06:40.625,0:06:42.559 Иначе нас бы тут не было. 0:06:42.583,0:06:44.893 НБ: Да, это бы сделало её[br]более нестабильной. 0:06:44.917,0:06:47.268 Тут могла бы проявиться[br]другая сторона технологий. 0:06:47.268,0:06:49.735 Было бы труднее достигнуть[br]соглашений по вооружению, 0:06:49.735,0:06:51.226 если бы вместо ядерного оружия 0:06:51.250,0:06:54.268 существовал какой-нибудь[br]мелкий предмет или менее заметный. 0:06:54.292,0:06:56.851 КА: Как и плохие мотивы[br]влиятельных субъектов мира, 0:06:56.875,0:07:00.393 вы также переживаете из-за плохих[br]побуждений каждого из нас в типе 2б. 0:07:00.417,0:07:04.667 НБ: Да, тут лучше взять в пример[br]глобальное потепление. 0:07:06.958,0:07:08.851 Каждый из нас пользуется в быту 0:07:08.875,0:07:11.059 какими-то современными удобствами, 0:07:11.083,0:07:13.934 использование которых не имеет[br]значительных последствий, так? 0:07:13.958,0:07:15.934 Но миллиарды людей делают то же самое, 0:07:15.958,0:07:18.018 что вместе имеет разрушительное действие 0:07:18.042,0:07:20.851 сейчас проблема глобального[br]потепления может усугубиться. 0:07:20.875,0:07:23.851 Существует параметр влияния на климат. 0:07:23.875,0:07:27.518 Он показывает на сколько[br]усилится потепление 0:07:27.542,0:07:30.226 при выхлопе определённого количества [br]парниковых газов. 0:07:30.250,0:07:32.643 Предположим, что при количестве[br]парниковых газов, 0:07:32.667,0:07:35.184 выпускаемых на данный момент, 0:07:35.208,0:07:37.268 к 2100 году вместо увеличения температуры 0:07:37.292,0:07:41.018 всего на 3–4,5 градуса мы столкнёмся 0:07:41.042,0:07:43.542 с увеличением на 15 или даже 20 градусов. 0:07:44.375,0:07:46.934 То есть мы можем оказаться [br]в очень плохом положении. 0:07:46.958,0:07:50.255 Предположим, что очень сложно создать [br]возобновляемый источник энергии 0:07:50.255,0:07:52.768 или в земле есть больше [br]ископаемых видов топлива 0:07:52.792,0:07:55.434 КА: Утверждаете ли вы, [br]что если тот образ жизни, 0:07:55.458,0:07:57.184 который мы ведём сегодня 0:07:57.208,0:08:01.768 со временем приведёт[br]к видимой разнице в 10 градусов, 0:08:01.792,0:08:05.476 то люди бы уже засуетились[br]и сделали что-нибудь с этим. 0:08:05.500,0:08:08.309 Возможно, мы и глупы, но не настолько. 0:08:08.333,0:08:09.601 Но кто знает. 0:08:09.625,0:08:11.027 НБ: Я бы не был так уверен. 0:08:11.027,0:08:13.101 (Смех) 0:08:13.125,0:08:14.809 Подумайте и о других свойствах. 0:08:14.833,0:08:20.351 На данный момент переключиться на [br]возобновляемые энергоносители и подобные 0:08:20.375,0:08:21.643 вещи сложно, но возможно. 0:08:21.667,0:08:24.643 Возможно с использованием[br]немного других физических свойств 0:08:24.667,0:08:27.458 осуществление этого выйдет намного дороже. 0:08:28.375,0:08:29.893 КА: А какое у вас мнение? 0:08:29.917,0:08:32.351 Находится ли наша планета, 0:08:32.375,0:08:36.643 человечество со всеми своими [br]техническими возможностями, 0:08:36.667,0:08:38.226 в уязвимом положении? 0:08:38.250,0:08:40.667 Есть ли шар смерти в нашем будущем? 0:08:43.958,0:08:45.226 НБ: Трудно сказать. 0:08:45.250,0:08:50.309 Я думаю, что в этой урне[br]с большой вероятностью будут 0:08:50.333,0:08:51.643 разнообразные чёрные шары. 0:08:51.667,0:08:54.059 Но также будут и золотые, 0:08:54.083,0:08:57.559 которые помогут нам в битве [br]против чёрных шаров. 0:08:57.583,0:09:00.559 Но я не знаю, в каком порядке[br]они будут появляться. 0:09:00.583,0:09:04.434 КА: Ваша идея слегка противоречит 0:09:04.458,0:09:10.101 философской мысли о том, что будущее [br]предопределено и неизбежно, 0:09:10.125,0:09:12.601 независимо от цвета очередного шара 0:09:12.625,0:09:15.643 и в некоторой степени 0:09:15.667,0:09:18.268 мне не хочется верить в такое будущее. 0:09:18.292,0:09:20.643 Я хочу верить, что будущее [br]не предопределено, 0:09:20.667,0:09:22.601 что решения, принимаемые нами сегодня, 0:09:22.625,0:09:24.833 повлияют на цвет шара, который мы вытащим. 0:09:25.917,0:09:29.684 НБ: Я думаю, если мы будем [br]продолжать изобретать 0:09:29.708,0:09:32.042 в конечном итоге мы вытащим все шары. 0:09:32.875,0:09:35.928 Есть некая слабая форма[br]технологического детерминизма, 0:09:35.928,0:09:37.559 которая имеет веские основания, 0:09:37.583,0:09:40.226 то есть вы вряд ли встретите сообщество, 0:09:40.250,0:09:43.293 где пользуются кремниевыми топорами [br]и реактивными самолетами. 0:09:44.208,0:09:48.268 Технологии можно считать[br]пакетом возможностей. 0:09:48.292,0:09:51.309 Технологии позволяют нам [br]делать различные вещи и достигать 0:09:51.333,0:09:53.309 разнообразных результатов в мире. 0:09:53.333,0:09:56.143 Как использовать их,[br]зависит только от нашего выбора. 0:09:56.167,0:09:58.851 Но если задуматься об этих [br]трёх типах уязвимости 0:09:58.875,0:10:02.268 они могут пошатнуть представление[br]об их использовании 0:10:02.292,0:10:05.684 Напомню, первый тип уязвимости —[br]огромная разрушительная сила 0:10:05.708,0:10:07.143 и предположение о том, 0:10:07.167,0:10:09.559 что среди многомиллионного населения[br]найдутся те, 0:10:09.583,0:10:12.518 кто захотят использовать её[br]для разрушения, довольно слабое. 0:10:12.542,0:10:14.976 КА: Меня больше всего[br]беспокоит мысль о том, 0:10:15.000,0:10:19.559 что мы на данный момент в некотором роде [br]погрузились в эту урну настолько, 0:10:19.583,0:10:23.101 чтобы понять, что мы обречены. 0:10:23.125,0:10:27.768 То есть, если вы верите в увеличение мощи, 0:10:27.792,0:10:30.059 в развитие технологий, 0:10:30.083,0:10:32.518 в создание техники,[br]которая сделает нас сильнее, 0:10:32.542,0:10:35.184 то в какой-то момент вы доходите до мысли, 0:10:35.208,0:10:38.268 что отдельно взятый человек[br]может уничтожить всех нас. 0:10:38.292,0:10:41.143 И в таком случае нам всем конец. 0:10:41.167,0:10:44.101 Вас это не тревожит? 0:10:44.125,0:10:45.875 НБ: Ах, да 0:10:46.708,0:10:47.976 (Смех) 0:10:48.000,0:10:49.333 Я считаю.... 0:10:50.875,0:10:52.476 Да, мы становимся всё сильнее, 0:10:52.500,0:10:56.434 и применять эту силу становится всё легче, 0:10:56.458,0:11:00.018 но мы также можем изобрести технологию,[br]которая позволит нам контролировать 0:11:00.042,0:11:02.059 использование этой силы людьми 0:11:02.083,0:11:04.934 КА: Давайте обсудим это.[br]Поговорим об ответных реакциях. 0:11:04.958,0:11:07.268 Предположим,[br]размышляя о всех возможностях, 0:11:07.292,0:11:09.393 которые мы имеем на сегодняшний день, — 0:11:09.417,0:11:13.143 это не только синбиотехнологии,[br]но и вещи вроде кибервойны, 0:11:13.167,0:11:16.518 искусственный интеллект и т.д. — 0:11:16.542,0:11:21.059 за что, возможно, в будущем[br]нас ожидает серьёзная расплата. 0:11:21.083,0:11:22.684 Какими будут ответные реакции? 0:11:22.708,0:11:27.601 Вы упомянули также четыре типа [br]этих ответных реакций. 0:11:27.625,0:11:31.268 НБ: Ограничение в развитии технического[br]прогресса не вселяет надежды, 0:11:31.292,0:11:34.518 если мы все имеем в виду остановку [br]технического прогресса в целом. 0:11:34.542,0:11:35.809 Я думаю, у нас нет 0:11:35.833,0:11:38.143 ни желания, ни возможности сделать это. 0:11:38.167,0:11:41.184 Или, возможно, только в некоторых областях 0:11:41.208,0:11:43.934 вам захочется замедлить [br]технический прогресс 0:11:43.958,0:11:47.351 Я думаю, вы не захотите быстрого развития[br]биологического оружия 0:11:47.375,0:11:49.434 или разделения изотопов,[br]что поспособствует 0:11:49.458,0:11:51.708 более лёгкому созданию ядерного оружия 0:11:52.583,0:11:55.893 КА: Я полностью согласен с вами, 0:11:55.917,0:11:59.184 но я бы хотел заострить внимание на этом, 0:11:59.208,0:12:00.518 во-первых, потому что, 0:12:00.542,0:12:03.226 если посмотреть на историю [br]двух последних десятилетий, 0:12:03.250,0:12:06.809 мы продвигаемся вперёд на полной скорости, 0:12:06.833,0:12:08.684 хорошо, что это только наш выбор, 0:12:08.708,0:12:12.976 но если посмотреть на глобализацию[br]и её стремительный рост, 0:12:13.000,0:12:16.434 на стратегию [br]«двигайся быстрее и ломай преграды» 0:12:16.458,0:12:18.518 и во что это превратилось, 0:12:18.542,0:12:21.309 а потом на весь потенциал[br]синтетической биологии. 0:12:21.333,0:12:25.768 Я не уверен, что нам стоит продвигаться[br]настолько быстро, 0:12:25.792,0:12:27.434 без каких-либо ограничений, 0:12:27.458,0:12:30.768 в мир, где ДНК-принтер будет [br]в каждом доме и в лаборатории 0:12:30.792,0:12:32.125 старшей школы 0:12:33.167,0:12:34.851 Должны быть какие-то ограничения. 0:12:34.875,0:12:37.518 НБ: Возможно, первая часть,[br]не самая подходящая. 0:12:37.542,0:12:39.726 Если люди всё же захотят остановить это, 0:12:39.750,0:12:41.476 то возникнут проблемы с реализацией. 0:12:41.500,0:12:44.309 Ничего на деле не выйдет,[br]если население одной страны... 0:12:44.333,0:12:46.351 КА: Нет, если действует только один народ, 0:12:46.375,0:12:49.309 но мы уже заключали [br]международные соглашения ранее. 0:12:49.333,0:12:52.684 Благодаря этому нам удалось[br]устранить ядерную угрозу 0:12:52.708,0:12:53.976 путём встреч 0:12:54.000,0:12:56.518 и длительных сложных переговоров. 0:12:56.542,0:13:01.976 Интересно, не будет ли нам более логично[br]не выходить сюда по важному делу 0:13:02.000,0:13:03.684 и пытаться обсуждать 0:13:03.708,0:13:06.393 строгие правила по вопросам 0:13:06.417,0:13:09.101 синтетических биоисследований. 0:13:09.125,0:13:11.976 Разве не это вы хотите демократизировать? 0:13:12.000,0:13:13.809 НБ: Я полностью согласен. 0:13:13.833,0:13:18.059 Хотелось бы, например, 0:13:18.083,0:13:21.684 чтобы ДНК-синтезатор был не устройством, 0:13:21.708,0:13:25.268 которое будет стоять в каждой лаборатории, 0:13:25.292,0:13:26.768 а, быть может, сервисом. 0:13:26.792,0:13:29.309 Допустим, в мире будет [br]всего четыре или пять мест, 0:13:29.333,0:13:32.851 куда можно будет отправить электронный[br]образец ДНК и вам придут результаты. 0:13:32.875,0:13:34.643 А потом у вас будет возможность 0:13:34.667,0:13:37.059 при необходимости 0:13:37.083,0:13:39.434 получить конечное множество [br]уязвимых мест. 0:13:39.458,0:13:42.976 Думаю, вы захотите узнать[br]об особых ситуациях, 0:13:43.000,0:13:45.059 которые можно будет жёстко контролировать. 0:13:45.083,0:13:46.726 КА: По сути, ваше мнение в том, 0:13:46.750,0:13:49.643 что ничего не выйдет, если мы просто[br]замедлим прогресс . 0:13:49.667,0:13:52.393 Кто-нибудь, где-нибудь,[br]предположим в Северной Корее, 0:13:52.417,0:13:55.934 найдётся тот, кто захочет добыть [br]именно чёрный шар из урны, 0:13:55.958,0:13:57.226 если там такой есть. 0:13:57.250,0:13:59.601 НБ: В текущих условиях — вполне вероятно. 0:13:59.625,0:14:01.559 И дело не в синтетической биологии. 0:14:01.583,0:14:04.101 Чёрным шаром могут оказаться [br]абсолютно любые 0:14:04.101,0:14:05.727 новые серьезные изменения в мире. 0:14:05.727,0:14:08.393 КА: Есть ещё вариант развития.[br][Ликвидация опасных людей] 0:14:08.393,0:14:10.226 НБ: Но вероятность довольно мала. 0:14:10.250,0:14:13.809 Касательно первого типа уязвимости. 0:14:13.833,0:14:18.184 Если бы можно было уменьшить [br]количество людей, заинтересованных 0:14:18.208,0:14:19.476 в уничтожении мира, 0:14:19.500,0:14:21.559 будь у них доступ к оружию и средства, 0:14:21.583,0:14:22.851 то было бы прекрасно. 0:14:22.875,0:14:24.851 КА: Вы просили показать этот слайд, 0:14:24.875,0:14:27.434 с дронами с функцией распознавания лиц, 0:14:27.458,0:14:28.726 летающими по всему миру. 0:14:28.750,0:14:31.643 И когда обнаружат людей с признаками[br]асоциального поведения, 0:14:31.667,0:14:33.851 они засыпят их любовью, [br]«починят» так сказать 0:14:33.875,0:14:35.768 НБ: Всё не так однозначно. 0:14:35.792,0:14:39.809 Под ликвидацией подразумевается также,[br]например, лишение свободы или уничтожение, 0:14:39.833,0:14:42.851 или изменение их взглядов на жизнь[br]на более правильные. 0:14:42.875,0:14:44.601 Смысл в том, что, 0:14:44.625,0:14:46.768 допустим, вы справились с задачей, 0:14:46.792,0:14:50.101 сократили количество опасных людей вдвое. 0:14:50.125,0:14:52.018 Если делать ликвидацию путём убеждения, 0:14:52.042,0:14:54.434 то вы столкнётесь с другими[br]мощными факторами, 0:14:54.458,0:14:56.143 влияющими на людей: 0:14:56.167,0:14:57.934 партиями, религией, образованием. 0:14:57.958,0:15:00.027 Если число опасных людей [br]сократилось вдвое. 0:15:00.027,0:15:02.143 Мне кажется риск снизится не на 50%, 0:15:02.167,0:15:03.726 а только на 5 или 10%. 0:15:03.750,0:15:08.101 КА: Вы считаете, что мы не рискуем [br]будущим человечества во втором варианте? 0:15:08.125,0:15:11.143 НБ: Думаю нет ничего плохого[br]в попытке разубедить людей, 0:15:11.167,0:15:14.143 но данный метод не сможет[br]обеспечить безопасность в одиночку. 0:15:14.167,0:15:15.434 КА: А третий вариант? 0:15:15.458,0:15:18.351 НБ: Существует два основных метода, 0:15:18.375,0:15:22.351 пользуясь которыми мы сможем [br]укрепить наш мир 0:15:22.375,0:15:25.351 против целого комплекса [br]возможных уязвимостей. 0:15:25.375,0:15:26.934 Но, возможно, понадобятся оба. 0:15:26.958,0:15:31.476 Первый — высоко эффективная [br]правоохранительная деятельность полиции, 0:15:31.500,0:15:33.268 [Способ 3. Тотальная слежка] 0:15:33.292,0:15:34.816 возможность перехвата. 0:15:34.840,0:15:37.601 Если кто-то захочет пойти на преступление, 0:15:37.625,0:15:40.309 то было бы возможно[br]перехватить и остановить его. 0:15:40.333,0:15:42.809 В таком случае потребуется [br]повсеместный надзор, 0:15:42.833,0:15:45.208 каждый из нас[br]будет находится под наблюдением. 0:15:46.333,0:15:48.893 КА: Как в фильме «Особое мнение». 0:15:48.917,0:15:50.851 НБ: В наблюдении нам могут помочь 0:15:50.875,0:15:55.292 алгоритмы искусственного интеллекта, [br]огромные центры свободы и т.д. 0:15:56.583,0:16:00.976 КА: Вы знаете, термин «тотальная слежка»[br]сейчас не очень популярен? 0:16:01.000,0:16:02.250 (Смех) 0:16:03.458,0:16:05.268 НБ: Это будет небольшое устройство 0:16:05.292,0:16:08.893 с разнонаправленными камерами,[br]встроенное в так называемый чокер, 0:16:08.917,0:16:10.917 который нужно будет носить постоянно. 0:16:11.792,0:16:13.601 Чтобы это не казалось обременяющим, 0:16:13.625,0:16:16.149 просто назовём его[br]чем-то вроде «символа свободы». 0:16:16.173,0:16:18.184 (Смех) 0:16:18.208,0:16:19.476 КА: Хорошо 0:16:19.500,0:16:21.601 Друзья, именно поэтому наша беседа 0:16:21.625,0:16:25.184 настолько увлекательная. 0:16:25.208,0:16:27.809 НБ: На самом деле об этом можно[br]долго разговаривать, 0:16:27.833,0:16:29.143 что очевидно. 0:16:29.167,0:16:31.643 Мы обсуждали риски и проблемы, не так ли? 0:16:31.667,0:16:32.822 Можем вернуться к этому. 0:16:32.828,0:16:34.590 И четвёртая,[br][Глобальное управление] 0:16:34.590,0:16:36.809 последняя возможность для стабилизации — 0:16:36.833,0:16:38.893 заделать бреши в работе правительства. 0:16:38.917,0:16:43.101 Контроль стал бы недостатком[br]в управлении на микроуровне, 0:16:43.125,0:16:46.226 мешая кому-либо совершить[br]что-то противозаконное. 0:16:46.250,0:16:48.559 Конечно, такая же проблема наблюдается 0:16:48.583,0:16:50.518 и на макроуровне, на глобальном уровне. 0:16:50.542,0:16:54.476 Однозначно, потребуется компетенция [br]для предотвращения 0:16:54.500,0:16:57.309 сбоев в глобальной координации, 0:16:57.333,0:17:01.101 чтобы избежать войны [br]между великими державами, 0:17:01.125,0:17:02.458 гонки вооружений, 0:17:03.500,0:17:05.708 общих проблем с катаклизмами, 0:17:07.667,0:17:11.851 чтобы справится с уязвимостями типа 2а. 0:17:11.875,0:17:13.809 КА: Термин «глобальное управление» 0:17:13.833,0:17:16.059 сейчас явно не в моде, 0:17:16.083,0:17:18.601 но вы можете привести довод, что в ходе 0:17:18.625,0:17:19.893 истории человечества 0:17:19.917,0:17:25.351 на каждой новой стадии развития[br]технологическая мощь возрастает. 0:17:25.375,0:17:28.601 Люди преобразовали[br]и сосредоточили эту мощь. 0:17:28.625,0:17:32.059 Например, когда бродячая [br]преступная группировка 0:17:32.083,0:17:33.768 может возглавить общество 0:17:33.792,0:17:36.031 ответ был, что у вас государство-нация 0:17:36.055,0:17:38.489 и вы сосредоточиваете силы —[br]полицейских или армию 0:17:38.513,0:17:40.143 и «Вы не можете так сделать». 0:17:40.167,0:17:44.726 Логика, возможно, в том, что если [br]отдельно взятый человек или группа людей 0:17:44.750,0:17:46.393 смогут уничтожить человечество, 0:17:46.417,0:17:49.143 когда-то мы встанем[br]на этот путь, по крайней мере 0:17:49.167,0:17:50.601 в некоторых аспектах? 0:17:50.625,0:17:54.309 НБ: Однозначно, в ходе развития[br]истории человечества 0:17:54.333,0:17:56.476 масштабы политического аппарата[br]увеличились. 0:17:56.500,0:17:58.518 Сначала была группа охотников-собирателей, 0:17:58.542,0:18:01.476 потом глава племени,[br]города-государства, нации, 0:18:01.500,0:18:05.476 сейчас существуют[br]международные организации и т.д. 0:18:05.500,0:18:07.018 Я просто хочу убедиться, 0:18:07.042,0:18:08.684 что мне удалось подчеркнуть 0:18:08.708,0:18:10.684 большое количество негативных сторон 0:18:10.708,0:18:12.226 и риска 0:18:12.250,0:18:15.601 как в случае тотальной слежки,[br]так и в глобальном управлении. 0:18:15.625,0:18:18.184 Просто хочу отметить, если нам повезёт,[br]то мир может 0:18:18.208,0:18:20.893 оказаться таким, что всё[br]вышеперечисленное будет только 0:18:20.917,0:18:22.434 спасением от чёрного шара. 0:18:22.458,0:18:24.976 КА: Как я понимаю, логика[br]данной теории в том, что, 0:18:25.000,0:18:26.268 надо понимать, 0:18:26.292,0:18:29.893 что все произойдёт не сразу. 0:18:29.917,0:18:31.750 Это что-то вроде 0:18:33.500,0:18:36.476 наивной мечты,[br]которая есть у многих из нас, 0:18:36.500,0:18:39.851 что технологии всегда[br]используются во благо. 0:18:39.875,0:18:42.851 Продолжай, не останавливайся,[br]поторопись, если возможно, 0:18:42.875,0:18:45.226 и не думай о последствиях, 0:18:45.250,0:18:46.934 которые могут даже не произойти. 0:18:46.958,0:18:48.893 Это может случится. 0:18:48.917,0:18:50.184 И если всё же произойдёт, 0:18:50.208,0:18:51.643 то нам придётся принять 0:18:51.667,0:18:54.226 и другие сопутствующие обстоятельства, 0:18:54.250,0:18:56.476 и стать частью гонки вооружений. 0:18:56.500,0:18:58.768 Если хотите иметь мощь,[br]лучше её ограничить, 0:18:58.792,0:19:00.934 или выяснить, как её ограничить. 0:19:00.958,0:19:04.434 НБ: Думаю, это вариант, 0:19:04.458,0:19:07.226 причём очень хороший, в некотором смысле[br]даже самый лёгкий 0:19:07.250,0:19:08.518 и он может сработать. 0:19:08.542,0:19:13.351 Но это значит мы очень уязвимы [br]перед появлением чёрного шара. 0:19:13.375,0:19:15.518 Думаю, что добавив немного координации, 0:19:15.542,0:19:17.292 если бы мы разрешили все проблемы 0:19:18.222,0:19:19.893 на уровне макро- и микроуправления, 0:19:19.917,0:19:22.226 то вытащили бы все шары из урны 0:19:22.250,0:19:24.518 и извлекли немало выгоды. 0:19:24.542,0:19:27.976 КА: Какая разница, если мы [br]живём в симуляции? 0:19:28.000,0:19:29.309 Мы просто перезагружаемся. 0:19:29.333,0:19:30.601 (Смех) 0:19:30.625,0:19:32.268 НБ: я... 0:19:32.292,0:19:34.768 (Смех) 0:19:34.792,0:19:36.208 Не думаю, что это настало. 0:19:38.125,0:19:39.393 КА: Как вы считаете? 0:19:39.417,0:19:44.226 Если сложить всё вместе, какова[br]вероятность, что мы обречены? 0:19:44.250,0:19:46.208 (Смех) 0:19:47.042,0:19:49.434 Мне нравится смех людей,[br]когда звучит этот вопрос. 0:19:49.458,0:19:50.809 НБ: На индивидуальном уровне 0:19:50.833,0:19:54.684 нам придёт конец в любом случае,[br]со временем мы стареем, 0:19:54.708,0:19:57.309 разлагаемся, и всё в этом духе, да? 0:19:57.333,0:19:58.934 (Смех) 0:19:58.958,0:20:00.643 На самом деле всй немного сложнее. 0:20:00.667,0:20:03.434 Если вы хотите посчитать вероятность [br]того, что нам конец, 0:20:03.458,0:20:04.726 во-первых, кто «мы»? 0:20:04.750,0:20:07.476 Если вам много лет, то, возможно,[br]умрёте своей смертью. 0:20:07.500,0:20:09.851 Если вы молоды, то у вас может быть[br]целых 100 лет. 0:20:09.875,0:20:12.018 Вероятность индивидуальна. 0:20:12.042,0:20:16.268 Затем порог, то есть ограничить понятие [br]разрушения цивилизации. 0:20:16.292,0:20:21.934 В своей книге я не считаю [br]экзистенциальную катастрофу 0:20:21.958,0:20:23.393 разрушением цивилизации. 0:20:23.417,0:20:25.101 Это всё вопрос определения. 0:20:25.125,0:20:26.738 Допустим, будет миллиард погибших 0:20:26.738,0:20:28.672 или сокращение мирового ВВП на 50%, 0:20:28.672,0:20:30.768 но от того, как вы обозначите порог, 0:20:30.792,0:20:32.768 вы получите разную степень вероятности. 0:20:32.792,0:20:37.309 Думаю, вы назовёте меня [br]запуганным оптимистом. 0:20:37.333,0:20:38.434 (Смех) 0:20:38.458,0:20:40.101 КА: Вы запуганный оптимист, 0:20:40.125,0:20:44.393 и я думаю, сейчас вы создали немало [br]себе подобных запуганных 0:20:44.417,0:20:45.684 ...людей. 0:20:45.708,0:20:46.768 (Смех) 0:20:46.792,0:20:48.059 НБ: Живущих в симуляции. 0:20:48.083,0:20:49.351 КА: Точно. 0:20:49.375,0:20:51.059 Ник Бостром, ваши идеи удивляют. 0:20:51.083,0:20:53.976 Спасибо, что запугали нас до смерти. 0:20:54.000,0:20:56.375 (Аплодисменты)