< Return to Video

Как цивилизация может разрушить сама себя, и 4 способа это предотвратить

  • 0:01 - 0:03
    Крис Андерсон: Ник Бостром
  • 0:03 - 0:07
    Вы уже делились
    с нами своими безумными идеями.
  • 0:07 - 0:09
    Пару десятилетий назад, как мне
  • 0:09 - 0:12
    помнится, вы предположили,
    что мы будем жить в симуляции
  • 0:12 - 0:13
    или мы уже в ней.
  • 0:13 - 0:15
    А относительно недавно
  • 0:15 - 0:19
    вы представили самый наглядный пример
    того, как может навредить
  • 0:19 - 0:21
    всеобщий искусственный интеллект.
  • 0:22 - 0:23
    И уже в этом году
  • 0:23 - 0:25
    вы собираетесь издавать
  • 0:25 - 0:29
    книгу с самыми уязвимыми
    мировыми гипотезами.
  • 0:29 - 0:34
    И сегодняшний выпуск должен стать
    иллюстрированным руководством к ней.
  • 0:34 - 0:36
    Давайте начнём.
  • 0:37 - 0:39
    Что это за гипотезы?
  • 0:40 - 0:43
    Ник Бостром: Это попытка осмысления
    структурных компонентов
  • 0:43 - 0:46
    текущего состояния человечества.
  • 0:47 - 0:49
    Вам нравится метафора про урну,
  • 0:50 - 0:51
    поэтому я использую её.
  • 0:51 - 0:56
    Представьте большу́ю урну,
    наполненную шарами,
  • 0:56 - 1:00
    которые представляют собой идеи, методы
  • 1:01 - 1:05
    и всевозможные технологии.
    Всю творческую деятельность человечества
  • 1:05 - 1:08
    можно сравнить с погружением в эту урну
    и вытаскиванием оттуда шариков.
  • 1:08 - 1:12
    И долгие годы мы всегда
    получали только пользу от этого, верно?
  • 1:12 - 1:14
    Мы изъяли слишком много белых шаров,
  • 1:14 - 1:17
    несколько с оттенками серого,
    с неоднозначными последствиями.
  • 1:18 - 1:21
    Но нам так давно не попадался
    чёрный шар — технология,
  • 1:22 - 1:28
    которая непременно уничтожит
    своих создателей.
  • 1:28 - 1:31
    В книге содержатся версии того,
    что́ будет внутри чёрного шара.
  • 1:31 - 1:33
    КА: То есть, вы определяете этот шар
  • 1:33 - 1:37
    как причину гибели цивилизации.
  • 1:37 - 1:42
    НБ: Пока мы не выйдем из своего
    стандартного состояния полуанархии,
  • 1:42 - 1:43

    как я это называю.
  • 1:44 - 1:48
    КА: В качестве доказательства вы приводите
  • 1:48 - 1:50
    несколько контрпримеров.
  • 1:50 - 1:53
    Вы убеждены, что нам везло
    на протяжении многих лет.
  • 1:53 - 1:56
    И возможно мы, сами того не подозревая,
  • 1:56 - 1:57
    уже вытянули этот шар смерти.
  • 1:57 - 2:00
    Также вы приводите цитату.
    Что она означает?
  • 2:01 - 2:03
    НБ: Она только показывает,
  • 2:03 - 2:05
    насколько сложно предусмотреть
  • 2:05 - 2:08
    все последствия базовых открытий.
  • 2:08 - 2:11
    У нас нет такой возможности.
  • 2:11 - 2:15
    Мы хорошо научились
    вытаскивать шары из урны,
  • 2:15 - 2:18
    но не умеем возвращать их обратно.
  • 2:18 - 2:21
    То есть, мы можем изобретать,
    но не наоборот.
  • 2:22 - 2:24
    В качестве стратегии
    у нас есть только надежда на то,
  • 2:24 - 2:27
    что в урне нет шаров чёрного цвета.
  • 2:27 - 2:31
    КА: Однажды мы его вытащим
    и не сможем вернуть обратно,
  • 2:31 - 2:32
    и вы считаете нам пока везло.
  • 2:32 - 2:35
    Прокомментируйте примеры,
    где вы упоминаете
  • 2:35 - 2:38
    несколько типов уязвимости.
  • 2:38 - 2:40
    НБ: Самый простой тип для понимания —
  • 2:40 - 2:43
    технология, которая сможет
    без особого труда
  • 2:43 - 2:46
    вызвать много массовых разрушений.
  • 2:47 - 2:51
    Синтетическая биология может стать
    богатым источником
  • 2:51 - 2:54
    чёрных шаров подобного рода.
  • 2:54 - 2:56
    Также стоит задуматься
    о продуктах геоинженерии.
  • 2:56 - 2:58
    Мы можем бороться
    с глобальным потеплением,
  • 2:58 - 3:01
    но не нужно облегчать себе задачу.
  • 3:01 - 3:03
    Не нужно, чтобы случайный человек
    и его бабушка
  • 3:03 - 3:06
    имели возможность радикальным образом
    изменить климат на земле.
  • 3:06 - 3:10
    Или смертоносные беспилотные дроны
    размером с комара,
  • 3:10 - 3:13
    которые массово производят
    для уничтожения вредителей
  • 3:14 - 3:17
    Нанотехнологии,
    всеобщий искусственный интеллект.
  • 3:17 - 3:19
    КА: В книге есть сомнение,
  • 3:19 - 3:21
    что нам повезло открыть ядерную энергию
  • 3:22 - 3:25
    для создания атомной бомбы.
  • 3:25 - 3:26
    Возможно, это тот случай,
  • 3:26 - 3:28
    когда возможно создать бомбу
  • 3:28 - 3:32
    с помощью более лёгких ресурсов,
    доступных каждому.
  • 3:32 - 3:35
    НБ: Вернёмся в 30-е годы ХХ века,
  • 3:35 - 3:40
    когда мы впервые достигли прогресса
    в ядерной физике.
  • 3:40 - 3:44
    Некоторые выдающиеся учёные выяснили,
    как создать цепную ядерную реакцию
  • 3:44 - 3:47
    и потом довели её до бомбы.
  • 3:47 - 3:49
    Мы провели исследование.
  • 3:49 - 3:52
    Выяснилось, что для создания
    атомной бомбы, содержащей
  • 3:52 - 3:54
    в огромном количестве уран и плутоний,
  • 3:54 - 3:56
    которые получить довольно трудно,
  • 3:56 - 3:58
    нужны ультрацентрифуги, нужны реакторы,
  • 3:58 - 4:02
    а также большое количество энергии.
  • 4:02 - 4:04
    Мы предполагаем, что вместо этого
  • 4:04 - 4:08
    существует более лёгкий способ
    высвободить энергию из атома.
  • 4:08 - 4:11
    А что, если окажется возможным
    вызвать ядерный взрыв
  • 4:11 - 4:12
    из песка в микроволновке
  • 4:12 - 4:14
    или более простым способом.
  • 4:14 - 4:16
    Сейчас это невозможно
    с точки зрения физики.
  • 4:16 - 4:18
    Но пока не проведены такие опыты,
  • 4:18 - 4:20
    как узнать, что из этого выйдет?
  • 4:21 - 4:22
    КА: Согласитесь, для нормального
  • 4:22 - 4:24
    развития жизни на Земле необходима
  • 4:24 - 4:27
    стабильная среда.
  • 4:27 - 4:31
    И если бы имелся более лёгкий способ
    получения крупных ядерных реакций,
  • 4:31 - 4:33
    то стабильной среды на Земле
    бы не существовало,
  • 4:33 - 4:35
    и нас здесь не было.
  • 4:35 - 4:38
    НБ: Да, если бы существовало что-то,
    созданное специально,
  • 4:38 - 4:41
    а не само по себе.
  • 4:41 - 4:43
    Так мы делаем многое.
  • 4:43 - 4:45
    Мы можем уложить 10 блоков друг на друга,
  • 4:45 - 4:48
    но в природе такого не встретишь.
  • 4:48 - 4:50
    КА: А сейчас поговорим о том,
  • 4:50 - 4:52
    что волнует нас больше всего.
  • 4:52 - 4:55
    На данный момент, из того,
    что мы можем предсказать,
  • 4:55 - 4:58
    синтетическая биология — кратчайший путь
    к самоуничтожению.
  • 4:58 - 5:01
    НБ: И только представьте,
    как это будет выглядеть,
  • 5:01 - 5:05
    если сказать кому-то,
    что он может разнести город,
  • 5:05 - 5:07
    готовя что-то на кухне.
  • 5:07 - 5:10
    Трудно представить, как современная
    цивилизация в привычном нам виде
  • 5:10 - 5:12
    сможет пережить подобное.
  • 5:12 - 5:14
    Потому что среди любого
    многомилионного населения
  • 5:14 - 5:17
    найдутся те, кто по непонятной причине
  • 5:17 - 5:19
    захотят использовать
    эту разрушительную силу.
  • 5:20 - 5:23
    И если бы этот любитель апокалипсиса
  • 5:23 - 5:25
    выбрал бы уничтожить город
    или, что-то хуже,
  • 5:25 - 5:26
    то города были бы разрушены.
  • 5:26 - 5:29
    КА: Есть другой тип уязвимости.
  • 5:29 - 5:31
    Расскажите о нём, пожалуйста.
  • 5:31 - 5:35
    НБ: Помимо простых для понимания
    чёрных шаров,
  • 5:35 - 5:37
    которые снесут всё на своем пути,
  • 5:37 - 5:42
    другие будут создавать людям стимул
    для совершения плохих поступков
  • 5:42 - 5:44
    и причинение вреда.
  • 5:44 - 5:48
    То есть, если подумать о так называемом
    Типе-2а, то это технология,
  • 5:48 - 5:53
    которая подвигнет великие мировые державы
  • 5:53 - 5:57
    на использование всей своей военной мощи
    для разрушения.
  • 5:57 - 6:00
    На самом деле, ядерное оружие
    очень близко к этому, да?
  • 6:02 - 6:05
    Что мы сделали: мы потратили более
    10 триллионов долларов
  • 6:05 - 6:08
    на создание 70 тыс. ядерных боеголовок
  • 6:08 - 6:10
    и держим их в состоянии повышенной
    боевой готовности.
  • 6:10 - 6:12
    Во время Холодной войны мы несколько раз
  • 6:12 - 6:14
    были на грани взаимоуничтожения.
  • 6:14 - 6:17
    Не потому, что люди считают
    замечательной идеей
  • 6:17 - 6:20
    спустить 10 миллионов долларов
    на самоуничтожение.
  • 6:20 - 6:23
    Стимулировало то, что мы только ищем себя,
  • 6:23 - 6:24
    и это могло быть худшим.
  • 6:24 - 6:27
    Представьте, если бы первый удар
    прошёл без особых последствий,
  • 6:27 - 6:29
    то было бы очень сложно
  • 6:29 - 6:30
    в кризисной ситуации
  • 6:30 - 6:33
    воздержаться от запуска
    всех ядерных ракет.
  • 6:33 - 6:36
    Если не иначе, потому что вы боитесь,
    что это сделают с другой стороны.
  • 6:36 - 6:38
    КА: Гарантированное взаимоуничтожение
  • 6:38 - 6:41
    поддерживало стабильность
    в период холодной войны.
  • 6:41 - 6:43
    Иначе нас бы тут не было.
  • 6:43 - 6:45
    НБ: Да, это бы сделало её
    более нестабильной.
  • 6:45 - 6:47
    Тут могла бы проявиться
    другая сторона технологий.
  • 6:47 - 6:50
    Было бы труднее достигнуть
    соглашений по вооружению,
  • 6:50 - 6:51
    если бы вместо ядерного оружия
  • 6:51 - 6:54
    существовал какой-нибудь
    мелкий предмет или менее заметный.
  • 6:54 - 6:57
    КА: Как и плохие мотивы
    влиятельных субъектов мира,
  • 6:57 - 7:00
    вы также переживаете из-за плохих
    побуждений каждого из нас в типе 2б.
  • 7:00 - 7:05
    НБ: Да, тут лучше взять в пример
    глобальное потепление.
  • 7:07 - 7:09
    Каждый из нас пользуется в быту
  • 7:09 - 7:11
    какими-то современными удобствами,
  • 7:11 - 7:14
    использование которых не имеет
    значительных последствий, так?
  • 7:14 - 7:16
    Но миллиарды людей делают то же самое,
  • 7:16 - 7:18
    что вместе имеет разрушительное действие
  • 7:18 - 7:21
    сейчас проблема глобального
    потепления может усугубиться.
  • 7:21 - 7:24
    Существует параметр влияния на климат.
  • 7:24 - 7:28
    Он показывает на сколько
    усилится потепление
  • 7:28 - 7:30
    при выхлопе определённого количества
    парниковых газов.
  • 7:30 - 7:33
    Предположим, что при количестве
    парниковых газов,
  • 7:33 - 7:35
    выпускаемых на данный момент,
  • 7:35 - 7:37
    к 2100 году вместо увеличения температуры
  • 7:37 - 7:41
    всего на 3–4,5 градуса мы столкнёмся
  • 7:41 - 7:44
    с увеличением на 15 или даже 20 градусов.
  • 7:44 - 7:47
    То есть мы можем оказаться
    в очень плохом положении.
  • 7:47 - 7:50
    Предположим, что очень сложно создать
    возобновляемый источник энергии
  • 7:50 - 7:53
    или в земле есть больше
    ископаемых видов топлива
  • 7:53 - 7:55
    КА: Утверждаете ли вы,
    что если тот образ жизни,
  • 7:55 - 7:57
    который мы ведём сегодня
  • 7:57 - 8:02
    со временем приведёт
    к видимой разнице в 10 градусов,
  • 8:02 - 8:05
    то люди бы уже засуетились
    и сделали что-нибудь с этим.
  • 8:06 - 8:08
    Возможно, мы и глупы, но не настолько.
  • 8:08 - 8:10
    Но кто знает.
  • 8:10 - 8:11
    НБ: Я бы не был так уверен.
  • 8:11 - 8:13
    (Смех)
  • 8:13 - 8:15
    Подумайте и о других свойствах.
  • 8:15 - 8:20
    На данный момент переключиться на
    возобновляемые энергоносители и подобные
  • 8:20 - 8:22
    вещи сложно, но возможно.
  • 8:22 - 8:25
    Возможно с использованием
    немного других физических свойств
  • 8:25 - 8:27
    осуществление этого выйдет намного дороже.
  • 8:28 - 8:30
    КА: А какое у вас мнение?
  • 8:30 - 8:32
    Находится ли наша планета,
  • 8:32 - 8:37
    человечество со всеми своими
    техническими возможностями,
  • 8:37 - 8:38
    в уязвимом положении?
  • 8:38 - 8:41
    Есть ли шар смерти в нашем будущем?
  • 8:44 - 8:45
    НБ: Трудно сказать.
  • 8:45 - 8:50
    Я думаю, что в этой урне
    с большой вероятностью будут
  • 8:50 - 8:52
    разнообразные чёрные шары.
  • 8:52 - 8:54
    Но также будут и золотые,
  • 8:54 - 8:58
    которые помогут нам в битве
    против чёрных шаров.
  • 8:58 - 9:01
    Но я не знаю, в каком порядке
    они будут появляться.
  • 9:01 - 9:04
    КА: Ваша идея слегка противоречит
  • 9:04 - 9:10
    философской мысли о том, что будущее
    предопределено и неизбежно,
  • 9:10 - 9:13
    независимо от цвета очередного шара
  • 9:13 - 9:16
    и в некоторой степени
  • 9:16 - 9:18
    мне не хочется верить в такое будущее.
  • 9:18 - 9:21
    Я хочу верить, что будущее
    не предопределено,
  • 9:21 - 9:23
    что решения, принимаемые нами сегодня,
  • 9:23 - 9:25
    повлияют на цвет шара, который мы вытащим.
  • 9:26 - 9:30
    НБ: Я думаю, если мы будем
    продолжать изобретать
  • 9:30 - 9:32
    в конечном итоге мы вытащим все шары.
  • 9:33 - 9:36
    Есть некая слабая форма
    технологического детерминизма,
  • 9:36 - 9:38
    которая имеет веские основания,
  • 9:38 - 9:40
    то есть вы вряд ли встретите сообщество,
  • 9:40 - 9:43
    где пользуются кремниевыми топорами
    и реактивными самолетами.
  • 9:44 - 9:48
    Технологии можно считать
    пакетом возможностей.
  • 9:48 - 9:51
    Технологии позволяют нам
    делать различные вещи и достигать
  • 9:51 - 9:53
    разнообразных результатов в мире.
  • 9:53 - 9:56
    Как использовать их,
    зависит только от нашего выбора.
  • 9:56 - 9:59
    Но если задуматься об этих
    трёх типах уязвимости
  • 9:59 - 10:02
    они могут пошатнуть представление
    об их использовании
  • 10:02 - 10:06
    Напомню, первый тип уязвимости —
    огромная разрушительная сила
  • 10:06 - 10:07
    и предположение о том,
  • 10:07 - 10:10
    что среди многомиллионного населения
    найдутся те,
  • 10:10 - 10:13
    кто захотят использовать её
    для разрушения, довольно слабое.
  • 10:13 - 10:15
    КА: Меня больше всего
    беспокоит мысль о том,
  • 10:15 - 10:20
    что мы на данный момент в некотором роде
    погрузились в эту урну настолько,
  • 10:20 - 10:23
    чтобы понять, что мы обречены.
  • 10:23 - 10:28
    То есть, если вы верите в увеличение мощи,
  • 10:28 - 10:30
    в развитие технологий,
  • 10:30 - 10:33
    в создание техники,
    которая сделает нас сильнее,
  • 10:33 - 10:35
    то в какой-то момент вы доходите до мысли,
  • 10:35 - 10:38
    что отдельно взятый человек
    может уничтожить всех нас.
  • 10:38 - 10:41
    И в таком случае нам всем конец.
  • 10:41 - 10:44
    Вас это не тревожит?
  • 10:44 - 10:46
    НБ: Ах, да
  • 10:47 - 10:48
    (Смех)
  • 10:48 - 10:49
    Я считаю....
  • 10:51 - 10:52
    Да, мы становимся всё сильнее,
  • 10:52 - 10:56
    и применять эту силу становится всё легче,
  • 10:56 - 11:00
    но мы также можем изобрести технологию,
    которая позволит нам контролировать
  • 11:00 - 11:02
    использование этой силы людьми
  • 11:02 - 11:05
    КА: Давайте обсудим это.
    Поговорим об ответных реакциях.
  • 11:05 - 11:07
    Предположим,
    размышляя о всех возможностях,
  • 11:07 - 11:09
    которые мы имеем на сегодняшний день, —
  • 11:09 - 11:13
    это не только синбиотехнологии,
    но и вещи вроде кибервойны,
  • 11:13 - 11:17
    искусственный интеллект и т.д. —
  • 11:17 - 11:21
    за что, возможно, в будущем
    нас ожидает серьёзная расплата.
  • 11:21 - 11:23
    Какими будут ответные реакции?
  • 11:23 - 11:28
    Вы упомянули также четыре типа
    этих ответных реакций.
  • 11:28 - 11:31
    НБ: Ограничение в развитии технического
    прогресса не вселяет надежды,
  • 11:31 - 11:35
    если мы все имеем в виду остановку
    технического прогресса в целом.
  • 11:35 - 11:36
    Я думаю, у нас нет
  • 11:36 - 11:38
    ни желания, ни возможности сделать это.
  • 11:38 - 11:41
    Или, возможно, только в некоторых областях
  • 11:41 - 11:44
    вам захочется замедлить
    технический прогресс
  • 11:44 - 11:47
    Я думаю, вы не захотите быстрого развития
    биологического оружия
  • 11:47 - 11:49
    или разделения изотопов,
    что поспособствует
  • 11:49 - 11:52
    более лёгкому созданию ядерного оружия
  • 11:53 - 11:56
    КА: Я полностью согласен с вами,
  • 11:56 - 11:59
    но я бы хотел заострить внимание на этом,
  • 11:59 - 12:01
    во-первых, потому что,
  • 12:01 - 12:03
    если посмотреть на историю
    двух последних десятилетий,
  • 12:03 - 12:07
    мы продвигаемся вперёд на полной скорости,
  • 12:07 - 12:09
    хорошо, что это только наш выбор,
  • 12:09 - 12:13
    но если посмотреть на глобализацию
    и её стремительный рост,
  • 12:13 - 12:16
    на стратегию
    «двигайся быстрее и ломай преграды»
  • 12:16 - 12:19
    и во что это превратилось,
  • 12:19 - 12:21
    а потом на весь потенциал
    синтетической биологии.
  • 12:21 - 12:26
    Я не уверен, что нам стоит продвигаться
    настолько быстро,
  • 12:26 - 12:27
    без каких-либо ограничений,
  • 12:27 - 12:31
    в мир, где ДНК-принтер будет
    в каждом доме и в лаборатории
  • 12:31 - 12:32
    старшей школы
  • 12:33 - 12:35
    Должны быть какие-то ограничения.
  • 12:35 - 12:38
    НБ: Возможно, первая часть,
    не самая подходящая.
  • 12:38 - 12:40
    Если люди всё же захотят остановить это,
  • 12:40 - 12:41
    то возникнут проблемы с реализацией.
  • 12:42 - 12:44
    Ничего на деле не выйдет,
    если население одной страны...
  • 12:44 - 12:46
    КА: Нет, если действует только один народ,
  • 12:46 - 12:49
    но мы уже заключали
    международные соглашения ранее.
  • 12:49 - 12:53
    Благодаря этому нам удалось
    устранить ядерную угрозу
  • 12:53 - 12:54
    путём встреч
  • 12:54 - 12:57
    и длительных сложных переговоров.
  • 12:57 - 13:02
    Интересно, не будет ли нам более логично
    не выходить сюда по важному делу
  • 13:02 - 13:04
    и пытаться обсуждать
  • 13:04 - 13:06
    строгие правила по вопросам
  • 13:06 - 13:09
    синтетических биоисследований.
  • 13:09 - 13:12
    Разве не это вы хотите демократизировать?
  • 13:12 - 13:14
    НБ: Я полностью согласен.
  • 13:14 - 13:18
    Хотелось бы, например,
  • 13:18 - 13:22
    чтобы ДНК-синтезатор был не устройством,
  • 13:22 - 13:25
    которое будет стоять в каждой лаборатории,
  • 13:25 - 13:27
    а, быть может, сервисом.
  • 13:27 - 13:29
    Допустим, в мире будет
    всего четыре или пять мест,
  • 13:29 - 13:33
    куда можно будет отправить электронный
    образец ДНК и вам придут результаты.
  • 13:33 - 13:35
    А потом у вас будет возможность
  • 13:35 - 13:37
    при необходимости
  • 13:37 - 13:39
    получить конечное множество
    уязвимых мест.
  • 13:39 - 13:43
    Думаю, вы захотите узнать
    об особых ситуациях,
  • 13:43 - 13:45
    которые можно будет жёстко контролировать.
  • 13:45 - 13:47
    КА: По сути, ваше мнение в том,
  • 13:47 - 13:50
    что ничего не выйдет, если мы просто
    замедлим прогресс .
  • 13:50 - 13:52
    Кто-нибудь, где-нибудь,
    предположим в Северной Корее,
  • 13:52 - 13:56
    найдётся тот, кто захочет добыть
    именно чёрный шар из урны,
  • 13:56 - 13:57
    если там такой есть.
  • 13:57 - 14:00
    НБ: В текущих условиях — вполне вероятно.
  • 14:00 - 14:02
    И дело не в синтетической биологии.
  • 14:02 - 14:04
    Чёрным шаром могут оказаться
    абсолютно любые
  • 14:04 - 14:06
    новые серьезные изменения в мире.
  • 14:06 - 14:08
    КА: Есть ещё вариант развития.
    [Ликвидация опасных людей]
  • 14:08 - 14:10
    НБ: Но вероятность довольно мала.
  • 14:10 - 14:14
    Касательно первого типа уязвимости.
  • 14:14 - 14:18
    Если бы можно было уменьшить
    количество людей, заинтересованных
  • 14:18 - 14:19
    в уничтожении мира,
  • 14:20 - 14:22
    будь у них доступ к оружию и средства,
  • 14:22 - 14:23
    то было бы прекрасно.
  • 14:23 - 14:25
    КА: Вы просили показать этот слайд,
  • 14:25 - 14:27
    с дронами с функцией распознавания лиц,
  • 14:27 - 14:29
    летающими по всему миру.
  • 14:29 - 14:32
    И когда обнаружат людей с признаками
    асоциального поведения,
  • 14:32 - 14:34
    они засыпят их любовью,
    «починят» так сказать
  • 14:34 - 14:36
    НБ: Всё не так однозначно.
  • 14:36 - 14:40
    Под ликвидацией подразумевается также,
    например, лишение свободы или уничтожение,
  • 14:40 - 14:43
    или изменение их взглядов на жизнь
    на более правильные.
  • 14:43 - 14:45
    Смысл в том, что,
  • 14:45 - 14:47
    допустим, вы справились с задачей,
  • 14:47 - 14:50
    сократили количество опасных людей вдвое.
  • 14:50 - 14:52
    Если делать ликвидацию путём убеждения,
  • 14:52 - 14:54
    то вы столкнётесь с другими
    мощными факторами,
  • 14:54 - 14:56
    влияющими на людей:
  • 14:56 - 14:58
    партиями, религией, образованием.
  • 14:58 - 15:00
    Если число опасных людей
    сократилось вдвое.
  • 15:00 - 15:02
    Мне кажется риск снизится не на 50%,
  • 15:02 - 15:04
    а только на 5 или 10%.
  • 15:04 - 15:08
    КА: Вы считаете, что мы не рискуем
    будущим человечества во втором варианте?
  • 15:08 - 15:11
    НБ: Думаю нет ничего плохого
    в попытке разубедить людей,
  • 15:11 - 15:14
    но данный метод не сможет
    обеспечить безопасность в одиночку.
  • 15:14 - 15:15
    КА: А третий вариант?
  • 15:15 - 15:18
    НБ: Существует два основных метода,
  • 15:18 - 15:22
    пользуясь которыми мы сможем
    укрепить наш мир
  • 15:22 - 15:25
    против целого комплекса
    возможных уязвимостей.
  • 15:25 - 15:27
    Но, возможно, понадобятся оба.
  • 15:27 - 15:31
    Первый — высоко эффективная
    правоохранительная деятельность полиции,
  • 15:32 - 15:33
    [Способ 3. Тотальная слежка]
  • 15:33 - 15:35
    возможность перехвата.
  • 15:35 - 15:38
    Если кто-то захочет пойти на преступление,
  • 15:38 - 15:40
    то было бы возможно
    перехватить и остановить его.
  • 15:40 - 15:43
    В таком случае потребуется
    повсеместный надзор,
  • 15:43 - 15:45
    каждый из нас
    будет находится под наблюдением.
  • 15:46 - 15:49
    КА: Как в фильме «Особое мнение».
  • 15:49 - 15:51
    НБ: В наблюдении нам могут помочь
  • 15:51 - 15:55
    алгоритмы искусственного интеллекта,
    огромные центры свободы и т.д.
  • 15:57 - 16:01
    КА: Вы знаете, термин «тотальная слежка»
    сейчас не очень популярен?
  • 16:01 - 16:02
    (Смех)
  • 16:03 - 16:05
    НБ: Это будет небольшое устройство
  • 16:05 - 16:09
    с разнонаправленными камерами,
    встроенное в так называемый чокер,
  • 16:09 - 16:11
    который нужно будет носить постоянно.
  • 16:12 - 16:14
    Чтобы это не казалось обременяющим,
  • 16:14 - 16:16
    просто назовём его
    чем-то вроде «символа свободы».
  • 16:16 - 16:18
    (Смех)
  • 16:18 - 16:19
    КА: Хорошо
  • 16:20 - 16:22
    Друзья, именно поэтому наша беседа
  • 16:22 - 16:25
    настолько увлекательная.
  • 16:25 - 16:28
    НБ: На самом деле об этом можно
    долго разговаривать,
  • 16:28 - 16:29
    что очевидно.
  • 16:29 - 16:32
    Мы обсуждали риски и проблемы, не так ли?
  • 16:32 - 16:33
    Можем вернуться к этому.
  • 16:33 - 16:35
    И четвёртая,
    [Глобальное управление]
  • 16:35 - 16:37
    последняя возможность для стабилизации —
  • 16:37 - 16:39
    заделать бреши в работе правительства.
  • 16:39 - 16:43
    Контроль стал бы недостатком
    в управлении на микроуровне,
  • 16:43 - 16:46
    мешая кому-либо совершить
    что-то противозаконное.
  • 16:46 - 16:49
    Конечно, такая же проблема наблюдается
  • 16:49 - 16:51
    и на макроуровне, на глобальном уровне.
  • 16:51 - 16:54
    Однозначно, потребуется компетенция
    для предотвращения
  • 16:54 - 16:57
    сбоев в глобальной координации,
  • 16:57 - 17:01
    чтобы избежать войны
    между великими державами,
  • 17:01 - 17:02
    гонки вооружений,
  • 17:04 - 17:06
    общих проблем с катаклизмами,
  • 17:08 - 17:12
    чтобы справится с уязвимостями типа 2а.
  • 17:12 - 17:14
    КА: Термин «глобальное управление»
  • 17:14 - 17:16
    сейчас явно не в моде,
  • 17:16 - 17:19
    но вы можете привести довод, что в ходе
  • 17:19 - 17:20
    истории человечества
  • 17:20 - 17:25
    на каждой новой стадии развития
    технологическая мощь возрастает.
  • 17:25 - 17:29
    Люди преобразовали
    и сосредоточили эту мощь.
  • 17:29 - 17:32
    Например, когда бродячая
    преступная группировка
  • 17:32 - 17:34
    может возглавить общество
  • 17:34 - 17:36
    ответ был, что у вас государство-нация
  • 17:36 - 17:38
    и вы сосредоточиваете силы —
    полицейских или армию
  • 17:39 - 17:40
    и «Вы не можете так сделать».
  • 17:40 - 17:45
    Логика, возможно, в том, что если
    отдельно взятый человек или группа людей
  • 17:45 - 17:46
    смогут уничтожить человечество,
  • 17:46 - 17:49
    когда-то мы встанем
    на этот путь, по крайней мере
  • 17:49 - 17:51
    в некоторых аспектах?
  • 17:51 - 17:54
    НБ: Однозначно, в ходе развития
    истории человечества
  • 17:54 - 17:56
    масштабы политического аппарата
    увеличились.
  • 17:56 - 17:59
    Сначала была группа охотников-собирателей,
  • 17:59 - 18:01
    потом глава племени,
    города-государства, нации,
  • 18:02 - 18:05
    сейчас существуют
    международные организации и т.д.
  • 18:06 - 18:07
    Я просто хочу убедиться,
  • 18:07 - 18:09
    что мне удалось подчеркнуть
  • 18:09 - 18:11
    большое количество негативных сторон
  • 18:11 - 18:12
    и риска
  • 18:12 - 18:16
    как в случае тотальной слежки,
    так и в глобальном управлении.
  • 18:16 - 18:18
    Просто хочу отметить, если нам повезёт,
    то мир может
  • 18:18 - 18:21
    оказаться таким, что всё
    вышеперечисленное будет только
  • 18:21 - 18:22
    спасением от чёрного шара.
  • 18:22 - 18:25
    КА: Как я понимаю, логика
    данной теории в том, что,
  • 18:25 - 18:26
    надо понимать,
  • 18:26 - 18:30
    что все произойдёт не сразу.
  • 18:30 - 18:32
    Это что-то вроде
  • 18:34 - 18:36
    наивной мечты,
    которая есть у многих из нас,
  • 18:36 - 18:40
    что технологии всегда
    используются во благо.
  • 18:40 - 18:43
    Продолжай, не останавливайся,
    поторопись, если возможно,
  • 18:43 - 18:45
    и не думай о последствиях,
  • 18:45 - 18:47
    которые могут даже не произойти.
  • 18:47 - 18:49
    Это может случится.
  • 18:49 - 18:50
    И если всё же произойдёт,
  • 18:50 - 18:52
    то нам придётся принять
  • 18:52 - 18:54
    и другие сопутствующие обстоятельства,
  • 18:54 - 18:56
    и стать частью гонки вооружений.
  • 18:56 - 18:59
    Если хотите иметь мощь,
    лучше её ограничить,
  • 18:59 - 19:01
    или выяснить, как её ограничить.
  • 19:01 - 19:04
    НБ: Думаю, это вариант,
  • 19:04 - 19:07
    причём очень хороший, в некотором смысле
    даже самый лёгкий
  • 19:07 - 19:09
    и он может сработать.
  • 19:09 - 19:13
    Но это значит мы очень уязвимы
    перед появлением чёрного шара.
  • 19:13 - 19:16
    Думаю, что добавив немного координации,
  • 19:16 - 19:17
    если бы мы разрешили все проблемы
  • 19:18 - 19:20
    на уровне макро- и микроуправления,
  • 19:20 - 19:22
    то вытащили бы все шары из урны
  • 19:22 - 19:25
    и извлекли немало выгоды.
  • 19:25 - 19:28
    КА: Какая разница, если мы
    живём в симуляции?
  • 19:28 - 19:29
    Мы просто перезагружаемся.
  • 19:29 - 19:31
    (Смех)
  • 19:31 - 19:32
    НБ: я...
  • 19:32 - 19:35
    (Смех)
  • 19:35 - 19:36
    Не думаю, что это настало.
  • 19:38 - 19:39
    КА: Как вы считаете?
  • 19:39 - 19:44
    Если сложить всё вместе, какова
    вероятность, что мы обречены?
  • 19:44 - 19:46
    (Смех)
  • 19:47 - 19:49
    Мне нравится смех людей,
    когда звучит этот вопрос.
  • 19:49 - 19:51
    НБ: На индивидуальном уровне
  • 19:51 - 19:55
    нам придёт конец в любом случае,
    со временем мы стареем,
  • 19:55 - 19:57
    разлагаемся, и всё в этом духе, да?
  • 19:57 - 19:59
    (Смех)
  • 19:59 - 20:01
    На самом деле всй немного сложнее.
  • 20:01 - 20:03
    Если вы хотите посчитать вероятность
    того, что нам конец,
  • 20:03 - 20:05
    во-первых, кто «мы»?
  • 20:05 - 20:07
    Если вам много лет, то, возможно,
    умрёте своей смертью.
  • 20:08 - 20:10
    Если вы молоды, то у вас может быть
    целых 100 лет.
  • 20:10 - 20:12
    Вероятность индивидуальна.
  • 20:12 - 20:16
    Затем порог, то есть ограничить понятие
    разрушения цивилизации.
  • 20:16 - 20:22
    В своей книге я не считаю
    экзистенциальную катастрофу
  • 20:22 - 20:23
    разрушением цивилизации.
  • 20:23 - 20:25
    Это всё вопрос определения.
  • 20:25 - 20:27
    Допустим, будет миллиард погибших
  • 20:27 - 20:29
    или сокращение мирового ВВП на 50%,
  • 20:29 - 20:31
    но от того, как вы обозначите порог,
  • 20:31 - 20:33
    вы получите разную степень вероятности.
  • 20:33 - 20:37
    Думаю, вы назовёте меня
    запуганным оптимистом.
  • 20:37 - 20:38
    (Смех)
  • 20:38 - 20:40
    КА: Вы запуганный оптимист,
  • 20:40 - 20:44
    и я думаю, сейчас вы создали немало
    себе подобных запуганных
  • 20:44 - 20:46
    ...людей.
  • 20:46 - 20:47
    (Смех)
  • 20:47 - 20:48
    НБ: Живущих в симуляции.
  • 20:48 - 20:49
    КА: Точно.
  • 20:49 - 20:51
    Ник Бостром, ваши идеи удивляют.
  • 20:51 - 20:54
    Спасибо, что запугали нас до смерти.
  • 20:54 - 20:56
    (Аплодисменты)
Title:
Как цивилизация может разрушить сама себя, и 4 способа это предотвратить
Speaker:
Ник Бостром
Description:

Человечество почти приблизилось к созданию «чёрного шара» — научно-технического открытия, которое, по словам Ника Бострома, специалиста в вопросах философии, уничтожит всех нас. В ходе этого точного и на удивление непринужденного диалога с Крисом Андерсом, главой TED-сообщества, Бостром выделяет проблемы, с которыми нам предстоит столкнуться, когда мы потеряем контроль над нашими изобретениями (если такое вдруг случится), а также предполагает, как нам спастись от самоуничтожения.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Russian subtitles

Revisions