< Return to Video

Смертный приговор не должен выноситься роботами

  • 0:01 - 0:04
    Я пишу научно-фантастические триллеры,
  • 0:04 - 0:06
    поэтому когда я говорю
    о «роботах-убийцах»,
  • 0:06 - 0:08
    вам, вероятно, представляется
    что-то вот в таком роде.
  • 0:08 - 0:11
    Но сегодня речь пойдёт не о фантастике.
  • 0:11 - 0:14
    Я хочу рассказать
    о вполне реальных роботах-убийцах:
  • 0:14 - 0:17
    беспилотных боевых самолётах.
  • 0:17 - 0:21
    Не о дронах
    типа «Predator» или «Reaper»,
  • 0:21 - 0:24
    где наведение на цель
    контролируется человеком,
  • 0:24 - 0:27
    а о полностью автономном
    роботизированном оружии,
  • 0:27 - 0:30
    самостоятельно принимающем
    смертоносные решения
  • 0:30 - 0:32
    в отношении людей.
  • 0:32 - 0:36
    Для этого даже есть специальный термин:
    смертельная автономия.
  • 0:36 - 0:39
    Смертельно автономные роботы-убийцы
  • 0:39 - 0:42
    могут управлять самолётами,
    водить автомобили
  • 0:42 - 0:45
    или просто сидеть в засаде.
  • 0:45 - 0:48
    Они стремительно входят
    в нашу действительность.
  • 0:48 - 0:50
    Перед вами две автоматические
    снайперские установки,
  • 0:50 - 0:55
    установленные в демилитаризованной зоне
    между Северной и Южной Кореей.
  • 0:55 - 0:57
    Обе эти машины способны
    автоматически определять
  • 0:57 - 1:00
    человеческую цель
    и открывать по ней огонь.
  • 1:00 - 1:05
    Радиус действия левой установки
    составляет более километра.
  • 1:05 - 1:08
    Здесь в обоих случаях
    всё ещё задействован человек,
  • 1:08 - 1:10
    принимающий решение
    о стрельбе на поражение,
  • 1:10 - 1:16
    но это не часть технической спецификации.
    Это выбор.
  • 1:16 - 1:19
    И я хочу сегодня
    поговорить об этом выборе,
  • 1:19 - 1:22
    потому что чем чаще
    мы передаём принятие
  • 1:22 - 1:25
    смертоносных решений
    от человека к компьютерной программе,
  • 1:25 - 1:28
    тем больше мы рискуем не только
    лишить войну человеческого лица,
  • 1:28 - 1:32
    но и полностью изменить
    социальную картину мира.
  • 1:32 - 1:34
    Того мира, что находится
    вдали от поля боя.
  • 1:34 - 1:38
    Потому что методы разрешения конфликтов
  • 1:38 - 1:40
    формируют социальную картину мира.
  • 1:40 - 1:43
    И так было в истории всегда.
  • 1:43 - 1:46
    Например, вот так выглядели
    самые совершенные
  • 1:46 - 1:48
    виды оружия в 1400 году нашей эры.
  • 1:48 - 1:51
    Они были очень дорогостоящи
    в производстве и обслуживании,
  • 1:51 - 1:54
    но с их помощью
    было легко управлять массами,
  • 1:54 - 1:58
    и расклад политических сил в феодальном обществе —
    лучшее тому доказательство.
  • 1:58 - 2:01
    Власть была сосредоточена
    у самой верхушки.
  • 2:01 - 2:04
    Что же изменилось?
    Появились новые технологии.
  • 2:04 - 2:06
    Порох, пушки.
  • 2:06 - 2:10
    Доспехи и замки быстро устарели,
  • 2:10 - 2:12
    и стало уже не так важно, кто пришёл
    сражаться на твоей стороне,
  • 2:12 - 2:16
    а важно, сколько человек
    вышло на поле сражения.
  • 2:16 - 2:20
    Численность армий росла,
    и возникло понятие государства-нации,
  • 2:20 - 2:23
    как необходимой политической
    и тыловой оборонной составляющей.
  • 2:23 - 2:26
    И поскольку главам государств
    всё больше приходилось
  • 2:26 - 2:28
    полагаться на свой народ,
    они стали делиться властью.
  • 2:28 - 2:30
    Появилось понятие
    представительного правления.
  • 2:30 - 2:33
    Таким образом,
    методы разрешения конфликтов
  • 2:33 - 2:37
    формируют социальную картину нашего мира.
  • 2:37 - 2:41
    Автономное роботизированное оружие —
    один из таких методов.
  • 2:41 - 2:46
    Но есть одно «но». Для его использования
    не нужно много военных,
  • 2:46 - 2:51
    а значит есть риск снова сосредоточить
    власть в руках немногих,
  • 2:51 - 2:57
    повернув тем самым вспять
    пять веков движения к демократии.
  • 2:57 - 2:59
    Если мы отдадим себе в этом отчёт,
    мы сможем предпринять
  • 2:59 - 3:03
    решительные действия по защите
    наших демократических ценностей
  • 3:03 - 3:07
    и адаптироваться, что у людей
    всегда получалось очень хорошо.
  • 3:07 - 3:09
    Но у нас не так много времени.
  • 3:09 - 3:12
    Сегодня 70 государств
    занимаются разработкой собственных
  • 3:12 - 3:14
    дистанционно-пилотируемых боевых дронов.
  • 3:14 - 3:17
    Такие дистанционно-пилотируемые
    боевые дроны —
  • 3:17 - 3:22
    предвестники автономного
    роботизированного оружия.
  • 3:22 - 3:24
    Как только эти дроны вступают в строй,
  • 3:24 - 3:28
    появляется три серьёзных основания
    передать принятие решений
  • 3:28 - 3:32
    от человека непосредственно
    на оружейную платформу.
  • 3:32 - 3:38
    Во-первых, поток видеоинформации,
    производимой дронами.
  • 3:38 - 3:41
    В 2004 году, например,
    весь парк американских дронов собрал
  • 3:41 - 3:47
    в общей сложности
    71 час видеонаблюдений для анализа.
  • 3:47 - 3:51
    К 2011 году это число
    выросло до 300 000 часов.
  • 3:51 - 3:54
    Обработать столько информации
    людям не под силу.
  • 3:54 - 3:58
    Но и это число кардинально вырастет
    в ближайшее время.
  • 3:58 - 4:01
    Такие программы Пентагона,
    как «Взгляд Горгоны» и «Аргус»,
  • 4:01 - 4:04
    нацелены на установку на каждом дроне
  • 4:04 - 4:06
    до 65 независимо работающих видеокамер.
  • 4:06 - 4:09
    Людям не под силу будет
    обработать столько видеоданных.
  • 4:09 - 4:11
    Понадобится
    программное обеспечение видеоразведки
  • 4:11 - 4:15
    для отслеживания интересующей информации.
  • 4:15 - 4:17
    А значит, что очень скоро дроны начнут
  • 4:17 - 4:19
    указывать людям,
    на что обращать внимание,
  • 4:19 - 4:22
    а не наоборот.
  • 4:22 - 4:24
    Но есть и вторая серьёзная
    причина для передачи
  • 4:24 - 4:28
    принятия решений от человека к машине.
  • 4:28 - 4:31
    Она связана
    с электромагнитными помехами,
  • 4:31 - 4:33
    которые обрывают связь между дроном
  • 4:33 - 4:36
    и его оператором.
  • 4:36 - 4:38
    Мы видели пример тому в 2011 году,
  • 4:38 - 4:41
    когда американский дрон
    «RQ-170 Sentinel» растерялся
  • 4:41 - 4:46
    в иранском воздушном пространстве
    из-за спуфинг-атаки на GPS.
  • 4:46 - 4:51
    Любой дистанционно-управляемый дрон
    может быть подвержен
  • 4:51 - 4:53
    атакам подобного типа,
    а значит дроны должны будут
  • 4:53 - 4:56
    брать на себя больше работы
    по принятию решений.
  • 4:56 - 4:59
    Понимая стоящую перед ними задачу,
    они должны будут
  • 4:59 - 5:04
    реагировать на изменившуюся ситуацию
    без участия человека.
  • 5:04 - 5:07
    Они должны будут игнорировать
    внешние радиосигналы
  • 5:07 - 5:09
    и посылать минимальное количество
    собственных сигналов.
  • 5:09 - 5:11
    Что приводит нас к третьей,
    самой серьёзной причине
  • 5:11 - 5:15
    для передачи принятия решений
  • 5:15 - 5:18
    от человека к оружию:
  • 5:18 - 5:22
    убедительное отрицание.
  • 5:22 - 5:25
    Мы сегодня живём
    в условиях мировой экономики.
  • 5:25 - 5:29
    Производства на основе высоких технологий
    развиты на большинстве континентов.
  • 5:29 - 5:32
    При помощи кибершпионажа
    самые новейшие разработки
  • 5:32 - 5:34
    исчезают в никуда,
  • 5:34 - 5:36
    и с таким положением дел
    очень может оказаться,
  • 5:36 - 5:40
    что украденный удачный дизайн дрона,
    сделанного на подпольной фабрике,
  • 5:40 - 5:43
    заполонит серый рынок.
  • 5:43 - 5:45
    И в таком случае, разбирая завалы,
  • 5:45 - 5:48
    оставленные после атаки дрона-самоубийцы,
  • 5:48 - 5:52
    трудно будет сказать, кем он был послан.
  • 5:52 - 5:55
    Тут возникает реальная угроза
  • 5:55 - 5:58
    анонимной войны.
  • 5:58 - 6:01
    Это может перевернуть
    геополитический баланс с ног на голову,
  • 6:01 - 6:04
    усложнить государствам открытие
    ответного огня против агрессора,
  • 6:04 - 6:07
    и в 21-ом веке сместить баланс
  • 6:07 - 6:11
    от обороны в сторону нападения.
  • 6:11 - 6:14
    Таким образом,
    война становится доступной
  • 6:14 - 6:16
    не только для небольших государств,
  • 6:16 - 6:19
    но и для криминальных структур,
    частных предпринимателей,
  • 6:19 - 6:21
    или для просто очень влиятельных людей.
  • 6:21 - 6:25
    Такая ситуация может
    открыть дорогу воинствующим боевикам,
  • 6:25 - 6:28
    подрывающим устои закона
    и гражданского общества.
  • 6:28 - 6:32
    Сознание ответственности и открытость —
  • 6:32 - 6:34
    два краеугольных камня
    представительного правления.
  • 6:34 - 6:39
    Но оба могут быть подорваны с появлением
    автономного роботизированного оружия.
  • 6:39 - 6:40
    Вам может показаться, что жители стран
  • 6:40 - 6:42
    с хорошо развитой индустрией
    высоких технологий
  • 6:42 - 6:45
    будут иметь преимущество
    в роботизированной войне,
  • 6:45 - 6:49
    что они будут менее уязвимы,
  • 6:49 - 6:53
    особенно по сравнению
    с развивающимися странами.
  • 6:53 - 6:57
    Но мне кажется, что справедливо
    как раз обратное.
  • 6:57 - 6:59
    Общества с наиболее развитыми
    высокими технологиями
  • 6:59 - 7:03
    и являются наиболее уязвимыми
    для роботизированного оружия.
  • 7:03 - 7:07
    Причину можно суммировать один словом:
    информация.
  • 7:07 - 7:11
    Информация — двигатель любого
    высокотехнологичного общества.
  • 7:11 - 7:14
    Мобильные службы геолокации,
    метаданные операторов связи,
  • 7:14 - 7:17
    социальные сети, электронная почта,
    текстовые сообщения,
  • 7:17 - 7:21
    данные о финансовых операциях
    и перевозках — изобилие информации
  • 7:21 - 7:24
    о взаимодействии и перемещении людей
    в реальном времени.
  • 7:24 - 7:28
    Сегодня машины знают про нас всё.
  • 7:28 - 7:30
    Значительно больше, чем когда-либо
    в истории человечества.
  • 7:30 - 7:36
    И это идеально отвечает
    прицельным нуждам автономного оружия.
  • 7:36 - 7:37
    Перед вами графический анализ связей
  • 7:37 - 7:41
    некой социальной группы людей.
  • 7:41 - 7:44
    Линии обозначают
    социальные связи между людьми.
  • 7:44 - 7:47
    Такие графики можно
    автоматически построить,
  • 7:47 - 7:52
    используя информационный след,
    оставляемый современными людьми.
  • 7:52 - 7:54
    Обычно эти данные используются
    для продажи товаров и услуг
  • 7:54 - 7:59
    целевой аудитории, но это
    технология двойного назначения,
  • 7:59 - 8:02
    потому что существует
    и другое определение цели.
  • 8:02 - 8:05
    Обратите внимание, что некоторые точки
    выделены на графике.
  • 8:05 - 8:08
    Эти люди —
    центры своих социальных сетей.
  • 8:08 - 8:12
    Эти люди — организаторы,
    лидеры общественного мнения.
  • 8:12 - 8:14
    Их можно автоматически выделить
  • 8:14 - 8:17
    по их манере общения.
  • 8:17 - 8:19
    Если вы маркетолог, вы будете стараться
    привлечь их внимание,
  • 8:19 - 8:21
    давая им образцы вашей продукции
    и тем самым продвигая
  • 8:21 - 8:24
    ваш бренд внутри их социальной группы.
  • 8:24 - 8:26
    Но если вы —
    репрессивный режим, занятый поиском
  • 8:26 - 8:31
    политических врагов,
    вы будете заинтересованы в том,
  • 8:31 - 8:34
    чтобы убрать их, избавиться от них,
    нарушить их социальную группировку,
  • 8:34 - 8:37
    таким образом,
    что оставшиеся члены группы
  • 8:37 - 8:39
    потеряют единство и организацию.
  • 8:39 - 8:43
    В мире, где дешёвое
    роботизированное оружие
  • 8:43 - 8:45
    будет широко распространено,
    границы не смогут защитить
  • 8:45 - 8:47
    критиков удалённых правительств
  • 8:47 - 8:51
    или транснациональных
    преступных организаций.
  • 8:51 - 8:55
    Народные движения, требующие перемен,
  • 8:55 - 8:58
    можно будет подавить на ранних стадиях,
    избавиться от их лидеров,
  • 8:58 - 9:01
    прежде чем их идеи
    достигнут критической массы.
  • 9:01 - 9:04
    Достижение идеями критической массы —
  • 9:04 - 9:08
    основная цель любого политического
    движения в демократическом обществе.
  • 9:08 - 9:12
    Анонимное смертоносное оружие может
    облегчить выбор в пользу смертоносной силы
  • 9:12 - 9:15
    самыми разными
    соперничающими группировками.
  • 9:15 - 9:19
    А это заморозит
    свободу слова и гражданскую
  • 9:19 - 9:24
    политическую активность —
    самое сердце демократии.
  • 9:24 - 9:27
    Именно поэтому нам необходимо
    международное законодательство
  • 9:27 - 9:31
    о применении роботизированного оружия, а также
  • 9:31 - 9:35
    повсеместный запрет на производство
    и распространение роботов-убийц.
  • 9:35 - 9:38
    У нас уже есть
    международные договоры об использовании
  • 9:38 - 9:41
    ядерного и биологического оружия.
    Они могут быть несовершенны,
  • 9:41 - 9:44
    но они в большинстве своём работают.
  • 9:44 - 9:47
    Роботизированное оружие
    настолько же опасно,
  • 9:47 - 9:51
    потому что его будут использовать,
  • 9:51 - 9:56
    и последствия будут разрушительны
    для наших демократических устоев.
  • 9:56 - 9:59
    В ноябре 2012 года
    министерство обороны США
  • 9:59 - 10:02
    выпустило распоряжение, требующее
  • 10:02 - 10:06
    обязательного присутствия человека
    при принятии любых смертоносных решений.
  • 10:06 - 10:11
    Этот указ ввёл временный запрет
    на использование автономного оружия
    вооружёнными силами США,
  • 10:11 - 10:15
    но запрет этот должен стать постоянным.
  • 10:15 - 10:19
    И он должен послужить толчком
    для действий на международной арене.
  • 10:19 - 10:23
    Потому что нам необходим
    международный свод законов
  • 10:23 - 10:25
    об использовании
    роботизированного оружия.
  • 10:25 - 10:28
    И эти законы нужны уже сейчас,
    не дожидаясь пока на нас нападут
  • 10:28 - 10:31
    или пока очередная угроза терроризма
    не заставит государства во всём мире
  • 10:31 - 10:33
    в спешном порядке внедрять это оружие,
  • 10:33 - 10:37
    не задумываясь о последствиях.
  • 10:37 - 10:40
    Автономное роботизированное оружие
    сосредоточивает слишком большую власть
  • 10:40 - 10:46
    в руках немногих и угрожает демократии.
  • 10:46 - 10:49
    Не поймите меня неправильно:
    я считаю, что есть много
  • 10:49 - 10:51
    замечательных примеров использования
    гражданских невооружённых дронов.
  • 10:51 - 10:55
    Охрана окружающей среды, поисково-спасательные работы,
    транспортировка и снабжение.
  • 10:55 - 10:58
    При наличии международного
    законодательства об использовании
  • 10:58 - 11:02
    роботизированного оружия, как мы можем
    воспользоваться преимуществами
  • 11:02 - 11:04
    беспилотных дронов и автомобилей,
    и в то же время
  • 11:04 - 11:08
    защитить себя от нелегального
    роботизированного оружия?
  • 11:08 - 11:13
    Я считаю, что нам поможет
    политика открытости.
  • 11:13 - 11:16
    У робота не может быть права на секреты
  • 11:16 - 11:20
    в общественном месте.
  • 11:20 - 11:25
    (Аплодисменты)
  • 11:25 - 11:27
    У каждого робота или дрона
    должна быть шифрованная маркировка,
  • 11:27 - 11:30
    поставленная на заводе,
    которую можно будет использовать
  • 11:30 - 11:33
    для отслеживания его передвижений
    в общественных местах.
  • 11:33 - 11:36
    У наших машин и самолётов
    есть номерные знаки.
  • 11:36 - 11:38
    Здесь должно быть то же самое.
  • 11:38 - 11:40
    И любой человек должен иметь
    доступ к приложению,
  • 11:40 - 11:43
    которое бы показывало ему
    все дроны и беспилотные автомобили
  • 11:43 - 11:45
    и их местоположение и траекторию
    движения в общественных местах
  • 11:45 - 11:48
    в реальном времени или в прошлом.
  • 11:48 - 11:52
    Общественные деятели должны
    установить сенсорные датчики
  • 11:52 - 11:54
    и иметь в распоряжении гражданские дроны
    для отслеживания неисправных машин,
  • 11:54 - 11:57
    но не посылать при этом свои дроны,
    чтобы их уничтожить,
  • 11:57 - 12:00
    а вместо этого предупреждать людей
    об их присутствии.
  • 12:00 - 12:03
    И только в зонах повышенной безопасности
  • 12:03 - 12:05
    возможно гражданские дроны
    будут ловить такие машины
  • 12:05 - 12:07
    и отвозить их на свалки оружия
    для захоронения.
  • 12:07 - 12:11
    Обратите внимание, что это больше похоже
    на иммунную систему,
  • 12:11 - 12:12
    чем на систему вооружений.
  • 12:12 - 12:14
    Это позволит нам
    извлекать выгоду из использования
  • 12:14 - 12:16
    беспилотных машин и дронов,
  • 12:16 - 12:21
    при этом сохраняя
    наше открытое гражданское общество.
  • 12:21 - 12:24
    Мы должны запретить
    производство и распространение
  • 12:24 - 12:26
    роботов-убийц.
  • 12:26 - 12:30
    Давайте не будем поддаваться соблазну
    автоматизировать военные действия.
  • 12:30 - 12:33
    Вне всякого сомнения,
    что диктатуры и криминальные структуры
  • 12:33 - 12:36
    этим воспользуются,
    но давайте не будем им уподобляться.
  • 12:36 - 12:38
    Автономное роботизированное оружие
  • 12:38 - 12:40
    сосредоточит слишком много власти
  • 12:40 - 12:43
    в невидимых руках немногих,
  • 12:43 - 12:46
    что будет разрушительно
    для представительного правления.
  • 12:46 - 12:49
    Давайте же постараемся, чтобы по крайней мере
    в демократическом обществе
  • 12:49 - 12:51
    роботы-убийцы оставались
    только на страницах книг.
  • 12:51 - 12:52
    Спасибо.
  • 12:52 - 12:57
    (Аплодисменты)
  • 12:57 - 13:02
    Спасибо. (Аплодисменты)
Title:
Смертный приговор не должен выноситься роботами
Speaker:
Дэниэл Суарес
Description:

Как писатель, Дэниэл Суарес любит сочинять мрачные истории о будущем. Но на сцену TEDGlobal он вышел, чтобы поговорить о том, что происходит в реальной жизни, и о чём всем нам не мешает больше знать: увеличение использования автономного роботизированного оружия. По его мнению, современные модели беспилотных боевых самолётов, автоматическое оружие и разведывательные системы, оснащённые элементами искусственного интеллекта, могут принимать решения о начале военных действий самостоятельно, без участия людей.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20
  • Лучше написать "не помешает знать больше"

  • Извините, комментарий был для части "Description".

Russian subtitles

Revisions Compare revisions