Смертный приговор не должен выноситься роботами
-
0:01 - 0:04Я пишу научно-фантастические триллеры,
-
0:04 - 0:06поэтому когда я говорю
о «роботах-убийцах», -
0:06 - 0:08вам, вероятно, представляется
что-то вот в таком роде. -
0:08 - 0:11Но сегодня речь пойдёт не о фантастике.
-
0:11 - 0:14Я хочу рассказать
о вполне реальных роботах-убийцах: -
0:14 - 0:17беспилотных боевых самолётах.
-
0:17 - 0:21Не о дронах
типа «Predator» или «Reaper», -
0:21 - 0:24где наведение на цель
контролируется человеком, -
0:24 - 0:27а о полностью автономном
роботизированном оружии, -
0:27 - 0:30самостоятельно принимающем
смертоносные решения -
0:30 - 0:32в отношении людей.
-
0:32 - 0:36Для этого даже есть специальный термин:
смертельная автономия. -
0:36 - 0:39Смертельно автономные роботы-убийцы
-
0:39 - 0:42могут управлять самолётами,
водить автомобили -
0:42 - 0:45или просто сидеть в засаде.
-
0:45 - 0:48Они стремительно входят
в нашу действительность. -
0:48 - 0:50Перед вами две автоматические
снайперские установки, -
0:50 - 0:55установленные в демилитаризованной зоне
между Северной и Южной Кореей. -
0:55 - 0:57Обе эти машины способны
автоматически определять -
0:57 - 1:00человеческую цель
и открывать по ней огонь. -
1:00 - 1:05Радиус действия левой установки
составляет более километра. -
1:05 - 1:08Здесь в обоих случаях
всё ещё задействован человек, -
1:08 - 1:10принимающий решение
о стрельбе на поражение, -
1:10 - 1:16но это не часть технической спецификации.
Это выбор. -
1:16 - 1:19И я хочу сегодня
поговорить об этом выборе, -
1:19 - 1:22потому что чем чаще
мы передаём принятие -
1:22 - 1:25смертоносных решений
от человека к компьютерной программе, -
1:25 - 1:28тем больше мы рискуем не только
лишить войну человеческого лица, -
1:28 - 1:32но и полностью изменить
социальную картину мира. -
1:32 - 1:34Того мира, что находится
вдали от поля боя. -
1:34 - 1:38Потому что методы разрешения конфликтов
-
1:38 - 1:40формируют социальную картину мира.
-
1:40 - 1:43И так было в истории всегда.
-
1:43 - 1:46Например, вот так выглядели
самые совершенные -
1:46 - 1:48виды оружия в 1400 году нашей эры.
-
1:48 - 1:51Они были очень дорогостоящи
в производстве и обслуживании, -
1:51 - 1:54но с их помощью
было легко управлять массами, -
1:54 - 1:58и расклад политических сил в феодальном обществе —
лучшее тому доказательство. -
1:58 - 2:01Власть была сосредоточена
у самой верхушки. -
2:01 - 2:04Что же изменилось?
Появились новые технологии. -
2:04 - 2:06Порох, пушки.
-
2:06 - 2:10Доспехи и замки быстро устарели,
-
2:10 - 2:12и стало уже не так важно, кто пришёл
сражаться на твоей стороне, -
2:12 - 2:16а важно, сколько человек
вышло на поле сражения. -
2:16 - 2:20Численность армий росла,
и возникло понятие государства-нации, -
2:20 - 2:23как необходимой политической
и тыловой оборонной составляющей. -
2:23 - 2:26И поскольку главам государств
всё больше приходилось -
2:26 - 2:28полагаться на свой народ,
они стали делиться властью. -
2:28 - 2:30Появилось понятие
представительного правления. -
2:30 - 2:33Таким образом,
методы разрешения конфликтов -
2:33 - 2:37формируют социальную картину нашего мира.
-
2:37 - 2:41Автономное роботизированное оружие —
один из таких методов. -
2:41 - 2:46Но есть одно «но». Для его использования
не нужно много военных, -
2:46 - 2:51а значит есть риск снова сосредоточить
власть в руках немногих, -
2:51 - 2:57повернув тем самым вспять
пять веков движения к демократии. -
2:57 - 2:59Если мы отдадим себе в этом отчёт,
мы сможем предпринять -
2:59 - 3:03решительные действия по защите
наших демократических ценностей -
3:03 - 3:07и адаптироваться, что у людей
всегда получалось очень хорошо. -
3:07 - 3:09Но у нас не так много времени.
-
3:09 - 3:12Сегодня 70 государств
занимаются разработкой собственных -
3:12 - 3:14дистанционно-пилотируемых боевых дронов.
-
3:14 - 3:17Такие дистанционно-пилотируемые
боевые дроны — -
3:17 - 3:22предвестники автономного
роботизированного оружия. -
3:22 - 3:24Как только эти дроны вступают в строй,
-
3:24 - 3:28появляется три серьёзных основания
передать принятие решений -
3:28 - 3:32от человека непосредственно
на оружейную платформу. -
3:32 - 3:38Во-первых, поток видеоинформации,
производимой дронами. -
3:38 - 3:41В 2004 году, например,
весь парк американских дронов собрал -
3:41 - 3:47в общей сложности
71 час видеонаблюдений для анализа. -
3:47 - 3:51К 2011 году это число
выросло до 300 000 часов. -
3:51 - 3:54Обработать столько информации
людям не под силу. -
3:54 - 3:58Но и это число кардинально вырастет
в ближайшее время. -
3:58 - 4:01Такие программы Пентагона,
как «Взгляд Горгоны» и «Аргус», -
4:01 - 4:04нацелены на установку на каждом дроне
-
4:04 - 4:06до 65 независимо работающих видеокамер.
-
4:06 - 4:09Людям не под силу будет
обработать столько видеоданных. -
4:09 - 4:11Понадобится
программное обеспечение видеоразведки -
4:11 - 4:15для отслеживания интересующей информации.
-
4:15 - 4:17А значит, что очень скоро дроны начнут
-
4:17 - 4:19указывать людям,
на что обращать внимание, -
4:19 - 4:22а не наоборот.
-
4:22 - 4:24Но есть и вторая серьёзная
причина для передачи -
4:24 - 4:28принятия решений от человека к машине.
-
4:28 - 4:31Она связана
с электромагнитными помехами, -
4:31 - 4:33которые обрывают связь между дроном
-
4:33 - 4:36и его оператором.
-
4:36 - 4:38Мы видели пример тому в 2011 году,
-
4:38 - 4:41когда американский дрон
«RQ-170 Sentinel» растерялся -
4:41 - 4:46в иранском воздушном пространстве
из-за спуфинг-атаки на GPS. -
4:46 - 4:51Любой дистанционно-управляемый дрон
может быть подвержен -
4:51 - 4:53атакам подобного типа,
а значит дроны должны будут -
4:53 - 4:56брать на себя больше работы
по принятию решений. -
4:56 - 4:59Понимая стоящую перед ними задачу,
они должны будут -
4:59 - 5:04реагировать на изменившуюся ситуацию
без участия человека. -
5:04 - 5:07Они должны будут игнорировать
внешние радиосигналы -
5:07 - 5:09и посылать минимальное количество
собственных сигналов. -
5:09 - 5:11Что приводит нас к третьей,
самой серьёзной причине -
5:11 - 5:15для передачи принятия решений
-
5:15 - 5:18от человека к оружию:
-
5:18 - 5:22убедительное отрицание.
-
5:22 - 5:25Мы сегодня живём
в условиях мировой экономики. -
5:25 - 5:29Производства на основе высоких технологий
развиты на большинстве континентов. -
5:29 - 5:32При помощи кибершпионажа
самые новейшие разработки -
5:32 - 5:34исчезают в никуда,
-
5:34 - 5:36и с таким положением дел
очень может оказаться, -
5:36 - 5:40что украденный удачный дизайн дрона,
сделанного на подпольной фабрике, -
5:40 - 5:43заполонит серый рынок.
-
5:43 - 5:45И в таком случае, разбирая завалы,
-
5:45 - 5:48оставленные после атаки дрона-самоубийцы,
-
5:48 - 5:52трудно будет сказать, кем он был послан.
-
5:52 - 5:55Тут возникает реальная угроза
-
5:55 - 5:58анонимной войны.
-
5:58 - 6:01Это может перевернуть
геополитический баланс с ног на голову, -
6:01 - 6:04усложнить государствам открытие
ответного огня против агрессора, -
6:04 - 6:07и в 21-ом веке сместить баланс
-
6:07 - 6:11от обороны в сторону нападения.
-
6:11 - 6:14Таким образом,
война становится доступной -
6:14 - 6:16не только для небольших государств,
-
6:16 - 6:19но и для криминальных структур,
частных предпринимателей, -
6:19 - 6:21или для просто очень влиятельных людей.
-
6:21 - 6:25Такая ситуация может
открыть дорогу воинствующим боевикам, -
6:25 - 6:28подрывающим устои закона
и гражданского общества. -
6:28 - 6:32Сознание ответственности и открытость —
-
6:32 - 6:34два краеугольных камня
представительного правления. -
6:34 - 6:39Но оба могут быть подорваны с появлением
автономного роботизированного оружия. -
6:39 - 6:40Вам может показаться, что жители стран
-
6:40 - 6:42с хорошо развитой индустрией
высоких технологий -
6:42 - 6:45будут иметь преимущество
в роботизированной войне, -
6:45 - 6:49что они будут менее уязвимы,
-
6:49 - 6:53особенно по сравнению
с развивающимися странами. -
6:53 - 6:57Но мне кажется, что справедливо
как раз обратное. -
6:57 - 6:59Общества с наиболее развитыми
высокими технологиями -
6:59 - 7:03и являются наиболее уязвимыми
для роботизированного оружия. -
7:03 - 7:07Причину можно суммировать один словом:
информация. -
7:07 - 7:11Информация — двигатель любого
высокотехнологичного общества. -
7:11 - 7:14Мобильные службы геолокации,
метаданные операторов связи, -
7:14 - 7:17социальные сети, электронная почта,
текстовые сообщения, -
7:17 - 7:21данные о финансовых операциях
и перевозках — изобилие информации -
7:21 - 7:24о взаимодействии и перемещении людей
в реальном времени. -
7:24 - 7:28Сегодня машины знают про нас всё.
-
7:28 - 7:30Значительно больше, чем когда-либо
в истории человечества. -
7:30 - 7:36И это идеально отвечает
прицельным нуждам автономного оружия. -
7:36 - 7:37Перед вами графический анализ связей
-
7:37 - 7:41некой социальной группы людей.
-
7:41 - 7:44Линии обозначают
социальные связи между людьми. -
7:44 - 7:47Такие графики можно
автоматически построить, -
7:47 - 7:52используя информационный след,
оставляемый современными людьми. -
7:52 - 7:54Обычно эти данные используются
для продажи товаров и услуг -
7:54 - 7:59целевой аудитории, но это
технология двойного назначения, -
7:59 - 8:02потому что существует
и другое определение цели. -
8:02 - 8:05Обратите внимание, что некоторые точки
выделены на графике. -
8:05 - 8:08Эти люди —
центры своих социальных сетей. -
8:08 - 8:12Эти люди — организаторы,
лидеры общественного мнения. -
8:12 - 8:14Их можно автоматически выделить
-
8:14 - 8:17по их манере общения.
-
8:17 - 8:19Если вы маркетолог, вы будете стараться
привлечь их внимание, -
8:19 - 8:21давая им образцы вашей продукции
и тем самым продвигая -
8:21 - 8:24ваш бренд внутри их социальной группы.
-
8:24 - 8:26Но если вы —
репрессивный режим, занятый поиском -
8:26 - 8:31политических врагов,
вы будете заинтересованы в том, -
8:31 - 8:34чтобы убрать их, избавиться от них,
нарушить их социальную группировку, -
8:34 - 8:37таким образом,
что оставшиеся члены группы -
8:37 - 8:39потеряют единство и организацию.
-
8:39 - 8:43В мире, где дешёвое
роботизированное оружие -
8:43 - 8:45будет широко распространено,
границы не смогут защитить -
8:45 - 8:47критиков удалённых правительств
-
8:47 - 8:51или транснациональных
преступных организаций. -
8:51 - 8:55Народные движения, требующие перемен,
-
8:55 - 8:58можно будет подавить на ранних стадиях,
избавиться от их лидеров, -
8:58 - 9:01прежде чем их идеи
достигнут критической массы. -
9:01 - 9:04Достижение идеями критической массы —
-
9:04 - 9:08основная цель любого политического
движения в демократическом обществе. -
9:08 - 9:12Анонимное смертоносное оружие может
облегчить выбор в пользу смертоносной силы -
9:12 - 9:15самыми разными
соперничающими группировками. -
9:15 - 9:19А это заморозит
свободу слова и гражданскую -
9:19 - 9:24политическую активность —
самое сердце демократии. -
9:24 - 9:27Именно поэтому нам необходимо
международное законодательство -
9:27 - 9:31о применении роботизированного оружия, а также
-
9:31 - 9:35повсеместный запрет на производство
и распространение роботов-убийц. -
9:35 - 9:38У нас уже есть
международные договоры об использовании -
9:38 - 9:41ядерного и биологического оружия.
Они могут быть несовершенны, -
9:41 - 9:44но они в большинстве своём работают.
-
9:44 - 9:47Роботизированное оружие
настолько же опасно, -
9:47 - 9:51потому что его будут использовать,
-
9:51 - 9:56и последствия будут разрушительны
для наших демократических устоев. -
9:56 - 9:59В ноябре 2012 года
министерство обороны США -
9:59 - 10:02выпустило распоряжение, требующее
-
10:02 - 10:06обязательного присутствия человека
при принятии любых смертоносных решений. -
10:06 - 10:11Этот указ ввёл временный запрет
на использование автономного оружия
вооружёнными силами США, -
10:11 - 10:15но запрет этот должен стать постоянным.
-
10:15 - 10:19И он должен послужить толчком
для действий на международной арене. -
10:19 - 10:23Потому что нам необходим
международный свод законов -
10:23 - 10:25об использовании
роботизированного оружия. -
10:25 - 10:28И эти законы нужны уже сейчас,
не дожидаясь пока на нас нападут -
10:28 - 10:31или пока очередная угроза терроризма
не заставит государства во всём мире -
10:31 - 10:33в спешном порядке внедрять это оружие,
-
10:33 - 10:37не задумываясь о последствиях.
-
10:37 - 10:40Автономное роботизированное оружие
сосредоточивает слишком большую власть -
10:40 - 10:46в руках немногих и угрожает демократии.
-
10:46 - 10:49Не поймите меня неправильно:
я считаю, что есть много -
10:49 - 10:51замечательных примеров использования
гражданских невооружённых дронов. -
10:51 - 10:55Охрана окружающей среды, поисково-спасательные работы,
транспортировка и снабжение. -
10:55 - 10:58При наличии международного
законодательства об использовании -
10:58 - 11:02роботизированного оружия, как мы можем
воспользоваться преимуществами -
11:02 - 11:04беспилотных дронов и автомобилей,
и в то же время -
11:04 - 11:08защитить себя от нелегального
роботизированного оружия? -
11:08 - 11:13Я считаю, что нам поможет
политика открытости. -
11:13 - 11:16У робота не может быть права на секреты
-
11:16 - 11:20в общественном месте.
-
11:20 - 11:25(Аплодисменты)
-
11:25 - 11:27У каждого робота или дрона
должна быть шифрованная маркировка, -
11:27 - 11:30поставленная на заводе,
которую можно будет использовать -
11:30 - 11:33для отслеживания его передвижений
в общественных местах. -
11:33 - 11:36У наших машин и самолётов
есть номерные знаки. -
11:36 - 11:38Здесь должно быть то же самое.
-
11:38 - 11:40И любой человек должен иметь
доступ к приложению, -
11:40 - 11:43которое бы показывало ему
все дроны и беспилотные автомобили -
11:43 - 11:45и их местоположение и траекторию
движения в общественных местах -
11:45 - 11:48в реальном времени или в прошлом.
-
11:48 - 11:52Общественные деятели должны
установить сенсорные датчики -
11:52 - 11:54и иметь в распоряжении гражданские дроны
для отслеживания неисправных машин, -
11:54 - 11:57но не посылать при этом свои дроны,
чтобы их уничтожить, -
11:57 - 12:00а вместо этого предупреждать людей
об их присутствии. -
12:00 - 12:03И только в зонах повышенной безопасности
-
12:03 - 12:05возможно гражданские дроны
будут ловить такие машины -
12:05 - 12:07и отвозить их на свалки оружия
для захоронения. -
12:07 - 12:11Обратите внимание, что это больше похоже
на иммунную систему, -
12:11 - 12:12чем на систему вооружений.
-
12:12 - 12:14Это позволит нам
извлекать выгоду из использования -
12:14 - 12:16беспилотных машин и дронов,
-
12:16 - 12:21при этом сохраняя
наше открытое гражданское общество. -
12:21 - 12:24Мы должны запретить
производство и распространение -
12:24 - 12:26роботов-убийц.
-
12:26 - 12:30Давайте не будем поддаваться соблазну
автоматизировать военные действия. -
12:30 - 12:33Вне всякого сомнения,
что диктатуры и криминальные структуры -
12:33 - 12:36этим воспользуются,
но давайте не будем им уподобляться. -
12:36 - 12:38Автономное роботизированное оружие
-
12:38 - 12:40сосредоточит слишком много власти
-
12:40 - 12:43в невидимых руках немногих,
-
12:43 - 12:46что будет разрушительно
для представительного правления. -
12:46 - 12:49Давайте же постараемся, чтобы по крайней мере
в демократическом обществе -
12:49 - 12:51роботы-убийцы оставались
только на страницах книг. -
12:51 - 12:52Спасибо.
-
12:52 - 12:57(Аплодисменты)
-
12:57 - 13:02Спасибо. (Аплодисменты)
- Title:
- Смертный приговор не должен выноситься роботами
- Speaker:
- Дэниэл Суарес
- Description:
-
Как писатель, Дэниэл Суарес любит сочинять мрачные истории о будущем. Но на сцену TEDGlobal он вышел, чтобы поговорить о том, что происходит в реальной жизни, и о чём всем нам не мешает больше знать: увеличение использования автономного роботизированного оружия. По его мнению, современные модели беспилотных боевых самолётов, автоматическое оружие и разведывательные системы, оснащённые элементами искусственного интеллекта, могут принимать решения о начале военных действий самостоятельно, без участия людей.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
Aliaksandr Autayeu edited Russian subtitles for The kill decision shouldn't belong to a robot | ||
Aliaksandr Autayeu approved Russian subtitles for The kill decision shouldn't belong to a robot | ||
Aliaksandr Autayeu edited Russian subtitles for The kill decision shouldn't belong to a robot | ||
Aliaksandr Autayeu edited Russian subtitles for The kill decision shouldn't belong to a robot | ||
Aliaksandr Autayeu edited Russian subtitles for The kill decision shouldn't belong to a robot | ||
Aliaksandr Autayeu edited Russian subtitles for The kill decision shouldn't belong to a robot | ||
Anastasia Johnston commented on Russian subtitles for The kill decision shouldn't belong to a robot | ||
Anastasia Johnston accepted Russian subtitles for The kill decision shouldn't belong to a robot |
Anastasia Johnston
Лучше написать "не помешает знать больше"
Anastasia Johnston
Извините, комментарий был для части "Description".