人殺しの決定をロボットに任せてはいけない
-
0:00 - 0:03私はSFスリラーの
小説家です -
0:03 - 0:06その私が「殺人ロボット」
と言ったら -
0:06 - 0:08おそらく こんな感じのものを
想像されるでしょう -
0:08 - 0:10でも 今日はフィクションの話を
しに来たのではありません -
0:10 - 0:13まさに現実化している
「殺人ロボット」― -
0:13 - 0:17そう 完全自律型の戦闘ドローンのことを
話しに来ました -
0:17 - 0:20ご存知のプレデター型や
リーパー型のことではありません -
0:20 - 0:23これらの無人機は 標的の決定を
人間が行っています -
0:23 - 0:27私は完全自律型のロボット兵器のことを
言っているんです -
0:27 - 0:29このロボット兵器は
人間殺害の決定を -
0:29 - 0:32ロボット自体が行います
-
0:32 - 0:36実は これを指す専門用語もあります
「完全自律型殺傷機能」です -
0:36 - 0:38「完全自律型殺傷機能」を持つ
殺人ロボットは -
0:38 - 0:42多様な姿で現れます
飛行し 走行し あるいは -
0:42 - 0:44待ち伏せするような
ものもあるでしょう -
0:44 - 0:47実は これらのロボットは
急速に現実のものとなりつつあります -
0:47 - 0:50この2種類の
自動狙撃装置は -
0:50 - 0:54現在 北朝鮮との非武装地帯の
韓国側に配備されています -
0:54 - 0:56この機械はどちらも
攻撃対象となる— -
0:56 - 1:00人間を自動的に特定し
銃撃する機能があります -
1:00 - 1:04左側のものには
1キロ以上の射程があります -
1:04 - 1:08現在のところは どちらの機械でも
射殺決定の枠組みに -
1:08 - 1:10今のところは
人間が介在しています -
1:10 - 1:15しかし 技術的には人を要するわけではなく
そこに人を介在させる選択をしたわけです -
1:15 - 1:19この選択こそが
今日 私が焦点を当てたいことです -
1:19 - 1:21なぜなら この
殺人の意思決定が -
1:21 - 1:24人間からソフトウェアに
移行しつつあって -
1:24 - 1:28それは 戦争から人間性を
取り去ってしまうだけでなく -
1:28 - 1:31戦場から遠く隔たった
社会の情勢をも -
1:31 - 1:33変えてしまう危険が
あるからです -
1:33 - 1:38なぜなら人間が対立を解決する方法によって
私たちを取り巻く社会情勢が -
1:38 - 1:40形成されるからです
-
1:40 - 1:42歴史上ずっと
そうやって形成されてきたのです -
1:42 - 1:45たとえば 西暦1400年には
これが最先端の― -
1:45 - 1:47兵器システムでした
-
1:47 - 1:50両方とも 作るのも維持するのも
とても高く付きましたが -
1:50 - 1:53これがあれば民衆を
支配できました -
1:53 - 1:57封建社会の政治権力の分布は
誰が武力を持つかを反映し -
1:57 - 2:00力は権力のトップにいる人に
集中していたのです -
2:00 - 2:04それから何が変わったのでしょう?
技術革新です -
2:04 - 2:05火薬 大砲
-
2:05 - 2:09すぐに 甲冑と城は
時代遅れになりました -
2:09 - 2:12戦場に誰を連れて行くかは
重要でなくなり -
2:12 - 2:16戦場にどれだけの人数を
送り込めるかが重要になりました -
2:16 - 2:19軍隊の人数が増えるようになると
防衛のための— -
2:19 - 2:23政治的 物流的な要請から
国家が必要となりました -
2:23 - 2:25指導者は民衆に
依存する必要が出てきて -
2:25 - 2:27力が共有されるようになりました
-
2:27 - 2:30そして代議制が
形成されだします -
2:30 - 2:33ここでもまた
対立解消にどんな手段を取るかが -
2:33 - 2:36私たちを取り巻く社会情勢を
形作っています -
2:36 - 2:40自律ロボット兵器も
そのような手段の1つです -
2:40 - 2:46ただ戦争を始めるのに
非常に少数の人間しか必要としないため -
2:46 - 2:50ごく少数の人の手に力を
再び集中させるリスクがあります -
2:50 - 2:57民主化の流れを 5世紀分ほど
逆戻りさせてしまうかもしれません -
2:57 - 2:59でも 私たちが
-
2:59 - 3:03このリスクを理解していれば
民主主義制度を守るための断固たる措置を取れます -
3:03 - 3:07人間が長けている能力によって—
すなわち適応力です -
3:07 - 3:09しかし タイミングが
重要です -
3:09 - 3:1270の国が遠隔操縦可能な―
-
3:12 - 3:14戦闘ドローンを
独自に開発しています -
3:14 - 3:17おわかりと思いますが
遠隔操作戦闘ドローンは -
3:17 - 3:21自律ロボット兵器を
作り始める前兆です -
3:21 - 3:24なぜなら遠隔操作の無人機が
-
3:24 - 3:27一旦配備されてしまうと
意思決定を人の手から -
3:27 - 3:32兵器そのものへと押しやることになる
大きな要因が3つあるからです -
3:32 - 3:371つ目の要因は
無人機が撮影するビデオが膨大になることです -
3:37 - 3:41たとえば 2004 年に
米国のドローン軍団が撮影した -
3:41 - 3:46分析が必要な偵察映像は
総計71 時間でした -
3:46 - 3:51それが2011 年には 30万時間へと
増えたのです -
3:51 - 3:54すべてを確認するのは
人間の能力を超えてしまいました -
3:54 - 3:58しかも この時間はまだまだ
増加しそうです -
3:58 - 4:00米国防総省のゴルゴンステアや
アーガスという計画では -
4:00 - 4:03最大65個の独立した
カメラの目を -
4:03 - 4:05個々のドローンに付けるもので
-
4:05 - 4:09これは人間が確認できる量を
大幅に上回るものとなります -
4:09 - 4:11こうなると
関心を引く対象を発見するために -
4:11 - 4:15視覚情報分析ソフトの力が
必要になります -
4:15 - 4:16これは じきにドローンが
-
4:16 - 4:19注目すべき所を人間に
指示するようになるということで -
4:19 - 4:21人間側からではありません
-
4:21 - 4:24意思決定を
人間から機械へと -
4:24 - 4:27強く推しやる
2つ目の要因は -
4:27 - 4:30電磁波による妨害です
-
4:30 - 4:32妨害されると
ドローンと遠隔操作者の間の -
4:32 - 4:35通信が途切れてしまいます
-
4:35 - 4:382011年に これが起こった
例がありました -
4:38 - 4:41アメリカ軍の RQ-170
センチネル ドローンが -
4:41 - 4:45イラン軍による GPS 信号のなりすまし攻撃で
混乱させられたのです -
4:45 - 4:50遠隔操作型のドローンである限り
この種の攻撃には弱いものです -
4:50 - 4:52つまりドローンは
-
4:52 - 4:56意思決定の より多くの割合を
背負わなければならなくなるのです -
4:56 - 4:59ドローンは 作戦目的を把握し
-
4:59 - 5:04人間の導きなしに
新しい状況に対応するようになるでしょう -
5:04 - 5:06ドローンは 外部からの
無線信号を無視し -
5:06 - 5:09自分側からは ほとんど
発信しなくなります -
5:09 - 5:11そして ここから—
-
5:11 - 5:153つ目の
最も強力に意思決定を -
5:15 - 5:18人から兵器へ移すように
促す要因が出てきます -
5:18 - 5:21それは
「まことしやかな関与否定」です -
5:21 - 5:24私たちは グローバル経済の
時代にいます -
5:24 - 5:28ハイテク製品の製造は
ほとんどの大陸で行われています -
5:28 - 5:31サイバー諜報戦の一環で
先進的設計を -
5:31 - 5:33様々な部品に隠しますが
-
5:33 - 5:35このような環境では
-
5:35 - 5:40ドローン設計が契約工場で模倣される
可能性が非常に高いのです -
5:40 - 5:42そして裏市場へと
拡散します -
5:42 - 5:45こんな状況では
自爆攻撃ドローンの残骸を -
5:45 - 5:48調査したところで
-
5:48 - 5:52兵器で攻撃を仕掛けたのが
誰なのかわかりません -
5:52 - 5:55見えない敵との戦いが
-
5:55 - 5:58非常に現実的な可能性として
浮かび上がります -
5:58 - 6:00地政学的なバランスを
180度変えてしまう可能性があり -
6:00 - 6:04国家が攻撃してきた相手へ反撃することを
非常に困難にします -
6:04 - 6:07これによって 21世紀において
防衛中心の考えから -
6:07 - 6:10攻撃中心の考えへと
重心が変わってしまうかもしれません -
6:10 - 6:14匿名での攻撃が可能になることで
-
6:14 - 6:16小国家や 犯罪組織
民間企業 -
6:16 - 6:18さらには有力な個人にさえ
-
6:18 - 6:21軍事行動が有効な手段と
なりえるのです -
6:21 - 6:24これは 法の支配と市民社会の
土台を壊してしまい -
6:24 - 6:28群雄割拠の情勢を
作り出すかもしれません -
6:28 - 6:31責任と透明性は
-
6:31 - 6:34代議制を支える
土台と言えるかもしれませんが -
6:34 - 6:38自律ロボット兵器は
その両方を弱体化させる可能性があります -
6:38 - 6:40みなさんは こう考えるかもしれません
-
6:40 - 6:42ハイテク諸国の市民なら
-
6:42 - 6:45ロボット戦争で優位に立っていて
-
6:45 - 6:48これらの国の市民は
危険にさらされにくいと考えるかもしれません -
6:48 - 6:53特に途上国が相手なら
なおさらです -
6:53 - 6:56しかし 真実は全く逆だと思います
-
6:56 - 6:58ハイテク社会の市民は
-
6:58 - 7:02より大きく ロボット兵器の
危険にさらされています -
7:02 - 7:07この理由は 1語に要約できます
「データ」です -
7:07 - 7:10データは ハイテク社会を
動かしています -
7:10 - 7:13携帯電話の位置情報
電話の会話から集められるメタデータ -
7:13 - 7:17ソーシャルメディア 電子メール
SMS 金融取引のデータ -
7:17 - 7:20交通機関や移動のデータなどです
これらは人々の活動や -
7:20 - 7:24社会的な交流を表す
膨大なリアルタイムデータの塊です -
7:24 - 7:27だから 私たちは
歴史上のどんな時代の人たちよりも -
7:27 - 7:30機械に行動が
筒抜けになっているのです -
7:30 - 7:35これは自律的兵器が標的を探すために
絶好のものとなります -
7:35 - 7:37いま画面に映っているのは
-
7:37 - 7:40ある社会的集団が
どうつながっているか分析した図です -
7:40 - 7:44線は個人間の社会的な
つながりを示しています -
7:44 - 7:47現代人が日常的に残す
データの痕跡から -
7:47 - 7:51このような図を自動的に
生成することができます -
7:51 - 7:54この技術は通常は
人口動態で標的を割り出して -
7:54 - 7:58商品やサービスを販売するのに使われますが
諸刃の技術でもあります -
7:58 - 8:02標的を割り出す技術が
別の用途に使われるからです -
8:02 - 8:04赤色で表示されている
人たちがいますが これは -
8:04 - 8:08社会的なネットワークの
ハブとなっている人たちです -
8:08 - 8:11この人たちは 組織のまとめ役や
オピニオンメーカーやリーダーです -
8:11 - 8:14この人たちも
通信のパターンを追跡することで -
8:14 - 8:16自動的に見つけ出すことが可能です
-
8:16 - 8:18マーケティング担当者なら
-
8:18 - 8:21社会的グループに
ブランドを広めるために -
8:21 - 8:24製品サンプルを送る
標的にするでしょう -
8:24 - 8:26しかし もし抑圧的な政府で
-
8:26 - 8:30政治上の敵となる相手を探しているなら
彼らは排除する標的となるでしょう -
8:30 - 8:33リーダーを抹殺し
社会的グループを混乱させ -
8:33 - 8:36そして 残されたグループの人たちは
社会的つながりや -
8:36 - 8:39組織を失ってしまいます
-
8:39 - 8:42安いロボット兵器が
拡散するような世界になったら -
8:42 - 8:45遠くにいる政府反対派や
-
8:45 - 8:47国際的犯罪組織に対し
-
8:47 - 8:51国境はほとんど防衛線になりません
-
8:51 - 8:54支持されて 変革を起こすような
扇動活動があれば -
8:54 - 8:58クリティカルマスに到達する前に
早期に検出されてしまい -
8:58 - 9:01指導者は排除される
ようになるでしょう -
9:01 - 9:03アイデアがクリティカルマスに
到達できる環境は -
9:03 - 9:07人民政府における
政治運動の全てと言ってもいいでしょう -
9:07 - 9:11正体不明の殺戮兵器があることで
あらゆる利害の対立において -
9:11 - 9:15殺害という選択が
簡単にできてしまうようになるでしょう -
9:15 - 9:19そして このことは
民主主義のまさに中核と言える -
9:19 - 9:24言論の自由や支持される政治的行動を
縮み上がらせることになります -
9:24 - 9:27これが 私たちに
ロボット兵器の国際条約が -
9:27 - 9:30必要な理由です
特に世界全体での -
9:30 - 9:34殺人ロボットの開発と配備を
禁止することが必要です -
9:34 - 9:38私たちにはすでに
核兵器と生物兵器に関する -
9:38 - 9:41国際条約があります
不完全ではありますが -
9:41 - 9:43条約は概ね
効力を発揮してきました -
9:43 - 9:47しかし ロボット兵器は 全ての点で
同じくらい危険なもので -
9:47 - 9:50ほぼ確実に
使われるようになるでしょう -
9:50 - 9:55そして 民主主義制度を
蝕むものになるでしょう -
9:55 - 9:592012年11月に
米国防総省が -
9:59 - 10:01すべての殺害に関する
意思決定に -
10:01 - 10:06人間の介在を義務づける
命令を出しました -
10:06 - 10:11これによって ひとまずは
米軍の自律的兵器を事実上禁止しました -
10:11 - 10:14しかし その命令を
恒久化する必要があります -
10:14 - 10:19これが行われれば
世界が同じように行動する基準となりえます -
10:19 - 10:22ロボット兵器の
国際的な法的枠組みは -
10:22 - 10:25必要なものなのです
-
10:25 - 10:28しかも 今必要なのです
壊滅的な攻撃が起きたり -
10:28 - 10:31テロ事件が起きたことが引き金となって
世界の国々が -
10:31 - 10:33ロボット兵器が招く
帰結を熟慮せずに -
10:33 - 10:36これらの兵器をこぞって採用するようになる前に
必要なのです -
10:36 - 10:39自律ロボット兵器を使うと
-
10:39 - 10:46少数の手に 余りに大きな力が集中することになり
民主主義そのものを危うくしてしまうでしょう -
10:46 - 10:48でも 誤解しないでください
民生の非武装無人ドローンには -
10:48 - 10:51優れた用途が沢山
あると考えています -
10:51 - 10:55自然環境の観測や
捜索と救難 輸送などです -
10:55 - 10:58もし ロボット兵器の
国際条約があるとして -
10:58 - 11:01どのようにすれば自律無人機や
自律走行車の利便を享受しつつ -
11:01 - 11:04違法なロボット兵器に対して
-
11:04 - 11:08身を守ることができるでしょうか?
-
11:08 - 11:13成功の秘密は
透明性にあるはずです -
11:13 - 11:16公共の場所にいる限り
ロボットに— -
11:16 - 11:19プライバシーがあるなどと
思ってもらっては困ります -
11:19 - 11:24(拍手)
-
11:24 - 11:26ロボットやドローンは
1体1体 全てが -
11:26 - 11:29工場出荷時に個体番号を
暗号技術で署名し -
11:29 - 11:32公共の場所での動きを
追跡できるようにするべきです -
11:32 - 11:35既に車にはナンバー プレートがあり
航空機には機体記号があります -
11:35 - 11:37ロボットも例外ではありません
-
11:37 - 11:39公共の空間を移動している―
-
11:39 - 11:42ドローンや自律走行車の
所在を示すアプリを -
11:42 - 11:45誰でもダウンロードできて
しかるべきです -
11:45 - 11:48現時点と過去の記録の両方を
把握可能にすべきです -
11:48 - 11:51市民のリーダーは
不正なドローンを探索する― -
11:51 - 11:53探知機や無人偵察機を
展開すべきです -
11:53 - 11:57そして 不正ドローンを撃墜する
攻撃ドローンを送りこむ代わりに -
11:57 - 12:00人間に ドローンが居ることを
知らせるべきです -
12:00 - 12:02高い安全性が求められる地域なら
不正ドローンを -
12:02 - 12:04市民のためのドローンが
捕獲して -
12:04 - 12:07爆弾処理施設へと
引っ張って行くこともできるでしょう -
12:07 - 12:10これは兵器システムというより
免疫システムということに -
12:10 - 12:11注意してください
-
12:11 - 12:14こうすれば
自律走行車両やドローンを -
12:14 - 12:16人間側が利用しつつ
-
12:16 - 12:20開かれた市民社会を
維持できます -
12:20 - 12:23私たちは 殺人ロボットの
開発と配備を -
12:23 - 12:25禁止する必要があります
-
12:25 - 12:30戦争を自動化する誘惑に
負けないようにしましょう -
12:30 - 12:33独裁政府や犯罪組織は間違いなく
その魅力に屈するでしょうが -
12:33 - 12:36私たちは その同類に
ならないようにしましょう -
12:36 - 12:38自律ロボット兵器は
-
12:38 - 12:40あまりにも強力な力を
-
12:40 - 12:42ごくわずかな人の手に
集中させることになります -
12:42 - 12:45そして 民主主義制度を
蝕むものになるでしょう -
12:45 - 12:48民主主義のために
殺人ロボットは -
12:48 - 12:51フィクションだけのものに
しておきましょう -
12:51 - 12:52ありがとう
-
12:52 - 12:57(拍手)
-
12:57 - 13:01ありがとう
(拍手)
- Title:
- 人殺しの決定をロボットに任せてはいけない
- Speaker:
- ダニエル・スアレース
- Description:
-
ダニエル・スアレースが普段小説家として描き出しているのは悲観的未来像ですが、TEDGlobalのステージで彼が語るのは私達がもっと知らなければならない現実のシナリオ、自律的ロボット兵器の台頭です。最新鋭のドローン、自動兵器、人工知能搭載の諜報ツールなどが、人の手を離れて自ら決断を下す可能性を彼は示しています。
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:20
![]() |
Akinori Oyama edited Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Akiko Hicks approved Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Akiko Hicks edited Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Akiko Hicks edited Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Akiko Hicks edited Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Akiko Hicks edited Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Masahiro Kyushima commented on Japanese subtitles for The kill decision shouldn't belong to a robot | |
![]() |
Masahiro Kyushima commented on Japanese subtitles for The kill decision shouldn't belong to a robot |
Masahiro Kyushima
3:03 – 3:07
それは人間が上手くできることで
事態に適応することです
ここは「それは人間の得意わざ、つまり(事態に)適応することです」などはいかがでしょうか。
Masahiro Kyushima
一番下までチェックしました、咲のコメント以外は修正なしでよいと思います。