自動運転車の倫理的ジレンマ / パトリック・リン
-
0:07 - 0:09思考実験をしてみましょう
-
0:09 - 0:12そう遠くない将来
-
0:12 - 0:16自動運転車に乗って
幹線道路を高速で走っていると -
0:16 - 0:20周囲を囲まれた
状態になりました -
0:20 - 0:24突然 前を走るトラックの荷台から
重い大きな荷物が崩れ落ちてきました -
0:24 - 0:27ブレーキを踏んでも
衝突を避けられません -
0:27 - 0:29とっさに判断する
必要があります -
0:29 - 0:32まっすぐ進んで
荷物に突っ込むか -
0:32 - 0:34左によけて
SUVにぶつかるか -
0:34 - 0:37右によけて
バイクにぶつかるかです -
0:37 - 0:40自分の安全を最優先して
バイクにぶつけるべきか -
0:40 - 0:44たとえそれが 大きな物への衝突で
自分の命を犠牲にすることになろうと -
0:44 - 0:47人様の安全を優先して
よけずに直進すべきか -
0:47 - 0:49中間を取って
-
0:49 - 0:53乗員の安全性が高い
SUVにぶつけるべきか -
0:53 - 0:56自動運転車はどれを
選択すべきでしょう? -
0:56 - 1:00このような状況下で
人が車を手動で運転していたなら -
1:00 - 1:01いずれの反応をしたとしても
-
1:01 - 1:03熟慮の上の決定ではなく
-
1:03 - 1:06単なる反射的行動として
受け取られるでしょう -
1:06 - 1:11パニック状態での本能的行動であって
計画性や悪意はなかったと -
1:11 - 1:13しかし その同じ行動が
もしプログラマーによって -
1:13 - 1:18将来起こりうる状況への反応として
あらかじめ車に組み込まれていたとしたら -
1:18 - 1:21それはむしろ計画的殺人のように
見えてきます -
1:21 - 1:23公平を期して言うと
-
1:23 - 1:27自動運転車は運転から
人的なミスを取り除くことで -
1:27 - 1:29交通事故や死者の数を
-
1:29 - 1:31劇的に減らすと
予想されており -
1:31 - 1:34その他にも様々な
利点があります -
1:34 - 1:35道路の混雑を緩和し
-
1:35 - 1:37有害ガス排出量を減らし
-
1:37 - 1:41非生産的でストレスのある運転を
人間がする時間を最小限にできます -
1:41 - 1:44しかしそれでも
事故は起こり得 -
1:44 - 1:45事故が起こった時
その帰結は -
1:45 - 1:49何ヶ月も あるいは何年も前から
プログラマーや政策立案者によって -
1:49 - 1:52定められていたものだった
かもしれないのです -
1:52 - 1:54そして中には
難しい決断もあるはずです -
1:54 - 1:57基本的には
「被害の最小化」のような -
1:57 - 1:59一般原則に基づいて
決められるかもしれませんが -
1:59 - 2:02それでも倫理的に不透明な決断を
迫られる状況は出てくるでしょう -
2:02 - 2:04たとえば
-
2:04 - 2:06前と同様の状況にあったとして
-
2:06 - 2:09ただし今回は左には
ヘルメット着用のバイク -
2:09 - 2:11右にはヘルメットを被っていない
バイクがいたとします -
2:11 - 2:14自動運転車はどちらに
ハンドルを切るべきでしょう? -
2:14 - 2:18ヘルメット着用の方が生存率が高いからと
そちらにぶつけるとしたら -
2:18 - 2:22ルールを守っている人を罰することに
ならないでしょうか? -
2:22 - 2:23一方 ルールを守っていない
-
2:23 - 2:26ヘルメット未着用の
バイクにぶつけるとしたら -
2:26 - 2:30被害の最小化という設計原則から
はずれることになります -
2:30 - 2:35そして路上において何が公正かの判断が
ロボットカーに任せられることになるのです -
2:35 - 2:38倫理的な考慮は
さらに複雑なものになり得ます -
2:38 - 2:40いずれのシナリオでも
-
2:40 - 2:44設計方針は目標選択アルゴリズムとして
機能しています -
2:44 - 2:45言い換えると
-
2:45 - 2:49衝突する対象物の種類として
何を選好するか -
2:49 - 2:51システム的に選んでいる
ということです -
2:51 - 2:54そして標的にされた乗り物に
乗っている人は -
2:54 - 2:56自らには過誤がない
にもかかわらず -
2:56 - 2:59アルゴリズムの選択による負の結果を
引き受けることになります -
2:59 - 3:03この新技術は その他にも新たな種類の
倫理的ジレンマをたくさん生み出します -
3:03 - 3:07たとえば 事故において
可能な限り多くの命を救おうとする車と -
3:07 - 3:10乗っている人の安全を
何よりも優先する車の -
3:10 - 3:13どちらかを選ばなければ
ならないとしたら -
3:13 - 3:14どちらを買いますか?
-
3:14 - 3:18もし車が 乗っている人が誰で
どのような事情があるか -
3:18 - 3:21分析し考慮に入れるようになったとしたら
どうなるでしょう? -
3:21 - 3:24被害を最小化すべく
前もって設計された判断より -
3:24 - 3:28その場におけるとっさの判断の方が
良いという場合はあるのでしょうか? -
3:28 - 3:31そういった判断はそもそも誰が
下すべきなのでしょう? -
3:31 - 3:32プログラマーなのか
-
3:32 - 3:33自動車会社なのか
-
3:33 - 3:34政府なのか?
-
3:34 - 3:38現実がこれらの思考実験通りに
展開するとは限りませんが -
3:38 - 3:39それは要点ではありません
-
3:39 - 3:44これら思考実験の役割は
物理的世界における科学実験と同様で -
3:44 - 3:47我々の倫理的直感を取り出して
ストレステストにかけるということです -
3:47 - 3:50これら倫理のヘアピンカーブを
今 見極めておくことで -
3:50 - 3:54技術倫理の未知なる道を
巧みに抜けて -
3:54 - 3:57素晴らしき未来へと
自信をもって良心的に -
3:57 - 4:00進んでいくことが
できるようになるのです
- Title:
- 自動運転車の倫理的ジレンマ / パトリック・リン
- Speaker:
- パトリック・リン
- Description:
-
今や自動運転車が公道を走るようになっています。自動運転車は、究極的には人間の運転する車より安全で公害が少ないとしても、事故をまったくなくせるわけではありません。避け得ない事故に遭遇したとき、自動運転車はどう振る舞うようプログラムされるべきでしょうか? 倫理的に不透明な自動運転車の世界をパトリック・リンが案内します。
講師: パトリック・リン
アニメーション: ユカイ・ドゥ
※このビデオの教材 http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin - Video Language:
- English
- Team:
- closed TED
- Project:
- TED-Ed
- Duration:
- 04:16
Michelle Mehrtens edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki approved Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars | ||
Yasushi Aoki edited Japanese subtitles for The ethical dilemma of self-driving cars |