0:00:06.967,0:00:09.309 思考実験をしてみましょう 0:00:09.309,0:00:11.777 そう遠くない将来 0:00:11.777,0:00:15.505 自動運転車に乗って[br]幹線道路を高速で走っていると 0:00:15.505,0:00:19.809 周囲を囲まれた[br]状態になりました 0:00:19.809,0:00:24.213 突然 前を走るトラックの荷台から[br]重い大きな荷物が崩れ落ちてきました 0:00:24.213,0:00:27.364 ブレーキを踏んでも[br]衝突を避けられません 0:00:27.364,0:00:29.415 とっさに判断する[br]必要があります 0:00:29.415,0:00:31.673 まっすぐ進んで[br]荷物に突っ込むか 0:00:31.673,0:00:33.953 左によけて[br]SUVにぶつかるか 0:00:33.953,0:00:36.940 右によけて[br]バイクにぶつかるかです 0:00:36.940,0:00:40.450 自分の安全を最優先して[br]バイクにぶつけるべきか 0:00:40.450,0:00:44.147 たとえそれが 大きな物への衝突で[br]自分の命を犠牲にすることになろうと 0:00:44.147,0:00:47.346 人様の安全を優先して[br]よけずに直進すべきか 0:00:47.346,0:00:49.104 中間を取って 0:00:49.104,0:00:53.087 乗員の安全性が高い[br]SUVにぶつけるべきか 0:00:53.087,0:00:56.298 自動運転車はどれを[br]選択すべきでしょう? 0:00:56.298,0:00:59.505 このような状況下で[br]人が車を手動で運転していたなら 0:00:59.505,0:01:01.374 いずれの反応をしたとしても 0:01:01.374,0:01:02.739 熟慮の上の決定ではなく 0:01:02.739,0:01:06.391 単なる反射的行動として[br]受け取られるでしょう 0:01:06.391,0:01:10.869 パニック状態での本能的行動であって[br]計画性や悪意はなかったと 0:01:10.869,0:01:13.349 しかし その同じ行動が [br]もしプログラマーによって 0:01:13.349,0:01:17.536 将来起こりうる状況への反応として[br]あらかじめ車に組み込まれていたとしたら 0:01:17.536,0:01:21.439 それはむしろ計画的殺人のように[br]見えてきます 0:01:21.439,0:01:22.827 公平を期して言うと 0:01:22.827,0:01:26.709 自動運転車は運転から[br]人的なミスを取り除くことで 0:01:26.709,0:01:29.036 交通事故や死者の数を 0:01:29.036,0:01:31.398 劇的に減らすと[br]予想されており 0:01:31.398,0:01:33.512 その他にも様々な[br]利点があります 0:01:33.512,0:01:35.150 道路の混雑を緩和し 0:01:35.150,0:01:36.983 有害ガス排出量を減らし 0:01:36.983,0:01:41.345 非生産的でストレスのある運転を[br]人間がする時間を最小限にできます 0:01:41.345,0:01:43.636 しかしそれでも[br]事故は起こり得 0:01:43.636,0:01:45.375 事故が起こった時 [br]その帰結は 0:01:45.375,0:01:48.967 何ヶ月も あるいは何年も前から[br]プログラマーや政策立案者によって 0:01:48.967,0:01:51.752 定められていたものだった[br]かもしれないのです 0:01:51.752,0:01:54.252 そして中には[br]難しい決断もあるはずです 0:01:54.252,0:01:56.604 基本的には[br]「被害の最小化」のような 0:01:56.604,0:01:59.099 一般原則に基づいて[br]決められるかもしれませんが 0:01:59.099,0:02:02.475 それでも倫理的に不透明な決断を[br]迫られる状況は出てくるでしょう 0:02:02.475,0:02:03.633 たとえば 0:02:03.633,0:02:05.641 前と同様の状況にあったとして 0:02:05.641,0:02:08.512 ただし今回は左には[br]ヘルメット着用のバイク 0:02:08.512,0:02:11.309 右にはヘルメットを被っていない[br]バイクがいたとします 0:02:11.309,0:02:14.360 自動運転車はどちらに[br]ハンドルを切るべきでしょう? 0:02:14.360,0:02:18.442 ヘルメット着用の方が生存率が高いからと[br]そちらにぶつけるとしたら 0:02:18.442,0:02:21.771 ルールを守っている人を罰することに[br]ならないでしょうか? 0:02:21.771,0:02:23.455 一方 ルールを守っていない 0:02:23.455,0:02:26.106 ヘルメット未着用の[br]バイクにぶつけるとしたら 0:02:26.106,0:02:30.407 被害の最小化という設計原則から[br]はずれることになります 0:02:30.407,0:02:35.171 そして路上において何が公正かの判断が[br]ロボットカーに任せられることになるのです 0:02:35.171,0:02:38.403 倫理的な考慮は[br]さらに複雑なものになり得ます 0:02:38.403,0:02:39.807 いずれのシナリオでも 0:02:39.807,0:02:44.400 設計方針は目標選択アルゴリズムとして[br]機能しています 0:02:44.400,0:02:45.299 言い換えると 0:02:45.299,0:02:48.549 衝突する対象物の種類として[br]何を選好するか 0:02:48.549,0:02:51.298 システム的に選んでいる[br]ということです 0:02:51.298,0:02:53.893 そして標的にされた乗り物に[br]乗っている人は 0:02:53.893,0:02:55.572 自らには過誤がない[br]にもかかわらず 0:02:55.572,0:02:58.747 アルゴリズムの選択による負の結果を[br]引き受けることになります 0:02:58.747,0:03:03.401 この新技術は その他にも新たな種類の[br]倫理的ジレンマをたくさん生み出します 0:03:03.401,0:03:06.972 たとえば 事故において[br]可能な限り多くの命を救おうとする車と 0:03:06.972,0:03:10.154 乗っている人の安全を[br]何よりも優先する車の 0:03:10.154,0:03:12.675 どちらかを選ばなければ[br]ならないとしたら 0:03:12.675,0:03:14.262 どちらを買いますか? 0:03:14.262,0:03:17.577 もし車が 乗っている人が誰で[br]どのような事情があるか 0:03:17.577,0:03:21.047 分析し考慮に入れるようになったとしたら[br]どうなるでしょう? 0:03:21.047,0:03:24.089 被害を最小化すべく[br]前もって設計された判断より 0:03:24.089,0:03:28.125 その場におけるとっさの判断の方が[br]良いという場合はあるのでしょうか? 0:03:28.125,0:03:30.778 そういった判断はそもそも誰が[br]下すべきなのでしょう? 0:03:30.778,0:03:31.772 プログラマーなのか 0:03:31.772,0:03:32.698 自動車会社なのか 0:03:32.698,0:03:34.352 政府なのか? 0:03:34.352,0:03:37.566 現実がこれらの思考実験通りに[br]展開するとは限りませんが 0:03:37.566,0:03:39.232 それは要点ではありません 0:03:39.232,0:03:43.603 これら思考実験の役割は [br]物理的世界における科学実験と同様で 0:03:43.603,0:03:46.819 我々の倫理的直感を取り出して[br]ストレステストにかけるということです 0:03:46.819,0:03:50.159 これら倫理のヘアピンカーブを[br]今 見極めておくことで 0:03:50.159,0:03:53.550 技術倫理の未知なる道を[br]巧みに抜けて 0:03:53.550,0:03:57.301 素晴らしき未来へと[br]自信をもって良心的に 0:03:57.301,0:03:59.818 進んでいくことが[br]できるようになるのです