1 00:00:06,967 --> 00:00:09,309 思考実験をしてみましょう 2 00:00:09,309 --> 00:00:11,777 そう遠くない将来 3 00:00:11,777 --> 00:00:15,505 自動運転車に乗って 幹線道路を高速で走っていると 4 00:00:15,505 --> 00:00:19,809 周囲を囲まれた 状態になりました 5 00:00:19,809 --> 00:00:24,213 突然 前を走るトラックの荷台から 重い大きな荷物が崩れ落ちてきました 6 00:00:24,213 --> 00:00:27,364 ブレーキを踏んでも 衝突を避けられません 7 00:00:27,364 --> 00:00:29,415 とっさに判断する 必要があります 8 00:00:29,415 --> 00:00:31,673 まっすぐ進んで 荷物に突っ込むか 9 00:00:31,673 --> 00:00:33,953 左によけて SUVにぶつかるか 10 00:00:33,953 --> 00:00:36,940 右によけて バイクにぶつかるかです 11 00:00:36,940 --> 00:00:40,450 自分の安全を最優先して バイクにぶつけるべきか 12 00:00:40,450 --> 00:00:44,147 たとえそれが 大きな物への衝突で 自分の命を犠牲にすることになろうと 13 00:00:44,147 --> 00:00:47,346 人様の安全を優先して よけずに直進すべきか 14 00:00:47,346 --> 00:00:49,104 中間を取って 15 00:00:49,104 --> 00:00:53,087 乗員の安全性が高い SUVにぶつけるべきか 16 00:00:53,087 --> 00:00:56,298 自動運転車はどれを 選択すべきでしょう? 17 00:00:56,298 --> 00:00:59,505 このような状況下で 人が車を手動で運転していたなら 18 00:00:59,505 --> 00:01:01,374 いずれの反応をしたとしても 19 00:01:01,374 --> 00:01:02,739 熟慮の上の決定ではなく 20 00:01:02,739 --> 00:01:06,391 単なる反射的行動として 受け取られるでしょう 21 00:01:06,391 --> 00:01:10,869 パニック状態での本能的行動であって 計画性や悪意はなかったと 22 00:01:10,869 --> 00:01:13,349 しかし その同じ行動が もしプログラマーによって 23 00:01:13,349 --> 00:01:17,536 将来起こりうる状況への反応として あらかじめ車に組み込まれていたとしたら 24 00:01:17,536 --> 00:01:21,439 それはむしろ計画的殺人のように 見えてきます 25 00:01:21,439 --> 00:01:22,827 公平を期して言うと 26 00:01:22,827 --> 00:01:26,709 自動運転車は運転から 人的なミスを取り除くことで 27 00:01:26,709 --> 00:01:29,036 交通事故や死者の数を 28 00:01:29,036 --> 00:01:31,398 劇的に減らすと 予想されており 29 00:01:31,398 --> 00:01:33,512 その他にも様々な 利点があります 30 00:01:33,512 --> 00:01:35,150 道路の混雑を緩和し 31 00:01:35,150 --> 00:01:36,983 有害ガス排出量を減らし 32 00:01:36,983 --> 00:01:41,345 非生産的でストレスのある運転を 人間がする時間を最小限にできます 33 00:01:41,345 --> 00:01:43,636 しかしそれでも 事故は起こり得 34 00:01:43,636 --> 00:01:45,375 事故が起こった時 その帰結は 35 00:01:45,375 --> 00:01:48,967 何ヶ月も あるいは何年も前から プログラマーや政策立案者によって 36 00:01:48,967 --> 00:01:51,752 定められていたものだった かもしれないのです 37 00:01:51,752 --> 00:01:54,252 そして中には 難しい決断もあるはずです 38 00:01:54,252 --> 00:01:56,604 基本的には 「被害の最小化」のような 39 00:01:56,604 --> 00:01:59,099 一般原則に基づいて 決められるかもしれませんが 40 00:01:59,099 --> 00:02:02,475 それでも倫理的に不透明な決断を 迫られる状況は出てくるでしょう 41 00:02:02,475 --> 00:02:03,633 たとえば 42 00:02:03,633 --> 00:02:05,641 前と同様の状況にあったとして 43 00:02:05,641 --> 00:02:08,512 ただし今回は左には ヘルメット着用のバイク 44 00:02:08,512 --> 00:02:11,309 右にはヘルメットを被っていない バイクがいたとします 45 00:02:11,309 --> 00:02:14,360 自動運転車はどちらに ハンドルを切るべきでしょう? 46 00:02:14,360 --> 00:02:18,442 ヘルメット着用の方が生存率が高いからと そちらにぶつけるとしたら 47 00:02:18,442 --> 00:02:21,771 ルールを守っている人を罰することに ならないでしょうか? 48 00:02:21,771 --> 00:02:23,455 一方 ルールを守っていない 49 00:02:23,455 --> 00:02:26,106 ヘルメット未着用の バイクにぶつけるとしたら 50 00:02:26,106 --> 00:02:30,407 被害の最小化という設計原則から はずれることになります 51 00:02:30,407 --> 00:02:35,171 そして路上において何が公正かの判断が ロボットカーに任せられることになるのです 52 00:02:35,171 --> 00:02:38,403 倫理的な考慮は さらに複雑なものになり得ます 53 00:02:38,403 --> 00:02:39,807 いずれのシナリオでも 54 00:02:39,807 --> 00:02:44,400 設計方針は目標選択アルゴリズムとして 機能しています 55 00:02:44,400 --> 00:02:45,299 言い換えると 56 00:02:45,299 --> 00:02:48,549 衝突する対象物の種類として 何を選好するか 57 00:02:48,549 --> 00:02:51,298 システム的に選んでいる ということです 58 00:02:51,298 --> 00:02:53,893 そして標的にされた乗り物に 乗っている人は 59 00:02:53,893 --> 00:02:55,572 自らには過誤がない にもかかわらず 60 00:02:55,572 --> 00:02:58,747 アルゴリズムの選択による負の結果を 引き受けることになります 61 00:02:58,747 --> 00:03:03,401 この新技術は その他にも新たな種類の 倫理的ジレンマをたくさん生み出します 62 00:03:03,401 --> 00:03:06,972 たとえば 事故において 可能な限り多くの命を救おうとする車と 63 00:03:06,972 --> 00:03:10,154 乗っている人の安全を 何よりも優先する車の 64 00:03:10,154 --> 00:03:12,675 どちらかを選ばなければ ならないとしたら 65 00:03:12,675 --> 00:03:14,262 どちらを買いますか? 66 00:03:14,262 --> 00:03:17,577 もし車が 乗っている人が誰で どのような事情があるか 67 00:03:17,577 --> 00:03:21,047 分析し考慮に入れるようになったとしたら どうなるでしょう? 68 00:03:21,047 --> 00:03:24,089 被害を最小化すべく 前もって設計された判断より 69 00:03:24,089 --> 00:03:28,125 その場におけるとっさの判断の方が 良いという場合はあるのでしょうか? 70 00:03:28,125 --> 00:03:30,778 そういった判断はそもそも誰が 下すべきなのでしょう? 71 00:03:30,778 --> 00:03:31,772 プログラマーなのか 72 00:03:31,772 --> 00:03:32,698 自動車会社なのか 73 00:03:32,698 --> 00:03:34,352 政府なのか? 74 00:03:34,352 --> 00:03:37,566 現実がこれらの思考実験通りに 展開するとは限りませんが 75 00:03:37,566 --> 00:03:39,232 それは要点ではありません 76 00:03:39,232 --> 00:03:43,603 これら思考実験の役割は 物理的世界における科学実験と同様で 77 00:03:43,603 --> 00:03:46,819 我々の倫理的直感を取り出して ストレステストにかけるということです 78 00:03:46,819 --> 00:03:50,159 これら倫理のヘアピンカーブを 今 見極めておくことで 79 00:03:50,159 --> 00:03:53,550 技術倫理の未知なる道を 巧みに抜けて 80 00:03:53,550 --> 00:03:57,301 素晴らしき未来へと 自信をもって良心的に 81 00:03:57,301 --> 00:03:59,818 進んでいくことが できるようになるのです