[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:06.97,0:00:09.31,Default,,0000,0000,0000,,思考実験をしてみましょう Dialogue: 0,0:00:09.31,0:00:11.78,Default,,0000,0000,0000,,そう遠くない将来 Dialogue: 0,0:00:11.78,0:00:15.50,Default,,0000,0000,0000,,自動運転車に乗って\N幹線道路を高速で走っていると Dialogue: 0,0:00:15.50,0:00:19.81,Default,,0000,0000,0000,,周囲を囲まれた\N状態になりました Dialogue: 0,0:00:19.81,0:00:24.21,Default,,0000,0000,0000,,突然 前を走るトラックの荷台から\N重い大きな荷物が崩れ落ちてきました Dialogue: 0,0:00:24.21,0:00:27.36,Default,,0000,0000,0000,,ブレーキを踏んでも\N衝突を避けられません Dialogue: 0,0:00:27.36,0:00:29.42,Default,,0000,0000,0000,,とっさに判断する\N必要があります Dialogue: 0,0:00:29.42,0:00:31.67,Default,,0000,0000,0000,,まっすぐ進んで\N荷物に突っ込むか Dialogue: 0,0:00:31.67,0:00:33.95,Default,,0000,0000,0000,,左によけて\NSUVにぶつかるか Dialogue: 0,0:00:33.95,0:00:36.94,Default,,0000,0000,0000,,右によけて\Nバイクにぶつかるかです Dialogue: 0,0:00:36.94,0:00:40.45,Default,,0000,0000,0000,,自分の安全を最優先して\Nバイクにぶつけるべきか Dialogue: 0,0:00:40.45,0:00:44.15,Default,,0000,0000,0000,,たとえそれが 大きな物への衝突で\N自分の命を犠牲にすることになろうと Dialogue: 0,0:00:44.15,0:00:47.35,Default,,0000,0000,0000,,人様の安全を優先して\Nよけずに直進すべきか Dialogue: 0,0:00:47.35,0:00:49.10,Default,,0000,0000,0000,,中間を取って Dialogue: 0,0:00:49.10,0:00:53.09,Default,,0000,0000,0000,,乗員の安全性が高い\NSUVにぶつけるべきか Dialogue: 0,0:00:53.09,0:00:56.30,Default,,0000,0000,0000,,自動運転車はどれを\N選択すべきでしょう? Dialogue: 0,0:00:56.30,0:00:59.50,Default,,0000,0000,0000,,このような状況下で\N人が車を手動で運転していたなら Dialogue: 0,0:00:59.50,0:01:01.37,Default,,0000,0000,0000,,いずれの反応をしたとしても Dialogue: 0,0:01:01.37,0:01:02.74,Default,,0000,0000,0000,,熟慮の上の決定ではなく Dialogue: 0,0:01:02.74,0:01:06.39,Default,,0000,0000,0000,,単なる反射的行動として\N受け取られるでしょう Dialogue: 0,0:01:06.39,0:01:10.87,Default,,0000,0000,0000,,パニック状態での本能的行動であって\N計画性や悪意はなかったと Dialogue: 0,0:01:10.87,0:01:13.35,Default,,0000,0000,0000,,しかし その同じ行動が \Nもしプログラマーによって Dialogue: 0,0:01:13.35,0:01:17.54,Default,,0000,0000,0000,,将来起こりうる状況への反応として\Nあらかじめ車に組み込まれていたとしたら Dialogue: 0,0:01:17.54,0:01:21.44,Default,,0000,0000,0000,,それはむしろ計画的殺人のように\N見えてきます Dialogue: 0,0:01:21.44,0:01:22.83,Default,,0000,0000,0000,,公平を期して言うと Dialogue: 0,0:01:22.83,0:01:26.71,Default,,0000,0000,0000,,自動運転車は運転から\N人的なミスを取り除くことで Dialogue: 0,0:01:26.71,0:01:29.04,Default,,0000,0000,0000,,交通事故や死者の数を Dialogue: 0,0:01:29.04,0:01:31.40,Default,,0000,0000,0000,,劇的に減らすと\N予想されており Dialogue: 0,0:01:31.40,0:01:33.51,Default,,0000,0000,0000,,その他にも様々な\N利点があります Dialogue: 0,0:01:33.51,0:01:35.15,Default,,0000,0000,0000,,道路の混雑を緩和し Dialogue: 0,0:01:35.15,0:01:36.98,Default,,0000,0000,0000,,有害ガス排出量を減らし Dialogue: 0,0:01:36.98,0:01:41.34,Default,,0000,0000,0000,,非生産的でストレスのある運転を\N人間がする時間を最小限にできます Dialogue: 0,0:01:41.34,0:01:43.64,Default,,0000,0000,0000,,しかしそれでも\N事故は起こり得 Dialogue: 0,0:01:43.64,0:01:45.38,Default,,0000,0000,0000,,事故が起こった時 \Nその帰結は Dialogue: 0,0:01:45.38,0:01:48.97,Default,,0000,0000,0000,,何ヶ月も あるいは何年も前から\Nプログラマーや政策立案者によって Dialogue: 0,0:01:48.97,0:01:51.75,Default,,0000,0000,0000,,定められていたものだった\Nかもしれないのです Dialogue: 0,0:01:51.75,0:01:54.25,Default,,0000,0000,0000,,そして中には\N難しい決断もあるはずです Dialogue: 0,0:01:54.25,0:01:56.60,Default,,0000,0000,0000,,基本的には\N「被害の最小化」のような Dialogue: 0,0:01:56.60,0:01:59.10,Default,,0000,0000,0000,,一般原則に基づいて\N決められるかもしれませんが Dialogue: 0,0:01:59.10,0:02:02.48,Default,,0000,0000,0000,,それでも倫理的に不透明な決断を\N迫られる状況は出てくるでしょう Dialogue: 0,0:02:02.48,0:02:03.63,Default,,0000,0000,0000,,たとえば Dialogue: 0,0:02:03.63,0:02:05.64,Default,,0000,0000,0000,,前と同様の状況にあったとして Dialogue: 0,0:02:05.64,0:02:08.51,Default,,0000,0000,0000,,ただし今回は左には\Nヘルメット着用のバイク Dialogue: 0,0:02:08.51,0:02:11.31,Default,,0000,0000,0000,,右にはヘルメットを被っていない\Nバイクがいたとします Dialogue: 0,0:02:11.31,0:02:14.36,Default,,0000,0000,0000,,自動運転車はどちらに\Nハンドルを切るべきでしょう? Dialogue: 0,0:02:14.36,0:02:18.44,Default,,0000,0000,0000,,ヘルメット着用の方が生存率が高いからと\Nそちらにぶつけるとしたら Dialogue: 0,0:02:18.44,0:02:21.77,Default,,0000,0000,0000,,ルールを守っている人を罰することに\Nならないでしょうか? Dialogue: 0,0:02:21.77,0:02:23.46,Default,,0000,0000,0000,,一方 ルールを守っていない Dialogue: 0,0:02:23.46,0:02:26.11,Default,,0000,0000,0000,,ヘルメット未着用の\Nバイクにぶつけるとしたら Dialogue: 0,0:02:26.11,0:02:30.41,Default,,0000,0000,0000,,被害の最小化という設計原則から\Nはずれることになります Dialogue: 0,0:02:30.41,0:02:35.17,Default,,0000,0000,0000,,そして路上において何が公正かの判断が\Nロボットカーに任せられることになるのです Dialogue: 0,0:02:35.17,0:02:38.40,Default,,0000,0000,0000,,倫理的な考慮は\Nさらに複雑なものになり得ます Dialogue: 0,0:02:38.40,0:02:39.81,Default,,0000,0000,0000,,いずれのシナリオでも Dialogue: 0,0:02:39.81,0:02:44.40,Default,,0000,0000,0000,,設計方針は目標選択アルゴリズムとして\N機能しています Dialogue: 0,0:02:44.40,0:02:45.30,Default,,0000,0000,0000,,言い換えると Dialogue: 0,0:02:45.30,0:02:48.55,Default,,0000,0000,0000,,衝突する対象物の種類として\N何を選好するか Dialogue: 0,0:02:48.55,0:02:51.30,Default,,0000,0000,0000,,システム的に選んでいる\Nということです Dialogue: 0,0:02:51.30,0:02:53.89,Default,,0000,0000,0000,,そして標的にされた乗り物に\N乗っている人は Dialogue: 0,0:02:53.89,0:02:55.57,Default,,0000,0000,0000,,自らには過誤がない\Nにもかかわらず Dialogue: 0,0:02:55.57,0:02:58.75,Default,,0000,0000,0000,,アルゴリズムの選択による負の結果を\N引き受けることになります Dialogue: 0,0:02:58.75,0:03:03.40,Default,,0000,0000,0000,,この新技術は その他にも新たな種類の\N倫理的ジレンマをたくさん生み出します Dialogue: 0,0:03:03.40,0:03:06.97,Default,,0000,0000,0000,,たとえば 事故において\N可能な限り多くの命を救おうとする車と Dialogue: 0,0:03:06.97,0:03:10.15,Default,,0000,0000,0000,,乗っている人の安全を\N何よりも優先する車の Dialogue: 0,0:03:10.15,0:03:12.68,Default,,0000,0000,0000,,どちらかを選ばなければ\Nならないとしたら Dialogue: 0,0:03:12.68,0:03:14.26,Default,,0000,0000,0000,,どちらを買いますか? Dialogue: 0,0:03:14.26,0:03:17.58,Default,,0000,0000,0000,,もし車が 乗っている人が誰で\Nどのような事情があるか Dialogue: 0,0:03:17.58,0:03:21.05,Default,,0000,0000,0000,,分析し考慮に入れるようになったとしたら\Nどうなるでしょう? Dialogue: 0,0:03:21.05,0:03:24.09,Default,,0000,0000,0000,,被害を最小化すべく\N前もって設計された判断より Dialogue: 0,0:03:24.09,0:03:28.12,Default,,0000,0000,0000,,その場におけるとっさの判断の方が\N良いという場合はあるのでしょうか? Dialogue: 0,0:03:28.12,0:03:30.78,Default,,0000,0000,0000,,そういった判断はそもそも誰が\N下すべきなのでしょう? Dialogue: 0,0:03:30.78,0:03:31.77,Default,,0000,0000,0000,,プログラマーなのか Dialogue: 0,0:03:31.77,0:03:32.70,Default,,0000,0000,0000,,自動車会社なのか Dialogue: 0,0:03:32.70,0:03:34.35,Default,,0000,0000,0000,,政府なのか? Dialogue: 0,0:03:34.35,0:03:37.57,Default,,0000,0000,0000,,現実がこれらの思考実験通りに\N展開するとは限りませんが Dialogue: 0,0:03:37.57,0:03:39.23,Default,,0000,0000,0000,,それは要点ではありません Dialogue: 0,0:03:39.23,0:03:43.60,Default,,0000,0000,0000,,これら思考実験の役割は \N物理的世界における科学実験と同様で Dialogue: 0,0:03:43.60,0:03:46.82,Default,,0000,0000,0000,,我々の倫理的直感を取り出して\Nストレステストにかけるということです Dialogue: 0,0:03:46.82,0:03:50.16,Default,,0000,0000,0000,,これら倫理のヘアピンカーブを\N今 見極めておくことで Dialogue: 0,0:03:50.16,0:03:53.55,Default,,0000,0000,0000,,技術倫理の未知なる道を\N巧みに抜けて Dialogue: 0,0:03:53.55,0:03:57.30,Default,,0000,0000,0000,,素晴らしき未来へと\N自信をもって良心的に Dialogue: 0,0:03:57.30,0:03:59.82,Default,,0000,0000,0000,,進んでいくことが\Nできるようになるのです