[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:07.10,0:00:09.31,Default,,0000,0000,0000,,이건 사고 실험입니다. Dialogue: 0,0:00:09.31,0:00:11.92,Default,,0000,0000,0000,,언젠가 그리 멀리 않은 미래에 Dialogue: 0,0:00:11.92,0:00:15.50,Default,,0000,0000,0000,,당신은 자율주행차를 타고\N고속도로를 달릴 것 입니다. Dialogue: 0,0:00:15.50,0:00:19.81,Default,,0000,0000,0000,,그리고 다른 차에 둘러싸인\N자신을 발견하게 될 것 입니다. Dialogue: 0,0:00:19.81,0:00:24.21,Default,,0000,0000,0000,,갑자기 앞에서 달리던 트럭에서\N크고 무거운 물체가 떨어집니다. Dialogue: 0,0:00:24.21,0:00:27.36,Default,,0000,0000,0000,,당신의 차는 충돌을 피하기 위해\N제시간에 멈출 수 없습니다. Dialogue: 0,0:00:27.36,0:00:29.42,Default,,0000,0000,0000,,그렇다면 결정을 해야 합니다. Dialogue: 0,0:00:29.42,0:00:31.67,Default,,0000,0000,0000,,직진해서 물체에 충돌한다. Dialogue: 0,0:00:31.67,0:00:33.95,Default,,0000,0000,0000,,SUV를 향에 왼쪽으로 방향을 튼다. Dialogue: 0,0:00:33.95,0:00:36.94,Default,,0000,0000,0000,,혹은 오토바이를 향해 \N오른쪽으로 방향을 튼다. Dialogue: 0,0:00:36.94,0:00:40.45,Default,,0000,0000,0000,,당신의 안전을 우선으로 고려해서\N오토바이와 충돌해야 할까요? Dialogue: 0,0:00:40.45,0:00:43.26,Default,,0000,0000,0000,,타인의 위험을 최소화하기 위해 \N방향을 틀지 않아야 할까요? Dialogue: 0,0:00:43.27,0:00:47.35,Default,,0000,0000,0000,,비록 큰 물체에 충돌해 당신의 \N목숨을 희생하는 것이라도요. Dialogue: 0,0:00:47.35,0:00:50.10,Default,,0000,0000,0000,,혹은 SUV에 충돌할 수도 있습니다. Dialogue: 0,0:00:50.10,0:00:53.09,Default,,0000,0000,0000,,SUV는 안전등급이 높기 때문입니다. Dialogue: 0,0:00:53.09,0:00:56.30,Default,,0000,0000,0000,,자, 그럼 자율주행차는 \N어떤 선택을 해야 할까요? Dialogue: 0,0:00:56.30,0:00:59.50,Default,,0000,0000,0000,,만약 우리가 저 상황에서 차를\N직접 운전하고 있었다면 Dialogue: 0,0:00:59.50,0:01:04.31,Default,,0000,0000,0000,,어떠한 결과든 단순한 \N반사반응이라고 생각할 것입니다. Dialogue: 0,0:01:04.31,0:01:06.57,Default,,0000,0000,0000,,의도적인 결정이 아니라요. Dialogue: 0,0:01:06.57,0:01:10.87,Default,,0000,0000,0000,,비계획적이고 악의없는\N본능적인 움직임말입니다. Dialogue: 0,0:01:10.87,0:01:14.66,Default,,0000,0000,0000,,그러나 같은 선택이라도 프로그래머가\N미리 설정해 놓은 것이라면요? Dialogue: 0,0:01:14.66,0:01:17.32,Default,,0000,0000,0000,,미래의 이러한 상황에 대비해서요. Dialogue: 0,0:01:17.32,0:01:21.62,Default,,0000,0000,0000,,그건 좀 더 계획된 살인처럼 보이네요. Dialogue: 0,0:01:21.62,0:01:22.64,Default,,0000,0000,0000,,객관적으로 말하자면 Dialogue: 0,0:01:22.64,0:01:26.71,Default,,0000,0000,0000,,자율주행차는 교통사고를 \N획기적으로 줄일 것입니다. Dialogue: 0,0:01:26.71,0:01:27.96,Default,,0000,0000,0000,,교통사고 사망률도요. Dialogue: 0,0:01:27.96,0:01:31.40,Default,,0000,0000,0000,,주행 시 일어날 수 있는 사람의 \N실수를 없애기 때문입니다. Dialogue: 0,0:01:31.40,0:01:33.51,Default,,0000,0000,0000,,이것뿐만이 아닙니다. Dialogue: 0,0:01:33.51,0:01:35.15,Default,,0000,0000,0000,,교통체증을 줄이고, Dialogue: 0,0:01:35.15,0:01:36.72,Default,,0000,0000,0000,,배기가스를 감소시키며, Dialogue: 0,0:01:36.72,0:01:41.34,Default,,0000,0000,0000,,비생산적이고 스트레스 받는 \N운전 시간을 최소화합니다. Dialogue: 0,0:01:41.34,0:01:43.72,Default,,0000,0000,0000,,그래도 교통사고는 피할 수 없습니다. Dialogue: 0,0:01:43.72,0:01:44.68,Default,,0000,0000,0000,,그러나 사고가 일어날 때, Dialogue: 0,0:01:44.68,0:01:49.15,Default,,0000,0000,0000,,그 결과는 몇 달 혹은 몇 년 전에 \N미리 정해질 겁니다. Dialogue: 0,0:01:49.15,0:01:51.75,Default,,0000,0000,0000,,프로그래머 혹은 정책결정자에 의해서요. Dialogue: 0,0:01:51.75,0:01:54.25,Default,,0000,0000,0000,,그리고 그들은 결단을 내려야합니다. Dialogue: 0,0:01:54.25,0:01:57.20,Default,,0000,0000,0000,,일반적인 의사결정 규칙을\N적용하는 것은 쉽습니다. Dialogue: 0,0:01:57.20,0:01:59.10,Default,,0000,0000,0000,,인명 피해를 최소화하는 것처럼요. Dialogue: 0,0:01:59.10,0:02:02.48,Default,,0000,0000,0000,,그러나 비도덕적인 결정일 수 있습니다. Dialogue: 0,0:02:02.48,0:02:03.63,Default,,0000,0000,0000,,예를 들어, Dialogue: 0,0:02:03.63,0:02:05.64,Default,,0000,0000,0000,,동일한 초기 상황을 가정해 봅시다. Dialogue: 0,0:02:05.64,0:02:08.51,Default,,0000,0000,0000,,그러나 이번에는 왼쪽에\N헬멧을 쓴 운전자가 있습니다. Dialogue: 0,0:02:08.51,0:02:11.31,Default,,0000,0000,0000,,그리고 헬멧을 쓰지 않은\N운전자가 오른쪽에 있습니다. Dialogue: 0,0:02:11.31,0:02:14.36,Default,,0000,0000,0000,,당신의 차는 누구와 충돌해야 할까요? Dialogue: 0,0:02:14.36,0:02:18.44,Default,,0000,0000,0000,,만약 헬멧을 쓴 운전자가\N생존확률이 높기 때문에 선택한다면 Dialogue: 0,0:02:18.44,0:02:21.77,Default,,0000,0000,0000,,책임감 있는 오토바이 운전자에게\N불이익을 가하는 건 아닐까요? Dialogue: 0,0:02:21.77,0:02:23.34,Default,,0000,0000,0000,,대신 무책임하다는 이유로 Dialogue: 0,0:02:23.34,0:02:26.11,Default,,0000,0000,0000,,헬멧을 쓰지 않은\N운전자를 선택한다면, Dialogue: 0,0:02:26.11,0:02:31.02,Default,,0000,0000,0000,,상해를 최소화한다는 설계\N원칙에서 이미 한참 벗어났고, Dialogue: 0,0:02:31.02,0:02:35.56,Default,,0000,0000,0000,,이 로봇 차는 제멋대로 정의를\N따르고 있는 것뿐입니다. Dialogue: 0,0:02:35.56,0:02:38.40,Default,,0000,0000,0000,,윤리적 고려사항은 \N여기서 더 복잡합니다. Dialogue: 0,0:02:38.40,0:02:44.42,Default,,0000,0000,0000,,앞의 두 선택지 모두 타겟팅\N알고리즘을 기본으로 하고 있습니다. Dialogue: 0,0:02:44.42,0:02:45.30,Default,,0000,0000,0000,,다시 말해서, Dialogue: 0,0:02:45.30,0:02:47.81,Default,,0000,0000,0000,,어떤 물체에 충돌할지에 대해 Dialogue: 0,0:02:47.81,0:02:51.30,Default,,0000,0000,0000,,선호나 차별이 있다는 거죠. Dialogue: 0,0:02:51.30,0:02:53.61,Default,,0000,0000,0000,,(충돌)대상 차량의 소유자는 Dialogue: 0,0:02:53.61,0:02:56.66,Default,,0000,0000,0000,,그들의 잘못이 아님에도\N이 알고리즘의 부정적 결론에 따라 Dialogue: 0,0:02:56.66,0:02:58.75,Default,,0000,0000,0000,,고통을 받을 것입니다. Dialogue: 0,0:02:58.75,0:03:03.40,Default,,0000,0000,0000,,우리의 신기술은 새로운 \N도덕적 딜레마를 만듭니다. Dialogue: 0,0:03:03.40,0:03:05.48,Default,,0000,0000,0000,,예를 들어, 차를 사야하는데 Dialogue: 0,0:03:05.48,0:03:09.53,Default,,0000,0000,0000,,사고시 가능한 많은 목숨을 살리는 차와 Dialogue: 0,0:03:09.53,0:03:12.56,Default,,0000,0000,0000,,어떤 댓가를 지불하더라도\N당신을 살리는 차 중 Dialogue: 0,0:03:12.56,0:03:14.26,Default,,0000,0000,0000,,당신은 어떤 걸 구입할 건가요? Dialogue: 0,0:03:14.26,0:03:20.89,Default,,0000,0000,0000,,만약 차량이 승객의 삶을 분석하고\N평가한다면 어떻게 될까요? Dialogue: 0,0:03:20.89,0:03:23.83,Default,,0000,0000,0000,,여전히 반사적 반응이 Dialogue: 0,0:03:23.83,0:03:28.12,Default,,0000,0000,0000,,피해를 최소화하기 위해\N미리 설정된 것 보다 나을까요? Dialogue: 0,0:03:28.12,0:03:30.88,Default,,0000,0000,0000,,그리고 이 모든 결정은 누가\N그리고 어떻게 내려야 할까요? Dialogue: 0,0:03:30.88,0:03:31.97,Default,,0000,0000,0000,,프로그래머? Dialogue: 0,0:03:31.97,0:03:32.91,Default,,0000,0000,0000,,회사? Dialogue: 0,0:03:32.91,0:03:34.26,Default,,0000,0000,0000,,정부? Dialogue: 0,0:03:34.26,0:03:37.57,Default,,0000,0000,0000,,현실은 아마 우리의 사고실험과\N정확히 일치하진 않을겁니다. Dialogue: 0,0:03:37.57,0:03:39.23,Default,,0000,0000,0000,,하지만 그건 핵심이 아닙니다. Dialogue: 0,0:03:39.23,0:03:43.60,Default,,0000,0000,0000,,사고실험은 윤리에 대한 우리의 직관을 \N규정하고 시험하기 위해서 설계되었습니다. Dialogue: 0,0:03:43.60,0:03:46.59,Default,,0000,0000,0000,,마치 물리적 세계에 대해\N과학실험을 하는 것 처럼요. Dialogue: 0,0:03:46.59,0:03:49.98,Default,,0000,0000,0000,,이렇게 미묘한 윤리적 쟁점을\N지금 발견하는 것은 Dialogue: 0,0:03:49.98,0:03:53.55,Default,,0000,0000,0000,,우리가 익숙치 않은\N기술윤리의 길을 나아가고, Dialogue: 0,0:03:53.55,0:03:57.30,Default,,0000,0000,0000,,우리가 확신을 가지고 양심적으로 Dialogue: 0,0:03:57.30,0:03:59.65,Default,,0000,0000,0000,,멋진 미래를 항해하도록 할 겁니다.