0:00:07.097,0:00:09.309 이건 사고 실험입니다. 0:00:09.309,0:00:11.917 언젠가 그리 멀리 않은 미래에 0:00:11.917,0:00:15.505 당신은 자율주행차를 타고[br]고속도로를 달릴 것 입니다. 0:00:15.505,0:00:19.809 그리고 다른 차에 둘러싸인[br]자신을 발견하게 될 것 입니다. 0:00:19.809,0:00:24.213 갑자기 앞에서 달리던 트럭에서[br]크고 무거운 물체가 떨어집니다. 0:00:24.213,0:00:27.364 당신의 차는 충돌을 피하기 위해[br]제시간에 멈출 수 없습니다. 0:00:27.364,0:00:29.415 그렇다면 결정을 해야 합니다. 0:00:29.415,0:00:31.673 직진해서 물체에 충돌한다. 0:00:31.673,0:00:33.953 SUV를 향에 왼쪽으로 방향을 튼다. 0:00:33.953,0:00:36.940 혹은 오토바이를 향해 [br]오른쪽으로 방향을 튼다. 0:00:36.940,0:00:40.450 당신의 안전을 우선으로 고려해서[br]오토바이와 충돌해야 할까요? 0:00:40.450,0:00:43.260 타인의 위험을 최소화하기 위해 [br]방향을 틀지 않아야 할까요? 0:00:43.267,0:00:47.346 비록 큰 물체에 충돌해 당신의 [br]목숨을 희생하는 것이라도요. 0:00:47.346,0:00:50.104 혹은 SUV에 충돌할 수도 있습니다. 0:00:50.104,0:00:53.087 SUV는 안전등급이 높기 때문입니다. 0:00:53.087,0:00:56.298 자, 그럼 자율주행차는 [br]어떤 선택을 해야 할까요? 0:00:56.298,0:00:59.505 만약 우리가 저 상황에서 차를[br]직접 운전하고 있었다면 0:00:59.505,0:01:04.314 어떠한 결과든 단순한 [br]반사반응이라고 생각할 것입니다. 0:01:04.314,0:01:06.571 의도적인 결정이 아니라요. 0:01:06.571,0:01:10.869 비계획적이고 악의없는[br]본능적인 움직임말입니다. 0:01:10.869,0:01:14.659 그러나 같은 선택이라도 프로그래머가[br]미리 설정해 놓은 것이라면요? 0:01:14.659,0:01:17.319 미래의 이러한 상황에 대비해서요. 0:01:17.319,0:01:21.619 그건 좀 더 계획된 살인처럼 보이네요. 0:01:21.619,0:01:22.637 객관적으로 말하자면 0:01:22.637,0:01:26.709 자율주행차는 교통사고를 [br]획기적으로 줄일 것입니다. 0:01:26.709,0:01:27.956 교통사고 사망률도요. 0:01:27.956,0:01:31.398 주행 시 일어날 수 있는 사람의 [br]실수를 없애기 때문입니다. 0:01:31.398,0:01:33.512 이것뿐만이 아닙니다. 0:01:33.512,0:01:35.150 교통체증을 줄이고, 0:01:35.150,0:01:36.723 배기가스를 감소시키며, 0:01:36.723,0:01:41.345 비생산적이고 스트레스 받는 [br]운전 시간을 최소화합니다. 0:01:41.345,0:01:43.716 그래도 교통사고는 피할 수 없습니다. 0:01:43.716,0:01:44.685 그러나 사고가 일어날 때, 0:01:44.685,0:01:49.147 그 결과는 몇 달 혹은 몇 년 전에 [br]미리 정해질 겁니다. 0:01:49.147,0:01:51.752 프로그래머 혹은 정책결정자에 의해서요. 0:01:51.752,0:01:54.252 그리고 그들은 결단을 내려야합니다. 0:01:54.252,0:01:57.204 일반적인 의사결정 규칙을[br]적용하는 것은 쉽습니다. 0:01:57.204,0:01:59.099 인명 피해를 최소화하는 것처럼요. 0:01:59.099,0:02:02.475 그러나 비도덕적인 결정일 수 있습니다. 0:02:02.475,0:02:03.633 예를 들어, 0:02:03.633,0:02:05.641 동일한 초기 상황을 가정해 봅시다. 0:02:05.641,0:02:08.512 그러나 이번에는 왼쪽에[br]헬멧을 쓴 운전자가 있습니다. 0:02:08.512,0:02:11.309 그리고 헬멧을 쓰지 않은[br]운전자가 오른쪽에 있습니다. 0:02:11.309,0:02:14.360 당신의 차는 누구와 충돌해야 할까요? 0:02:14.360,0:02:18.442 만약 헬멧을 쓴 운전자가[br]생존확률이 높기 때문에 선택한다면 0:02:18.442,0:02:21.771 책임감 있는 오토바이 운전자에게[br]불이익을 가하는 건 아닐까요? 0:02:21.771,0:02:23.345 대신 무책임하다는 이유로 0:02:23.345,0:02:26.106 헬멧을 쓰지 않은[br]운전자를 선택한다면, 0:02:26.106,0:02:31.017 상해를 최소화한다는 설계[br]원칙에서 이미 한참 벗어났고, 0:02:31.017,0:02:35.561 이 로봇 차는 제멋대로 정의를[br]따르고 있는 것뿐입니다. 0:02:35.561,0:02:38.403 윤리적 고려사항은 [br]여기서 더 복잡합니다. 0:02:38.403,0:02:44.417 앞의 두 선택지 모두 타겟팅[br]알고리즘을 기본으로 하고 있습니다. 0:02:44.417,0:02:45.299 다시 말해서, 0:02:45.299,0:02:47.809 어떤 물체에 충돌할지에 대해 0:02:47.809,0:02:51.298 선호나 차별이 있다는 거죠. 0:02:51.298,0:02:53.613 (충돌)대상 차량의 소유자는 0:02:53.613,0:02:56.662 그들의 잘못이 아님에도[br]이 알고리즘의 부정적 결론에 따라 0:02:56.662,0:02:58.747 고통을 받을 것입니다. 0:02:58.747,0:03:03.401 우리의 신기술은 새로운 [br]도덕적 딜레마를 만듭니다. 0:03:03.401,0:03:05.482 예를 들어, 차를 사야하는데 0:03:05.482,0:03:09.534 사고시 가능한 많은 목숨을 살리는 차와 0:03:09.534,0:03:12.565 어떤 댓가를 지불하더라도[br]당신을 살리는 차 중 0:03:12.565,0:03:14.262 당신은 어떤 걸 구입할 건가요? 0:03:14.262,0:03:20.887 만약 차량이 승객의 삶을 분석하고[br]평가한다면 어떻게 될까요? 0:03:20.887,0:03:23.829 여전히 반사적 반응이 0:03:23.829,0:03:28.125 피해를 최소화하기 위해[br]미리 설정된 것 보다 나을까요? 0:03:28.125,0:03:30.878 그리고 이 모든 결정은 누가[br]그리고 어떻게 내려야 할까요? 0:03:30.878,0:03:31.972 프로그래머? 0:03:31.972,0:03:32.908 회사? 0:03:32.908,0:03:34.262 정부? 0:03:34.262,0:03:37.566 현실은 아마 우리의 사고실험과[br]정확히 일치하진 않을겁니다. 0:03:37.566,0:03:39.232 하지만 그건 핵심이 아닙니다. 0:03:39.232,0:03:43.603 사고실험은 윤리에 대한 우리의 직관을 [br]규정하고 시험하기 위해서 설계되었습니다. 0:03:43.603,0:03:46.589 마치 물리적 세계에 대해[br]과학실험을 하는 것 처럼요. 0:03:46.589,0:03:49.979 이렇게 미묘한 윤리적 쟁점을[br]지금 발견하는 것은 0:03:49.979,0:03:53.550 우리가 익숙치 않은[br]기술윤리의 길을 나아가고, 0:03:53.550,0:03:57.301 우리가 확신을 가지고 양심적으로 0:03:57.301,0:03:59.648 멋진 미래를 항해하도록 할 겁니다.