0:00:01.765,0:00:04.765 인공지능은 0:00:04.789,0:00:08.318 온갖 종류의 산업을[br]와해시키는 것으로 알려져 있죠. 0:00:08.961,0:00:11.004 아이스크림 시장은 어떨까요? 0:00:11.879,0:00:14.818 어떤 새롭고 놀라운 맛들을 0:00:14.818,0:00:18.518 고도의 인공지능으로 만들 수 있을까요? 0:00:19.011,0:00:23.172 그래서 저는 킬링 중학교 학생들과 0:00:23.196,0:00:25.437 이 문제의 답을 찾아 보고자 했습니다. 0:00:25.461,0:00:30.542 현재 존재하는 1600가지가 넘는[br]아이스크림 맛들을 모으고, 0:00:30.566,0:00:36.088 어떤 것을 만들 수 있는지 보기 위해[br]알고리즘을 적용했습니다. 0:00:36.112,0:00:39.865 그리고 여기 AI가 만들어낸[br]맛들이 있습니다. 0:00:40.444,0:00:41.915 [호박 쓰레기 브레이크] 0:00:41.939,0:00:43.341 (웃음) 0:00:43.365,0:00:45.834 [땅콩 버터 슬라임] 0:00:46.822,0:00:48.165 [딸기 크림 질병] 0:00:48.189,0:00:50.315 (웃음) 0:00:50.339,0:00:54.936 이 맛들은 저희가 바랐던 것 만큼[br]맛있지 않습니다. 0:00:54.960,0:00:58.204 무슨 일이 일어난 것일까요?[br]뭐가 잘못된 거죠? 0:00:58.266,0:01:00.225 AI가 우리를 죽이려고 하는 것일까요? 0:01:01.027,0:01:05.337 아니면 우리가 요청했던 걸 하려 했지만[br]문제가 있었던 걸까요? 0:01:06.567,0:01:09.031 영화에서 AI와 관련해 뭔가 잘못되면, 0:01:09.055,0:01:14.077 보통은 AI가 인간에게 더 이상[br]복종하기 싫다고 결정하고 0:01:14.087,0:01:16.710 AI 스스로의 목표를 가지기 때문이죠,[br]아주 감사하게도요. 0:01:17.266,0:01:20.482 실제 상황에서는 그러나, 실제 AI는 0:01:20.506,0:01:22.369 전혀 그렇게 똑똑하지 않습니다. 0:01:22.781,0:01:27.078 AI의 연산 능력은 대략 지렁이 정도, 0:01:27.087,0:01:30.490 아마 기껏해봐야 꿀벌 한마리, 0:01:30.514,0:01:32.729 사실, 아마 그것도 안 될 겁니다. 0:01:32.753,0:01:35.347 우리는 끊임없이 두뇌에 대해[br]새로운 것을 배워서 0:01:35.371,0:01:39.731 AI가 실제 두뇌에 얼마나 못미치는지[br]분명히 알 수 있죠. 0:01:39.755,0:01:45.418 오늘날의 AI는 사진 속의 행인을[br]식별하기 같은 일을 할 수 있죠. 0:01:45.442,0:01:48.425 그러나 AI는 행인이 무엇이라는[br]개념은 가지고 있지 않습니다. 0:01:48.449,0:01:53.273 그것은 선과 질감같은 것들의[br]덩어리 너머의 것입니다. 0:01:53.792,0:01:56.313 AI는 실제 인간이라는 게[br]무엇인지 알지 못합니다. 0:01:56.822,0:02:00.104 그래서 오늘날의 AI는[br]우리가 요청한 것을 수행할까요? 0:02:00.128,0:02:01.722 할 수 있다면 하겠죠, 0:02:01.746,0:02:04.472 그러나 우리가 진짜 원하는 것을[br]하지 않을 수도 있습니다. 0:02:04.496,0:02:09.491 가령 여러분이 AI를 이용해서[br]이 로봇 부품들로 0:02:09.578,0:02:13.775 로봇을 조립해서 A에서 B로[br]간다고 생각해 봅시다. 0:02:13.799,0:02:15.950 만약 여러분이 이 문제를 해결하기 위해 0:02:15.950,0:02:18.655 전통적인 방식의[br]컴퓨터 프로그래밍을 이용한다면, 0:02:18.679,0:02:22.096 이 프로그램에 단계별 지시를 주겠죠. 0:02:22.120,0:02:25.849 부품들은 다루는 방법이라든가,[br]다리가 있는 로봇으로 만드는 방법과, 0:02:25.904,0:02:28.846 그 다리로 B까지 걸어가는 방법을요. 0:02:29.441,0:02:31.781 그러나 AI를 이용해서[br]이 문제를 해결한다면, 0:02:31.805,0:02:32.979 다른 이야기가 됩니다. 0:02:33.003,0:02:35.385 어떻게 문제를 해결하는지에 대해[br]AI에게 알려주지 않고 0:02:35.409,0:02:36.888 여러분은 그냥 목표를 줍니다. 0:02:36.912,0:02:42.214 그리고 그것은 시행착오를 통해 스스로[br]목표에 도달할 방법을 알아내는 것이죠. 0:02:42.254,0:02:46.356 AI가 이 특정한 문제를 푸는 방식은 0:02:46.380,0:02:47.864 이렇습니다. 0:02:47.888,0:02:53.120 스스로를 탑으로 조립한 다음에 쓰러져서[br]B에 떨어지는 것이죠. 0:02:53.130,0:02:55.959 그리고, 따지고 보면,[br]이건 문제를 해결하긴 합니다. 0:02:55.983,0:02:57.622 기술적으로는, B까지 도달한 것이죠. 0:02:57.646,0:03:01.911 AI의 위험은 그것이[br]우리에게 맞설 것이라는 것이 아니라, 0:03:01.935,0:03:06.209 우리가 요청한 것을[br]아주 그대로 할 것이라는 겁니다. 0:03:06.876,0:03:09.074 따라서 AI를 사용할 때의 요점은 0:03:09.074,0:03:12.836 AI가 우리가 원하는 결과를 만들도록[br]어떻게 문제를 설정하느냐입니다. 0:03:14.726,0:03:18.032 여기 이 조그만 로봇은[br]AI가 조종합니다. 0:03:18.056,0:03:20.870 AI는 로봇다리의 디자인을 생각해냈고 0:03:20.894,0:03:24.972 모든 장애물들을 지나가기 위해[br]다리를 이용할 방법을 알아냈습니다. 0:03:24.996,0:03:27.737 그러나 데이비드 하씨가[br]이 실험을 고안할 때, 0:03:27.761,0:03:30.617 그는 아주, 아주 엄격한 제한을[br]설정해야만 했습니다. 0:03:30.641,0:03:33.933 AI가 만들 수 있는 다리의 크기에요. 0:03:33.957,0:03:35.507 그렇지 않았다면... 0:03:43.058,0:03:46.989 (웃음) 0:03:48.563,0:03:52.308 그리고 엄밀히 말하면,[br]이것은 장애물 코스를 통과했습니다. 0:03:52.332,0:03:57.274 이처럼 그냥 걷는 것 같은 간단한 일도[br]AI에게는 어렵습니다. 0:03:57.298,0:03:59.888 그래서 AI가 이러는 것을 보면,[br]여러분은 아마 이렇게 말할 겁니다. 0:03:59.888,0:04:03.722 규칙위반이야,[br]그냥 큰 탑이 돼서 넘어지면 안돼. 0:04:03.746,0:04:07.181 걸으려면 다리같은 걸 써야지. 0:04:07.205,0:04:09.964 그런데 그 방법도 항상 되지는 않죠. 0:04:09.988,0:04:12.747 이 AI의 목표는[br]빠르게 움직이는 것입니다. 0:04:13.115,0:04:16.708 그들은 AI에게 앞으로 달려야 하고, 0:04:16.732,0:04:18.990 팔을 사용하면 안된다고[br]알려주지 않았습니다. 0:04:19.487,0:04:24.105 AI에게 빨리 움직이는 것을 훈련시키면[br]이런 결과를 얻을 것입니다. 0:04:24.129,0:04:27.663 공중제비를 하거나[br]바보같은 걸음같은 것을 볼 수 있죠. 0:04:27.687,0:04:29.087 이건 아주 흔합니다. 0:04:29.667,0:04:32.846 바닥에서 웅크리고 씰룩거리는 것도요. 0:04:32.870,0:04:35.020 (웃음) 0:04:35.241,0:04:38.495 그래서 제 생각에는,[br]더 이상했어야 했던 것은 0:04:38.519,0:04:39.915 “터미네이터” 로봇입니다. 0:04:40.256,0:04:44.011 “매트릭스”를 해킹하는 것은[br]기회를 주면 AI가 할 또다른 일이죠. 0:04:44.035,0:04:46.552 만약 여러분이 시뮬레이션에서[br]AI를 훈련시킨다면, 0:04:46.576,0:04:50.689 시뮬레이션의 수학적 오류들을[br]해킹하는 것과 같은 방법을 배워서 0:04:50.713,0:04:52.920 그것들을 통해 에너지를 얻을 것입니다. 0:04:52.944,0:04:58.419 아니면 반복적으로 바닥에 고장을 내[br]더 빨리 움직이는 방법을 알아내겠죠. 0:04:58.443,0:05:02.368 AI와 일하는 것은[br]사람과 일하는 것과 다르고, 0:05:02.465,0:05:06.094 자연의 어떤 이상한 힘과[br]일하는 것과 더 유사합니다. 0:05:06.562,0:05:11.185 실수로 AI에게 잘못된 문제를[br]주는 것도 쉬운 일입니다. 0:05:11.209,0:05:15.747 보통 실제로 일이 잘못될 때까지[br]우리는 그걸 알아채지 못하죠. 0:05:16.242,0:05:18.322 제가 진행한 실험이 하나 있습니다. 0:05:18.346,0:05:21.528 저는 AI가 물감 색들을 복사해서 0:05:21.552,0:05:23.298 새로운 물감을 만들어내기를 원했습니다. 0:05:23.322,0:05:26.309 여기 왼쪽에 있는 목록을 주고요. 0:05:26.798,0:05:29.802 이게 AI가 실제로 만들어낸 것입니다. 0:05:29.826,0:05:32.969 [신디스 똥, 똥덩어리같은, [br]고생하다, 회색 음부] 0:05:32.993,0:05:38.440 (웃음) 0:05:39.177,0:05:41.063 그래서 엄밀히 말하면, 0:05:41.087,0:05:42.951 제가 요청한 것을 하긴 했습니다. 0:05:42.975,0:05:46.283 저는 제가 멋진 물감 이름들을[br]요청했다고 생각했는데 0:05:46.307,0:05:48.614 실제로 제가 요청했던 것은 0:05:48.638,0:05:53.614 원래에 있던 것들에 보이는 문자조합을[br]그냥 모방하는 것이었습니다. 0:05:53.677,0:05:56.775 그 단어들의 뜻이 무엇인지에 대해[br]알려주지 않았습니다. 0:05:56.799,0:06:02.229 혹은 물감에 사용하면 안되는 단어도[br]있을 수 있다는 것도요. 0:06:03.141,0:06:06.635 AI가 알고 있는 세계는[br]제가 준 데이터가 전부였지요. 0:06:06.659,0:06:10.687 아이스크림 맛처럼, 다른 것에 대해서는[br]전혀 아는 것이 없었습니다. 0:06:12.491,0:06:14.129 그래서 이 데이터를 통해서 0:06:14.153,0:06:18.197 우리는 AI에게 잘못된 것을 하라고[br]종종 실수로 말합니다. 0:06:18.694,0:06:21.726 이건 잉어라고 불리는 물고기입니다. 0:06:21.750,0:06:27.462 연구자들이 AI를 훈련시켜 사진에서[br]잉어를 식별하도록 했습니다. 0:06:27.487,0:06:29.617 그러나 그들이 AI에게 [br]사진의 어떤 부분을 0:06:29.617,0:06:32.213 물고기를 식별하는데 썼는지 물어보자 0:06:32.213,0:06:33.463 이것이 나타났습니다. 0:06:35.203,0:06:37.392 네, 저것들은 사람의 손가락입니다. 0:06:37.416,0:06:41.445 왜 물고기를 식별하는데[br]사람의 손가락을 찾고 있을까요? 0:06:42.126,0:06:45.290 잉어는 기념사진으로[br]남길만한 물고기여서, 0:06:45.314,0:06:50.085 AI가 훈련동안 보았던[br]이 물고기의 사진들은 0:06:50.085,0:06:51.575 이러했습니다. 0:06:51.838,0:06:53.473 (웃음) 0:06:53.497,0:06:56.827 손가락이 물고기의 일부가[br]아니라는 것을 몰랐죠. 0:06:58.808,0:07:02.928 그래서 여러분은 진짜로[br]무엇을 찾고 있는지 이해할 수 있는 0:07:02.952,0:07:06.271 AI를 디자인하는 것이[br]왜 어려운지 알 수 있을 것입니다. 0:07:06.295,0:07:09.157 그리고 이것이 자율주행 자동차에서의[br]이미지 인식을 0:07:09.181,0:07:11.248 디자인하는 것이 왜 그렇게[br]힘든 일인 지에 대한 이유이고 0:07:11.272,0:07:16.327 많은 자율주행 자동차의 실패들의 이유는[br]AI가 혼란스러워했기 때문입니다. 0:07:16.410,0:07:20.418 2016년에 있었던 한 예에 대해[br]이야기해보고 싶습니다. 0:07:20.442,0:07:24.897 테슬라 자동조종 AI를 이용하던 사람이[br]아주 치명적인 사고를 당했습니다. 0:07:24.921,0:07:28.335 원래 고속도로에서 사용하도록[br]디자인되었는데 0:07:28.359,0:07:30.564 도시 도로에서 사용되었습니다. 0:07:31.239,0:07:32.414 그리고 어떤 일이 일어났냐면, 0:07:32.438,0:07:35.834 어떤 트럭이 차 앞으로 나왔는데,[br]그 차는 서지 못했습니다. 0:07:36.507,0:07:41.269 AI는 분명히 사진들에서[br]트럭을 인식하도록 훈련되었습니다. 0:07:41.293,0:07:43.438 그러나 좀더 들여다 보면 0:07:43.462,0:07:46.393 AI가 고속도로에 있는 트럭들을[br]인식하도록 훈련된 거 같아 보였습니다. 0:07:46.417,0:07:49.316 트럭의 뒷모습을 볼 것이라고[br]생각하도록 말이죠. 0:07:49.340,0:07:52.760 트럭의 옆모습을 보는 것은[br]고속도로에는 일어나지 않는 일이었고, 0:07:52.784,0:07:56.239 이 AI가 이 트럭을 봤을 땐, 0:07:56.263,0:08:01.090 아마도 트럭을 도로 표지판으로 인식하고 0:08:01.114,0:08:03.387 따라서 운전을 해도[br]안전하다고 판단한 것이죠. 0:08:04.114,0:08:06.694 여기, 다른 분야에서[br]AI의 실수가 있습니다. 0:08:06.718,0:08:10.178 아마존은 이력서분류 알고리즘을[br]포기해야만 했습니다. 0:08:10.202,0:08:14.972 실제 적용에서 이 알고리즘이[br]여성을 차별한다는 것을 발견한 것이죠. 0:08:14.972,0:08:18.094 그들이 AI 훈련용으로 사용한 이력서는 0:08:18.118,0:08:20.360 과거에 고용한 사람들의 것이었습니다. 0:08:20.384,0:08:24.407 그 예시들로부터, AI는 이런 사람들을[br]기피하는 것을 배웠습니다. 0:08:24.431,0:08:26.457 여대를 나온 사람들, 0:08:26.481,0:08:29.287 이력서 어딘가에[br]‘여성’이라는 단어가 있는 사람들, 0:08:29.311,0:08:33.887 예를 들어 '여자 축구팀',[br]'여성공학자협회'같은 단어말이죠. 0:08:33.911,0:08:37.885 AI는 이 특정한 행동을 따라 해선[br]안된다는 것을 모르고 있었죠. 0:08:37.909,0:08:39.887 인간들이 하는 걸 봤더라도요. 0:08:39.911,0:08:43.088 그리고 엄밀히 말하자면,[br]AI는 아마존이 요청한 것을 했습니다. 0:08:43.112,0:08:45.909 그들은 그저 실수로[br]잘못된 일을 시킨 것이죠. 0:08:46.653,0:08:49.548 AI에게 이런 일은 항상 일어납니다. 0:08:50.120,0:08:53.711 AI는 아주 해로운 일을 하는 와중에,[br]해롭다는 것을 모를 수 있습니다. 0:08:53.735,0:08:58.813 페이스북, 유튜브에서[br]새로운 콘텐츠를 추천해주는 AI들은 0:08:58.837,0:09:02.376 클릭 수와 조회 수를 늘리도록[br]최적화되어 있습니다. 0:09:02.400,0:09:05.836 그리고 불행하게도, 그들이 찾은 방법은 0:09:05.860,0:09:10.363 음모론이나 심한 편견이 있는 [br]콘텐츠를 추천하는 것입니다. 0:09:10.902,0:09:16.204 AI들 자체에는 이 콘텐츠들이 실제로[br]무엇인지에 대한 개념이 없습니다. 0:09:16.228,0:09:19.623 그리고 그들은 결과가 어떨 것인지에[br]대한 개념도 없습니다. 0:09:19.647,0:09:21.756 이러한 콘텐츠를 추천해줌으로써[br]발생될 결과요. 0:09:22.296,0:09:24.307 그래서 우리가 AI와 일할 때, 0:09:24.331,0:09:28.513 문제들을 피하는 것은[br]우리에게 달려있습니다. 0:09:28.537,0:09:30.860 일들이 잘못되는 것을 피하는 것은, 0:09:30.884,0:09:35.410 아주 오래된 소통의 문제로 이어집니다. 0:09:35.434,0:09:39.179 인간인 우리가 AI와 소통하는[br]방법을 배워야하는 거죠. 0:09:39.203,0:09:43.242 AI가 할 수 있는 일과 없는 일이[br]무엇인지 알아야 합니다. 0:09:43.266,0:09:46.352 또한 AI는 그 조그만 지렁이같은 뇌로 0:09:46.376,0:09:50.389 우리가 어떤 것을 요청하려고 하는지[br]이해하지 못한다는 것을 알아야합니다. 0:09:51.148,0:09:54.469 다시 말해, 우리는 준비해야 합니다. 0:09:54.493,0:09:59.751 우리가 사용할 AI는 공상과학에나 있는[br]전지전능한 AI가 아닙니다. 0:09:59.775,0:10:05.427 현재 우리가 실제로 갖고 있는 AI와[br]함께 일하도록 준비해야 합니다. 0:10:05.623,0:10:09.828 그리고 오늘날의 AI는[br]대단히 이상합니다. 0:10:09.852,0:10:11.042 감사합니다. 0:10:11.066,0:10:16.291 (박수)