WEBVTT 00:00:01.765 --> 00:00:04.765 인공지능은 00:00:04.789 --> 00:00:08.318 온갖 종류의 산업을 와해시키는 것으로 알려져 있죠. 00:00:08.961 --> 00:00:11.004 아이스크림 시장은 어떨까요? 00:00:11.879 --> 00:00:14.818 어떤 새롭고 놀라운 맛들을 00:00:14.818 --> 00:00:18.518 고도의 인공지능으로 만들 수 있을까요? 00:00:19.011 --> 00:00:23.172 그래서 저는 킬링 중학교 학생들과 00:00:23.196 --> 00:00:25.437 이 문제의 답을 찾아 보고자 했습니다. 00:00:25.461 --> 00:00:30.542 현재 존재하는 1600가지가 넘는 아이스크림 맛들을 모으고, 00:00:30.566 --> 00:00:36.088 어떤 것을 만들 수 있는지 보기 위해 알고리즘을 적용했습니다. 00:00:36.112 --> 00:00:39.865 그리고 여기 AI가 만들어낸 맛들이 있습니다. NOTE Paragraph 00:00:40.444 --> 00:00:41.915 [호박 쓰레기 브레이크] NOTE Paragraph 00:00:41.939 --> 00:00:43.341 (웃음) NOTE Paragraph 00:00:43.365 --> 00:00:45.834 [땅콩 버터 슬라임] NOTE Paragraph 00:00:46.822 --> 00:00:48.165 [딸기 크림 질병] NOTE Paragraph 00:00:48.189 --> 00:00:50.315 (웃음) NOTE Paragraph 00:00:50.339 --> 00:00:54.936 이 맛들은 저희가 바랐던 것 만큼 맛있지 않습니다. 00:00:54.960 --> 00:00:58.204 무슨 일이 일어난 것일까요? 뭐가 잘못된 거죠? 00:00:58.266 --> 00:01:00.225 AI가 우리를 죽이려고 하는 것일까요? 00:01:01.027 --> 00:01:05.337 아니면 우리가 요청했던 걸 하려 했지만 문제가 있었던 걸까요? NOTE Paragraph 00:01:06.567 --> 00:01:09.031 영화에서 AI와 관련해 뭔가 잘못되면, 00:01:09.055 --> 00:01:14.077 보통은 AI가 인간에게 더 이상 복종하기 싫다고 결정하고 00:01:14.087 --> 00:01:16.710 AI 스스로의 목표를 가지기 때문이죠, 아주 감사하게도요. 00:01:17.266 --> 00:01:20.482 실제 상황에서는 그러나, 실제 AI는 00:01:20.506 --> 00:01:22.369 전혀 그렇게 똑똑하지 않습니다. 00:01:22.781 --> 00:01:27.078 AI의 연산 능력은 대략 지렁이 정도, 00:01:27.087 --> 00:01:30.490 아마 기껏해봐야 꿀벌 한마리, 00:01:30.514 --> 00:01:32.729 사실, 아마 그것도 안 될 겁니다. 00:01:32.753 --> 00:01:35.347 우리는 끊임없이 두뇌에 대해 새로운 것을 배워서 00:01:35.371 --> 00:01:39.731 AI가 실제 두뇌에 얼마나 못미치는지 분명히 알 수 있죠. 00:01:39.755 --> 00:01:45.418 오늘날의 AI는 사진 속의 행인을 식별하기 같은 일을 할 수 있죠. 00:01:45.442 --> 00:01:48.425 그러나 AI는 행인이 무엇이라는 개념은 가지고 있지 않습니다. 00:01:48.449 --> 00:01:53.273 그것은 선과 질감같은 것들의 덩어리 너머의 것입니다. 00:01:53.792 --> 00:01:56.313 AI는 실제 인간이라는 게 무엇인지 알지 못합니다. 00:01:56.822 --> 00:02:00.104 그래서 오늘날의 AI는 우리가 요청한 것을 수행할까요? 00:02:00.128 --> 00:02:01.722 할 수 있다면 하겠죠, 00:02:01.746 --> 00:02:04.472 그러나 우리가 진짜 원하는 것을 하지 않을 수도 있습니다. NOTE Paragraph 00:02:04.496 --> 00:02:09.491 가령 여러분이 AI를 이용해서 이 로봇 부품들로 00:02:09.578 --> 00:02:13.775 로봇을 조립해서 A에서 B로 간다고 생각해 봅시다. 00:02:13.799 --> 00:02:15.950 만약 여러분이 이 문제를 해결하기 위해 00:02:15.950 --> 00:02:18.655 전통적인 방식의 컴퓨터 프로그래밍을 이용한다면, 00:02:18.679 --> 00:02:22.096 이 프로그램에 단계별 지시를 주겠죠. 00:02:22.120 --> 00:02:25.849 부품들은 다루는 방법이라든가, 다리가 있는 로봇으로 만드는 방법과, 00:02:25.904 --> 00:02:28.846 그 다리로 B까지 걸어가는 방법을요. 00:02:29.441 --> 00:02:31.781 그러나 AI를 이용해서 이 문제를 해결한다면, 00:02:31.805 --> 00:02:32.979 다른 이야기가 됩니다. 00:02:33.003 --> 00:02:35.385 어떻게 문제를 해결하는지에 대해 AI에게 알려주지 않고 00:02:35.409 --> 00:02:36.888 여러분은 그냥 목표를 줍니다. 00:02:36.912 --> 00:02:42.214 그리고 그것은 시행착오를 통해 스스로 목표에 도달할 방법을 알아내는 것이죠. 00:02:42.254 --> 00:02:46.356 AI가 이 특정한 문제를 푸는 방식은 00:02:46.380 --> 00:02:47.864 이렇습니다. 00:02:47.888 --> 00:02:53.120 스스로를 탑으로 조립한 다음에 쓰러져서 B에 떨어지는 것이죠. 00:02:53.130 --> 00:02:55.959 그리고, 따지고 보면, 이건 문제를 해결하긴 합니다. 00:02:55.983 --> 00:02:57.622 기술적으로는, B까지 도달한 것이죠. 00:02:57.646 --> 00:03:01.911 AI의 위험은 그것이 우리에게 맞설 것이라는 것이 아니라, 00:03:01.935 --> 00:03:06.209 우리가 요청한 것을 아주 그대로 할 것이라는 겁니다. 00:03:06.876 --> 00:03:09.074 따라서 AI를 사용할 때의 요점은 00:03:09.074 --> 00:03:12.836 AI가 우리가 원하는 결과를 만들도록 어떻게 문제를 설정하느냐입니다. NOTE Paragraph 00:03:14.726 --> 00:03:18.032 여기 이 조그만 로봇은 AI가 조종합니다. 00:03:18.056 --> 00:03:20.870 AI는 로봇다리의 디자인을 생각해냈고 00:03:20.894 --> 00:03:24.972 모든 장애물들을 지나가기 위해 다리를 이용할 방법을 알아냈습니다. 00:03:24.996 --> 00:03:27.737 그러나 데이비드 하씨가 이 실험을 고안할 때, 00:03:27.761 --> 00:03:30.617 그는 아주, 아주 엄격한 제한을 설정해야만 했습니다. 00:03:30.641 --> 00:03:33.933 AI가 만들 수 있는 다리의 크기에요. 00:03:33.957 --> 00:03:35.507 그렇지 않았다면... NOTE Paragraph 00:03:43.058 --> 00:03:46.989 (웃음) NOTE Paragraph 00:03:48.563 --> 00:03:52.308 그리고 엄밀히 말하면, 이것은 장애물 코스를 통과했습니다. 00:03:52.332 --> 00:03:57.274 이처럼 그냥 걷는 것 같은 간단한 일도 AI에게는 어렵습니다. NOTE Paragraph 00:03:57.298 --> 00:03:59.888 그래서 AI가 이러는 것을 보면, 여러분은 아마 이렇게 말할 겁니다. 00:03:59.888 --> 00:04:03.722 규칙위반이야, 그냥 큰 탑이 돼서 넘어지면 안돼. 00:04:03.746 --> 00:04:07.181 걸으려면 다리같은 걸 써야지. 00:04:07.205 --> 00:04:09.964 그런데 그 방법도 항상 되지는 않죠. 00:04:09.988 --> 00:04:12.747 이 AI의 목표는 빠르게 움직이는 것입니다. 00:04:13.115 --> 00:04:16.708 그들은 AI에게 앞으로 달려야 하고, 00:04:16.732 --> 00:04:18.990 팔을 사용하면 안된다고 알려주지 않았습니다. 00:04:19.487 --> 00:04:24.105 AI에게 빨리 움직이는 것을 훈련시키면 이런 결과를 얻을 것입니다. 00:04:24.129 --> 00:04:27.663 공중제비를 하거나 바보같은 걸음같은 것을 볼 수 있죠. 00:04:27.687 --> 00:04:29.087 이건 아주 흔합니다. 00:04:29.667 --> 00:04:32.846 바닥에서 웅크리고 씰룩거리는 것도요. NOTE Paragraph 00:04:32.870 --> 00:04:35.020 (웃음) NOTE Paragraph 00:04:35.241 --> 00:04:38.495 그래서 제 생각에는, 더 이상했어야 했던 것은 00:04:38.519 --> 00:04:39.915 “터미네이터” 로봇입니다. 00:04:40.256 --> 00:04:44.011 “매트릭스”를 해킹하는 것은 기회를 주면 AI가 할 또다른 일이죠. 00:04:44.035 --> 00:04:46.552 만약 여러분이 시뮬레이션에서 AI를 훈련시킨다면, 00:04:46.576 --> 00:04:50.689 시뮬레이션의 수학적 오류들을 해킹하는 것과 같은 방법을 배워서 00:04:50.713 --> 00:04:52.920 그것들을 통해 에너지를 얻을 것입니다. 00:04:52.944 --> 00:04:58.419 아니면 반복적으로 바닥에 고장을 내 더 빨리 움직이는 방법을 알아내겠죠. 00:04:58.443 --> 00:05:02.368 AI와 일하는 것은 사람과 일하는 것과 다르고, 00:05:02.465 --> 00:05:06.094 자연의 어떤 이상한 힘과 일하는 것과 더 유사합니다. 00:05:06.562 --> 00:05:11.185 실수로 AI에게 잘못된 문제를 주는 것도 쉬운 일입니다. 00:05:11.209 --> 00:05:15.747 보통 실제로 일이 잘못될 때까지 우리는 그걸 알아채지 못하죠. NOTE Paragraph 00:05:16.242 --> 00:05:18.322 제가 진행한 실험이 하나 있습니다. 00:05:18.346 --> 00:05:21.528 저는 AI가 물감 색들을 복사해서 00:05:21.552 --> 00:05:23.298 새로운 물감을 만들어내기를 원했습니다. 00:05:23.322 --> 00:05:26.309 여기 왼쪽에 있는 목록을 주고요. 00:05:26.798 --> 00:05:29.802 이게 AI가 실제로 만들어낸 것입니다. NOTE Paragraph 00:05:29.826 --> 00:05:32.969 [신디스 똥, 똥덩어리같은, 고생하다, 흰 머리] NOTE Paragraph 00:05:32.993 --> 00:05:38.440 (웃음) NOTE Paragraph 00:05:39.177 --> 00:05:41.063 그래서 엄밀히 말하면, 00:05:41.087 --> 00:05:42.951 제가 요청한 것을 하긴 했습니다. 00:05:42.975 --> 00:05:46.283 저는 제가 멋진 물감 이름들을 요청했다고 생각했는데 00:05:46.307 --> 00:05:48.614 실제로 제가 요청했던 것은 00:05:48.638 --> 00:05:53.614 원래에 있던 것들에 보이는 문자조합을 그냥 모방하는 것이었습니다. 00:05:53.677 --> 00:05:56.775 그 단어들의 뜻이 무엇인지에 대해 알려주지 않았습니다. 00:05:56.799 --> 00:06:02.229 혹은 물감에 사용하면 안되는 단어도 있을 수 있다는 것도요. 00:06:03.141 --> 00:06:06.635 AI가 알고 있는 세계는 제가 준 데이터가 전부였지요. 00:06:06.659 --> 00:06:10.687 아이스크림 맛처럼, 다른 것에 대해서는 전혀 아는 것이 없었습니다. NOTE Paragraph 00:06:12.491 --> 00:06:14.129 그래서 이 데이터를 통해서 00:06:14.153 --> 00:06:18.197 우리는 AI에게 잘못된 것을 하라고 종종 실수로 말합니다. 00:06:18.694 --> 00:06:21.726 이건 잉어라고 불리는 물고기입니다. 00:06:21.750 --> 00:06:27.462 연구자들이 AI를 훈련시켜 사진에서 잉어를 식별하도록 했습니다. 00:06:27.487 --> 00:06:29.617 그러나 그들이 AI에게 사진의 어떤 부분을 00:06:29.617 --> 00:06:32.213 물고기를 식별하는데 썼는지 물어보자 00:06:32.213 --> 00:06:33.463 이것이 나타났습니다. 00:06:35.203 --> 00:06:37.392 네, 저것들은 사람의 손가락입니다. 00:06:37.416 --> 00:06:41.445 왜 물고기를 식별하는데 사람의 손가락을 찾고 있을까요? 00:06:42.126 --> 00:06:45.290 잉어는 기념사진으로 남길만한 물고기여서, 00:06:45.314 --> 00:06:50.085 AI가 훈련동안 보았던 이 물고기의 사진들은 00:06:50.085 --> 00:06:51.575 이러했습니다. NOTE Paragraph 00:06:51.838 --> 00:06:53.473 (웃음) NOTE Paragraph 00:06:53.497 --> 00:06:56.827 손가락이 물고기의 일부가 아니라는 것을 몰랐죠. NOTE Paragraph 00:06:58.808 --> 00:07:02.928 그래서 여러분은 진짜로 무엇을 찾고 있는지 이해할 수 있는 00:07:02.952 --> 00:07:06.271 AI를 디자인하는 것이 왜 어려운지 알 수 있을 것입니다. 00:07:06.295 --> 00:07:09.157 그리고 이것이 자율주행 자동차에서의 이미지 인식을 00:07:09.181 --> 00:07:11.248 디자인하는 것이 왜 그렇게 힘든 일인 지에 대한 이유이고 00:07:11.272 --> 00:07:16.327 많은 자율주행 자동차의 실패들의 이유는 AI가 혼란스러워했기 때문입니다. 00:07:16.410 --> 00:07:20.418 2016년에 있었던 한 예에 대해 이야기해보고 싶습니다. 00:07:20.442 --> 00:07:24.897 테슬라 자동조종 AI를 이용하던 사람이 아주 치명적인 사고를 당했습니다. 00:07:24.921 --> 00:07:28.335 원래 고속도로에서 사용하도록 디자인되었는데 00:07:28.359 --> 00:07:30.564 도시 도로에서 사용되었습니다. 00:07:31.239 --> 00:07:32.414 그리고 어떤 일이 일어났냐면, 00:07:32.438 --> 00:07:35.834 어떤 트럭이 차 앞으로 나왔는데, 그 차는 서지 못했습니다. 00:07:36.507 --> 00:07:41.269 AI는 분명히 사진들에서 트럭을 인식하도록 훈련되었습니다. 00:07:41.293 --> 00:07:43.438 그러나 좀더 들여다 보면 00:07:43.462 --> 00:07:46.393 AI가 고속도로에 있는 트럭들을 인식하도록 훈련된 거 같아 보였습니다. 00:07:46.417 --> 00:07:49.316 트럭의 뒷모습을 볼 것이라고 생각하도록 말이죠. 00:07:49.340 --> 00:07:52.760 트럭의 옆모습을 보는 것은 고속도로에는 일어나지 않는 일이었고, 00:07:52.784 --> 00:07:56.239 이 AI가 이 트럭을 봤을 땐, 00:07:56.263 --> 00:08:01.090 아마도 트럭을 도로 표지판으로 인식하고 00:08:01.114 --> 00:08:03.387 따라서 운전을 해도 안전하다고 판단한 것이죠. NOTE Paragraph 00:08:04.114 --> 00:08:06.694 여기, 다른 분야에서 AI의 실수가 있습니다. 00:08:06.718 --> 00:08:10.178 아마존은 이력서분류 알고리즘을 포기해야만 했습니다. 00:08:10.202 --> 00:08:14.972 실제 적용에서 이 알고리즘이 여성을 차별한다는 것을 발견한 것이죠. 00:08:14.972 --> 00:08:18.094 그들이 AI 훈련용으로 사용한 이력서는 00:08:18.118 --> 00:08:20.360 과거에 고용한 사람들의 것이었습니다. 00:08:20.384 --> 00:08:24.407 그 예시들로부터, AI는 이런 사람들을 기피하는 것을 배웠습니다. 00:08:24.431 --> 00:08:26.457 여대를 나온 사람들, 00:08:26.481 --> 00:08:29.287 이력서 어딘가에 ‘여성’이라는 단어가 있는 사람들, 00:08:29.311 --> 00:08:33.887 예를 들어 '여자 축구팀', '여성공학자협회'같은 단어말이죠. 00:08:33.911 --> 00:08:37.885 AI는 이 특정한 행동을 따라 해선 안된다는 것을 모르고 있었죠. 00:08:37.909 --> 00:08:39.887 인간들이 하는 걸 봤더라도요. 00:08:39.911 --> 00:08:43.088 그리고 엄밀히 말하자면, AI는 아마존이 요청한 것을 했습니다. 00:08:43.112 --> 00:08:45.909 그들은 그저 실수로 잘못된 일을 시킨 것이죠. NOTE Paragraph 00:08:46.653 --> 00:08:49.548 AI에게 이런 일은 항상 일어납니다. 00:08:50.120 --> 00:08:53.711 AI는 아주 해로운 일을 하는 와중에, 해롭다는 것을 모를 수 있습니다. 00:08:53.735 --> 00:08:58.813 페이스북, 유튜브에서 새로운 콘텐츠를 추천해주는 AI들은 00:08:58.837 --> 00:09:02.376 클릭 수와 조회 수를 늘리도록 최적화되어 있습니다. 00:09:02.400 --> 00:09:05.836 그리고 불행하게도, 그들이 찾은 방법은 00:09:05.860 --> 00:09:10.363 음모론이나 심한 편견이 있는 콘텐츠를 추천하는 것입니다. 00:09:10.902 --> 00:09:16.204 AI들 자체에는 이 콘텐츠들이 실제로 무엇인지에 대한 개념이 없습니다. 00:09:16.228 --> 00:09:19.623 그리고 그들은 결과가 어떨 것인지에 대한 개념도 없습니다. 00:09:19.647 --> 00:09:21.756 이러한 콘텐츠를 추천해줌으로써 발생될 결과요. NOTE Paragraph 00:09:22.296 --> 00:09:24.307 그래서 우리가 AI와 일할 때, 00:09:24.331 --> 00:09:28.513 문제들을 피하는 것은 우리에게 달려있습니다. 00:09:28.537 --> 00:09:30.860 일들이 잘못되는 것을 피하는 것은, 00:09:30.884 --> 00:09:35.410 아주 오래된 소통의 문제로 이어집니다. 00:09:35.434 --> 00:09:39.179 인간인 우리가 AI와 소통하는 방법을 배워야하는 거죠. 00:09:39.203 --> 00:09:43.242 AI가 할 수 있는 일과 없는 일이 무엇인지 알아야 합니다. 00:09:43.266 --> 00:09:46.352 또한 AI는 그 조그만 지렁이같은 뇌로 00:09:46.376 --> 00:09:50.389 우리가 어떤 것을 요청하려고 하는지 이해하지 못한다는 것을 알아야합니다. 00:09:51.148 --> 00:09:54.469 다시 말해, 우리는 준비해야 합니다. 00:09:54.493 --> 00:09:59.751 우리가 사용할 AI는 공상과학에나 있는 전지전능한 AI가 아닙니다. 00:09:59.775 --> 00:10:05.427 현재 우리가 실제로 갖고 있는 AI와 함께 일하도록 준비해야 합니다. 00:10:05.623 --> 00:10:09.828 그리고 오늘날의 AI는 대단히 이상합니다. NOTE Paragraph 00:10:09.852 --> 00:10:11.042 감사합니다. NOTE Paragraph 00:10:11.066 --> 00:10:16.291 (박수)