1 00:00:01,765 --> 00:00:04,765 인공지능은 2 00:00:04,789 --> 00:00:08,318 온갖 종류의 산업을 와해시키는 것으로 알려져 있죠. 3 00:00:08,961 --> 00:00:11,004 아이스크림 시장은 어떨까요? 4 00:00:11,879 --> 00:00:14,818 어떤 새롭고 놀라운 맛들을 5 00:00:14,818 --> 00:00:18,518 고도의 인공지능으로 만들 수 있을까요? 6 00:00:19,011 --> 00:00:23,172 그래서 저는 킬링 중학교 학생들과 7 00:00:23,196 --> 00:00:25,437 이 문제의 답을 찾아 보고자 했습니다. 8 00:00:25,461 --> 00:00:30,542 현재 존재하는 1600가지가 넘는 아이스크림 맛들을 모으고, 9 00:00:30,566 --> 00:00:36,088 어떤 것을 만들 수 있는지 보기 위해 알고리즘을 적용했습니다. 10 00:00:36,112 --> 00:00:39,865 그리고 여기 AI가 만들어낸 맛들이 있습니다. 11 00:00:40,444 --> 00:00:41,915 [호박 쓰레기 브레이크] 12 00:00:41,939 --> 00:00:43,341 (웃음) 13 00:00:43,365 --> 00:00:45,834 [땅콩 버터 슬라임] 14 00:00:46,822 --> 00:00:48,165 [딸기 크림 질병] 15 00:00:48,189 --> 00:00:50,315 (웃음) 16 00:00:50,339 --> 00:00:54,936 이 맛들은 저희가 바랐던 것 만큼 맛있지 않습니다. 17 00:00:54,960 --> 00:00:58,204 무슨 일이 일어난 것일까요? 뭐가 잘못된 거죠? 18 00:00:58,266 --> 00:01:00,225 AI가 우리를 죽이려고 하는 것일까요? 19 00:01:01,027 --> 00:01:05,337 아니면 우리가 요청했던 걸 하려 했지만 문제가 있었던 걸까요? 20 00:01:06,567 --> 00:01:09,031 영화에서 AI와 관련해 뭔가 잘못되면, 21 00:01:09,055 --> 00:01:14,077 보통은 AI가 인간에게 더 이상 복종하기 싫다고 결정하고 22 00:01:14,087 --> 00:01:16,710 AI 스스로의 목표를 가지기 때문이죠, 아주 감사하게도요. 23 00:01:17,266 --> 00:01:20,482 실제 상황에서는 그러나, 실제 AI는 24 00:01:20,506 --> 00:01:22,369 전혀 그렇게 똑똑하지 않습니다. 25 00:01:22,781 --> 00:01:27,078 AI의 연산 능력은 대략 지렁이 정도, 26 00:01:27,087 --> 00:01:30,490 아마 기껏해봐야 꿀벌 한마리, 27 00:01:30,514 --> 00:01:32,729 사실, 아마 그것도 안 될 겁니다. 28 00:01:32,753 --> 00:01:35,347 우리는 끊임없이 두뇌에 대해 새로운 것을 배워서 29 00:01:35,371 --> 00:01:39,731 AI가 실제 두뇌에 얼마나 못미치는지 분명히 알 수 있죠. 30 00:01:39,755 --> 00:01:45,418 오늘날의 AI는 사진 속의 행인을 식별하기 같은 일을 할 수 있죠. 31 00:01:45,442 --> 00:01:48,425 그러나 AI는 행인이 무엇이라는 개념은 가지고 있지 않습니다. 32 00:01:48,449 --> 00:01:53,273 그것은 선과 질감같은 것들의 덩어리 너머의 것입니다. 33 00:01:53,792 --> 00:01:56,313 AI는 실제 인간이라는 게 무엇인지 알지 못합니다. 34 00:01:56,822 --> 00:02:00,104 그래서 오늘날의 AI는 우리가 요청한 것을 수행할까요? 35 00:02:00,128 --> 00:02:01,722 할 수 있다면 하겠죠, 36 00:02:01,746 --> 00:02:04,472 그러나 우리가 진짜 원하는 것을 하지 않을 수도 있습니다. 37 00:02:04,496 --> 00:02:09,491 가령 여러분이 AI를 이용해서 이 로봇 부품들로 38 00:02:09,578 --> 00:02:13,775 로봇을 조립해서 A에서 B로 간다고 생각해 봅시다. 39 00:02:13,799 --> 00:02:15,950 만약 여러분이 이 문제를 해결하기 위해 40 00:02:15,950 --> 00:02:18,655 전통적인 방식의 컴퓨터 프로그래밍을 이용한다면, 41 00:02:18,679 --> 00:02:22,096 이 프로그램에 단계별 지시를 주겠죠. 42 00:02:22,120 --> 00:02:25,849 부품들은 다루는 방법이라든가, 다리가 있는 로봇으로 만드는 방법과, 43 00:02:25,904 --> 00:02:28,846 그 다리로 B까지 걸어가는 방법을요. 44 00:02:29,441 --> 00:02:31,781 그러나 AI를 이용해서 이 문제를 해결한다면, 45 00:02:31,805 --> 00:02:32,979 다른 이야기가 됩니다. 46 00:02:33,003 --> 00:02:35,385 어떻게 문제를 해결하는지에 대해 AI에게 알려주지 않고 47 00:02:35,409 --> 00:02:36,888 여러분은 그냥 목표를 줍니다. 48 00:02:36,912 --> 00:02:42,214 그리고 그것은 시행착오를 통해 스스로 목표에 도달할 방법을 알아내는 것이죠. 49 00:02:42,254 --> 00:02:46,356 AI가 이 특정한 문제를 푸는 방식은 50 00:02:46,380 --> 00:02:47,864 이렇습니다. 51 00:02:47,888 --> 00:02:53,120 스스로를 탑으로 조립한 다음에 쓰러져서 B에 떨어지는 것이죠. 52 00:02:53,130 --> 00:02:55,959 그리고, 따지고 보면, 이건 문제를 해결하긴 합니다. 53 00:02:55,983 --> 00:02:57,622 기술적으로는, B까지 도달한 것이죠. 54 00:02:57,646 --> 00:03:01,911 AI의 위험은 그것이 우리에게 맞설 것이라는 것이 아니라, 55 00:03:01,935 --> 00:03:06,209 우리가 요청한 것을 아주 그대로 할 것이라는 겁니다. 56 00:03:06,876 --> 00:03:09,074 따라서 AI를 사용할 때의 요점은 57 00:03:09,074 --> 00:03:12,836 AI가 우리가 원하는 결과를 만들도록 어떻게 문제를 설정하느냐입니다. 58 00:03:14,726 --> 00:03:18,032 여기 이 조그만 로봇은 AI가 조종합니다. 59 00:03:18,056 --> 00:03:20,870 AI는 로봇다리의 디자인을 생각해냈고 60 00:03:20,894 --> 00:03:24,972 모든 장애물들을 지나가기 위해 다리를 이용할 방법을 알아냈습니다. 61 00:03:24,996 --> 00:03:27,737 그러나 데이비드 하씨가 이 실험을 고안할 때, 62 00:03:27,761 --> 00:03:30,617 그는 아주, 아주 엄격한 제한을 설정해야만 했습니다. 63 00:03:30,641 --> 00:03:33,933 AI가 만들 수 있는 다리의 크기에요. 64 00:03:33,957 --> 00:03:35,507 그렇지 않았다면... 65 00:03:43,058 --> 00:03:46,989 (웃음) 66 00:03:48,563 --> 00:03:52,308 그리고 엄밀히 말하면, 이것은 장애물 코스를 통과했습니다. 67 00:03:52,332 --> 00:03:57,274 이처럼 그냥 걷는 것 같은 간단한 일도 AI에게는 어렵습니다. 68 00:03:57,298 --> 00:03:59,888 그래서 AI가 이러는 것을 보면, 여러분은 아마 이렇게 말할 겁니다. 69 00:03:59,888 --> 00:04:03,722 규칙위반이야, 그냥 큰 탑이 돼서 넘어지면 안돼. 70 00:04:03,746 --> 00:04:07,181 걸으려면 다리같은 걸 써야지. 71 00:04:07,205 --> 00:04:09,964 그런데 그 방법도 항상 되지는 않죠. 72 00:04:09,988 --> 00:04:12,747 이 AI의 목표는 빠르게 움직이는 것입니다. 73 00:04:13,115 --> 00:04:16,708 그들은 AI에게 앞으로 달려야 하고, 74 00:04:16,732 --> 00:04:18,990 팔을 사용하면 안된다고 알려주지 않았습니다. 75 00:04:19,487 --> 00:04:24,105 AI에게 빨리 움직이는 것을 훈련시키면 이런 결과를 얻을 것입니다. 76 00:04:24,129 --> 00:04:27,663 공중제비를 하거나 바보같은 걸음같은 것을 볼 수 있죠. 77 00:04:27,687 --> 00:04:29,087 이건 아주 흔합니다. 78 00:04:29,667 --> 00:04:32,846 바닥에서 웅크리고 씰룩거리는 것도요. 79 00:04:32,870 --> 00:04:35,020 (웃음) 80 00:04:35,241 --> 00:04:38,495 그래서 제 생각에는, 더 이상했어야 했던 것은 81 00:04:38,519 --> 00:04:39,915 “터미네이터” 로봇입니다. 82 00:04:40,256 --> 00:04:44,011 “매트릭스”를 해킹하는 것은 기회를 주면 AI가 할 또다른 일이죠. 83 00:04:44,035 --> 00:04:46,552 만약 여러분이 시뮬레이션에서 AI를 훈련시킨다면, 84 00:04:46,576 --> 00:04:50,689 시뮬레이션의 수학적 오류들을 해킹하는 것과 같은 방법을 배워서 85 00:04:50,713 --> 00:04:52,920 그것들을 통해 에너지를 얻을 것입니다. 86 00:04:52,944 --> 00:04:58,419 아니면 반복적으로 바닥에 고장을 내 더 빨리 움직이는 방법을 알아내겠죠. 87 00:04:58,443 --> 00:05:02,368 AI와 일하는 것은 사람과 일하는 것과 다르고, 88 00:05:02,465 --> 00:05:06,094 자연의 어떤 이상한 힘과 일하는 것과 더 유사합니다. 89 00:05:06,562 --> 00:05:11,185 실수로 AI에게 잘못된 문제를 주는 것도 쉬운 일입니다. 90 00:05:11,209 --> 00:05:15,747 보통 실제로 일이 잘못될 때까지 우리는 그걸 알아채지 못하죠. 91 00:05:16,242 --> 00:05:18,322 제가 진행한 실험이 하나 있습니다. 92 00:05:18,346 --> 00:05:21,528 저는 AI가 물감 색들을 복사해서 93 00:05:21,552 --> 00:05:23,298 새로운 물감을 만들어내기를 원했습니다. 94 00:05:23,322 --> 00:05:26,309 여기 왼쪽에 있는 목록을 주고요. 95 00:05:26,798 --> 00:05:29,802 이게 AI가 실제로 만들어낸 것입니다. 96 00:05:29,826 --> 00:05:32,969 [신디스 똥, 똥덩어리같은, 고생하다, 회색 음부] 97 00:05:32,993 --> 00:05:38,440 (웃음) 98 00:05:39,177 --> 00:05:41,063 그래서 엄밀히 말하면, 99 00:05:41,087 --> 00:05:42,951 제가 요청한 것을 하긴 했습니다. 100 00:05:42,975 --> 00:05:46,283 저는 제가 멋진 물감 이름들을 요청했다고 생각했는데 101 00:05:46,307 --> 00:05:48,614 실제로 제가 요청했던 것은 102 00:05:48,638 --> 00:05:53,614 원래에 있던 것들에 보이는 문자조합을 그냥 모방하는 것이었습니다. 103 00:05:53,677 --> 00:05:56,775 그 단어들의 뜻이 무엇인지에 대해 알려주지 않았습니다. 104 00:05:56,799 --> 00:06:02,229 혹은 물감에 사용하면 안되는 단어도 있을 수 있다는 것도요. 105 00:06:03,141 --> 00:06:06,635 AI가 알고 있는 세계는 제가 준 데이터가 전부였지요. 106 00:06:06,659 --> 00:06:10,687 아이스크림 맛처럼, 다른 것에 대해서는 전혀 아는 것이 없었습니다. 107 00:06:12,491 --> 00:06:14,129 그래서 이 데이터를 통해서 108 00:06:14,153 --> 00:06:18,197 우리는 AI에게 잘못된 것을 하라고 종종 실수로 말합니다. 109 00:06:18,694 --> 00:06:21,726 이건 잉어라고 불리는 물고기입니다. 110 00:06:21,750 --> 00:06:27,462 연구자들이 AI를 훈련시켜 사진에서 잉어를 식별하도록 했습니다. 111 00:06:27,487 --> 00:06:29,617 그러나 그들이 AI에게 사진의 어떤 부분을 112 00:06:29,617 --> 00:06:32,213 물고기를 식별하는데 썼는지 물어보자 113 00:06:32,213 --> 00:06:33,463 이것이 나타났습니다. 114 00:06:35,203 --> 00:06:37,392 네, 저것들은 사람의 손가락입니다. 115 00:06:37,416 --> 00:06:41,445 왜 물고기를 식별하는데 사람의 손가락을 찾고 있을까요? 116 00:06:42,126 --> 00:06:45,290 잉어는 기념사진으로 남길만한 물고기여서, 117 00:06:45,314 --> 00:06:50,085 AI가 훈련동안 보았던 이 물고기의 사진들은 118 00:06:50,085 --> 00:06:51,575 이러했습니다. 119 00:06:51,838 --> 00:06:53,473 (웃음) 120 00:06:53,497 --> 00:06:56,827 손가락이 물고기의 일부가 아니라는 것을 몰랐죠. 121 00:06:58,808 --> 00:07:02,928 그래서 여러분은 진짜로 무엇을 찾고 있는지 이해할 수 있는 122 00:07:02,952 --> 00:07:06,271 AI를 디자인하는 것이 왜 어려운지 알 수 있을 것입니다. 123 00:07:06,295 --> 00:07:09,157 그리고 이것이 자율주행 자동차에서의 이미지 인식을 124 00:07:09,181 --> 00:07:11,248 디자인하는 것이 왜 그렇게 힘든 일인 지에 대한 이유이고 125 00:07:11,272 --> 00:07:16,327 많은 자율주행 자동차의 실패들의 이유는 AI가 혼란스러워했기 때문입니다. 126 00:07:16,410 --> 00:07:20,418 2016년에 있었던 한 예에 대해 이야기해보고 싶습니다. 127 00:07:20,442 --> 00:07:24,897 테슬라 자동조종 AI를 이용하던 사람이 아주 치명적인 사고를 당했습니다. 128 00:07:24,921 --> 00:07:28,335 원래 고속도로에서 사용하도록 디자인되었는데 129 00:07:28,359 --> 00:07:30,564 도시 도로에서 사용되었습니다. 130 00:07:31,239 --> 00:07:32,414 그리고 어떤 일이 일어났냐면, 131 00:07:32,438 --> 00:07:35,834 어떤 트럭이 차 앞으로 나왔는데, 그 차는 서지 못했습니다. 132 00:07:36,507 --> 00:07:41,269 AI는 분명히 사진들에서 트럭을 인식하도록 훈련되었습니다. 133 00:07:41,293 --> 00:07:43,438 그러나 좀더 들여다 보면 134 00:07:43,462 --> 00:07:46,393 AI가 고속도로에 있는 트럭들을 인식하도록 훈련된 거 같아 보였습니다. 135 00:07:46,417 --> 00:07:49,316 트럭의 뒷모습을 볼 것이라고 생각하도록 말이죠. 136 00:07:49,340 --> 00:07:52,760 트럭의 옆모습을 보는 것은 고속도로에는 일어나지 않는 일이었고, 137 00:07:52,784 --> 00:07:56,239 이 AI가 이 트럭을 봤을 땐, 138 00:07:56,263 --> 00:08:01,090 아마도 트럭을 도로 표지판으로 인식하고 139 00:08:01,114 --> 00:08:03,387 따라서 운전을 해도 안전하다고 판단한 것이죠. 140 00:08:04,114 --> 00:08:06,694 여기, 다른 분야에서 AI의 실수가 있습니다. 141 00:08:06,718 --> 00:08:10,178 아마존은 이력서분류 알고리즘을 포기해야만 했습니다. 142 00:08:10,202 --> 00:08:14,972 실제 적용에서 이 알고리즘이 여성을 차별한다는 것을 발견한 것이죠. 143 00:08:14,972 --> 00:08:18,094 그들이 AI 훈련용으로 사용한 이력서는 144 00:08:18,118 --> 00:08:20,360 과거에 고용한 사람들의 것이었습니다. 145 00:08:20,384 --> 00:08:24,407 그 예시들로부터, AI는 이런 사람들을 기피하는 것을 배웠습니다. 146 00:08:24,431 --> 00:08:26,457 여대를 나온 사람들, 147 00:08:26,481 --> 00:08:29,287 이력서 어딘가에 ‘여성’이라는 단어가 있는 사람들, 148 00:08:29,311 --> 00:08:33,887 예를 들어 '여자 축구팀', '여성공학자협회'같은 단어말이죠. 149 00:08:33,911 --> 00:08:37,885 AI는 이 특정한 행동을 따라 해선 안된다는 것을 모르고 있었죠. 150 00:08:37,909 --> 00:08:39,887 인간들이 하는 걸 봤더라도요. 151 00:08:39,911 --> 00:08:43,088 그리고 엄밀히 말하자면, AI는 아마존이 요청한 것을 했습니다. 152 00:08:43,112 --> 00:08:45,909 그들은 그저 실수로 잘못된 일을 시킨 것이죠. 153 00:08:46,653 --> 00:08:49,548 AI에게 이런 일은 항상 일어납니다. 154 00:08:50,120 --> 00:08:53,711 AI는 아주 해로운 일을 하는 와중에, 해롭다는 것을 모를 수 있습니다. 155 00:08:53,735 --> 00:08:58,813 페이스북, 유튜브에서 새로운 콘텐츠를 추천해주는 AI들은 156 00:08:58,837 --> 00:09:02,376 클릭 수와 조회 수를 늘리도록 최적화되어 있습니다. 157 00:09:02,400 --> 00:09:05,836 그리고 불행하게도, 그들이 찾은 방법은 158 00:09:05,860 --> 00:09:10,363 음모론이나 심한 편견이 있는 콘텐츠를 추천하는 것입니다. 159 00:09:10,902 --> 00:09:16,204 AI들 자체에는 이 콘텐츠들이 실제로 무엇인지에 대한 개념이 없습니다. 160 00:09:16,228 --> 00:09:19,623 그리고 그들은 결과가 어떨 것인지에 대한 개념도 없습니다. 161 00:09:19,647 --> 00:09:21,756 이러한 콘텐츠를 추천해줌으로써 발생될 결과요. 162 00:09:22,296 --> 00:09:24,307 그래서 우리가 AI와 일할 때, 163 00:09:24,331 --> 00:09:28,513 문제들을 피하는 것은 우리에게 달려있습니다. 164 00:09:28,537 --> 00:09:30,860 일들이 잘못되는 것을 피하는 것은, 165 00:09:30,884 --> 00:09:35,410 아주 오래된 소통의 문제로 이어집니다. 166 00:09:35,434 --> 00:09:39,179 인간인 우리가 AI와 소통하는 방법을 배워야하는 거죠. 167 00:09:39,203 --> 00:09:43,242 AI가 할 수 있는 일과 없는 일이 무엇인지 알아야 합니다. 168 00:09:43,266 --> 00:09:46,352 또한 AI는 그 조그만 지렁이같은 뇌로 169 00:09:46,376 --> 00:09:50,389 우리가 어떤 것을 요청하려고 하는지 이해하지 못한다는 것을 알아야합니다. 170 00:09:51,148 --> 00:09:54,469 다시 말해, 우리는 준비해야 합니다. 171 00:09:54,493 --> 00:09:59,751 우리가 사용할 AI는 공상과학에나 있는 전지전능한 AI가 아닙니다. 172 00:09:59,775 --> 00:10:05,427 현재 우리가 실제로 갖고 있는 AI와 함께 일하도록 준비해야 합니다. 173 00:10:05,623 --> 00:10:09,828 그리고 오늘날의 AI는 대단히 이상합니다. 174 00:10:09,852 --> 00:10:11,042 감사합니다. 175 00:10:11,066 --> 00:10:16,291 (박수)