1 00:00:01,000 --> 00:00:03,250 직감이 틀리는 경우에 대해서 얘기할까 합니다. 2 00:00:03,250 --> 00:00:05,480 우리가 흔히 겪는 일이죠. 3 00:00:05,480 --> 00:00:08,520 이것은 실제로 어떤 종류의 위험을 감지하지 못하는 겁니다. 4 00:00:09,360 --> 00:00:11,096 가능한 시나리오를 말씀드리겠습니다. 5 00:00:11,120 --> 00:00:14,376 아주 무섭기도 하고 6 00:00:14,400 --> 00:00:16,160 일어날 가능성도 높죠. 7 00:00:16,840 --> 00:00:20,086 이 둘의 조합은 별로 반길 상황은 아닐 겁니다. 8 00:00:20,086 --> 00:00:22,536 하지만 여러분 대부분은 제가 말씀드릴 내용에 대해서 9 00:00:22,560 --> 00:00:24,640 무서워하기 보다는 멋지다고 생각할 겁니다. 10 00:00:25,200 --> 00:00:29,936 제가 말씀드리고 싶은 것은 인공지능을 만들어서 얻게 될 이점이 11 00:00:29,936 --> 00:00:31,836 결국 우리를 파멸시킬 수도 있다는 사실입니다. 12 00:00:31,836 --> 00:00:34,370 사실 인공지능이 우리를 파멸시키지 않을지 13 00:00:34,370 --> 00:00:36,960 우리 스스로 자멸하도록 만들지는 전혀 알 수 없죠. 14 00:00:37,400 --> 00:00:39,256 하지만 여러분이 저와 같다면 15 00:00:39,280 --> 00:00:41,936 이 문제를 생각해 보는 것도 재미있다고 느끼실 겁니다. 16 00:00:41,960 --> 00:00:45,336 그런 반응도 문제입니다. 17 00:00:45,360 --> 00:00:47,290 걱정스런 반응이어야죠. 18 00:00:47,920 --> 00:00:50,576 이 강연에서 여러분들에게 19 00:00:50,600 --> 00:00:57,126 기후변화나 다른 재앙으로 인해 세계적 기근으로 고통받을 거라든지 20 00:00:57,126 --> 00:01:00,536 여러분의 손자나 그들의 손자들이 21 00:01:00,560 --> 00:01:02,580 이렇게 살게 될 거라고 설명하면 22 00:01:03,200 --> 00:01:04,700 이런 생각은 안드시겠죠. 23 00:01:05,440 --> 00:01:06,776 "재미있군. 24 00:01:06,800 --> 00:01:08,000 이 강연 맘에 들어"라고요. 25 00:01:09,200 --> 00:01:10,720 기근은 재미있는 일이 아닙니다. 26 00:01:11,800 --> 00:01:15,176 그러나 공상과학에서 벌어지는 죽음은 재미있죠. 27 00:01:15,200 --> 00:01:19,176 지금 이 시점에서 인공지능 개발에 대해 가장 걱정되는 것은 28 00:01:19,200 --> 00:01:23,296 앞으로 있을 위험에 대한 적절한 감정적 반응을 29 00:01:23,320 --> 00:01:25,136 못하는 것 같다는 겁니다. 30 00:01:25,160 --> 00:01:28,360 저도 잘 못하면서 이 강연을 하고 있습니다. 31 00:01:30,120 --> 00:01:32,816 마치 두 개의 문 앞에 서 있는 것과 같습니다. 32 00:01:32,840 --> 00:01:34,096 1번 문으로 들어서면 33 00:01:34,120 --> 00:01:37,416 인공지능 기계의 구축은 더이상 진보하지 않습니다. 34 00:01:37,440 --> 00:01:41,456 컴퓨터 하드웨어와 소프트웨어가 더 이상 발전하지 않습니다. 35 00:01:41,480 --> 00:01:44,480 왜 그런 일이 일어날지 한번 생각해보죠. 36 00:01:45,080 --> 00:01:48,736 인공지능과 자동화가 얼마나 가치있는지 안다면 37 00:01:48,760 --> 00:01:52,280 할 수 있는 한 계속해서 기술을 향상시키려 하겠죠. 38 00:01:53,200 --> 00:01:54,867 그걸 멈춘다면 이유가 뭘까요? 39 00:01:55,800 --> 00:01:57,600 전면적 핵 전쟁일까요? 40 00:01:59,000 --> 00:02:00,560 세계적 전염병 재앙일까요? 41 00:02:02,320 --> 00:02:03,640 소행성 충돌일까요? 42 00:02:05,640 --> 00:02:08,216 저스틴 비버가 미국 대통령이 된다면 이유가 될까요? 43 00:02:08,240 --> 00:02:10,520 (웃음) 44 00:02:12,760 --> 00:02:16,680 핵심은 뭔가가 우리가 아는 문명을 파괴한다는 겁니다. 45 00:02:17,360 --> 00:02:21,656 이게 얼마나 나쁠지 생각해 봐야 합니다. 46 00:02:21,680 --> 00:02:25,016 우리의 기술향상을 막을 정도로 말이죠. 47 00:02:25,040 --> 00:02:26,256 영원히 48 00:02:26,280 --> 00:02:28,296 앞으로 계속이요. 49 00:02:28,320 --> 00:02:32,046 말 그대로 그것은 인류 사상 최악의 일입니다. 50 00:02:32,520 --> 00:02:33,816 그래서 유일한 대안은 51 00:02:33,840 --> 00:02:36,176 2번 문 뒤에 있는데 52 00:02:36,200 --> 00:02:39,336 인공지능을 계속 발전시키는 겁니다. 53 00:02:39,360 --> 00:02:41,240 앞으로 수년 동안 계속이요. 54 00:02:41,720 --> 00:02:45,360 언젠가는 우리보다 똑똑한 기계를 만들겠죠. 55 00:02:46,080 --> 00:02:48,100 더 똑똑한 기계가 생기면 56 00:02:48,100 --> 00:02:50,696 기계 스스로 발전할 겁니다. 57 00:02:50,720 --> 00:02:53,456 그러면 수학자 아이 제이 굿의 말대로 58 00:02:53,480 --> 00:02:55,256 "지능 폭발"이라는 위험성을 안게 되는데 59 00:02:55,280 --> 00:02:57,280 우리 통제권을 벗어나는 일이 생기는 거죠. 60 00:02:58,120 --> 00:03:00,936 여기 보시는 것처럼 이런 풍자만화도 있는데요. 61 00:03:00,960 --> 00:03:05,476 위험한 로봇 군대가 우리를 공격하리라는 두려움이죠. 62 00:03:05,480 --> 00:03:08,176 하지만 그건 있을만한 일은 아닙니다. 63 00:03:08,200 --> 00:03:13,056 기계가 스스로 악해질 리가 없거든요. 64 00:03:13,080 --> 00:03:15,696 문제는 우리가 기계를 만드는데 65 00:03:15,720 --> 00:03:17,776 우리보다 너무 능력이 뛰어나서 66 00:03:17,800 --> 00:03:22,866 기계와 우리의 목표가 살짝만 어긋나도 우리를 파멸시킬 수 있는 겁니다. 67 00:03:23,960 --> 00:03:26,040 개미와 관련지어 생각해 보세요. 68 00:03:26,600 --> 00:03:28,256 우리는 개미를 싫어하진 않아요. 69 00:03:28,280 --> 00:03:30,336 개미를 해치지도 않죠. 70 00:03:30,360 --> 00:03:32,736 사실 때로는 해치지 않으려고 노력하죠. 71 00:03:32,760 --> 00:03:34,776 길에서 개미들을 넘어서 걸음을 딛잖아요. 72 00:03:34,800 --> 00:03:36,936 하지만 개미의 존재가 73 00:03:36,960 --> 00:03:39,456 우리의 목표와 심각하게 부딪힐 때 74 00:03:39,480 --> 00:03:41,957 가령, 이런 건물을 지을 때 75 00:03:41,981 --> 00:03:43,941 거리낌없이 전멸시킵니다. 76 00:03:44,480 --> 00:03:47,416 문제는 우리가 언젠가 기계를 만들텐데 77 00:03:47,440 --> 00:03:50,176 그 기계가 의식이 있든 없든 78 00:03:50,200 --> 00:03:52,570 비슷하게 무시하는 태도로 우리를 대할 수 있다는 거죠. 79 00:03:53,760 --> 00:03:56,520 지나친 억측이라고 생각하는 분이 대다수겠지만 80 00:03:57,360 --> 00:04:03,696 초지능 AI가 가능하기나 한지 의심스러운 분도 분명 계시겠죠. 81 00:04:03,720 --> 00:04:05,376 물론 필연적이라고 보지도 않고요. 82 00:04:05,400 --> 00:04:09,020 그럼 다음 가정에서 잘못된 점을 찾으셔야 할 겁니다. 83 00:04:09,044 --> 00:04:10,616 단 세 가지입니다. 84 00:04:11,800 --> 00:04:16,519 지능이란 물리적 시스템에서 정보를 처리하는 것입니다. 85 00:04:17,320 --> 00:04:19,935 사실 이것은 약간은 가정 그 이상입니다. 86 00:04:19,959 --> 00:04:23,416 우린 이미 기계에 제한된 지능을 구축했고 87 00:04:23,440 --> 00:04:25,456 이 기계들은 이미 88 00:04:25,480 --> 00:04:28,120 인간을 뛰어넘는 지능 수준으로 구동합니다. 89 00:04:28,840 --> 00:04:31,416 우리가 알기로 단순한 문제가 90 00:04:31,440 --> 00:04:34,056 "일반 지능"이란 것을 만들어 낼 수도 있죠. 91 00:04:34,080 --> 00:04:37,736 다양한 분야에서 융통성 있게 사고하는 능력인데 92 00:04:37,760 --> 00:04:40,896 우리 뇌는 그렇게 해왔잖아요. 그렇죠? 93 00:04:40,920 --> 00:04:44,856 여기 원자들이 있고 94 00:04:44,880 --> 00:04:49,376 원자 시스템을 계속 구축해서 95 00:04:49,400 --> 00:04:52,096 점점 더 지능적인 행동을 하게 하면 96 00:04:52,120 --> 00:04:54,656 중간에 멈추지만 않는다면 97 00:04:54,680 --> 00:04:58,056 우린 마침내 일반지능을 98 00:04:58,080 --> 00:04:59,376 기계에 구축할 겁니다. 99 00:04:59,400 --> 00:05:03,056 진보의 속도가 문제되지 않음을 아는게 중요합니다. 100 00:05:03,080 --> 00:05:06,256 어떻게든 발전하면 끝까지 갈 수 있기 때문이죠. 101 00:05:06,280 --> 00:05:10,056 계속 하기 위해 무어의 법칙이나 기하급수적인 진보가 필요없습니다. 102 00:05:10,080 --> 00:05:11,680 그냥 계속 하면 되죠. 103 00:05:13,480 --> 00:05:16,400 두 번째 가정은 우리가 계속 할 것이라는 겁니다. 104 00:05:17,000 --> 00:05:19,760 우리는 지능적인 기계를 계속 향상시킬 겁니다. 105 00:05:21,000 --> 00:05:25,376 지능의 가치를 생각해 볼 때 106 00:05:25,400 --> 00:05:28,936 지능이란 우리가 가치있게 여기는 모든 것의 원천이거나 107 00:05:28,960 --> 00:05:31,736 가치있는 것을 지키기 위해 필요하죠. 108 00:05:31,760 --> 00:05:34,016 우리의 가장 귀한 자원입니다. 109 00:05:34,040 --> 00:05:35,576 그래서 개발을 하고 싶은 겁니다. 110 00:05:35,600 --> 00:05:38,936 우리는 간절히 해결하고 싶은 문제들이 있죠. 111 00:05:38,960 --> 00:05:42,160 알츠하이머 병이나 암같은 질병을 치료하고 싶어 합니다. 112 00:05:42,960 --> 00:05:46,896 경제 체계를 이해하고 기후 과학을 발전시키고 싶어 하죠. 113 00:05:46,920 --> 00:05:49,176 그래서 할 수만 있다면 할 겁니다. 114 00:05:49,200 --> 00:05:52,486 기차는 이미 출발했고 멈출 브레이크가 없습니다. 115 00:05:53,880 --> 00:05:59,336 마지막 가정으로 우리는 지능의 정점에 서있지 않다는 겁니다. 116 00:05:59,360 --> 00:06:01,160 그 근처에 가지도 못했을 거에요. 117 00:06:01,640 --> 00:06:03,536 사실 이게 중요한 생각입니다. 118 00:06:03,560 --> 00:06:05,976 바로 그래서 우리 상황이 매우 위험한 겁니다. 119 00:06:06,000 --> 00:06:10,040 그래서 우리 위험을 인지하는 우리 직감을 믿을 수가 없는 것이죠. 120 00:06:11,120 --> 00:06:13,840 이제 지구상에서 가장 똑똑한 사람이 있다고 하죠. 121 00:06:14,640 --> 00:06:18,056 거의 모든 사람들을 추려내면 존 폰 노이만이 나옵니다. 122 00:06:18,080 --> 00:06:21,416 주변 사람들이 폰 노이만을 어떻게 생각했는지와 123 00:06:21,440 --> 00:06:25,496 그가 당대의 위대한 수학자이자 물리학자에 포함된다는 사실은 124 00:06:25,520 --> 00:06:27,456 잘 알려져 있죠. 125 00:06:27,480 --> 00:06:31,256 그에 대한 일화의 절반 중에서 반만 사실이라 하더라도 126 00:06:31,280 --> 00:06:32,496 의심의 여지 없이 127 00:06:32,520 --> 00:06:34,976 그는 역사상 가장 똑똑한 사람입니다. 128 00:06:35,000 --> 00:06:37,520 지능의 범위를 생각해 보세요. 129 00:06:38,320 --> 00:06:39,749 폰 노이만은 여기 있습니다. 130 00:06:41,560 --> 00:06:42,894 그리고 여기 여러분과 제가 있죠. 131 00:06:44,120 --> 00:06:45,416 그리고 닭은 여기 있습니다. 132 00:06:45,440 --> 00:06:47,376 (웃음) 133 00:06:47,400 --> 00:06:48,616 닭아 미안하다. 134 00:06:48,640 --> 00:06:49,896 (웃음) 135 00:06:49,920 --> 00:06:53,656 이 강연을 꼭 우울하게 할 필요는 없죠. 136 00:06:53,680 --> 00:06:55,280 (웃음) 137 00:06:56,339 --> 00:06:59,816 하지만 놀랍게도 지능의 범위는 138 00:06:59,840 --> 00:07:02,960 우리가 현재 가질 수 있는 것보다 훨씬 넓게 확장되고 139 00:07:03,880 --> 00:07:07,096 우리보다 지능적인 기계를 구축한다면 140 00:07:07,120 --> 00:07:09,416 이 범위를 아우를 가능성이 매우 높습니다. 141 00:07:09,440 --> 00:07:11,296 상상할 수 없을 정도로요. 142 00:07:11,320 --> 00:07:13,840 또한 상상할 수 없을 정도로 우리를 능가할 겁니다. 143 00:07:15,000 --> 00:07:19,336 속도 하나만 봐도 그렇다는 걸 알아야 합니다. 144 00:07:19,360 --> 00:07:24,416 그렇죠? 초지능 AI를 구축한다고 해봅시다. 145 00:07:24,440 --> 00:07:30,226 스탠포드 대학이나 MIT의 연구팀의 평균 지능보다 덜 똑똑한 정도로요. 146 00:07:30,240 --> 00:07:34,516 생화학적인 회로보다 전자 회로가 백만 배는 빠르게 작동합니다. 147 00:07:34,520 --> 00:07:39,536 그러니 이 기계는 그걸 구축한 사람보다 백만 배의 속도로 빠르게 생각하겠죠. 148 00:07:39,536 --> 00:07:41,176 일주일 동안 돌리면 149 00:07:41,200 --> 00:07:45,760 인간 수준 지능의 2만 년 분량을 해치울 겁니다. 150 00:07:46,400 --> 00:07:48,360 몇 주 동안 계속 말이죠. 151 00:07:49,640 --> 00:07:51,490 별 제한 없이 152 00:07:51,490 --> 00:07:55,040 이런 진보를 이루어내는 인공지능을 어떻게 받아들여야 할까요? 153 00:07:56,840 --> 00:07:58,976 솔직히 걱정되는 다른 것은 154 00:07:59,000 --> 00:08:03,976 최고의 시나리오를 생각해 보는 겁니다. 155 00:08:04,000 --> 00:08:09,606 안전성에 대해 고려하지 않고 초지능 AI를 설계한다고 상상해 보세요. 156 00:08:09,606 --> 00:08:12,856 처음에는 설계가 완벽하죠. 157 00:08:12,880 --> 00:08:17,156 의도한 대로 정확히 행동하는 조력자를 얻은 것 같습니다. 158 00:08:17,160 --> 00:08:20,880 노동력을 절감해주는 완벽한 기계가 될 겁니다. 159 00:08:21,680 --> 00:08:24,109 이걸로 물리적인 작업을 할 기계를 만들어 내는 160 00:08:24,133 --> 00:08:25,896 또 다른 기계를 고안할 수 있습니다. 161 00:08:25,920 --> 00:08:27,376 태양에너지로 돌아가고 162 00:08:27,400 --> 00:08:30,096 원자재 정도의 비용만 들어가죠. 163 00:08:30,120 --> 00:08:33,376 인간의 고된 노동이 끝나게 된다는 걸 의미하는 거에요. 164 00:08:33,400 --> 00:08:36,200 그건 대부분의 지적 노동도 끝나게 된다는 말이기도 합니다. 165 00:08:37,200 --> 00:08:40,256 우리 같은 유인원은 이런 상황에서 뭘 할까요? 166 00:08:40,280 --> 00:08:44,360 한가로이 원반 던지기 놀이하면서 서로 마사지나 해주겠죠. 167 00:08:45,840 --> 00:08:48,696 환각제 조금과 이상한 옷만 더하면 168 00:08:48,720 --> 00:08:50,896 전 세계가 마치 버닝맨 축제 같을 겁니다. 169 00:08:50,920 --> 00:08:52,560 (웃음) 170 00:08:54,320 --> 00:08:56,320 참 괜찮을 것 같지만 171 00:08:57,280 --> 00:09:02,436 현재의 정치 경제 상황에서 무슨 일이 생길지 자문해 보세요. 172 00:09:02,440 --> 00:09:04,856 다분히 우리들은 173 00:09:04,880 --> 00:09:10,556 이전에 없던 부의 불평등과 실업문제를 직면하게 될 겁니다. 174 00:09:10,566 --> 00:09:14,746 새로운 부를 즉시 모든 인류와 나누려 하지 않고 175 00:09:15,640 --> 00:09:19,256 소수의 백만장자들만이 경제지 표지를 장식하겠죠. 176 00:09:19,280 --> 00:09:21,720 세계의 나머지 인류는 굶어 죽는 동안에요. 177 00:09:22,320 --> 00:09:24,616 러시아나 중국인은 뭘 할까요? 178 00:09:24,640 --> 00:09:27,256 실리콘 밸리의 어떤 회사들이 179 00:09:27,280 --> 00:09:30,016 초지능 AI를 곧 사용하려고 한다는 걸 들으면요. 180 00:09:30,040 --> 00:09:32,530 이 기계는 전쟁도 일으킬 수 있을 겁니다. 181 00:09:32,920 --> 00:09:35,136 지역분쟁이건 사이버 전쟁이건 182 00:09:35,160 --> 00:09:36,840 전례없는 힘을 가지고 말입니다. 183 00:09:38,120 --> 00:09:39,976 이건 승자독식의 시나리오입니다. 184 00:09:40,000 --> 00:09:43,136 이 경쟁에서 6개월 앞선다는 것은 185 00:09:43,160 --> 00:09:47,426 최소한 50만 년 앞서는 것입니다. 186 00:09:47,480 --> 00:09:50,710 그래서 이런 혁신적인 일이 187 00:09:50,710 --> 00:09:54,616 우리 인류를 미쳐 날뛰게 만들 거라는 소문이 더욱 떠도는 거죠. 188 00:09:54,640 --> 00:09:57,536 이제 가장 두려운 것은 189 00:09:57,560 --> 00:10:00,336 지금 현재, 제 생각에는 190 00:10:00,360 --> 00:10:04,656 AI연구자가 이런 말을 하는 겁니다. 191 00:10:04,680 --> 00:10:06,240 안심시키려고 말이죠. 192 00:10:07,000 --> 00:10:10,456 걱정하지 않아도 되는 이유는 시기 때문이라고 하죠. 193 00:10:10,480 --> 00:10:12,536 이것은 완전히 빗나간 말입니다. 194 00:10:12,560 --> 00:10:15,000 아마도 50에서 100년 뒤겠죠. 195 00:10:15,720 --> 00:10:16,976 한 연구원이 말했습니다. 196 00:10:17,000 --> 00:10:18,576 "AI의 안전성에 대한 우려는 197 00:10:18,600 --> 00:10:21,200 마치 화성의 과잉 인구를 걱정하는 것과 같다." 198 00:10:22,116 --> 00:10:23,736 실리콘 밸리 식으로 표현하면 이런 뜻이죠. 199 00:10:23,760 --> 00:10:26,136 "그 쬐그만 머리로 걱정하지 마세요." 200 00:10:26,160 --> 00:10:27,496 (웃음) 201 00:10:27,520 --> 00:10:29,416 아무도 모르는 것 같습니다. 202 00:10:29,440 --> 00:10:34,490 시간의 축을 말하는 게 완전히 잘못된 결론인 것을 203 00:10:34,490 --> 00:10:37,936 지능이 그저 정보처리하는 문제라면 204 00:10:37,960 --> 00:10:40,616 우리는 기계를 계속 향상시킬 것이고 205 00:10:40,640 --> 00:10:43,520 초지능의 형태를 만들게 될 겁니다. 206 00:10:44,320 --> 00:10:50,726 그것을 안전하게 할 조건을 만들려면 얼마나 걸릴지 우린 모릅니다. 207 00:10:52,200 --> 00:10:53,496 다시 말씀드리죠. 208 00:10:53,520 --> 00:11:00,046 그걸 안전하게 할 조건을 만드는 게 얼마나 걸릴지 우리는 모른다고요. 209 00:11:00,920 --> 00:11:04,376 잘 모르신다면, 지금의 50년은 과거와 같은 시간이 아닙니다. 210 00:11:04,400 --> 00:11:06,856 몇 개월이 50년과 마찬가지죠. 211 00:11:06,880 --> 00:11:08,720 아이폰을 갖기까지 그만큼 걸렸습니다. 212 00:11:09,440 --> 00:11:12,040 심슨가족이 TV로 방영되는 데 걸린 시간입니다. 213 00:11:12,680 --> 00:11:15,056 50년이란 그리 많은 시간이 아닙니다. 214 00:11:15,080 --> 00:11:18,240 우리 인류가 당면한 최고의 난제를 만나는데요. 215 00:11:19,640 --> 00:11:23,656 다시, 우리는 제대로 된 감정적 반응을 못하고 있는 것 같습니다. 216 00:11:23,680 --> 00:11:26,376 앞으로 벌어질 거라고 생각하는 것들에 대해서요. 217 00:11:26,400 --> 00:11:30,376 컴퓨터공학자 스튜어트 러셀이 멋진 비유를 들었습니다. 218 00:11:30,400 --> 00:11:35,296 외계문명이 보낸 메세지를 받았다고 상상해 보는 겁니다. 219 00:11:35,320 --> 00:11:37,016 이런 내용의 메세지죠. 220 00:11:37,040 --> 00:11:38,576 "지구인들이여 221 00:11:38,600 --> 00:11:40,960 우리는 50년 후에 지구에 도착할 것이다. 222 00:11:41,800 --> 00:11:43,376 이에 준비하라." 223 00:11:43,400 --> 00:11:47,656 그럼 외계 우주선이 도착할 때까지 날짜만 세는 겁니까? 224 00:11:47,680 --> 00:11:50,680 그것보다는 좀더 위급함을 느껴야죠. 225 00:11:52,680 --> 00:11:54,536 우리에게 걱정말라는 다른 이유는 226 00:11:54,560 --> 00:11:57,576 이런 기계들은 우리의 가치를 공유할 수밖에 없다는 겁니다. 227 00:11:57,600 --> 00:12:00,216 말 그대로 우리의 연장선이니까요. 228 00:12:00,240 --> 00:12:02,056 기계들은 우리 뇌에 이식될테고 229 00:12:02,080 --> 00:12:04,440 우리는 본질적으로 그들의 감정 표현 시스템으로 전락하겠죠. 230 00:12:05,120 --> 00:12:06,536 한 번 생각해 보세요. 231 00:12:06,560 --> 00:12:11,096 가장 안전하고 현명한 방법을 추천하자면 232 00:12:11,120 --> 00:12:13,920 이 기술을 우리 뇌에 직접 이식하는 겁니다. 233 00:12:14,600 --> 00:12:17,976 앞으로 할 수 있는 가장 안전하고 현명한 방법이겠지만 234 00:12:18,000 --> 00:12:21,056 기술의 안전성에 대한 우려는 보통 235 00:12:21,080 --> 00:12:24,736 머릿속에서 꽂아 보기 전에 해야 할 일이죠. 236 00:12:24,760 --> 00:12:26,776 (웃음) 237 00:12:26,800 --> 00:12:28,550 좀 더 심오한 문제는 238 00:12:29,140 --> 00:12:32,160 초지능의 AI를 만드는 것 자체가 239 00:12:32,160 --> 00:12:33,896 오히려 더 쉽다는 거에요. 240 00:12:33,920 --> 00:12:35,776 초지능 AI를 만들고 241 00:12:35,800 --> 00:12:37,576 완전한 신경과학이 있어서 242 00:12:37,600 --> 00:12:40,280 우리의 정신을 AI와 매끄럽게 접목시키는 것에 비해서 말이죠. 243 00:12:40,800 --> 00:12:43,976 기업과 정부가 이 일을 하고 있음을 보면 244 00:12:44,000 --> 00:12:47,656 다른 종에 대항하는 존재임을 스스로 인지할 가능성이 있습니다. 245 00:12:47,680 --> 00:12:50,936 이 경쟁에서 이기는 것이 세상을 이기는 것이라고 한다면요. 246 00:12:50,960 --> 00:12:53,416 그것을 바로 파괴하지 않는다면 247 00:12:53,440 --> 00:12:57,526 가장 쉬운 일을 가장 먼저 할 가능성이 있을 겁니다. 248 00:12:58,560 --> 00:13:01,416 안타깝게도 저는 이 문제에 대한 해법은 없습니다. 249 00:13:01,440 --> 00:13:04,056 좀 더 생각해 보자고 하는 것 빼고는요. 250 00:13:04,080 --> 00:13:06,456 맨하탄 프로젝트 같은 것이 있어서 251 00:13:06,480 --> 00:13:08,496 AI에 대한 연구를 해야 되지 않을까 싶습니다. 252 00:13:08,520 --> 00:13:11,256 만들기 위해서가 아니라, 필연적으로 하게 될테니까 253 00:13:11,280 --> 00:13:14,616 군비경쟁을 피할 방법을 알고 254 00:13:14,640 --> 00:13:18,136 우리의 관심과 맞출 수 있는 방법을 찾기 위해서죠. 255 00:13:18,160 --> 00:13:22,656 스스로 변할 수 있는 초지능 AI를 말할 때는 256 00:13:22,656 --> 00:13:27,216 첫 출발을 제대로 할 수 있는 기회는 단 한 번뿐인 것 같습니다. 257 00:13:27,240 --> 00:13:29,296 그때도 우리는 258 00:13:29,320 --> 00:13:32,360 제대로 하기 위한 정치 경제적 결과를 감내해야 할 겁니다. 259 00:13:33,760 --> 00:13:35,816 하지만 우리가 인정하는 순간 260 00:13:35,840 --> 00:13:39,840 정보처리가 지능의 원천이고 261 00:13:40,720 --> 00:13:45,520 적정 연산 체계가 지능의 기본이라고 하는 순간 262 00:13:46,360 --> 00:13:50,120 이 체계를 계속 발전시켜 나갈 것임을 인정하는 것이며 263 00:13:51,280 --> 00:13:57,206 우리가 현재 아는 인지의 한계를 훨씬 뛰어넘게 될 것임을 인정하는 겁니다. 264 00:13:58,120 --> 00:13:59,336 그럼 우리는 265 00:13:59,360 --> 00:14:02,000 어떤 신적 존재를 구축하고 있음을 인정해야 합니다. 266 00:14:03,400 --> 00:14:07,236 지금이야말로 신이 우리와 함께 할 수 있음을 확신하기 좋은 때이겠네요. 267 00:14:08,120 --> 00:14:09,656 대단히 감사합니다. 268 00:14:09,680 --> 00:14:13,353 (박수)