0:00:00.960,0:00:03.936 이 이야기는 1985년으로[br]거슬러 올라가 시작됩니다. 0:00:03.960,0:00:05.936 제가 22살이었을 때죠. 0:00:05.960,0:00:11.526 저는 아나톨리 카르포프를 제치고[br]체스 세계 챔피언이 되었습니다. 0:00:12.480,0:00:17.516 그 해 초에, 저는 이른바 [br]동시 체스 경기에 참가했습니다. 0:00:17.546,0:00:19.110 독일 함부루크에서 열린 0:00:19.110,0:00:23.080 32개의 세계 최고의 체스 기계들과[br]동시에 시합을 펼치는 경기였죠. 0:00:24.160,0:00:25.360 저는 모든 시합을 이겼습니다. 0:00:26.560,0:00:27.860 그 당시에는 0:00:27.860,0:00:31.300 제가 동시에 32대의 [br]컴퓨터를 이긴다는 것이 0:00:31.300,0:00:34.040 그리 놀랄 일은 아니었습니다. 0:00:34.480,0:00:37.056 제가 한창 잘 나가던 때였거든요. 0:00:37.080,0:00:39.176 (웃음) 0:00:39.200,0:00:40.720 기계는 약했고 0:00:41.680,0:00:43.016 제 머리는 풍성했습니다. 0:00:43.040,0:00:45.240 (웃음) 0:00:46.720,0:00:48.776 그 뒤, 겨우 12년 후에 0:00:48.800,0:00:54.386 저는 단 한 대의 컴퓨터와[br]일생일대의 경기를 펼쳤습니다.[br] 0:00:55.360,0:00:59.216 이 경기에 대한 뉴스위크지 기사 제목이[br]'인간 두뇌의 마지막 저항'이었어요. 0:00:59.240,0:01:00.456 그게 부담이 되지는 않았습니다. 0:01:00.480,0:01:02.000 (웃음) 0:01:03.040,0:01:05.616 신화에서부터 공상과학에 이르기까지 0:01:05.640,0:01:08.376 인간과 기계의 대결은 0:01:08.400,0:01:11.160 사느냐 죽느냐의 문제로 [br]묘사되어 왔습니다. 0:01:11.960,0:01:13.536 '존 헨리'를 보세요. 0:01:13.560,0:01:19.056 19세기 미국 흑인들의 전설에서[br]'강철같은 남자'로 불리운 그는 0:01:19.070,0:01:25.596 증기로 구동되는 망치 기계와 [br]산에 터널을 뚫는 대결을 펼칩니다. 0:01:26.800,0:01:31.000 존 헨리의 전설은 역사적으로 오랜 0:01:31.680,0:01:34.760 인간과 기계의 경쟁하는 [br]이야기들 중의 하나입니다. 0:01:36.200,0:01:39.080 그리고 이 경쟁이라는 표현은 [br]이제 당연한 것이 되었습니다. 0:01:39.560,0:01:41.840 우리 인간은 기계에 대항하는 [br]경주를 하고 있는 겁니다. 0:01:42.360,0:01:44.440 단순한 싸움이거나 [br]아니면 전쟁중인거죠. 0:01:45.880,0:01:47.496 일은 줄어들고 있습니다. 0:01:47.520,0:01:51.360 인간이 지구상에서 멸종이라도 한 듯이[br]기계가 사람을 대신하고 있습니다. 0:01:52.240,0:01:57.186 "터미네이터"나 "매트릭스"같은 영화가[br]실제 현실이라고 생각할 만합니다. 0:01:59.640,0:02:02.890 사실 그런 경우는 거의 없습니다. 0:02:05.360,0:02:08.169 인간이 신체적, 정신적으로 0:02:08.169,0:02:11.480 컴퓨터와 로봇과 동등한 [br]조건으로 경쟁한 적은 없죠. 0:02:12.280,0:02:14.138 사실 그런 기회가 [br]더 있으면 좋겠습니다. 0:02:15.760,0:02:16.960 그런데 0:02:17.840,0:02:22.496 제게 있어서 축복임과 [br]동시에 저주인 것은 0:02:22.520,0:02:28.386 인간 대 기계의 경쟁을 펼친[br]신화적 인물로 남아서 0:02:28.386,0:02:30.660 여전히 사람들의 입에 [br]회자되고 있다는 사실입니다. 0:02:33.120,0:02:38.136 존 헨리 이후 가장 유명한[br]인간과 기계의 경쟁으로서 0:02:38.160,0:02:40.736 저는 두 번의 시합을 치렀습니다. 0:02:40.760,0:02:44.200 IBM 슈퍼컴퓨터인 딥블루에 [br]대항해서 싸웠죠. 0:02:47.040,0:02:49.426 제가 첫번째 시합에서 이긴 걸 [br]기억하는 사람은 없어요. 0:02:49.426,0:02:51.576 (웃음) 0:02:51.600,0:02:55.000 (박수) 0:02:55.920,0:02:58.180 필라델피아에서의 시합은 이겼고 0:02:58.180,0:03:00.920 진 것은 다음 해 뉴욕에서의 재경기였죠. 0:03:00.920,0:03:02.680 그래도 불평한 적은 없어요. 0:03:04.320,0:03:09.416 어느 역사적 기념일을 찾아봐도 0:03:09.440,0:03:12.936 에드문드 힐러리와 텐징 노르게이가[br]에베레스트산 정상을 정복하기까지 0:03:12.960,0:03:16.896 이전에 실패했던 도전자들을 [br]기록한 것은 없으니까요. 0:03:17.960,0:03:21.720 1997년까지는 저는 여전히 [br]세계 챔피언이었습니다. 0:03:24.520,0:03:28.720 그제야 체스 컴퓨터 챔피언의 [br]시대가 열렸을 뿐이죠. 0:03:29.520,0:03:31.496 저는 에베레스트 산맥이었고 0:03:31.520,0:03:33.120 딥블루가 그 정상에 오른 것이죠. 0:03:34.600,0:03:38.656 하지만 물론, 딥블루가 [br]한 것이 아닙니다. 0:03:38.680,0:03:40.816 인간 창조자가 한 것입니다. 0:03:40.840,0:03:45.276 아난써라만, 캠벨, 호안, 슈.[br]그들이 이룬 쾌거였습니다. 0:03:46.840,0:03:51.256 당연하게도 기계의 승리는 [br]인간의 승리인 것입니다. 0:03:51.280,0:03:56.040 인간의 창조물이 인간을 능가할 때[br]우리는 바로 이 사실을 간과하죠. 0:03:58.360,0:03:59.800 딥블루가 이겼어요. 0:04:01.400,0:04:02.870 그럼 그게 지능이 있나요? 0:04:03.360,0:04:05.120 아닙니다. 그렇지 않죠. 0:04:06.200,0:04:09.540 이런 방식은 적어도 앨런 튜링이나 0:04:09.540,0:04:12.480 다른 컴퓨터 과학의 선구자들이[br]바라던 방향은 아닙니다. 0:04:13.240,0:04:18.016 체스는 무차별 대입 기법으로 [br]공략이 가능하다고 판명되었죠. 0:04:18.040,0:04:22.296 컴퓨터 처리속도가 충분히 빠르고 0:04:22.320,0:04:25.280 잘 짜여진 알고리즘만 있으면 되죠. 0:04:26.760,0:04:33.696 그랜드 마스터급의 체스 기사라는 [br]결과만 놓고 보면 0:04:33.720,0:04:35.000 딥블루도 똑똑합니다. 0:04:37.320,0:04:39.720 그러나 믿을 수 없는 속도로 0:04:40.560,0:04:43.760 초당 2억 개의 수를 계산하는 0:04:45.360,0:04:46.810 딥블루의 방법을 통해서 0:04:47.360,0:04:53.960 우리가 꿈꿔온 인간 지능의 신비를[br]다소나마 이해할 수 있었습니다. 0:04:56.960,0:04:58.776 머지않아 0:04:58.800,0:05:03.826 인공지능 기계가 택시 운전사나[br]의사, 교수를 대신하겠지만 0:05:03.840,0:05:06.440 그들이 지능이 있겠습니까? 0:05:07.840,0:05:10.336 그 정의를 내리는 것은 차라리 0:05:10.360,0:05:13.920 철학자들과 백과사전이 할 일입니다. 0:05:15.440,0:05:18.080 정말 문제되는 것은 0:05:18.080,0:05:23.920 이 기계들과 함께 살고 일하는 것을 [br]우리가 어떻게 느끼는가 하는 것입니다. 0:05:26.160,0:05:31.416 1996년 2월에 제가 [br]딥블루를 처음 만났을 때 0:05:31.440,0:05:34.040 그때까지 저는 10년 이상 [br]세계 챔피언 자리에 있었습니다. 0:05:36.080,0:05:40.096 182개의 세계 선수권 대회를 치렀죠. 0:05:40.120,0:05:45.216 수백개의 경기에서 다른 최고의 [br]선수들과 실력을 겨루었습니다. 0:05:45.240,0:05:52.196 저는 상대방이 생각하는 수를 알았고[br]내가 두어야 할 수도 알고 있었습니다. 0:05:52.680,0:05:57.856 저는 상대방의 행동을 관찰하고 0:05:57.880,0:06:01.496 감정 상태도 살피곤 했습니다. 0:06:01.520,0:06:05.360 상대방의 몸짓이나 [br]눈을 보면 알 수 있었죠. 0:06:05.880,0:06:09.880 그런데 체스판을 사이에 두고[br]딥블루와 조우하게 된 것입니다. 0:06:12.960,0:06:15.816 저는 바로 뭔가 색다른 [br]느낌이 들었습니다. 0:06:15.840,0:06:17.420 뭔가 잘 안 풀리는 느낌이요. 0:06:19.440,0:06:22.240 여러분도 아마 비슷한 감정을 [br]느낄 때가 있을 거예요. 0:06:23.320,0:06:25.856 무인 자동차를 처음 탔을 때나 0:06:25.880,0:06:30.720 새로운 컴퓨터 관리자가 [br]작업 지시를 내렸을 때겠죠. 0:06:33.800,0:06:36.920 처음 게임을 하러 앉았을 때 0:06:38.080,0:06:40.216 저는 확신할 수 없었습니다. 0:06:40.240,0:06:43.920 이 기계 덩어리가 무엇을 [br]할 수 있을지를요. 0:06:44.920,0:06:48.080 기술은 비약적으로 발전했고[br]IBM은 엄청난 투자를 했습니다. 0:06:48.680,0:06:49.880 저는 게임에서 졌습니다. 0:06:52.320,0:06:55.546 정말 천하무적이 아닐까 [br]생각할 수 밖에 없었습니다. 0:06:56.600,0:06:58.960 내가 사랑하는 체스게임은 [br]이제 끝이라고 생각했죠. 0:07:00.800,0:07:04.936 이것들은 인간의 의심이고[br]인간의 두려움이었습니다. 0:07:04.960,0:07:06.640 그리고 한가지 확실한 것은 0:07:07.400,0:07:10.296 나의 적수 딥블루는 그런 걱정을 [br]전혀 안한다는 것이었습니다. 0:07:10.320,0:07:12.080 (웃음) 0:07:13.920,0:07:15.320 저는 다시 싸웠습니다. 0:07:16.400,0:07:18.080 그 충격에도 불구하고 0:07:19.000,0:07:20.200 첫 경기를 이기기 위해서요. 0:07:20.960,0:07:22.600 하지만 최종 결과대로 0:07:24.400,0:07:26.536 저는 결국 기계에 졌습니다. 0:07:26.560,0:07:29.616 그러나 존 헨리 같은 운명을 [br]겪지는 않았었습니다. 0:07:29.640,0:07:32.680 그는 이겼지만 망치를 손에 [br]쥔 채 세상을 떠났습니다. 0:07:37.720,0:07:40.256 체스의 세계가 원한 것은 0:07:40.280,0:07:43.520 여전히 인간 체스챔피언이었습니다. 0:07:44.920,0:07:46.600 그리고 오늘날에는 0:07:48.080,0:07:51.536 핸드폰에 깔린 무료 체스앱이 0:07:51.560,0:07:53.576 딥블루보다 더 강하지만 0:07:53.600,0:07:55.080 사람들은 여전히 체스게임을 합니다. 0:07:56.680,0:07:58.920 심지어 이전보다 더 많이 하죠. 0:07:59.800,0:08:01.310 비관적 운명론자들은 0:08:01.310,0:08:05.296 기계에 의해 정복된 게임은 [br]아무도 하지 않을 거라고 호언했죠. 0:08:05.320,0:08:07.536 하지만 틀렸습니다.[br]결국 그들이 틀렸죠. 0:08:07.560,0:08:11.016 하지만 비관론자들의 주장은 [br]늘 사람들에게 잘 통합니다. 0:08:11.040,0:08:12.400 기술에 대해서는 특히 그렇죠. 0:08:14.360,0:08:17.906 제가 경험에서 얻은 것은 [br]바로 이것입니다. 0:08:18.476,0:08:21.776 우리가 그 두려움에 맞서야만 0:08:21.800,0:08:25.520 기술을 최대한 활용할 수 [br]있다는 사실입니다. 0:08:26.360,0:08:28.736 그 두려움을 반드시 정복해야만 0:08:28.760,0:08:34.000 우리 인간성을 극대화할 수 있습니다. 0:08:36.120,0:08:37.895 저의 상처를 감싸면서 0:08:37.919,0:08:39.880 저는 많은 영감을 얻었습니다. 0:08:41.080,0:08:43.775 딥블루와의 싸움에서 깨달았죠. 0:08:43.799,0:08:46.920 러시아 속담에 이런 말이 있어요.[br]'상대를 이길 수 없다면, 그와 연합하라.' 0:08:48.880,0:08:50.256 이런 생각이 들었죠. 0:08:50.280,0:08:52.616 컴퓨터와 함께 하면 어떨까. 0:08:52.640,0:08:55.800 컴퓨터와 같은 편이 되어서[br]함께 힘을 모으면 어떨까. 0:08:57.160,0:09:00.936 인간의 직관력에 기계의 계산력을 더하고 0:09:00.960,0:09:03.656 인간의 전략에 기계의 전술을 더하고 0:09:03.680,0:09:06.096 인간의 경험과 기계의 기억을[br]더하면 어떨까. 0:09:06.120,0:09:08.790 그러면 역사상 완벽한 [br]경기를 할 수 있을텐데. 0:09:10.000,0:09:11.680 제 생각이 실현되었습니다. 0:09:12.920,0:09:16.296 1998년에 '진보된 체스'라는 이름으로 0:09:16.320,0:09:22.000 인간과 기계가 한 팀을 이루어 [br]다른 선수와 시합을 펼쳤습니다. 0:09:23.280,0:09:25.176 그러나 첫 시도에서 0:09:25.200,0:09:31.560 우리는 둘 다 인간과 기계의 기술을 [br]효과적으로 결합하는 것에 실패했습니다. 0:09:34.920,0:09:37.160 진보형 체스는 인터넷으로 자리를 옮겼고 0:09:38.160,0:09:43.016 2005년에는 이른바 [br]프리스타일 체스 토너먼트가 0:09:43.040,0:09:44.400 공개되었습니다. 0:09:47.240,0:09:50.776 체스 그랜드마스터와 최고의 기계로 [br]이루어진 팀들이 참여했는데 0:09:50.800,0:09:54.946 우승자는 그랜드마스터도 아니고[br]슈퍼컴퓨터도 아니었습니다. 0:09:55.680,0:10:03.436 평범한 PC 3대를 동시에 조작하는 [br]미국 아마추어 체스선수 팀이 우승했죠. 0:10:05.560,0:10:08.576 기계를 코칭하는 자신들의 기술로 0:10:08.600,0:10:14.376 더 우수한 체스 기술에[br]효과적으로 대응했습니다. 0:10:14.400,0:10:20.566 체스 그랜드 마스터와 더 강력한 [br]연산 능력을 상대로 말이죠. 0:10:21.600,0:10:23.560 그 후 저는 이런 공식에 도달했습니다. 0:10:24.560,0:10:29.496 약한 인간과 기계가 팀을 이루고[br]거기에 더 나은 프로그램이 결합하면 0:10:29.496,0:10:33.656 아주 강력한 기계 혼자보다[br]더욱 우수하다는 사실입니다. 0:10:33.680,0:10:38.866 더 놀랍게도[br]강한 인간플레이어와 기계에 0:10:41.080,0:10:44.150 뒤떨어진 프로그램의 결합을 [br]능가한다는 점이죠. 0:10:46.030,0:10:51.220 이 일로 더 나은 인터페이스가 [br]필요하다는 걸 확신했습니다. 0:10:51.700,0:10:56.370 기계가 더욱 유용한 지능을 갖도록 [br]유도할 수 있는 인터페이스죠. 0:10:58.320,0:11:01.616 인간과 기계의 결합은 [br]미래의 일이 아니라 0:11:01.640,0:11:02.856 현재의 일입니다. 0:11:02.880,0:11:07.016 사람들은 온라인 번역기를 이용해서 0:11:07.040,0:11:11.336 외국 신문의 기사를 읽으려고 하지만 0:11:11.360,0:11:13.000 번역이 제대로 되지 않죠. 0:11:13.680,0:11:15.776 그러면 우리는 인간의 경험으로 0:11:15.800,0:11:17.896 제대로 된 번역을 만들어냅니다. 0:11:17.920,0:11:20.696 그리고 기계는 우리가 [br]수정한 것을 다시 학습하죠. 0:11:20.720,0:11:25.680 이런 모델이 보급되어 의료 진단, [br]보안 진단의 분야에도 적용됩니다. 0:11:26.440,0:11:28.560 기계는 데이터를 분석하고 0:11:29.320,0:11:31.056 가능성을 계산해서 0:11:31.080,0:11:34.736 가능성이 80%인지 [br]90%인지 알려줌으로써 0:11:34.760,0:11:39.076 인간이 더 쉽게 분석하고 0:11:39.076,0:11:41.990 의사결정할 수 있도록 [br]도움을 줄 수 있습니다. 0:11:42.280,0:11:47.120 하지만 여러분은 아이들을 0:11:48.000,0:11:51.770 90% 정확도의 무인 운전 차량으로[br]통학하도록 하지는 않을 겁니다. 0:11:52.600,0:11:54.510 99%라고 해도 안 그러겠죠. 0:11:55.560,0:11:58.416 그러니 이제 우리는 0:11:58.450,0:12:04.610 정확도의 소수점 자리수를 [br]계속 높여가야 합니다. 0:12:07.160,0:12:11.200 딥블루와의 시합을 치르고 [br]20년이 지난 지금 0:12:12.200,0:12:13.816 두 번째 경기에 걸렸던 0:12:13.840,0:12:20.136 '인간 두뇌의 마지막 저항'이라는[br]그 자극적인 문구는 0:12:20.160,0:12:21.736 흔한 말이 되었습니다. 0:12:21.760,0:12:24.296 인공지능 기계가 0:12:24.320,0:12:25.520 모든 부분에서 0:12:26.560,0:12:29.000 하루가 다르게 발전하고 있죠. 0:12:30.160,0:12:33.256 그러나 과거에 0:12:33.280,0:12:34.920 기계가 0:12:36.480,0:12:38.856 가축과 인간의 노동력을 [br]대체할 때와는 다릅니다. 0:12:38.880,0:12:42.556 이제는 대학 학위와 정치적 영향력을[br]가진 인간을 따라잡고 있습니다. 0:12:44.120,0:12:46.216 누군가가 기계와 싸워서 졌다면 0:12:46.240,0:12:48.880 저는 그것이 아주 훌륭한 [br]뉴스라고 말하고 싶습니다. 0:12:51.000,0:12:53.216 결국에는 모든 직업이 0:12:53.240,0:12:55.336 이러한 압박을 느껴야만 할 것이고 0:12:55.360,0:13:00.960 그렇지 않다면 인간은 더 이상의[br]진보를 멈추었다는 것을 의미합니다. 0:13:02.760,0:13:03.960 우리에게는 0:13:05.440,0:13:07.160 선택권이 없습니다. 0:13:08.480,0:13:11.200 언제 어디서 기술 진보가 [br]멈출지 선택할 수 없어요. 0:13:13.160,0:13:14.520 우리는 0:13:15.960,0:13:17.456 느려져서는 안됩니다. 0:13:17.480,0:13:18.756 오히려 0:13:19.320,0:13:21.240 속도를 높여야 합니다. 0:13:24.600,0:13:27.240 우리 기술의 탁월함은 0:13:29.200,0:13:32.560 인간의 어려움과 불확실성을[br]제거하는 데에 있습니다. 0:13:35.000,0:13:37.816 그래서 우리가 할 일은 0:13:37.840,0:13:39.696 지금까지 가장 어렵고 0:13:39.720,0:13:43.800 답을 찾기 힘든 문제를 찾는 것입니다. 0:13:48.200,0:13:49.400 기계는 0:13:51.880,0:13:53.696 연산 능력을 가지고 있습니다. 0:13:53.720,0:13:55.296 우리에게는 통찰력이 있죠. 0:13:55.320,0:13:57.360 기계는 명령을 따릅니다. 0:13:58.840,0:14:00.696 우리에게는 목적이 있죠. 0:14:00.720,0:14:02.390 기계는 0:14:05.080,0:14:06.296 객관성을 갖고 0:14:06.320,0:14:07.780 우리는 열정을 갖고 있습니다. 0:14:08.600,0:14:14.576 우리는 지금 기계가 무엇을 할 수 [br]있는지를 걱정할 것이 아니라 0:14:14.600,0:14:19.176 지금 기계가 무엇을 할 수 [br]없는지를 걱정해야 합니다. 0:14:19.200,0:14:24.696 왜냐하면 새로운 인공지능 [br]기계의 도움이 있어야 0:14:24.720,0:14:28.800 우리의 원대한 꿈을 [br]실현시킬 수 있을 테니까요. 0:14:30.000,0:14:31.320 만약 꿈을 이루지 못했다면 0:14:32.240,0:14:36.896 실패한 원인은 기계가 [br]지나치게 지능적이거나 0:14:36.920,0:14:38.870 아니면 충분히 똑똑하지 [br]않아서가 아닙니다. 0:14:39.200,0:14:42.280 실패 원인은 우리가 현실에 안주하고 0:14:43.680,0:14:45.450 우리 열망을 억눌렀기 때문일 겁니다. 0:14:46.520,0:14:49.560 우리의 인간성은 어떤 기술로도[br]정의될 수 없습니다. 0:14:51.280,0:14:53.960 망치를 휘두르는 기술이나[br]체스 게임으로 정의할 수 없죠. 0:14:54.560,0:14:57.576 인간만이 할 수 있는 [br]딱 하나가 있습니다. 0:14:57.600,0:14:58.800 바로 꿈꾸는 것입니다. 0:15:00.120,0:15:02.656 그러니 꿈을 크게 꿉시다. 0:15:02.680,0:15:03.896 감사합니다. 0:15:03.920,0:15:07.807 (박수)