0:00:00.564,0:00:03.086 제 직업은 사람과 소통하는 로봇을 만들고 0:00:03.086,0:00:05.086 연구하고 디자인하는 일입니다. 0:00:05.086,0:00:06.639 하지만 이 이야기는[br]로봇학으로 시작하지 않습니다. 0:00:06.639,0:00:08.531 애니메이션으로 시작하지요. 0:00:08.531,0:00:11.117 제가 픽사사(社)의[br]"럭소 주니어"를 처음 봤을 때 0:00:11.117,0:00:13.103 탁상용 전등과 같이 사소한 것에도 0:00:13.103,0:00:14.861 감정을 실을 수 있다는 것에 대해 0:00:14.861,0:00:17.452 놀랄 수 밖에 없었습니다. 0:00:17.452,0:00:19.285 제 말은, 이걸 보세요. [br]이 영화의 끝에서 0:00:19.285,0:00:21.789 두 전등에서 실제로[br]뭔가를 느끼실거에요. 0:00:21.789,0:00:23.617 (웃음) 0:00:23.617,0:00:25.737 전 이런 걸 어떻게하는지 [br]배워야겠다고 생각했습니다. 0:00:25.737,0:00:29.271 그러니까 제가 [br]진로 선택을 잘못했던 것이지요. 0:00:29.271,0:00:31.675 이건 제가 그런 결정을 내렸을 때[br]저희 어머니의 모습과 같아요. 0:00:31.675,0:00:33.686 (웃음) 0:00:33.686,0:00:35.866 이스라엘의 멋진 소프트웨어 회사의 0:00:35.866,0:00:38.471 편한 기술직을 떠나 애니메이션을 공부하러 0:00:38.471,0:00:39.482 뉴욕으로 왔습니다. 0:00:39.482,0:00:40.639 그리고선 할렘가의 무너져가는 0:00:40.639,0:00:43.635 아파트에서 룸메이트와 함께 살았죠. 0:00:43.635,0:00:45.003 비유적으로 말하는게 아니라 0:00:45.003,0:00:46.963 실제로 하루는 거실 천장이 0:00:46.963,0:00:48.273 무너져 내렸습니다. 0:00:48.273,0:00:50.939 뉴욕시 건축 법규 위반에 대한[br]뉴스가 나올 때면 0:00:50.939,0:00:53.185 우리 아파트 입구가 항상 화면에 나왔어요. 0:00:53.185,0:00:56.783 얼마나 상황이 심각한지를[br]보여주기 위한 배경으로 말이죠. 0:00:56.783,0:00:58.729 어쨌든 낮 동안에는 학교에 가고 0:00:58.729,0:01:02.251 밤에는 연필 애니메이션을[br]한장 한장 앉아서 그렸습니다. 0:01:02.251,0:01:04.525 그리고 두 가지 놀라운 교훈을 배웠어요. 0:01:04.525,0:01:07.078 하나는 바로 0:01:07.078,0:01:09.038 감정을 불러일으키기 위해서는 0:01:09.038,0:01:10.764 모양은 그렇게 상관없고 0:01:10.764,0:01:13.110 동작이 전부였어요. -- 물체가 움직이는 0:01:13.110,0:01:14.717 타이밍에 있었습니다. 0:01:14.717,0:01:17.944 그리고 두번째는[br]한 선생님이 말씀해주신 것인데, 0:01:17.944,0:01:20.347 그분은 아이스 에이지( Ice Age)에서[br]족제비를 그리셨었지요. 0:01:20.347,0:01:21.738 그 분이 하신 말씀은: 0:01:21.738,0:01:24.895 "애니메이터는 감독이 아니라 배우다." 0:01:24.895,0:01:27.876 즉 캐릭터에게 적합한[br]동작을 찾고 싶다면 0:01:27.876,0:01:30.227 그걸 생각하는게 아니라[br]몸을 써서 찾아야 해요. 0:01:30.227,0:01:31.863 거울 앞에 서서 연기도 해봐야죠. 0:01:31.863,0:01:33.565 카메라 앞에서도요. [br]-- 필요한 것은 뭐든 해서 0:01:33.565,0:01:36.459 자신의 캐릭터 안에 넣어야 합니다. 0:01:36.459,0:01:38.619 일 년 뒤에 저는 MIT의 0:01:38.619,0:01:40.769 로봇 생명 그룹에 들어갔어요. 0:01:40.769,0:01:43.414 그곳은 인간과 로봇의 관계를 연구하는[br]최초의 조직 중 하나였지요. 0:01:43.414,0:01:45.347 저는 여전히 실제로 움직이는 0:01:45.347,0:01:48.064 럭소 주니어 전등을 만들고자하는[br]꿈을 가지고 있었습니다. 0:01:48.064,0:01:49.631 하지만 거기서 애니메이션 수업에서 배웠던 0:01:49.631,0:01:50.909 방식대로 움직이지 않는 0:01:50.909,0:01:52.544 로봇들을 알게 되었습니다. 0:01:52.544,0:01:54.761 대신에 그 로봇들은 0:01:54.761,0:01:57.255 뭐라고 해야할지 모르겠군요,[br]말하자면 아주 다양한 로봇식이었죠. 0:01:57.255,0:01:59.152 (웃음) 0:01:59.152,0:02:02.787 그리고 전 애니메이션 학교에서 배웠던 걸[br]적용해보면 어떨까 생각했습니다. 0:02:02.787,0:02:05.455 그리고 학교에서 배운 것을 사용하여[br]제 로봇 탁상용 전등을 디자인했습니다. 0:02:05.455,0:02:07.539 프레임별로 디자인해서 0:02:07.539,0:02:09.393 이 로봇을 만들려고 노력했습니다. 0:02:09.393,0:02:12.050 가능한 우아하고 매력있게[br]만들고자 했지요. 0:02:12.050,0:02:14.092 그렇게 저와 상호 반응하는 0:02:14.092,0:02:15.723 탁상 위 로봇을 보실 수 있습니다. 0:02:15.723,0:02:17.934 사실 저는 이 로봇을 [br]다시 디자인하고 있는데 0:02:17.934,0:02:19.731 로봇 자신은 모르지만 0:02:19.731,0:02:22.419 저를 도와주면서 스스로[br]무덤을 파는 것과 같죠. 0:02:22.419,0:02:24.449 (웃음) 0:02:24.449,0:02:26.418 최소한의 기계적 구조로 0:02:26.418,0:02:27.712 제게 빛도 비춰주고 0:02:27.712,0:02:30.754 더 실용적이며[br]필요할 때 언제나 곁에 있는 0:02:30.754,0:02:33.948 조용한 견습생처럼[br]방해가 되지 않는 것이기를 원했어요. 0:02:33.948,0:02:35.625 예를 들어 건전지가 안보여서 0:02:35.625,0:02:37.158 찾을 때 0:02:37.158,0:02:41.753 얌전하게 건전지가 어디 있는지[br]보여줄 겁니다. 0:02:41.753,0:02:44.319 제가 혼란스러워하는 걸[br]보실 수 있을 거예요. 0:02:44.319,0:02:48.578 저는 연기하고 있는 게 아닙니다. 0:02:48.578,0:02:50.026 같은 기계 구조가 한 부분에서는 0:02:50.026,0:02:52.000 부드럽고 섬세하게[br]움직이는 것처럼 보이고 0:02:52.000,0:02:55.004 다른 측면에서는 폭력적이고 0:02:55.004,0:02:58.237 대립적으로 보이는지[br]알 수 있으시길 바라요. 0:02:58.237,0:03:01.548 같은 구조지만 움직임은 다릅니다. 0:03:07.026,0:03:12.900 배우: "뭘 원해? 뭘 원하는거야? 0:03:12.900,0:03:13.837 그는 벌써 죽었다고! 0:03:13.837,0:03:17.854 이미 눈이 흐릿해진 채로 누워있잖아!" 0:03:17.854,0:03:18.857 (웃음) 0:03:18.857,0:03:22.755 하지만 우아하게 움직이는 건[br]전체 구조의 단 하나의 부분인데, 0:03:22.755,0:03:24.339 이것을 인간-로봇 상호작용이라고 합니다. 0:03:24.339,0:03:25.828 그 때 저는 박사 과정 중이었는데 0:03:25.828,0:03:27.998 인간-로봇 협력에 대해[br]연구하고 있었습니다. 0:03:27.998,0:03:30.000 인간과 로봇으로 구성된 팀이[br]함께 일하는거죠 0:03:30.000,0:03:31.334 공학을 공부하고, 0:03:31.334,0:03:34.116 심리학 그리고 [br]협력의 철학에 대해 공부했습니다. 0:03:34.116,0:03:35.583 동시에 저는 이 자리에 있는 0:03:35.583,0:03:37.438 제 친한 친구와 함께 0:03:37.438,0:03:39.659 제 방식으로 협력하고 있었습니다. 0:03:39.659,0:03:42.273 그 상황에서 우리는 가까운 미래에 0:03:42.273,0:03:44.366 로봇이 함께 하리라는 것을[br]쉽게 상상할 수 있습니다. 0:03:44.366,0:03:46.213 유월절 만찬 후에 0:03:46.213,0:03:48.053 접이식 의자를 접고 있는데 0:03:48.053,0:03:50.986 저는 일의 리듬을[br]얼마나 빨리 찾아낼 수 있는지에 놀랐어요. 0:03:50.986,0:03:52.553 모든 사람들은 각자의 일을 했습니다. 0:03:52.553,0:03:54.182 일을 나눌 필요도 없었지요. 0:03:54.182,0:03:56.278 말로 할 필요도 없이 0:03:56.278,0:03:57.889 저절로 되었지요. 0:03:57.889,0:03:58.783 그래서 인간과 로봇은 0:03:58.783,0:04:00.632 이런 점에서 같지 않다고 생각했습니다. 0:04:00.632,0:04:02.297 인간과 로봇이 상호 교류할 때는 0:04:02.297,0:04:03.495 체스 게임과 더 비슷해요. 0:04:03.495,0:04:04.758 인간이 무언가를 하면 0:04:04.758,0:04:06.638 로봇은 인간이 한 모든 행동을 분석하고 0:04:06.638,0:04:08.168 다음에 무얼할지 결정하고 0:04:08.168,0:04:09.344 계획한 다음, 실행합니다. 0:04:09.344,0:04:11.475 그동안 인간은[br]차례가 돌아올 때까지 기다리지요. 0:04:11.475,0:04:12.665 그래서 체스 게임과 더 비슷한 겁니다. 0:04:12.665,0:04:14.875 그리고 수학자들과 컴퓨터 공학자들에게 0:04:14.875,0:04:16.396 체스가 대단한 것인게[br]의미가 있습니다. 0:04:16.396,0:04:18.654 다 정보 분석에 관한 것이거든요. 0:04:18.654,0:04:21.503 결정하고, 계획하는 것을 포함해서요. 0:04:21.503,0:04:25.191 하지만 저는 제 로봇이 [br]체스 게임 선수보다는 0:04:25.191,0:04:27.152 단지 실행시키면 0:04:27.152,0:04:29.177 같이 일하는 존재가 되길 바랬습니다. 0:04:29.177,0:04:32.570 그래서 전 두번째 끔찍한[br]진로 선택을 했지요. 0:04:32.570,0:04:35.230 한 학기 동안[br]연기를 공부하기로 했습니다. 0:04:35.230,0:04:38.090 박사 과정을 그만 두고[br]연기 수업에 들어갔어요. 0:04:38.090,0:04:40.550 실제로 연극에 참여했었죠. 0:04:40.550,0:04:43.342 공연 영상이 아직 남아 있지 않길 바라면서요. 0:04:43.342,0:04:45.969 그리고 연기에 관한[br]모든 책을 찾아보았습니다. 0:04:45.969,0:04:47.945 그 중 19세기에 나온 책이 있어서 0:04:47.945,0:04:49.012 도서관에서 빌려왔습니다. 0:04:49.012,0:04:52.470 대출자 명단에 제 이름이[br]두번째로 올라있어서 깜짝 놀랐어요. 0:04:52.470,0:04:55.286 첫번째 사람은 1899년도에[br]빌렸더군요. (웃음) 0:04:55.286,0:04:57.000 이 책은 로봇학을 위해 재발견되기까지 0:04:57.000,0:05:00.191 100년을 잠들어 있었던거죠. 0:05:00.191,0:05:01.669 이 책은 배우들이 0:05:01.669,0:05:04.034 각 감정에 맞는 표현을 하기 위해 0:05:04.034,0:05:06.742 몸의 근육을 어떻게[br]움직여야 하는지 보여줍니다. 0:05:06.742,0:05:08.574 하지만 진정한 도약은 0:05:08.574,0:05:09.910 메소드 연기에 대해 배웠을 때에요.[br](메소드 연기:극중 인물과 동일시를 통한 연기방법) 0:05:09.910,0:05:12.186 그 기법은 20세기에[br]매우 성행했었습니다. 0:05:12.186,0:05:14.830 몰입 연기에서는 모든 근육 동작을[br]미리 계획할 필요가 없어요. 0:05:14.830,0:05:17.503 대신에 몸이 맞는 동작을 찾도록 하는거죠. 0:05:17.503,0:05:19.683 감각 기억을 이용해서 0:05:19.683,0:05:21.539 감정을 재구성하고 0:05:21.539,0:05:24.440 알맞는 표현을 찾기 위해[br]몸으로 생각하는 겁니다. 0:05:24.440,0:05:26.460 즉석에서 배역 상대를 연기하는 것이죠. 0:05:26.460,0:05:29.708 이건 체화된 인지라고 불리는[br]인지 심리학의 경향에 대해 0:05:29.708,0:05:32.804 읽어보는 도중에 알게 되었어요. 0:05:32.804,0:05:34.478 또한 다른 아이디어들, 즉 0:05:34.478,0:05:35.987 우리는 생각하기 위해 몸을 사용하고, 0:05:35.987,0:05:38.212 단지 뇌를 사용하여 생각하고[br]움직이기 위해 몸을 사용하는게 아니라 0:05:38.212,0:05:40.621 몸이 뇌에 피드백을 주어 0:05:40.621,0:05:42.838 우리가 행동하는 방법을 만듭니다. 0:05:42.838,0:05:44.209 순식간에 일어나는 일이지요. 0:05:44.209,0:05:45.571 저는 사무실로 돌아가 0:05:45.571,0:05:48.470 출간되지는 않았지만, 0:05:48.470,0:05:50.836 "인공지능을 위한 연기 수업"이란[br]논문을 썼습니다. 0:05:50.836,0:05:52.233 한 달이 더 지나서 0:05:52.233,0:05:54.844 인간과 로봇이 함께 공연하는 0:05:54.844,0:05:56.696 첫 무대 연극을 해냈습니다. 0:05:56.696,0:06:00.263 바로 전에 보신 배우들과 [br]함께 한 그거예요. 0:06:00.263,0:06:01.692 그리고 생각했죠. 0:06:01.692,0:06:04.599 어떻게 컴퓨터, 컴퓨터식 모델의 0:06:04.599,0:06:06.460 인공지능 모델을 만들어 0:06:06.460,0:06:08.784 즉흥적인 생각을 가지고 0:06:08.784,0:06:10.941 위험을 감수하거나 기회를 찾고 0:06:10.941,0:06:12.508 또는 실수도 하는 모델을[br]만들 수 있을까? 하고요. 0:06:12.508,0:06:15.280 어쩌면 아마 더 나은 동료 로봇을[br]만들 수도 있을거에요. 0:06:15.280,0:06:17.908 저는 이 모델의 연구에[br]꽤 많은 시간을 보냈고 0:06:17.908,0:06:20.257 몇몇 로봇에 적용해 보았습니다. 0:06:20.257,0:06:22.272 여기 초기 모델을 보시면 0:06:22.272,0:06:25.984 내장된 인공 지능을 이용해서 0:06:25.984,0:06:28.742 제 동작을 가능한 유사하게[br]따라하게 하려고 노력하죠. 0:06:28.742,0:06:30.229 마치 게임처럼 말이에요. 0:06:30.229,0:06:32.086 한 번 보시죠. 0:06:35.594,0:06:39.698 제가 흥분해서 움직이면[br]녀석은 바보가 되어버립니다. 0:06:39.698,0:06:41.899 이것은 배우들이 서로를 보며 0:06:41.899,0:06:43.786 그들 사이의 맞는 동시 동작의 리듬을 0:06:43.786,0:06:46.304 찾는 것과 비슷하다고 할 수 있습니다. 0:06:46.304,0:06:48.220 그리고 다른 실험도 했습니다. 0:06:48.220,0:06:52.303 로봇 탁상 전등을 이용해[br]거리의 사람들을 신나게 하고 0:06:52.303,0:06:56.257 내장 인공 지능의 아이디어를[br]시험해보려고 했어요. 0:06:56.257,0:07:00.543 즉 같은 로봇에[br]두 종류의 뇌를 사용했습니다. 0:07:00.543,0:07:01.863 그 로봇은 여러분이 보시기에[br]같은 전등이지만 0:07:01.863,0:07:03.793 그 안에 두가지 뇌를 넣었습니다. 0:07:03.793,0:07:05.633 절반의 사람들 대상으로는 0:07:05.633,0:07:08.457 전통적인 종류의 뇌, 0:07:08.457,0:07:09.711 계산된 로봇 뇌를 넣었습니다. 0:07:09.711,0:07:12.265 그러면 그것은 차례를 기다리고[br]모든 걸 분석하고 계획하지요. 0:07:12.265,0:07:13.921 이것을 계산된 뇌라고 합니다. 0:07:13.921,0:07:17.553 다른 하나인 무대 위 배우이자[br]위험을 감수하는 뇌는 0:07:17.553,0:07:19.633 모험적인 뇌라고 부릅시다. 0:07:19.633,0:07:22.594 이 뇌는 가끔은 알아야 할 모든 것을[br]알지 못한 채로 행동합니다. 0:07:22.594,0:07:24.771 실수를 하고 교정하지요. 0:07:24.771,0:07:27.354 거의 20분이 걸리는 0:07:27.354,0:07:28.852 매우 지루한 작업을 해야 했고 0:07:28.852,0:07:30.353 같이 동작해야 했습니다. 0:07:30.353,0:07:32.634 한편 따라하는 것은 공장 일 같이 0:07:32.634,0:07:35.299 같은 일을 반복하는 작업과 같습니다. 0:07:35.299,0:07:37.073 사람들이 모험적인 로봇을 실제로 0:07:37.073,0:07:38.721 더 좋아한다는 것을 알아냈지요. 0:07:38.721,0:07:40.103 사람들은 그것을 더 똑똑하고, 0:07:40.103,0:07:42.171 더 헌신적이고, 팀의 성공에[br]더 기여하는 0:07:42.171,0:07:44.268 동료로써 더 낫다고 생각했어요. 0:07:44.268,0:07:45.983 심지어 로봇을 "그"나[br]"그녀"라고도 부르더군요. 0:07:45.983,0:07:48.899 계산된 뇌에 대해서는[br]"그것"이라 부르는데 말이죠. 0:07:48.899,0:07:51.646 누구도 로봇을 "그"나[br]"그녀"라고 부른 적이 없었어요. 0:07:51.646,0:07:53.495 모험적인 뇌와 함께 한 0:07:53.495,0:07:55.193 실험이 끝난 후 얘기를 들어보면 0:07:55.193,0:07:59.275 마지막에는 좋은 친구이자[br]정신적으로 하이파이브를 나눴다더군요. 0:07:59.275,0:08:00.714 그게 무슨 뜻인지는 모르겠지만요. 0:08:00.714,0:08:03.961 (웃음) 고통스럽게 들리는군요. 0:08:03.961,0:08:06.676 반면에 계산된 뇌와 함께[br]실험에 참여한 사람들은 0:08:06.676,0:08:09.049 그 로봇이 게으른 견습생 같다고 했습니다. 0:08:09.049,0:08:11.750 하기로 되어 있는 것만 하고[br]더 이상은 없었으니까요. 0:08:11.750,0:08:14.307 바로 사람들이 로봇이 그럴 것이라고[br]기대하는 대로지요. . 0:08:14.307,0:08:16.742 저는 사람들이 로봇에 대해 더 높은[br]기대를 갖고 있다는 사실에 놀랐습니다. 0:08:16.742,0:08:21.886 로봇학을 연구하는 사람들이[br]로봇이 이래야 한다고 생각하는 것보다 더 말이지요. 0:08:21.886,0:08:23.856 한편으로는 생각하기를 0:08:23.856,0:08:26.717 아마도 19세기에 사람들이 0:08:26.717,0:08:28.149 계획된 동작으로 계산된 연기를 해야한다고 0:08:28.149,0:08:29.992 생각했던 것으로부터 0:08:29.992,0:08:31.774 몰입 연기를 통해 보다 직관적이고 도전적이며 0:08:31.774,0:08:35.295 행동의 체화된 방법으로 바꾸었던 것과[br]같은 시기라고 생각합니다. 0:08:35.295,0:08:36.699 로봇에도 같은 종류의 0:08:36.699,0:08:39.845 혁명이 일어날 시기일 수도 있겠네요. 0:08:39.845,0:08:40.966 몇 년이 지나 0:08:40.966,0:08:43.474 어어진 연구 과정으로 저는[br]애틀랜타에 있는 조지아공대에서 0:08:43.474,0:08:44.539 로봇 음악가들을 다루는 그룹에서 0:08:44.539,0:08:45.821 일하고 있었습니다. 0:08:45.821,0:08:48.662 음악이야 말로 팀워크와 협력, 0:08:48.662,0:08:51.059 시간 조절, 즉흥성 등을 0:08:51.059,0:08:52.948 보기에 완벽한 곳이라고 생각했고, 0:08:52.948,0:08:55.484 마림바를 연주하는[br]로봇을 만들었습니다. 0:08:55.484,0:08:57.499 저같은 사람들에게는 마림바란 0:08:57.499,0:09:00.344 나무로 만든 거대한 실로폰이죠. 0:09:00.344,0:09:03.039 이걸 보았을 때 0:09:03.039,0:09:05.633 다른 인간-로봇 간의[br]즉흥 연주를 보았습니다. 0:09:05.633,0:09:08.012 네, 다른 인간-로봇 협연이[br]이미 있었어요. 0:09:08.012,0:09:10.105 그것 또한 체스 게임 같아 보였지요. 0:09:10.105,0:09:11.409 인간이 연주하면 0:09:11.409,0:09:13.989 로봇은 무엇이 연주되었는지 분석해서 0:09:13.989,0:09:16.201 그들 파트를 즉흥 연주합니다. 0:09:16.201,0:09:17.868 이건 음악가들이 0:09:17.868,0:09:19.351 부름-응답 상호 작용이라 부르는 거지요. 0:09:19.351,0:09:23.188 이 역시 로봇과 인공지능에[br]아주 잘 어울렸습니다. 0:09:23.188,0:09:25.095 하지만 연극 공연과 팀워크 연구에서 0:09:25.095,0:09:28.232 사용했던 것과 같은 아이디어를 적용한다면 0:09:28.232,0:09:30.684 밴드처럼 로봇의 즉흥 연주가 0:09:30.684,0:09:32.305 가능할 거라고 생각했습니다. 0:09:32.305,0:09:36.118 모두가 서로의 의식의 흐름 속에서[br]연주하면서 잠시도 멈추지 않는거죠. 0:09:36.118,0:09:38.910 이번에는 음악을 가지고 0:09:38.910,0:09:40.297 로봇이 무엇을 연주하여야 할지[br]모르는 상태에서 0:09:40.297,0:09:41.272 같은 실험을 해보았습니다. 0:09:41.272,0:09:42.545 단지 몸을 움직여 0:09:42.545,0:09:44.773 연주할 기회를 사용하는 것 뿐이죠. 0:09:44.773,0:09:47.494 열일곱 살 때 재즈 선생님이 0:09:47.494,0:09:48.758 제가 즉흥 연주를 할 때면 0:09:48.758,0:09:50.419 때때로 저 자신이 뭘 하는지 모르고 있어도 0:09:50.419,0:09:51.434 여전히 연주하고 있다고 말씀하셨죠. 0:09:51.434,0:09:52.864 그래서 실제로 무엇을 하고 있는지는 모르지만 0:09:52.864,0:09:54.809 계속 무언가를 하는 로봇을 만들고자 했습니다. 0:09:54.809,0:09:57.753 이 공연을 짧게 한 번 보시지요. 0:09:57.753,0:10:00.670 로봇이 인간 음악가의 음악을 듣고 0:10:00.670,0:10:02.473 즉흥 연주를 합니다. 0:10:02.473,0:10:04.846 그리고 인간 음악가가 마찬가지로 0:10:04.846,0:10:06.633 로봇의 연주에 응답하고 그 동작을 0:10:06.633,0:10:09.453 따라합니다. 0:10:09.453,0:10:13.981 몇몇 부분에서 로봇이 어떻게 따라하는지 보고[br]놀라실 지도 몰라요. 0:10:13.981,0:11:00.056 (음악) 0:11:00.056,0:11:05.087 (박수) 0:11:05.087,0:11:07.073 음악가가 그저 연주를 하는 것 뿐이라면 0:11:07.073,0:11:09.459 라이브 공연에 아무도 가지 않을 겁니다. 0:11:09.459,0:11:11.382 음악가들은 몸으로 다른 밴드 멤버들과 0:11:11.382,0:11:13.329 청중들과 소통하고 0:11:13.329,0:11:15.492 음악을 표현하기 위해 몸을 사용합니다. 0:11:15.492,0:11:17.872 로봇 음악가를 무대에 세워 봤으니 0:11:17.872,0:11:20.820 완전히 성숙한 음악가로[br]못만들 이유가 없다고 생각했지요. 0:11:20.820,0:11:23.336 그리고 전 감정을 표현할 수 있는 로봇 머리를 0:11:23.336,0:11:24.885 디자인하기 시작했습니다. 0:11:24.885,0:11:26.712 그 머리는 마림바를 직접 연주하는게 아니라 0:11:26.712,0:11:28.348 음악이 어떤지를 표현할 뿐입니다. 0:11:28.348,0:11:31.428 애틀랜타의 한 바에서 냅킨에 그린 그림이에요. 0:11:31.428,0:11:34.050 위험하게도 정확히 제 연구소와 0:11:34.050,0:11:35.502 집 사이에 있었거든요. (웃음) 0:11:35.502,0:11:36.918 아마도 매일 0:11:36.918,0:11:39.846 평균 세네 시간은 거기서 보낸거 같아요. 0:11:39.846,0:11:42.744 제 생각엔 말이죠. (웃음) 0:11:42.744,0:11:45.723 애니메이션 툴을 이용해 0:11:45.723,0:11:47.905 단순히 로봇 음악가들이[br]어떻게 보이냐가 아니라 0:11:47.905,0:11:50.713 특별히 어떻게 움직일 것인가를[br]이해하려 했습니다. 0:11:50.713,0:11:54.013 다른 사람이 연주하는 것을[br]보여주는 게 아니라 0:11:54.013,0:11:56.492 그 순간에 느껴지는 박자를[br]보여줄 수 있는 0:11:56.492,0:11:58.141 그런 움직임 말이지요. 0:11:58.141,0:12:02.668 이 로봇을 만들기 위한 기금을[br]마련하는 걸로 잘 마무리 되었지요. 0:12:02.668,0:12:04.878 이제 같은 종류의 공연을 보여드릴텐데요. 0:12:04.878,0:12:07.220 이번에는 감정 표현적 머리가 달린 로봇들입니다. 0:12:07.220,0:12:09.184 그리고 한가지 알려드릴 점은 0:12:09.184,0:12:10.880 로봇이 실제로 보여주는 것은 0:12:10.880,0:12:12.744 인간 음악가의 연주로부터 따온 박자이고, 0:12:12.744,0:12:16.760 로봇이 무얼하고 있는 지를[br]알 수 있는 감각을 줍니다. 0:12:16.760,0:12:18.140 솔로 부분을 시작하면서 0:12:18.140,0:12:20.680 어떻게 움직이는 방법을[br]바꾸는지도 알 수 있습니다. 0:12:20.680,0:12:24.600 (음악) 0:12:24.600,0:12:27.501 제가 듣고 있는지 확인하는 것 같군요. 0:12:27.501,0:12:48.601 (음악) 0:12:48.601,0:12:52.228 연주곡의 마지막 코드를 다시 보면, 0:12:52.228,0:12:55.067 이번에 로봇들은 스스로의 일을 하면서 0:12:55.067,0:12:57.204 몸으로 소통합니다. 0:12:57.204,0:12:58.816 그리고 준비가 되면 0:12:58.816,0:13:02.168 마지막 코드를 저와 함께 연주합니다. 0:13:02.168,0:13:15.097 (음악) 0:13:15.128,0:13:20.906 (박수) 0:13:20.906,0:13:25.263 감사합니다. 여러분이 여기서 0:13:25.263,0:13:27.944 몸의 이 부분이 악기를 건드리지 않으면서 0:13:27.944,0:13:31.310 음악 연주를 돕는지를 이해하셨기를 바라요. 0:13:31.310,0:13:34.530 한편 우리는 애틀랜타에 있으니 0:13:34.530,0:13:36.399 몇몇 랩퍼들이 우리 연구소에 와서 0:13:36.399,0:13:38.639 로봇과 함께 0:13:38.639,0:13:41.212 작은 즉흥 연주를 해봤어요. 0:13:41.212,0:13:43.914 여기 로봇이 기본적으로 0:13:43.914,0:13:45.143 박자에 응답하는 것을 보실 수 있어요. 0:13:45.143,0:13:47.997 두 가지를 주목하자면, 0:13:47.997,0:13:50.510 하나는 이 로봇이 그 머리를 움직일 때 0:13:50.051,0:13:52.412 여러분이 얼마나 따라 하고 싶어지는지를 보시고, 0:13:52.412,0:13:56.207 두번째는 랩퍼가 아이폰에 집중하고 있지만 0:13:56.207,0:13:59.121 로봇이 그에게 돌아서면 그도 돌아보는 거에요. 0:13:59.121,0:14:01.200 그의 시각의 사각지대에 있다 할지라도 0:14:01.200,0:14:03.770 시각의 구석에 있지만[br]매우 강력하다는 것이죠. 0:14:03.770,0:14:05.821 우리가 무시할 수 없는 이유는 0:14:05.821,0:14:07.522 실제 물체가 우리 환경에서[br]움직이기 때문이에요. 0:14:07.522,0:14:09.286 우리는 그런 부분에[br]늘 신경 쓰고 있습니다. 0:14:09.286,0:14:12.618 만역 배우자가 아이폰이나 0:14:12.618,0:14:15.489 스마트폰을 뚫어져라 보고 있으면 0:14:15.489,0:14:17.082 주의를 집중시키기 위해 0:14:17.082,0:14:18.636 로봇이 있었으면 하겠지요. (웃음) 0:14:18.636,0:14:38.211 (음악) 0:14:38.211,0:14:44.872 (박수) 0:14:44.872,0:14:47.382 이제 마지막 로봇을 소개하지요. 0:14:47.382,0:14:49.526 저희가 찾아낸 놀라운 0:14:49.526,0:14:51.599 어떤 것으로부터 [br]작업하고 있는 로봇입니다. 0:14:51.599,0:14:54.634 어떤 면에서 사람들은 [br]로봇이 그렇게 지능적이거나 0:14:54.634,0:14:56.342 즉흥 연주를 하거나 들을 수 있거나 0:14:56.342,0:15:00.750 또는 제가 수년 간 개발해온[br]로봇에 내재된 지능적인 것에 별 관심이 없어요. 0:15:00.750,0:15:04.263 로봇이 음악을 즐긴다는 것을[br]좋아하지요. (웃음) 0:15:04.263,0:15:06.668 로봇이 음악에 맞춰[br]움직인다고 얘기하지 않고 0:15:06.668,0:15:08.340 음악을 즐기고 있다고 말하지요. 0:15:08.340,0:15:10.744 그래서 이 아이디어를[br]받아들여야겠다고 생각하고 0:15:10.744,0:15:13.629 새로운 개념의 가구를 디자인했습니다. 0:15:13.629,0:15:15.718 이번에는 탁상 전등이 아니라[br]스피커 받침이었어요. 0:15:15.718,0:15:18.826 스마트폰을 꽃을 수 있는거죠. 0:15:18.826,0:15:20.545 만약 스피커 받침이 사람을 위해 0:15:20.545,0:15:23.146 들려주는게 아니라 실제로 즐긴다면 0:15:23.146,0:15:25.657 무슨 일이 일어날까 생각했습니다. (웃음) 0:15:25.657,0:15:27.434 또다시 약간의 애니메이션 실험이 0:15:27.434,0:15:31.835 초기 단계에는 있었지요. (웃음) 0:15:31.835,0:15:36.005 이것이 최종 제품의 모양입니다. 0:15:47.223,0:16:09.461 ("Drop It LIke It's Hot") - 스눕 독의 노래 0:16:09.461,0:16:12.105 고개를 흔드는 것 좀 보세요. 0:16:12.105,0:16:15.327 (박수) 0:16:15.327,0:16:17.228 많은 분들이 같이 고개를 흔드는 것처럼 0:16:17.228,0:16:20.386 로봇이 사람들에게 여전히 영향을[br]끼친다는 것을 알 수 있습니다. 0:16:20.386,0:16:23.028 단순히 재미나 오락을 위한 것이 아닙니다. 0:16:23.028,0:16:25.420 로봇이 그 몸을 소통하는데 사용하고 0:16:25.420,0:16:27.214 움직이기 위해 사용하는 것에 대해 0:16:27.214,0:16:29.407 관심을 가지는 이유 중 하나이자 0:16:29.407,0:16:32.640 로봇학자들이 숨기고 있는[br]작은 비밀을 말씀드리자면 0:16:32.640,0:16:35.001 여러분 모두가 인생의 어느 순간에는 0:16:35.001,0:16:37.254 로봇과 살게 될 것이기 때문이에요. 0:16:37.254,0:16:39.550 미래에 언젠가는 여러분의 삶에[br]로봇이 있을거에요. 0:16:39.550,0:16:41.678 여러분의 삶이 아니면[br]여러분의 아이들의 삶에요. 0:16:41.678,0:16:43.467 저는 이 로봇들이 좀 더 유연하고 0:16:43.467,0:16:46.961 매력 있고 우아하게 움직였으면 합니다. 0:16:46.961,0:16:48.749 지금 있는 로봇들보다는요. 0:16:48.749,0:16:50.668 그것은 로봇이 체스 선수보다 0:16:50.668,0:16:52.034 무대 위 배우나 음악가들처럼 0:16:52.034,0:16:54.744 되어야 한다고 생각하기 때문이에요. 0:16:54.744,0:16:57.683 기회를 잡고 즉흥적인 일을[br]할 수 있을 겁니다. 0:16:57.683,0:17:00.180 또 여러분이 하려는 일을[br]예상할 수도 있을테고요. 0:17:00.180,0:17:02.756 어쩌면 실수를 하고는 그걸 0:17:02.756,0:17:03.979 고쳐야 할지도 모릅니다. 0:17:03.979,0:17:06.015 결국 우리는 인간이니까요. 0:17:06.015,0:17:09.386 그리고 인간처럼, 약간 부족한 로봇이 0:17:09.386,0:17:11.252 우리에게는 완벽한 것이겠지요. 0:17:11.252,0:17:12.766 고맙습니다. 0:17:12.766,0:17:16.188 (박수)