0:00:07.052,0:00:11.642 해가 갈수록 기계는 점점 더 많은[br]활동 영역에서 인간을 능가합니다. 0:00:11.642,0:00:14.848 한때는 인간만 할 수 있다고 [br]생각했던 영역까지도 그렇죠. 0:00:14.848,0:00:18.423 오늘날 컴퓨터는 복잡한 [br]보드 게임에서 우리를 이기고 0:00:18.423,0:00:21.294 연설을 수십개 국의 언어로 옮기고 0:00:21.294,0:00:24.746 즉각적으로 어떤 개체든 식별하죠. 0:00:24.746,0:00:27.112 인간의 감정을 읽는 법을 배움으로써 0:00:27.112,0:00:30.243 미래의 로봇은 더 똑똑할지도 모릅니다. 0:00:30.243,0:00:32.381 그게 왜 중요할까요? 0:00:32.381,0:00:34.673 그 기계와 기계를 다루는 사람들이 0:00:34.673,0:00:37.223 우리의 감정을 정확히 읽을 수 있다면 0:00:37.223,0:00:40.193 우리를 도울 수 있거나[br]조종할 수도 있습니다. 0:00:40.193,0:00:43.102 이제껏 전례가 없는 규모로 말이죠. 0:00:43.102,0:00:44.614 그렇게 되기 전에 0:00:44.614,0:00:49.653 감정처럼 복잡한 것을[br]기계가 이해할 수 있는 유일한 언어인 0:00:49.653,0:00:53.253 한낱 숫자로 바꿀 수 있을까요? 0:00:53.253,0:00:56.843 본질적으로 인간의 뇌와 기계는[br]감정을 인지하는 법을 학습함으로써 0:00:56.843,0:00:58.994 인식하는 과정이 같죠. 0:00:58.994,0:01:04.120 미국의 심리학자 폴 에크먼이[br]발견한 보편적인 감정은 0:01:04.120,0:01:09.174 문화 전반에 걸쳐 시각적인 신호를[br]동일한 방식으로 이해합니다. 0:01:09.174,0:01:14.193 예를 들어 미소의 이미지는[br]현대 도시인과 원주민 부족 모두에게 0:01:14.193,0:01:16.965 기쁨으로 전달되죠. 0:01:16.965,0:01:18.094 에크먼에 따르면 0:01:18.094,0:01:18.823 분노 0:01:18.823,0:01:19.533 혐오감 0:01:19.533,0:01:20.275 두려움 0:01:20.275,0:01:21.092 기쁨 0:01:21.092,0:01:21.848 슬픔 0:01:21.848,0:01:25.433 놀라움을 똑같이[br]인식할 수 있는 거죠. 0:01:25.433,0:01:29.836 신경망 같은 기계 학습 알고리즘으로 0:01:29.836,0:01:34.015 컴퓨터는 이미지 인식 능력이[br]향상된 것으로 밝혀졌고 0:01:34.015,0:01:38.205 이들은 인공 연결망 교점끼리[br]연결을 형성하여 0:01:38.205,0:01:41.784 우리의 생물학적 뉴런을 모방하면서[br]정보 교환을 합니다. 0:01:41.784,0:01:46.285 다른 카테고리로 사전 분류된 샘플인 0:01:46.285,0:01:49.175 행복하거나 슬픈 표시가 있는 [br]사진 같은 것을 0:01:49.175,0:01:51.285 시스템에 입력해서[br]네트워크를 훈련시킵니다. 0:01:51.285,0:01:53.745 그다음엔 네트워크가[br]그런 샘플을 특정 기능에 할당된 0:01:53.745,0:01:58.405 상대 가중치를 조정하여[br]분류하는 방법을 학습합니다. 0:01:58.405,0:02:00.025 교육자료가 많을수록 0:02:00.025,0:02:04.795 알고리즘은 새로운 이미지를[br]정확하게 식별할 수 있습니다. 0:02:04.795,0:02:06.527 그것은 우리 두뇌와 비슷한데 0:02:06.527,0:02:11.725 우리의 두뇌도 이전의 경험을 통해[br]새로운 자극을 처리합니다. 0:02:11.725,0:02:15.466 인식 알고리즘은[br]표정에만 국한되는 게 아닙니다. 0:02:15.466,0:02:17.886 감정은 다양하게 나타나죠. 0:02:17.886,0:02:20.116 몸짓과 음정 0:02:20.116,0:02:23.237 심박수의 변화, 안색, 피부 온도 0:02:23.237,0:02:28.046 글쓰기에서 단어 빈도와[br]문장 구조에서도 알 수 있습니다. 0:02:28.046,0:02:31.205 신경망을 훈련하는 것이[br]길고 복잡한 작업이라고 0:02:31.205,0:02:33.637 생각할 수도 있지만[br]데이터양이 얼마나 많고 0:02:33.637,0:02:36.966 현대 컴퓨터가 얼마나 빨리[br]데이터를 처리할 수 있는지 0:02:36.966,0:02:40.375 깨달은 후엔 생각이 달라질 겁니다. 0:02:40.375,0:02:41.917 소셜 미디어 게시물과[br] 0:02:41.917,0:02:43.586 게시된 사진 및 비디오 0:02:43.586,0:02:44.987 전화 음성 녹음 0:02:44.987,0:02:46.767 열 감지 식 보안 카메라 0:02:46.767,0:02:50.437 생체 신호를 탐지하는 착용 기기 0:02:50.437,0:02:52.947 중요한 문제는 충분한 정보[br]수집의 방법이 아니라 0:02:52.947,0:02:55.255 정보의 활용 방법이죠. 0:02:55.255,0:02:59.706 컴퓨터화된 감정 인식엔[br]유익한 용도가 많아서 0:02:59.706,0:03:02.627 표정을 식별하는 알고리즘의 로봇은 0:03:02.627,0:03:04.246 아이들이 배울 수 있도록 돕거나 0:03:04.246,0:03:07.636 외로운 사람에겐[br]우정을 느끼게 해 주죠. 0:03:07.636,0:03:10.637 소셜 미디어 회사들은 [br]알고리즘을 사용해서 0:03:10.637,0:03:17.047 특정 단어나 문구가 있는[br]게시물을 표시하여 자살을 예방합니다. 0:03:17.047,0:03:21.287 감정 인식 소프트웨어를 통해서[br]정신 질환을 치료하거나 0:03:21.287,0:03:25.578 자동화된 심리 요법을 [br]저렴한 비용으로 제공할 수도 있습니다. 0:03:25.578,0:03:27.188 그러한 잠재적인 이점은 있지만 0:03:27.188,0:03:30.869 거대한 네트워크가 우리 사진과 0:03:30.869,0:03:31.958 의사소통 0:03:31.958,0:03:36.877 생리신호를 자동으로 스캔하는 미래는[br]불안하기도 하죠. 0:03:36.877,0:03:40.796 기업이 광고를 통해[br]우리의 감정을 이용하려고 0:03:40.796,0:03:45.208 그러한 비인격적인 시스템을 사용할 때[br]우리의 사생활엔 어떤 영향을 미칠까요? 0:03:45.208,0:03:46.718 범죄를 저지르기도 전에 0:03:46.718,0:03:50.737 감독 기관에서[br]범죄 가능성이 있는 사람들을 0:03:50.737,0:03:54.927 식별할 수 있다고 하면[br]우리의 권리는 어떻게 될까요? 0:03:54.927,0:03:57.150 아이러니같은 감정적인 차이를 구별하고 0:03:57.150,0:04:00.258 사람이 얼마나 행복하고[br]슬픈지 구별하려면 0:04:00.258,0:04:04.758 현재의 로봇이[br]좀 더 시간이 필요합니다. 0:04:04.758,0:04:09.288 그럼에도 불구하고 결국엔 로봇이[br]정확하게 인간의 감정을 읽고 0:04:09.288,0:04:11.138 그에 반응할 수도 있습니다. 0:04:11.138,0:04:15.389 아니면 인간이 침해받고 싶지 않은[br]감정에 깊이 공감할 수도 있겠지만 0:04:15.389,0:04:16.887 그건 또 다른 이야기가 되겠죠.