해가 갈수록 기계는 점점 더 많은 활동 영역에서 인간을 능가합니다. 한때는 인간만 할 수 있다고 생각했던 영역까지도 그렇죠. 오늘날 컴퓨터는 복잡한 보드 게임에서 우리를 이기고 연설을 수십개 국의 언어로 옮기고 즉각적으로 어떤 개체든 식별하죠. 인간의 감정을 읽는 법을 배움으로써 미래의 로봇은 더 똑똑할지도 모릅니다. 그게 왜 중요할까요? 그 기계와 기계를 다루는 사람들이 우리의 감정을 정확히 읽을 수 있다면 우리를 도울 수 있거나 조종할 수도 있습니다. 이제껏 전례가 없는 규모로 말이죠. 그렇게 되기 전에 감정처럼 복잡한 것을 기계가 이해할 수 있는 유일한 언어인 한낱 숫자로 바꿀 수 있을까요? 본질적으로 인간의 뇌와 기계는 감정을 인지하는 법을 학습함으로써 인식하는 과정이 같죠. 미국의 심리학자 폴 에크먼이 발견한 보편적인 감정은 문화 전반에 걸쳐 시각적인 신호를 동일한 방식으로 이해합니다. 예를 들어 미소의 이미지는 현대 도시인과 원주민 부족 모두에게 기쁨으로 전달되죠. 에크먼에 따르면 분노 혐오감 두려움 기쁨 슬픔 놀라움을 똑같이 인식할 수 있는 거죠. 신경망 같은 기계 학습 알고리즘으로 컴퓨터는 이미지 인식 능력이 향상된 것으로 밝혀졌고 이들은 인공 연결망 교점끼리 연결을 형성하여 우리의 생물학적 뉴런을 모방하면서 정보 교환을 합니다. 다른 카테고리로 사전 분류된 샘플인 행복하거나 슬픈 표시가 있는 사진 같은 것을 시스템에 입력해서 네트워크를 훈련시킵니다. 그다음엔 네트워크가 그런 샘플을 특정 기능에 할당된 상대 가중치를 조정하여 분류하는 방법을 학습합니다. 교육자료가 많을수록 알고리즘은 새로운 이미지를 정확하게 식별할 수 있습니다. 그것은 우리 두뇌와 비슷한데 우리의 두뇌도 이전의 경험을 통해 새로운 자극을 처리합니다. 인식 알고리즘은 표정에만 국한되는 게 아닙니다. 감정은 다양하게 나타나죠. 몸짓과 음정 심박수의 변화, 안색, 피부 온도 글쓰기에서 단어 빈도와 문장 구조에서도 알 수 있습니다. 신경망을 훈련하는 것이 길고 복잡한 작업이라고 생각할 수도 있지만 데이터양이 얼마나 많고 현대 컴퓨터가 얼마나 빨리 데이터를 처리할 수 있는지 깨달은 후엔 생각이 달라질 겁니다. 소셜 미디어 게시물과 게시된 사진 및 비디오 전화 음성 녹음 열 감지 식 보안 카메라 생체 신호를 탐지하는 착용 기기 중요한 문제는 충분한 정보 수집의 방법이 아니라 정보의 활용 방법이죠. 컴퓨터화된 감정 인식엔 유익한 용도가 많아서 표정을 식별하는 알고리즘의 로봇은 아이들이 배울 수 있도록 돕거나 외로운 사람에겐 우정을 느끼게 해 주죠. 소셜 미디어 회사들은 알고리즘을 사용해서 특정 단어나 문구가 있는 게시물을 표시하여 자살을 예방합니다. 감정 인식 소프트웨어를 통해서 정신 질환을 치료하거나 자동화된 심리 요법을 저렴한 비용으로 제공할 수도 있습니다. 그러한 잠재적인 이점은 있지만 거대한 네트워크가 우리 사진과 의사소통 생리신호를 자동으로 스캔하는 미래는 불안하기도 하죠. 기업이 광고를 통해 우리의 감정을 이용하려고 그러한 비인격적인 시스템을 사용할 때 우리의 사생활엔 어떤 영향을 미칠까요? 범죄를 저지르기도 전에 감독 기관에서 범죄 가능성이 있는 사람들을 식별할 수 있다고 하면 우리의 권리는 어떻게 될까요? 아이러니같은 감정적인 차이를 구별하고 사람이 얼마나 행복하고 슬픈지 구별하려면 현재의 로봇이 좀 더 시간이 필요합니다. 그럼에도 불구하고 결국엔 로봇이 정확하게 인간의 감정을 읽고 그에 반응할 수도 있습니다. 아니면 인간이 침해받고 싶지 않은 감정에 깊이 공감할 수도 있겠지만 그건 또 다른 이야기가 되겠죠.