1 00:00:01,041 --> 00:00:04,175 안녕하세요. 코드의 시인, 조이입니다. 2 00:00:04,199 --> 00:00:06,776 저는 보이지 않는 힘이 일어나는 것을 3 00:00:06,776 --> 00:00:09,216 막기 위한 사명을 띠고 있어요. 4 00:00:09,216 --> 00:00:12,072 제가 '코드화된 시선'이라 부르는 힘인데요. 5 00:00:12,096 --> 00:00:15,405 다른 사람은 알고리즘의 편견이라 부르죠. 6 00:00:15,429 --> 00:00:16,853 알고리즘의 편견은 인간의 편견처럼 불평등을 초래하지만 7 00:00:19,753 --> 00:00:22,549 알고리즘은 바이러스처럼 대규모의 편견을 빠른 속도로 퍼뜨릴 수 있어요. 8 00:00:27,943 --> 00:00:31,024 또한, 알고리즘의 편견은 자신이 배제되는 경험이나 9 00:00:31,024 --> 00:00:34,482 차별적인 대우로 이어질 수 있어요. 10 00:00:34,506 --> 00:00:36,567 자세히 설명해 드리죠. 11 00:00:36,980 --> 00:00:40,156 (비디오) 안녕, 카메라야. 이게 내 얼굴이야. 12 00:00:40,156 --> 00:00:42,026 내 얼굴이 보이니? 13 00:00:42,051 --> 00:00:43,676 안경을 벗으면 보이니? 14 00:00:43,701 --> 00:00:45,915 이 친구의 얼굴은 보이잖아. 15 00:00:46,237 --> 00:00:48,482 내 얼굴은 보여? 16 00:00:51,890 --> 00:00:55,640 그럼 가면을 쓸게. 내 가면이 보이니? 17 00:00:56,474 --> 00:00:59,269 이런 일이 왜 일어난 걸까요? 18 00:00:59,269 --> 00:01:02,004 제가 왜 컴퓨터 앞에 앉아서 19 00:01:02,028 --> 00:01:03,452 하얀 가면을 쓰고 20 00:01:03,476 --> 00:01:07,126 싸구려 웹캠에 인식이 되도록 노력하고 있을까요? 21 00:01:07,150 --> 00:01:09,035 제가 코드의 시인으로서 22 00:01:09,035 --> 00:01:11,105 '코드화된 시선'과 싸우기 전에 23 00:01:11,105 --> 00:01:14,281 저는 MIT 미디어랩의 대학원생이었어요. 24 00:01:14,305 --> 00:01:19,222 그곳에서 많은 기발한 프로젝트에 참여할 수 있었는데 25 00:01:19,246 --> 00:01:21,273 염원의 거울도 있었습니다. 26 00:01:21,297 --> 00:01:26,431 제가 참여한 프로젝트로, 거울에 비친 제 모습에 디지털 가면을 씌우는 것이죠. 27 00:01:26,455 --> 00:01:28,805 아침에 힘찬 느낌을 원하면 28 00:01:28,829 --> 00:01:30,403 사자 가면을 씌울 수 있고 29 00:01:30,403 --> 00:01:33,783 희망찬 느낌을 받고 싶다면 명언을 띄울 수 있었죠. 30 00:01:33,807 --> 00:01:36,796 저는 일반적인 얼굴 인식 소프트웨어를 사용하여 31 00:01:36,820 --> 00:01:38,171 시스템을 만들었지만 32 00:01:38,195 --> 00:01:40,762 제가 흰 가면을 쓰지 않으면 굉장히 테스트하기 어려웠어요. 33 00:01:44,282 --> 00:01:45,942 불행하게도, 저는 전에도 이런 문제에 부딪힌 적이 있어요. 34 00:01:48,652 --> 00:01:49,979 제가 조지아 공대에서 컴퓨터 공학 전공생이었을 때 35 00:01:52,979 --> 00:01:55,034 저는 사회적 로봇을 연구했어요. 36 00:01:55,058 --> 00:01:56,528 과제들 중 하나는 까꿍놀이하는 로봇을 만들기였죠. 37 00:01:58,859 --> 00:02:00,542 간단한 순서 교대 게임으로, 38 00:02:00,566 --> 00:02:02,211 얼굴을 가렸다가 보이며 "까꿍!"이라고 말하는 게임이죠. 39 00:02:04,911 --> 00:02:09,340 문제는, 까꿍 놀이는 제가 여러분의 얼굴을 볼 수 있어야 하는데 40 00:02:09,364 --> 00:02:11,863 로봇이 저를 보지 못했어요. 41 00:02:11,887 --> 00:02:15,837 하지만 저는 룸메이트의 얼굴을 빌려서 프로젝트를 끝냈고 42 00:02:15,861 --> 00:02:17,241 과제를 제출한 다음 43 00:02:17,265 --> 00:02:21,018 다른 누군가가 이 문제를 해결하겠지 라고 생각했어요. 44 00:02:21,669 --> 00:02:23,672 그로부터 오래 지나지 않아 45 00:02:23,696 --> 00:02:27,855 창업 대회 참가를 위해 홍콩에 갔어요. 46 00:02:28,339 --> 00:02:30,297 주최 측은 참여자들이 47 00:02:30,297 --> 00:02:33,429 그 지역의 스타트업 기업들을 방문하도록 했어요. 48 00:02:33,453 --> 00:02:36,168 한 스타트업에 사회적 로봇이 있었고 49 00:02:36,192 --> 00:02:38,104 시범을 보여주기로 했어요. 50 00:02:38,128 --> 00:02:41,108 로봇은 모두에게 잘 작동했죠. 저만 빼고요. 51 00:02:41,132 --> 00:02:43,055 아마 짐작하셨을 거예요. 52 00:02:43,079 --> 00:02:46,044 제 얼굴을 인식하지 못했어요. 53 00:02:46,068 --> 00:02:48,579 저는 개발자들에게 무슨 일이냐고 물었고 54 00:02:48,603 --> 00:02:54,136 제가 썼던 그 얼굴 인식 소프트웨어를 쓴 게 문제였어요. 55 00:02:54,160 --> 00:02:55,810 지구 반대편에서 56 00:02:55,834 --> 00:02:59,686 저는 알고리즘의 편견이 인터넷에서 파일을 다운로드받는 것처럼 57 00:02:59,710 --> 00:03:02,880 빠르게 퍼질 수 있다는 걸 알았어요. 58 00:03:03,745 --> 00:03:05,045 어떻게 된 걸까요? 왜 제 얼굴은 인식되지 않죠? 59 00:03:06,845 --> 00:03:10,201 자, 우리가 어떻게 기계가 볼 수 있게 하는지 알아보세요. 60 00:03:10,225 --> 00:03:13,634 컴퓨터의 시야는 머신 러닝 기술을 사용해 61 00:03:13,658 --> 00:03:15,538 얼굴을 인식해요. 62 00:03:15,562 --> 00:03:19,459 우리는 여러 예시 얼굴들로 이루어진 연습 세트를 만들어 놓죠. 63 00:03:19,483 --> 00:03:22,301 이건 얼굴이다. 이건 얼굴이다. 이건 얼굴이 아니다. 64 00:03:22,325 --> 00:03:26,844 그리고 시간이 지나면, 컴퓨터에게 얼굴 인식을 가르칠 수 있어요. 65 00:03:26,868 --> 00:03:30,857 하지만, 연습 세트가 그렇게 다양하지 않다면 66 00:03:30,881 --> 00:03:34,230 규정된 표준에서 너무 벗어나는 얼굴들은 67 00:03:34,254 --> 00:03:35,903 인식하기 어려울 거예요. 68 00:03:35,927 --> 00:03:37,890 저한테 일어났던 일과 같죠. 69 00:03:37,914 --> 00:03:40,296 하지만 걱정하지 마세요. 좋은 소식도 있어요. 70 00:03:40,320 --> 00:03:43,091 연습 세트는 하늘에서 뚝 떨어지지 않아요. 71 00:03:43,115 --> 00:03:44,903 우리가 직접 만들 수 있죠. 72 00:03:44,927 --> 00:03:49,103 따라서 전 영역을 아울러 다양한 인류의 얼굴을 반영하는 73 00:03:49,127 --> 00:03:52,951 연습 세트를 만들 기회가 있어요. 74 00:03:52,975 --> 00:03:55,196 여러분은 방금 75 00:03:55,220 --> 00:03:57,558 사회적 로봇이 어떤지 76 00:03:57,558 --> 00:03:59,568 제가 어떻게 알고리즘의 편견에 의한 배제에 대해 알게되었는지 보셨어요. 77 00:04:01,647 --> 00:04:04,317 하지만 알고리즘의 편견은 차별적 관행으로 이어질 수도 있습니다. 78 00:04:07,437 --> 00:04:08,890 미국 전역에서 79 00:04:08,914 --> 00:04:13,112 경찰서들이 범죄 근절의 무기로 80 00:04:13,136 --> 00:04:15,595 얼굴 인식 소프트웨어를 사용하기 시작했어요. 81 00:04:15,619 --> 00:04:17,632 조지타운대 법학센터에 따르면 82 00:04:17,656 --> 00:04:21,443 총 1억1천7백만명에 달하는 미국 성인 둘 중 한 명의 얼굴이 83 00:04:24,443 --> 00:04:27,977 얼굴 인식 네트워크에 올려져 있어요. 84 00:04:28,001 --> 00:04:30,407 경찰은 현재 이 네트워크를 제한 없이 살펴볼 수 있어요. 85 00:04:32,577 --> 00:04:36,863 정확성이 검증되지 않은 알고리즘을 사용하면서요. 86 00:04:36,887 --> 00:04:40,751 우리는 얼굴 인식이 잘못될 수 있다는 것을 알고 있고 87 00:04:40,775 --> 00:04:44,954 얼굴을 일관되게 표시하는 것은 과제로 남아있어요. 88 00:04:44,978 --> 00:04:46,740 아마 페이스북에서 보셨을 거예요. 89 00:04:46,764 --> 00:04:49,752 저와 제 친구들은 다른 사람의 이름이 90 00:04:49,776 --> 00:04:52,234 우리 사진에 표시된 것을 보고 매번 웃어요. 91 00:04:52,258 --> 00:04:55,883 하지만 범죄 용의자를 잘못 파악하는 것은 92 00:04:55,883 --> 00:05:00,700 웃을 일이 아니며 시민의 자유를 침해하죠. 93 00:05:00,724 --> 00:05:03,929 머신러닝은 현재 얼굴인식에 사용되지만 94 00:05:03,953 --> 00:05:08,458 컴퓨터 시각을 넘어선 곳까지 확장되고 있어요. 95 00:05:09,266 --> 00:05:13,282 '대량살상무기 (WMD)'라는 책에서 96 00:05:13,306 --> 00:05:17,011 데이터 과학자 캐시 오닐은 새로운 대량살상무기에 대해서 말해요. 97 00:05:20,011 --> 00:05:24,364 널리 퍼진, 알 수 없는 파괴적인 알고리즘이죠. 98 00:05:24,388 --> 00:05:27,352 이들은 우리 삶에 큰 영향을 미치는 선택에 99 00:05:27,376 --> 00:05:30,113 점점 많이 사용되고 있어요. 100 00:05:30,577 --> 00:05:32,447 누가 고용되고 누가 해고되는가? 101 00:05:32,471 --> 00:05:34,583 빚을 질까? 보험에 가입할까? 102 00:05:34,607 --> 00:05:38,110 원하는 대학에 합격하는가? 103 00:05:38,134 --> 00:05:41,643 여러분과 당신이 같은 상품에 대해서 104 00:05:41,667 --> 00:05:44,109 같은 가격을 지불하는가? 105 00:05:44,133 --> 00:05:47,892 법 집행에서도 예방적 치안을 위해 106 00:05:47,916 --> 00:05:50,205 머신 러닝 사용을 시작했어요. 107 00:05:50,229 --> 00:05:53,723 몇몇 판사들은 기계가 만든 위험 점수를 사용하여 108 00:05:53,747 --> 00:05:57,883 사람들의 형량을 결정하기도 해요. 109 00:05:57,883 --> 00:06:00,627 그래서 우린 이런 선택에 대해 생각해 봐야 해요. 110 00:06:00,651 --> 00:06:01,833 이 선택이 공정한가? 111 00:06:01,857 --> 00:06:04,747 게다가 우리는 알고리즘의 선택이 112 00:06:04,771 --> 00:06:08,145 매번 공정하지는 않다는 걸 봤어요. 113 00:06:08,169 --> 00:06:10,133 그럼 어떻게 해야 할까요? 114 00:06:10,157 --> 00:06:13,837 우리는 포괄적인 코드를 만들고 115 00:06:13,861 --> 00:06:16,851 포괄적인 코딩 선례를 도입해야 해요. 116 00:06:16,875 --> 00:06:19,184 이것은 사람들로부터 시작됩니다. 117 00:06:19,188 --> 00:06:21,669 따라서, 누가 코딩을 하는지가 중요하죠. 118 00:06:21,693 --> 00:06:24,756 우리는 지금 다양한 개인들로 이루어져 119 00:06:24,756 --> 00:06:28,247 서로의 맹점을 볼 수 있는 팀을 만들고 있나요? 120 00:06:28,271 --> 00:06:31,816 기술적인 면에서 우리가 어떻게 코딩을 하는지가 중요해요. 121 00:06:31,840 --> 00:06:35,491 지금 우리는 시스템을 개발하면서 공정함을 염두에 두고 있나요? 122 00:06:35,515 --> 00:06:38,428 마지막으로, 우리가 왜 코딩을 하는지가 중요해요. 123 00:06:38,785 --> 00:06:43,868 우리는 엄청난 부를 위하여 컴퓨터를 도구로 사용했어요. 124 00:06:43,892 --> 00:06:48,339 이제 우리에겐 더 큰 평등을 얻을 기회가 있어요. 125 00:06:48,363 --> 00:06:51,293 우리가 사회적 변화를 미루지 않고 126 00:06:51,317 --> 00:06:53,487 우선순위에 둔다면요. 127 00:06:54,008 --> 00:06:58,530 이 세 가지 요소가 '인코딩' 운동을 구성합니다. 128 00:06:58,554 --> 00:07:00,206 누가 코딩을 하는지 129 00:07:00,230 --> 00:07:01,773 어떻게 코딩을 하는지 130 00:07:01,797 --> 00:07:03,820 왜 코딩을 하는지가 중요해요. 131 00:07:03,844 --> 00:07:05,364 그리고 인코딩을 향해 가며 우리는 편견을 분별하는 플랫폼을 132 00:07:07,707 --> 00:07:10,131 구축할 수 있어요. 133 00:07:10,155 --> 00:07:13,233 제가 공유한 것과 같은 다른 사람들의 경험을 모으고 134 00:07:13,257 --> 00:07:16,327 현존하는 소프트웨어를 검사하면서 말이죠. 135 00:07:16,351 --> 00:07:18,431 우리는 또한 더욱 포용적인 연습 세트를 만들기 시작할 수 있어요. 136 00:07:20,140 --> 00:07:22,943 "포괄적인 셀카" 캠페인을 상상해 보세요. 137 00:07:22,967 --> 00:07:26,622 여러분과 제가 더욱 포용적인 연습 세트를 만드는 데 138 00:07:26,646 --> 00:07:29,099 셀카를 보내면서 도움을 줄 수 있는 거예요. 139 00:07:29,302 --> 00:07:33,000 그리고 우리가 개발하는 기술의 사회적 영향에 대해 140 00:07:33,000 --> 00:07:36,885 보다 양심적으로 생각할 수 있어요. 141 00:07:37,569 --> 00:07:39,962 인코딩 운동을 시작하기 위해서 142 00:07:39,986 --> 00:07:42,833 저는 알고리즘 정의 연합을 창설했어요. 143 00:07:42,857 --> 00:07:45,753 공정함을 중요시 여기는 사람 누구든 '코딩된 시선'에 맞서 싸우는 걸 도와줍니다. 144 00:07:48,643 --> 00:07:49,963 codedgaze.com에서 편견을 보고하거나 145 00:07:51,453 --> 00:07:53,033 검사를 요청하거나 테스터가 될 수 있으며 146 00:07:54,542 --> 00:07:57,313 진행되는 대화에 참여할 수도 있어요. 147 00:07:57,337 --> 00:07:59,624 해시태그 codedgaze입니다. 148 00:08:00,742 --> 00:08:03,229 그래서 저는 여러분이 저와 함께 149 00:08:03,253 --> 00:08:05,996 기술이 일부만이 아닌 150 00:08:05,996 --> 00:08:08,893 모두를 위해 쓰이는 세상을 151 00:08:08,917 --> 00:08:11,439 포용성을 중요시여기고 사회적 변화를 중시하는 세상을 만드는데 동참하셨으면 합니다. 152 00:08:13,529 --> 00:08:14,704 감사합니다. 153 00:08:14,728 --> 00:08:18,999 (박수) 154 00:08:20,873 --> 00:08:23,727 하지만 여러분에게 질문이 하나 있어요. 155 00:08:23,751 --> 00:08:25,810 여러분은 이 싸움에 동참하실 건가요? 156 00:08:25,834 --> 00:08:27,119 (웃음) 157 00:08:27,143 --> 00:08:30,830 (박수)