WEBVTT 00:00:00.875 --> 00:00:04.643 여러분은 인공지능의 도움을 받아서 00:00:04.667 --> 00:00:07.268 오늘이나 이번 주 혹은 올해 00:00:07.292 --> 00:00:09.250 얼마나 많은 결정을 내리셨나요? 00:00:10.958 --> 00:00:12.643 제 직업은 인공지능을 구축하는 것입니다. 00:00:12.667 --> 00:00:15.684 그러니까 밝히자면 좀 범생이에요. 00:00:15.708 --> 00:00:18.101 제가 범생이라서 00:00:18.125 --> 00:00:23.966 새로운 뉴스에서 인공지능이 일자리를 뺏는다거나 00:00:23.966 --> 00:00:28.143 실제 국가의 시민권을 획득한다거나 하는 00:00:28.167 --> 00:00:31.309 뉴스가 나오면 친구들과 주변인들이 00:00:31.333 --> 00:00:33.715 그렇게 될까 봐 기겁해서 저에게 메시지를 보내요. NOTE Paragraph 00:00:33.833 --> 00:00:35.934 로봇 과다 현상이 세상을 점령한다는 00:00:35.958 --> 00:00:40.851 미디어 공포 현상은 여기저기에 만연해 있어요. 00:00:40.875 --> 00:00:42.792 할리우드로 비난의 화살을 돌리기도 합니다. 00:00:44.125 --> 00:00:48.250 하지만 현실은 그걸 걱정할 때가 아닙니다. 00:00:49.250 --> 00:00:52.893 인공지능에는 더 큰 위험이 도사리고 있는데 00:00:52.917 --> 00:00:54.500 이것부터 고쳐야 합니다. 00:00:55.417 --> 00:00:57.726 이 질문으로 돌아가 볼게요. 00:00:57.750 --> 00:01:02.458 여러분은 오늘 인공지능 도움으로 얼마나 많은 결정을 내렸나요? 00:01:03.792 --> 00:01:05.768 얼마나 많은 결정이 00:01:05.792 --> 00:01:10.292 성별, 인종, 배경에 기반해서 이루어졌나요? NOTE Paragraph 00:01:12.500 --> 00:01:15.268 알고리즘은 항상 우리가 누구이고 00:01:15.292 --> 00:01:19.125 무엇을 원하는지 결정을 내리는데 이용됩니다. 00:01:20.208 --> 00:01:23.851 여기 계신 몇몇 여성분들은 무슨 말인지 아실 거예요. 00:01:23.875 --> 00:01:27.643 유튜브로 임신 테스트를 00:01:27.667 --> 00:01:29.726 한 1,000번 정도 했는지 00:01:29.750 --> 00:01:32.601 또는 페이스북에서 가임 클리닉 광고를 보고 00:01:32.625 --> 00:01:34.667 스크롤을 내리며 지나쳤는지와 같은 것들 말입니다. 00:01:35.625 --> 00:01:38.018 아니면 제 경우에는 인도 결혼 상담소가 있어요. NOTE Paragraph 00:01:38.042 --> 00:01:39.309 (웃음) NOTE Paragraph 00:01:39.333 --> 00:01:42.309 인공지능은 단지 무엇을 살지 또는 00:01:42.333 --> 00:01:43.628 무슨 티브이 프로그램을 돌려가며 볼지에 대해 00:01:43.628 --> 00:01:48.792 결정을 내리는 데에만 활용되는 것이 아닙니다. 00:01:48.792 --> 00:01:53.580 누가 이런 생각을 한다면 어떨지 한 번 생각해보세요. 00:01:53.580 --> 00:01:56.318 "흑인이나 라틴계 사람이 00:01:56.338 --> 00:02:00.742 백인보다 대출금을 제때 잘 갚지 않는다." 00:02:00.782 --> 00:02:03.785 "존이라는 사람이 메리라는 사람보다 00:02:03.785 --> 00:02:06.760 더 나은 프로그래머다." 00:02:06.760 --> 00:02:14.098 "흑인 남성은 백인 남성보다 더 자주 범죄를 되풀이한다." 00:02:14.098 --> 00:02:16.100 그러면 여러분은 아마 이렇게 생각하실 겁니다. 00:02:16.100 --> 00:02:20.970 "와, 그건 성차별적이고 인종차별적인 발언이야."라고요. 00:02:21.120 --> 00:02:25.225 최근에 인공지능이 내린 결정 중에서는 00:02:25.225 --> 00:02:28.053 우리 인간에게 배운 편향에 00:02:28.053 --> 00:02:30.823 의한 것이었습니다. 00:02:30.980 --> 00:02:35.943 인공지능은 구직 면접을 받을지 여부와 00:02:35.943 --> 00:02:38.880 자동차 보험에 얼마를 지불할지, 00:02:38.880 --> 00:02:40.483 신용 점수는 얼마나 좋은지 00:02:40.483 --> 00:02:44.928 심지어 연례 실적 평가로 몇 점을 주어야 할 지도 결정합니다. 00:02:44.983 --> 00:02:48.056 하지만 이러한 결정들이 우리의 정체성, 인종, 성별, 나이에 00:02:48.056 --> 00:02:54.101 근거한 추측을 거쳐서 만들어집니다. 00:02:55.860 --> 00:02:57.942 어떻게 이런 일이 일어나는 걸까요? NOTE Paragraph 00:02:57.942 --> 00:03:02.059 이제 한 채용 담당자가 회사의 차기 기술 선도자를 00:03:02.083 --> 00:03:04.428 뽑는데 인공지능이 관여한다고 상상해보세요. 00:03:04.428 --> 00:03:08.059 지금까지 채용 담당자는 대부분 남자였습니다. 00:03:08.083 --> 00:03:13.273 그래서 인공지능은 프로그래머가 대부분 여자가 아닌 남자라고 배웁니다. 00:03:13.432 --> 00:03:16.434 여기서 매우 짧은 도약으로 인공지능은 00:03:16.458 --> 00:03:19.370 남자가 여자보다 더 나은 프로그래머라는 결정을 내립니다. 00:03:19.417 --> 00:03:23.143 우리의 편향을 인공지능에 보강하고 있었던 겁니다. 00:03:23.143 --> 00:03:28.048 이제, 여성 후보자들을 선별합니다. 00:03:28.117 --> 00:03:32.158 잠시만요, 만약 인간 채용 담당자가 그랬다면 00:03:32.158 --> 00:03:33.973 우리는 분노하며 허용하지 않을 것입니다. 00:03:34.013 --> 00:03:36.933 이러한 성차별은 옳지 않습니다. 00:03:36.933 --> 00:03:42.025 히지만 어쩐 일인지 인공지능이 법 우위에 서게 되었습니다. 00:03:42.025 --> 00:03:44.828 왜냐하면 기계가 결정을 내리니까요. 00:03:44.853 --> 00:03:46.745 이게 다가 아닙니다. NOTE Paragraph 00:03:46.745 --> 00:03:52.557 우리는 또한 인공지능과 상호 작용 하는데 편향을 강화하고 있습니다. 00:03:52.557 --> 00:03:58.277 시리, 알렉사, 코타나와 같은 음성 비서를 얼마나 자주 사용하나요? 00:03:58.277 --> 00:04:01.250 이러한 음성 보조 장치에는 전부 두 가지 공통점이 있습니다. 00:04:01.250 --> 00:04:04.235 첫째, 내 이름을 전혀 올바르게 발음하지 못합니다. 00:04:04.235 --> 00:04:07.512 둘째, 모두 여자입니다. 00:04:07.627 --> 00:04:10.658 우리에게 순종하는 하인이 되도록 설계되어 00:04:10.658 --> 00:04:14.458 명령에 따라 전등을 켜고 끄고, 장을 대신 보기도 합니다. 00:04:14.515 --> 00:04:18.308 남성 인공지능도 있지만 더 책임이 막중한 일을 맡습니다. 00:04:18.308 --> 00:04:21.701 IBM 왓슨처럼 사업 의사 결정을 내리거나 00:04:21.701 --> 00:04:25.543 판매 담당자 아인슈타인이나 로봇 변호사 로스가 됩니다. 00:04:25.668 --> 00:04:29.762 불쌍한 로봇들, 직장에서도 성차별로 고통받는군요. NOTE Paragraph 00:04:29.762 --> 00:04:31.527 (웃음) NOTE Paragraph 00:04:31.662 --> 00:04:35.137 이 두 가지가 결합해서 인공지능이 존재하는 오늘날 00:04:35.137 --> 00:04:40.100 자라나는 어린이에게 어떤 영향을 미칠지 생각해보세요. 00:04:40.100 --> 00:04:43.458 아이들은 학교 프로젝트를 위해 조사를 합니다. 00:04:43.458 --> 00:04:46.530 최고경영자 이미지를 구글링합니다. 00:04:46.530 --> 00:04:49.447 알고리즘은 대부분 남성을 보여줍니다. 00:04:49.447 --> 00:04:51.850 그리고 이제 아이들은 개인 비서를 구글링합니다. 00:04:51.850 --> 00:04:54.928 예상하신 대로 대부분 여성을 보여줍니다. 00:04:54.928 --> 00:04:58.913 그리고 아이들은 음악도 넣고 음식도 주문하고 싶을 거예요. 00:04:58.913 --> 00:05:07.077 순종적인 여성 음성 비서에게 아이들은 소리쳐 주문합니다. 00:05:07.182 --> 00:05:12.851 몇몇의 뛰어난 지성인들이 오늘날 이 기술을 창조합니다. 00:05:12.875 --> 00:05:17.059 그들이 원하는 대로 기술을 창조할 수 있습니다. 00:05:17.083 --> 00:05:22.582 그런데도 굳이 1950년대 "매드 맨" 비서 스타일로 만들기로 선택했네요. 00:05:22.582 --> 00:05:24.008 만세! NOTE Paragraph 00:05:24.008 --> 00:05:25.982 하지만 괜찮아요, 걱정 마세요 00:05:25.982 --> 00:05:28.351 제가 말씀드리려는 것은 이게 끝이 아닙니다. 00:05:28.375 --> 00:05:32.202 성차별적이고 인종차별적인 기계가 세상을 움직인다고 말씀드렸지만 00:05:32.252 --> 00:05:39.187 인공지능에 대한 좋은 소식은 우리가 전적으로 통제할 수 있다는 것입니다. 00:05:39.317 --> 00:05:44.173 인공지능에게 올바른 가치와 윤리관을 가르칠 수 있습니다. 00:05:44.263 --> 00:05:46.143 여기에 우리가 할 수 있는 세 가지가 있습니다. 00:05:46.143 --> 00:05:49.961 첫째, 우리 고유의 편향을 인지하고 00:05:49.961 --> 00:05:52.706 우리 주변에 있는 기계가 가진 편향을 인지할 수 있습니다. 00:05:52.706 --> 00:05:57.716 둘째, 다양한 팀이 이러한 기술을 구축하도록 할 수 있습니다. 00:05:57.716 --> 00:06:02.738 셋째, 기계가 배울 수 있도록 다양한 경험을 제공해야 합니다. 00:06:02.738 --> 00:06:06.718 제 개인적인 경험을 통해 첫 번째와 두 번째에 대해 말씀드릴게요. 00:06:06.718 --> 00:06:08.214 기술 분야에서 일을 할 때 00:06:08.214 --> 00:06:10.883 여러분은 마크 주커버그나 엘론 머스크처럼 생기지 않았다면 00:06:10.937 --> 00:06:15.559 삶은 조금 더 어렵고 능력도 의심받습니다. 00:06:15.559 --> 00:06:17.553 하나의 예를 들어볼게요. NOTE Paragraph 00:06:17.553 --> 00:06:21.128 대부분의 개발자처럼 저도 온라인 기술 포럼에 참여해서 00:06:21.152 --> 00:06:24.018 타인을 돕기 위해 지식을 공유합니다. 00:06:24.082 --> 00:06:25.438 그리고 제가 발견한 것은 00:06:25.482 --> 00:06:29.431 제 사진과 이름을 공개하고 로그인할 때 00:06:29.505 --> 00:06:33.481 다음과 같은 질문이나 말을 듣는다는 것입니다. 00:06:33.585 --> 00:06:38.146 "어떻게 당신이 인공지능에 대해 말할 자격이 있다고 생각하는 거죠?" 00:06:38.146 --> 00:06:41.150 "어떻게 당신이 기계 학습에 대해 안다고 생각하는 거죠?" 00:06:41.150 --> 00:06:45.214 그래서 여러분처럼 저도 새로운 프로필을 만들었습니다. 00:06:45.214 --> 00:06:50.073 이번에는 제 사진 대신 제트 팩을 메고 있는 고양이 사진을 선택했어요. 00:06:50.073 --> 00:06:53.188 그리고 제 성별을 알 수 없는 이름을 선택했어요. 00:06:53.188 --> 00:06:56.570 무슨 일이 벌어질지 예상되시죠? 00:06:56.570 --> 00:07:03.103 이번에는 제 능력을 깔보는 말을 하는 사람이 없었어요. 00:07:03.257 --> 00:07:07.189 그리고 실제로 몇 가지 일도 완수할 수 있었고요. 00:07:07.233 --> 00:07:09.227 이건 정말 짜증 나는 일이에요. 00:07:09.270 --> 00:07:11.261 전 15살 때부터 로봇을 만들어 왔고 00:07:11.261 --> 00:07:14.041 컴퓨터 과학 분야에 학위도 몇 개 갖고 있어요. 00:07:14.095 --> 00:07:16.673 그럼에도 제 성별을 숨겨야만 했어요. 00:07:16.673 --> 00:07:19.621 그래야 제 일이 진지하게 받아들여지니까요. 00:07:19.621 --> 00:07:21.695 여기에 무슨 일이 일어나고 있는 건가요? NOTE Paragraph 00:07:21.695 --> 00:07:25.938 기술 면에서 남자가 여자보다 더 뛰어나나요? 00:07:25.958 --> 00:07:27.790 다른 연구에서 발견한 사실은 00:07:27.790 --> 00:07:32.236 플랫폼에서 여성 프로그래머들이 저처럼 자기 성별을 숨길 때 00:07:32.236 --> 00:07:36.394 코딩이 남자보다 4% 더 많이 받아들여졌어요. 00:07:36.448 --> 00:07:39.418 그러니까 이건 재능에 관한 게 아니에요. 00:07:39.472 --> 00:07:42.538 이것은 인공지능에 있는 엘리트 의식에 관한 거예요. 00:07:42.538 --> 00:07:47.111 그건 프로그래머가 특정한 사람처럼 보여야 한다는 것을 의미하죠. 00:07:47.195 --> 00:07:50.137 더 나은 인공지능을 만들기 위해 우리가 해야 할 일은 00:07:50.195 --> 00:07:54.136 각기 다른 배경에서 자란 모든 사람들을 데려오는 겁니다. 00:07:54.150 --> 00:07:56.692 인공지능의 개성을 만들도록 도와줄 00:07:56.722 --> 00:07:59.611 글을 쓰고 이야기를 할 수 있는 사람을 필요로 합니다. 00:07:59.665 --> 00:08:02.622 문제를 해결할 수 있는 사람을 필요로 합니다. 00:08:02.708 --> 00:08:06.290 다른 도전을 마주하고 00:08:06.290 --> 00:08:12.263 고쳐야 하는 진짜 문제에 대해 말해줄 수 있고, 00:08:12.407 --> 00:08:17.778 그걸 고칠 수 있는 기술을 찾도록 도와줄 사람을 필요로 합니다. 00:08:17.778 --> 00:08:21.343 왜냐하면 다양한 배경을 가진 사람들이 모일 때, 00:08:21.343 --> 00:08:23.619 우리가 올바른 것들을 만들 수 있을 때, 00:08:23.619 --> 00:08:26.056 가능성은 무궁무진하기 때문입니다. 00:08:26.130 --> 00:08:30.052 이것이 여러분에게 말씀드리며 끝맺고 싶은 이야기입니다. NOTE Paragraph 00:08:30.110 --> 00:08:33.979 덜 인종차별적인 로봇, 우리 일자리를 덜 빼앗아 갈 기계 00:08:34.053 --> 00:08:37.938 그리고 우리가 실제로 성취할 수 있는 더 많은 기술에 대한 것입니다. 00:08:37.972 --> 00:08:40.917 맞아요, 인공지능의 세계와 기술의 세계에서 00:08:40.962 --> 00:08:42.656 일부 에너지는 00:08:42.750 --> 00:08:47.113 여러분이 스트림에서 볼 수 있는 광고에 쓰일 것입니다. 00:08:47.113 --> 00:08:53.164 하지만 그중 많은 에너지는 더 나은 세상을 만드는데 쓰입니다. 00:08:53.164 --> 00:08:57.187 콩고 민주 공화국에 있는 임산부를 생각해보세요. 00:08:57.187 --> 00:09:01.168 가장 가까운 시골 산전 클리닉에 가려면 17시간을 걸어야 합니다. 00:09:01.168 --> 00:09:03.126 검진받기 위해서요. 00:09:03.126 --> 00:09:07.631 만약 임산부가 그 대신 전화로 진단받을 수 있다면 어떨까요? 00:09:07.631 --> 00:09:09.640 아니면 인공지능이 할 수 있는 일을 생각해 보세요. 00:09:09.640 --> 00:09:12.259 남아프리카 여성 3명 중 1명은 00:09:12.259 --> 00:09:15.189 가정 폭력에 노출되어 있습니다. 00:09:15.189 --> 00:09:17.208 만약 크게 소리 내어 말하는 것이 안전하지 않다면 00:09:17.208 --> 00:09:19.609 인공지능 서비스를 이용해 경보를 울려 00:09:19.713 --> 00:09:22.499 재정과 법률 상담을 받을 수 있습니다. 00:09:22.593 --> 00:09:28.382 이것은 현재 저를 포함해 사람들이 인공지능을 이용해 00:09:28.448 --> 00:09:33.676 작업하고 있는 프로젝트의 실제 사례입니다. 00:09:33.676 --> 00:09:37.680 며칠 뒤에 또 다른 보도 기사가 있을 거라 확신합니다. NOTE Paragraph 00:09:37.680 --> 00:09:39.613 로봇이 여러분의 일자리를 점령하러 오는 것에 대한 00:09:39.613 --> 00:09:42.235 실존적인 위험에 대해서요. 00:09:42.235 --> 00:09:43.233 (웃음) NOTE Paragraph 00:09:43.233 --> 00:09:45.201 그런 일이 일어날 때, NOTE Paragraph 00:09:45.201 --> 00:09:48.884 미래에 대해 걱정하는 똑같은 메시지를 받게 될 것도 압니다. 00:09:48.928 --> 00:09:54.809 하지만 저는 이 기술에 대해 매우 긍정적입니다. 00:09:54.913 --> 00:10:02.120 이것이야말로 세상을 더 평등한 곳으로 만들 기회입니다. 00:10:02.268 --> 00:10:07.277 하지만 그러기 위해서는 처음부터 올바른 방법으로 만들어야 합니다. 00:10:07.368 --> 00:10:14.048 다른 성별, 인종, 성적 취향, 배경 출신의 사람들을 필요로 합니다. 00:10:14.197 --> 00:10:17.120 여성이 제작자가 되어야 합니다. 00:10:17.120 --> 00:10:21.804 단지 제작자 입찰을 하는 기계뿐만이 아니라 말이죠. 00:10:21.804 --> 00:10:25.348 우리는 기계에게 무엇을 가르치고 어떤 데이터를 제공할지에 대해 00:10:25.435 --> 00:10:27.263 매우 신중하게 생각해야 합니다. 00:10:27.367 --> 00:10:32.173 과거와 같은 실수를 하지 않기 위해서 말이죠. 00:10:32.173 --> 00:10:36.328 여러분에게 생각할 거리 두 가지를 드릴게요. 00:10:36.328 --> 00:10:41.007 첫째, 오늘날 편향에 대해 생각해보시길 바랍니다. 00:10:41.142 --> 00:10:44.681 그리고 다음번에 여러분이 관심 있어 할 거라 가정하는 00:10:44.681 --> 00:10:47.733 불임 클리닉 광고나 00:10:47.733 --> 00:10:50.433 온라인 도박 웹사이트 광고를 스크롤 하며 지나칠 때 00:10:50.433 --> 00:10:52.168 생각하고 기억해주세요. 00:10:52.168 --> 00:10:57.399 같은 기술이 흑인은 다시 법을 위반할 것이라고 가정한다는 것을, 00:10:57.453 --> 00:11:02.398 또는 최고경영자의 개인 비서는 여성일 가능성이 많다고 가정한다는 것을요. 00:11:02.453 --> 00:11:08.650 이것에 대해 우리는 무언가를 해야 한다는 것도 기억해주세요. 00:11:08.650 --> 00:11:10.167 두 번째로, NOTE Paragraph 00:11:10.197 --> 00:11:12.658 다음과 같은 사실을 기억해 주시길 바랍니다. 00:11:12.658 --> 00:11:14.974 여러분은 어떤 특정한 사람처럼 보여야 하거나 00:11:14.974 --> 00:11:18.254 특정한 공학이나 기술 배경을 가져야만 00:11:18.254 --> 00:11:19.599 미래를 위한 놀랄 만한 세력이 될 인공지능을 00:11:19.599 --> 00:11:23.531 만들 수 있는 것이 아니라는 것을 말입니다. 00:11:23.655 --> 00:11:26.240 마크 주커버그처럼 생기지 않아도 되고 00:11:26.240 --> 00:11:28.589 그냥 저처럼 생겨도 됩니다. 00:11:28.589 --> 00:11:31.603 이 공간에 있는 모두에게 달렸습니다. 00:11:31.614 --> 00:11:35.117 정부와 기업을 설득해서 00:11:35.117 --> 00:11:38.013 모두를 위한 인공지능 기술을 구축하도록 하는 것 말입니다. 00:11:38.013 --> 00:11:40.319 엣지 케이스를 포함해서요. 00:11:40.319 --> 00:11:45.590 그리고 우리는 이런 놀라운 미래 기술에 대해 교육받아야 합니다. 00:11:45.652 --> 00:11:48.237 왜냐하면 우리가 그렇게 할 경우, 그것은 00:11:48.237 --> 00:11:53.094 우리가 인공지능으로 성취할 수 있는 것에 대한 시작이기 때문입니다. 00:11:53.094 --> 00:11:54.481 감사합니다. NOTE Paragraph 00:11:54.481 --> 00:11:57.373 (박수)