제가 알고리즘의 편견과 싸우는 방법
-
0:01 - 0:04안녕하세요.
코드의 시인, 조이입니다. -
0:04 - 0:07저는 보이지 않는 힘이 일어나는 것을
-
0:07 - 0:09막기 위한 사명을 띠고 있어요.
-
0:09 - 0:12제가 '코드화된 시선'이라
부르는 힘인데요. -
0:12 - 0:15다른 사람은
알고리즘의 편견이라 부르죠. -
0:15 - 0:17알고리즘의 편견은 인간의 편견처럼
불평등을 초래하지만 -
0:20 - 0:23알고리즘은 바이러스처럼 대규모의
편견을 빠른 속도로 퍼뜨릴 수 있어요. -
0:28 - 0:31또한, 알고리즘의 편견은
자신이 배제되는 경험이나 -
0:31 - 0:34차별적인 대우로 이어질 수 있어요.
-
0:35 - 0:37자세히 설명해 드리죠.
-
0:37 - 0:40(비디오) 안녕, 카메라야.
이게 내 얼굴이야. -
0:40 - 0:42내 얼굴이 보이니?
-
0:42 - 0:44안경을 벗으면 보이니?
-
0:44 - 0:46이 친구의 얼굴은 보이잖아.
-
0:46 - 0:48내 얼굴은 보여?
-
0:52 - 0:56그럼 가면을 쓸게.
내 가면이 보이니? -
0:56 - 0:59이런 일이 왜 일어난 걸까요?
-
0:59 - 1:02제가 왜 컴퓨터 앞에 앉아서
-
1:02 - 1:03하얀 가면을 쓰고
-
1:03 - 1:07싸구려 웹캠에 인식이 되도록
노력하고 있을까요? -
1:07 - 1:09제가 코드의 시인으로서
-
1:09 - 1:11'코드화된 시선'과 싸우기 전에
-
1:11 - 1:14저는 MIT 미디어랩의
대학원생이었어요. -
1:14 - 1:19그곳에서 많은 기발한 프로젝트에
참여할 수 있었는데 -
1:19 - 1:21염원의 거울도 있었습니다.
-
1:21 - 1:26제가 참여한 프로젝트로, 거울에 비친 제
모습에 디지털 가면을 씌우는 것이죠. -
1:26 - 1:29아침에 힘찬 느낌을 원하면
-
1:29 - 1:30사자 가면을 씌울 수 있고
-
1:30 - 1:34희망찬 느낌을 받고 싶다면
명언을 띄울 수 있었죠. -
1:34 - 1:37저는 일반적인 얼굴 인식
소프트웨어를 사용하여 -
1:37 - 1:38시스템을 만들었지만
-
1:38 - 1:41제가 흰 가면을 쓰지 않으면
굉장히 테스트하기 어려웠어요. -
1:44 - 1:46불행하게도, 저는 전에도
이런 문제에 부딪힌 적이 있어요. -
1:49 - 1:50제가 조지아 공대에서
컴퓨터 공학 전공생이었을 때 -
1:53 - 1:55저는 사회적 로봇을 연구했어요.
-
1:55 - 1:57과제들 중 하나는 까꿍놀이하는
로봇을 만들기였죠. -
1:59 - 2:01간단한 순서 교대 게임으로,
-
2:01 - 2:02얼굴을 가렸다가 보이며
"까꿍!"이라고 말하는 게임이죠. -
2:05 - 2:09문제는, 까꿍 놀이는 제가 여러분의
얼굴을 볼 수 있어야 하는데 -
2:09 - 2:12로봇이 저를 보지 못했어요.
-
2:12 - 2:16하지만 저는 룸메이트의 얼굴을
빌려서 프로젝트를 끝냈고 -
2:16 - 2:17과제를 제출한 다음
-
2:17 - 2:21다른 누군가가 이 문제를 해결하겠지
라고 생각했어요. -
2:22 - 2:24그로부터 오래 지나지 않아
-
2:24 - 2:28창업 대회 참가를 위해 홍콩에 갔어요.
-
2:28 - 2:30주최 측은 참여자들이
-
2:30 - 2:33그 지역의 스타트업 기업들을
방문하도록 했어요. -
2:33 - 2:36한 스타트업에 사회적 로봇이 있었고
-
2:36 - 2:38시범을 보여주기로 했어요.
-
2:38 - 2:41로봇은 모두에게 잘 작동했죠.
저만 빼고요. -
2:41 - 2:43아마 짐작하셨을 거예요.
-
2:43 - 2:46제 얼굴을 인식하지 못했어요.
-
2:46 - 2:49저는 개발자들에게
무슨 일이냐고 물었고 -
2:49 - 2:54제가 썼던 그 얼굴 인식
소프트웨어를 쓴 게 문제였어요. -
2:54 - 2:56지구 반대편에서
-
2:56 - 3:00저는 알고리즘의 편견이 인터넷에서
파일을 다운로드받는 것처럼 -
3:00 - 3:03빠르게 퍼질 수
있다는 걸 알았어요. -
3:04 - 3:05어떻게 된 걸까요?
왜 제 얼굴은 인식되지 않죠? -
3:07 - 3:10자, 우리가 어떻게 기계가 볼 수
있게 하는지 알아보세요. -
3:10 - 3:14컴퓨터의 시야는
머신 러닝 기술을 사용해 -
3:14 - 3:16얼굴을 인식해요.
-
3:16 - 3:19우리는 여러 예시 얼굴들로 이루어진
연습 세트를 만들어 놓죠. -
3:19 - 3:22이건 얼굴이다. 이건 얼굴이다.
이건 얼굴이 아니다. -
3:22 - 3:27그리고 시간이 지나면, 컴퓨터에게
얼굴 인식을 가르칠 수 있어요. -
3:27 - 3:31하지만, 연습 세트가
그렇게 다양하지 않다면 -
3:31 - 3:34규정된 표준에서 너무 벗어나는 얼굴들은
-
3:34 - 3:36인식하기 어려울 거예요.
-
3:36 - 3:38저한테 일어났던 일과 같죠.
-
3:38 - 3:40하지만 걱정하지 마세요.
좋은 소식도 있어요. -
3:40 - 3:43연습 세트는 하늘에서
뚝 떨어지지 않아요. -
3:43 - 3:45우리가 직접 만들 수 있죠.
-
3:45 - 3:49따라서 전 영역을 아울러
다양한 인류의 얼굴을 반영하는 -
3:49 - 3:53연습 세트를 만들 기회가 있어요.
-
3:53 - 3:55여러분은 방금
-
3:55 - 3:58사회적 로봇이 어떤지
-
3:58 - 4:00제가 어떻게 알고리즘의 편견에 의한
배제에 대해 알게되었는지 보셨어요. -
4:02 - 4:04하지만 알고리즘의 편견은 차별적
관행으로 이어질 수도 있습니다. -
4:07 - 4:09미국 전역에서
-
4:09 - 4:13경찰서들이 범죄 근절의 무기로
-
4:13 - 4:16얼굴 인식 소프트웨어를
사용하기 시작했어요. -
4:16 - 4:18조지타운대 법학센터에 따르면
-
4:18 - 4:21총 1억1천7백만명에 달하는
미국 성인 둘 중 한 명의 얼굴이 -
4:24 - 4:28얼굴 인식 네트워크에
올려져 있어요. -
4:28 - 4:30경찰은 현재 이 네트워크를
제한 없이 살펴볼 수 있어요. -
4:33 - 4:37정확성이 검증되지 않은
알고리즘을 사용하면서요. -
4:37 - 4:41우리는 얼굴 인식이 잘못될 수
있다는 것을 알고 있고 -
4:41 - 4:45얼굴을 일관되게 표시하는 것은
과제로 남아있어요. -
4:45 - 4:47아마 페이스북에서 보셨을 거예요.
-
4:47 - 4:50저와 제 친구들은 다른 사람의 이름이
-
4:50 - 4:52우리 사진에 표시된 것을
보고 매번 웃어요. -
4:52 - 4:56하지만 범죄 용의자를
잘못 파악하는 것은 -
4:56 - 5:01웃을 일이 아니며
시민의 자유를 침해하죠. -
5:01 - 5:04머신러닝은 현재
얼굴인식에 사용되지만 -
5:04 - 5:08컴퓨터 시각을 넘어선 곳까지
확장되고 있어요. -
5:09 - 5:13'대량살상무기 (WMD)'라는 책에서
-
5:13 - 5:17데이터 과학자 캐시 오닐은
새로운 대량살상무기에 대해서 말해요. -
5:20 - 5:24널리 퍼진, 알 수 없는
파괴적인 알고리즘이죠. -
5:24 - 5:27이들은 우리 삶에
큰 영향을 미치는 선택에 -
5:27 - 5:30점점 많이 사용되고 있어요.
-
5:31 - 5:32누가 고용되고 누가 해고되는가?
-
5:32 - 5:35빚을 질까?
보험에 가입할까? -
5:35 - 5:38원하는 대학에 합격하는가?
-
5:38 - 5:42여러분과 당신이 같은 상품에 대해서
-
5:42 - 5:44같은 가격을 지불하는가?
-
5:44 - 5:48법 집행에서도 예방적 치안을 위해
-
5:48 - 5:50머신 러닝 사용을 시작했어요.
-
5:50 - 5:54몇몇 판사들은 기계가 만든
위험 점수를 사용하여 -
5:54 - 5:58사람들의 형량을 결정하기도 해요.
-
5:58 - 6:01그래서 우린 이런 선택에
대해 생각해 봐야 해요. -
6:01 - 6:02이 선택이 공정한가?
-
6:02 - 6:05게다가 우리는 알고리즘의 선택이
-
6:05 - 6:08매번 공정하지는 않다는 걸 봤어요.
-
6:08 - 6:10그럼 어떻게 해야 할까요?
-
6:10 - 6:14우리는 포괄적인 코드를 만들고
-
6:14 - 6:17포괄적인 코딩 선례를 도입해야 해요.
-
6:17 - 6:19이것은 사람들로부터 시작됩니다.
-
6:19 - 6:22따라서, 누가 코딩을
하는지가 중요하죠. -
6:22 - 6:25우리는 지금 다양한 개인들로 이루어져
-
6:25 - 6:28서로의 맹점을 볼 수 있는
팀을 만들고 있나요? -
6:28 - 6:32기술적인 면에서 우리가 어떻게
코딩을 하는지가 중요해요. -
6:32 - 6:35지금 우리는 시스템을 개발하면서
공정함을 염두에 두고 있나요? -
6:36 - 6:38마지막으로, 우리가 왜 코딩을
하는지가 중요해요. -
6:39 - 6:44우리는 엄청난 부를 위하여
컴퓨터를 도구로 사용했어요. -
6:44 - 6:48이제 우리에겐 더 큰 평등을
얻을 기회가 있어요. -
6:48 - 6:51우리가 사회적 변화를 미루지 않고
-
6:51 - 6:53우선순위에 둔다면요.
-
6:54 - 6:59이 세 가지 요소가
'인코딩' 운동을 구성합니다. -
6:59 - 7:00누가 코딩을 하는지
-
7:00 - 7:02어떻게 코딩을 하는지
-
7:02 - 7:04왜 코딩을 하는지가 중요해요.
-
7:04 - 7:05그리고 인코딩을 향해 가며
우리는 편견을 분별하는 플랫폼을 -
7:08 - 7:10구축할 수 있어요.
-
7:10 - 7:13제가 공유한 것과 같은
다른 사람들의 경험을 모으고 -
7:13 - 7:16현존하는 소프트웨어를
검사하면서 말이죠. -
7:16 - 7:18우리는 또한 더욱 포용적인 연습 세트를
만들기 시작할 수 있어요. -
7:20 - 7:23"포괄적인 셀카" 캠페인을
상상해 보세요. -
7:23 - 7:27여러분과 제가 더욱 포용적인
연습 세트를 만드는 데 -
7:27 - 7:29셀카를 보내면서
도움을 줄 수 있는 거예요. -
7:29 - 7:33그리고 우리가 개발하는 기술의
사회적 영향에 대해 -
7:33 - 7:37보다 양심적으로 생각할 수 있어요.
-
7:38 - 7:40인코딩 운동을 시작하기 위해서
-
7:40 - 7:43저는 알고리즘 정의 연합을 창설했어요.
-
7:43 - 7:46공정함을 중요시 여기는 사람 누구든
'코딩된 시선'에 맞서 싸우는 걸 도와줍니다. -
7:49 - 7:50codedgaze.com에서
편견을 보고하거나 -
7:51 - 7:53검사를 요청하거나
테스터가 될 수 있으며 -
7:55 - 7:57진행되는 대화에 참여할 수도 있어요.
-
7:57 - 8:00해시태그 codedgaze입니다.
-
8:01 - 8:03그래서 저는 여러분이 저와 함께
-
8:03 - 8:06기술이 일부만이 아닌
-
8:06 - 8:09모두를 위해 쓰이는 세상을
-
8:09 - 8:11포용성을 중요시여기고 사회적 변화를
중시하는 세상을 만드는데 동참하셨으면 합니다. -
8:14 - 8:15감사합니다.
-
8:15 - 8:19(박수)
-
8:21 - 8:24하지만 여러분에게 질문이 하나 있어요.
-
8:24 - 8:26여러분은 이 싸움에 동참하실 건가요?
-
8:26 - 8:27(웃음)
-
8:27 - 8:31(박수)
- Title:
- 제가 알고리즘의 편견과 싸우는 방법
- Speaker:
- 조이 부오라뮈니 (Joy Buolamwini)
- Description:
-
MIT 대학원생인 조이 부오라뮈니는 얼굴 인식 소프트웨어에 대해서 연구하다가 문제를 발견했습니다. 소프트웨어가 그녀의 얼굴을 인식하지 못했던 것이죠. 알고리즘을 작성했던 사람들이 여러 피부 색상과 안면 구조를 인식하는 것을 알려주지 않았기 때문이었습니다. 이제 그녀는 그녀가 '코드화된 시선'이라 부르는 머신러닝의 편견에 대항하고 있습니다. 이는 알고리즘이 우리 삶에서 점점 많은 부분을 차지하게 됨에 따라 중요해지는 코딩의 책임에 대한 놀라운 강연입니다.
이 강연은 TED 컨퍼런스와 별도로 개최된 지역 TEDx 행사에서 발표된 것입니다. 자세한 사항은 http://ted.com/tedx 를 참조하세요. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Jihyeon J. Kim edited Korean subtitles for How I'm fighting bias in algorithms | ||
Jihyeon J. Kim edited Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee accepted Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee edited Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee edited Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee edited Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee edited Korean subtitles for How I'm fighting bias in algorithms | ||
Gichung Lee edited Korean subtitles for How I'm fighting bias in algorithms |