인공지능에서 인간적 편향을 피하는 법
-
0:01 - 0:05여러분은 인공지능의 도움을 받아서
-
0:05 - 0:07오늘이나 이번 주 혹은 올해
-
0:07 - 0:09얼마나 많은 결정을 내리셨나요?
-
0:11 - 0:13제 직업은 인공지능을
구축하는 것입니다. -
0:13 - 0:16그러니까 밝히자면 좀 범생이에요.
-
0:16 - 0:18제가 범생이라서
-
0:18 - 0:24새로운 뉴스에서 인공지능이
일자리를 뺏는다거나 -
0:24 - 0:28실제 국가의 시민권을 획득한다거나 하는
-
0:28 - 0:31뉴스가 나오면 친구들과 주변인들이
-
0:31 - 0:34그렇게 될까 봐 기겁해서
저에게 메시지를 보내요. -
0:34 - 0:36로봇 과다 현상이 세상을 점령한다는
-
0:36 - 0:41미디어 공포 현상은
여기저기에 만연해 있어요. -
0:41 - 0:43할리우드로 비난의 화살을
돌리기도 합니다. -
0:44 - 0:48하지만 현실은 그걸
걱정할 때가 아닙니다. -
0:49 - 0:53인공지능에는 더 큰
위험이 도사리고 있는데 -
0:53 - 0:54이것부터 고쳐야 합니다.
-
0:55 - 0:58이 질문으로 돌아가 볼게요.
-
0:58 - 1:02여러분은 오늘 인공지능 도움으로
얼마나 많은 결정을 내렸나요? -
1:04 - 1:06얼마나 많은 결정이
-
1:06 - 1:10성별, 인종, 배경에 기반해서
이루어졌나요? -
1:12 - 1:15알고리즘은 항상 우리가 누구이고
-
1:15 - 1:19무엇을 원하는지 결정을
내리는데 이용됩니다. -
1:20 - 1:24여기 계신 몇몇 여성분들은
무슨 말인지 아실 거예요. -
1:24 - 1:28유튜브로 임신 테스트를
-
1:28 - 1:30한 1,000번 정도 했는지
-
1:30 - 1:33또는 페이스북에서
가임 클리닉 광고를 보고 -
1:33 - 1:35스크롤을 내리며 지나쳤는지와
같은 것들 말입니다. -
1:36 - 1:38아니면 제 경우에는
인도 결혼 상담소가 있어요. -
1:38 - 1:39(웃음)
-
1:39 - 1:42인공지능은 단지 무엇을 살지 또는
-
1:42 - 1:44무슨 티브이 프로그램을
돌려가며 볼지에 대해 -
1:44 - 1:49결정을 내리는 데에만
활용되는 것이 아닙니다. -
1:49 - 1:54누가 이런 생각을 한다면
어떨지 한 번 생각해보세요. -
1:54 - 1:56"흑인이나 라틴계 사람이
-
1:56 - 2:01백인보다 대출금을
제때 잘 갚지 않는다." -
2:01 - 2:04"존이라는 사람이 메리라는 사람보다
-
2:04 - 2:07더 나은 프로그래머다."
-
2:07 - 2:14"흑인 남성은 백인 남성보다
더 자주 범죄를 되풀이한다." -
2:14 - 2:16그러면 여러분은 아마
이렇게 생각하실 겁니다. -
2:16 - 2:21"와, 그건 성차별적이고
인종차별적인 발언이야."라고요. -
2:21 - 2:25최근에 인공지능이 내린
결정 중에서는 -
2:25 - 2:28우리 인간에게 배운 편향에
-
2:28 - 2:31의한 것이었습니다.
-
2:31 - 2:36인공지능은 구직 면접을 받을지 여부와
-
2:36 - 2:39자동차 보험에 얼마를 지불할지,
-
2:39 - 2:40신용 점수는 얼마나 좋은지
-
2:40 - 2:45심지어 연례 실적 평가로 몇 점을
주어야 할 지도 결정합니다. -
2:45 - 2:48하지만 이러한 결정들이
우리의 정체성, 인종, 성별, 나이에 -
2:48 - 2:54근거한 추측을 거쳐서 만들어집니다.
-
2:56 - 2:58어떻게 이런 일이 일어나는 걸까요?
-
2:58 - 3:02이제 한 채용 담당자가
회사의 차기 기술 선도자를 -
3:02 - 3:04뽑는데 인공지능이
관여한다고 상상해보세요. -
3:04 - 3:08지금까지 채용 담당자는
대부분 남자였습니다. -
3:08 - 3:13그래서 인공지능은 프로그래머가
대부분 여자가 아닌 남자라고 배웁니다. -
3:13 - 3:16여기서 매우 짧은 도약으로 인공지능은
-
3:16 - 3:19남자가 여자보다 더 나은
프로그래머라는 결정을 내립니다. -
3:19 - 3:23우리의 편향을 인공지능에
보강하고 있었던 겁니다. -
3:23 - 3:28이제, 여성 후보자들을 선별합니다.
-
3:28 - 3:32잠시만요, 만약
인간 채용 담당자가 그랬다면 -
3:32 - 3:34우리는 분노하며
허용하지 않을 것입니다. -
3:34 - 3:37이러한 성차별은 옳지 않습니다.
-
3:37 - 3:42히지만 어쩐 일인지 인공지능이
법 우위에 서게 되었습니다. -
3:42 - 3:45왜냐하면 기계가 결정을 내리니까요.
-
3:45 - 3:47이게 다가 아닙니다.
-
3:47 - 3:53우리는 또한 인공지능과 상호 작용
하는데 편향을 강화하고 있습니다. -
3:53 - 3:58시리, 알렉사, 코타나와 같은
음성 비서를 얼마나 자주 사용하나요? -
3:58 - 4:01이러한 음성 보조 장치에는
전부 두 가지 공통점이 있습니다. -
4:01 - 4:04첫째, 내 이름을 전혀 올바르게
발음하지 못합니다. -
4:04 - 4:08둘째, 모두 여자입니다.
-
4:08 - 4:11우리에게 순종하는 하인이
되도록 설계되어 -
4:11 - 4:14명령에 따라 전등을 켜고 끄고,
장을 대신 보기도 합니다. -
4:15 - 4:18남성 인공지능도 있지만
더 책임이 막중한 일을 맡습니다. -
4:18 - 4:22IBM 왓슨처럼
사업 의사 결정을 내리거나 -
4:22 - 4:26판매 담당자 아인슈타인이나
로봇 변호사 로스가 됩니다. -
4:26 - 4:30불쌍한 로봇들, 직장에서도
성차별로 고통받는군요. -
4:30 - 4:32(웃음)
-
4:32 - 4:35이 두 가지가 결합해서
인공지능이 존재하는 오늘날 -
4:35 - 4:40자라나는 어린이에게
어떤 영향을 미칠지 생각해보세요. -
4:40 - 4:43아이들은 학교 프로젝트를 위해
조사를 합니다. -
4:43 - 4:47최고경영자 이미지를 구글링합니다.
-
4:47 - 4:49알고리즘은 대부분 남성을 보여줍니다.
-
4:49 - 4:52그리고 이제 아이들은
개인 비서를 구글링합니다. -
4:52 - 4:55예상하신 대로
대부분 여성을 보여줍니다. -
4:55 - 4:59그리고 아이들은 음악도 넣고
음식도 주문하고 싶을 거예요. -
4:59 - 5:07순종적인 여성 음성 비서에게
아이들은 소리쳐 주문합니다. -
5:07 - 5:13몇몇의 뛰어난 지성인들이
오늘날 이 기술을 창조합니다. -
5:13 - 5:17그들이 원하는 대로
기술을 창조할 수 있습니다. -
5:17 - 5:23그런데도 굳이 1950년대 "매드 맨"
비서 스타일로 만들기로 선택했네요. -
5:23 - 5:24만세!
-
5:24 - 5:26하지만 괜찮아요, 걱정 마세요
-
5:26 - 5:28제가 말씀드리려는 것은
이게 끝이 아닙니다. -
5:28 - 5:32성차별적이고 인종차별적인 기계가
세상을 움직인다고 말씀드렸지만 -
5:32 - 5:39인공지능에 대한 좋은 소식은 우리가
전적으로 통제할 수 있다는 것입니다. -
5:39 - 5:44인공지능에게 올바른 가치와 윤리관을
가르칠 수 있습니다. -
5:44 - 5:46여기에 우리가 할 수 있는
세 가지가 있습니다. -
5:46 - 5:50첫째, 우리 고유의 편향을 인지하고
-
5:50 - 5:53우리 주변에 있는 기계가 가진
편향을 인지할 수 있습니다. -
5:53 - 5:58둘째, 다양한 팀이 이러한 기술을
구축하도록 할 수 있습니다. -
5:58 - 6:03셋째, 기계가 배울 수 있도록
다양한 경험을 제공해야 합니다. -
6:03 - 6:07제 개인적인 경험을 통해
첫 번째와 두 번째에 대해 말씀드릴게요. -
6:07 - 6:08기술 분야에서 일을 할 때
-
6:08 - 6:11여러분은 마크 주커버그나
엘론 머스크처럼 생기지 않았다면 -
6:11 - 6:16삶은 조금 더 어렵고
능력도 의심받습니다. -
6:16 - 6:18하나의 예를 들어볼게요.
-
6:18 - 6:21대부분의 개발자처럼 저도
온라인 기술 포럼에 참여해서 -
6:21 - 6:24타인을 돕기 위해 지식을 공유합니다.
-
6:24 - 6:25그리고 제가 발견한 것은
-
6:25 - 6:29제 사진과 이름을 공개하고
로그인할 때 -
6:30 - 6:33다음과 같은 질문이나
말을 듣는다는 것입니다. -
6:34 - 6:38"어떻게 당신이 인공지능에 대해
말할 자격이 있다고 생각하는 거죠?" -
6:38 - 6:41"어떻게 당신이 기계 학습에 대해
안다고 생각하는 거죠?" -
6:41 - 6:45그래서 여러분처럼 저도
새로운 프로필을 만들었습니다. -
6:45 - 6:50이번에는 제 사진 대신 제트 팩을
메고 있는 고양이 사진을 선택했어요. -
6:50 - 6:53그리고 제 성별을 알 수 없는
이름을 선택했어요. -
6:53 - 6:57무슨 일이 벌어질지 예상되시죠?
-
6:57 - 7:03이번에는 제 능력을 깔보는 말을
하는 사람이 없었어요. -
7:03 - 7:07그리고 실제로 몇 가지 일도
완수할 수 있었고요. -
7:07 - 7:09이건 정말 짜증 나는 일이에요.
-
7:09 - 7:11전 15살 때부터 로봇을 만들어 왔고
-
7:11 - 7:14컴퓨터 과학 분야에
학위도 몇 개 갖고 있어요. -
7:14 - 7:17그럼에도 제 성별을 숨겨야만 했어요.
-
7:17 - 7:20그래야 제 일이 진지하게
받아들여지니까요. -
7:20 - 7:22여기에 무슨 일이
일어나고 있는 건가요? -
7:22 - 7:26기술 면에서 남자가 여자보다
더 뛰어나나요? -
7:26 - 7:28다른 연구에서 발견한 사실은
-
7:28 - 7:32플랫폼에서 여성 프로그래머들이
저처럼 자기 성별을 숨길 때 -
7:32 - 7:36코딩이 남자보다 4%
더 많이 받아들여졌어요. -
7:36 - 7:39그러니까 이건 재능에
관한 게 아니에요. -
7:39 - 7:43이것은 인공지능에 있는
엘리트 의식에 관한 거예요. -
7:43 - 7:47그건 프로그래머가 특정한 사람처럼
보여야 한다는 것을 의미하죠. -
7:47 - 7:50더 나은 인공지능을 만들기 위해
우리가 해야 할 일은 -
7:50 - 7:54각기 다른 배경에서 자란
모든 사람들을 데려오는 겁니다. -
7:54 - 7:57인공지능의 개성을 만들도록 도와줄
-
7:57 - 8:00글을 쓰고 이야기를 할 수 있는
사람을 필요로 합니다. -
8:00 - 8:03문제를 해결할 수 있는
사람을 필요로 합니다. -
8:03 - 8:06다른 도전을 마주하고
-
8:06 - 8:12고쳐야 하는 진짜 문제에 대해
말해줄 수 있고, -
8:12 - 8:18그걸 고칠 수 있는 기술을 찾도록
도와줄 사람을 필요로 합니다. -
8:18 - 8:21왜냐하면 다양한 배경을 가진
사람들이 모일 때, -
8:21 - 8:24우리가 올바른 것들을
만들 수 있을 때, -
8:24 - 8:26가능성은 무궁무진하기 때문입니다.
-
8:26 - 8:30이것이 여러분에게 말씀드리며
끝맺고 싶은 이야기입니다. -
8:30 - 8:34덜 인종차별적인 로봇,
우리 일자리를 덜 빼앗아 갈 기계 -
8:34 - 8:38그리고 우리가 실제로 성취할 수 있는
더 많은 기술에 대한 것입니다. -
8:38 - 8:41맞아요, 인공지능의 세계와
기술의 세계에서 -
8:41 - 8:43일부 에너지는
-
8:43 - 8:47여러분이 스트림에서 볼 수 있는
광고에 쓰일 것입니다. -
8:47 - 8:53하지만 그중 많은 에너지는
더 나은 세상을 만드는데 쓰입니다. -
8:53 - 8:57콩고 민주 공화국에 있는
임산부를 생각해보세요. -
8:57 - 9:01가장 가까운 시골 산전 클리닉에
가려면 17시간을 걸어야 합니다. -
9:01 - 9:03검진받기 위해서요.
-
9:03 - 9:08만약 임산부가 그 대신 전화로
진단받을 수 있다면 어떨까요? -
9:08 - 9:10아니면 인공지능이 할 수 있는
일을 생각해 보세요. -
9:10 - 9:12남아프리카 여성 3명 중 1명은
-
9:12 - 9:15가정 폭력에 노출되어 있습니다.
-
9:15 - 9:17만약 크게 소리 내어 말하는 것이
안전하지 않다면 -
9:17 - 9:20인공지능 서비스를 이용해 경보를 울려
-
9:20 - 9:22재정과 법률 상담을 받을 수 있습니다.
-
9:23 - 9:28이것은 현재 저를 포함해
사람들이 인공지능을 이용해 -
9:28 - 9:34작업하고 있는
프로젝트의 실제 사례입니다. -
9:34 - 9:38며칠 뒤에 또 다른 보도 기사가
있을 거라 확신합니다. -
9:38 - 9:40로봇이 여러분의 일자리를
점령하러 오는 것에 대한 -
9:40 - 9:42실존적인 위험에 대해서요.
-
9:42 - 9:43(웃음)
-
9:43 - 9:45그런 일이 일어날 때,
-
9:45 - 9:49미래에 대해 걱정하는 똑같은
메시지를 받게 될 것도 압니다. -
9:49 - 9:55하지만 저는 이 기술에 대해
매우 긍정적입니다. -
9:55 - 10:02이것이야말로 세상을 더 평등한
곳으로 만들 기회입니다. -
10:02 - 10:07하지만 그러기 위해서는 처음부터
올바른 방법으로 만들어야 합니다. -
10:07 - 10:14다른 성별, 인종, 성적 취향, 배경
출신의 사람들을 필요로 합니다. -
10:14 - 10:17여성이 제작자가 되어야 합니다.
-
10:17 - 10:22단지 제작자 입찰을 하는
기계뿐만이 아니라 말이죠. -
10:22 - 10:25우리는 기계에게 무엇을 가르치고
어떤 데이터를 제공할지에 대해 -
10:25 - 10:27매우 신중하게 생각해야 합니다.
-
10:27 - 10:32과거와 같은 실수를
하지 않기 위해서 말이죠. -
10:32 - 10:36여러분에게 생각할 거리
두 가지를 드릴게요. -
10:36 - 10:41첫째, 오늘날 편향에 대해
생각해보시길 바랍니다. -
10:41 - 10:45그리고 다음번에 여러분이
관심 있어 할 거라 가정하는 -
10:45 - 10:48불임 클리닉 광고나
-
10:48 - 10:50온라인 도박 웹사이트 광고를
스크롤 하며 지나칠 때 -
10:50 - 10:52생각하고 기억해주세요.
-
10:52 - 10:57같은 기술이 흑인은 다시 법을
위반할 것이라고 가정한다는 것을, -
10:57 - 11:02또는 최고경영자의 개인 비서는 여성일
가능성이 많다고 가정한다는 것을요. -
11:02 - 11:09이것에 대해 우리는 무언가를
해야 한다는 것도 기억해주세요. -
11:09 - 11:10두 번째로,
-
11:10 - 11:13다음과 같은 사실을
기억해 주시길 바랍니다. -
11:13 - 11:15여러분은 어떤 특정한
사람처럼 보여야 하거나 -
11:15 - 11:18특정한 공학이나 기술 배경을 가져야만
-
11:18 - 11:20미래를 위한 놀랄 만한
세력이 될 인공지능을 -
11:20 - 11:24만들 수 있는 것이
아니라는 것을 말입니다. -
11:24 - 11:26마크 주커버그처럼 생기지 않아도 되고
-
11:26 - 11:29그냥 저처럼 생겨도 됩니다.
-
11:29 - 11:32이 공간에 있는 모두에게 달렸습니다.
-
11:32 - 11:35정부와 기업을 설득해서
-
11:35 - 11:38모두를 위한 인공지능 기술을
구축하도록 하는 것 말입니다. -
11:38 - 11:40엣지 케이스를 포함해서요.
-
11:40 - 11:46그리고 우리는 이런 놀라운
미래 기술에 대해 교육받아야 합니다. -
11:46 - 11:48왜냐하면 우리가
그렇게 할 경우, 그것은 -
11:48 - 11:53우리가 인공지능으로 성취할 수
있는 것에 대한 시작이기 때문입니다. -
11:53 - 11:54감사합니다.
-
11:54 - 11:57(박수)
- Title:
- 인공지능에서 인간적 편향을 피하는 법
- Speaker:
- 크리티 샤마(Kriti Sharma)
- Description:
-
인공지능 알고리즘은 자동차 보험에 얼마를 지불해야 하는지, 또는 구직 면접을 받을지 여부와 같이 항상 중요한 결정을 내립니다. 그러나 시스템에 인간적 편향을 코딩하여 구축되면 어떻게 될까요? 과학 기술자인 크리티 샤마(Kriti Sharma)는 기술의 다양성 부족이 어떻게 인공 지능에 침투하는지 탐구하고, 더 윤리적인 알고리즘을 만들 수 있는 세 가지 방법을 제시합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:10
Jihyeon J. Kim approved Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim accepted Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI | ||
Jihyeon J. Kim edited Korean subtitles for How to keep human bias out of AI |