Return to Video

인공지능에서 인간적 편향을 피하는 법

  • 0:01 - 0:05
    여러분은 인공지능의 도움을 받아서
  • 0:05 - 0:07
    오늘이나 이번 주 혹은 올해
  • 0:07 - 0:09
    얼마나 많은 결정을 내리셨나요?
  • 0:11 - 0:13
    제 직업은 인공지능을
    구축하는 것입니다.
  • 0:13 - 0:16
    그러니까 밝히자면 좀 범생이에요.
  • 0:16 - 0:18
    제가 범생이라서
  • 0:18 - 0:24
    새로운 뉴스에서 인공지능이
    일자리를 뺏는다거나
  • 0:24 - 0:28
    실제 국가의 시민권을 획득한다거나 하는
  • 0:28 - 0:31
    뉴스가 나오면 친구들과 주변인들이
  • 0:31 - 0:34
    그렇게 될까 봐 기겁해서
    저에게 메시지를 보내요.
  • 0:34 - 0:36
    로봇 과다 현상이 세상을 점령한다는
  • 0:36 - 0:41
    미디어 공포 현상은
    여기저기에 만연해 있어요.
  • 0:41 - 0:43
    할리우드로 비난의 화살을
    돌리기도 합니다.
  • 0:44 - 0:48
    하지만 현실은 그걸
    걱정할 때가 아닙니다.
  • 0:49 - 0:53
    인공지능에는 더 큰
    위험이 도사리고 있는데
  • 0:53 - 0:54
    이것부터 고쳐야 합니다.
  • 0:55 - 0:58
    이 질문으로 돌아가 볼게요.
  • 0:58 - 1:02
    여러분은 오늘 인공지능 도움으로
    얼마나 많은 결정을 내렸나요?
  • 1:04 - 1:06
    얼마나 많은 결정이
  • 1:06 - 1:10
    성별, 인종, 배경에 기반해서
    이루어졌나요?
  • 1:12 - 1:15
    알고리즘은 항상 우리가 누구이고
  • 1:15 - 1:19
    무엇을 원하는지 결정을
    내리는데 이용됩니다.
  • 1:20 - 1:24
    여기 계신 몇몇 여성분들은
    무슨 말인지 아실 거예요.
  • 1:24 - 1:28
    유튜브로 임신 테스트를
  • 1:28 - 1:30
    한 1,000번 정도 했는지
  • 1:30 - 1:33
    또는 페이스북에서
    가임 클리닉 광고를 보고
  • 1:33 - 1:35
    스크롤을 내리며 지나쳤는지와
    같은 것들 말입니다.
  • 1:36 - 1:38
    아니면 제 경우에는
    인도 결혼 상담소가 있어요.
  • 1:38 - 1:39
    (웃음)
  • 1:39 - 1:42
    인공지능은 단지 무엇을 살지 또는
  • 1:42 - 1:44
    무슨 티브이 프로그램을
    돌려가며 볼지에 대해
  • 1:44 - 1:49
    결정을 내리는 데에만
    활용되는 것이 아닙니다.
  • 1:49 - 1:54
    누가 이런 생각을 한다면
    어떨지 한 번 생각해보세요.
  • 1:54 - 1:56
    "흑인이나 라틴계 사람이
  • 1:56 - 2:01
    백인보다 대출금을
    제때 잘 갚지 않는다."
  • 2:01 - 2:04
    "존이라는 사람이 메리라는 사람보다
  • 2:04 - 2:07
    더 나은 프로그래머다."
  • 2:07 - 2:14
    "흑인 남성은 백인 남성보다
    더 자주 범죄를 되풀이한다."
  • 2:14 - 2:16
    그러면 여러분은 아마
    이렇게 생각하실 겁니다.
  • 2:16 - 2:21
    "와, 그건 성차별적이고
    인종차별적인 발언이야."라고요.
  • 2:21 - 2:25
    최근에 인공지능이 내린
    결정 중에서는
  • 2:25 - 2:28
    우리 인간에게 배운 편향에
  • 2:28 - 2:31
    의한 것이었습니다.
  • 2:31 - 2:36
    인공지능은 구직 면접을 받을지 여부와
  • 2:36 - 2:39
    자동차 보험에 얼마를 지불할지,
  • 2:39 - 2:40
    신용 점수는 얼마나 좋은지
  • 2:40 - 2:45
    심지어 연례 실적 평가로 몇 점을
    주어야 할 지도 결정합니다.
  • 2:45 - 2:48
    하지만 이러한 결정들이
    우리의 정체성, 인종, 성별, 나이에
  • 2:48 - 2:54
    근거한 추측을 거쳐서 만들어집니다.
  • 2:56 - 2:58
    어떻게 이런 일이 일어나는 걸까요?
  • 2:58 - 3:02
    이제 한 채용 담당자가
    회사의 차기 기술 선도자를
  • 3:02 - 3:04
    뽑는데 인공지능이
    관여한다고 상상해보세요.
  • 3:04 - 3:08
    지금까지 채용 담당자는
    대부분 남자였습니다.
  • 3:08 - 3:13
    그래서 인공지능은 프로그래머가
    대부분 여자가 아닌 남자라고 배웁니다.
  • 3:13 - 3:16
    여기서 매우 짧은 도약으로 인공지능은
  • 3:16 - 3:19
    남자가 여자보다 더 나은
    프로그래머라는 결정을 내립니다.
  • 3:19 - 3:23
    우리의 편향을 인공지능에
    보강하고 있었던 겁니다.
  • 3:23 - 3:28
    이제, 여성 후보자들을 선별합니다.
  • 3:28 - 3:32
    잠시만요, 만약
    인간 채용 담당자가 그랬다면
  • 3:32 - 3:34
    우리는 분노하며
    허용하지 않을 것입니다.
  • 3:34 - 3:37
    이러한 성차별은 옳지 않습니다.
  • 3:37 - 3:42
    히지만 어쩐 일인지 인공지능이
    법 우위에 서게 되었습니다.
  • 3:42 - 3:45
    왜냐하면 기계가 결정을 내리니까요.
  • 3:45 - 3:47
    이게 다가 아닙니다.
  • 3:47 - 3:53
    우리는 또한 인공지능과 상호 작용
    하는데 편향을 강화하고 있습니다.
  • 3:53 - 3:58
    시리, 알렉사, 코타나와 같은
    음성 비서를 얼마나 자주 사용하나요?
  • 3:58 - 4:01
    이러한 음성 보조 장치에는
    전부 두 가지 공통점이 있습니다.
  • 4:01 - 4:04
    첫째, 내 이름을 전혀 올바르게
    발음하지 못합니다.
  • 4:04 - 4:08
    둘째, 모두 여자입니다.
  • 4:08 - 4:11
    우리에게 순종하는 하인이
    되도록 설계되어
  • 4:11 - 4:14
    명령에 따라 전등을 켜고 끄고,
    장을 대신 보기도 합니다.
  • 4:15 - 4:18
    남성 인공지능도 있지만
    더 책임이 막중한 일을 맡습니다.
  • 4:18 - 4:22
    IBM 왓슨처럼
    사업 의사 결정을 내리거나
  • 4:22 - 4:26
    판매 담당자 아인슈타인이나
    로봇 변호사 로스가 됩니다.
  • 4:26 - 4:30
    불쌍한 로봇들, 직장에서도
    성차별로 고통받는군요.
  • 4:30 - 4:32
    (웃음)
  • 4:32 - 4:35
    이 두 가지가 결합해서
    인공지능이 존재하는 오늘날
  • 4:35 - 4:40
    자라나는 어린이에게
    어떤 영향을 미칠지 생각해보세요.
  • 4:40 - 4:43
    아이들은 학교 프로젝트를 위해
    조사를 합니다.
  • 4:43 - 4:47
    최고경영자 이미지를 구글링합니다.
  • 4:47 - 4:49
    알고리즘은 대부분 남성을 보여줍니다.
  • 4:49 - 4:52
    그리고 이제 아이들은
    개인 비서를 구글링합니다.
  • 4:52 - 4:55
    예상하신 대로
    대부분 여성을 보여줍니다.
  • 4:55 - 4:59
    그리고 아이들은 음악도 넣고
    음식도 주문하고 싶을 거예요.
  • 4:59 - 5:07
    순종적인 여성 음성 비서에게
    아이들은 소리쳐 주문합니다.
  • 5:07 - 5:13
    몇몇의 뛰어난 지성인들이
    오늘날 이 기술을 창조합니다.
  • 5:13 - 5:17
    그들이 원하는 대로
    기술을 창조할 수 있습니다.
  • 5:17 - 5:23
    그런데도 굳이 1950년대 "매드 맨"
    비서 스타일로 만들기로 선택했네요.
  • 5:23 - 5:24
    만세!
  • 5:24 - 5:26
    하지만 괜찮아요, 걱정 마세요
  • 5:26 - 5:28
    제가 말씀드리려는 것은
    이게 끝이 아닙니다.
  • 5:28 - 5:32
    성차별적이고 인종차별적인 기계가
    세상을 움직인다고 말씀드렸지만
  • 5:32 - 5:39
    인공지능에 대한 좋은 소식은 우리가
    전적으로 통제할 수 있다는 것입니다.
  • 5:39 - 5:44
    인공지능에게 올바른 가치와 윤리관을
    가르칠 수 있습니다.
  • 5:44 - 5:46
    여기에 우리가 할 수 있는
    세 가지가 있습니다.
  • 5:46 - 5:50
    첫째, 우리 고유의 편향을 인지하고
  • 5:50 - 5:53
    우리 주변에 있는 기계가 가진
    편향을 인지할 수 있습니다.
  • 5:53 - 5:58
    둘째, 다양한 팀이 이러한 기술을
    구축하도록 할 수 있습니다.
  • 5:58 - 6:03
    셋째, 기계가 배울 수 있도록
    다양한 경험을 제공해야 합니다.
  • 6:03 - 6:07
    제 개인적인 경험을 통해
    첫 번째와 두 번째에 대해 말씀드릴게요.
  • 6:07 - 6:08
    기술 분야에서 일을 할 때
  • 6:08 - 6:11
    여러분은 마크 주커버그나
    엘론 머스크처럼 생기지 않았다면
  • 6:11 - 6:16
    삶은 조금 더 어렵고
    능력도 의심받습니다.
  • 6:16 - 6:18
    하나의 예를 들어볼게요.
  • 6:18 - 6:21
    대부분의 개발자처럼 저도
    온라인 기술 포럼에 참여해서
  • 6:21 - 6:24
    타인을 돕기 위해 지식을 공유합니다.
  • 6:24 - 6:25
    그리고 제가 발견한 것은
  • 6:25 - 6:29
    제 사진과 이름을 공개하고
    로그인할 때
  • 6:30 - 6:33
    다음과 같은 질문이나
    말을 듣는다는 것입니다.
  • 6:34 - 6:38
    "어떻게 당신이 인공지능에 대해
    말할 자격이 있다고 생각하는 거죠?"
  • 6:38 - 6:41
    "어떻게 당신이 기계 학습에 대해
    안다고 생각하는 거죠?"
  • 6:41 - 6:45
    그래서 여러분처럼 저도
    새로운 프로필을 만들었습니다.
  • 6:45 - 6:50
    이번에는 제 사진 대신 제트 팩을
    메고 있는 고양이 사진을 선택했어요.
  • 6:50 - 6:53
    그리고 제 성별을 알 수 없는
    이름을 선택했어요.
  • 6:53 - 6:57
    무슨 일이 벌어질지 예상되시죠?
  • 6:57 - 7:03
    이번에는 제 능력을 깔보는 말을
    하는 사람이 없었어요.
  • 7:03 - 7:07
    그리고 실제로 몇 가지 일도
    완수할 수 있었고요.
  • 7:07 - 7:09
    이건 정말 짜증 나는 일이에요.
  • 7:09 - 7:11
    전 15살 때부터 로봇을 만들어 왔고
  • 7:11 - 7:14
    컴퓨터 과학 분야에
    학위도 몇 개 갖고 있어요.
  • 7:14 - 7:17
    그럼에도 제 성별을 숨겨야만 했어요.
  • 7:17 - 7:20
    그래야 제 일이 진지하게
    받아들여지니까요.
  • 7:20 - 7:22
    여기에 무슨 일이
    일어나고 있는 건가요?
  • 7:22 - 7:26
    기술 면에서 남자가 여자보다
    더 뛰어나나요?
  • 7:26 - 7:28
    다른 연구에서 발견한 사실은
  • 7:28 - 7:32
    플랫폼에서 여성 프로그래머들이
    저처럼 자기 성별을 숨길 때
  • 7:32 - 7:36
    코딩이 남자보다 4%
    더 많이 받아들여졌어요.
  • 7:36 - 7:39
    그러니까 이건 재능에
    관한 게 아니에요.
  • 7:39 - 7:43
    이것은 인공지능에 있는
    엘리트 의식에 관한 거예요.
  • 7:43 - 7:47
    그건 프로그래머가 특정한 사람처럼
    보여야 한다는 것을 의미하죠.
  • 7:47 - 7:50
    더 나은 인공지능을 만들기 위해
    우리가 해야 할 일은
  • 7:50 - 7:54
    각기 다른 배경에서 자란
    모든 사람들을 데려오는 겁니다.
  • 7:54 - 7:57
    인공지능의 개성을 만들도록 도와줄
  • 7:57 - 8:00
    글을 쓰고 이야기를 할 수 있는
    사람을 필요로 합니다.
  • 8:00 - 8:03
    문제를 해결할 수 있는
    사람을 필요로 합니다.
  • 8:03 - 8:06
    다른 도전을 마주하고
  • 8:06 - 8:12
    고쳐야 하는 진짜 문제에 대해
    말해줄 수 있고,
  • 8:12 - 8:18
    그걸 고칠 수 있는 기술을 찾도록
    도와줄 사람을 필요로 합니다.
  • 8:18 - 8:21
    왜냐하면 다양한 배경을 가진
    사람들이 모일 때,
  • 8:21 - 8:24
    우리가 올바른 것들을
    만들 수 있을 때,
  • 8:24 - 8:26
    가능성은 무궁무진하기 때문입니다.
  • 8:26 - 8:30
    이것이 여러분에게 말씀드리며
    끝맺고 싶은 이야기입니다.
  • 8:30 - 8:34
    덜 인종차별적인 로봇,
    우리 일자리를 덜 빼앗아 갈 기계
  • 8:34 - 8:38
    그리고 우리가 실제로 성취할 수 있는
    더 많은 기술에 대한 것입니다.
  • 8:38 - 8:41
    맞아요, 인공지능의 세계와
    기술의 세계에서
  • 8:41 - 8:43
    일부 에너지는
  • 8:43 - 8:47
    여러분이 스트림에서 볼 수 있는
    광고에 쓰일 것입니다.
  • 8:47 - 8:53
    하지만 그중 많은 에너지는
    더 나은 세상을 만드는데 쓰입니다.
  • 8:53 - 8:57
    콩고 민주 공화국에 있는
    임산부를 생각해보세요.
  • 8:57 - 9:01
    가장 가까운 시골 산전 클리닉에
    가려면 17시간을 걸어야 합니다.
  • 9:01 - 9:03
    검진받기 위해서요.
  • 9:03 - 9:08
    만약 임산부가 그 대신 전화로
    진단받을 수 있다면 어떨까요?
  • 9:08 - 9:10
    아니면 인공지능이 할 수 있는
    일을 생각해 보세요.
  • 9:10 - 9:12
    남아프리카 여성 3명 중 1명은
  • 9:12 - 9:15
    가정 폭력에 노출되어 있습니다.
  • 9:15 - 9:17
    만약 크게 소리 내어 말하는 것이
    안전하지 않다면
  • 9:17 - 9:20
    인공지능 서비스를 이용해 경보를 울려
  • 9:20 - 9:22
    재정과 법률 상담을 받을 수 있습니다.
  • 9:23 - 9:28
    이것은 현재 저를 포함해
    사람들이 인공지능을 이용해
  • 9:28 - 9:34
    작업하고 있는
    프로젝트의 실제 사례입니다.
  • 9:34 - 9:38
    며칠 뒤에 또 다른 보도 기사가
    있을 거라 확신합니다.
  • 9:38 - 9:40
    로봇이 여러분의 일자리를
    점령하러 오는 것에 대한
  • 9:40 - 9:42
    실존적인 위험에 대해서요.
  • 9:42 - 9:43
    (웃음)
  • 9:43 - 9:45
    그런 일이 일어날 때,
  • 9:45 - 9:49
    미래에 대해 걱정하는 똑같은
    메시지를 받게 될 것도 압니다.
  • 9:49 - 9:55
    하지만 저는 이 기술에 대해
    매우 긍정적입니다.
  • 9:55 - 10:02
    이것이야말로 세상을 더 평등한
    곳으로 만들 기회입니다.
  • 10:02 - 10:07
    하지만 그러기 위해서는 처음부터
    올바른 방법으로 만들어야 합니다.
  • 10:07 - 10:14
    다른 성별, 인종, 성적 취향, 배경
    출신의 사람들을 필요로 합니다.
  • 10:14 - 10:17
    여성이 제작자가 되어야 합니다.
  • 10:17 - 10:22
    단지 제작자 입찰을 하는
    기계뿐만이 아니라 말이죠.
  • 10:22 - 10:25
    우리는 기계에게 무엇을 가르치고
    어떤 데이터를 제공할지에 대해
  • 10:25 - 10:27
    매우 신중하게 생각해야 합니다.
  • 10:27 - 10:32
    과거와 같은 실수를
    하지 않기 위해서 말이죠.
  • 10:32 - 10:36
    여러분에게 생각할 거리
    두 가지를 드릴게요.
  • 10:36 - 10:41
    첫째, 오늘날 편향에 대해
    생각해보시길 바랍니다.
  • 10:41 - 10:45
    그리고 다음번에 여러분이
    관심 있어 할 거라 가정하는
  • 10:45 - 10:48
    불임 클리닉 광고나
  • 10:48 - 10:50
    온라인 도박 웹사이트 광고를
    스크롤 하며 지나칠 때
  • 10:50 - 10:52
    생각하고 기억해주세요.
  • 10:52 - 10:57
    같은 기술이 흑인은 다시 법을
    위반할 것이라고 가정한다는 것을,
  • 10:57 - 11:02
    또는 최고경영자의 개인 비서는 여성일
    가능성이 많다고 가정한다는 것을요.
  • 11:02 - 11:09
    이것에 대해 우리는 무언가를
    해야 한다는 것도 기억해주세요.
  • 11:09 - 11:10
    두 번째로,
  • 11:10 - 11:13
    다음과 같은 사실을
    기억해 주시길 바랍니다.
  • 11:13 - 11:15
    여러분은 어떤 특정한
    사람처럼 보여야 하거나
  • 11:15 - 11:18
    특정한 공학이나 기술 배경을 가져야만
  • 11:18 - 11:20
    미래를 위한 놀랄 만한
    세력이 될 인공지능을
  • 11:20 - 11:24
    만들 수 있는 것이
    아니라는 것을 말입니다.
  • 11:24 - 11:26
    마크 주커버그처럼 생기지 않아도 되고
  • 11:26 - 11:29
    그냥 저처럼 생겨도 됩니다.
  • 11:29 - 11:32
    이 공간에 있는 모두에게 달렸습니다.
  • 11:32 - 11:35
    정부와 기업을 설득해서
  • 11:35 - 11:38
    모두를 위한 인공지능 기술을
    구축하도록 하는 것 말입니다.
  • 11:38 - 11:40
    엣지 케이스를 포함해서요.
  • 11:40 - 11:46
    그리고 우리는 이런 놀라운
    미래 기술에 대해 교육받아야 합니다.
  • 11:46 - 11:48
    왜냐하면 우리가
    그렇게 할 경우, 그것은
  • 11:48 - 11:53
    우리가 인공지능으로 성취할 수
    있는 것에 대한 시작이기 때문입니다.
  • 11:53 - 11:54
    감사합니다.
  • 11:54 - 11:57
    (박수)
Title:
인공지능에서 인간적 편향을 피하는 법
Speaker:
크리티 샤마(Kriti Sharma)
Description:

인공지능 알고리즘은 자동차 보험에 얼마를 지불해야 하는지, 또는 구직 면접을 받을지 여부와 같이 항상 중요한 결정을 내립니다. 그러나 시스템에 인간적 편향을 코딩하여 구축되면 어떻게 될까요? 과학 기술자인 크리티 샤마(Kriti Sharma)는 기술의 다양성 부족이 어떻게 인공 지능에 침투하는지 탐구하고, 더 윤리적인 알고리즘을 만들 수 있는 세 가지 방법을 제시합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:10

Korean subtitles

Revisions