Return to Video

생각보다 이상한 AI의 위험성

  • 0:02 - 0:05
    인공지능은
  • 0:05 - 0:08
    온갖 종류의 산업을
    와해시키는 것으로 알려져 있죠.
  • 0:09 - 0:11
    아이스크림 시장은 어떨까요?
  • 0:12 - 0:15
    어떤 새롭고 놀라운 맛들을
  • 0:15 - 0:19
    고도의 인공지능으로 만들 수 있을까요?
  • 0:19 - 0:23
    그래서 저는 킬링 중학교 학생들과
  • 0:23 - 0:25
    이 문제의 답을 찾아 보고자 했습니다.
  • 0:25 - 0:31
    현재 존재하는 1600가지가 넘는
    아이스크림 맛들을 모으고,
  • 0:31 - 0:36
    어떤 것을 만들 수 있는지 보기 위해
    알고리즘을 적용했습니다.
  • 0:36 - 0:40
    그리고 여기 AI가 만들어낸
    맛들이 있습니다.
  • 0:40 - 0:42
    [호박 쓰레기 브레이크]
  • 0:42 - 0:43
    (웃음)
  • 0:43 - 0:46
    [땅콩 버터 슬라임]
  • 0:47 - 0:48
    [딸기 크림 질병]
  • 0:48 - 0:50
    (웃음)
  • 0:50 - 0:55
    이 맛들은 저희가 바랐던 것 만큼
    맛있지 않습니다.
  • 0:55 - 0:58
    무슨 일이 일어난 것일까요?
    뭐가 잘못된 거죠?
  • 0:58 - 1:00
    AI가 우리를 죽이려고 하는 것일까요?
  • 1:01 - 1:05
    아니면 우리가 요청했던 걸 하려 했지만
    문제가 있었던 걸까요?
  • 1:07 - 1:09
    영화에서 AI와 관련해 뭔가 잘못되면,
  • 1:09 - 1:14
    보통은 AI가 인간에게 더 이상
    복종하기 싫다고 결정하고
  • 1:14 - 1:17
    AI 스스로의 목표를 가지기 때문이죠,
    아주 감사하게도요.
  • 1:17 - 1:20
    실제 상황에서는 그러나, 실제 AI는
  • 1:21 - 1:22
    전혀 그렇게 똑똑하지 않습니다.
  • 1:23 - 1:27
    AI의 연산 능력은 대략 지렁이 정도,
  • 1:27 - 1:30
    아마 기껏해봐야 꿀벌 한마리,
  • 1:31 - 1:33
    사실, 아마 그것도 안 될 겁니다.
  • 1:33 - 1:35
    우리는 끊임없이 두뇌에 대해
    새로운 것을 배워서
  • 1:35 - 1:40
    AI가 실제 두뇌에 얼마나 못미치는지
    분명히 알 수 있죠.
  • 1:40 - 1:45
    오늘날의 AI는 사진 속의 행인을
    식별하기 같은 일을 할 수 있죠.
  • 1:45 - 1:48
    그러나 AI는 행인이 무엇이라는
    개념은 가지고 있지 않습니다.
  • 1:48 - 1:53
    그것은 선과 질감같은 것들의
    덩어리 너머의 것입니다.
  • 1:54 - 1:56
    AI는 실제 인간이라는 게
    무엇인지 알지 못합니다.
  • 1:57 - 2:00
    그래서 오늘날의 AI는
    우리가 요청한 것을 수행할까요?
  • 2:00 - 2:02
    할 수 있다면 하겠죠,
  • 2:02 - 2:04
    그러나 우리가 진짜 원하는 것을
    하지 않을 수도 있습니다.
  • 2:04 - 2:09
    가령 여러분이 AI를 이용해서
    이 로봇 부품들로
  • 2:10 - 2:14
    로봇을 조립해서 A에서 B로
    간다고 생각해 봅시다.
  • 2:14 - 2:16
    만약 여러분이 이 문제를 해결하기 위해
  • 2:16 - 2:19
    전통적인 방식의
    컴퓨터 프로그래밍을 이용한다면,
  • 2:19 - 2:22
    이 프로그램에 단계별 지시를 주겠죠.
  • 2:22 - 2:26
    부품들은 다루는 방법이라든가,
    다리가 있는 로봇으로 만드는 방법과,
  • 2:26 - 2:29
    그 다리로 B까지 걸어가는 방법을요.
  • 2:29 - 2:32
    그러나 AI를 이용해서
    이 문제를 해결한다면,
  • 2:32 - 2:33
    다른 이야기가 됩니다.
  • 2:33 - 2:35
    어떻게 문제를 해결하는지에 대해
    AI에게 알려주지 않고
  • 2:35 - 2:37
    여러분은 그냥 목표를 줍니다.
  • 2:37 - 2:42
    그리고 그것은 시행착오를 통해 스스로
    목표에 도달할 방법을 알아내는 것이죠.
  • 2:42 - 2:46
    AI가 이 특정한 문제를 푸는 방식은
  • 2:46 - 2:48
    이렇습니다.
  • 2:48 - 2:53
    스스로를 탑으로 조립한 다음에 쓰러져서
    B에 떨어지는 것이죠.
  • 2:53 - 2:56
    그리고, 따지고 보면,
    이건 문제를 해결하긴 합니다.
  • 2:56 - 2:58
    기술적으로는, B까지 도달한 것이죠.
  • 2:58 - 3:02
    AI의 위험은 그것이
    우리에게 맞설 것이라는 것이 아니라,
  • 3:02 - 3:06
    우리가 요청한 것을
    아주 그대로 할 것이라는 겁니다.
  • 3:07 - 3:09
    따라서 AI를 사용할 때의 요점은
  • 3:09 - 3:13
    AI가 우리가 원하는 결과를 만들도록
    어떻게 문제를 설정하느냐입니다.
  • 3:15 - 3:18
    여기 이 조그만 로봇은
    AI가 조종합니다.
  • 3:18 - 3:21
    AI는 로봇다리의 디자인을 생각해냈고
  • 3:21 - 3:25
    모든 장애물들을 지나가기 위해
    다리를 이용할 방법을 알아냈습니다.
  • 3:25 - 3:28
    그러나 데이비드 하씨가
    이 실험을 고안할 때,
  • 3:28 - 3:31
    그는 아주, 아주 엄격한 제한을
    설정해야만 했습니다.
  • 3:31 - 3:34
    AI가 만들 수 있는 다리의 크기에요.
  • 3:34 - 3:36
    그렇지 않았다면...
  • 3:43 - 3:47
    (웃음)
  • 3:49 - 3:52
    그리고 엄밀히 말하면,
    이것은 장애물 코스를 통과했습니다.
  • 3:52 - 3:57
    이처럼 그냥 걷는 것 같은 간단한 일도
    AI에게는 어렵습니다.
  • 3:57 - 4:00
    그래서 AI가 이러는 것을 보면,
    여러분은 아마 이렇게 말할 겁니다.
  • 4:00 - 4:04
    규칙위반이야,
    그냥 큰 탑이 돼서 넘어지면 안돼.
  • 4:04 - 4:07
    걸으려면 다리같은 걸 써야지.
  • 4:07 - 4:10
    그런데 그 방법도 항상 되지는 않죠.
  • 4:10 - 4:13
    이 AI의 목표는
    빠르게 움직이는 것입니다.
  • 4:13 - 4:17
    그들은 AI에게 앞으로 달려야 하고,
  • 4:17 - 4:19
    팔을 사용하면 안된다고
    알려주지 않았습니다.
  • 4:19 - 4:24
    AI에게 빨리 움직이는 것을 훈련시키면
    이런 결과를 얻을 것입니다.
  • 4:24 - 4:28
    공중제비를 하거나
    바보같은 걸음같은 것을 볼 수 있죠.
  • 4:28 - 4:29
    이건 아주 흔합니다.
  • 4:30 - 4:33
    바닥에서 웅크리고 씰룩거리는 것도요.
  • 4:33 - 4:35
    (웃음)
  • 4:35 - 4:38
    그래서 제 생각에는,
    더 이상했어야 했던 것은
  • 4:39 - 4:40
    “터미네이터” 로봇입니다.
  • 4:40 - 4:44
    “매트릭스”를 해킹하는 것은
    기회를 주면 AI가 할 또다른 일이죠.
  • 4:44 - 4:47
    만약 여러분이 시뮬레이션에서
    AI를 훈련시킨다면,
  • 4:47 - 4:51
    시뮬레이션의 수학적 오류들을
    해킹하는 것과 같은 방법을 배워서
  • 4:51 - 4:53
    그것들을 통해 에너지를 얻을 것입니다.
  • 4:53 - 4:58
    아니면 반복적으로 바닥에 고장을 내
    더 빨리 움직이는 방법을 알아내겠죠.
  • 4:58 - 5:02
    AI와 일하는 것은
    사람과 일하는 것과 다르고,
  • 5:02 - 5:06
    자연의 어떤 이상한 힘과
    일하는 것과 더 유사합니다.
  • 5:07 - 5:11
    실수로 AI에게 잘못된 문제를
    주는 것도 쉬운 일입니다.
  • 5:11 - 5:16
    보통 실제로 일이 잘못될 때까지
    우리는 그걸 알아채지 못하죠.
  • 5:16 - 5:18
    제가 진행한 실험이 하나 있습니다.
  • 5:18 - 5:22
    저는 AI가 물감 색들을 복사해서
  • 5:22 - 5:23
    새로운 물감을 만들어내기를 원했습니다.
  • 5:23 - 5:26
    여기 왼쪽에 있는 목록을 주고요.
  • 5:27 - 5:30
    이게 AI가 실제로 만들어낸 것입니다.
  • 5:30 - 5:33
    [신디스 똥, 똥덩어리같은,
    고생하다, 회색 음부]
  • 5:33 - 5:38
    (웃음)
  • 5:39 - 5:41
    그래서 엄밀히 말하면,
  • 5:41 - 5:43
    제가 요청한 것을 하긴 했습니다.
  • 5:43 - 5:46
    저는 제가 멋진 물감 이름들을
    요청했다고 생각했는데
  • 5:46 - 5:49
    실제로 제가 요청했던 것은
  • 5:49 - 5:54
    원래에 있던 것들에 보이는 문자조합을
    그냥 모방하는 것이었습니다.
  • 5:54 - 5:57
    그 단어들의 뜻이 무엇인지에 대해
    알려주지 않았습니다.
  • 5:57 - 6:02
    혹은 물감에 사용하면 안되는 단어도
    있을 수 있다는 것도요.
  • 6:03 - 6:07
    AI가 알고 있는 세계는
    제가 준 데이터가 전부였지요.
  • 6:07 - 6:11
    아이스크림 맛처럼, 다른 것에 대해서는
    전혀 아는 것이 없었습니다.
  • 6:12 - 6:14
    그래서 이 데이터를 통해서
  • 6:14 - 6:18
    우리는 AI에게 잘못된 것을 하라고
    종종 실수로 말합니다.
  • 6:19 - 6:22
    이건 잉어라고 불리는 물고기입니다.
  • 6:22 - 6:27
    연구자들이 AI를 훈련시켜 사진에서
    잉어를 식별하도록 했습니다.
  • 6:27 - 6:30
    그러나 그들이 AI에게
    사진의 어떤 부분을
  • 6:30 - 6:32
    물고기를 식별하는데 썼는지 물어보자
  • 6:32 - 6:33
    이것이 나타났습니다.
  • 6:35 - 6:37
    네, 저것들은 사람의 손가락입니다.
  • 6:37 - 6:41
    왜 물고기를 식별하는데
    사람의 손가락을 찾고 있을까요?
  • 6:42 - 6:45
    잉어는 기념사진으로
    남길만한 물고기여서,
  • 6:45 - 6:50
    AI가 훈련동안 보았던
    이 물고기의 사진들은
  • 6:50 - 6:52
    이러했습니다.
  • 6:52 - 6:53
    (웃음)
  • 6:53 - 6:57
    손가락이 물고기의 일부가
    아니라는 것을 몰랐죠.
  • 6:59 - 7:03
    그래서 여러분은 진짜로
    무엇을 찾고 있는지 이해할 수 있는
  • 7:03 - 7:06
    AI를 디자인하는 것이
    왜 어려운지 알 수 있을 것입니다.
  • 7:06 - 7:09
    그리고 이것이 자율주행 자동차에서의
    이미지 인식을
  • 7:09 - 7:11
    디자인하는 것이 왜 그렇게
    힘든 일인 지에 대한 이유이고
  • 7:11 - 7:16
    많은 자율주행 자동차의 실패들의 이유는
    AI가 혼란스러워했기 때문입니다.
  • 7:16 - 7:20
    2016년에 있었던 한 예에 대해
    이야기해보고 싶습니다.
  • 7:20 - 7:25
    테슬라 자동조종 AI를 이용하던 사람이
    아주 치명적인 사고를 당했습니다.
  • 7:25 - 7:28
    원래 고속도로에서 사용하도록
    디자인되었는데
  • 7:28 - 7:31
    도시 도로에서 사용되었습니다.
  • 7:31 - 7:32
    그리고 어떤 일이 일어났냐면,
  • 7:32 - 7:36
    어떤 트럭이 차 앞으로 나왔는데,
    그 차는 서지 못했습니다.
  • 7:37 - 7:41
    AI는 분명히 사진들에서
    트럭을 인식하도록 훈련되었습니다.
  • 7:41 - 7:43
    그러나 좀더 들여다 보면
  • 7:43 - 7:46
    AI가 고속도로에 있는 트럭들을
    인식하도록 훈련된 거 같아 보였습니다.
  • 7:46 - 7:49
    트럭의 뒷모습을 볼 것이라고
    생각하도록 말이죠.
  • 7:49 - 7:53
    트럭의 옆모습을 보는 것은
    고속도로에는 일어나지 않는 일이었고,
  • 7:53 - 7:56
    이 AI가 이 트럭을 봤을 땐,
  • 7:56 - 8:01
    아마도 트럭을 도로 표지판으로 인식하고
  • 8:01 - 8:03
    따라서 운전을 해도
    안전하다고 판단한 것이죠.
  • 8:04 - 8:07
    여기, 다른 분야에서
    AI의 실수가 있습니다.
  • 8:07 - 8:10
    아마존은 이력서분류 알고리즘을
    포기해야만 했습니다.
  • 8:10 - 8:15
    실제 적용에서 이 알고리즘이
    여성을 차별한다는 것을 발견한 것이죠.
  • 8:15 - 8:18
    그들이 AI 훈련용으로 사용한 이력서는
  • 8:18 - 8:20
    과거에 고용한 사람들의 것이었습니다.
  • 8:20 - 8:24
    그 예시들로부터, AI는 이런 사람들을
    기피하는 것을 배웠습니다.
  • 8:24 - 8:26
    여대를 나온 사람들,
  • 8:26 - 8:29
    이력서 어딘가에
    ‘여성’이라는 단어가 있는 사람들,
  • 8:29 - 8:34
    예를 들어 '여자 축구팀',
    '여성공학자협회'같은 단어말이죠.
  • 8:34 - 8:38
    AI는 이 특정한 행동을 따라 해선
    안된다는 것을 모르고 있었죠.
  • 8:38 - 8:40
    인간들이 하는 걸 봤더라도요.
  • 8:40 - 8:43
    그리고 엄밀히 말하자면,
    AI는 아마존이 요청한 것을 했습니다.
  • 8:43 - 8:46
    그들은 그저 실수로
    잘못된 일을 시킨 것이죠.
  • 8:47 - 8:50
    AI에게 이런 일은 항상 일어납니다.
  • 8:50 - 8:54
    AI는 아주 해로운 일을 하는 와중에,
    해롭다는 것을 모를 수 있습니다.
  • 8:54 - 8:59
    페이스북, 유튜브에서
    새로운 콘텐츠를 추천해주는 AI들은
  • 8:59 - 9:02
    클릭 수와 조회 수를 늘리도록
    최적화되어 있습니다.
  • 9:02 - 9:06
    그리고 불행하게도, 그들이 찾은 방법은
  • 9:06 - 9:10
    음모론이나 심한 편견이 있는
    콘텐츠를 추천하는 것입니다.
  • 9:11 - 9:16
    AI들 자체에는 이 콘텐츠들이 실제로
    무엇인지에 대한 개념이 없습니다.
  • 9:16 - 9:20
    그리고 그들은 결과가 어떨 것인지에
    대한 개념도 없습니다.
  • 9:20 - 9:22
    이러한 콘텐츠를 추천해줌으로써
    발생될 결과요.
  • 9:22 - 9:24
    그래서 우리가 AI와 일할 때,
  • 9:24 - 9:29
    문제들을 피하는 것은
    우리에게 달려있습니다.
  • 9:29 - 9:31
    일들이 잘못되는 것을 피하는 것은,
  • 9:31 - 9:35
    아주 오래된 소통의 문제로 이어집니다.
  • 9:35 - 9:39
    인간인 우리가 AI와 소통하는
    방법을 배워야하는 거죠.
  • 9:39 - 9:43
    AI가 할 수 있는 일과 없는 일이
    무엇인지 알아야 합니다.
  • 9:43 - 9:46
    또한 AI는 그 조그만 지렁이같은 뇌로
  • 9:46 - 9:50
    우리가 어떤 것을 요청하려고 하는지
    이해하지 못한다는 것을 알아야합니다.
  • 9:51 - 9:54
    다시 말해, 우리는 준비해야 합니다.
  • 9:54 - 10:00
    우리가 사용할 AI는 공상과학에나 있는
    전지전능한 AI가 아닙니다.
  • 10:00 - 10:05
    현재 우리가 실제로 갖고 있는 AI와
    함께 일하도록 준비해야 합니다.
  • 10:06 - 10:10
    그리고 오늘날의 AI는
    대단히 이상합니다.
  • 10:10 - 10:11
    감사합니다.
  • 10:11 - 10:16
    (박수)
Title:
생각보다 이상한 AI의 위험성
Speaker:
자넬 셰인(Janelle Shane)
Description:

AI 연구원 자넬 셰인은 인공지능이 위험한 이유가 그들이 우리에게 반역할 것이기 때문이 아니라, 우리가 말한 것을 아주 그대로 할 것이기 때문이라고 말합니다.
새로운 아이스크림 맛을 만들거나 도로에서 차들을 인식하는 것과 같은 문제를 풀 때 발생하는, 이상하고 때때로 놀라운 AI 알고리즘의 터무니없는 행동들을 소개하면서 셰인은 왜 AI가 실제 인간의 뇌에 미치지 못하는지 보여줍니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Korean subtitles

Revisions Compare revisions