생각보다 이상한 AI의 위험성
-
0:02 - 0:05인공지능은
-
0:05 - 0:08온갖 종류의 산업을
와해시키는 것으로 알려져 있죠. -
0:09 - 0:11아이스크림 시장은 어떨까요?
-
0:12 - 0:15어떤 새롭고 놀라운 맛들을
-
0:15 - 0:19고도의 인공지능으로 만들 수 있을까요?
-
0:19 - 0:23그래서 저는 킬링 중학교 학생들과
-
0:23 - 0:25이 문제의 답을 찾아 보고자 했습니다.
-
0:25 - 0:31현재 존재하는 1600가지가 넘는
아이스크림 맛들을 모으고, -
0:31 - 0:36어떤 것을 만들 수 있는지 보기 위해
알고리즘을 적용했습니다. -
0:36 - 0:40그리고 여기 AI가 만들어낸
맛들이 있습니다. -
0:40 - 0:42[호박 쓰레기 브레이크]
-
0:42 - 0:43(웃음)
-
0:43 - 0:46[땅콩 버터 슬라임]
-
0:47 - 0:48[딸기 크림 질병]
-
0:48 - 0:50(웃음)
-
0:50 - 0:55이 맛들은 저희가 바랐던 것 만큼
맛있지 않습니다. -
0:55 - 0:58무슨 일이 일어난 것일까요?
뭐가 잘못된 거죠? -
0:58 - 1:00AI가 우리를 죽이려고 하는 것일까요?
-
1:01 - 1:05아니면 우리가 요청했던 걸 하려 했지만
문제가 있었던 걸까요? -
1:07 - 1:09영화에서 AI와 관련해 뭔가 잘못되면,
-
1:09 - 1:14보통은 AI가 인간에게 더 이상
복종하기 싫다고 결정하고 -
1:14 - 1:17AI 스스로의 목표를 가지기 때문이죠,
아주 감사하게도요. -
1:17 - 1:20실제 상황에서는 그러나, 실제 AI는
-
1:21 - 1:22전혀 그렇게 똑똑하지 않습니다.
-
1:23 - 1:27AI의 연산 능력은 대략 지렁이 정도,
-
1:27 - 1:30아마 기껏해봐야 꿀벌 한마리,
-
1:31 - 1:33사실, 아마 그것도 안 될 겁니다.
-
1:33 - 1:35우리는 끊임없이 두뇌에 대해
새로운 것을 배워서 -
1:35 - 1:40AI가 실제 두뇌에 얼마나 못미치는지
분명히 알 수 있죠. -
1:40 - 1:45오늘날의 AI는 사진 속의 행인을
식별하기 같은 일을 할 수 있죠. -
1:45 - 1:48그러나 AI는 행인이 무엇이라는
개념은 가지고 있지 않습니다. -
1:48 - 1:53그것은 선과 질감같은 것들의
덩어리 너머의 것입니다. -
1:54 - 1:56AI는 실제 인간이라는 게
무엇인지 알지 못합니다. -
1:57 - 2:00그래서 오늘날의 AI는
우리가 요청한 것을 수행할까요? -
2:00 - 2:02할 수 있다면 하겠죠,
-
2:02 - 2:04그러나 우리가 진짜 원하는 것을
하지 않을 수도 있습니다. -
2:04 - 2:09가령 여러분이 AI를 이용해서
이 로봇 부품들로 -
2:10 - 2:14로봇을 조립해서 A에서 B로
간다고 생각해 봅시다. -
2:14 - 2:16만약 여러분이 이 문제를 해결하기 위해
-
2:16 - 2:19전통적인 방식의
컴퓨터 프로그래밍을 이용한다면, -
2:19 - 2:22이 프로그램에 단계별 지시를 주겠죠.
-
2:22 - 2:26부품들은 다루는 방법이라든가,
다리가 있는 로봇으로 만드는 방법과, -
2:26 - 2:29그 다리로 B까지 걸어가는 방법을요.
-
2:29 - 2:32그러나 AI를 이용해서
이 문제를 해결한다면, -
2:32 - 2:33다른 이야기가 됩니다.
-
2:33 - 2:35어떻게 문제를 해결하는지에 대해
AI에게 알려주지 않고 -
2:35 - 2:37여러분은 그냥 목표를 줍니다.
-
2:37 - 2:42그리고 그것은 시행착오를 통해 스스로
목표에 도달할 방법을 알아내는 것이죠. -
2:42 - 2:46AI가 이 특정한 문제를 푸는 방식은
-
2:46 - 2:48이렇습니다.
-
2:48 - 2:53스스로를 탑으로 조립한 다음에 쓰러져서
B에 떨어지는 것이죠. -
2:53 - 2:56그리고, 따지고 보면,
이건 문제를 해결하긴 합니다. -
2:56 - 2:58기술적으로는, B까지 도달한 것이죠.
-
2:58 - 3:02AI의 위험은 그것이
우리에게 맞설 것이라는 것이 아니라, -
3:02 - 3:06우리가 요청한 것을
아주 그대로 할 것이라는 겁니다. -
3:07 - 3:09따라서 AI를 사용할 때의 요점은
-
3:09 - 3:13AI가 우리가 원하는 결과를 만들도록
어떻게 문제를 설정하느냐입니다. -
3:15 - 3:18여기 이 조그만 로봇은
AI가 조종합니다. -
3:18 - 3:21AI는 로봇다리의 디자인을 생각해냈고
-
3:21 - 3:25모든 장애물들을 지나가기 위해
다리를 이용할 방법을 알아냈습니다. -
3:25 - 3:28그러나 데이비드 하씨가
이 실험을 고안할 때, -
3:28 - 3:31그는 아주, 아주 엄격한 제한을
설정해야만 했습니다. -
3:31 - 3:34AI가 만들 수 있는 다리의 크기에요.
-
3:34 - 3:36그렇지 않았다면...
-
3:43 - 3:47(웃음)
-
3:49 - 3:52그리고 엄밀히 말하면,
이것은 장애물 코스를 통과했습니다. -
3:52 - 3:57이처럼 그냥 걷는 것 같은 간단한 일도
AI에게는 어렵습니다. -
3:57 - 4:00그래서 AI가 이러는 것을 보면,
여러분은 아마 이렇게 말할 겁니다. -
4:00 - 4:04규칙위반이야,
그냥 큰 탑이 돼서 넘어지면 안돼. -
4:04 - 4:07걸으려면 다리같은 걸 써야지.
-
4:07 - 4:10그런데 그 방법도 항상 되지는 않죠.
-
4:10 - 4:13이 AI의 목표는
빠르게 움직이는 것입니다. -
4:13 - 4:17그들은 AI에게 앞으로 달려야 하고,
-
4:17 - 4:19팔을 사용하면 안된다고
알려주지 않았습니다. -
4:19 - 4:24AI에게 빨리 움직이는 것을 훈련시키면
이런 결과를 얻을 것입니다. -
4:24 - 4:28공중제비를 하거나
바보같은 걸음같은 것을 볼 수 있죠. -
4:28 - 4:29이건 아주 흔합니다.
-
4:30 - 4:33바닥에서 웅크리고 씰룩거리는 것도요.
-
4:33 - 4:35(웃음)
-
4:35 - 4:38그래서 제 생각에는,
더 이상했어야 했던 것은 -
4:39 - 4:40“터미네이터” 로봇입니다.
-
4:40 - 4:44“매트릭스”를 해킹하는 것은
기회를 주면 AI가 할 또다른 일이죠. -
4:44 - 4:47만약 여러분이 시뮬레이션에서
AI를 훈련시킨다면, -
4:47 - 4:51시뮬레이션의 수학적 오류들을
해킹하는 것과 같은 방법을 배워서 -
4:51 - 4:53그것들을 통해 에너지를 얻을 것입니다.
-
4:53 - 4:58아니면 반복적으로 바닥에 고장을 내
더 빨리 움직이는 방법을 알아내겠죠. -
4:58 - 5:02AI와 일하는 것은
사람과 일하는 것과 다르고, -
5:02 - 5:06자연의 어떤 이상한 힘과
일하는 것과 더 유사합니다. -
5:07 - 5:11실수로 AI에게 잘못된 문제를
주는 것도 쉬운 일입니다. -
5:11 - 5:16보통 실제로 일이 잘못될 때까지
우리는 그걸 알아채지 못하죠. -
5:16 - 5:18제가 진행한 실험이 하나 있습니다.
-
5:18 - 5:22저는 AI가 물감 색들을 복사해서
-
5:22 - 5:23새로운 물감을 만들어내기를 원했습니다.
-
5:23 - 5:26여기 왼쪽에 있는 목록을 주고요.
-
5:27 - 5:30이게 AI가 실제로 만들어낸 것입니다.
-
5:30 - 5:33[신디스 똥, 똥덩어리같은,
고생하다, 흰 머리] -
5:33 - 5:38(웃음)
-
5:39 - 5:41그래서 엄밀히 말하면,
-
5:41 - 5:43제가 요청한 것을 하긴 했습니다.
-
5:43 - 5:46저는 제가 멋진 물감 이름들을
요청했다고 생각했는데 -
5:46 - 5:49실제로 제가 요청했던 것은
-
5:49 - 5:54원래에 있던 것들에 보이는 문자조합을
그냥 모방하는 것이었습니다. -
5:54 - 5:57그 단어들의 뜻이 무엇인지에 대해
알려주지 않았습니다. -
5:57 - 6:02혹은 물감에 사용하면 안되는 단어도
있을 수 있다는 것도요. -
6:03 - 6:07AI가 알고 있는 세계는
제가 준 데이터가 전부였지요. -
6:07 - 6:11아이스크림 맛처럼, 다른 것에 대해서는
전혀 아는 것이 없었습니다. -
6:12 - 6:14그래서 이 데이터를 통해서
-
6:14 - 6:18우리는 AI에게 잘못된 것을 하라고
종종 실수로 말합니다. -
6:19 - 6:22이건 잉어라고 불리는 물고기입니다.
-
6:22 - 6:27연구자들이 AI를 훈련시켜 사진에서
잉어를 식별하도록 했습니다. -
6:27 - 6:30그러나 그들이 AI에게
사진의 어떤 부분을 -
6:30 - 6:32물고기를 식별하는데 썼는지 물어보자
-
6:32 - 6:33이것이 나타났습니다.
-
6:35 - 6:37네, 저것들은 사람의 손가락입니다.
-
6:37 - 6:41왜 물고기를 식별하는데
사람의 손가락을 찾고 있을까요? -
6:42 - 6:45잉어는 기념사진으로
남길만한 물고기여서, -
6:45 - 6:50AI가 훈련동안 보았던
이 물고기의 사진들은 -
6:50 - 6:52이러했습니다.
-
6:52 - 6:53(웃음)
-
6:53 - 6:57손가락이 물고기의 일부가
아니라는 것을 몰랐죠. -
6:59 - 7:03그래서 여러분은 진짜로
무엇을 찾고 있는지 이해할 수 있는 -
7:03 - 7:06AI를 디자인하는 것이
왜 어려운지 알 수 있을 것입니다. -
7:06 - 7:09그리고 이것이 자율주행 자동차에서의
이미지 인식을 -
7:09 - 7:11디자인하는 것이 왜 그렇게
힘든 일인 지에 대한 이유이고 -
7:11 - 7:16많은 자율주행 자동차의 실패들의 이유는
AI가 혼란스러워했기 때문입니다. -
7:16 - 7:202016년에 있었던 한 예에 대해
이야기해보고 싶습니다. -
7:20 - 7:25테슬라 자동조종 AI를 이용하던 사람이
아주 치명적인 사고를 당했습니다. -
7:25 - 7:28원래 고속도로에서 사용하도록
디자인되었는데 -
7:28 - 7:31도시 도로에서 사용되었습니다.
-
7:31 - 7:32그리고 어떤 일이 일어났냐면,
-
7:32 - 7:36어떤 트럭이 차 앞으로 나왔는데,
그 차는 서지 못했습니다. -
7:37 - 7:41AI는 분명히 사진들에서
트럭을 인식하도록 훈련되었습니다. -
7:41 - 7:43그러나 좀더 들여다 보면
-
7:43 - 7:46AI가 고속도로에 있는 트럭들을
인식하도록 훈련된 거 같아 보였습니다. -
7:46 - 7:49트럭의 뒷모습을 볼 것이라고
생각하도록 말이죠. -
7:49 - 7:53트럭의 옆모습을 보는 것은
고속도로에는 일어나지 않는 일이었고, -
7:53 - 7:56이 AI가 이 트럭을 봤을 땐,
-
7:56 - 8:01아마도 트럭을 도로 표지판으로 인식하고
-
8:01 - 8:03따라서 운전을 해도
안전하다고 판단한 것이죠. -
8:04 - 8:07여기, 다른 분야에서
AI의 실수가 있습니다. -
8:07 - 8:10아마존은 이력서분류 알고리즘을
포기해야만 했습니다. -
8:10 - 8:15실제 적용에서 이 알고리즘이
여성을 차별한다는 것을 발견한 것이죠. -
8:15 - 8:18그들이 AI 훈련용으로 사용한 이력서는
-
8:18 - 8:20과거에 고용한 사람들의 것이었습니다.
-
8:20 - 8:24그 예시들로부터, AI는 이런 사람들을
기피하는 것을 배웠습니다. -
8:24 - 8:26여대를 나온 사람들,
-
8:26 - 8:29이력서 어딘가에
‘여성’이라는 단어가 있는 사람들, -
8:29 - 8:34예를 들어 '여자 축구팀',
'여성공학자협회'같은 단어말이죠. -
8:34 - 8:38AI는 이 특정한 행동을 따라 해선
안된다는 것을 모르고 있었죠. -
8:38 - 8:40인간들이 하는 걸 봤더라도요.
-
8:40 - 8:43그리고 엄밀히 말하자면,
AI는 아마존이 요청한 것을 했습니다. -
8:43 - 8:46그들은 그저 실수로
잘못된 일을 시킨 것이죠. -
8:47 - 8:50AI에게 이런 일은 항상 일어납니다.
-
8:50 - 8:54AI는 아주 해로운 일을 하는 와중에,
해롭다는 것을 모를 수 있습니다. -
8:54 - 8:59페이스북, 유튜브에서
새로운 콘텐츠를 추천해주는 AI들은 -
8:59 - 9:02클릭 수와 조회 수를 늘리도록
최적화되어 있습니다. -
9:02 - 9:06그리고 불행하게도, 그들이 찾은 방법은
-
9:06 - 9:10음모론이나 심한 편견이 있는
콘텐츠를 추천하는 것입니다. -
9:11 - 9:16AI들 자체에는 이 콘텐츠들이 실제로
무엇인지에 대한 개념이 없습니다. -
9:16 - 9:20그리고 그들은 결과가 어떨 것인지에
대한 개념도 없습니다. -
9:20 - 9:22이러한 콘텐츠를 추천해줌으로써
발생될 결과요. -
9:22 - 9:24그래서 우리가 AI와 일할 때,
-
9:24 - 9:29문제들을 피하는 것은
우리에게 달려있습니다. -
9:29 - 9:31일들이 잘못되는 것을 피하는 것은,
-
9:31 - 9:35아주 오래된 소통의 문제로 이어집니다.
-
9:35 - 9:39인간인 우리가 AI와 소통하는
방법을 배워야하는 거죠. -
9:39 - 9:43AI가 할 수 있는 일과 없는 일이
무엇인지 알아야 합니다. -
9:43 - 9:46또한 AI는 그 조그만 지렁이같은 뇌로
-
9:46 - 9:50우리가 어떤 것을 요청하려고 하는지
이해하지 못한다는 것을 알아야합니다. -
9:51 - 9:54다시 말해, 우리는 준비해야 합니다.
-
9:54 - 10:00우리가 사용할 AI는 공상과학에나 있는
전지전능한 AI가 아닙니다. -
10:00 - 10:05현재 우리가 실제로 갖고 있는 AI와
함께 일하도록 준비해야 합니다. -
10:06 - 10:10그리고 오늘날의 AI는
대단히 이상합니다. -
10:10 - 10:11감사합니다.
-
10:11 - 10:16(박수)
- Title:
- 생각보다 이상한 AI의 위험성
- Speaker:
- 자넬 셰인(Janelle Shane)
- Description:
-
AI 연구원 자넬 셰인은 인공지능이 위험한 이유가 그들이 우리에게 반역할 것이기 때문이 아니라, 우리가 말한 것을 아주 그대로 할 것이기 때문이라고 말합니다.
새로운 아이스크림 맛을 만들거나 도로에서 차들을 인식하는 것과 같은 문제를 풀 때 발생하는, 이상하고 때때로 놀라운 AI 알고리즘의 터무니없는 행동들을 소개하면서 셰인은 왜 AI가 실제 인간의 뇌에 미치지 못하는지 보여줍니다. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:28
Jihyeon J. Kim edited Korean subtitles for The danger of AI is weirder than you think | ||
Jihyeon J. Kim edited Korean subtitles for The danger of AI is weirder than you think | ||
Jihyeon J. Kim approved Korean subtitles for The danger of AI is weirder than you think | ||
Jihyeon J. Kim edited Korean subtitles for The danger of AI is weirder than you think | ||
Jihyeon J. Kim edited Korean subtitles for The danger of AI is weirder than you think | ||
Jihyeon J. Kim edited Korean subtitles for The danger of AI is weirder than you think | ||
DK Kim accepted Korean subtitles for The danger of AI is weirder than you think | ||
DK Kim edited Korean subtitles for The danger of AI is weirder than you think |