우리가 통제권을 잃지 않으면서 인공지능을 만들수 있을까요?
-
0:01 - 0:03직감이 틀리는 경우에
대해서 얘기할까 합니다. -
0:03 - 0:05우리가 흔히 겪는 일이죠.
-
0:05 - 0:09이것은 실제로 어떤 종류의
위험을 감지하지 못하는 겁니다. -
0:09 - 0:11가능한 시나리오를 말씀드리겠습니다.
-
0:11 - 0:14아주 무섭기도 하고
-
0:14 - 0:16일어날 가능성도 높죠.
-
0:17 - 0:20이 둘의 조합은 별로
반길 상황은 아닐 겁니다. -
0:20 - 0:23하지만 여러분 대부분은
제가 말씀드릴 내용에 대해서 -
0:23 - 0:25무서워하기 보다는
멋지다고 생각할 겁니다. -
0:25 - 0:30제가 말씀드리고 싶은 것은
인공지능을 만들어서 얻게 될 이점이 -
0:30 - 0:32결국 우리를 파멸시킬 수도
있다는 사실입니다. -
0:32 - 0:34사실 인공지능이 우리를
파멸시키지 않을지 -
0:34 - 0:37우리 스스로 자멸하도록
만들지는 전혀 알 수 없죠. -
0:37 - 0:39하지만 여러분이 저와 같다면
-
0:39 - 0:42이 문제를 생각해 보는 것도
재미있다고 느끼실 겁니다. -
0:42 - 0:45그런 반응도 문제입니다.
-
0:45 - 0:47걱정스런 반응이어야죠.
-
0:48 - 0:51이 강연에서 여러분들에게
-
0:51 - 0:57기후변화나 다른 재앙으로 인해
세계적 기근으로 고통받을 거라든지 -
0:57 - 1:01여러분의 손자나 그들의 손자들이
-
1:01 - 1:03이렇게 살게 될 거라고 설명하면
-
1:03 - 1:05이런 생각은 안드시겠죠.
-
1:05 - 1:07"재미있군.
-
1:07 - 1:08이 강연 맘에 들어"라고요.
-
1:09 - 1:11기근은 재미있는 일이 아닙니다.
-
1:12 - 1:15그러나 공상과학에서
벌어지는 죽음은 재미있죠. -
1:15 - 1:19지금 이 시점에서 인공지능
개발에 대해 가장 걱정되는 것은 -
1:19 - 1:23앞으로 있을 위험에 대한
적절한 감정적 반응을 -
1:23 - 1:25못하는 것 같다는 겁니다.
-
1:25 - 1:28저도 잘 못하면서
이 강연을 하고 있습니다. -
1:30 - 1:33마치 두 개의 문 앞에
서 있는 것과 같습니다. -
1:33 - 1:341번 문으로 들어서면
-
1:34 - 1:37인공지능 기계의 구축은
더이상 진보하지 않습니다. -
1:37 - 1:41컴퓨터 하드웨어와 소프트웨어가
더 이상 발전하지 않습니다. -
1:41 - 1:44왜 그런 일이 일어날지
한번 생각해보죠. -
1:45 - 1:49인공지능과 자동화가
얼마나 가치있는지 안다면 -
1:49 - 1:52할 수 있는 한 계속해서
기술을 향상시키려 하겠죠. -
1:53 - 1:55그걸 멈춘다면 이유가 뭘까요?
-
1:56 - 1:58전면적 핵 전쟁일까요?
-
1:59 - 2:01세계적 전염병 재앙일까요?
-
2:02 - 2:04소행성 충돌일까요?
-
2:06 - 2:08저스틴 비버가 미국 대통령이
된다면 이유가 될까요? -
2:08 - 2:11(웃음)
-
2:13 - 2:17핵심은 뭔가가 우리가 아는
문명을 파괴한다는 겁니다. -
2:17 - 2:22이게 얼마나 나쁠지
생각해 봐야 합니다. -
2:22 - 2:25우리의 기술향상을 막을 정도로 말이죠.
-
2:25 - 2:26영원히
-
2:26 - 2:28앞으로 계속이요.
-
2:28 - 2:32말 그대로 그것은
인류 사상 최악의 일입니다. -
2:33 - 2:34그래서 유일한 대안은
-
2:34 - 2:362번 문 뒤에 있는데
-
2:36 - 2:39인공지능을 계속 발전시키는 겁니다.
-
2:39 - 2:41앞으로 수년 동안 계속이요.
-
2:42 - 2:45언젠가는 우리보다
똑똑한 기계를 만들겠죠. -
2:46 - 2:48더 똑똑한 기계가 생기면
-
2:48 - 2:51기계 스스로 발전할 겁니다.
-
2:51 - 2:53그러면 수학자 아이 제이 굿의 말대로
-
2:53 - 2:55"지능 폭발"이라는
위험성을 안게 되는데 -
2:55 - 2:57우리 통제권을 벗어나는
일이 생기는 거죠. -
2:58 - 3:01여기 보시는 것처럼
이런 풍자만화도 있는데요. -
3:01 - 3:05위험한 로봇 군대가 우리를
공격하리라는 두려움이죠. -
3:05 - 3:08하지만 그건 있을만한 일은 아닙니다.
-
3:08 - 3:13기계가 스스로 악해질 리가 없거든요.
-
3:13 - 3:16문제는 우리가 기계를 만드는데
-
3:16 - 3:18우리보다 너무 능력이 뛰어나서
-
3:18 - 3:23기계와 우리의 목표가 살짝만 어긋나도
우리를 파멸시킬 수 있는 겁니다. -
3:24 - 3:26개미와 관련지어 생각해 보세요.
-
3:27 - 3:28우리는 개미를 싫어하진 않아요.
-
3:28 - 3:30개미를 해치지도 않죠.
-
3:30 - 3:33사실 때로는 해치지 않으려고 노력하죠.
-
3:33 - 3:35길에서 개미들을 넘어서
걸음을 딛잖아요. -
3:35 - 3:37하지만 개미의 존재가
-
3:37 - 3:39우리의 목표와 심각하게 부딪힐 때
-
3:39 - 3:42가령, 이런 건물을 지을 때
-
3:42 - 3:44거리낌없이 전멸시킵니다.
-
3:44 - 3:47문제는 우리가 언젠가 기계를 만들텐데
-
3:47 - 3:50그 기계가 의식이 있든 없든
-
3:50 - 3:53비슷하게 무시하는 태도로
우리를 대할 수 있다는 거죠. -
3:54 - 3:57지나친 억측이라고
생각하는 분이 대다수겠지만 -
3:57 - 4:04초지능 AI가 가능하기나 한지
의심스러운 분도 분명 계시겠죠. -
4:04 - 4:05물론 필연적이라고 보지도 않고요.
-
4:05 - 4:09그럼 다음 가정에서 잘못된
점을 찾으셔야 할 겁니다. -
4:09 - 4:11단 세 가지입니다.
-
4:12 - 4:17지능이란 물리적 시스템에서
정보를 처리하는 것입니다. -
4:17 - 4:20사실 이것은 약간은
가정 그 이상입니다. -
4:20 - 4:23우린 이미 기계에
제한된 지능을 구축했고 -
4:23 - 4:25이 기계들은 이미
-
4:25 - 4:28인간을 뛰어넘는 지능
수준으로 구동합니다. -
4:29 - 4:31우리가 알기로 단순한 문제가
-
4:31 - 4:34"일반 지능"이란 것을
만들어 낼 수도 있죠. -
4:34 - 4:38다양한 분야에서 융통성 있게
사고하는 능력인데 -
4:38 - 4:41우리 뇌는 그렇게 해왔잖아요. 그렇죠?
-
4:41 - 4:45여기 원자들이 있고
-
4:45 - 4:49원자 시스템을 계속 구축해서
-
4:49 - 4:52점점 더 지능적인 행동을 하게 하면
-
4:52 - 4:55중간에 멈추지만 않는다면
-
4:55 - 4:58우린 마침내 일반지능을
-
4:58 - 4:59기계에 구축할 겁니다.
-
4:59 - 5:03진보의 속도가 문제되지
않음을 아는게 중요합니다. -
5:03 - 5:06어떻게든 발전하면 끝까지
갈 수 있기 때문이죠. -
5:06 - 5:10계속 하기 위해 무어의 법칙이나
기하급수적인 진보가 필요없습니다. -
5:10 - 5:12그냥 계속 하면 되죠.
-
5:13 - 5:16두 번째 가정은 우리가
계속 할 것이라는 겁니다. -
5:17 - 5:20우리는 지능적인 기계를
계속 향상시킬 겁니다. -
5:21 - 5:25지능의 가치를 생각해 볼 때
-
5:25 - 5:29지능이란 우리가 가치있게
여기는 모든 것의 원천이거나 -
5:29 - 5:32가치있는 것을 지키기 위해 필요하죠.
-
5:32 - 5:34우리의 가장 귀한 자원입니다.
-
5:34 - 5:36그래서 개발을 하고 싶은 겁니다.
-
5:36 - 5:39우리는 간절히 해결하고
싶은 문제들이 있죠. -
5:39 - 5:42알츠하이머 병이나 암같은
질병을 치료하고 싶어 합니다. -
5:43 - 5:47경제 체계를 이해하고 기후 과학을
발전시키고 싶어하죠. -
5:47 - 5:49그래서 할 수만 있다면 할 겁니다.
-
5:49 - 5:52기차는 이미 출발했고
멈출 브레이크가 없습니다. -
5:54 - 5:59마지막 가정으로 우리는 지능의
정점에 서있지 않다는 겁니다. -
5:59 - 6:01그 근처에 가지도 못했을 거예요.
-
6:02 - 6:04사실 이게 중요한 생각입니다.
-
6:04 - 6:06바로 그래서 우리 상황이
매우 위험한 겁니다. -
6:06 - 6:10그래서 우리 위험을 인지하는
우리 직감을 믿을 수가 없는 것이죠. -
6:11 - 6:14이제 지구상에서 가장
똑똑한 사람이 있다고 하죠. -
6:15 - 6:18거의 모든 사람들을 추려내면
존 폰 노이만이 나옵니다. -
6:18 - 6:21주변 사람들이 폰 노이만을
어떻게 생각했는지와 -
6:21 - 6:25그가 당대의 위대한 수학자이자
물리학자에 포함된다는 사실은 -
6:26 - 6:27잘 알려져 있죠.
-
6:27 - 6:31그에 대한 일화의 절반 중에서
반만 사실이라 하더라도 -
6:31 - 6:32의심의 여지 없이
-
6:33 - 6:35그는 역사상 가장 똑똑한 사람입니다.
-
6:35 - 6:38지능의 범위를 생각해 보세요.
-
6:38 - 6:40폰 노이만은 여기 있습니다.
-
6:42 - 6:43그리고 여기 여러분과 제가 있죠.
-
6:44 - 6:45그리고 닭은 여기 있습니다.
-
6:45 - 6:47(웃음)
-
6:47 - 6:49닭아 미안하다.
-
6:49 - 6:50(웃음)
-
6:50 - 6:54이 강연을 꼭 우울하게
할 필요는 없죠. -
6:54 - 6:55(웃음)
-
6:56 - 7:00하지만 놀랍게도 지능의 범위는
-
7:00 - 7:03우리가 현재 가질 수 있는
것보다 훨씬 넓게 확장되고 -
7:04 - 7:07우리보다 지능적인 기계를 구축한다면
-
7:07 - 7:09이 범위를 아우를
가능성이 매우 높습니다. -
7:09 - 7:11상상할 수 없을 정도로요.
-
7:11 - 7:14또한 상상할 수 없을 정도로
우리를 능가할 겁니다. -
7:15 - 7:19속도 하나만 봐도
그렇다는 걸 알아야 합니다. -
7:19 - 7:24그렇죠? 초지능 AI를
구축한다고 해봅시다. -
7:24 - 7:30스탠포드 대학이나 MIT의 연구팀의
평균 지능 그 이상은 아닌 정도로요. -
7:30 - 7:35생화학적인 회로보다 전자 회로가
백만 배는 빠르게 작동합니다. -
7:35 - 7:40그러니 이 기계는 그걸 구축한 사람보다
백만 배의 속도로 빠르게 생각하겠죠. -
7:40 - 7:41일주일 동안 돌리면
-
7:41 - 7:46인간 수준 지능의 2만 년
분량을 해치울 겁니다. -
7:46 - 7:48몇 주 동안 계속 말이죠.
-
7:50 - 7:51별 제한 없이
-
7:51 - 7:55이런 진보를 이루어내는 인공지능을
어떻게 받아들여야 할까요? -
7:57 - 7:59솔직히 걱정되는 다른 것은
-
7:59 - 8:04최고의 시나리오를 생각해 보는 겁니다.
-
8:04 - 8:10안전성에 대해 고려하지 않고
초지능 AI를 설계한다고 상상해 보세요. -
8:10 - 8:13처음에는 설계가 완벽하죠.
-
8:13 - 8:17의도한 대로 정확히 행동하는
조력자를 얻은 것 같습니다. -
8:17 - 8:21노동력을 절감해주는
완벽한 기계가 될 겁니다. -
8:22 - 8:24이걸로 물리적인 작업을 할
기계를 만들어 내는 -
8:24 - 8:26또 다른 기계를 고안할 수 있습니다.
-
8:26 - 8:27태양에너지로 돌아가고
-
8:27 - 8:30원자재 정도의 비용만 들어가죠.
-
8:30 - 8:33인간의 고된 노동이 끝나게
된다는 걸 의미하는 거예요. -
8:33 - 8:36그건 대부분의 지적 노동도
끝나게 된다는 말이기도 합니다. -
8:37 - 8:40우리 같은 유인원은
이런 상황에서 뭘 할까요? -
8:40 - 8:44한가로이 원반 던지기 놀이하면서
서로 마사지나 해주겠죠. -
8:46 - 8:49환각제 조금과 이상한 옷만 더하면
-
8:49 - 8:51전 세계가 마치 버닝맨
축제 같을 겁니다. -
8:51 - 8:53(웃음)
-
8:54 - 8:56참 괜찮을 것 같지만
-
8:57 - 9:02현재의 정치 경제 상황에서
무슨 일이 생길지 자문해 보세요. -
9:02 - 9:05다분히 우리들은
-
9:05 - 9:11이전에 없던 부의 불평등과
실업문제를 직면하게 될 겁니다. -
9:11 - 9:15새로운 부를 즉시 모든
인류와 나누려 하지 않고 -
9:16 - 9:19소수의 백만장자들만이
경제지 표지를 장식하겠죠. -
9:19 - 9:22세계의 나머지 인류는
굶어 죽는 동안에요. -
9:22 - 9:25러시아나 중국인은 뭘 할까요?
-
9:25 - 9:27실리콘 밸리의 어떤 회사들이
-
9:27 - 9:30초지능 AI를 곧 사용하려고
한다는 걸 들으면요. -
9:30 - 9:33이 기계는 전쟁도
일으킬 수 있을 겁니다. -
9:33 - 9:35지역분쟁이건 사이버 전쟁이건
-
9:35 - 9:37전례없는 힘을 가지고 말입니다.
-
9:38 - 9:40이건 승자독식의 시나리오입니다.
-
9:40 - 9:43이 경쟁에서 6개월 앞선다는 것은
-
9:43 - 9:47최소한 50만 년 앞서는 것입니다.
-
9:47 - 9:51그래서 이런 혁신적인 일이
-
9:51 - 9:55우리 인류를 미쳐 날뛰게 만들
거라는 소문이 더욱 떠도는 거죠. -
9:55 - 9:58이제 가장 두려운 것은
-
9:58 - 10:00지금 현재, 제 생각에는
-
10:00 - 10:05AI연구자가 이런 말을 하는 겁니다.
-
10:05 - 10:06안심시키려고 말이죠.
-
10:07 - 10:10걱정하지 않아도 되는
이유는 시기 때문이라고 하죠. -
10:10 - 10:13이것은 완전히 빗나간 말입니다.
-
10:13 - 10:15아마도 50에서 100년 뒤겠죠.
-
10:16 - 10:17한 연구원이 말했습니다.
-
10:17 - 10:19"AI의 안전성에 대한 우려는
-
10:19 - 10:21마치 화성의 과잉 인구를
걱정하는 것과 같다." -
10:22 - 10:24실리콘 밸리 식으로
표현하면 이런 뜻이죠. -
10:24 - 10:26"그 쬐그만 머리로 걱정하지 마세요."
-
10:26 - 10:27(웃음)
-
10:28 - 10:29아무도 모르는 것 같습니다.
-
10:29 - 10:34시간의 축을 말하는 게
완전히 잘못된 결론인 것을 -
10:34 - 10:38지능이 그저 정보처리하는 문제라면
-
10:38 - 10:41우리는 기계를 계속 향상시킬 것이고
-
10:41 - 10:44초지능의 형태를 만들게 될 겁니다.
-
10:44 - 10:51그것을 안전하게 할 조건을 만들려면
얼마나 걸릴지 우린 모릅니다. -
10:52 - 10:53다시 말씀드리죠.
-
10:54 - 11:00그걸 안전하게 할 조건을 만드는 게
얼마나 걸릴지 우리는 모른다고요. -
11:01 - 11:04잘 모르신다면, 지금의 50년은
과거와 같은 시간이 아닙니다. -
11:04 - 11:07몇 개월이 50년과 마찬가지죠.
-
11:07 - 11:09아이폰을 갖기까지 그만큼 걸렸습니다.
-
11:09 - 11:12심슨가족이 TV로
방영되는 데 걸린 시간입니다. -
11:13 - 11:1550년이란 그리 많은 시간이 아닙니다.
-
11:15 - 11:18우리 인류가 당면한
최고의 난제를 만나는데요. -
11:20 - 11:24다시, 우리는 제대로 된 감정적 반응을
못하고 있는 것 같습니다. -
11:24 - 11:26앞으로 벌어질 거라고
생각하는 것들에 대해서요. -
11:26 - 11:30컴퓨터공학자 스튜어트 러셀이
멋진 비유를 들었습니다. -
11:30 - 11:35외계문명이 보낸 메세지를
받았다고 상상해 보는 겁니다. -
11:35 - 11:37이런 내용의 메세지죠.
-
11:37 - 11:39"지구인들이여
-
11:39 - 11:41우리는 50년 후에
지구에 도착할 것이다. -
11:42 - 11:43이에 준비하라."
-
11:43 - 11:48그럼 외계 우주선이 도착할
때까지 날짜만 세는 겁니까? -
11:48 - 11:51그것보다는 좀더 위급함을 느껴야죠.
-
11:53 - 11:55우리에게 걱정말라는 다른 이유는
-
11:55 - 11:58이런 기계들은 우리의 가치를
공유할 수밖에 없다는 겁니다. -
11:58 - 12:00말 그대로 우리의 연장선이니까요.
-
12:00 - 12:02기계들은 우리 뇌에 이식될테고
-
12:02 - 12:04우리는 본질적으로 그들의
감정 표현 시스템으로 전락하겠죠. -
12:05 - 12:07한 번 생각해 보세요.
-
12:07 - 12:11가장 안전하고 현명한 방법을 추천하자면
-
12:11 - 12:14이 기술을 우리 뇌에
직접 이식하는 겁니다. -
12:15 - 12:18앞으로 할 수 있는 가장
안전하고 현명한 방법이겠지만 -
12:18 - 12:21기술의 안전성에 대한 우려는 보통
-
12:21 - 12:25머릿속에서 꽂아 보기
전에 해야 할 일이죠. -
12:25 - 12:27(웃음)
-
12:27 - 12:29좀 더 심오한 문제는
-
12:29 - 12:32초지능의 AI를 만드는 것 자체가
-
12:32 - 12:34오히려 더 쉽다는 거에요.
-
12:34 - 12:36초지능 AI를 만들고
-
12:36 - 12:38완전한 신경과학이 있어서
-
12:38 - 12:40우리의 정신을 AI와 매끄럽게
접목시키는 것에 비해서 말이죠. -
12:41 - 12:44기업과 정부가 이 일을 하고 있음을 보면
-
12:44 - 12:48다른 종에 대항하는 존재임을
스스로 인지할 가능성이 있습니다. -
12:48 - 12:51이 경쟁에서 이기는 것이 세상을
이기는 것이라고 한다면요. -
12:51 - 12:53그것을 바로 파괴하지 않는다면
-
12:53 - 12:58가장 쉬운 일을 가장 먼저
할 가능성이 있을 겁니다. -
12:59 - 13:01안타깝게도 저는 이 문제에
대한 해법은 없습니다. -
13:01 - 13:04좀 더 생각해 보자고
하는 것 빼고는요. -
13:04 - 13:06맨하탄 프로젝트 같은 것이 있어서
-
13:06 - 13:08AI에 대한 연구를 해야
되지 않을까 싶습니다. -
13:09 - 13:11만들기 위해서가 아니라,
필연적으로 하게 될테니까 -
13:11 - 13:15군비경쟁을 피할 방법을 알고
-
13:15 - 13:18우리의 관심과 맞출 수
있는 방법을 찾기 위해서죠. -
13:18 - 13:23스스로 변할 수 있는
초지능 AI를 말할 때는 -
13:23 - 13:27첫 출발을 제대로 할 수 있는
기회는 단 한 번뿐인 것 같습니다. -
13:27 - 13:29그때도 우리는
-
13:29 - 13:32제대로 하기 위한 정치 경제적
결과를 감내해야 할 겁니다. -
13:34 - 13:36하지만 우리가 인정하는 순간
-
13:36 - 13:40정보처리가 지능의 원천이고
-
13:41 - 13:46적정 연산 체계가 지능의
기본이라고 하는 순간 -
13:46 - 13:50이 체계를 계속 발전시켜
나갈 것임을 인정하는 것이며 -
13:51 - 13:57우리가 현재 아는 인지의 한계를 훨씬
뛰어넘게 될 것임을 인정하는 겁니다. -
13:58 - 13:59그럼 우리는
-
13:59 - 14:02어떤 신적 존재를 구축하고
있음을 인정해야 합니다. -
14:03 - 14:07지금이야말로 신이 우리와 함께 할 수
있음을 확신하기 좋은 때이겠네요. -
14:08 - 14:10대단히 감사합니다.
-
14:10 - 14:13(박수)
- Title:
- 우리가 통제권을 잃지 않으면서 인공지능을 만들수 있을까요?
- Speaker:
- 샘 해리스(Sam Harris)
- Description:
-
엄청난 지능의 인공지능(AI)이 두려우신가요? 신경과학자이자 철학자인 샘 해리스는 두려워 해야 하고, 단지 이론적으로만 두려워 할 게 아니라고 말합니다. 우리는 인간을 뛰어 넘는 기계를 만들테지만, 우리가 개미를 대하듯이 우리를 그렇게 대할 수도 있는 기계를 만들지도 모른다는 문제는 아직 고민한 적도 없다고 그는 지적합니다.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Jihyeon J. Kim edited Korean subtitles for Can we build AI without losing control over it? | |
![]() |
Jihyeon J. Kim edited Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang edited Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang approved Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang accepted Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang edited Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang edited Korean subtitles for Can we build AI without losing control over it? | |
![]() |
JY Kang edited Korean subtitles for Can we build AI without losing control over it? |