어떻게 문명이 스스로를 파괴할 수 있는지와 그것을 막을 수 있는 4 가지 방법
-
0:00 - 0:03크리스 앤더슨: 닉 보스트롬 박사님.
-
0:03 - 0:07박사님은 여러 가지 놀라운 아이디어를
많이 내놨었잖아요. -
0:07 - 0:09몇십 년 전이었던 것 같은데
-
0:09 - 0:12우리 모두가 가상공간 속에서
살지도 모른다고 주장했죠. -
0:12 - 0:13어쩌면 이미 살고 있을 수도 있고요.
-
0:13 - 0:15좀 더 최근에는
-
0:15 - 0:19인공지능이 어떻게 끔찍하게
잘못될 수 있는지에 대한 -
0:19 - 0:21아주 생생한 예를 그렸습니다.
-
0:22 - 0:23그리고 올해는
-
0:23 - 0:25곧 논문을 발표하실 거고요.
-
0:25 - 0:29취약한 세계 가설이라 부르는
것에 관한 논문 말입니다. -
0:29 - 0:34오늘 저녁에는그 논문에 대해
설명을 좀 들어 보겠습니다. -
0:34 - 0:36그럼, 시작해 볼까요?
-
0:37 - 0:39그 가설은 어떤 것인가요?
-
0:40 - 0:42닉 보스트롬: 현재 인류의 상태에 대한
-
0:42 - 0:46일종의 구조적 특징에 대해
생각해 보려고 합니다. -
0:47 - 0:49대표님은 항아리 은유법을 좋아하잖아요.
-
0:50 - 0:51그래서 그걸로 설명해 보겠습니다.
-
0:51 - 0:56공이 가득 든 큰 항아리를
상상해 보세요. -
0:56 - 1:00공은 아이디어, 방법들,
가능한 기술들을 나타내죠. -
1:01 - 1:05인류의 창의성 역사를
-
1:05 - 1:08이 항아리에 손을 넣어 공을 하나씩
뽑아내는 것으로 생각할 수 있습니다. -
1:08 - 1:12지금까지 순 효과는 큰 득이 됐고요.
-
1:12 - 1:14우리가 뽑아낸 건 수많은 하얀 공과
-
1:14 - 1:17축복이자 저주일지 모르는
일부의 회색 빛깔 공이었습니다. -
1:18 - 1:21지금까지 검은 공을 뽑은 적이 없었죠.
-
1:22 - 1:28검은 공은 그것을 발견한 문명을
확실하게 파괴할 수 있는 기술입니다. -
1:28 - 1:31논문에선 무엇이 그런 검은 공이
될 수 있는지 생각해 보려고 합니다. -
1:31 - 1:33CA: 그러니까 박사님은 그 공을
-
1:33 - 1:37필연적으로 문명의 파괴를
초래하는 것으로 정의하는 군요. -
1:37 - 1:42NB: 이른바 반 무정부 상태를
벗어나지 않는다면 그렇겠죠. -
1:42 - 1:43어떤 조치를 취하지 않는다면요.
-
1:44 - 1:48CA: 그러니까 박사님은
일종의 반증을 보여줌으로써 -
1:48 - 1:50이 주장을 설득력있게 만들었군요.
-
1:50 - 1:53즉 우리는 지금까지 운이 좋았을 뿐이고
-
1:53 - 1:56파멸의 공을 뽑았을지도
모른다고 생각하시는 거죠. -
1:56 - 1:57우리도 모르는 사이에 말이죠.
-
1:57 - 2:00여기 인용문이 있는데,
이 인용문은 뭐죠? -
2:00 - 2:02[천체 물리학의 끝은 수소 폭탄이다.
뉴튼(이 아니고) 닉 보스트롬] -
2:02 - 2:05NB: 제 생각엔 그건 단지
기본적인 발견이 어떤 결과를 가져올지 -
2:05 - 2:08예측하는 것의 어려움을 보인 겁니다.
-
2:08 - 2:11우리는 그런 능력이 없습니다.
-
2:11 - 2:15우리는 공을 뽑는 데는 능숙하지만
-
2:15 - 2:18공을 다시 항아리에 넣는
능력은 정말 없거든요. -
2:18 - 2:21우리는 발명을 할 순 있지만
발명한 걸 없던 걸로 할 순 없습니다. -
2:22 - 2:24그래서 우리 전략은 말 그대로
-
2:24 - 2:27항아리에 검은 공이 없기를
바라는 겁니다. -
2:27 - 2:31CA: 일단 밖으로 나오면 나온 것이고
그걸 다시 넣을 수는 없는데 -
2:31 - 2:32그동안 운이 좋았다고 생각하는군요.
-
2:32 - 2:35몇 가지 예를 살펴봅시다.
-
2:35 - 2:38박사님은 서로 다른 유형의
취약성에 대해 이야기합니다. -
2:38 - 2:40NB: 가장 이해하기
쉬운 예는 기술이죠. -
2:41 - 2:46대량 파괴를 매우 쉽게
만드는 기술 말입니다. -
2:46 - 2:47[누구나 대량 파괴 수단을 쉽게 취득]
-
2:47 - 2:51합성 생물학은 그런 종류 검은 공의
풍부한 원천이 될 수 있습니다. -
2:51 - 2:54하지만 다른 많은 것들이 가능하죠.
-
2:54 - 2:56지구 공학에 대해 생각해 보십시오.
정말 대단합니다. -
2:56 - 2:58지구 온난화와 싸울 수 있습니다.
-
2:58 - 3:01하지만 동시에 그게 너무
쉬워지길 원하진 않겠죠. -
3:01 - 3:03어떤 사람이 순진한 사람들과 함께
-
3:03 - 3:06지구의 기후를 근본적으로 바꿀 수 있는
능력을 가지는 걸 원하진 않죠. -
3:06 - 3:10치명적인 무인 드론도 가능하죠.
-
3:10 - 3:13대량 생산된 모기 크기의
킬러 로봇 떼 말입니다. -
3:14 - 3:17나노 기술이나 범용 인공 지능일
수도 있습니다. -
3:17 - 3:19CA: 박사님은 논문에서
이렇게 주장했죠. -
3:19 - 3:21핵 연쇄반응을 이용해서
폭탄을 만들 수 있다는 걸 -
3:22 - 3:25우리가 알았을 때
그건 순전히 우연이었다. -
3:25 - 3:26즉 누구나 쉽게 접할 수 있는
-
3:26 - 3:28훨씬 다루기 쉬운 원료로
-
3:28 - 3:32폭탄을 만들 수도 있었을 것이다.
-
3:32 - 3:35NB: 그렇습니다.
1930년대를 돌이켜보세요. -
3:35 - 3:40처음으로 핵물리학 분야에서
획기적인 발전을 이루었을 때 -
3:40 - 3:44어떤 천재가 핵 연쇄 반응을
일으킬 수도 있다는 걸 알아냈고 -
3:44 - 3:47폭탄으로 이어질 수 있다는 걸 알았죠.
-
3:47 - 3:49그리고 우리는 더 많은 연구를 했고
-
3:49 - 3:52핵폭탄을 만들기 위해 필요한 것은
-
3:52 - 3:54고농축 우라늄이나
플루토늄이라는 걸 알아냈는데 -
3:54 - 3:56그건 구하기 매우 어려운 재료들이었죠.
-
3:56 - 3:58초원심 분리기가 필요하며
-
3:58 - 4:02엄청난 양의 에너지와 같은
반응로도 필요합니다. -
4:02 - 4:04하지만 그 대신에 이랬었다 가정해보죠.
-
4:04 - 4:08원자 에너지를 방출하기 위한
쉬운 방법이 있었다고요. -
4:08 - 4:11어쩌면 전자레인지로 모래를 굽는 것이나
-
4:11 - 4:12아니면 그런 비슷한 것으로
-
4:12 - 4:14핵폭발을 일으킬 수도 있었다고요.
-
4:14 - 4:16우리는 그게 물리적으로
불가능하다는 것을 알고 있습니다. -
4:16 - 4:18하지만 관련 물리학
분야를 연구하기 전에 -
4:18 - 4:20그게 어떻게 될지
어떻게 알 수 있겠습니까? -
4:21 - 4:22CA: 하지만 박사님은
-
4:22 - 4:24생명체가 지구에서 진화하기 위해서는
-
4:24 - 4:27어느 정도 안정된 환경이어야
한다고 주장하지 않았나요? -
4:27 - 4:32만약 비교적 쉽게 대규모
핵반응을 일으킬 수 있었다면 -
4:32 - 4:33지구는 결코 안정되지 않았을 겁니다.
-
4:33 - 4:35우리가 여기 있지도 않겠죠.
-
4:35 - 4:38NB: 그렇죠, 목적을 갖고
하기는 쉽지만 -
4:38 - 4:41우연히 일어나지는 않을 그런
무엇인가가 있는 게 아니라면요. -
4:41 - 4:43우리가 쉽게 할 수 있는 일,
-
4:43 - 4:45예를 들어 블록 열 개를
쌓는 것은 쉬운 일이지만 -
4:45 - 4:48자연에서 10개의 블록이
쌓여있는 걸 찾진 못할 겁니다. -
4:48 - 4:50CA: 그렇죠, 아마도 많은 사람들이
-
4:50 - 4:52가장 걱정하는 것 중 하나일 겁니다.
-
4:52 - 4:55합성 생물학은 가까운 미래에
인류를 거기에 이르게 할 것으로 -
4:55 - 4:58우리가 예상할 수 있는
가장 빠른 길일 것입니다. -
4:58 - 5:01NB: 네, 그러니까 그게
무슨 뜻일지 생각해보세요. -
5:01 - 5:05아무나 부엌에서 한나절 작업하는 것으로
-
5:05 - 5:07도시를 파괴할 수 있다면요.
-
5:07 - 5:10우리가 알고 있는 현대 문명이
-
5:10 - 5:12어떻게 살아 남을지 알기 어렵습니다.
-
5:12 - 5:14인구가 백만 명이라면
-
5:14 - 5:17어떤 이유로든 그 파괴력을 사용하는 걸
-
5:17 - 5:19선택할 사람이 항상 있게 마련이니까요.
-
5:20 - 5:23따라서 그 종말론자가
-
5:23 - 5:25도시 하나를 파괴하기로 결정했다면
또는 더 나쁜 걸 원한다면 -
5:25 - 5:26도시 여러 개가 파괴될 겁니다.
-
5:26 - 5:30CA: 이건 다른 종류의 취약성이네요.
이것에 대해 얘기해 보죠. -
5:30 - 5:31[2A 강대국들에 대한 부정적 유인]
-
5:31 - 5:35NB: 이런 명백한 검은 공으로
-
5:35 - 5:37많은 것들을 날려버릴 수 있는 외에도
-
5:37 - 5:42다른 종류의 공들이 인간이
유해한 일을 하도록 -
5:42 - 5:44나쁜 동기를 부여하는
방식으로 작동할 겁니다. -
5:44 - 5:48우리가 2A 유형이라고 부르는 것은
-
5:48 - 5:53강대국이 그 강력한 힘을
파괴에 사용하도록 -
5:53 - 5:57동기부여하는 기술입니다.
-
5:57 - 6:00그러니까 핵무기는 사실
여기에 아주 가까운 거죠. -
6:02 - 6:05우리가 한 일은
10조 달러 이상을 들여 -
6:05 - 6:087만 개의 핵탄두를 만들어
-
6:08 - 6:10일촉 즉발의 위태로운
경계 태세로 들어선 겁니다. -
6:10 - 6:12냉전 기간 동안 우리는 여러 번이나
-
6:12 - 6:14서로를 거의 파멸시킬
뻔한 적이 있었습니다. -
6:14 - 6:17많은 사람들이 자신을 폭파시키기 위해
-
6:17 - 6:1910조 달러를 쏟아붓는 것을
졸은 생각으로 여겼기 때문이 아니고 -
6:19 - 6:22그 유인이 우리를 그렇게 만든 것이죠.
-
6:22 - 6:23더 나쁜 경우도 가능했겠죠.
-
6:23 - 6:26안전한 첫 번째 공격이
있었다고 상상해 보세요. -
6:26 - 6:29그렇다면
-
6:29 - 6:30위기 상황에서
-
6:30 - 6:33모든 핵 미사일 발사를 억제하는 것은
매우 어려웠을지도 모릅니다. -
6:33 - 6:36적어도 상대방이 그렇게 할까 봐
두려울 테니까요. -
6:36 - 6:38CA: 맞습니다. 상호 확증 파괴는
-
6:38 - 6:41냉전을 비교적 안정적으로 유지시켰고
-
6:41 - 6:43그게 없었다면 우린 지금
여기 없을지도 모릅니다. -
6:43 - 6:44NB: 더 불안정할 수도 있었겠죠.
-
6:44 - 6:46그리고 기술의 다른 속성이
있을 수 있습니다. -
6:46 - 6:50무기 조약을 맺는 것은
어려웠을지도 모릅니다. -
6:50 - 6:51만약 무기가 핵보다 더 작거나
-
6:51 - 6:54성능이 떨어지는 것이었다면요.
-
6:54 - 6:57CA: 강대국들이 나쁜 동기를
갖는 것과 마찬가지로 -
6:57 - 7:002B 유형처럼 모두가 나쁜 동기를
가지는 것도 우려하고 있네요. -
7:00 - 7:05NB: 네, 지구온난화를 생각해봅시다.
-
7:07 - 7:09각자가 지구온난화에 영향을
미치는 일을 하게 만드는 -
7:09 - 7:11작은 편의 시설들이 많이 있습니다.
-
7:11 - 7:14그건 개별적으론 큰 영향이 없습니다만
-
7:14 - 7:16수십억의 사람들이 그것을 한다면
-
7:16 - 7:18누적이 되어 나쁜 영향을 끼칠 겁니다.
-
7:18 - 7:21지구온난화는 지금보다 훨씬 더
심각할 수도 있었을 겁니다. -
7:21 - 7:22[2B 일반 대중에 대한 부정적 유인]
-
7:22 - 7:24기후민감도 매개변수가 있습니다.
-
7:24 - 7:28일정량의 온실가스를 배출하면
얼마나 따뜻해지는지 -
7:28 - 7:30알려주는 매개 변수 입니다.
-
7:30 - 7:33하지만 가정해 봅시다.
-
7:33 - 7:35우리가 배출한 온실가스의 양으로
-
7:35 - 7:412100년까지 3도에서 4.5도
사이의 온도 상승 대신에 -
7:41 - 7:4415도 또는 20도의 온도 상승이
발생했다고 가정한다면요. -
7:44 - 7:46우리는 아마 매우 난처한 상황에
처했을 수도 있을 겁니다. -
7:46 - 7:50혹은 재생에너지의 실현이
훨씬 더 어려웠다거나 -
7:50 - 7:52땅에 더 많은 화석연료가
있었다고 가정한다면요. -
7:52 - 7:55CA: 이런 경우는 어떤가요?
-
7:55 - 7:57만약 우리가 오늘 하고 있는 것이
-
7:57 - 8:02우리가 살아 있는 동안
10도나 변화시킨다면 -
8:02 - 8:05사실 인류는 궁지에서 벗어나
뭔가 조치를 취했을 겁니다. -
8:06 - 8:08우리는 어리석지만
그 정도로 어리석진 않죠. -
8:08 - 8:10아니면 그럴 지도 모르고요.
-
8:10 - 8:11NB: 장담하지 마세요.
-
8:11 - 8:13(웃음)
-
8:13 - 8:15다른 특징들에 대해
생각해볼 수 있습니다. -
8:15 - 8:20지금 당장은 재생 에너지 같은 것으로
바꾸기가 좀 어렵긴 하지만 -
8:20 - 8:22가능한 일입니다.
-
8:22 - 8:25하지만 약간의 물리적 차이가
있었을 수도 있어서 -
8:25 - 8:27이런 것들을 하는 게 훨씬 더
돈이 많이 들었을 수는 있겠네요. -
8:28 - 8:30CA: 박사님의 생각은 어떤가요?
-
8:30 - 8:32이런 가능성들을 종합해서 생각해보면
-
8:32 - 8:37이 지구와 인류가
-
8:37 - 8:38취약한 세계라고 생각하세요?
-
8:38 - 8:41인류의 미래에는 죽음의 공이 있을까요?
-
8:44 - 8:45NB : 그건 말하기 어렵지만
-
8:45 - 8:50항아리 안에는 다양한
검은 공들이 있을 것 같습니다. -
8:50 - 8:52그렇게 보입니다.
-
8:52 - 8:54어쩌면 황금 공도 들어 있어서
-
8:54 - 8:58우리를 검은 공으로부터 보호하는 데
도움이 될 수도 있을 거에요. -
8:58 - 9:01그런데 그게 어떤 순서로
나올지는 몰라요. -
9:01 - 9:04CA : 이 아이디어에 관해
할 수 있는 철학적 비판 중에는 -
9:04 - 9:10이런 생각이 미래는 본질적으로
정해져 있다고 본다는 점이 있겠죠. -
9:10 - 9:13저기에 공이 있든지
없든지 둘 중 하나죠. -
9:13 - 9:16그리고 어떻게 보면
-
9:16 - 9:18그건 제가 믿고 싶은
미래의 관점이 아니에요. -
9:18 - 9:21미래가 결정되지 않았다고
믿고 싶습니다. -
9:21 - 9:23즉 오늘 우리가 내린 결정이
-
9:23 - 9:25항아리에서 어떤 종류의 공을
꺼낼지 결정하게 될 겁니다. -
9:26 - 9:30NB: 제 말은, 우리가
계속 발명을 한다면 -
9:30 - 9:32결국에는 모든 공을 뽑을 거예요.
-
9:33 - 9:36제 말은, 약한 형태의 기술 결정론이
-
9:36 - 9:38꽤 그럴듯하다고 생각합니다.
-
9:38 - 9:40제트기 안에서 부싯돌을 쓰는 사회가
-
9:40 - 9:43있을 것 같지는 않습니다.
-
9:44 - 9:48기술이 행동을 유도한다고
생각할 수도 있습니다. -
9:48 - 9:51기술은 우리가 다양한
일을 할 수 있게 하고 -
9:51 - 9:53그로 인해 세계에
다양한 효과를 가져옵니다. -
9:53 - 9:56그것을 어떻게 사용할지는
물론 우리 선택에 달려 있습니다. -
9:56 - 9:59하지만 이 세 가지 유형의
취약성에 대해 생각한다면 -
9:59 - 10:02그것들을 어떻게 사용할 것인지에 대해
상당히 약한 가정을 합니다. -
10:02 - 10:06다시 말하지만 1유형의 취약성은
거대한 파괴력입니다. -
10:06 - 10:07이건 상당히 타당한 생각인데
-
10:07 - 10:10수백만 명의 인구 중에서 어떤 사람들은
-
10:10 - 10:12그걸 파괴적으로
사용하길 선택할 겁니다. -
10:12 - 10:15CA: 제게 가장 혼란스러운 주장은
-
10:15 - 10:20우리가 항아리에 대한
어떠한 견해를 가지는 것이 -
10:20 - 10:23실제로 파멸할 가능성을
높게 만든다는 것입니다. -
10:23 - 10:28즉, 만약 당신이 가속력을 믿는다면
-
10:28 - 10:30그 기술은 본질적으로 가속화되며
-
10:30 - 10:33우리를 더 강력하게 만드는
도구를 만든다는 것입니다. -
10:33 - 10:35어느 순간 우리는
-
10:35 - 10:38개인이 우리 모두를 파멸시킬 수 있는
단계에 도달하게 될 것이고 -
10:38 - 10:41그러면 우리는 아마도 파멸하겠죠.
-
10:41 - 10:44그 주장은 꽤 놀랍지 않나요?
-
10:44 - 10:46NB: 아, 네.
-
10:47 - 10:48(웃음)
-
10:48 - 10:49제 생각엔
-
10:51 - 10:52우리는 점점 더 많은 힘을 얻고
-
10:52 - 10:56그 힘을 사용하는 것이
점점 더 쉬워질 겁니다. -
10:56 - 11:00하지만 우리는 사람들이 그러한 힘을
어떻게 사용하는지를 통제하는 데에 -
11:00 - 11:02도움을 주는 기술도 만들 수 있습니다.
-
11:02 - 11:05CA: 그것에 대해 이야기해 보죠.
거기에 대한 대응에 대해서요. -
11:05 - 11:09현존하는 모든 가능성에 대해
생각한다고 가정해봅시다. -
11:09 - 11:13합성 생물학뿐 아니라 사이버 전쟁,
-
11:13 - 11:17인공 지능 등과 같은 것들로
-
11:17 - 11:21우리의 미래에 심각한 파멸이
있을지도 모릅니다. -
11:21 - 11:23어떻게 해야 할까요?
-
11:23 - 11:26네 가지 가능한 대응법에
대해서 이야기하셨는데요. -
11:26 - 11:28[대응 1: 기술 발전을 제한하기]
-
11:28 - 11:31NB: 기술 개발의 전면적인
중단을 말하는 것이라면 -
11:31 - 11:35기술 발전을 제한하는 것이
유망하다고 생각되진 않네요. -
11:35 - 11:38실현 가능하지도 않고 가능하다고 해도
바람직하지 않은 것 같아요. -
11:38 - 11:41기술 발전 속도를 늦추고 싶은 분야는
-
11:41 - 11:44매우 제한적일 수 있습니다.
-
11:44 - 11:47예를 들어 생물학 무기나
동위 원소 분리에서는 -
11:47 - 11:49더 빠른 발전을 원치 않을 겁니다.
-
11:49 - 11:52핵무기를 만들기가 더 쉬워질 테니까요.
-
11:53 - 11:56CA: 저도 전에는
그렇게 생각했습니다만 -
11:56 - 11:59조금 다른 견해를 살펴보죠.
-
11:59 - 12:03우선 지난 수십 년의 역사를 보면
-
12:03 - 12:07아시다시피 항상 전속력으로 나아갔죠.
-
12:07 - 12:09그게 우리의 유일한 선택이었습니다.
-
12:09 - 12:13하지만 세계화와 그 급속한 가속화를,
-
12:13 - 12:16'빨리 움직이고 무엇이든
혁파하십시오.'라는 전략과 -
12:16 - 12:19그래서 무슨 일이 일어났는지,
-
12:19 - 12:21그리고 합성 생물학의 잠재력을 본다면
-
12:21 - 12:26모든 가정과 고등학교 실험실에서
-
12:26 - 12:29빠른 속도로 아무 제약 없이
DNA 프린터를 가질 수 있는 세상으로 -
12:29 - 12:32앞으로 나아가야만
하는 건지 의문입니다. -
12:33 - 12:35몇 가지 제약이 있습니다, 그렇죠?
-
12:35 - 12:38NB: 아마도 첫째는
실현가능하지 않은 것입니다. -
12:38 - 12:40개발을 멈추는 게
바람직하다고 생각하더라도 -
12:40 - 12:41실현가능성의 문제가 있습니다.
-
12:42 - 12:44한 국가의 경우엔 소용이 없을 거예요.
-
12:44 - 12:46CA: 그렇죠, 한 국가가
그렇게 한다면 어쩔 수 없겠죠. -
12:46 - 12:49하지만 우린 전에 조약을
맺은 적이 있습니다. -
12:49 - 12:53그게 우리가 핵 위협에서
살아남은 방법입니다. -
12:53 - 12:57그 자리에 나가서 고통스러운
협상 과정을 거치는 것이었습니다. -
12:57 - 13:02세계적으로 우선순위를 둬서
-
13:02 - 13:04우리가 그 곳에 나가서
-
13:04 - 13:06합성 생물 연구가 이루어지는 곳에 대한
아주 엄격한 규칙 마련을 위한 -
13:06 - 13:09협상을 시작하지 않으면
안되는 거 아닐까요? -
13:09 - 13:12누구나 할 수 있도록 하고
싶은 건 아니잖나요? -
13:12 - 13:14NB: 저도 그렇게 생각합니다.
-
13:14 - 13:18바람직하기로는 예를 들어
-
13:18 - 13:22DNA 합성 장치는
-
13:22 - 13:25각자 실험실에서 소유하는 것이 아니라
-
13:25 - 13:27서비스로서 갖춰지는 거죠.
-
13:27 - 13:29어쩌면 세계에 네다섯 곳 정도가 있어서
-
13:29 - 13:33디지털 청사진을 받아서 DNA를
제작해주면 되지 않을까 합니다. -
13:33 - 13:35그러면 그걸 통제할 수 있겠죠.
-
13:35 - 13:37언젠가 진짜로 제한이 필요한 것 같으면
-
13:37 - 13:39제한된 수의 지점에서
통제를 할 수 있겠죠. -
13:39 - 13:43좀 더 엄격하게 통제할 수 있는
-
13:43 - 13:45특별한 기회 같은 걸
원하는 거 같군요. -
13:45 - 13:47CA: 박사님은 근본적으로
-
13:47 - 13:50우리가 스스로 자제하지
못할 거라고 생각하시네요. -
13:50 - 13:52어딘가의 누군가가,
예를 들어 북한과 같은 -
13:52 - 13:56누군가가 그곳에 가서
이 지식을 발견하게 된다는 거죠. -
13:56 - 13:57만약 그것이 거기 있다면요.
-
13:57 - 13:59NB: 현재로서는 그렇게 보입니다.
-
13:59 - 14:02단지 합성생물학만이 아닙니다.
-
14:02 - 14:04제 말은, 세상 어떤 종류의
심오하고 새로운 변화도 -
14:04 - 14:06검은 공이 될 수 있다는 겁니다.
-
14:06 - 14:07CA: 다른 대응법을 봅시다.
-
14:07 - 14:09NB: 이것도 한정적이긴 합니다만
-
14:09 - 14:11[대응 2: 불량 세력을 제거하기]
-
14:11 - 14:141유형의 취약성에 대해서는
-
14:14 - 14:18그런 수단을 손에 넣기만 한다면
-
14:18 - 14:20세상을 파괴하고 싶어하는 사람의 수를
-
14:20 - 14:22줄일 수 있다면
그건 괜찮을 것 같은데요. -
14:22 - 14:24CA: 박사님이 부탁한 이 영상에서는
-
14:24 - 14:28얼굴 인식 기능이 있는 드론이
전 세계를 날아다닙니다. -
14:28 - 14:32누군가가 반사회적 행동을 하려는
조짐이 보이는 것을 발견하면 -
14:32 - 14:34사랑을 쏟아붓고 그들을 치료합니다.
-
14:34 - 14:36NB: 복합적인 영상 같네요.
-
14:36 - 14:40제거는 감금 또는 살해와 같은
것을 의미할 수도 있고 -
14:40 - 14:43더 나은 세계관을 갖도록
설득하는 거일 수도 있습니다. -
14:43 - 14:45하지만 요점은
-
14:45 - 14:47이러한 일이 매우 성공적이었고
-
14:47 - 14:50그런 사람들의 수를 절반으로
줄였다고 가정해보죠. -
14:50 - 14:52설득이라는 수단으로 이를 달성하려면
-
14:52 - 14:54사람들을 설득하려고 하다가
정당, 종교, 교육시스템과 같은 -
14:54 - 14:58비슷한 목적을 갖는
모든 다른 강력한 세력과 겨루게 됩니다. -
14:58 - 15:00하지만 그 인원을 절반으로
줄였다고 하더라도 -
15:00 - 15:02그 위험이 절반으로
줄어들진 않을 겁니다. -
15:02 - 15:04대충 5%나 10% 정도겠죠.
-
15:04 - 15:08CA: 2번 대응법에 인간의 미래를
걸라고 권하는 건 아니네요. -
15:08 - 15:11NB: 저는 사람들을 단념시키고
설득하는 것이 좋다고 생각해요. -
15:11 - 15:14하지만 그것을 유일한 안전장치로
의존해서는 안되겠지요. -
15:14 - 15:15CA: 세 번째는 뭐죠?
-
15:15 - 15:17NB: 두 가지 일반적인
방법이 있을 것 같습니다. -
15:17 - 15:18[대응 3: 대중을 감시하기]
-
15:18 - 15:22이 방법들을 사용해서 가능한
모든 범위의 취약성에 대해 -
15:22 - 15:25세상을 안정시킬 수 있을 것 같습니다.
-
15:25 - 15:27아마 둘 다 필요할 겁니다.
-
15:27 - 15:31하나는 매우 효과적인
-
15:32 - 15:33예방 정책입니다.
-
15:33 - 15:35차단을 할 수 있는 거죠.
-
15:35 - 15:38누군가 위험한 일을 시작한다면
-
15:38 - 15:40중간에 실시간으로
막고 저지할 수 있습니다. -
15:40 - 15:43그러기 위해서는 유비쿼터스 감시가
필요하게 될 것입니다. -
15:43 - 15:45누구나 항상 감시당하고 있는 거죠.
-
15:46 - 15:49CA: 일종의 영화,
'마이너리티 리포트'네요. -
15:49 - 15:51NB: 인공지능 알고리즘이나
-
15:51 - 15:55여러 가지 사찰을 하는 자유센터 같은
것이 이용될지도 모릅니다. -
15:57 - 16:01CA: 대중감시가 지금 그렇게
인기 있는 용어는 아니라는 거 알죠? -
16:01 - 16:03(웃음)
-
16:03 - 16:05NB: 그러니까 이 작은 장치,
-
16:05 - 16:11다방향 카메라가 달린 목걸이를
항상 몸에 지니고 다니는 것을 상상해보세요. -
16:11 - 16:12(웃음)
-
16:12 - 16:14쉽게 받아들일 수 있도록
-
16:14 - 16:16'자유의 표식' 같은
이름을 붙이면 좋겠네요. -
16:16 - 16:18(웃음)
-
16:18 - 16:19CA: 알았어요.
-
16:20 - 16:22그러니까 이 대화가
-
16:22 - 16:25깜짝 놀랄만한 이야기라고
하는 겁니다, 여러분. -
16:25 - 16:28NB:이것에 관해서는
-
16:28 - 16:29당연히 많은 논란이 있습니다.
-
16:29 - 16:32엄청난 문제와 위험이 따릅니다.
-
16:32 - 16:33나중에 거기에 대해 다시 얘기해 보죠.
-
16:33 - 16:34다른 하나, 마지막으로
-
16:34 - 16:37일반적인 안정화 기능은
-
16:37 - 16:39지배구조 격차를 막는 것입니다.
-
16:39 - 16:40[대응 4: 전 세계적 지배구조]
-
16:40 - 16:43감시는 미시적인 수준의
지배구조 격차일 겁니다. -
16:43 - 16:46어떤 개인이 불법적인 행동을
하지 못하게 하는 것처럼요. -
16:46 - 16:49그러면 거시적 차원, 세계적 차원에서는
-
16:49 - 16:51그에 상응하는 지배구조
격차가 있습니다. -
16:51 - 16:54이 능력은
-
16:54 - 16:57최악의 세계적 협력 실패에
대비하기 위한 겁니다. -
16:57 - 17:01강대국 간의 전쟁,
-
17:01 - 17:02무기 경쟁,
-
17:04 - 17:06공유자원이 파탄나는 문제,
-
17:08 - 17:122A 유형의 취약성에 대한 대처입니다.
-
17:12 - 17:14CA: 세계적 지배구조는
-
17:14 - 17:16확실히 시대에 뒤떨어진 용어지만
-
17:16 - 17:19역사 전체에 걸쳐,
-
17:19 - 17:20인류 역사 전체에 걸쳐
-
17:20 - 17:25기술력이 증대될 때마다
-
17:25 - 17:29사회는 재구성되고 그 힘은
집중되는 걸 볼 수 있습니다. -
17:29 - 17:32예를 들어, 한 무리의 범죄자들이
-
17:32 - 17:34한 사회를 장악할 수 있었을 때
-
17:34 - 17:36그 결과는 민족 국가가 나타나고
-
17:36 - 17:38경찰이나 군대 같은
권력을 집중시키는 거죠. -
17:39 - 17:40그러니 "그래서는 안됩니다"인 거죠.
-
17:40 - 17:45어쩌면 한 사람이나 한 그룹이
-
17:45 - 17:46인류를 파멸시킬 수 있다는 논리는
-
17:46 - 17:48어떤 시점에서는 이 길을 가고
만다는 걸 의미하는 거 아닌가요? -
17:48 - 17:50적어도 비슷한 형태로라도요.
-
17:50 - 17:57NB: 인류 역사에 걸쳐 정치 조직의
규모가 커진 것은 분명합니다. -
17:57 - 17:58예전에는 수렵 채집 집단 정도였죠.
-
17:58 - 18:02그다음에는 군장사회,
도시국가나 국가가 출현하고 -
18:02 - 18:06지금은 국제 조직 등등이 있습니다.
-
18:06 - 18:09다시 한 번 제가 강조하고 싶은 건
-
18:09 - 18:12대중감시와 세계적 지배구조는 모두
-
18:12 - 18:16큰 단점과 엄청난 위험이
당연히 있다는 겁니다. -
18:16 - 18:18제가 말씀드리고 싶은 건
우리가 운이 좋다면 -
18:18 - 18:20이게 검은 공으로부터 살아남을 수 있는
-
18:20 - 18:22유일한 방법일지도 모른다는 것입니다.
-
18:22 - 18:25CA: 즉 이 말은,
-
18:25 - 18:26제가 보기엔
-
18:26 - 18:30모든 것을 손에 넣을 수는 없다는 걸
인식해야 된다는 거군요. -
18:33 - 18:37많은 사람들이 갖고 있는
그런 종류의 순진한 꿈, -
18:37 - 18:40즉, 기술은 항상 선을 위한 힘이 되고
-
18:40 - 18:42계속 나아가고, 멈추지 않고,
가능한 한 빨리 나아가고 -
18:42 - 18:45결과에 주의를 기울이지
않아도 된다는 그런 꿈은 -
18:45 - 18:46실제로 가능한 선택지가 아니라는 거죠.
-
18:46 - 18:49우리가 그것을 가질 수는 있겠지만
-
18:49 - 18:52만약 그것을 얻는다면
다른 일들도 받아들여야만 하는 거죠. -
18:52 - 18:54그것과 함께 오는 아주 불편한 일들과
-
18:54 - 18:57자신과의 무기 경쟁과 같은 것들이요.
-
18:57 - 18:59힘을 갖고 싶다면
제한하는 것이 좋을 것이고 -
18:59 - 19:01어떻게 제한할 것인가에 대해
생각하는 것이 좋을 것입니다. -
19:01 - 19:03NB: 제 생각에 이건
-
19:03 - 19:05아주 매력적인 선택사항입니다.
-
19:05 - 19:09어떤 의미에서는 가장 손쉬운
선택이고 잘 될 수도 있지만 -
19:09 - 19:14본질적으로 검은 공을 꺼낼
위험성이 있다는 말입니다. -
19:14 - 19:16제 생각엔 약간 조정을 해서
-
19:16 - 19:19거시적 지배구조와 미시적 지배구조의
문제를 해결한다면 -
19:19 - 19:22항아리에서 모든 공을 빼낼 수 있고
-
19:22 - 19:24큰 혜택을 얻을 수 있을 겁니다.
-
19:25 - 19:28CA: 우리가 시뮬레이션 안에
살고 있다면 문제될 거 있나요? -
19:28 - 19:29그저 다시 시작하면 되죠.
-
19:29 - 19:32(웃음)
-
19:32 - 19:33NB: 그렇다면, 저는...
-
19:33 - 19:35(웃음)
-
19:35 - 19:37그건 생각해 보지 않았네요.
-
19:37 - 19:38(웃음)
-
19:38 - 19:40CA: 어떻게 생각하십니까?
-
19:40 - 19:44모든 걸 고려했을 때
우리가 파멸할 가능성은요? -
19:44 - 19:47(웃음)
-
19:47 - 19:49이런 질문에 다들 웃으시니 좋네요.
-
19:49 - 19:50NB: 개인적인 차원에서
-
19:50 - 19:53우리는 결국 종말을 맞이 하겠죠.
-
19:53 - 19:57시간이 흐르면서 우리는
노화되고 쇠약해져갑니다. -
19:57 - 19:59(웃음)
-
19:59 - 20:00사실 약간 복잡합니다.
-
20:00 - 20:02확률을 내기 위해서 정해야 할 것은
-
20:02 - 20:04먼저 우리는 누구인가입니다.
-
20:04 - 20:07고령이라면 자연적으로 죽을 겁니다.
-
20:07 - 20:10아주 어리다면 100년은
더 살지도 모르죠. -
20:10 - 20:12누구에게 물어보느냐에 따라
확률은 달라집니다. -
20:12 - 20:16그다음으로 문명 파괴의 기준은 뭘까요?
-
20:16 - 20:20논문에서는 그걸 계산하기 위한
-
20:20 - 20:22대재해는 필요없었습니다.
-
20:22 - 20:25이건 단지 어떻게 정의하는가의 문제로서
-
20:25 - 20:28예로서 10억 명 사망이나
세계 GDP 50% 감소를 들겠습니다. -
20:28 - 20:31무엇을 한계치로 하느냐에 따라
-
20:31 - 20:33확률 전망도 달라집니다.
-
20:33 - 20:37저를 겁에 질린 낙관론자로
몰아붙일 수도 있겠지만요. -
20:37 - 20:39(웃음)
-
20:39 - 20:40CA: 겁에 질린 낙관론자라고 하는데
-
20:40 - 20:45다른 많은 사람들을
두려움에 떨게 만든 것 같네요. -
20:45 - 20:46(웃음)
-
20:46 - 20:48NB: 시뮬레이션 안에서요.
-
20:48 - 20:49CA: 네, 시뮬레이션 안에서요.
-
20:49 - 20:51보스트롬 박사님의 식견에 탄복합니다.
-
20:51 - 20:53우리를 겁에 질리게 해줘서
고맙습니다. -
20:53 - 20:56(박수)
- Title:
- 어떻게 문명이 스스로를 파괴할 수 있는지와 그것을 막을 수 있는 4 가지 방법
- Speaker:
- 닉 보스트롬(Nick Bostrom)
- Description:
-
철학자인 닉 보스트롬은 인류가 스스로 모두를 파괴할 수 있는 기술적 혁신인 '검은 공'을 창조하는 과정에 있다고 말합니다. TED의 크리스 앤더슨 대표와의 이 날카롭고 놀랄 정도로 유쾌한 대화에서, 보스트롬은 우리의 발명이 그 통제를 넘어선다면 (또는 그때가 왔을 때) 우리가 직면할 수 있는 취약점을 설명하고 어떻게 미래의 종말을 막을 수 있는지를 탐구합니다.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 21:09
![]() |
Jihyeon J. Kim approved Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
Jihyeon J. Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim accepted Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it | |
![]() |
DK Kim edited Korean subtitles for How civilization could destroy itself -- and 4 ways we could prevent it |