< Return to Video

어떻게 문명이 스스로를 파괴할 수 있는지와 그것을 막을 수 있는 4 가지 방법

  • 0:00 - 0:03
    크리스 앤더슨: 닉 보스트롬 박사님.
  • 0:03 - 0:07
    박사님은 여러 가지 놀라운 아이디어를
    많이 내놨었잖아요.
  • 0:07 - 0:09
    몇십 년 전이었던 것 같은데
  • 0:09 - 0:12
    우리 모두가 가상공간 속에서
    살지도 모른다고 주장했죠.
  • 0:12 - 0:13
    어쩌면 이미 살고 있을 수도 있고요.
  • 0:13 - 0:15
    좀 더 최근에는
  • 0:15 - 0:19
    인공지능이 어떻게 끔찍하게
    잘못될 수 있는지에 대한
  • 0:19 - 0:21
    아주 생생한 예를 그렸습니다.
  • 0:22 - 0:23
    그리고 올해는
  • 0:23 - 0:25
    곧 논문을 발표하실 거고요.
  • 0:25 - 0:29
    취약한 세계 가설이라 부르는
    것에 관한 논문 말입니다.
  • 0:29 - 0:34
    오늘 저녁에는그 논문에 대해
    설명을 좀 들어 보겠습니다.
  • 0:34 - 0:36
    그럼, 시작해 볼까요?
  • 0:37 - 0:39
    그 가설은 어떤 것인가요?
  • 0:40 - 0:42
    닉 보스트롬: 현재 인류의 상태에 대한
  • 0:42 - 0:46
    일종의 구조적 특징에 대해
    생각해 보려고 합니다.
  • 0:47 - 0:49
    대표님은 항아리 은유법을 좋아하잖아요.
  • 0:50 - 0:51
    그래서 그걸로 설명해 보겠습니다.
  • 0:51 - 0:56
    공이 가득 든 큰 항아리를
    상상해 보세요.
  • 0:56 - 1:00
    공은 아이디어, 방법들,
    가능한 기술들을 나타내죠.
  • 1:01 - 1:05
    인류의 창의성 역사를
  • 1:05 - 1:08
    이 항아리에 손을 넣어 공을 하나씩
    뽑아내는 것으로 생각할 수 있습니다.
  • 1:08 - 1:12
    지금까지 순 효과는 큰 득이 됐고요.
  • 1:12 - 1:14
    우리가 뽑아낸 건 수많은 하얀 공과
  • 1:14 - 1:17
    축복이자 저주일지 모르는
    일부의 회색 빛깔 공이었습니다.
  • 1:18 - 1:21
    지금까지 검은 공을 뽑은 적이 없었죠.
  • 1:22 - 1:28
    검은 공은 그것을 발견한 문명을
    확실하게 파괴할 수 있는 기술입니다.
  • 1:28 - 1:31
    논문에선 무엇이 그런 검은 공이
    될 수 있는지 생각해 보려고 합니다.
  • 1:31 - 1:33
    CA: 그러니까 박사님은 그 공을
  • 1:33 - 1:37
    필연적으로 문명의 파괴를
    초래하는 것으로 정의하는 군요.
  • 1:37 - 1:42
    NB: 이른바 반 무정부 상태를
    벗어나지 않는다면 그렇겠죠.
  • 1:42 - 1:43
    어떤 조치를 취하지 않는다면요.
  • 1:44 - 1:48
    CA: 그러니까 박사님은
    일종의 반증을 보여줌으로써
  • 1:48 - 1:50
    이 주장을 설득력있게 만들었군요.
  • 1:50 - 1:53
    즉 우리는 지금까지 운이 좋았을 뿐이고
  • 1:53 - 1:56
    파멸의 공을 뽑았을지도
    모른다고 생각하시는 거죠.
  • 1:56 - 1:57
    우리도 모르는 사이에 말이죠.
  • 1:57 - 2:00
    여기 인용문이 있는데,
    이 인용문은 뭐죠?
  • 2:00 - 2:02
    [천체 물리학의 끝은 수소 폭탄이다.
    뉴튼(이 아니고) 닉 보스트롬]
  • 2:02 - 2:05
    NB: 제 생각엔 그건 단지
    기본적인 발견이 어떤 결과를 가져올지
  • 2:05 - 2:08
    예측하는 것의 어려움을 보인 겁니다.
  • 2:08 - 2:11
    우리는 그런 능력이 없습니다.
  • 2:11 - 2:15
    우리는 공을 뽑는 데는 능숙하지만
  • 2:15 - 2:18
    공을 다시 항아리에 넣는
    능력은 정말 없거든요.
  • 2:18 - 2:21
    우리는 발명을 할 순 있지만
    발명한 걸 없던 걸로 할 순 없습니다.
  • 2:22 - 2:24
    그래서 우리 전략은 말 그대로
  • 2:24 - 2:27
    항아리에 검은 공이 없기를
    바라는 겁니다.
  • 2:27 - 2:31
    CA: 일단 밖으로 나오면 나온 것이고
    그걸 다시 넣을 수는 없는데
  • 2:31 - 2:32
    그동안 운이 좋았다고 생각하는군요.
  • 2:32 - 2:35
    몇 가지 예를 살펴봅시다.
  • 2:35 - 2:38
    박사님은 서로 다른 유형의
    취약성에 대해 이야기합니다.
  • 2:38 - 2:40
    NB: 가장 이해하기
    쉬운 예는 기술이죠.
  • 2:41 - 2:46
    대량 파괴를 매우 쉽게
    만드는 기술 말입니다.
  • 2:46 - 2:47
    [누구나 대량 파괴 수단을 쉽게 취득]
  • 2:47 - 2:51
    합성 생물학은 그런 종류 검은 공의
    풍부한 원천이 될 수 있습니다.
  • 2:51 - 2:54
    하지만 다른 많은 것들이 가능하죠.
  • 2:54 - 2:56
    지구 공학에 대해 생각해 보십시오.
    정말 대단합니다.
  • 2:56 - 2:58
    지구 온난화와 싸울 수 있습니다.
  • 2:58 - 3:01
    하지만 동시에 그게 너무
    쉬워지길 원하진 않겠죠.
  • 3:01 - 3:03
    어떤 사람이 순진한 사람들과 함께
  • 3:03 - 3:06
    지구의 기후를 근본적으로 바꿀 수 있는
    능력을 가지는 걸 원하진 않죠.
  • 3:06 - 3:10
    치명적인 무인 드론도 가능하죠.
  • 3:10 - 3:13
    대량 생산된 모기 크기의
    킬러 로봇 떼 말입니다.
  • 3:14 - 3:17
    나노 기술이나 범용 인공 지능일
    수도 있습니다.
  • 3:17 - 3:19
    CA: 박사님은 논문에서
    이렇게 주장했죠.
  • 3:19 - 3:21
    핵 연쇄반응을 이용해서
    폭탄을 만들 수 있다는 걸
  • 3:22 - 3:25
    우리가 알았을 때
    그건 순전히 우연이었다.
  • 3:25 - 3:26
    즉 누구나 쉽게 접할 수 있는
  • 3:26 - 3:28
    훨씬 다루기 쉬운 원료로
  • 3:28 - 3:32
    폭탄을 만들 수도 있었을 것이다.
  • 3:32 - 3:35
    NB: 그렇습니다.
    1930년대를 돌이켜보세요.
  • 3:35 - 3:40
    처음으로 핵물리학 분야에서
    획기적인 발전을 이루었을 때
  • 3:40 - 3:44
    어떤 천재가 핵 연쇄 반응을
    일으킬 수도 있다는 걸 알아냈고
  • 3:44 - 3:47
    폭탄으로 이어질 수 있다는 걸 알았죠.
  • 3:47 - 3:49
    그리고 우리는 더 많은 연구를 했고
  • 3:49 - 3:52
    핵폭탄을 만들기 위해 필요한 것은
  • 3:52 - 3:54
    고농축 우라늄이나
    플루토늄이라는 걸 알아냈는데
  • 3:54 - 3:56
    그건 구하기 매우 어려운 재료들이었죠.
  • 3:56 - 3:58
    초원심 분리기가 필요하며
  • 3:58 - 4:02
    엄청난 양의 에너지와 같은
    반응로도 필요합니다.
  • 4:02 - 4:04
    하지만 그 대신에 이랬었다 가정해보죠.
  • 4:04 - 4:08
    원자 에너지를 방출하기 위한
    쉬운 방법이 있었다고요.
  • 4:08 - 4:11
    어쩌면 전자레인지로 모래를 굽는 것이나
  • 4:11 - 4:12
    아니면 그런 비슷한 것으로
  • 4:12 - 4:14
    핵폭발을 일으킬 수도 있었다고요.
  • 4:14 - 4:16
    우리는 그게 물리적으로
    불가능하다는 것을 알고 있습니다.
  • 4:16 - 4:18
    하지만 관련 물리학
    분야를 연구하기 전에
  • 4:18 - 4:20
    그게 어떻게 될지
    어떻게 알 수 있겠습니까?
  • 4:21 - 4:22
    CA: 하지만 박사님은
  • 4:22 - 4:24
    생명체가 지구에서 진화하기 위해서는
  • 4:24 - 4:27
    어느 정도 안정된 환경이어야
    한다고 주장하지 않았나요?
  • 4:27 - 4:32
    만약 비교적 쉽게 대규모
    핵반응을 일으킬 수 있었다면
  • 4:32 - 4:33
    지구는 결코 안정되지 않았을 겁니다.
  • 4:33 - 4:35
    우리가 여기 있지도 않겠죠.
  • 4:35 - 4:38
    NB: 그렇죠, 목적을 갖고
    하기는 쉽지만
  • 4:38 - 4:41
    우연히 일어나지는 않을 그런
    무엇인가가 있는 게 아니라면요.
  • 4:41 - 4:43
    우리가 쉽게 할 수 있는 일,
  • 4:43 - 4:45
    예를 들어 블록 열 개를
    쌓는 것은 쉬운 일이지만
  • 4:45 - 4:48
    자연에서 10개의 블록이
    쌓여있는 걸 찾진 못할 겁니다.
  • 4:48 - 4:50
    CA: 그렇죠, 아마도 많은 사람들이
  • 4:50 - 4:52
    가장 걱정하는 것 중 하나일 겁니다.
  • 4:52 - 4:55
    합성 생물학은 가까운 미래에
    인류를 거기에 이르게 할 것으로
  • 4:55 - 4:58
    우리가 예상할 수 있는
    가장 빠른 길일 것입니다.
  • 4:58 - 5:01
    NB: 네, 그러니까 그게
    무슨 뜻일지 생각해보세요.
  • 5:01 - 5:05
    아무나 부엌에서 한나절 작업하는 것으로
  • 5:05 - 5:07
    도시를 파괴할 수 있다면요.
  • 5:07 - 5:10
    우리가 알고 있는 현대 문명이
  • 5:10 - 5:12
    어떻게 살아 남을지 알기 어렵습니다.
  • 5:12 - 5:14
    인구가 백만 명이라면
  • 5:14 - 5:17
    어떤 이유로든 그 파괴력을 사용하는 걸
  • 5:17 - 5:19
    선택할 사람이 항상 있게 마련이니까요.
  • 5:20 - 5:23
    따라서 그 종말론자가
  • 5:23 - 5:25
    도시 하나를 파괴하기로 결정했다면
    또는 더 나쁜 걸 원한다면
  • 5:25 - 5:26
    도시 여러 개가 파괴될 겁니다.
  • 5:26 - 5:30
    CA: 이건 다른 종류의 취약성이네요.
    이것에 대해 얘기해 보죠.
  • 5:30 - 5:31
    [2A 강대국들에 대한 부정적 유인]
  • 5:31 - 5:35
    NB: 이런 명백한 검은 공으로
  • 5:35 - 5:37
    많은 것들을 날려버릴 수 있는 외에도
  • 5:37 - 5:42
    다른 종류의 공들이 인간이
    유해한 일을 하도록
  • 5:42 - 5:44
    나쁜 동기를 부여하는
    방식으로 작동할 겁니다.
  • 5:44 - 5:48
    우리가 2A 유형이라고 부르는 것은
  • 5:48 - 5:53
    강대국이 그 강력한 힘을
    파괴에 사용하도록
  • 5:53 - 5:57
    동기부여하는 기술입니다.
  • 5:57 - 6:00
    그러니까 핵무기는 사실
    여기에 아주 가까운 거죠.
  • 6:02 - 6:05
    우리가 한 일은
    10조 달러 이상을 들여
  • 6:05 - 6:08
    7만 개의 핵탄두를 만들어
  • 6:08 - 6:10
    일촉 즉발의 위태로운
    경계 태세로 들어선 겁니다.
  • 6:10 - 6:12
    냉전 기간 동안 우리는 여러 번이나
  • 6:12 - 6:14
    서로를 거의 파멸시킬
    뻔한 적이 있었습니다.
  • 6:14 - 6:17
    많은 사람들이 자신을 폭파시키기 위해
  • 6:17 - 6:19
    10조 달러를 쏟아붓는 것을
    졸은 생각으로 여겼기 때문이 아니고
  • 6:19 - 6:22
    그 유인이 우리를 그렇게 만든 것이죠.
  • 6:22 - 6:23
    더 나쁜 경우도 가능했겠죠.
  • 6:23 - 6:26
    안전한 첫 번째 공격이
    있었다고 상상해 보세요.
  • 6:26 - 6:29
    그렇다면
  • 6:29 - 6:30
    위기 상황에서
  • 6:30 - 6:33
    모든 핵 미사일 발사를 억제하는 것은
    매우 어려웠을지도 모릅니다.
  • 6:33 - 6:36
    적어도 상대방이 그렇게 할까 봐
    두려울 테니까요.
  • 6:36 - 6:38
    CA: 맞습니다. 상호 확증 파괴는
  • 6:38 - 6:41
    냉전을 비교적 안정적으로 유지시켰고
  • 6:41 - 6:43
    그게 없었다면 우린 지금
    여기 없을지도 모릅니다.
  • 6:43 - 6:44
    NB: 더 불안정할 수도 있었겠죠.
  • 6:44 - 6:46
    그리고 기술의 다른 속성이
    있을 수 있습니다.
  • 6:46 - 6:50
    무기 조약을 맺는 것은
    어려웠을지도 모릅니다.
  • 6:50 - 6:51
    만약 무기가 핵보다 더 작거나
  • 6:51 - 6:54
    성능이 떨어지는 것이었다면요.
  • 6:54 - 6:57
    CA: 강대국들이 나쁜 동기를
    갖는 것과 마찬가지로
  • 6:57 - 7:00
    2B 유형처럼 모두가 나쁜 동기를
    가지는 것도 우려하고 있네요.
  • 7:00 - 7:05
    NB: 네, 지구온난화를 생각해봅시다.
  • 7:07 - 7:09
    각자가 지구온난화에 영향을
    미치는 일을 하게 만드는
  • 7:09 - 7:11
    작은 편의 시설들이 많이 있습니다.
  • 7:11 - 7:14
    그건 개별적으론 큰 영향이 없습니다만
  • 7:14 - 7:16
    수십억의 사람들이 그것을 한다면
  • 7:16 - 7:18
    누적이 되어 나쁜 영향을 끼칠 겁니다.
  • 7:18 - 7:21
    지구온난화는 지금보다 훨씬 더
    심각할 수도 있었을 겁니다.
  • 7:21 - 7:22
    [2B 일반 대중에 대한 부정적 유인]
  • 7:22 - 7:24
    기후민감도 매개변수가 있습니다.
  • 7:24 - 7:28
    일정량의 온실가스를 배출하면
    얼마나 따뜻해지는지
  • 7:28 - 7:30
    알려주는 매개 변수 입니다.
  • 7:30 - 7:33
    하지만 가정해 봅시다.
  • 7:33 - 7:35
    우리가 배출한 온실가스의 양으로
  • 7:35 - 7:41
    2100년까지 3도에서 4.5도
    사이의 온도 상승 대신에
  • 7:41 - 7:44
    15도 또는 20도의 온도 상승이
    발생했다고 가정한다면요.
  • 7:44 - 7:46
    우리는 아마 매우 난처한 상황에
    처했을 수도 있을 겁니다.
  • 7:46 - 7:50
    혹은 재생에너지의 실현이
    훨씬 더 어려웠다거나
  • 7:50 - 7:52
    땅에 더 많은 화석연료가
    있었다고 가정한다면요.
  • 7:52 - 7:55
    CA: 이런 경우는 어떤가요?
  • 7:55 - 7:57
    만약 우리가 오늘 하고 있는 것이
  • 7:57 - 8:02
    우리가 살아 있는 동안
    10도나 변화시킨다면
  • 8:02 - 8:05
    사실 인류는 궁지에서 벗어나
    뭔가 조치를 취했을 겁니다.
  • 8:06 - 8:08
    우리는 어리석지만
    그 정도로 어리석진 않죠.
  • 8:08 - 8:10
    아니면 그럴 지도 모르고요.
  • 8:10 - 8:11
    NB: 장담하지 마세요.
  • 8:11 - 8:13
    (웃음)
  • 8:13 - 8:15
    다른 특징들에 대해
    생각해볼 수 있습니다.
  • 8:15 - 8:20
    지금 당장은 재생 에너지 같은 것으로
    바꾸기가 좀 어렵긴 하지만
  • 8:20 - 8:22
    가능한 일입니다.
  • 8:22 - 8:25
    하지만 약간의 물리적 차이가
    있었을 수도 있어서
  • 8:25 - 8:27
    이런 것들을 하는 게 훨씬 더
    돈이 많이 들었을 수는 있겠네요.
  • 8:28 - 8:30
    CA: 박사님의 생각은 어떤가요?
  • 8:30 - 8:32
    이런 가능성들을 종합해서 생각해보면
  • 8:32 - 8:37
    이 지구와 인류가
  • 8:37 - 8:38
    취약한 세계라고 생각하세요?
  • 8:38 - 8:41
    인류의 미래에는 죽음의 공이 있을까요?
  • 8:44 - 8:45
    NB : 그건 말하기 어렵지만
  • 8:45 - 8:50
    항아리 안에는 다양한
    검은 공들이 있을 것 같습니다.
  • 8:50 - 8:52
    그렇게 보입니다.
  • 8:52 - 8:54
    어쩌면 황금 공도 들어 있어서
  • 8:54 - 8:58
    우리를 검은 공으로부터 보호하는 데
    도움이 될 수도 있을 거에요.
  • 8:58 - 9:01
    그런데 그게 어떤 순서로
    나올지는 몰라요.
  • 9:01 - 9:04
    CA : 이 아이디어에 관해
    할 수 있는 철학적 비판 중에는
  • 9:04 - 9:10
    이런 생각이 미래는 본질적으로
    정해져 있다고 본다는 점이 있겠죠.
  • 9:10 - 9:13
    저기에 공이 있든지
    없든지 둘 중 하나죠.
  • 9:13 - 9:16
    그리고 어떻게 보면
  • 9:16 - 9:18
    그건 제가 믿고 싶은
    미래의 관점이 아니에요.
  • 9:18 - 9:21
    미래가 결정되지 않았다고
    믿고 싶습니다.
  • 9:21 - 9:23
    즉 오늘 우리가 내린 결정이
  • 9:23 - 9:25
    항아리에서 어떤 종류의 공을
    꺼낼지 결정하게 될 겁니다.
  • 9:26 - 9:30
    NB: 제 말은, 우리가
    계속 발명을 한다면
  • 9:30 - 9:32
    결국에는 모든 공을 뽑을 거예요.
  • 9:33 - 9:36
    제 말은, 약한 형태의 기술 결정론이
  • 9:36 - 9:38
    꽤 그럴듯하다고 생각합니다.
  • 9:38 - 9:40
    제트기 안에서 부싯돌을 쓰는 사회가
  • 9:40 - 9:43
    있을 것 같지는 않습니다.
  • 9:44 - 9:48
    기술이 행동을 유도한다고
    생각할 수도 있습니다.
  • 9:48 - 9:51
    기술은 우리가 다양한
    일을 할 수 있게 하고
  • 9:51 - 9:53
    그로 인해 세계에
    다양한 효과를 가져옵니다.
  • 9:53 - 9:56
    그것을 어떻게 사용할지는
    물론 우리 선택에 달려 있습니다.
  • 9:56 - 9:59
    하지만 이 세 가지 유형의
    취약성에 대해 생각한다면
  • 9:59 - 10:02
    그것들을 어떻게 사용할 것인지에 대해
    상당히 약한 가정을 합니다.
  • 10:02 - 10:06
    다시 말하지만 1유형의 취약성은
    거대한 파괴력입니다.
  • 10:06 - 10:07
    이건 상당히 타당한 생각인데
  • 10:07 - 10:10
    수백만 명의 인구 중에서 어떤 사람들은
  • 10:10 - 10:12
    그걸 파괴적으로
    사용하길 선택할 겁니다.
  • 10:12 - 10:15
    CA: 제게 가장 혼란스러운 주장은
  • 10:15 - 10:20
    우리가 항아리에 대한
    어떠한 견해를 가지는 것이
  • 10:20 - 10:23
    실제로 파멸할 가능성을
    높게 만든다는 것입니다.
  • 10:23 - 10:28
    즉, 만약 당신이 가속력을 믿는다면
  • 10:28 - 10:30
    그 기술은 본질적으로 가속화되며
  • 10:30 - 10:33
    우리를 더 강력하게 만드는
    도구를 만든다는 것입니다.
  • 10:33 - 10:35
    어느 순간 우리는
  • 10:35 - 10:38
    개인이 우리 모두를 파멸시킬 수 있는
    단계에 도달하게 될 것이고
  • 10:38 - 10:41
    그러면 우리는 아마도 파멸하겠죠.
  • 10:41 - 10:44
    그 주장은 꽤 놀랍지 않나요?
  • 10:44 - 10:46
    NB: 아, 네.
  • 10:47 - 10:48
    (웃음)
  • 10:48 - 10:49
    제 생각엔
  • 10:51 - 10:52
    우리는 점점 더 많은 힘을 얻고
  • 10:52 - 10:56
    그 힘을 사용하는 것이
    점점 더 쉬워질 겁니다.
  • 10:56 - 11:00
    하지만 우리는 사람들이 그러한 힘을
    어떻게 사용하는지를 통제하는 ​​데에
  • 11:00 - 11:02
    도움을 주는 기술도 만들 수 있습니다.
  • 11:02 - 11:05
    CA: 그것에 대해 이야기해 보죠.
    거기에 대한 대응에 대해서요.
  • 11:05 - 11:09
    현존하는 모든 가능성에 대해
    생각한다고 가정해봅시다.
  • 11:09 - 11:13
    합성 생물학뿐 아니라 사이버 전쟁,
  • 11:13 - 11:17
    인공 지능 등과 같은 것들로
  • 11:17 - 11:21
    우리의 미래에 심각한 파멸이
    있을지도 모릅니다.
  • 11:21 - 11:23
    어떻게 해야 할까요?
  • 11:23 - 11:26
    네 가지 가능한 대응법에
    대해서 이야기하셨는데요.
  • 11:26 - 11:28
    [대응 1: 기술 발전을 제한하기]
  • 11:28 - 11:31
    NB: 기술 개발의 전면적인
    중단을 말하는 것이라면
  • 11:31 - 11:35
    기술 발전을 제한하는 것이
    유망하다고 생각되진 않네요.
  • 11:35 - 11:38
    실현 가능하지도 않고 가능하다고 해도
    바람직하지 않은 것 같아요.
  • 11:38 - 11:41
    기술 발전 속도를 늦추고 싶은 분야는
  • 11:41 - 11:44
    매우 제한적일 수 있습니다.
  • 11:44 - 11:47
    예를 들어 생물학 무기나
    동위 원소 분리에서는
  • 11:47 - 11:49
    더 빠른 발전을 원치 않을 겁니다.
  • 11:49 - 11:52
    핵무기를 만들기가 더 쉬워질 테니까요.
  • 11:53 - 11:56
    CA: 저도 전에는
    그렇게 생각했습니다만
  • 11:56 - 11:59
    조금 다른 견해를 살펴보죠.
  • 11:59 - 12:03
    우선 지난 수십 년의 역사를 보면
  • 12:03 - 12:07
    아시다시피 항상 전속력으로 나아갔죠.
  • 12:07 - 12:09
    그게 우리의 유일한 선택이었습니다.
  • 12:09 - 12:13
    하지만 세계화와 그 급속한 가속화를,
  • 12:13 - 12:16
    '빨리 움직이고 무엇이든
    혁파하십시오.'라는 전략과
  • 12:16 - 12:19
    그래서 무슨 일이 일어났는지,
  • 12:19 - 12:21
    그리고 합성 생물학의 잠재력을 본다면
  • 12:21 - 12:26
    모든 가정과 고등학교 실험실에서
  • 12:26 - 12:29
    빠른 속도로 아무 제약 없이
    DNA 프린터를 가질 수 있는 세상으로
  • 12:29 - 12:32
    앞으로 나아가야만
    하는 건지 의문입니다.
  • 12:33 - 12:35
    몇 가지 제약이 있습니다, 그렇죠?
  • 12:35 - 12:38
    NB: 아마도 첫째는
    실현가능하지 않은 것입니다.
  • 12:38 - 12:40
    개발을 멈추는 게
    바람직하다고 생각하더라도
  • 12:40 - 12:41
    실현가능성의 문제가 있습니다.
  • 12:42 - 12:44
    한 국가의 경우엔 소용이 없을 거예요.
  • 12:44 - 12:46
    CA: 그렇죠, 한 국가가
    그렇게 한다면 어쩔 수 없겠죠.
  • 12:46 - 12:49
    하지만 우린 전에 조약을
    맺은 적이 있습니다.
  • 12:49 - 12:53
    그게 우리가 핵 위협에서
    살아남은 방법입니다.
  • 12:53 - 12:57
    그 자리에 나가서 고통스러운
    협상 과정을 거치는 것이었습니다.
  • 12:57 - 13:02
    세계적으로 우선순위를 둬서
  • 13:02 - 13:04
    우리가 그 곳에 나가서
  • 13:04 - 13:06
    합성 생물 연구가 이루어지는 곳에 대한
    아주 엄격한 규칙 마련을 위한
  • 13:06 - 13:09
    협상을 시작하지 않으면
    안되는 거 아닐까요?
  • 13:09 - 13:12
    누구나 할 수 있도록 하고
    싶은 건 아니잖나요?
  • 13:12 - 13:14
    NB: 저도 그렇게 생각합니다.
  • 13:14 - 13:18
    바람직하기로는 예를 들어
  • 13:18 - 13:22
    DNA 합성 장치는
  • 13:22 - 13:25
    각자 실험실에서 소유하는 것이 아니라
  • 13:25 - 13:27
    서비스로서 갖춰지는 거죠.
  • 13:27 - 13:29
    어쩌면 세계에 네다섯 곳 정도가 있어서
  • 13:29 - 13:33
    디지털 청사진을 받아서 DNA를
    제작해주면 되지 않을까 합니다.
  • 13:33 - 13:35
    그러면 그걸 통제할 수 있겠죠.
  • 13:35 - 13:37
    언젠가 진짜로 제한이 필요한 것 같으면
  • 13:37 - 13:39
    제한된 수의 지점에서
    통제를 할 수 있겠죠.
  • 13:39 - 13:43
    좀 더 엄격하게 통제할 수 있는
  • 13:43 - 13:45
    특별한 기회 같은 걸
    원하는 거 같군요.
  • 13:45 - 13:47
    CA: 박사님은 근본적으로
  • 13:47 - 13:50
    우리가 스스로 자제하지
    못할 거라고 생각하시네요.
  • 13:50 - 13:52
    어딘가의 누군가가,
    예를 들어 북한과 같은
  • 13:52 - 13:56
    누군가가 그곳에 가서
    이 지식을 발견하게 된다는 거죠.
  • 13:56 - 13:57
    만약 그것이 거기 있다면요.
  • 13:57 - 13:59
    NB: 현재로서는 그렇게 보입니다.
  • 13:59 - 14:02
    단지 합성생물학만이 아닙니다.
  • 14:02 - 14:04
    제 말은, 세상 어떤 종류의
    심오하고 새로운 변화도
  • 14:04 - 14:06
    검은 공이 될 수 있다는 겁니다.
  • 14:06 - 14:07
    CA: 다른 대응법을 봅시다.
  • 14:07 - 14:09
    NB: 이것도 한정적이긴 합니다만
  • 14:09 - 14:11
    [대응 2: 불량 세력을 제거하기]
  • 14:11 - 14:14
    1유형의 취약성에 대해서는
  • 14:14 - 14:18
    그런 수단을 손에 넣기만 한다면
  • 14:18 - 14:20
    세상을 파괴하고 싶어하는 사람의 수를
  • 14:20 - 14:22
    줄일 수 있다면
    그건 괜찮을 것 같은데요.
  • 14:22 - 14:24
    CA: 박사님이 부탁한 이 영상에서는
  • 14:24 - 14:28
    얼굴 인식 기능이 있는 드론이
    전 세계를 날아다닙니다.
  • 14:28 - 14:32
    누군가가 반사회적 행동을 하려는
    조짐이 보이는 것을 발견하면
  • 14:32 - 14:34
    사랑을 쏟아붓고 그들을 치료합니다.
  • 14:34 - 14:36
    NB: 복합적인 영상 같네요.
  • 14:36 - 14:40
    제거는 감금 또는 살해와 같은
    것을 의미할 수도 있고
  • 14:40 - 14:43
    더 나은 세계관을 갖도록
    설득하는 거일 수도 있습니다.
  • 14:43 - 14:45
    하지만 요점은
  • 14:45 - 14:47
    이러한 일이 매우 성공적이었고
  • 14:47 - 14:50
    그런 사람들의 수를 절반으로
    줄였다고 가정해보죠.
  • 14:50 - 14:52
    설득이라는 수단으로 이를 달성하려면
  • 14:52 - 14:54
    사람들을 설득하려고 하다가
    정당, 종교, 교육시스템과 같은
  • 14:54 - 14:58
    비슷한 목적을 갖는
    모든 다른 강력한 세력과 겨루게 됩니다.
  • 14:58 - 15:00
    하지만 그 인원을 절반으로
    줄였다고 하더라도
  • 15:00 - 15:02
    그 위험이 절반으로
    줄어들진 않을 겁니다.
  • 15:02 - 15:04
    대충 5%나 10% 정도겠죠.
  • 15:04 - 15:08
    CA: 2번 대응법에 인간의 미래를
    걸라고 권하는 건 아니네요.
  • 15:08 - 15:11
    NB: 저는 사람들을 단념시키고
    설득하는 것이 좋다고 생각해요.
  • 15:11 - 15:14
    하지만 그것을 유일한 안전장치로
    의존해서는 안되겠지요.
  • 15:14 - 15:15
    CA: 세 번째는 뭐죠?
  • 15:15 - 15:17
    NB: 두 가지 일반적인
    방법이 있을 것 같습니다.
  • 15:17 - 15:18
    [대응 3: 대중을 감시하기]
  • 15:18 - 15:22
    이 방법들을 사용해서 가능한
    모든 범위의 취약성에 대해
  • 15:22 - 15:25
    세상을 안정시킬 수 있을 것 같습니다.
  • 15:25 - 15:27
    아마 둘 다 필요할 겁니다.
  • 15:27 - 15:31
    하나는 매우 효과적인
  • 15:32 - 15:33
    예방 정책입니다.
  • 15:33 - 15:35
    차단을 할 수 있는 거죠.
  • 15:35 - 15:38
    누군가 위험한 일을 시작한다면
  • 15:38 - 15:40
    중간에 실시간으로
    막고 저지할 수 있습니다.
  • 15:40 - 15:43
    그러기 위해서는 유비쿼터스 감시가
    필요하게 될 것입니다.
  • 15:43 - 15:45
    누구나 항상 감시당하고 있는 거죠.
  • 15:46 - 15:49
    CA: 일종의 영화,
    '마이너리티 리포트'네요.
  • 15:49 - 15:51
    NB: 인공지능 알고리즘이나
  • 15:51 - 15:55
    여러 가지 사찰을 하는 자유센터 같은
    것이 이용될지도 모릅니다.
  • 15:57 - 16:01
    CA: 대중감시가 지금 그렇게
    인기 있는 용어는 아니라는 거 알죠?
  • 16:01 - 16:03
    (웃음)
  • 16:03 - 16:05
    NB: 그러니까 이 작은 장치,
  • 16:05 - 16:11
    다방향 카메라가 달린 목걸이를
    항상 몸에 지니고 다니는 것을 상상해보세요.
  • 16:11 - 16:12
    (웃음)
  • 16:12 - 16:14
    쉽게 받아들일 수 있도록
  • 16:14 - 16:16
    '자유의 표식' 같은
    이름을 붙이면 좋겠네요.
  • 16:16 - 16:18
    (웃음)
  • 16:18 - 16:19
    CA: 알았어요.
  • 16:20 - 16:22
    그러니까 이 대화가
  • 16:22 - 16:25
    깜짝 놀랄만한 이야기라고
    하는 겁니다, 여러분.
  • 16:25 - 16:28
    NB:이것에 관해서는
  • 16:28 - 16:29
    당연히 많은 논란이 있습니다.
  • 16:29 - 16:32
    엄청난 문제와 위험이 따릅니다.
  • 16:32 - 16:33
    나중에 거기에 대해 다시 얘기해 보죠.
  • 16:33 - 16:34
    다른 하나, 마지막으로
  • 16:34 - 16:37
    일반적인 안정화 기능은
  • 16:37 - 16:39
    지배구조 격차를 막는 것입니다.
  • 16:39 - 16:40
    [대응 4: 전 세계적 지배구조]
  • 16:40 - 16:43
    감시는 미시적인 수준의
    지배구조 격차일 겁니다.
  • 16:43 - 16:46
    어떤 개인이 불법적인 행동을
    하지 못하게 하는 것처럼요.
  • 16:46 - 16:49
    그러면 거시적 차원, 세계적 차원에서는
  • 16:49 - 16:51
    그에 상응하는 지배구조
    격차가 있습니다.
  • 16:51 - 16:54
    이 능력은
  • 16:54 - 16:57
    최악의 세계적 협력 실패에
    대비하기 위한 겁니다.
  • 16:57 - 17:01
    강대국 간의 전쟁,
  • 17:01 - 17:02
    무기 경쟁,
  • 17:04 - 17:06
    공유자원이 파탄나는 문제,
  • 17:08 - 17:12
    2A 유형의 취약성에 대한 대처입니다.
  • 17:12 - 17:14
    CA: 세계적 지배구조는
  • 17:14 - 17:16
    확실히 시대에 뒤떨어진 용어지만
  • 17:16 - 17:19
    역사 전체에 걸쳐,
  • 17:19 - 17:20
    인류 역사 전체에 걸쳐
  • 17:20 - 17:25
    기술력이 증대될 때마다
  • 17:25 - 17:29
    사회는 재구성되고 그 힘은
    집중되는 걸 볼 수 있습니다.
  • 17:29 - 17:32
    예를 들어, 한 무리의 범죄자들이
  • 17:32 - 17:34
    한 사회를 장악할 수 있었을 때
  • 17:34 - 17:36
    그 결과는 민족 국가가 나타나고
  • 17:36 - 17:38
    경찰이나 군대 같은
    권력을 집중시키는 거죠.
  • 17:39 - 17:40
    그러니 "그래서는 안됩니다"인 거죠.
  • 17:40 - 17:45
    어쩌면 한 사람이나 한 그룹이
  • 17:45 - 17:46
    인류를 파멸시킬 수 있다는 논리는
  • 17:46 - 17:48
    어떤 시점에서는 이 길을 가고
    만다는 걸 의미하는 거 아닌가요?
  • 17:48 - 17:50
    적어도 비슷한 형태로라도요.
  • 17:50 - 17:57
    NB: 인류 역사에 걸쳐 정치 조직의
    규모가 커진 것은 분명합니다.
  • 17:57 - 17:58
    예전에는 수렵 채집 집단 정도였죠.
  • 17:58 - 18:02
    그다음에는 군장사회,
    도시국가나 국가가 출현하고
  • 18:02 - 18:06
    지금은 국제 조직 등등이 있습니다.
  • 18:06 - 18:09
    다시 한 번 제가 강조하고 싶은 건
  • 18:09 - 18:12
    대중감시와 세계적 지배구조는 모두
  • 18:12 - 18:16
    큰 단점과 엄청난 위험이
    당연히 있다는 겁니다.
  • 18:16 - 18:18
    제가 말씀드리고 싶은 건
    우리가 운이 좋다면
  • 18:18 - 18:20
    이게 검은 공으로부터 살아남을 수 있는
  • 18:20 - 18:22
    유일한 방법일지도 모른다는 것입니다.
  • 18:22 - 18:25
    CA: 즉 이 말은,
  • 18:25 - 18:26
    제가 보기엔
  • 18:26 - 18:30
    모든 것을 손에 넣을 수는 없다는 걸
    인식해야 된다는 거군요.
  • 18:33 - 18:37
    많은 사람들이 갖고 있는
    그런 종류의 순진한 꿈,
  • 18:37 - 18:40
    즉, 기술은 항상 선을 위한 힘이 되고
  • 18:40 - 18:42
    계속 나아가고, 멈추지 않고,
    가능한 한 빨리 나아가고
  • 18:42 - 18:45
    결과에 주의를 기울이지
    않아도 된다는 그런 꿈은
  • 18:45 - 18:46
    실제로 가능한 선택지가 아니라는 거죠.
  • 18:46 - 18:49
    우리가 그것을 가질 수는 있겠지만
  • 18:49 - 18:52
    만약 그것을 얻는다면
    다른 일들도 받아들여야만 하는 거죠.
  • 18:52 - 18:54
    그것과 함께 오는 아주 불편한 일들과
  • 18:54 - 18:57
    자신과의 무기 경쟁과 같은 것들이요.
  • 18:57 - 18:59
    힘을 갖고 싶다면
    제한하는 것이 좋을 것이고
  • 18:59 - 19:01
    어떻게 제한할 것인가에 대해
    생각하는 것이 좋을 것입니다.
  • 19:01 - 19:03
    NB: 제 생각에 이건
  • 19:03 - 19:05
    아주 매력적인 선택사항입니다.
  • 19:05 - 19:09
    어떤 의미에서는 가장 손쉬운
    선택이고 잘 될 수도 있지만
  • 19:09 - 19:14
    본질적으로 검은 공을 꺼낼
    위험성이 있다는 말입니다.
  • 19:14 - 19:16
    제 생각엔 약간 조정을 해서
  • 19:16 - 19:19
    거시적 지배구조와 미시적 지배구조의
    문제를 해결한다면
  • 19:19 - 19:22
    항아리에서 모든 공을 빼낼 수 있고
  • 19:22 - 19:24
    큰 혜택을 얻을 수 있을 겁니다.
  • 19:25 - 19:28
    CA: 우리가 시뮬레이션 안에
    살고 있다면 문제될 거 있나요?
  • 19:28 - 19:29
    그저 다시 시작하면 되죠.
  • 19:29 - 19:32
    (웃음)
  • 19:32 - 19:33
    NB: 그렇다면, 저는...
  • 19:33 - 19:35
    (웃음)
  • 19:35 - 19:37
    그건 생각해 보지 않았네요.
  • 19:37 - 19:38
    (웃음)
  • 19:38 - 19:40
    CA: 어떻게 생각하십니까?
  • 19:40 - 19:44
    모든 걸 고려했을 때
    우리가 파멸할 가능성은요?
  • 19:44 - 19:47
    (웃음)
  • 19:47 - 19:49
    이런 질문에 다들 웃으시니 좋네요.
  • 19:49 - 19:50
    NB: 개인적인 차원에서
  • 19:50 - 19:53
    우리는 결국 종말을 맞이 하겠죠.
  • 19:53 - 19:57
    시간이 흐르면서 우리는
    노화되고 쇠약해져갑니다.
  • 19:57 - 19:59
    (웃음)
  • 19:59 - 20:00
    사실 약간 복잡합니다.
  • 20:00 - 20:02
    확률을 내기 위해서 정해야 할 것은
  • 20:02 - 20:04
    먼저 우리는 누구인가입니다.
  • 20:04 - 20:07
    고령이라면 자연적으로 죽을 겁니다.
  • 20:07 - 20:10
    아주 어리다면 100년은
    더 살지도 모르죠.
  • 20:10 - 20:12
    누구에게 물어보느냐에 따라
    확률은 달라집니다.
  • 20:12 - 20:16
    그다음으로 문명 파괴의 기준은 뭘까요?
  • 20:16 - 20:20
    논문에서는 그걸 계산하기 위한
  • 20:20 - 20:22
    대재해는 필요없었습니다.
  • 20:22 - 20:25
    이건 단지 어떻게 정의하는가의 문제로서
  • 20:25 - 20:28
    예로서 10억 명 사망이나
    세계 GDP 50% 감소를 들겠습니다.
  • 20:28 - 20:31
    무엇을 한계치로 하느냐에 따라
  • 20:31 - 20:33
    확률 전망도 달라집니다.
  • 20:33 - 20:37
    저를 겁에 질린 낙관론자로
    몰아붙일 수도 있겠지만요.
  • 20:37 - 20:39
    (웃음)
  • 20:39 - 20:40
    CA: 겁에 질린 낙관론자라고 하는데
  • 20:40 - 20:45
    다른 많은 사람들을
    두려움에 떨게 만든 것 같네요.
  • 20:45 - 20:46
    (웃음)
  • 20:46 - 20:48
    NB: 시뮬레이션 안에서요.
  • 20:48 - 20:49
    CA: 네, 시뮬레이션 안에서요.
  • 20:49 - 20:51
    보스트롬 박사님의 식견에 탄복합니다.
  • 20:51 - 20:53
    우리를 겁에 질리게 해줘서
    고맙습니다.
  • 20:53 - 20:56
    (박수)
Title:
어떻게 문명이 스스로를 파괴할 수 있는지와 그것을 막을 수 있는 4 가지 방법
Speaker:
닉 보스트롬(Nick Bostrom)
Description:

철학자인 닉 보스트롬은 인류가 스스로 모두를 파괴할 수 있는 기술적 혁신인 '검은 공'을 창조하는 과정에 있다고 말합니다. TED의 크리스 앤더슨 대표와의 이 날카롭고 놀랄 정도로 유쾌한 대화에서, 보스트롬은 우리의 발명이 그 통제를 넘어선다면 (또는 그때가 왔을 때) 우리가 직면할 수 있는 취약점을 설명하고 어떻게 미래의 종말을 막을 수 있는지를 탐구합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
21:09

Korean subtitles

Revisions