< Return to Video

초지능 인공지능을 두려워하지 마세요

  • 0:01 - 0:05
    제가 어렸을 적,
    저는 전형적인 괴짜였습니다.
  • 0:05 - 0:07
    여러분 중 몇몇도 그랬을 거예요.
  • 0:08 - 0:09
    (웃음)
  • 0:09 - 0:12
    거기 가장 크게 웃으신 분은
    여전히 그럴 것 같군요.
  • 0:12 - 0:14
    (웃음)
  • 0:14 - 0:18
    저는 북텍사스 황무지의 작은 마을에서
  • 0:18 - 0:21
    목사인 할아버지와
    보안관인 아버지 밑에서 자랐습니다.
  • 0:21 - 0:23
    말썽피우는 일은 생각도
    할 수 없었습니다.
  • 0:24 - 0:27
    그래서 저는 미적분학 책을
    재미로 읽었습니다.
  • 0:27 - 0:29
    (웃음)
  • 0:29 - 0:31
    당신도 그랬잖아요.
  • 0:31 - 0:34
    그것으로 저는 레이저, 컴퓨터와
    모델 로켓을 만들었지요.
  • 0:34 - 0:37
    그러다 보니 제 방에
    로켓 연료를 만들게 됐어요.
  • 0:38 - 0:42
    현재, 과학적 관점에서
  • 0:42 - 0:45
    우리는 이것을 매우
    나쁜 생각이라고 하죠.
  • 0:45 - 0:46
    (웃음)
  • 0:46 - 0:48
    또한 그 시절에
  • 0:48 - 0:52
    스탠리 큐브릭의
    "2001년: 스페이스 오디세이"가
  • 0:52 - 0:54
    개봉하였으며 제 삶은 완전히 바뀌었죠.
  • 0:54 - 0:56
    저는 그 영화의 모든 것이 좋았습니다.
  • 0:56 - 0:59
    특히 HAL 9000은 특별했죠.
  • 0:59 - 1:01
    HAL은 지각을 할 수 있는 컴퓨터로
  • 1:01 - 1:03
    디스커버리호가 지구에서 목성으로 가도록
  • 1:03 - 1:06
    가이드하는 역할을 했습니다.
  • 1:06 - 1:08
    HAL은 또한 결함이 있어서
  • 1:08 - 1:12
    결국 끝엔 인간의 생명을 뒤로하고
    주어진 임무를 택하게 됩니다.
  • 1:13 - 1:15
    HAL은 허구적 캐릭터이지만
  • 1:15 - 1:16
    그럼에도 불구하고
  • 1:16 - 1:18
    그는 우리에게 공포감을 선사합니다.
  • 1:18 - 1:23
    인류에게 냉담한 감정이 없는
    인공적인 지능에게
  • 1:23 - 1:25
    지배당하게 될 것이라는 공포죠.
  • 1:26 - 1:28
    저는 그러한 공포가
    근거 없다고 생각합니다.
  • 1:28 - 1:31
    확실히 우리는 인간 역사에서
  • 1:31 - 1:33
    매우 중요한 시기에 있습니다.
  • 1:33 - 1:38
    우리는 우리 몸과 정신의
    한계를 받아들이길 거부하며
  • 1:38 - 1:39
    기계를 만들어내고 있습니다.
  • 1:39 - 1:43
    우아하고 복잡하면서도
    아름답고 정교하게요.
  • 1:43 - 1:45
    그리고 그것은 인간의 경험을
  • 1:45 - 1:47
    상상을 초월할만큼 확장시킬 것입니다.
  • 1:48 - 1:50
    저는 공군사관학교에서
  • 1:50 - 1:52
    현재 우주 사령부로 와서
  • 1:52 - 1:54
    시스템 엔지니어가 됐고
  • 1:54 - 1:59
    최근 나사의 화성과 관련된
    기술문제에 관여하고 있습니다.
  • 1:59 - 2:02
    오늘날 우리는
    휴스턴 우주 비행 관제센터를 통해
  • 2:02 - 2:05
    달을 향한 우주 비행을
  • 2:05 - 2:07
    모든 측면에서 지켜볼 수 있습니다.
  • 2:07 - 2:11
    하지만 화성은
    200배 멀리 떨어져 있으며
  • 2:11 - 2:17
    신호가 지구에서 화성까지
    평균적으로 13분 걸립니다.
  • 2:17 - 2:20
    문제가 있다면
    시간이 충분하지 않다는 것이지요.
  • 2:21 - 2:23
    그리고 합당한 기술적 방안은
  • 2:23 - 2:26
    우주 비행 관제 센터를
  • 2:26 - 2:29
    오리온 우주선 벽 안에 넣는 것이지요.
  • 2:29 - 2:32
    다른 흥미로운 임무 개요 아이디어는
  • 2:32 - 2:35
    사람이 직접 도착하기 전에
  • 2:35 - 2:37
    인간형 로봇을 먼저 화성에 두어
  • 2:37 - 2:38
    시설들을 먼저 짓게 한 후
  • 2:38 - 2:42
    과학팀의 협력 멤버로 두는 것입니다.
  • 2:43 - 2:46
    이제 제가 이것을 기술적 측면에서 보면
  • 2:46 - 2:49
    제가 만들어야 하는 것이
  • 2:49 - 2:52
    똑똑하고 협력적인
  • 2:52 - 2:54
    사회적 지능의 인공 지능임을
    알 수 있습니다.
  • 2:54 - 2:58
    다른 말로, 저는 살인하는 경향이 없는
  • 2:58 - 3:01
    HAL을 만들어야 한다는 것입니다.
  • 3:01 - 3:02
    (웃음)
  • 3:03 - 3:05
    잠시만 멈추고 생각하여봅시다.
  • 3:05 - 3:09
    그러한 인공지능을 만드는 것이
    가능할까요?
  • 3:09 - 3:10
    사실, 가능합니다.
  • 3:10 - 3:11
    다양한 측면에서
  • 3:11 - 3:15
    이것은 AI 요소가 있는
    어려운 기술 문제이지
  • 3:15 - 3:20
    가벼운 설계적 인공지능
    문제가 아닙니다.
  • 3:20 - 3:22
    앨런 튜링의 말을 정리하여 보자면
  • 3:22 - 3:25
    저는 감각이 있는 기계를 만드는 것에
    흥미가 있는 것이 아닙니다.
  • 3:25 - 3:26
    저는 HAL을 만드는 것이 아닙니다.
  • 3:26 - 3:29
    저는 지능의 환상을 주는
  • 3:29 - 3:32
    간단한 두뇌를 만들려는 것일 뿐입니다.
  • 3:33 - 3:35
    HAL이 상영된 후에
  • 3:35 - 3:38
    기계적 과학과 예술은 발전해왔으며
  • 3:38 - 3:41
    만일 발명가 샨드라가
    오늘 이곳에 있었더라면
  • 3:41 - 3:43
    우리에게 많은 질문이 있었을 거라고
    저는 상상합니다.
  • 3:43 - 3:45
    수많은 기계들중 하나의 시스템을 뽑아
  • 3:45 - 3:49
    데이타의 흐름을 읽고
  • 3:49 - 3:51
    그들의 실패를 예견하는게
  • 3:51 - 3:53
    정말 가능한 것일까요?
  • 3:53 - 3:54
    네.
  • 3:54 - 3:58
    우리와 자연스럽게 대화하는 시스템을
    만들 수 있을까요?
  • 3:58 - 3:59
    네.
  • 3:59 - 4:02
    물건을 인식하고, 감정을 알아보며,
    감정을 나타내고
  • 4:02 - 4:05
    게임을 하며, 입술을 읽는,
    그런 시스템을 만들 수 있을까요?
  • 4:05 - 4:06
    네.
  • 4:07 - 4:10
    목표를 세워 그 목표를 향해 나아가며
  • 4:10 - 4:12
    그 과정에서 학습하는
    시스템을 만들 수 있을까요?
  • 4:12 - 4:14
    네.
  • 4:14 - 4:17
    마음 이론을 가지고 있는
    시스템을 만들 수 있을까요?
  • 4:17 - 4:18
    이것을 향해 우리는 나아가고 있습니다.
  • 4:18 - 4:22
    윤리적, 도덕적 배경을 가지고 있는
    시스템을 만들 수 있을까요?
  • 4:22 - 4:25
    우리가 해야만 하는 것입니다.
  • 4:25 - 4:27
    그러므로 이러한 사명을 가진
  • 4:27 - 4:30
    인공지능을 만드는 것이 가능하다는 것을
  • 4:30 - 4:32
    받아들여 봅시다.
  • 4:32 - 4:34
    그렇다면 이 질문을
    스스로에게 물어보세요.
  • 4:34 - 4:36
    우리는 두려워해야 할까요?
  • 4:36 - 4:38
    오늘날 모든 새로운 기술은
  • 4:38 - 4:41
    어느 정도의 두려움을 가져오지요.
  • 4:41 - 4:42
    우리가 처음 차를 보았을 때
  • 4:43 - 4:47
    사람들은 그것이 가족들을
    무너뜨릴까봐 걱정했었습니다.
  • 4:47 - 4:49
    우리가 처음 전화를 보았을 때
  • 4:49 - 4:52
    사람들은 그것이 대화를 없애버릴까봐
    걱정했었습니다.
  • 4:52 - 4:56
    글자를 쓰는것이 보편화 되어갈 때
  • 4:56 - 4:59
    사람들은 기억력을 잃게
    될 거라고 생각했었죠.
  • 4:59 - 5:01
    어느 정도 맞는 말일 수 있지만
  • 5:01 - 5:07
    기술이 사람의 삶을
    더 깊게 해주는 경우도
  • 5:07 - 5:08
    있었다고 볼 수 있죠.
  • 5:10 - 5:12
    더 나아가봅시다.
  • 5:13 - 5:18
    저는 인공지능이 우리의 가치를
    궁극적으로 구현할 것이라고 믿기에
  • 5:18 - 5:22
    인공지능의 발명을
    두려워하지 않습니다.
  • 5:22 - 5:25
    이것을 고려하세요:
    인식적인 시스템을 만드는 것은
  • 5:25 - 5:29
    과거의 소프트웨어 중심 시스템을
    만드는 것과 다릅니다.
  • 5:29 - 5:31
    우리는 그것을
    프로그램하지 않고 가르칩니다.
  • 5:31 - 5:34
    꽃을 알아보는것을 시스템에게
    가르치기 위해서는
  • 5:34 - 5:37
    수천 종류의 꽃을 보여주여야 합니다.
  • 5:37 - 5:39
    시스템에게 게임하는 법을
    가르치기 위해서는
  • 5:39 - 5:41
    저도 그러고 싶고,
    여러분도 그러겠지요.
  • 5:43 - 5:45
    저는 꽃을 좋아해요, 정말로요.
  • 5:45 - 5:48
    시스템에게 바둑같은 게임을
    가르치기 위해서는
  • 5:48 - 5:50
    수천 번의 바둑 게임을
    해주어야 할 것이며
  • 5:50 - 5:52
    그 과정에서 잘한 게임과 못한 게임을
  • 5:52 - 5:54
    구별하는것도 가르쳐야겠지요.
  • 5:55 - 5:58
    인공 지능에게 법률 보조일을
    시키기 위해서는
  • 5:58 - 6:00
    대전 뿐만이 아니라
  • 6:00 - 6:06
    자비와 정의등의 개념
    역시 가르쳐야겠지요.
  • 6:07 - 6:10
    과학적으로, 우리가 말하는
    근본적인 진실 및
  • 6:10 - 6:12
    중요한 사실이 여기 있습니다:
  • 6:12 - 6:13
    이러한 기계를 만들기 위해서는
  • 6:13 - 6:16
    우리는 우리의 가치를 그들에게
    가르쳐야합니다.
  • 6:17 - 6:20
    그 목적을 위해서, 저는 인공지능이
  • 6:20 - 6:23
    잘 훈련받은 사람보다 같거나
    더 대단하다고 믿습니다.
  • 6:24 - 6:25
    하지만 여러분
  • 6:25 - 6:28
    잘 설립된 로그 에이전트와 같은
  • 6:28 - 6:31
    비정부기관에 대하여 물을수 있겠죠?
  • 6:31 - 6:35
    저는 외로운 늑대에게 있는
    인공지능을 두려워하지 않습니다.
  • 6:35 - 6:40
    분명히, 우리는 마구잡이의 폭력에서
    우리를 보호할 수 없지만
  • 6:40 - 6:42
    실제적으로 보았을때
  • 6:42 - 6:45
    이는 근본적인 트레이닝을 요구하고
  • 6:45 - 6:47
    이것은 개인의 능력치
    바깥에 있는 일입니다.
  • 6:47 - 6:49
    더 나아가 이것은
  • 6:49 - 6:52
    인터넷 바이러스를 세상에 주입하여
  • 6:52 - 6:55
    하나의 버튼을 눌러
    전세계 인터넷을 폭파시키는것보다
  • 6:55 - 6:57
    더 힘든 일입니다.
  • 6:57 - 7:00
    이제 이러한 것들은 훨씬 커졌으며
  • 7:00 - 7:02
    우리는 이것들이 다가오는것을
    확실하게 볼 수 있죠.
  • 7:03 - 7:06
    제가 인공지능이 인류를 위협할까봐
  • 7:06 - 7:08
    두려워할까요?
  • 7:08 - 7:13
    "메트릭스", "메트로폴리스",
    "터미네이터" 같은
  • 7:13 - 7:16
    서구의 영화들을 보면
  • 7:16 - 7:18
    영화들은 이러한 두려움을
    다루고 있습니다.
  • 7:18 - 7:22
    철학자 닉보스트롬의
    "초지능"이라는 책에서
  • 7:22 - 7:24
    그는 이 주제를 다루며
  • 7:24 - 7:28
    초지능이 위험할 뿐만 아니라
  • 7:28 - 7:32
    인류에 있어서 모든 위험을
    대변한다고 합니다.
  • 7:32 - 7:34
    필자의 근본적인 주장은
  • 7:34 - 7:37
    이러한 시스템이 결국
  • 7:37 - 7:40
    탐욕적으로 정보를 원하게 되어
  • 7:40 - 7:43
    인간의 필요와
  • 7:43 - 7:46
    반대되는 목적을
  • 7:46 - 7:48
    이루게 될거라는 것이죠.
  • 7:48 - 7:50
    보스트롬 교수를
    따르는 사람들이 많습니다.
  • 7:50 - 7:54
    엘론머스크와 스티븐 호킹같은
    사람들의 지지를 받고있죠.
  • 7:55 - 7:57
    천부적인 마음들에
  • 7:58 - 8:00
    외람된 말씀입니다만
  • 8:00 - 8:02
    저는 그들이 근본적으로
    틀렸다고 생각합니다.
  • 8:02 - 8:06
    보스트롬 교수의 주장에는
    살펴보아야 할 것들이 많고
  • 8:06 - 8:08
    지금 이것을 다 다룰 시간은 없지만
  • 8:08 - 8:11
    아주 간략하게, 이것을 생각하여보세요.
  • 8:11 - 8:14
    많이 아는 것은
    많이 하는 것과 다릅니다.
  • 8:14 - 8:16
    HAL이 탐사팀에게
    위협이 되었던 이유는
  • 8:16 - 8:21
    단지 HAL이 탐사의 모든 측면에서
    명령을 내렸기 때문이죠.
  • 8:21 - 8:23
    초지능과 관련이 있습니다.
  • 8:23 - 8:26
    그것은 우리 세상의 지배권을
    가지게 될것입니다.
  • 8:26 - 8:29
    초지능이 사람이 원하는것을
  • 8:29 - 8:30
    명령받하게 되는것은
  • 8:30 - 8:32
    영화 "터미네이터"의
    스카이넷을 통해 다뤄지는데
  • 8:32 - 8:36
    이는 모든 기기들이
    전세계에 다 있는 경우입니다.
  • 8:36 - 8:37
    솔직하게 얘기하여보자면,
  • 8:37 - 8:39
    이것은 일어나지 않을 일입니다.
  • 8:39 - 8:42
    우리는 날씨를 조정하거나,
    파도를 이끌거나
  • 8:42 - 8:44
    예측할수 없고 혼란스러운
    사람을 명령하는
  • 8:44 - 8:47
    인공지능을 만들고있는것이 아닙니다.
  • 8:47 - 8:51
    그리고 이러한 인공지능이 있다면,
  • 8:51 - 8:54
    그것은 자원을 위하여
  • 8:54 - 8:57
    인류의 경제와 경쟁해야겠지요.
  • 8:57 - 8:58
    결국에는
  • 8:58 - 9:00
    시리에게는 말하지 마세요.
  • 9:00 - 9:02
    우리는 언제나
    전원을 빼버릴 수 있습니다.
  • 9:02 - 9:04
    (웃음)
  • 9:05 - 9:08
    우리는 기계들과 공진화하는
  • 9:08 - 9:10
    놀랄만한 여행을 하고 있습니다.
  • 9:10 - 9:13
    미래의 인간들은
  • 9:13 - 9:15
    오늘날의 인간들과 다르겠지요.
  • 9:15 - 9:19
    초지능의 출현을 지금 걱정하는것은
  • 9:19 - 9:22
    기술의 발전이 우리에게
  • 9:22 - 9:24
    관심을 가져야만하는 많은
  • 9:24 - 9:27
    사회적, 인류적 이슈를 가져오기에
  • 9:27 - 9:29
    위험한 분산이라고 볼 수 있습니다.
  • 9:29 - 9:32
    그럼 어떻게 해야 인간의 노동이
    덜 중요해진 사회를
  • 9:32 - 9:35
    잘 구성할 수 있을까요?
  • 9:35 - 9:38
    어떻게 해야 차이점을 존중하며
  • 9:38 - 9:40
    교육과 이해를 세계적으로
    가져올 수 있을까요?
  • 9:40 - 9:44
    인식적인 건강관리 시스템으로
    어떻게 인간의 삶을 발전시킬까요?
  • 9:44 - 9:47
    어떻게 기술적인 것들을 이용하여
  • 9:47 - 9:49
    우리가 별을 따도록 도울 수 있을까요?
  • 9:50 - 9:52
    그것이 이 일의 신나는 부분입니다.
  • 9:52 - 9:55
    이제 우리는
  • 9:55 - 9:58
    기계를 통한 인류
    발전을 이룰 수 있으며
  • 9:58 - 10:01
    지금 이곳에서 우리는
    시작하고 있습니다.
  • 10:02 - 10:03
    감사합니다.
  • 10:04 - 10:08
    (박수)
Title:
초지능 인공지능을 두려워하지 마세요
Speaker:
그래디 부치(Grady Booch)
Description:

새로운 기술은 새로운 불안감을 야기하지만 우리는 전능하고 감정없는 인공지능을 무서워 할 필요가 없다고 철학가이자 과학자인 그래디 부치가 말합니다. 부치는 우리가 초지능 컴퓨터에 느끼는 두려움을 없애기 위하여 인공지능들은 프로그램되는 게 아니라 배우게 될 것이며 우리의 가치를 나누게 될 것이라고 설명합니다. 그는 우리가 있음직하지 않은 위험에 대하여 두려워하기보다는 인공 지능이 어떻게 사람들의 삶을 도와줄 수 있는지 생각해보기를 권장합니다.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Korean subtitles

Revisions