초지능 인공지능을 두려워하지 마세요
-
0:01 - 0:05제가 어렸을 적,
저는 전형적인 괴짜였습니다. -
0:05 - 0:07여러분 중 몇몇도 그랬을 거예요.
-
0:08 - 0:09(웃음)
-
0:09 - 0:12거기 가장 크게 웃으신 분은
여전히 그럴 것 같군요. -
0:12 - 0:14(웃음)
-
0:14 - 0:18저는 북텍사스 황무지의 작은 마을에서
-
0:18 - 0:21목사인 할아버지와
보안관인 아버지 밑에서 자랐습니다. -
0:21 - 0:23말썽피우는 일은 생각도
할 수 없었습니다. -
0:24 - 0:27그래서 저는 미적분학 책을
재미로 읽었습니다. -
0:27 - 0:29(웃음)
-
0:29 - 0:31당신도 그랬잖아요.
-
0:31 - 0:34그것으로 저는 레이저, 컴퓨터와
모델 로켓을 만들었지요. -
0:34 - 0:37그러다 보니 제 방에
로켓 연료를 만들게 됐어요. -
0:38 - 0:42현재, 과학적 관점에서
-
0:42 - 0:45우리는 이것을 매우
나쁜 생각이라고 하죠. -
0:45 - 0:46(웃음)
-
0:46 - 0:48또한 그 시절에
-
0:48 - 0:52스탠리 큐브릭의
"2001년: 스페이스 오디세이"가 -
0:52 - 0:54개봉하였으며 제 삶은 완전히 바뀌었죠.
-
0:54 - 0:56저는 그 영화의 모든 것이 좋았습니다.
-
0:56 - 0:59특히 HAL 9000은 특별했죠.
-
0:59 - 1:01HAL은 지각을 할 수 있는 컴퓨터로
-
1:01 - 1:03디스커버리호가 지구에서 목성으로 가도록
-
1:03 - 1:06가이드하는 역할을 했습니다.
-
1:06 - 1:08HAL은 또한 결함이 있어서
-
1:08 - 1:12결국 끝엔 인간의 생명을 뒤로하고
주어진 임무를 택하게 됩니다. -
1:13 - 1:15HAL은 허구적 캐릭터이지만
-
1:15 - 1:16그럼에도 불구하고
-
1:16 - 1:18그는 우리에게 공포감을 선사합니다.
-
1:18 - 1:23인류에게 냉담한 감정이 없는
인공적인 지능에게 -
1:23 - 1:25지배당하게 될 것이라는 공포죠.
-
1:26 - 1:28저는 그러한 공포가
근거 없다고 생각합니다. -
1:28 - 1:31확실히 우리는 인간 역사에서
-
1:31 - 1:33매우 중요한 시기에 있습니다.
-
1:33 - 1:38우리는 우리 몸과 정신의
한계를 받아들이길 거부하며 -
1:38 - 1:39기계를 만들어내고 있습니다.
-
1:39 - 1:43우아하고 복잡하면서도
아름답고 정교하게요. -
1:43 - 1:45그리고 그것은 인간의 경험을
-
1:45 - 1:47상상을 초월할만큼 확장시킬 것입니다.
-
1:48 - 1:50저는 공군사관학교에서
-
1:50 - 1:52현재 우주 사령부로 와서
-
1:52 - 1:54시스템 엔지니어가 됐고
-
1:54 - 1:59최근 나사의 화성과 관련된
기술문제에 관여하고 있습니다. -
1:59 - 2:02오늘날 우리는
휴스턴 우주 비행 관제센터를 통해 -
2:02 - 2:05달을 향한 우주 비행을
-
2:05 - 2:07모든 측면에서 지켜볼 수 있습니다.
-
2:07 - 2:11하지만 화성은
200배 멀리 떨어져 있으며 -
2:11 - 2:17신호가 지구에서 화성까지
평균적으로 13분 걸립니다. -
2:17 - 2:20문제가 있다면
시간이 충분하지 않다는 것이지요. -
2:21 - 2:23그리고 합당한 기술적 방안은
-
2:23 - 2:26우주 비행 관제 센터를
-
2:26 - 2:29오리온 우주선 벽 안에 넣는 것이지요.
-
2:29 - 2:32다른 흥미로운 임무 개요 아이디어는
-
2:32 - 2:35사람이 직접 도착하기 전에
-
2:35 - 2:37인간형 로봇을 먼저 화성에 두어
-
2:37 - 2:38시설들을 먼저 짓게 한 후
-
2:38 - 2:42과학팀의 협력 멤버로 두는 것입니다.
-
2:43 - 2:46이제 제가 이것을 기술적 측면에서 보면
-
2:46 - 2:49제가 만들어야 하는 것이
-
2:49 - 2:52똑똑하고 협력적인
-
2:52 - 2:54사회적 지능의 인공 지능임을
알 수 있습니다. -
2:54 - 2:58다른 말로, 저는 살인하는 경향이 없는
-
2:58 - 3:01HAL을 만들어야 한다는 것입니다.
-
3:01 - 3:02(웃음)
-
3:03 - 3:05잠시만 멈추고 생각하여봅시다.
-
3:05 - 3:09그러한 인공지능을 만드는 것이
가능할까요? -
3:09 - 3:10사실, 가능합니다.
-
3:10 - 3:11다양한 측면에서
-
3:11 - 3:15이것은 AI 요소가 있는
어려운 기술 문제이지 -
3:15 - 3:20가벼운 설계적 인공지능
문제가 아닙니다. -
3:20 - 3:22앨런 튜링의 말을 정리하여 보자면
-
3:22 - 3:25저는 감각이 있는 기계를 만드는 것에
흥미가 있는 것이 아닙니다. -
3:25 - 3:26저는 HAL을 만드는 것이 아닙니다.
-
3:26 - 3:29저는 지능의 환상을 주는
-
3:29 - 3:32간단한 두뇌를 만들려는 것일 뿐입니다.
-
3:33 - 3:35HAL이 상영된 후에
-
3:35 - 3:38기계적 과학과 예술은 발전해왔으며
-
3:38 - 3:41만일 발명가 샨드라가
오늘 이곳에 있었더라면 -
3:41 - 3:43우리에게 많은 질문이 있었을 거라고
저는 상상합니다. -
3:43 - 3:45수많은 기계들중 하나의 시스템을 뽑아
-
3:45 - 3:49데이타의 흐름을 읽고
-
3:49 - 3:51그들의 실패를 예견하는게
-
3:51 - 3:53정말 가능한 것일까요?
-
3:53 - 3:54네.
-
3:54 - 3:58우리와 자연스럽게 대화하는 시스템을
만들 수 있을까요? -
3:58 - 3:59네.
-
3:59 - 4:02물건을 인식하고, 감정을 알아보며,
감정을 나타내고 -
4:02 - 4:05게임을 하며, 입술을 읽는,
그런 시스템을 만들 수 있을까요? -
4:05 - 4:06네.
-
4:07 - 4:10목표를 세워 그 목표를 향해 나아가며
-
4:10 - 4:12그 과정에서 학습하는
시스템을 만들 수 있을까요? -
4:12 - 4:14네.
-
4:14 - 4:17마음 이론을 가지고 있는
시스템을 만들 수 있을까요? -
4:17 - 4:18이것을 향해 우리는 나아가고 있습니다.
-
4:18 - 4:22윤리적, 도덕적 배경을 가지고 있는
시스템을 만들 수 있을까요? -
4:22 - 4:25우리가 해야만 하는 것입니다.
-
4:25 - 4:27그러므로 이러한 사명을 가진
-
4:27 - 4:30인공지능을 만드는 것이 가능하다는 것을
-
4:30 - 4:32받아들여 봅시다.
-
4:32 - 4:34그렇다면 이 질문을
스스로에게 물어보세요. -
4:34 - 4:36우리는 두려워해야 할까요?
-
4:36 - 4:38오늘날 모든 새로운 기술은
-
4:38 - 4:41어느 정도의 두려움을 가져오지요.
-
4:41 - 4:42우리가 처음 차를 보았을 때
-
4:43 - 4:47사람들은 그것이 가족들을
무너뜨릴까봐 걱정했었습니다. -
4:47 - 4:49우리가 처음 전화를 보았을 때
-
4:49 - 4:52사람들은 그것이 대화를 없애버릴까봐
걱정했었습니다. -
4:52 - 4:56글자를 쓰는것이 보편화 되어갈 때
-
4:56 - 4:59사람들은 기억력을 잃게
될 거라고 생각했었죠. -
4:59 - 5:01어느 정도 맞는 말일 수 있지만
-
5:01 - 5:07기술이 사람의 삶을
더 깊게 해주는 경우도 -
5:07 - 5:08있었다고 볼 수 있죠.
-
5:10 - 5:12더 나아가봅시다.
-
5:13 - 5:18저는 인공지능이 우리의 가치를
궁극적으로 구현할 것이라고 믿기에 -
5:18 - 5:22인공지능의 발명을
두려워하지 않습니다. -
5:22 - 5:25이것을 고려하세요:
인식적인 시스템을 만드는 것은 -
5:25 - 5:29과거의 소프트웨어 중심 시스템을
만드는 것과 다릅니다. -
5:29 - 5:31우리는 그것을
프로그램하지 않고 가르칩니다. -
5:31 - 5:34꽃을 알아보는것을 시스템에게
가르치기 위해서는 -
5:34 - 5:37수천 종류의 꽃을 보여주여야 합니다.
-
5:37 - 5:39시스템에게 게임하는 법을
가르치기 위해서는 -
5:39 - 5:41저도 그러고 싶고,
여러분도 그러겠지요. -
5:43 - 5:45저는 꽃을 좋아해요, 정말로요.
-
5:45 - 5:48시스템에게 바둑같은 게임을
가르치기 위해서는 -
5:48 - 5:50수천 번의 바둑 게임을
해주어야 할 것이며 -
5:50 - 5:52그 과정에서 잘한 게임과 못한 게임을
-
5:52 - 5:54구별하는것도 가르쳐야겠지요.
-
5:55 - 5:58인공 지능에게 법률 보조일을
시키기 위해서는 -
5:58 - 6:00대전 뿐만이 아니라
-
6:00 - 6:06자비와 정의등의 개념
역시 가르쳐야겠지요. -
6:07 - 6:10과학적으로, 우리가 말하는
근본적인 진실 및 -
6:10 - 6:12중요한 사실이 여기 있습니다:
-
6:12 - 6:13이러한 기계를 만들기 위해서는
-
6:13 - 6:16우리는 우리의 가치를 그들에게
가르쳐야합니다. -
6:17 - 6:20그 목적을 위해서, 저는 인공지능이
-
6:20 - 6:23잘 훈련받은 사람보다 같거나
더 대단하다고 믿습니다. -
6:24 - 6:25하지만 여러분
-
6:25 - 6:28잘 설립된 로그 에이전트와 같은
-
6:28 - 6:31비정부기관에 대하여 물을수 있겠죠?
-
6:31 - 6:35저는 외로운 늑대에게 있는
인공지능을 두려워하지 않습니다. -
6:35 - 6:40분명히, 우리는 마구잡이의 폭력에서
우리를 보호할 수 없지만 -
6:40 - 6:42실제적으로 보았을때
-
6:42 - 6:45이는 근본적인 트레이닝을 요구하고
-
6:45 - 6:47이것은 개인의 능력치
바깥에 있는 일입니다. -
6:47 - 6:49더 나아가 이것은
-
6:49 - 6:52인터넷 바이러스를 세상에 주입하여
-
6:52 - 6:55하나의 버튼을 눌러
전세계 인터넷을 폭파시키는것보다 -
6:55 - 6:57더 힘든 일입니다.
-
6:57 - 7:00이제 이러한 것들은 훨씬 커졌으며
-
7:00 - 7:02우리는 이것들이 다가오는것을
확실하게 볼 수 있죠. -
7:03 - 7:06제가 인공지능이 인류를 위협할까봐
-
7:06 - 7:08두려워할까요?
-
7:08 - 7:13"메트릭스", "메트로폴리스",
"터미네이터" 같은 -
7:13 - 7:16서구의 영화들을 보면
-
7:16 - 7:18영화들은 이러한 두려움을
다루고 있습니다. -
7:18 - 7:22철학자 닉보스트롬의
"초지능"이라는 책에서 -
7:22 - 7:24그는 이 주제를 다루며
-
7:24 - 7:28초지능이 위험할 뿐만 아니라
-
7:28 - 7:32인류에 있어서 모든 위험을
대변한다고 합니다. -
7:32 - 7:34필자의 근본적인 주장은
-
7:34 - 7:37이러한 시스템이 결국
-
7:37 - 7:40탐욕적으로 정보를 원하게 되어
-
7:40 - 7:43인간의 필요와
-
7:43 - 7:46반대되는 목적을
-
7:46 - 7:48이루게 될거라는 것이죠.
-
7:48 - 7:50보스트롬 교수를
따르는 사람들이 많습니다. -
7:50 - 7:54엘론머스크와 스티븐 호킹같은
사람들의 지지를 받고있죠. -
7:55 - 7:57천부적인 마음들에
-
7:58 - 8:00외람된 말씀입니다만
-
8:00 - 8:02저는 그들이 근본적으로
틀렸다고 생각합니다. -
8:02 - 8:06보스트롬 교수의 주장에는
살펴보아야 할 것들이 많고 -
8:06 - 8:08지금 이것을 다 다룰 시간은 없지만
-
8:08 - 8:11아주 간략하게, 이것을 생각하여보세요.
-
8:11 - 8:14많이 아는 것은
많이 하는 것과 다릅니다. -
8:14 - 8:16HAL이 탐사팀에게
위협이 되었던 이유는 -
8:16 - 8:21단지 HAL이 탐사의 모든 측면에서
명령을 내렸기 때문이죠. -
8:21 - 8:23초지능과 관련이 있습니다.
-
8:23 - 8:26그것은 우리 세상의 지배권을
가지게 될것입니다. -
8:26 - 8:29초지능이 사람이 원하는것을
-
8:29 - 8:30명령받하게 되는것은
-
8:30 - 8:32영화 "터미네이터"의
스카이넷을 통해 다뤄지는데 -
8:32 - 8:36이는 모든 기기들이
전세계에 다 있는 경우입니다. -
8:36 - 8:37솔직하게 얘기하여보자면,
-
8:37 - 8:39이것은 일어나지 않을 일입니다.
-
8:39 - 8:42우리는 날씨를 조정하거나,
파도를 이끌거나 -
8:42 - 8:44예측할수 없고 혼란스러운
사람을 명령하는 -
8:44 - 8:47인공지능을 만들고있는것이 아닙니다.
-
8:47 - 8:51그리고 이러한 인공지능이 있다면,
-
8:51 - 8:54그것은 자원을 위하여
-
8:54 - 8:57인류의 경제와 경쟁해야겠지요.
-
8:57 - 8:58결국에는
-
8:58 - 9:00시리에게는 말하지 마세요.
-
9:00 - 9:02우리는 언제나
전원을 빼버릴 수 있습니다. -
9:02 - 9:04(웃음)
-
9:05 - 9:08우리는 기계들과 공진화하는
-
9:08 - 9:10놀랄만한 여행을 하고 있습니다.
-
9:10 - 9:13미래의 인간들은
-
9:13 - 9:15오늘날의 인간들과 다르겠지요.
-
9:15 - 9:19초지능의 출현을 지금 걱정하는것은
-
9:19 - 9:22기술의 발전이 우리에게
-
9:22 - 9:24관심을 가져야만하는 많은
-
9:24 - 9:27사회적, 인류적 이슈를 가져오기에
-
9:27 - 9:29위험한 분산이라고 볼 수 있습니다.
-
9:29 - 9:32그럼 어떻게 해야 인간의 노동이
덜 중요해진 사회를 -
9:32 - 9:35잘 구성할 수 있을까요?
-
9:35 - 9:38어떻게 해야 차이점을 존중하며
-
9:38 - 9:40교육과 이해를 세계적으로
가져올 수 있을까요? -
9:40 - 9:44인식적인 건강관리 시스템으로
어떻게 인간의 삶을 발전시킬까요? -
9:44 - 9:47어떻게 기술적인 것들을 이용하여
-
9:47 - 9:49우리가 별을 따도록 도울 수 있을까요?
-
9:50 - 9:52그것이 이 일의 신나는 부분입니다.
-
9:52 - 9:55이제 우리는
-
9:55 - 9:58기계를 통한 인류
발전을 이룰 수 있으며 -
9:58 - 10:01지금 이곳에서 우리는
시작하고 있습니다. -
10:02 - 10:03감사합니다.
-
10:04 - 10:08(박수)
- Title:
- 초지능 인공지능을 두려워하지 마세요
- Speaker:
- 그래디 부치(Grady Booch)
- Description:
-
새로운 기술은 새로운 불안감을 야기하지만 우리는 전능하고 감정없는 인공지능을 무서워 할 필요가 없다고 철학가이자 과학자인 그래디 부치가 말합니다. 부치는 우리가 초지능 컴퓨터에 느끼는 두려움을 없애기 위하여 인공지능들은 프로그램되는 게 아니라 배우게 될 것이며 우리의 가치를 나누게 될 것이라고 설명합니다. 그는 우리가 있음직하지 않은 위험에 대하여 두려워하기보다는 인공 지능이 어떻게 사람들의 삶을 도와줄 수 있는지 생각해보기를 권장합니다.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Jihyeon J. Kim accepted Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI | ||
Jihyeon J. Kim edited Korean subtitles for Don't fear superintelligent AI |