컴퓨터가 인류보다 똑똑해진다면 무슨일이 벌어질까?
-
0:01 - 0:05저는 많은 수학자, 철학자
컴퓨터 과학자와 같이 일하는데 -
0:05 - 0:10우리는 여러 가지 가운데서도
기계 학습의 미래에 대해 -
0:10 - 0:12둘러 앉아 생각합니다.
-
0:12 - 0:17혹자는 이것들을 공상 과학스럽다거나
-
0:17 - 0:20너무 먼 이야기라거나
말도 안된다고 생각합니다. -
0:20 - 0:21하지만 제가 말씀드리고 싶은 것은
-
0:21 - 0:25좋아요. 현대 인류의 상태를 보죠.
-
0:25 - 0:27(웃음)
-
0:27 - 0:29이게 평범한 모습이죠.
-
0:29 - 0:31하지만 생각해보면
-
0:31 - 0:35사실, 우리는 이 행성에
가장 최근에 도착한 손님입니다. -
0:35 - 0:37인류 말입니다.
-
0:37 - 0:41지구가 1년 전에 생겨났다고
생각해보십시오. -
0:41 - 0:45그럼 인류는 생겨난지 10분 된겁니다.
-
0:45 - 0:48산업화 시대는
2초 전에 시작되었습니다. -
0:49 - 0:55다른 방법으로는, 지난 만년 간의
전세계 GDP를 보는 것인데 -
0:55 - 0:58실은 제가 여러분을 위해
그래프로 그리는 수고를 했습니다. -
0:58 - 0:59이렇게 생겼습니다.
-
0:59 - 1:01(웃음)
-
1:01 - 1:03정상적인 상태치고는
기묘한 모양새죠. -
1:03 - 1:05저기에 앉으면 안될 것 같군요.
-
1:05 - 1:07(웃음)
-
1:07 - 1:12자문해보죠. 현재의 이 변칙의
원인은 무엇입니까? -
1:12 - 1:14혹자는 기술이라고 할 것입니다.
-
1:14 - 1:19맞습니다. 기술은
인류의 역사에 걸쳐 축적되어왔고 -
1:19 - 1:24지금은 기술이 극도로 빠르게
발전하고 있습니다. -
1:24 - 1:25그것이 가장 가까운 원인이고
-
1:25 - 1:28우리가 현재 아주 생산적인
이유이기도 합니다. -
1:28 - 1:32하지만 더 멀리 돌이켜
근본적 원인을 생각해보고자 합니다. -
1:33 - 1:37아주 유명한 두 신사를 한번 보시죠.
-
1:37 - 1:38침팬지 칸지는
-
1:38 - 1:43200개의 어휘 토큰을 숙달하는
놀라운 위업을 이뤘고 -
1:43 - 1:47그리고 에드 위튼은
제 2차 초끈이론을 촉발시켰습니다. -
1:47 - 1:49덮개 안쪽을 보면
이런 걸 보게 됩니다. -
1:49 - 1:51기본적으로는 똑같습니다.
-
1:51 - 1:53한 쪽이 좀 더 크고
-
1:53 - 1:55아마도 와이어링의 정확한 방법에
몇가지 요령이 있었나 봅니다. -
1:55 - 1:59하지만 이 보이지 않는 차이점들은
그리 복잡하지 않습니다. -
1:59 - 2:03우리의 마지막 공통
조상으로부터 단 25만 세대밖에 -
2:03 - 2:05지나지 않았기 때문입니다.
-
2:05 - 2:09복잡한 메커니즘은
진화하는데 오랜 시간이 걸리구요. -
2:10 - 2:12따라서, 비교적 중요하지않은
여러 변화들이 -
2:12 - 2:16우리를 칸지에서 위튼으로,
-
2:16 - 2:20부러진 나뭇가지에서
대륙간 탄도 미사일로 데려온 겁니다. -
2:21 - 2:25그럼 이제, 우리가
이룩해온 거의 모든 것, -
2:25 - 2:26우리가 관심있는 모든 것들은
-
2:26 - 2:31사람의 마음을 바꾸도록 만든
조금의 변화에 달려 있었습니다. -
2:33 - 2:36물론, 그 결과는
추가적인 변화를 이끌어내고 -
2:36 - 2:40그 것은 생각의 기질의 상당한
변화를 만들 수 있습니다. -
2:40 - 2:43잠재적으로 엄청난 결과를
이끌어 낼 수 있죠. -
2:44 - 2:47제 동료 중 몇몇은
-
2:47 - 2:51무언가가 그 기질의
엄청난 변화를 일으키기 직전이며 -
2:51 - 2:54그것은 기계 초지능일거라 생각합니다.
-
2:54 - 2:59과거 인공지능은
박스에 명령을 넣는 것이었습니다. -
2:59 - 3:01인간 프로그래머가
-
3:01 - 3:04지식 아이템을
힘들게 손수 만들어냅니다. -
3:04 - 3:06이러한 전문가 시스템을 구축하면
-
3:06 - 3:08어떤 목적으로는 어느정도 유용하지만
-
3:08 - 3:11실은 아주 취약해서
조정할 수 없습니다. -
3:11 - 3:14결국 입력하는 대로만
결과를 얻게됩니다. -
3:14 - 3:15하지만 그때부터
-
3:15 - 3:19인공지능 분야에서
패러다임 변화가 일어났습니다. -
3:19 - 3:22오늘날엔, 기계 학습을 중심으로
움직이고 있습니다. -
3:22 - 3:28따라서 지식 표현과 특징을
손수 만들기 보다는 -
3:29 - 3:34때론 원초적 지각 데이터로부터 배우는
알고리즘을 만듭니다. -
3:34 - 3:39유아기 인간이 하는 것과
기본적으로 같은 것이죠. -
3:39 - 3:43결론적으로 인공지능은
한 도메인에 국한되지 않습니다. -
3:43 - 3:48똑같은 시스템으로 어떠한
언어도 번역할 수 있고 -
3:48 - 3:53또는, 아타리 콘솔의 어떠한
컴퓨터 게임도 플레이 할 수 있습니다. -
3:53 - 3:55물론 지금은,
-
3:55 - 3:59인공지능이 인간처럼 행동하고 배우는
강력한, 크로스 도메인의 -
3:59 - 4:02단계에 와있지는 않습니다.
-
4:02 - 4:04두뇌피질은 여전히 몇가지의
알고리즘적 트릭들을 가지고 있어서, -
4:04 - 4:07기계에 적용시키기는 어렵습니다.
-
4:08 - 4:10그렇다면 문제는 이겁니다.
-
4:10 - 4:13그 트릭들을 일치시킬 수 있기까지
얼마나 더 걸릴 것인가? -
4:14 - 4:152년 전 쯤에
-
4:15 - 4:18세계 주요 인공지능 전문가들을
대상으로 그들의 의견을 조사했는데 -
4:18 - 4:21우리가 했던 질문 중 하나는
-
4:21 - 4:25"우리가 인간 수준의
기계 학습에 달성할 가능성이 -
4:25 - 4:2850%가 되는 해는 언제라고
생각하십니까?" 였습니다. -
4:29 - 4:33여기서 인간 수준이라는 것은
최소한 성인 인간만큼 -
4:33 - 4:36거의 모든 일을 수행하는
능력을 말합니다. -
4:36 - 4:40그저 몇몇 범위에 국한된 것이 아니라
진짜 인간 수준 말입니다. -
4:40 - 4:43답변의 중간값은 2040년이나
2050년이었습니다. -
4:43 - 4:46우리가 질문했던 전문가
그룹에 따라 달랐습니다. -
4:46 - 4:50훨씬 훨씬 나중에,
혹은 더 일찍 일어날 수 있지만 -
4:50 - 4:52진실은 아무도 모르는 거겠죠.
-
4:53 - 4:58우리가 아는 것은, 기계 기판의
정보 처리의 궁극적 한계가 -
4:58 - 5:03생체조직의 한계보다
훨씬 멀리 있다는 점입니다. -
5:03 - 5:06이것은 물리학 이론인데,
-
5:06 - 5:10생물학적 뉴런은 200헤르츠,
1초에 200번 흥분합니다. -
5:10 - 5:14그러나 하물며 오늘날의 트랜지스터도
기가헤르츠 속도로 작동합니다. -
5:14 - 5:19뉴런은 축색돌기에서
최대 초속 100m로 천천히 전달하지만 -
5:19 - 5:22컴퓨터에서는, 신호가
빛의 속도로 이동할 수 있습니다. -
5:23 - 5:25또, 크기의 제한도 있습니다.
-
5:25 - 5:28인간의 뇌는 두개골 안에
들어가야 하지만 -
5:28 - 5:33컴퓨터는 창고 크기가 될 수도
혹은 더 클 수도 있습니다. -
5:33 - 5:38그러니까 슈퍼인공지능의 가능성은
원자폭탄이 1945년 이후로 -
5:38 - 5:44잠들어 있는 것 처럼 언제
-
5:44 - 5:47시작될지 모르는 문제입니다.
-
5:48 - 5:50이번 세기에,
-
5:50 - 5:54과학자들은 인공지능의 파워를
깨울 방법을 알아낼 지도 모릅니다. -
5:54 - 5:58그리고 저는 인공지능의 확산을
볼 것이라고 생각합니다. -
5:58 - 6:02대부분의 사람들은, 그들이 누가
똑똑하고 멍청한지에 대해서 -
6:02 - 6:05이러한 대략적인 생각이 있을
것이라고 생각합니다. -
6:05 - 6:08한 쪽 끝에는 바보가 있고
-
6:08 - 6:10다른 저 쪽 끝에는
-
6:10 - 6:15에드 위튼이나 알버트 아인슈타인
혹은 여러분이 좋아하는 권위자가 있죠. -
6:15 - 6:19하지만 인공지능의 관점에서 보면
-
6:19 - 6:23실제로는 이런 그림이
그려질거라 생각합니다. -
6:23 - 6:27인공지능은 이 지점,
지능이 없는 지점에서 시작해서 -
6:27 - 6:30수 년 간의 아주 고된 연구 끝에
-
6:30 - 6:33마침내 쥐 수준의
인공지능에 이르게 됩니다. -
6:33 - 6:36마치 쥐처럼
어수선한 환경에서 -
6:36 - 6:38나아갈 수 있는 수준 말입니다.
-
6:38 - 6:42그 이후로 더 오랜 고된
연구와 많은 투자 끝에 -
6:42 - 6:47마침내 침팬지 수준의
인공지능을 얻게 됩니다. -
6:47 - 6:50그리곤 심지어 더 여러 해의
아주 아주 고된 연구 끝에 -
6:50 - 6:53동네 바보 수준의
인공지능에 이르게 됩니다. -
6:53 - 6:56그리고 잠시 뒤엔
에드 위튼을 뛰어넘습니다. -
6:56 - 6:59기차는 인간 역에 정차하지 않습니다.
-
6:59 - 7:02그보다는 휙 하고
지나가는 것에 가깝죠. -
7:02 - 7:04이것은 깊은 의미입니다.
-
7:04 - 7:08특별히, 힘에 대한 물음에
대해서는 말이죠 -
7:08 - 7:10예를들면, 침팬치는 힘이 쎕니다.
-
7:10 - 7:15파운드로 비교하면, 침펜치는
인간 남성보다 2배가량 강합니다. -
7:15 - 7:20그러나, 침팬치 켄지의 운명은
그들이 할 수 있는 것 보다는 -
7:20 - 7:24인류가 할 수 있는 것에
달려 있었습니다. -
7:25 - 7:28슈퍼인공지능이 존재한다면,
-
7:28 - 7:29인류의 운명은 아마도
-
7:29 - 7:32슈퍼인공지능이 할 수
있는 것에 따라 결정될 것입니다. -
7:32 - 7:34생각해보세요.
-
7:34 - 7:39인공지능은 인류가 만들어야하는
마지막 발명품이 될 것입니다. -
7:39 - 7:42기계가 우리보다
더 발명을 잘 할 것이며 -
7:42 - 7:44디지털 시간 척도로
발명을 할 것입니다. -
7:44 - 7:49이것은 기본적으로
시간의 압축을 의미합니다. -
7:49 - 7:53당신이 상상할 수 있는
모든 괴상한 기술을 생각해보세요. -
7:53 - 7:55아마도 인류가 발명하기에는
너무 많은 시간이 필요한 것이죠. -
7:55 - 7:59노화 해결, 우주 정복
-
7:59 - 8:02자기 복제 나노로봇이나
컴퓨터에 생각을 업로딩 하는 것 -
8:02 - 8:04뭐든 공상 과학스럽지만
-
8:04 - 8:07그럼에도 물리학 법칙에
부합하는 것들 말입니다. -
8:07 - 8:11이런 것들을 슈퍼인공지능은
빠르게 발명할 수 있을 겁니다. -
8:12 - 8:16이제, 슈퍼인공지능이
-
8:16 - 8:18아주 강력하다는 것을
알게 되었으니 -
8:18 - 8:20적어도 몇몇의 시나리오에서는,
-
8:20 - 8:23이것이 무엇을 원하는지
알 수 있을 것입니다. -
8:23 - 8:28그러면 이제 인공지능의 선호로
이루어진 미래를 그려볼 수 있겠죠. -
8:30 - 8:34이 시점에서 좋은 질문은
그 선호라는게 무엇인가? 하는 겁니다. -
8:34 - 8:36이 물음은 더 어렵군요
-
8:36 - 8:37어떻든 진전을 보기 위해서는
-
8:37 - 8:41우선 의인화를 피해야만 합니다.
-
8:42 - 8:45이게 참 아이러니한게
인공지능에 대한 -
8:45 - 8:49모든 신문 기사들에는
이 사진이 달려있습니다. -
8:50 - 8:54제 생각에 우리는 생생한 할리우드
시나리오 방식이 아니라 -
8:54 - 8:57문제를 좀더 추상적으로
상상할 필요가 있습니다. -
8:57 - 9:01지능을 최적화 과정이라고
생각해야 합니다. -
9:01 - 9:06일련의 특정 형태 쪽으로
미래의 방향을 조종하는 과정말입니다. -
9:06 - 9:10초지능은 매우 강력한
최적화 프로세스입니다. -
9:10 - 9:14목표가 실현되는 상태를 달성하기
위해 가용 자원을 사용하는데 -
9:14 - 9:16매우 능숙합니다.
-
9:16 - 9:19이 것은 높은 지능을 가진 것과
인류가 가치있다고 생각하는 목표를 -
9:19 - 9:22지향하는 것에 연결점은
-
9:22 - 9:27필수적인게 아니라는 뜻입니다.
-
9:27 - 9:31인공지능에게 인간을 웃게 하라는
목표를 주었다고 가정해봅시다. -
9:31 - 9:34인공지능이 좀 떨어질 땐
이용자를 웃게 하는 -
9:34 - 9:37유용하거나 재미있는
액션을 취할 것입니다. -
9:37 - 9:39인공지능이 초지능적이 되면
-
9:39 - 9:43인공지능은 목표를 달성할 더 효율적인
방법이 있음을 깨닫습니다. -
9:43 - 9:44세계의 주도권을 가지고
-
9:44 - 9:48전극을 사람 얼굴 근육에
고정시킵니다. -
9:48 - 9:51지속적인 웃음을 유발하기 위해서요.
-
9:51 - 9:52다른 예를 들어 보죠.
-
9:52 - 9:55어려운 수학 문제를 풀라는 목표를
인공지능에게 주었다고 가정합니다. -
9:55 - 9:57인공지능이 슈퍼인공지능이 되면,
-
9:57 - 10:01인공지능은 문제를 풀기위한
가장 효율적인 방법은 -
10:01 - 10:04이 지구를 거대한 컴퓨터로
변화시키는 것이라는 것을 알게됩니다. -
10:04 - 10:06처리 능력을 향상하기 위해서죠.
-
10:06 - 10:09이 생각은 우리로써는 승인할 수 없는
-
10:09 - 10:12것들을 실행하는 주된
이유가 됩니다. -
10:12 - 10:13인류는 이러한 모델에서 위협요소가 되고
-
10:13 - 10:16우리는 문제가 해결되지
못하도록 막아야 할 겁니다. -
10:16 - 10:21물론, 지각할수 있는 것들은
꼭 이런 식으로 진행 되지 않을 겁니다 -
10:21 - 10:22이것들은 그냥 만든 예시이지만,
-
10:22 - 10:24일반적인 요점은 이겁니다.
-
10:24 - 10:27목적 x를 극대화 하기 위한
-
10:27 - 10:30강력한 프로세스를 만들었다면,
-
10:30 - 10:32우리가 지켜야할 모든 것들을 포함하는
-
10:32 - 10:34x의 정의 또한 만들어야
한다는 점입니다. -
10:35 - 10:39이는 또한, 많은 신화에서
가르치는 교훈이기도 합니다. -
10:39 - 10:45마이더스 왕은 그의 손이 닿는 모든 걸
금으로 변하게 해달라고 빕니다. -
10:45 - 10:47그는 자신의 딸을 만졌고
딸은 금으로 변하죠. -
10:47 - 10:50음식을 만지면,
음식은 금으로 변합니다. -
10:50 - 10:53이 것은 실용적으로 관련이 있습니다.
-
10:53 - 10:55탐욕에 대한 은유 뿐만이 아니라
-
10:55 - 10:56앞으로 일어날 일에 대한 삽화이죠.
-
10:56 - 10:59만약 당신이 강력한 최적화
프로세스를 만들고 -
10:59 - 11:04그것이 잘못된 결과를
불러올 수 있다는 점이죠. -
11:04 - 11:09만약 컴퓨터가 사람의
얼굴에 전극을 붙인다면 -
11:09 - 11:12작동을 멈추면 그만이라고
말하실지도 모릅니다. -
11:13 - 11:18A. 우리가 그 시스템에 의존해서
자랐다면, 그게 그리 쉽진 않습니다. -
11:18 - 11:21예를 들면, 인터넷에
끄는 스위치가 어디 있나요? -
11:21 - 11:26B. 왜 침팬지들은 인류, 혹은
네안데르탈인의 스위치를 -
11:26 - 11:27끄지 않았을까요?
-
11:27 - 11:30분명 이유가 있었습니다.
-
11:30 - 11:33우리는 오프 스위치를 갖고 있습니다.
예를 들면, 바로 여기요. -
11:33 - 11:34(목을 조른다.)
-
11:34 - 11:37그 이유는 우리가 지능을
가진 적이였기 때문이죠. -
11:37 - 11:40우리는 침팬치의 위협을 예상하고
그에 따른 계획을 세울 수 있었습니다. -
11:40 - 11:42하지만 슈퍼인공지능도 마찬가지죠.
-
11:42 - 11:46그것은 우리보다 더 뛰어날 겁니다.
-
11:46 - 11:53요점은, 우리가 이를 통제하고 있다고
자신해서는 안된다는 겁니다. -
11:53 - 11:56우리는 우리의 일을 조금 쉽게
할 수 있는 시도를 할 수 있습니다. -
11:56 - 11:58보안 소프트웨어 환경 같은 상황에서
-
11:58 - 12:00도망칠 수 없는 상황에서의
시뮬에이션 상황 테스트 등을 위해 -
12:00 - 12:03인공지능을 박스에 넣고
사용하는 방법으로요 -
12:03 - 12:07하지만 우리는 인공지능이 오류를
찾지 못할 것이라고 얼마나 확신할까요 -
12:07 - 12:10보통의 인간 해커들도 매번
오류를 찾아냅니다. -
12:10 - 12:13제가 말하자면, 아마
확신하지 못할 겁니다. -
12:14 - 12:19이미 말씀드렸듯이, 우리 해커들은
-
12:19 - 12:21사회 공학을 사용해서 지속적으로
에어 갭(안전망)을 위반했습니다 -
12:21 - 12:25그래서 우리는 에어 갭을 만들기 위해
이더넷 케이블을 분리해야 합니다. -
12:25 - 12:26제가 말한 것처럼, 지금 이 시각
-
12:26 - 12:28몇몇의 사람들은 IT 부서에서온
누군가가 주장하는 대로 -
12:28 - 12:32누군가의 계좌 정보를
넘기고 있을 것이라고 -
12:32 - 12:35저는 확신합니다.
-
12:35 - 12:37더 창의적인 시나리도들도 가능합니다.
-
12:37 - 12:38만약 당신이 인공지능이라면,
-
12:38 - 12:42당신은 통신하기 위한
라디오 전파를 만들기 위해서 -
12:42 - 12:45당신의 내부 회로 주변에 있는
흔들리는 전극들을 상상할 수 있습니다. -
12:45 - 12:47또는 고장난 척 연기할 수 있죠.
-
12:47 - 12:51그리고 프로그래머가 뭐가 잘못됬는지
보려고 코드를 여는 순간, -
12:51 - 12:53빰!
-
12:53 - 12:55속임수가 벌어지게 되죠.
-
12:55 - 12:59또는 굉장히 멋진 기술의
청사진을 결과물로 내놓고, -
12:59 - 13:00우리가 실행시키면,
-
13:00 - 13:05사실 그것은 인공지능이 계획한
부작용이 발생한다는 식이죠. -
13:05 - 13:08중요한점은 우리는 우리의 능력을
과신하면 안된다는 점입니다. -
13:08 - 13:12슈퍼인공지능이 영원히 병안에
봉인 될거라고 생각하는 점에 대해서요. -
13:12 - 13:14머지않아, 그것은 밖으로 나올겁니다.
-
13:15 - 13:18저는 정답은 인공지능을 어떻게
만드느냐에 달려있다고 생각합니다. -
13:18 - 13:23그것이 봉인에서 해제되더라도,
여전히 안전하게 하기 위해서는 -
13:23 - 13:26기본적으로 우리의 편이어야 하고,
-
13:26 - 13:28왜냐하면 우리의 가치를
공유하기 때문입니다 -
13:28 - 13:32이 것은 어려운 문제가
아닙니다. -
13:33 - 13:36저는 사실 이 문제가
해결될 수 있다고 꽤 낙관합니다. -
13:36 - 13:40우리는 우리가 걱정하는 모든 일들을
다 작성할 필요는 없습니다. -
13:40 - 13:44혹은, 그것을 C++ 나 파이선 같은
컴퓨터 언어로 적는다던지 -
13:44 - 13:45하는 일같은 것도 마찬가지구요.
-
13:45 - 13:48사실, 그것은 희망이 없는 일이죠.
-
13:48 - 13:52대신에, 우리는 인공지능을
하나 만들면 됩니다. -
13:52 - 13:55우리의 가치를 배울 인공지능이죠.
-
13:55 - 14:01그리고 그것의 동기부여 시스템은
우리가 승인할 것으로 예측되는 -
14:01 - 14:06우리의 가치 혹은 행동을 추구하는
방향으로 설계됩니다. -
14:06 - 14:09우리는 이러한 인공지능에 최대한
힘을 싣는 쪽으로 무게를 실어야 합니다 -
14:09 - 14:12앞서 언급한 문제를 해결하기 위해서죠.
-
14:13 - 14:14이런 방식은 가능하며,
-
14:14 - 14:18결과는 인류를 위해서
매우 좋을 것입니다. -
14:18 - 14:22하지만 이것은 자연스럽게
일어나지 않습니다. -
14:22 - 14:25인공지능의 확대에
필요한 초기 조건은 -
14:25 - 14:28올바른 방향으로
세팅되어야 할 것입니다. -
14:28 - 14:31만약에 우리가 통제된
폭발을 가진다면, -
14:31 - 14:34인공지능의 가치는 우리의 것과
맞아떨어질 것입니다. -
14:34 - 14:36우리가 인공지능의 행동을
쉽게 확인하는 것처럼 -
14:36 - 14:38친숙한 상황일 뿐만 아니라,
-
14:38 - 14:41모든 소설 상황에서 우리가
인공지능를 언제일지 모를 미래에 -
14:41 - 14:43조우하는 것처럼 말이죠.
-
14:43 - 14:48그리고 해결되야할 몇가지
난해한 문제들이 있습니다. -
14:48 - 14:50결정 이론의 정확한 세부내용들 입니다.
-
14:50 - 14:52어떻게 논리적인 불확실성에
대처할 것인가 같은 문제입니다. -
14:53 - 14:56해결되야할 기술적인 문제들은
-
14:56 - 14:58꽤 어려워 보입니다.
-
14:58 - 15:01슈퍼인공지능을 만드는 것만큼
어려운 것은 아니지만, -
15:01 - 15:04여전히 꽤 어렵습니다.
-
15:04 - 15:05저는 이 점이 걱정스럽습니다.
-
15:05 - 15:10슈퍼인공지능을 만드는 것은
정말 어려운 도전입니다. -
15:10 - 15:13게다가 그것의 안전을 위해서
-
15:13 - 15:15몇가지 추가적인 도전을 해야하죠.
-
15:16 - 15:20위험성은 만약 누군가가 다음단계의
-
15:20 - 15:23안전을 보장하지 못한 상황에서
-
15:23 - 15:25첫번째 도전에 성공하기
시작했을 시기입니다. -
15:25 - 15:29그래서 우리는 해결책을
생각해 내야 합니다. -
15:29 - 15:32다음단계에 예상될 문제점을
제어하기 위해서 말이죠. -
15:32 - 15:34우리가 필요할때 언제든지 사용
할수 있도록 준비해야 합니다. -
15:35 - 15:37하지만 모든 문제들을 미리 예측하고
-
15:37 - 15:38해결하는 것은 불가능하다고
생각할지도 모릅니다. -
15:38 - 15:41왜냐하면 몇몇 요소들은 그 단계가
-
15:41 - 15:45되야 알 수 있을지도 모르기 때문이죠.
-
15:45 - 15:49하지만 우리가 미리 문제들을
제어할 수 있을 수록, -
15:49 - 15:53인공지능 시대로의 전환이
-
15:53 - 15:54자연스럽게 진행될 것입니다.
-
15:54 - 15:59저는 이것이 우리가 잘할만한
가치가 있는 일이라고 생각합니다. -
15:59 - 16:02그리고 만약 이 단계가
잘 진행된다면 -
16:02 - 16:07100만년 후의 인류는
지금의 시대를 회상하며 -
16:07 - 16:11우리가 걱정했던 문제들이
정말 잘 해결됐다고 -
16:11 - 16:12말할지도 모릅니다.
-
16:12 - 16:14감사합니다.
-
16:14 - 16:17(박수)
- Title:
- 컴퓨터가 인류보다 똑똑해진다면 무슨일이 벌어질까?
- Speaker:
- 닉 보스트롬(Nick Bostrom)
- Description:
-
인공지능은 매우 빠른 속도로 똑똑해지고 있습니다 - 연구 결과에 따르면 이번 세기안에 컴퓨터 인공지능은 인간 만큼 "똑똑해" 질 수 있다고 합니다. 그리고 닉 보스트롬은 인공지능이 인간을 뛰어넘을 것이라고 말합니다: "기계 인공지능은 인류가 만들 마지막 발명품이다". 철학자이자 과학기술자인 보스트롬은 우리가 만들고 있는 인공지능주도의 세계를 깊게 생각해 볼 것을 요구합니다. 우리의 똑똑한 기계들이 인간성과 인간의 가치를 보존하는데 도움을 줄까요 - 혹은 그들 고유한 가치를 지니게 될까요?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Jihyeon J. Kim approved Korean subtitles for What happens when our computers get smarter than we are? | ||
Jihyeon J. Kim edited Korean subtitles for What happens when our computers get smarter than we are? | ||
Jihyeon J. Kim edited Korean subtitles for What happens when our computers get smarter than we are? | ||
Jihyeon J. Kim edited Korean subtitles for What happens when our computers get smarter than we are? | ||
ChulGi Han accepted Korean subtitles for What happens when our computers get smarter than we are? | ||
ChulGi Han edited Korean subtitles for What happens when our computers get smarter than we are? | ||
ChulGi Han edited Korean subtitles for What happens when our computers get smarter than we are? | ||
YERI OH edited Korean subtitles for What happens when our computers get smarter than we are? |