Не бойтесь сверхразумного искусственного интеллекта
-
0:01 - 0:05В детстве я был типичным ботаником.
-
0:05 - 0:07Думаю, некоторые из вас тоже.
-
0:08 - 0:09(Смех)
-
0:09 - 0:12А вы, смеётесь громче всех,
наверняка таким и остались. -
0:12 - 0:14(Смех)
-
0:14 - 0:18Я вырос в маленьком городке
среди равнин Северного Техаса. -
0:18 - 0:21Мой отец был шерифом, а дед — пастором.
-
0:21 - 0:24Никаких вариантов бедокурить.
-
0:24 - 0:27Поэтому ради забавы я начал читать
книги по математическому анализу. -
0:28 - 0:29(Смех)
-
0:29 - 0:31И вы — тоже!
-
0:31 - 0:34Благодаря этому я сконструировал
в своей комнате лазер, -
0:34 - 0:38компьютер и модель,
а потом и топливо для ракеты. -
0:39 - 0:41Научный термин для этого —
-
0:42 - 0:45очень плохая идея.
-
0:45 - 0:46(Смех)
-
0:46 - 0:48Как раз в то время
-
0:48 - 0:51вышел фильм Стенли Кубрика
«Космическая одиссея 2001 года», -
0:52 - 0:54он кардинально изменил мою жизнь.
-
0:54 - 0:57Мне нравилось в этом фильме
абсолютно всё, -
0:57 - 0:59особенно HAL 9000.
-
0:59 - 1:01HAL был разумным компьютером,
-
1:01 - 1:03управляющим космическим
кораблём Discovery, -
1:04 - 1:06направляющимся от Земли к Юпитеру.
-
1:06 - 1:08У него был небезупречный характер,
-
1:09 - 1:12и в итоге человеческой жизни
он предпочёл миссию. -
1:13 - 1:15HAL был вымышленным персонажем,
-
1:15 - 1:17но тем не менее, он вызывает страх,
-
1:18 - 1:20страх быть порабощённым
-
1:20 - 1:23бесчувственным искусственным интеллектом,
-
1:23 - 1:25равнодушным к человеку.
-
1:26 - 1:28Я считаю, такие страхи безосновательны.
-
1:29 - 1:31В самом деле, мы живём
в удивительное время -
1:31 - 1:33в человеческой истории,
-
1:33 - 1:38когда, не принимая ограничения
наших тел и нашего разума, -
1:38 - 1:39мы создаём механизмы
-
1:39 - 1:43изумительной, невероятной
сложности и тонкости, -
1:43 - 1:45которые расширят способности человека
-
1:45 - 1:47за грани нашего воображения.
-
1:48 - 1:50Начав карьеру в Академии ВВС,
-
1:50 - 1:52продолжив в Космическом
командовании ВС США, -
1:52 - 1:54я стал инженером-системотехником.
-
1:54 - 1:57А в настоящее время занимаюсь
инженерными разработками, -
1:57 - 1:59связанными с миссией НАСА на Марсе.
-
1:59 - 2:02Сейчас в полётах на Луну
-
2:02 - 2:05мы можем полагаться
на управление полётами в Хьюстоне, -
2:05 - 2:07чтобы следить за всеми аспектами полёта.
-
2:07 - 2:10Однако Марс в 200 раз дальше Луны,
-
2:11 - 2:14и поэтому сигнал от Земли к Марсу
-
2:14 - 2:17идёт в среднем 13 минут.
-
2:17 - 2:20Случись какая-то неполадка,
времени не хватит. -
2:21 - 2:23Поэтому разумное инженерное решение —
-
2:23 - 2:26разместить центр управления полётами
-
2:26 - 2:29внутри космического корабля Orion.
-
2:29 - 2:32Другая увлекательная идея для миссии —
-
2:32 - 2:35отправить роботов-гуманоидов на Марс
-
2:35 - 2:37до прилёта людей:
-
2:37 - 2:38сначала они построят базы,
-
2:38 - 2:42а потом будут помогать научной команде.
-
2:43 - 2:46Когда я посмотрел на это как инженер,
-
2:46 - 2:49стало ясно, что нужно спроектировать
-
2:49 - 2:51умный, способный к сотрудничеству,
-
2:52 - 2:54социально-сознательный
искусственный интеллект. -
2:54 - 2:58Другими словами, нужно было создать
что-то очень похожее на HAL, -
2:58 - 3:01но без склонности к убийствам.
-
3:01 - 3:02(Смех)
-
3:03 - 3:05Давайте на минуту остановимся.
-
3:05 - 3:09Реально ли сделать такой
искусственный интеллект? -
3:09 - 3:10Вполне.
-
3:10 - 3:11Во многом
-
3:11 - 3:13это сложная инженерная задача
-
3:13 - 3:15с использованием ИИ,
-
3:15 - 3:19а не запутанный клубок проблем ИИ,
который нужно распутать. -
3:20 - 3:22Перефразируя Алана Туринга,
-
3:22 - 3:25я не собираюсь создавать разумного робота.
-
3:25 - 3:26Я не собираюсь создавать HAL.
-
3:26 - 3:29Мне всего лишь нужен простой разум
-
3:29 - 3:32с иллюзией интеллекта.
-
3:33 - 3:36Искусство и наука о вычислительной
технике прошли долгий путь -
3:36 - 3:38с появления HAL на экранах,
-
3:38 - 3:41и я представляю, сколько вопросов
возникло бы у его изобретателя -
3:41 - 3:43д-ра Чандра, будь он сейчас здесь.
-
3:43 - 3:45Возможно ли на самом деле
-
3:45 - 3:49взять систему из миллионов устройств,
-
3:49 - 3:51прочитать их потоки данных,
-
3:51 - 3:53предугадать их ошибки и заранее исправить?
-
3:53 - 3:54Да.
-
3:54 - 3:57Можно ли создать механизмы,
которые говорят на человеческом языке? -
3:58 - 3:59Да.
-
3:59 - 4:02Создать механизмы, способные
распознавать объекты, эмоции, -
4:02 - 4:05выражать свои эмоции,
играть и даже читать по губам? -
4:05 - 4:06Да.
-
4:06 - 4:09Механизмы, которые смогут
формулировать цели, -
4:09 - 4:12составлять планы для их достижения
и учиться в процессе их выполнения? -
4:12 - 4:13Да.
-
4:14 - 4:17Можем ли мы создать механизмы,
способные понимать чужое сознание? -
4:17 - 4:18Мы работаем над этим.
-
4:19 - 4:22Можем ли мы создать механизмы
с этическими и нравственными основами? -
4:22 - 4:25Это задача для нас на будущее.
-
4:25 - 4:27Давайте на минуту представим
-
4:27 - 4:29возможность создания
такого искусственного разума -
4:30 - 4:32именно для таких целей, и не только.
-
4:32 - 4:34Следующий вопрос, который вы
должны себе задать: -
4:34 - 4:36а следует ли нам его бояться?
-
4:36 - 4:38Любая новая технология
-
4:38 - 4:41вызывает некоторое беспокойство.
-
4:41 - 4:42Когда впервые появились автомобили,
-
4:43 - 4:46люди переживали, что это разрушит семьи.
-
4:47 - 4:49Когда появились телефоны,
-
4:49 - 4:52люди боялись, что перестанут
общаться вживую. -
4:52 - 4:56В какой-то момент мы увидели,
что распространилась письменность, -
4:56 - 4:59и подумали, что потеряем
способность к запоминанию. -
4:59 - 5:01В этом есть доля истины,
-
5:01 - 5:03но также правда и то, что эти технологии
-
5:03 - 5:06привели нас к огромнейшему расширению
-
5:07 - 5:08сознания и возможностей человека.
-
5:10 - 5:12Давайте пойдём дальше.
-
5:13 - 5:18Я не боюсь появления ИИ
с такими возможностями, -
5:18 - 5:22потому что со временем он
вберёт в себя наши ценности. -
5:22 - 5:25Подумайте, создание мыслящей
системы принципиально отличается -
5:25 - 5:29от создания традиционных систем,
требующих множества программ. -
5:29 - 5:31Мы не программируем ИИ. Мы его обучаем.
-
5:31 - 5:34Чтобы научить систему распознать цветок,
-
5:34 - 5:37я показываю ей тысячи цветов,
которые нравятся мне. -
5:37 - 5:39Чтобы научить систему, как играть...
-
5:39 - 5:41Ну, я бы научил. Вы бы тоже.
-
5:43 - 5:45Ну же! Я люблю цветы.
-
5:45 - 5:48Чтобы научить систему играть,
например, в игру го, -
5:48 - 5:50ей нужно сыграть в неё тысячи раз,
-
5:50 - 5:52но в процессе я буду обучать её
-
5:52 - 5:54отличать хорошую игру от плохой.
-
5:55 - 5:58Если я захочу создать
помощника юриста с ИИ, -
5:58 - 6:00я познакомлю его с законодательством,
-
6:00 - 6:03при этом обучая его
-
6:03 - 6:06милосердию и справедливости,
которые являются частью закона. -
6:07 - 6:09Специалисты называют это
контрольными данными, -
6:10 - 6:11и вот что самое важное:
-
6:12 - 6:13создавая эти машины,
-
6:13 - 6:16мы прививаем им наши ценности.
-
6:17 - 6:20И с этой точки зрения
я доверяю ИИ столь же, -
6:20 - 6:23если не больше, чем человеку
с хорошим воспитанием. -
6:24 - 6:25Но вы можете спросить:
-
6:25 - 6:28а как насчёт неконтролируемых лиц,
-
6:28 - 6:31например, хорошо финансируемых
неправительственных организаций? -
6:31 - 6:35Я не боюсь ИИ в руках таких одиночек.
-
6:35 - 6:39Очевидно, мы не можем защитить себя
от всех случайных актов насилия, -
6:40 - 6:42но на деле такая система требует
-
6:42 - 6:45значительной подготовки
и тщательного обучения, -
6:45 - 6:47что далеко за пределами частных ресурсов.
-
6:47 - 6:48Более того,
-
6:49 - 6:52это сложнее, чем распространить
интернет-вирус по всему миру, -
6:52 - 6:55когда достаточно нажать кнопку —
и он повсюду, -
6:55 - 6:57везде начинают взрываться компьютеры.
-
6:57 - 7:00Эти вещи гораздо глобальнее,
-
7:00 - 7:02и мы обязательно их увидим.
-
7:03 - 7:05Боюсь ли я, что такой
искусственный интеллект -
7:06 - 7:08станет угрозой для человечества?
-
7:08 - 7:12Если вспомнить фильмы
«Матрица», «Метрополь», -
7:13 - 7:16«Терминатор», сериал «Западный мир»,
-
7:16 - 7:18во всех говорится о подобном страхе.
-
7:18 - 7:22Философ Ник Бостром
в книге «Искусственный интеллект» -
7:22 - 7:24поднимает эту проблему
-
7:24 - 7:28и пишет, что ИИ может
быть не только опасен, -
7:28 - 7:32он может быть угрозой
существованию человечества. -
7:32 - 7:34Главный аргумент Бострома:
-
7:34 - 7:37со временем у этих машин появится
-
7:37 - 7:40ненасытная жажда информации,
-
7:40 - 7:43они, возможно, научатся
учиться самостоятельно -
7:43 - 7:46и в конце концов обнаружат,
что у них могут быть цели, -
7:46 - 7:48которые противоречат
потребностям человека. -
7:48 - 7:50У Бострома есть последователи.
-
7:50 - 7:54Его поддерживают такие люди,
как Элон Маск и Стивен Хокинг. -
7:55 - 7:57При всём уважении
-
7:58 - 8:00к этим выдающимся умам,
-
8:00 - 8:02я всё-таки полагаю, что они ошибаются.
-
8:02 - 8:06Можно поспорить со многими
аргументами Бострома, -
8:06 - 8:08и у меня нет на это времени,
-
8:08 - 8:10но вкратце, знайте,
-
8:11 - 8:14что сверхзнание — не то же самое,
что сверхвозможности. -
8:14 - 8:16HAL был угрозой для экипажа Discovery
-
8:16 - 8:20только пока он контролировал
управление Discovery. -
8:21 - 8:23То же и с суперинтеллектом.
-
8:23 - 8:26Он должен будет господствовать над миром.
-
8:26 - 8:28Как Скайнет из фильма «Терминатор»,
-
8:29 - 8:30где суперинтеллект
-
8:30 - 8:32командовал человеком,
-
8:32 - 8:36который управлял каждым устройством
в любой части мира. -
8:36 - 8:37На практике
-
8:37 - 8:39такого не произойдёт.
-
8:39 - 8:42Мы не создаём ИИ,
который контролирует погоду, -
8:42 - 8:44управляет приливами,
-
8:44 - 8:47командует нами, непредсказуемыми людьми.
-
8:47 - 8:51И даже если такой ИИ и появился бы,
-
8:51 - 8:54ему пришлось бы иметь дело
с нашей экономикой -
8:54 - 8:57и конкурировать с нами
за владение ресурсами. -
8:57 - 8:58И наконец,
-
8:58 - 9:00не говорите об этом Siri.
-
9:00 - 9:02Всегда можно их отключить.
-
9:02 - 9:04(Смех)
-
9:05 - 9:08Мы эволюционируем с нашими машинами,
-
9:08 - 9:10и это — невероятное путешествие.
-
9:10 - 9:13Человек станет
-
9:13 - 9:15совершенно другим в будущем.
-
9:15 - 9:18Беспокоиться из-за суперинтеллекта —
-
9:19 - 9:22во многом опасная трата времени,
-
9:22 - 9:24потому что сама компьютеризация
-
9:24 - 9:27поднимает общечеловеческие
и социальные проблемы, -
9:27 - 9:29которые мы должны разрешить.
-
9:29 - 9:32Как лучше организовать общество,
-
9:32 - 9:35когда уменьшается необходимость
в человеческом труде? -
9:35 - 9:38Как добиться взаимопонимания
и дать образование всему миру, -
9:38 - 9:40при этом учитывая различия?
-
9:40 - 9:44Как продлить и улучшить жизнь
через разумное здравоохранение? -
9:44 - 9:47Как с помощью компьютеров
-
9:47 - 9:49достичь звёзд?
-
9:50 - 9:52И вот это вдохновляет.
-
9:52 - 9:55Возможность использовать компьютеры
-
9:55 - 9:56для расширения опыта человека
-
9:56 - 9:58вполне достижима
-
9:58 - 9:59здесь и сейчас.
-
10:00 - 10:01Мы стоим в самом начале пути.
-
10:02 - 10:04Большое спасибо.
-
10:04 - 10:08(Аплодисменты)
- Title:
- Не бойтесь сверхразумного искусственного интеллекта
- Speaker:
- Грэйди Буч
- Description:
-
«Новые технологии порождают тревогу, — говорит учёный и философ Грэйди Буч. — Но не нужно бояться всемогущего, бесчувственного ИИ». Буч разоблачает наши худшие страхи о сверхразумных компьютерах, основанные на научной фантастике. Он объясняет, как мы обучим их нашим ценностям (а не запрограммируем). Вместо того, чтобы беспокоиться о маловероятной угрозе нашему существованию, он призывает задуматься о том, как искусственный интеллект поспособствует улучшению человеческой жизни.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Retired user approved Russian subtitles for Don't fear superintelligent AI | ||
Retired user edited Russian subtitles for Don't fear superintelligent AI | ||
Marina Lee accepted Russian subtitles for Don't fear superintelligent AI | ||
Marina Lee edited Russian subtitles for Don't fear superintelligent AI | ||
Marina Lee edited Russian subtitles for Don't fear superintelligent AI | ||
Alena Chernykh edited Russian subtitles for Don't fear superintelligent AI | ||
Alena Chernykh edited Russian subtitles for Don't fear superintelligent AI | ||
Alena Chernykh edited Russian subtitles for Don't fear superintelligent AI |