Можем ли мы создать ИИ и сохранить над ним контроль?
-
0:01 - 0:03Я хочу поговорить
о неспособности к интуиции, -
0:03 - 0:05от которой страдают многие из нас.
-
0:05 - 0:09Фактически, это неспособность
распознавать определённую опасность. -
0:09 - 0:11Я опишу сценарий,
-
0:11 - 0:14который назвал бы
одновременно пугающим -
0:14 - 0:16и вполне вероятным,
-
0:17 - 0:18и это не хорошее сочетание,
-
0:19 - 0:19как выясняется.
-
0:20 - 0:23Всё же вместо того, чтобы пугаться,
многие подумают, -
0:23 - 0:25что то, о чём я говорю, здóрово.
-
0:25 - 0:28Я расскажу, как наши достижения
-
0:28 - 0:30в развитии искусственного интеллекта
-
0:30 - 0:32могут в итоге нас уничтожить.
-
0:32 - 0:35По-моему, вообще трудно понять,
как они могут нас не уничтожить -
0:35 - 0:37или не побудить к самоуничтожению.
-
0:37 - 0:39Всё же, если вы в чём-то схожи со мной,
-
0:39 - 0:42то вам нравится думать о таких вещах.
-
0:42 - 0:45И эта реакция — часть проблемы.
-
0:45 - 0:47Эта реакция должна вас беспокоить.
-
0:48 - 0:51И если бы мне надо было убедить вас,
-
0:51 - 0:54что нам грозит всемирный голод
-
0:54 - 0:57из-за изменения климата
или некой другой катастрофы -
0:57 - 1:01и что ваши внуки или их внуки,
-
1:01 - 1:02вероятно, будут жить вот так,
-
1:03 - 1:04вы бы не подумали:
-
1:05 - 1:07«Интересно.
-
1:07 - 1:08Хорошее выступление».
-
1:09 - 1:11В голоде нет ничего забавного.
-
1:12 - 1:15Смерть от научной фантастики,
с другой стороны, — это круто, -
1:15 - 1:19и меня очень сильно беспокоит
на данном этапе развития ИИ -
1:19 - 1:23наша неспособность к выстраиванию
подобающей эмоциональной реакции -
1:23 - 1:25на ожидающие нас опасности.
-
1:25 - 1:28Я сам не могу выстроить эту реакцию,
потому и говорю об этом. -
1:30 - 1:33Как будто мы стои́м перед двумя дверьми.
-
1:33 - 1:34За первой дверью
-
1:34 - 1:37у нас останавливается прогресс
в создании интеллектуальных устройств. -
1:37 - 1:41Аппаратное и программное обеспечение
почему-то больше не становится лучше. -
1:41 - 1:44Теперь на секунду задумайтесь,
почему это может произойти. -
1:45 - 1:49Ведь учитывая, насколько ценны
интеллект и автоматизация, -
1:49 - 1:52мы продолжим совершенствовать
технологии, пока способны на это. -
1:53 - 1:55Что может нас остановить?
-
1:56 - 1:58Полномасштабная ядерная война?
-
1:59 - 2:01Глобальная пандемия?
-
2:02 - 2:04Падение астероида?
-
2:06 - 2:08Избрание Джастина Бибера президентом США?
-
2:08 - 2:11(Смех)
-
2:13 - 2:17Суть в том, что что-то должно будет
уничтожить цивилизацию в нашем понимании. -
2:17 - 2:22Только представьте себе,
насколько всё должно быть плохо, -
2:22 - 2:25чтобы мы перестали
совершенствовать технологии -
2:25 - 2:26навсегда,
-
2:26 - 2:28на все грядущие поколения.
-
2:28 - 2:30Практически по определению
это худшее, -
2:30 - 2:32что может случиться с человечеством.
-
2:33 - 2:34Единственная альтернатива,
-
2:34 - 2:36которая и находится за второй дверью, —
-
2:36 - 2:39продолжение совершенствования
интеллектуальных устройств -
2:39 - 2:41из года в год.
-
2:42 - 2:45В какой-то момент мы создадим
устройства, которые будут умнее нас, -
2:46 - 2:49и когда такие устройства появятся,
-
2:49 - 2:51они начнут улучшать себя сами.
-
2:51 - 2:53И тогда появится риск того,
что математик И. Д. Гуд называл -
2:53 - 2:55«взрывом интеллекта» —
-
2:55 - 2:57риск утраты нами контроля над процессом.
-
2:58 - 3:01Это часто изображают
в виде подобных картинок, -
3:01 - 3:04пугающих армиями злых роботов,
-
3:04 - 3:05которые нападут на нас.
-
3:05 - 3:08Но это не самый вероятный сценарий.
-
3:08 - 3:13Не то, чтобы наша техника
внезапно рассвирепеет. -
3:13 - 3:16Беспокоит на самом деле то,
что мы создаём устройства, -
3:16 - 3:18которые настолько нас превосходят,
-
3:18 - 3:22что малейшее расхождение
между их целями и нашими -
3:22 - 3:23может нас уничтожить.
-
3:24 - 3:26Подумайте о том, как мы
относимся к муравьям. -
3:27 - 3:28Мы не ненавидим их.
-
3:28 - 3:30Мы не лезем из кожи вон,
чтобы навредить им. -
3:30 - 3:33На самом деле, иногда мы
стараемся не навредить им. -
3:33 - 3:35Мы перешагиваем их на тротуаре.
-
3:35 - 3:37Но если вдруг их присутствие
-
3:37 - 3:39серьёзно мешает нашим целям,
-
3:39 - 3:42например, если мы
строим здание вроде этого, -
3:42 - 3:44мы без колебаний их истребляем.
-
3:44 - 3:47Беспокоит то, что однажды
мы создадим устройства, -
3:47 - 3:50которые независимо
от наличия у них сознания -
3:50 - 3:52могут так же пренебречь нами.
-
3:54 - 3:57Я подозреваю, многим из вас
это кажется надуманным. -
3:57 - 4:03Уверен, среди вас есть сомневающиеся
в возможности сверхразумного ИИ, -
4:03 - 4:05не говоря уж о его неизбежности.
-
4:05 - 4:09Значит, вы не согласны
с одним из следующих допущений. -
4:09 - 4:11Их всего три.
-
4:12 - 4:17Интеллект — это результат обработки
информации в физической системе. -
4:17 - 4:20На самом деле это немного больше,
чем допущение. -
4:20 - 4:23Мы заложили ограниченный интеллект
в свои технологии, -
4:23 - 4:25и многие из них уже работают
-
4:25 - 4:28на уровне сверхчеловеческого интеллекта.
-
4:29 - 4:31И мы знаем, что из одной лишь материи
-
4:31 - 4:34возможно развитие так называемого
«общего интеллекта» — -
4:34 - 4:38способности к гибкому мышлению
в разных сферах, -
4:38 - 4:41потому что на это способен наш мозг.
Так? -
4:41 - 4:45Я имею в виду: здесь всего лишь атомы,
-
4:45 - 4:49и покуда мы продолжаем
создавать системы из атомов, -
4:49 - 4:52проявляющие всё более разумное поведение,
-
4:52 - 4:55в итоге мы — если ничто не помешает —
-
4:55 - 4:58в итоге мы наделим общим интеллектом
-
4:58 - 4:59свои устройства.
-
4:59 - 5:03Очень важно осознавать,
что темп прогресса не важен, -
5:03 - 5:06потому что любой прогресс
может привести нас к конечному итогу. -
5:06 - 5:10Нам не нужно, чтобы закон Мура работал.
Нам не нужен экспоненциальный прогресс. -
5:10 - 5:12Нам просто нужно не останавливаться.
-
5:13 - 5:16Второе предположение —
что мы не остановимся. -
5:17 - 5:20Мы продолжим улучшать
свои интеллектуальные устройства. -
5:21 - 5:25И, учитывая ценность интеллекта —
-
5:25 - 5:29ведь интеллект либо порождает всё,
что мы ценим, -
5:29 - 5:32либо нужен нам для защиты всего,
что мы ценим, — -
5:32 - 5:34это наш ценнейший ресурс.
-
5:34 - 5:36Поэтому мы хотим этим заниматься.
-
5:36 - 5:39У нас есть проблемы,
которые непременно нужно решить. -
5:39 - 5:42Мы хотим излечить болезни
вроде Альцгеймера и рака. -
5:43 - 5:47Мы хотим понимать экономические системы.
Мы хотим больше знать о климате. -
5:47 - 5:49Так что мы это сделаем, если сможем.
-
5:49 - 5:52Поезд уже тронулся, и тóрмоза нет.
-
5:54 - 5:59Наконец, мы не на пике интеллекта
-
5:59 - 6:01и даже не близко к нему, вероятно.
-
6:02 - 6:04И это действительно важно понимать.
-
6:04 - 6:06Именно из-за этого
наша система так уязвима, -
6:06 - 6:10а наши интуитивные оценки риска
так ненадёжны. -
6:11 - 6:14Теперь представьте умнейшего
из когда-либо живших людей. -
6:15 - 6:18Почти все среди прочих называют
Джона фон Неймана. -
6:18 - 6:21Ведь впечатление, которое фон Нейман
производил на окружающих, -
6:21 - 6:25в том числе величайших математиков
и физиков своего времени, -
6:26 - 6:27очень хорошо задокументировано.
-
6:27 - 6:31Если половина историй о нём
хотя бы наполовину правдивы, -
6:31 - 6:32сомнений нет:
-
6:33 - 6:35он один из умнейших людей,
когда-либо живших. -
6:35 - 6:38Подумайте о диапазоне
интеллектуальных способностей. -
6:38 - 6:40Здесь у нас Джон фон Нейман.
-
6:42 - 6:43Здесь мы с вами.
-
6:44 - 6:45А здесь курица.
-
6:45 - 6:47(Смех)
-
6:47 - 6:49Прошу прощения.
Курица. -
6:49 - 6:50(Смех)
-
6:50 - 6:54Ни к чему делать эту лекцию
более депрессивной, чем надо. -
6:54 - 6:55(Смех)
-
6:56 - 7:00Однако кажется чрезвычайно вероятным,
что интеллект варьируется -
7:00 - 7:03в куда бóльших масштабах,
чем мы себе сейчас представляем, -
7:04 - 7:07и если мы создадим устройства,
которые будут умнее нас, -
7:07 - 7:09они, очень вероятно,
будут осваивать эти масштабы -
7:09 - 7:11невообразимыми для нас способами
-
7:11 - 7:14и превзойдут нас невообразимыми способами.
-
7:15 - 7:19И важно признавать, что это верно
в силу одной только скорости. -
7:19 - 7:24Так? Представьте, что мы построим
сверхразумный ИИ, -
7:24 - 7:28который будет не умнее
среднестатистической группы учёных -
7:28 - 7:30из Стэнфорда или МТИ.
-
7:30 - 7:33Электронные схемы примерно
в миллион раз быстрее -
7:33 - 7:34биохимических,
-
7:35 - 7:38поэтому машина будет думать
в миллион раз быстрее, -
7:38 - 7:39чем создавший её разум.
-
7:40 - 7:41Вы запускаете её на неделю,
-
7:41 - 7:46и она выполняет 20 000-летнюю
работу интеллекта человеческого уровня -
7:46 - 7:48неделю за неделей.
-
7:50 - 7:53Как мы только можем понять,
не говоря о том, чтобы сдержать, -
7:53 - 7:55ум, работающий с подобной скоростью?
-
7:57 - 7:59Ещё беспокоит, если честно,
-
7:59 - 8:04вот что: представьте лучший сценарий.
-
8:04 - 8:08Представьте, что у нас в распоряжении
проект сверхразумного ИИ, -
8:08 - 8:10не угрожающего безопасности.
-
8:10 - 8:13У нас с сáмого начала
получился идеальный проект. -
8:13 - 8:15Как будто мы одарены им свыше,
-
8:15 - 8:17и он работает точно так, как задумано.
-
8:17 - 8:21Это устройство было бы идеально
для снижения трудозатрат. -
8:22 - 8:24Оно может придумать машину,
которая построит машину, -
8:24 - 8:26которая сможет делать физическую работу,
-
8:26 - 8:27питаясь энергией солнца
-
8:27 - 8:30приблизительно по цене сырья.
-
8:30 - 8:33Это означает конец
изматывающей работы для людей. -
8:33 - 8:36Это также означает конец
большей части умственной работы. -
8:37 - 8:40А что такие приматы, как мы,
делают в такой ситуации? -
8:40 - 8:44Ну, мы сможем играть во фрисби
и делать друг другу массаж. -
8:46 - 8:49Добавьте немного ЛСД
и немного смелых нарядов, -
8:49 - 8:51и мир будет похож
на фестиваль «Burning Man». -
8:51 - 8:53(Смех)
-
8:54 - 8:56Возможно, звучит неплохо,
-
8:57 - 9:00но спроси́те себя, что бы случилось
-
9:00 - 9:02при нынешнем
экономико-политическом устройстве? -
9:02 - 9:05Кажется вероятным,
что мы станем свидетелями -
9:05 - 9:09такого уровня имущественного неравенства
и безработицы, -
9:09 - 9:11какого не наблюдали раньше.
-
9:11 - 9:13В отсутствие желания
сразу поставить новые блага -
9:13 - 9:15на службу человечеству
-
9:16 - 9:19несколько магнатов смогут
украшать обложки деловых журналов, -
9:19 - 9:22пока остальные будут голодать.
-
9:22 - 9:24Что бы сделали русские или китайцы,
-
9:24 - 9:27узнав, что некая компания
в Силиконовой долине -
9:27 - 9:30на грани внедрения сверхразумного ИИ?
-
9:30 - 9:33Такое устройство могло бы
спровоцировать войну, -
9:33 - 9:35наземную или кибер-войну
-
9:35 - 9:37беспрецедентого размаха.
-
9:38 - 9:40Это сценарий, в котором
победитель получает всё. -
9:40 - 9:43Полугодовое преимущество
в такой конкуренции — -
9:43 - 9:46всё равно что преимущество в 500 000 лет
-
9:46 - 9:47как минимум.
-
9:47 - 9:52Поэтому представляется,
что даже слухи о такого рода прорыве -
9:52 - 9:55могут привести человечество в неистовство.
-
9:55 - 9:58Одна из самых пугающих вещей,
-
9:58 - 10:00как мне кажется, на данный момент —
-
10:00 - 10:05это те слова, которые твердят
все исследователи ИИ, -
10:05 - 10:06когда хотят звучать обнадёживающе.
-
10:07 - 10:10И чаще всего нас просят
не беспокоиться по причине времени. -
10:10 - 10:13До этого ещё далеко, если вы не знали.
-
10:13 - 10:15До этого, вероятно, ещё лет 50 или 100.
-
10:16 - 10:17Один исследователь сказал:
-
10:17 - 10:19«Волноваться о безопасности ИИ —
-
10:19 - 10:21всё равно что волноваться
о перенаселении Марса». -
10:22 - 10:24В Силиконовой долине это означает:
-
10:24 - 10:26«не морочь этим свою милую головку».
-
10:26 - 10:27(Смех)
-
10:28 - 10:29Кажется, что никто не замечает,
-
10:29 - 10:32что ссылаться на удалённость во времени —
-
10:32 - 10:35нарушение всякой логики.
-
10:35 - 10:38Если интеллект — лишь результат
обработки информации -
10:38 - 10:41и мы продолжим совершенствовать технику,
-
10:41 - 10:44мы создадим некую форму сверхинтеллекта.
-
10:44 - 10:48И мы не имеем понятия,
сколько времени займёт -
10:48 - 10:50создание для этого безопасных условий.
-
10:52 - 10:53Позвольте повторить.
-
10:54 - 10:57Мы не имеем понятия,
сколько времени займёт -
10:57 - 11:00создание для этого безопасных условий.
-
11:01 - 11:04И если вы не заметили,
50 лет — не те 50 лет, что раньше. -
11:04 - 11:07Вот 50 лет по месяцам.
-
11:07 - 11:09Вот так давно у нас есть iPhone.
-
11:09 - 11:12Так долго «Симпсонов» показывают по ТВ.
-
11:13 - 11:15Пятьдесят лет — не так много
-
11:15 - 11:18для решения одной из важнейших
для нашего вида задач. -
11:20 - 11:24Опять же, нам не удаётся выстроить
подобающую эмоциональную реакцию -
11:24 - 11:26на то, что по всем признакам
нам предстоит. -
11:26 - 11:30Специалист в области информатики
Стюарт Рассел провёл хорошую аналогию. -
11:30 - 11:35Он сказал: «Представьте, что мы получили
послание от внеземной цивилизации, -
11:35 - 11:37в котором говорится:
-
11:37 - 11:39"Земляне,
-
11:39 - 11:41мы прибудем на вашу планету через 50 лет.
-
11:42 - 11:43Готовьтесь".
-
11:43 - 11:48И теперь мы просто считаем месяцы
до посадки их корабля-носителя? -
11:48 - 11:51Мы бы немножко больше суетились.
-
11:53 - 11:55Ещё мы якобы не должны
волноваться потому, -
11:55 - 11:58что эти машины
не могут не разделять наши ценности, -
11:58 - 12:00так как будут буквально
дополнениями к нам самим. -
12:00 - 12:02Они будут присоединены к нашему мозгу,
-
12:02 - 12:04и мы по сути станем
их лимбической системой. -
12:05 - 12:07Теперь на миг задумайтесь,
-
12:07 - 12:10что самый безопасный и единственно
благоразумный путь, -
12:10 - 12:11по рекомендациям, —
-
12:11 - 12:14имплантация этой технологии прямо в мозг.
-
12:15 - 12:18Это действительно может быть самым
безопасным и благоразумным путём, -
12:18 - 12:21но обычно озабоченность
безопасностью технологии -
12:21 - 12:25нужно развеивать до того,
как запихивать её себе в голову. -
12:25 - 12:27(Смех)
-
12:27 - 12:32Более глубокая проблема в том, что
создание сверхразумного ИИ как такового -
12:32 - 12:34кажется намного легче,
-
12:34 - 12:36чем создание сверхразумного ИИ
-
12:36 - 12:38и всех нейротехнологий,
-
12:38 - 12:40необходимых для их бесшовной
интеграции с нашим разумом. -
12:41 - 12:44Учитывая, что компании и правительства,
ведущие эту работу, -
12:44 - 12:48могут представлять себя участниками
гонки против всех остальных -
12:48 - 12:51и для них выиграть гонку
значит выиграть весь мир, -
12:51 - 12:53учитывая, что вы не уничтожите его
через секунду, -
12:53 - 12:56тогда вероятным кажется,
что самое простое -
12:56 - 12:58будет сделано в первую очередь.
-
12:59 - 13:01К сожалению, у меня нет решения
этой проблемы, -
13:01 - 13:04кроме рекомендации, чтобы больше людей
задумывались о ней. -
13:04 - 13:06Я думаю, нам нужно что-то вроде
проекта «Манхэттен» -
13:06 - 13:08в области искусственного интеллекта.
-
13:09 - 13:11Не чтобы его создать —
я думаю, это неизбежно случится, — -
13:11 - 13:15а чтобы понять, как избежать
гонки вооружений -
13:15 - 13:18и создать его так,
чтобы это совпало с нашими интересами. -
13:18 - 13:20Когда говоришь о сверхразумном ИИ,
-
13:20 - 13:23который может менять себя сам,
-
13:23 - 13:27кажется, что есть только одна попытка
для создания правильных начальных условий, -
13:27 - 13:29и даже тогда нам нужно совладать
-
13:29 - 13:32с экономико-политическими
последствиями их правильного создания. -
13:34 - 13:36Но как только мы признаем,
-
13:36 - 13:40что источник интеллекта —
обработка информации, -
13:41 - 13:46что интеллект основан на некой
подходящей вычислительной системе, -
13:46 - 13:50и признаем, что будем совершенствовать
эти системы непрерывно -
13:51 - 13:56и что предел сознания, весьма вероятно,
намного дальше, -
13:56 - 13:57чем мы сейчас представляем,
-
13:58 - 13:59тогда мы должны признать,
-
13:59 - 14:02что мы в процессе создания
своего рода бога. -
14:03 - 14:05Теперь самое время
-
14:05 - 14:07убедиться, что мы сможем с ним ужиться.
-
14:08 - 14:10Большое спасибо.
-
14:10 - 14:15(Аплодисменты)
- Title:
- Можем ли мы создать ИИ и сохранить над ним контроль?
- Speaker:
- Сэм Харрис
- Description:
-
Сверхразумный искусственный интеллект внушает страх? Так и должно быть, — говорит нейробиолог и философ Сэм Харрис, — и не только в гипотетической перспективе. Нам предстоит создать машины со сверхчеловеческими способностями, — говорит Харрис, — но мы ещё не решили проблемы, связанные с созданием чего-то, что, возможно, будет смотреть на нас так же, как мы смотрим на муравьёв.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Retired user edited Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user edited Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user edited Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user approved Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user edited Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Alexander Treshin accepted Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Alexander Treshin edited Russian subtitles for Can we build AI without losing control over it? | |
![]() |
Alexander Treshin edited Russian subtitles for Can we build AI without losing control over it? |