Return to Video

Искусственный интеллект: как получить новые возможности, а не быть побеждёнными

  • 0:01 - 0:05
    Спустя 13 миллиардов 800 миллионов лет
    с начала истории космоса
  • 0:05 - 0:07
    наша вселенная проснулась
  • 0:07 - 0:09
    и осознала себя.
  • 0:09 - 0:11
    С маленькой голубой планеты
  • 0:11 - 0:16
    крошечные сознательные частички вселенной
    начали пристально всматриваться в космос
  • 0:16 - 0:19
    через телескопы и увидели нечто,
    по сравнению с чем, они совсем малы.
  • 0:19 - 0:22
    Мы увидели, что наш мир неизмеримо больше,
  • 0:22 - 0:24
    чем воображали наши предки,
  • 0:24 - 0:28
    и что жизнь кажется невообразимо
    маленьким колебанием
  • 0:28 - 0:30
    во всей остальной мёртвой вселенной.
  • 0:30 - 0:33
    Но мы также открыли нечто вдохновляющее,
  • 0:33 - 0:36
    то, что развиваемые нами технологии
    имеют потенциал,
  • 0:36 - 0:39
    чтобы помочь жизни расцвести,
    как никогда раньше,
  • 0:39 - 0:42
    не только в течение столетий,
    но и миллиардов лет,
  • 0:42 - 0:46
    не только на земле, но и на большей части
    удивительного космического пространства.
  • 0:48 - 0:51
    Я думаю о самой ранней форме жизни,
    как о «Жизни 1.0»,
  • 0:51 - 0:52
    так как она была безмозглой,
  • 0:52 - 0:57
    как бактерия, которая не в состоянии
    ничему научиться за всю свою жизнь.
  • 0:57 - 1:00
    Я думаю о нас, о людях, как о «Жизни 2.0»,
    потому что мы умеем учиться,
  • 1:00 - 1:02
    говоря скучным языком зануд,
  • 1:02 - 1:05
    назовём установкой нового ПО в наш мозг,
  • 1:05 - 1:07
    например, языков
    и профессиональных навыков.
  • 1:08 - 1:12
    «Жизнь 3.0», которая сможет создавать
    не только программы, но и «железо»,
  • 1:12 - 1:14
    конечно же, ещё не существует.
  • 1:14 - 1:17
    Но, возможно, наши технологии
    создали для нас «Жизнь 2.1»
  • 1:17 - 1:22
    с искусственными коленными суставами,
    стимуляторами и кохлеарными имплантами.
  • 1:22 - 1:26
    Но давайте рассмотрим
    наши взаимоотношения с технологиями.
  • 1:27 - 1:28
    К примеру,
  • 1:28 - 1:33
    лунная миссия Аполлон 11
    была и успешной, и вдохновляющей,
  • 1:33 - 1:36
    она показала, что когда мы, люди,
    разумно используем технологии,
  • 1:36 - 1:40
    то можем достичь таких результатов,
    о которых наши предки могли лишь мечтать.
  • 1:40 - 1:43
    Но существует даже более
    вдохновляющее путешествие,
  • 1:43 - 1:46
    движимое чем-то более мощным,
    чем ракетные двигатели,
  • 1:47 - 1:50
    где пассажирами являются
    не просто три астронавта,
  • 1:50 - 1:51
    а всё человечество.
  • 1:51 - 1:54
    Давайте поговорим о нашем
    совместном пути в будущее,
  • 1:54 - 1:56
    будущее с искусственным интеллектом.
  • 1:57 - 2:01
    Мой друг Яан Таллинн любит отмечать,
    что, как и с ракетной индустрией,—
  • 2:02 - 2:05
    этого недостаточно, чтобы сделать
    наши технологии мощными.
  • 2:06 - 2:09
    Мы также должны понять, если хотим
    ставить перед собой высокие цели,
  • 2:09 - 2:10
    как ими управлять,
  • 2:10 - 2:12
    и куда мы хотим с ними пойти.
  • 2:13 - 2:16
    Итак, давайте мы обсудим
    все три пункта, касающиеся ИИ:
  • 2:16 - 2:19
    мощность, управление и назначение.
  • 2:20 - 2:21
    Начнём с мощности:
  • 2:22 - 2:25
    я даю обобщённое определение интеллекта —
  • 2:25 - 2:29
    как нашей способности
    достигать сложных целей,
  • 2:29 - 2:33
    потому что я хочу объединить
    биологический и искусственный интеллект.
  • 2:33 - 2:37
    Я не хочу фанатично следовать
    глупой углеродо-центричной идее,
  • 2:37 - 2:39
    что умным бывает, только то,
    что состоит из мяса.
  • 2:41 - 2:45
    Поразительно, как сегодня выросла
    мощь искусственного интеллекта.
  • 2:45 - 2:46
    Только вдумайтесь.
  • 2:46 - 2:50
    Не так давно роботы не умели ходить.
  • 2:51 - 2:53
    Теперь они делают сальто назад.
  • 2:54 - 2:56
    Не так давно у нас не было
  • 2:56 - 2:58
    беспилотных автомобилей.
  • 2:59 - 3:01
    Теперь у нас есть беспилотные ракеты.
  • 3:04 - 3:05
    Не так давно
  • 3:05 - 3:08
    ИИ не мог распознавать лица.
  • 3:08 - 3:11
    Теперь ИИ может генерировать
    несуществующие лица
  • 3:11 - 3:15
    и имитировать ваше лицо,
    вкладывая вам в уста чужие слова.
  • 3:16 - 3:18
    Не так давно
  • 3:18 - 3:20
    ИИ не мог обыграть нас в игре в го.
  • 3:20 - 3:25
    Затем ИИ Alpha Zero от Google Deep Mind
    взял 3000-летний опыт людей игры в го
  • 3:26 - 3:27
    и всю мудрость этой игры,
  • 3:27 - 3:32
    всем этим пренебрёг и стал лидером,
    играя лишь против себя.
  • 3:32 - 3:35
    И самым впечатляющим был не тот факт,
    что он нанёс поражение игрокам,
  • 3:36 - 3:38
    но то, что он сокрушил самих учёных,
    занимающихся ИИ,
  • 3:38 - 3:42
    тех, кто положил на это десятилетия,
    создавая вручную программное обеспечение.
  • 3:42 - 3:47
    И Alpha Zero победил исследователей ИИ
    не только в го, но даже и в шахматах,
  • 3:47 - 3:49
    над которыми мы работали,
    начиная с 1950 года.
  • 3:50 - 3:54
    И поэтому этот недавний прогресс в ИИ
    заставляет нас поднять вопрос:
  • 3:55 - 3:57
    куда всё это ведёт?
  • 3:58 - 3:59
    Я люблю думать над этим вопросом,
  • 4:00 - 4:02
    исходя из этого абстрактного
    ландшафта задач,
  • 4:03 - 4:06
    где подъём означает то, насколько трудно
    для ИИ выполнять каждую задачу
  • 4:06 - 4:07
    так, как делает человек,
  • 4:07 - 4:10
    а уровень моря показывает то,
    что ИИ может делать уже сегодня.
  • 4:11 - 4:13
    С развитием ИИ повышается уровень моря;
  • 4:13 - 4:17
    в этом ландшафте задач происходит
    что-то наподобие глобального потепления.
  • 4:18 - 4:21
    Очевидный вывод —
    избегать занятий на береговой линии,
  • 4:21 - 4:23
    (Смех)
  • 4:23 - 4:26
    которая очень скоро будет
    автоматизирована и разрушена.
  • 4:26 - 4:29
    Но здесь возникает более важный вопрос.
  • 4:29 - 4:30
    Насколько высоко поднимется вода?
  • 4:31 - 4:35
    Повысится ли её уровень в итоге
    до всеобщего затопления,
  • 4:36 - 4:38
    соперничая с интеллектом человека
    во всех заданиях?
  • 4:38 - 4:42
    Это — определение
    сильного искусственного интеллекта —
  • 4:42 - 4:43
    СИИ,
  • 4:43 - 4:47
    который с самого начала
    был святым Граалем исследований по ИИ.
  • 4:47 - 4:49
    Исходя из этого, те, кто говорит:
  • 4:49 - 4:52
    «Да, всегда будет работа, которую люди
    смогут делать лучше машин», —
  • 4:52 - 4:55
    попросту говорят о том,
    что у нас никогда не будет СИИ.
  • 4:56 - 4:59
    Конечно, возможно, мы всё ещё выбираем
    для себя работу, выполняемую людьми,
  • 4:59 - 5:02
    или даём людям цель и доход,
    в наших человеческих профессиях;
  • 5:02 - 5:06
    но СИИ, в любом случае превратит
    нашу жизнь, какой мы знаем, в ту жизнь,
  • 5:06 - 5:09
    в которой люди больше не будут
    самыми умными существами.
  • 5:09 - 5:13
    Итак, если уровень воды
    действительно достигает СИИ,
  • 5:13 - 5:18
    затем дальнейший прогресс ИИ
    будет движим не людьми, а самим ИИ,
  • 5:18 - 5:20
    это значит, что есть возможность того,
  • 5:20 - 5:22
    что дальнейший прогресс ИИ
    будет более быстрым,
  • 5:22 - 5:26
    чем типовые исследования учёных
    и временны́е рассчёты развития,
  • 5:26 - 5:30
    что увеличит неоднозначную возможность
    интеллектуального взрыва,
  • 5:30 - 5:32
    где рекуррентно самоулучшающийся ИИ
  • 5:32 - 5:35
    быстро обгоняет человеческий интеллект,
  • 5:35 - 5:38
    создавая так называемый суперинтеллект.
  • 5:40 - 5:42
    Хорошо, давайте реально оценим ситуацию.
  • 5:43 - 5:46
    Достигнем ли мы уровня СИИ
    в ближайшее время?
  • 5:46 - 5:49
    Некоторые известные учёные,
    такие как Родни Брукс,
  • 5:49 - 5:52
    считают, что в ближайшие столетия
    этого не будет.
  • 5:52 - 5:55
    Но другие, такие как Демис Хассабис,
    основатель Google Deep Mind,
  • 5:56 - 5:57
    более оптимистичны:
  • 5:57 - 5:59
    они делают всё,
    чтобы это произошло быстрее.
  • 5:59 - 6:03
    Недавние опросы показали,
    что большинство исследователей ИИ
  • 6:03 - 6:06
    на самом деле разделяют оптимизм Демиса,
  • 6:06 - 6:09
    ожидая того, что мы достигнем уровня СИИ
    в ближайшие десятилетия,
  • 6:10 - 6:12
    то есть многие из нас это застанут.
  • 6:12 - 6:14
    Возникает вопрос: а что потом?
  • 6:15 - 6:17
    Какой мы хотим видеть роль людей,
  • 6:17 - 6:20
    если машины смогут делать всё лучше
    и дешевле, чем мы?
  • 6:23 - 6:25
    Я вижу это так: мы стоим перед выбором.
  • 6:26 - 6:28
    Одно из решений — самодовольство.
  • 6:28 - 6:31
    Мы можем говорить: «Да, давайте
    создавать машины, делающие всё за нас,
  • 6:31 - 6:33
    и не беспокоиться о последствиях.
  • 6:33 - 6:36
    Да что вы, если создать технологии,
    которые делают людей ненужными,
  • 6:37 - 6:39
    что может пойти не так?»
  • 6:39 - 6:40
    (Смех)
  • 6:40 - 6:43
    Но я думаю, что это было бы
    чрезвычайно неубедительно.
  • 6:44 - 6:48
    Я думаю, что мы должны быть
    более амбициозными, в духе TED.
  • 6:48 - 6:51
    Давайте представим вдохновляющее
    высокотехнологичное будущее
  • 6:51 - 6:53
    и будем двигаться туда.
  • 6:54 - 6:57
    Это приведёт нас ко второй части
    нашей ракетной метафоры: управление.
  • 6:57 - 6:59
    Мы делаем ИИ более мощным,
  • 6:59 - 7:03
    но как мы сможем двигаться к будущему,
  • 7:03 - 7:06
    где ИИ помогает человечеству процветать,
    а не мешает развитию?
  • 7:07 - 7:08
    Чтобы помочь этому,
  • 7:08 - 7:10
    мы основали институт Будущего Жизни.
  • 7:10 - 7:13
    Он небольшой, некоммерческий,
    поощряет полезные технологии.
  • 7:13 - 7:16
    Наша цель проста —
    чтобы будущая жизнь существовала
  • 7:16 - 7:18
    и была как можно более вдохновляющей.
  • 7:18 - 7:21
    Вы знаете, я люблю технологии.
  • 7:21 - 7:24
    Из-за них мы живём лучше,
    чем в каменном веке.
  • 7:25 - 7:29
    Я — оптимист потому, что мы можем творить
    вдохновляюще высокотехнологичное будущее,
  • 7:30 - 7:31
    если — и это большое если —
  • 7:31 - 7:34
    если мы выиграем гонку мудрости —
  • 7:34 - 7:36
    гонку между растущей мощью
    наших технологий
  • 7:37 - 7:39
    и мудростью, помогающей нам ими управлять.
  • 7:39 - 7:42
    Но это требует изменения стратегии,
  • 7:42 - 7:45
    потому что по старой стратегии
    мы учились на своих ошибках.
  • 7:45 - 7:47
    Мы изобрели огонь,
  • 7:47 - 7:48
    много раз ошибались,
  • 7:48 - 7:50
    изобрели огнетушитель.
  • 7:50 - 7:52
    (Смех)
  • 7:52 - 7:54
    Мы изобрели автомобиль,
    напортачили много раз —
  • 7:54 - 7:57
    изобрели светофор,
    ремни и подушку безопасности.
  • 7:57 - 8:01
    Но с более мощными технологиями,
    такими как ядерное оружие и СИИ,
  • 8:01 - 8:04
    учиться на ошибках —
    это проигрышная стратегия,
  • 8:04 - 8:05
    как вы думаете?
  • 8:05 - 8:06
    (Смех)
  • 8:06 - 8:09
    Гораздо лучше упреждать,
    чем исправлять последствия:
  • 8:09 - 8:11
    планировать заранее, не допуская ошибок,
  • 8:11 - 8:14
    посколько другого раза может и не быть.
  • 8:14 - 8:16
    Но это забавно, потому что
    иногда мне говорят:
  • 8:16 - 8:19
    «Макс, тсс..., не говори так.
  • 8:19 - 8:21
    Это запугивание в духе луддитов».
  • 8:22 - 8:24
    Но это не запугивание.
  • 8:24 - 8:26
    Это то, что мы в МТИ называем
    инженерной безопасностью.
  • 8:27 - 8:28
    Подумайте об этом:
  • 8:28 - 8:31
    до того, как НАСА
    запустили проект Аполлон 11,
  • 8:31 - 8:34
    они постоянно продумывали варианты,
    когда что-то пойдёт не так,
  • 8:34 - 8:36
    прежде чем посадить людей на топливный бак
  • 8:36 - 8:39
    и запустить их куда-то,
    где никто не может им помочь.
  • 8:39 - 8:41
    Было много всего,
    что могло пойти не так.
  • 8:41 - 8:42
    Было ли это запугиванием?
  • 8:43 - 8:44
    Нет.
  • 8:44 - 8:46
    Именно это было инженерной безопасностью,
  • 8:46 - 8:48
    которая обеспечила успех миссии,
  • 8:48 - 8:53
    именно такой стратегия с СИИ
    мы должны придерживаться.
  • 8:53 - 8:57
    Подумайте, что может пойти не так,
    чтобы быть уверенными, что всё получится.
  • 8:57 - 8:59
    В этом духе мы и организовали конференции,
  • 8:59 - 9:02
    объединив ведущих исследователей ИИ
    и других мыслителей,
  • 9:02 - 9:06
    чтобы обсудить то, как взрастить мудрость,
    и сделать ИИ полезным для нас.
  • 9:06 - 9:09
    На нашей последней конференции,
    состоявшейся в Асиломаре, Калифорния,
  • 9:09 - 9:12
    в прошлом году был выработан
    список из 23-х принципов,
  • 9:12 - 9:15
    подписанный более 1 000 учёными,
    исследователями ИИ
  • 9:15 - 9:17
    и лидерами ведущих отраслей;
  • 9:17 - 9:20
    и я хочу рассказать вам
    о трёх из этих принципов.
  • 9:20 - 9:25
    Первый: избегать гонки вооружений
    и автономных систем летального вооружения.
  • 9:25 - 9:29
    Смысл здесь в том, что любую науку
    можно использовать для помощи людям
  • 9:29 - 9:31
    или для нанесения им вреда.
  • 9:31 - 9:35
    Например, биологию и химию,
    скорее всего, будут использовать
  • 9:35 - 9:39
    для создания новых лекарств и методов
    лечения, а не новых способов убийства,
  • 9:40 - 9:42
    потому что биологи и химики изо всех сил —
  • 9:42 - 9:43
    и успешно — проталкивают
  • 9:43 - 9:45
    запрет биологического
    и химического оружия.
  • 9:45 - 9:46
    Точно так же
  • 9:46 - 9:51
    многие учёные хотят заклеймить и запретить
    автономные летальные комплексы.
  • 9:52 - 9:53
    Второй Асиломарский принцип по ИИ —
  • 9:53 - 9:57
    это то, что мы должны уменьшить
    неравенство в доходах, усиленное ИИ.
  • 9:57 - 10:02
    Думаю, что если возможно при посредстве ИИ
    значительно увеличить экономический пирог,
  • 10:02 - 10:04
    и мы всё ещё не знаем,
    как разделить этот пирог,
  • 10:04 - 10:06
    чтобы каждый из нас жил достойно,
  • 10:06 - 10:07
    то нам должно быть стыдно.
  • 10:07 - 10:11
    (Аплодисменты)
  • 10:11 - 10:15
    Хорошо, поднимите руки,
    если у вас был сбой в работе компьютера.
  • 10:15 - 10:17
    (Смех)
  • 10:17 - 10:18
    О, лес рук.
  • 10:18 - 10:21
    Да, тогда вы оцените этот принцип,
  • 10:21 - 10:24
    и то, что мы должны вкладывать
    больше средств в безопасность ИИ,
  • 10:24 - 10:27
    так как мы делаем ИИ более ответственным
    за решения и инфраструктуру.
  • 10:27 - 10:31
    Нам нужно определить, как переделать
    современный ненадёжный компьютер
  • 10:31 - 10:34
    в сильные системы ИИ,
    которым мы можем доверять,
  • 10:34 - 10:35
    в противном случае,
  • 10:35 - 10:38
    вся эта потрясающая техника
    не сработает и навредит нам,
  • 10:38 - 10:40
    или её взломают и направят против нас.
  • 10:40 - 10:45
    И эта работа по безопасности ИИ
    должна включать и выравнивание ценностей,
  • 10:45 - 10:48
    потому что реальная угроза от ИИ —
    это не зло, как показано
  • 10:48 - 10:50
    в глупых голливудских фильмах,
  • 10:50 - 10:52
    а способности —
  • 10:52 - 10:55
    СИИ достигает целей,
    которые никак не согласуются с нашими.
  • 10:55 - 11:00
    Когда в результате нашей деятельности
    исчезли чёрные африканские носороги,
  • 11:00 - 11:04
    мы делали это не потому, что
    ненавидели носорогов, не так ли?
  • 11:04 - 11:06
    Мы это делали, поскольку были умнее их
  • 11:06 - 11:08
    и наши цели не соответствовали их целям.
  • 11:08 - 11:11
    Но СИИ по определению умнее нас,
  • 11:11 - 11:15
    и чтобы наверняка не поставить себя
    в положение носорогов,
  • 11:15 - 11:17
    если мы создадим СИИ,
  • 11:17 - 11:21
    нам нужно определить, как заставить
    машины понимать наши цели,
  • 11:21 - 11:24
    принимать наши цели и придерживаться их.
  • 11:25 - 11:28
    И в любом случае, чьими целями
    они должны быть?
  • 11:28 - 11:30
    Какими целями они должны быть?
  • 11:30 - 11:34
    Это приводит нас к третьей части
    нашего сравнения с ракетой: назначение.
  • 11:35 - 11:37
    Мы делаем ИИ более мощным,
  • 11:37 - 11:39
    пытаясь понять, как им управлять,
  • 11:39 - 11:41
    но куда мы с ним направимся?
  • 11:42 - 11:45
    Это слон в комнате,
    о котором почти никто не говорит —
  • 11:45 - 11:47
    даже здесь, на конференции TED —
  • 11:47 - 11:51
    потому что мы так одержимы
    краткосрочными проблемами с ИИ.
  • 11:52 - 11:57
    Смотрите, человечество
    пытается построить СИИ,
  • 11:57 - 12:00
    оно мотивировано любопытством
    и экономическими причинами,
  • 12:00 - 12:04
    но какое общество будущего
    мы надеемся увидеть, если это произойдёт?
  • 12:05 - 12:07
    Недавно мы сделали опрос на эту тему,
  • 12:07 - 12:08
    и я был поражён тем,
  • 12:08 - 12:11
    что большинство людей
    хотят построить суперразум:
  • 12:11 - 12:14
    ИИ — это то, что безусловно умнее нас
    во всех отношениях.
  • 12:15 - 12:19
    Большинство было согласно с тем,
    что мы должны быть целеустремлёнными
  • 12:19 - 12:21
    и помочь жизни распространиться в космос,
  • 12:21 - 12:25
    но было намного меньше согласия
    в том, кто должен отвечать за это.
  • 12:25 - 12:27
    И я был даже изумлён,
  • 12:27 - 12:30
    когда понял, что есть те, кто желает,
    чтобы это были просто машины.
  • 12:30 - 12:32
    (Смех)
  • 12:32 - 12:36
    И было полное несогласие
    насчёт роли людей в этом процессе,
  • 12:36 - 12:38
    даже на самом элементарном уровне.
  • 12:38 - 12:41
    Итак, давайте рассмотрим
    возможные варианты будущего,
  • 12:41 - 12:44
    которые, может быть, мы выберем,
    чтобы идти к ним, хорошо?
  • 12:44 - 12:45
    Поймите меня правильно.
  • 12:45 - 12:47
    Я не говорю о космическом путешествии,
  • 12:47 - 12:50
    не просто о метафорическом
    путешествии человечества в будущее.
  • 12:51 - 12:54
    И один из вариантов, который
    нравится моим коллегам по ИИ —
  • 12:54 - 12:58
    это построить суперинтеллект
    и держать его под контролем человека,
  • 12:58 - 13:00
    как порабощённого бога,
  • 13:00 - 13:01
    оторванного от интернета
  • 13:01 - 13:05
    и используемого для создания
    невообразимых технологий и благосостояния,
  • 13:05 - 13:06
    для всех, кто его контролирует.
  • 13:07 - 13:08
    Но лорд Актон предупредил нас
  • 13:08 - 13:12
    о том, что власть развращает,
    а абсолютная власть развращает абсолютно;
  • 13:12 - 13:16
    поэтому вы, наверное, беспокоитесь
    о том, что люди недостаточно умны
  • 13:16 - 13:18
    или даже недостаточно мудры,
  • 13:18 - 13:19
    чтобы управлять этой силой.
  • 13:20 - 13:22
    Ещё, кроме моральных сомнений,
    которые у вас могут быть
  • 13:22 - 13:25
    по поводу порабощения
    превосходящего нас интеллекта,
  • 13:25 - 13:28
    вас может беспокоить, что, возможно,
    суперинтеллект переиграет нас,
  • 13:29 - 13:31
    уйдёт из-под контроля
    и одержит над нами верх.
  • 13:32 - 13:35
    Но у меня есть коллеги, которые
    нормально относятся к победе ИИ,
  • 13:35 - 13:37
    даже если это приведёт
    к исчезновению людей,
  • 13:37 - 13:41
    до тех пор пока мы чувствуем,
    что ИИ — наследники, достойные нас,
  • 13:41 - 13:43
    как наши дети.
  • 13:43 - 13:48
    Но как мы узнаем, что ИИ
    принял наши главные ценности,
  • 13:48 - 13:53
    и они не бессознательные зомби, которые
    только хотят казаться нам антропоморфными?
  • 13:53 - 13:56
    Должны ли те люди, которые не хотят
    уничтожения человечества,
  • 13:56 - 13:57
    также иметь право голоса?
  • 13:58 - 14:02
    Итак, если вам не нравится ни один
    из высокотехнологичных вариантов,
  • 14:02 - 14:05
    важно помнить, что устаревшие технологии —
    это самоубийство
  • 14:05 - 14:06
    с глобальной точки зрения,
  • 14:06 - 14:09
    так как, если мы не опережаем
    современные технологии,
  • 14:09 - 14:11
    вопрос не в том, исчезнет ли человечество,
  • 14:11 - 14:13
    будем ли мы просто уничтожены
  • 14:13 - 14:16
    очередным убийцей-астероидом,
    супервулканом
  • 14:16 - 14:19
    или другой проблемой, которая
    решалась бы с помощью технологий.
  • 14:19 - 14:22
    Итак, как насчёт того,
    чтобы получить всё и сразу
  • 14:22 - 14:24
    с помощью СИИ, который не порабощён,
  • 14:25 - 14:28
    но хорошо ведёт себя с нами,
    так как разделяет наши ценности?
  • 14:28 - 14:32
    В этом смысл того, что Элиезер Юдковский
    назвал «дружественным ИИ»,
  • 14:33 - 14:35
    и если мы можем это сделать,
    было бы замечательно.
  • 14:36 - 14:41
    Он мог бы не только устранить такие
    явления, как болезни и бедность,
  • 14:41 - 14:42
    преступления и страдания,
  • 14:42 - 14:45
    но и дал бы нам свободу выбора,
  • 14:45 - 14:49
    исходя из нового фантастического
    разнообразия положительного опыта —
  • 14:49 - 14:52
    по существу, делая нас
    хозяевами своей судьбы.
  • 14:54 - 14:56
    Подводя итоги, хочу сказать,
  • 14:56 - 14:59
    что у нас сложная ситуация с технологиями,
  • 14:59 - 15:01
    но общая картина достаточно проста.
  • 15:01 - 15:05
    Большинство учёных ожидают создания СИИ
    в ближайшие десятилетия,
  • 15:05 - 15:08
    и если к его появлению
    мы не будем подготовленными,
  • 15:08 - 15:11
    это будет величайшей ошибкой
    в истории человечества —
  • 15:11 - 15:13
    давайте это признаем.
  • 15:13 - 15:15
    Это может сделать возможным
    жёсткую глобальную диктатуру
  • 15:15 - 15:19
    с беспрецедентным неравенством,
    слежкой и страданиями,
  • 15:19 - 15:21
    и, возможно, даже
    с исчезновением человечества.
  • 15:21 - 15:23
    Но если мы будем разумно
    следовать нашему курсу,
  • 15:24 - 15:28
    мы окажемся в фантастическом будущем,
    где каждому будет хорошо:
  • 15:28 - 15:30
    бедные будут богаче, богатые будут богаче,
  • 15:30 - 15:34
    каждый будет здоровым
    и будет жить так, как мечтает.
  • 15:35 - 15:37
    А теперь послушайте.
  • 15:37 - 15:41
    Ребята, хотите ли вы политически правого
    или левого будущего?
  • 15:41 - 15:44
    Жить в ханжеском обществе
    со строгими моральными правилами
  • 15:44 - 15:46
    или в обществе «свободы для всех»,
  • 15:46 - 15:48
    как на фестивале Burning Man
    в режиме 24/7?
  • 15:48 - 15:51
    Хотите ли прекрасные пляжи, леса и озёра,
  • 15:51 - 15:54
    или предпочли бы с помощью компьютера
    переместить кое-какие атомы,
  • 15:54 - 15:56
    сделав виртуальное реальным.
  • 15:56 - 15:59
    С дружественным ИИ мы можем
    просто построить эти общества
  • 15:59 - 16:02
    и дать людям свободу выбора
    того общества, где они хотят жить,
  • 16:02 - 16:05
    потому что мы больше не будем
    ограничены своим интеллектом,
  • 16:05 - 16:07
    а только законами физики.
  • 16:07 - 16:11
    Поэтому ресурсы и пространство для этого
    будут астрономическими —
  • 16:11 - 16:13
    в буквальном смысле слова.
  • 16:13 - 16:15
    Вот какой у нас выбор.
  • 16:16 - 16:18
    Мы либо можем быть
    довольными своим будущим,
  • 16:19 - 16:22
    принимая на веру то,
  • 16:22 - 16:26
    что любая новая технология
    наверняка будет полезной,
  • 16:26 - 16:30
    и повторять это снова и снова, как мантру,
  • 16:30 - 16:34
    как будто мы плывём на корабле без руля
    к своему исчезновению.
  • 16:35 - 16:37
    Либо мы можем быть целеустремлёнными,
  • 16:38 - 16:40
    продумывая то, как управлять
    нашими технологиями
  • 16:40 - 16:42
    и в каком направлении с ними двигаться,
  • 16:42 - 16:44
    чтобы создать изумительную эпоху.
  • 16:45 - 16:48
    Мы здесь для того, чтобы
    прославлять изумительную эпоху,
  • 16:48 - 16:52
    и я чувствую, что его суть должна
    заключаться не в том,
  • 16:52 - 16:56
    чтобы уступить технологиям,
    а чтобы с их помощью стать сильнее.
  • 16:56 - 16:57
    Спасибо.
  • 16:57 - 17:00
    (Аплодисменты)
Title:
Искусственный интеллект: как получить новые возможности, а не быть побеждёнными
Speaker:
Макс Тегмарк
Description:

Многие учёные-исследователи искусственного интеллекта, ожидают того, что ИИ превзойдёт людей во многих областях в ближайшие десятилетия, делая реальным будущее, в котором мы будем ограничены лишь законами физики, а не возможностями нашего интеллекта. Макс Тегмарк, физик из Массачусетского технологического института, отделяет реальные перспективы и угрозы от мифов, описывая конкретные шаги, которые мы должны сделать, чтобы ИИ был наилучшим, а не наихудшим явлением в истории человечества.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:15

Russian subtitles

Revisions