Искусственный интеллект: как получить новые возможности, а не быть побеждёнными
-
0:01 - 0:05Спустя 13 миллиардов 800 миллионов лет
с начала истории космоса -
0:05 - 0:07наша вселенная проснулась
-
0:07 - 0:09и осознала себя.
-
0:09 - 0:11С маленькой голубой планеты
-
0:11 - 0:16крошечные сознательные частички вселенной
начали пристально всматриваться в космос -
0:16 - 0:19через телескопы и увидели нечто,
по сравнению с чем, они совсем малы. -
0:19 - 0:22Мы увидели, что наш мир неизмеримо больше,
-
0:22 - 0:24чем воображали наши предки,
-
0:24 - 0:28и что жизнь кажется невообразимо
маленьким колебанием -
0:28 - 0:30во всей остальной мёртвой вселенной.
-
0:30 - 0:33Но мы также открыли нечто вдохновляющее,
-
0:33 - 0:36то, что развиваемые нами технологии
имеют потенциал, -
0:36 - 0:39чтобы помочь жизни расцвести,
как никогда раньше, -
0:39 - 0:42не только в течение столетий,
но и миллиардов лет, -
0:42 - 0:46не только на земле, но и на большей части
удивительного космического пространства. -
0:48 - 0:51Я думаю о самой ранней форме жизни,
как о «Жизни 1.0», -
0:51 - 0:52так как она была безмозглой,
-
0:52 - 0:57как бактерия, которая не в состоянии
ничему научиться за всю свою жизнь. -
0:57 - 1:00Я думаю о нас, о людях, как о «Жизни 2.0»,
потому что мы умеем учиться, -
1:00 - 1:02говоря скучным языком зануд,
-
1:02 - 1:05назовём установкой нового ПО в наш мозг,
-
1:05 - 1:07например, языков
и профессиональных навыков. -
1:08 - 1:12«Жизнь 3.0», которая сможет создавать
не только программы, но и «железо», -
1:12 - 1:14конечно же, ещё не существует.
-
1:14 - 1:17Но, возможно, наши технологии
создали для нас «Жизнь 2.1» -
1:17 - 1:22с искусственными коленными суставами,
стимуляторами и кохлеарными имплантами. -
1:22 - 1:26Но давайте рассмотрим
наши взаимоотношения с технологиями. -
1:27 - 1:28К примеру,
-
1:28 - 1:33лунная миссия Аполлон 11
была и успешной, и вдохновляющей, -
1:33 - 1:36она показала, что когда мы, люди,
разумно используем технологии, -
1:36 - 1:40то можем достичь таких результатов,
о которых наши предки могли лишь мечтать. -
1:40 - 1:43Но существует даже более
вдохновляющее путешествие, -
1:43 - 1:46движимое чем-то более мощным,
чем ракетные двигатели, -
1:47 - 1:50где пассажирами являются
не просто три астронавта, -
1:50 - 1:51а всё человечество.
-
1:51 - 1:54Давайте поговорим о нашем
совместном пути в будущее, -
1:54 - 1:56будущее с искусственным интеллектом.
-
1:57 - 2:01Мой друг Яан Таллинн любит отмечать,
что, как и с ракетной индустрией,— -
2:02 - 2:05этого недостаточно, чтобы сделать
наши технологии мощными. -
2:06 - 2:09Мы также должны понять, если хотим
ставить перед собой высокие цели, -
2:09 - 2:10как ими управлять,
-
2:10 - 2:12и куда мы хотим с ними пойти.
-
2:13 - 2:16Итак, давайте мы обсудим
все три пункта, касающиеся ИИ: -
2:16 - 2:19мощность, управление и назначение.
-
2:20 - 2:21Начнём с мощности:
-
2:22 - 2:25я даю обобщённое определение интеллекта —
-
2:25 - 2:29как нашей способности
достигать сложных целей, -
2:29 - 2:33потому что я хочу объединить
биологический и искусственный интеллект. -
2:33 - 2:37Я не хочу фанатично следовать
глупой углеродо-центричной идее, -
2:37 - 2:39что умным бывает, только то,
что состоит из мяса. -
2:41 - 2:45Поразительно, как сегодня выросла
мощь искусственного интеллекта. -
2:45 - 2:46Только вдумайтесь.
-
2:46 - 2:50Не так давно роботы не умели ходить.
-
2:51 - 2:53Теперь они делают сальто назад.
-
2:54 - 2:56Не так давно у нас не было
-
2:56 - 2:58беспилотных автомобилей.
-
2:59 - 3:01Теперь у нас есть беспилотные ракеты.
-
3:04 - 3:05Не так давно
-
3:05 - 3:08ИИ не мог распознавать лица.
-
3:08 - 3:11Теперь ИИ может генерировать
несуществующие лица -
3:11 - 3:15и имитировать ваше лицо,
вкладывая вам в уста чужие слова. -
3:16 - 3:18Не так давно
-
3:18 - 3:20ИИ не мог обыграть нас в игре в го.
-
3:20 - 3:25Затем ИИ Alpha Zero от Google Deep Mind
взял 3000-летний опыт людей игры в го -
3:26 - 3:27и всю мудрость этой игры,
-
3:27 - 3:32всем этим пренебрёг и стал лидером,
играя лишь против себя. -
3:32 - 3:35И самым впечатляющим был не тот факт,
что он нанёс поражение игрокам, -
3:36 - 3:38но то, что он сокрушил самих учёных,
занимающихся ИИ, -
3:38 - 3:42тех, кто положил на это десятилетия,
создавая вручную программное обеспечение. -
3:42 - 3:47И Alpha Zero победил исследователей ИИ
не только в го, но даже и в шахматах, -
3:47 - 3:49над которыми мы работали,
начиная с 1950 года. -
3:50 - 3:54И поэтому этот недавний прогресс в ИИ
заставляет нас поднять вопрос: -
3:55 - 3:57куда всё это ведёт?
-
3:58 - 3:59Я люблю думать над этим вопросом,
-
4:00 - 4:02исходя из этого абстрактного
ландшафта задач, -
4:03 - 4:06где подъём означает то, насколько трудно
для ИИ выполнять каждую задачу -
4:06 - 4:07так, как делает человек,
-
4:07 - 4:10а уровень моря показывает то,
что ИИ может делать уже сегодня. -
4:11 - 4:13С развитием ИИ повышается уровень моря;
-
4:13 - 4:17в этом ландшафте задач происходит
что-то наподобие глобального потепления. -
4:18 - 4:21Очевидный вывод —
избегать занятий на береговой линии, -
4:21 - 4:23(Смех)
-
4:23 - 4:26которая очень скоро будет
автоматизирована и разрушена. -
4:26 - 4:29Но здесь возникает более важный вопрос.
-
4:29 - 4:30Насколько высоко поднимется вода?
-
4:31 - 4:35Повысится ли её уровень в итоге
до всеобщего затопления, -
4:36 - 4:38соперничая с интеллектом человека
во всех заданиях? -
4:38 - 4:42Это — определение
сильного искусственного интеллекта — -
4:42 - 4:43СИИ,
-
4:43 - 4:47который с самого начала
был святым Граалем исследований по ИИ. -
4:47 - 4:49Исходя из этого, те, кто говорит:
-
4:49 - 4:52«Да, всегда будет работа, которую люди
смогут делать лучше машин», — -
4:52 - 4:55попросту говорят о том,
что у нас никогда не будет СИИ. -
4:56 - 4:59Конечно, возможно, мы всё ещё выбираем
для себя работу, выполняемую людьми, -
4:59 - 5:02или даём людям цель и доход,
в наших человеческих профессиях; -
5:02 - 5:06но СИИ, в любом случае превратит
нашу жизнь, какой мы знаем, в ту жизнь, -
5:06 - 5:09в которой люди больше не будут
самыми умными существами. -
5:09 - 5:13Итак, если уровень воды
действительно достигает СИИ, -
5:13 - 5:18затем дальнейший прогресс ИИ
будет движим не людьми, а самим ИИ, -
5:18 - 5:20это значит, что есть возможность того,
-
5:20 - 5:22что дальнейший прогресс ИИ
будет более быстрым, -
5:22 - 5:26чем типовые исследования учёных
и временны́е рассчёты развития, -
5:26 - 5:30что увеличит неоднозначную возможность
интеллектуального взрыва, -
5:30 - 5:32где рекуррентно самоулучшающийся ИИ
-
5:32 - 5:35быстро обгоняет человеческий интеллект,
-
5:35 - 5:38создавая так называемый суперинтеллект.
-
5:40 - 5:42Хорошо, давайте реально оценим ситуацию.
-
5:43 - 5:46Достигнем ли мы уровня СИИ
в ближайшее время? -
5:46 - 5:49Некоторые известные учёные,
такие как Родни Брукс, -
5:49 - 5:52считают, что в ближайшие столетия
этого не будет. -
5:52 - 5:55Но другие, такие как Демис Хассабис,
основатель Google Deep Mind, -
5:56 - 5:57более оптимистичны:
-
5:57 - 5:59они делают всё,
чтобы это произошло быстрее. -
5:59 - 6:03Недавние опросы показали,
что большинство исследователей ИИ -
6:03 - 6:06на самом деле разделяют оптимизм Демиса,
-
6:06 - 6:09ожидая того, что мы достигнем уровня СИИ
в ближайшие десятилетия, -
6:10 - 6:12то есть многие из нас это застанут.
-
6:12 - 6:14Возникает вопрос: а что потом?
-
6:15 - 6:17Какой мы хотим видеть роль людей,
-
6:17 - 6:20если машины смогут делать всё лучше
и дешевле, чем мы? -
6:23 - 6:25Я вижу это так: мы стоим перед выбором.
-
6:26 - 6:28Одно из решений — самодовольство.
-
6:28 - 6:31Мы можем говорить: «Да, давайте
создавать машины, делающие всё за нас, -
6:31 - 6:33и не беспокоиться о последствиях.
-
6:33 - 6:36Да что вы, если создать технологии,
которые делают людей ненужными, -
6:37 - 6:39что может пойти не так?»
-
6:39 - 6:40(Смех)
-
6:40 - 6:43Но я думаю, что это было бы
чрезвычайно неубедительно. -
6:44 - 6:48Я думаю, что мы должны быть
более амбициозными, в духе TED. -
6:48 - 6:51Давайте представим вдохновляющее
высокотехнологичное будущее -
6:51 - 6:53и будем двигаться туда.
-
6:54 - 6:57Это приведёт нас ко второй части
нашей ракетной метафоры: управление. -
6:57 - 6:59Мы делаем ИИ более мощным,
-
6:59 - 7:03но как мы сможем двигаться к будущему,
-
7:03 - 7:06где ИИ помогает человечеству процветать,
а не мешает развитию? -
7:07 - 7:08Чтобы помочь этому,
-
7:08 - 7:10мы основали институт Будущего Жизни.
-
7:10 - 7:13Он небольшой, некоммерческий,
поощряет полезные технологии. -
7:13 - 7:16Наша цель проста —
чтобы будущая жизнь существовала -
7:16 - 7:18и была как можно более вдохновляющей.
-
7:18 - 7:21Вы знаете, я люблю технологии.
-
7:21 - 7:24Из-за них мы живём лучше,
чем в каменном веке. -
7:25 - 7:29Я — оптимист потому, что мы можем творить
вдохновляюще высокотехнологичное будущее, -
7:30 - 7:31если — и это большое если —
-
7:31 - 7:34если мы выиграем гонку мудрости —
-
7:34 - 7:36гонку между растущей мощью
наших технологий -
7:37 - 7:39и мудростью, помогающей нам ими управлять.
-
7:39 - 7:42Но это требует изменения стратегии,
-
7:42 - 7:45потому что по старой стратегии
мы учились на своих ошибках. -
7:45 - 7:47Мы изобрели огонь,
-
7:47 - 7:48много раз ошибались,
-
7:48 - 7:50изобрели огнетушитель.
-
7:50 - 7:52(Смех)
-
7:52 - 7:54Мы изобрели автомобиль,
напортачили много раз — -
7:54 - 7:57изобрели светофор,
ремни и подушку безопасности. -
7:57 - 8:01Но с более мощными технологиями,
такими как ядерное оружие и СИИ, -
8:01 - 8:04учиться на ошибках —
это проигрышная стратегия, -
8:04 - 8:05как вы думаете?
-
8:05 - 8:06(Смех)
-
8:06 - 8:09Гораздо лучше упреждать,
чем исправлять последствия: -
8:09 - 8:11планировать заранее, не допуская ошибок,
-
8:11 - 8:14посколько другого раза может и не быть.
-
8:14 - 8:16Но это забавно, потому что
иногда мне говорят: -
8:16 - 8:19«Макс, тсс..., не говори так.
-
8:19 - 8:21Это запугивание в духе луддитов».
-
8:22 - 8:24Но это не запугивание.
-
8:24 - 8:26Это то, что мы в МТИ называем
инженерной безопасностью. -
8:27 - 8:28Подумайте об этом:
-
8:28 - 8:31до того, как НАСА
запустили проект Аполлон 11, -
8:31 - 8:34они постоянно продумывали варианты,
когда что-то пойдёт не так, -
8:34 - 8:36прежде чем посадить людей на топливный бак
-
8:36 - 8:39и запустить их куда-то,
где никто не может им помочь. -
8:39 - 8:41Было много всего,
что могло пойти не так. -
8:41 - 8:42Было ли это запугиванием?
-
8:43 - 8:44Нет.
-
8:44 - 8:46Именно это было инженерной безопасностью,
-
8:46 - 8:48которая обеспечила успех миссии,
-
8:48 - 8:53именно такой стратегия с СИИ
мы должны придерживаться. -
8:53 - 8:57Подумайте, что может пойти не так,
чтобы быть уверенными, что всё получится. -
8:57 - 8:59В этом духе мы и организовали конференции,
-
8:59 - 9:02объединив ведущих исследователей ИИ
и других мыслителей, -
9:02 - 9:06чтобы обсудить то, как взрастить мудрость,
и сделать ИИ полезным для нас. -
9:06 - 9:09На нашей последней конференции,
состоявшейся в Асиломаре, Калифорния, -
9:09 - 9:12в прошлом году был выработан
список из 23-х принципов, -
9:12 - 9:15подписанный более 1 000 учёными,
исследователями ИИ -
9:15 - 9:17и лидерами ведущих отраслей;
-
9:17 - 9:20и я хочу рассказать вам
о трёх из этих принципов. -
9:20 - 9:25Первый: избегать гонки вооружений
и автономных систем летального вооружения. -
9:25 - 9:29Смысл здесь в том, что любую науку
можно использовать для помощи людям -
9:29 - 9:31или для нанесения им вреда.
-
9:31 - 9:35Например, биологию и химию,
скорее всего, будут использовать -
9:35 - 9:39для создания новых лекарств и методов
лечения, а не новых способов убийства, -
9:40 - 9:42потому что биологи и химики изо всех сил —
-
9:42 - 9:43и успешно — проталкивают
-
9:43 - 9:45запрет биологического
и химического оружия. -
9:45 - 9:46Точно так же
-
9:46 - 9:51многие учёные хотят заклеймить и запретить
автономные летальные комплексы. -
9:52 - 9:53Второй Асиломарский принцип по ИИ —
-
9:53 - 9:57это то, что мы должны уменьшить
неравенство в доходах, усиленное ИИ. -
9:57 - 10:02Думаю, что если возможно при посредстве ИИ
значительно увеличить экономический пирог, -
10:02 - 10:04и мы всё ещё не знаем,
как разделить этот пирог, -
10:04 - 10:06чтобы каждый из нас жил достойно,
-
10:06 - 10:07то нам должно быть стыдно.
-
10:07 - 10:11(Аплодисменты)
-
10:11 - 10:15Хорошо, поднимите руки,
если у вас был сбой в работе компьютера. -
10:15 - 10:17(Смех)
-
10:17 - 10:18О, лес рук.
-
10:18 - 10:21Да, тогда вы оцените этот принцип,
-
10:21 - 10:24и то, что мы должны вкладывать
больше средств в безопасность ИИ, -
10:24 - 10:27так как мы делаем ИИ более ответственным
за решения и инфраструктуру. -
10:27 - 10:31Нам нужно определить, как переделать
современный ненадёжный компьютер -
10:31 - 10:34в сильные системы ИИ,
которым мы можем доверять, -
10:34 - 10:35в противном случае,
-
10:35 - 10:38вся эта потрясающая техника
не сработает и навредит нам, -
10:38 - 10:40или её взломают и направят против нас.
-
10:40 - 10:45И эта работа по безопасности ИИ
должна включать и выравнивание ценностей, -
10:45 - 10:48потому что реальная угроза от ИИ —
это не зло, как показано -
10:48 - 10:50в глупых голливудских фильмах,
-
10:50 - 10:52а способности —
-
10:52 - 10:55СИИ достигает целей,
которые никак не согласуются с нашими. -
10:55 - 11:00Когда в результате нашей деятельности
исчезли чёрные африканские носороги, -
11:00 - 11:04мы делали это не потому, что
ненавидели носорогов, не так ли? -
11:04 - 11:06Мы это делали, поскольку были умнее их
-
11:06 - 11:08и наши цели не соответствовали их целям.
-
11:08 - 11:11Но СИИ по определению умнее нас,
-
11:11 - 11:15и чтобы наверняка не поставить себя
в положение носорогов, -
11:15 - 11:17если мы создадим СИИ,
-
11:17 - 11:21нам нужно определить, как заставить
машины понимать наши цели, -
11:21 - 11:24принимать наши цели и придерживаться их.
-
11:25 - 11:28И в любом случае, чьими целями
они должны быть? -
11:28 - 11:30Какими целями они должны быть?
-
11:30 - 11:34Это приводит нас к третьей части
нашего сравнения с ракетой: назначение. -
11:35 - 11:37Мы делаем ИИ более мощным,
-
11:37 - 11:39пытаясь понять, как им управлять,
-
11:39 - 11:41но куда мы с ним направимся?
-
11:42 - 11:45Это слон в комнате,
о котором почти никто не говорит — -
11:45 - 11:47даже здесь, на конференции TED —
-
11:47 - 11:51потому что мы так одержимы
краткосрочными проблемами с ИИ. -
11:52 - 11:57Смотрите, человечество
пытается построить СИИ, -
11:57 - 12:00оно мотивировано любопытством
и экономическими причинами, -
12:00 - 12:04но какое общество будущего
мы надеемся увидеть, если это произойдёт? -
12:05 - 12:07Недавно мы сделали опрос на эту тему,
-
12:07 - 12:08и я был поражён тем,
-
12:08 - 12:11что большинство людей
хотят построить суперразум: -
12:11 - 12:14ИИ — это то, что безусловно умнее нас
во всех отношениях. -
12:15 - 12:19Большинство было согласно с тем,
что мы должны быть целеустремлёнными -
12:19 - 12:21и помочь жизни распространиться в космос,
-
12:21 - 12:25но было намного меньше согласия
в том, кто должен отвечать за это. -
12:25 - 12:27И я был даже изумлён,
-
12:27 - 12:30когда понял, что есть те, кто желает,
чтобы это были просто машины. -
12:30 - 12:32(Смех)
-
12:32 - 12:36И было полное несогласие
насчёт роли людей в этом процессе, -
12:36 - 12:38даже на самом элементарном уровне.
-
12:38 - 12:41Итак, давайте рассмотрим
возможные варианты будущего, -
12:41 - 12:44которые, может быть, мы выберем,
чтобы идти к ним, хорошо? -
12:44 - 12:45Поймите меня правильно.
-
12:45 - 12:47Я не говорю о космическом путешествии,
-
12:47 - 12:50не просто о метафорическом
путешествии человечества в будущее. -
12:51 - 12:54И один из вариантов, который
нравится моим коллегам по ИИ — -
12:54 - 12:58это построить суперинтеллект
и держать его под контролем человека, -
12:58 - 13:00как порабощённого бога,
-
13:00 - 13:01оторванного от интернета
-
13:01 - 13:05и используемого для создания
невообразимых технологий и благосостояния, -
13:05 - 13:06для всех, кто его контролирует.
-
13:07 - 13:08Но лорд Актон предупредил нас
-
13:08 - 13:12о том, что власть развращает,
а абсолютная власть развращает абсолютно; -
13:12 - 13:16поэтому вы, наверное, беспокоитесь
о том, что люди недостаточно умны -
13:16 - 13:18или даже недостаточно мудры,
-
13:18 - 13:19чтобы управлять этой силой.
-
13:20 - 13:22Ещё, кроме моральных сомнений,
которые у вас могут быть -
13:22 - 13:25по поводу порабощения
превосходящего нас интеллекта, -
13:25 - 13:28вас может беспокоить, что, возможно,
суперинтеллект переиграет нас, -
13:29 - 13:31уйдёт из-под контроля
и одержит над нами верх. -
13:32 - 13:35Но у меня есть коллеги, которые
нормально относятся к победе ИИ, -
13:35 - 13:37даже если это приведёт
к исчезновению людей, -
13:37 - 13:41до тех пор пока мы чувствуем,
что ИИ — наследники, достойные нас, -
13:41 - 13:43как наши дети.
-
13:43 - 13:48Но как мы узнаем, что ИИ
принял наши главные ценности, -
13:48 - 13:53и они не бессознательные зомби, которые
только хотят казаться нам антропоморфными? -
13:53 - 13:56Должны ли те люди, которые не хотят
уничтожения человечества, -
13:56 - 13:57также иметь право голоса?
-
13:58 - 14:02Итак, если вам не нравится ни один
из высокотехнологичных вариантов, -
14:02 - 14:05важно помнить, что устаревшие технологии —
это самоубийство -
14:05 - 14:06с глобальной точки зрения,
-
14:06 - 14:09так как, если мы не опережаем
современные технологии, -
14:09 - 14:11вопрос не в том, исчезнет ли человечество,
-
14:11 - 14:13будем ли мы просто уничтожены
-
14:13 - 14:16очередным убийцей-астероидом,
супервулканом -
14:16 - 14:19или другой проблемой, которая
решалась бы с помощью технологий. -
14:19 - 14:22Итак, как насчёт того,
чтобы получить всё и сразу -
14:22 - 14:24с помощью СИИ, который не порабощён,
-
14:25 - 14:28но хорошо ведёт себя с нами,
так как разделяет наши ценности? -
14:28 - 14:32В этом смысл того, что Элиезер Юдковский
назвал «дружественным ИИ», -
14:33 - 14:35и если мы можем это сделать,
было бы замечательно. -
14:36 - 14:41Он мог бы не только устранить такие
явления, как болезни и бедность, -
14:41 - 14:42преступления и страдания,
-
14:42 - 14:45но и дал бы нам свободу выбора,
-
14:45 - 14:49исходя из нового фантастического
разнообразия положительного опыта — -
14:49 - 14:52по существу, делая нас
хозяевами своей судьбы. -
14:54 - 14:56Подводя итоги, хочу сказать,
-
14:56 - 14:59что у нас сложная ситуация с технологиями,
-
14:59 - 15:01но общая картина достаточно проста.
-
15:01 - 15:05Большинство учёных ожидают создания СИИ
в ближайшие десятилетия, -
15:05 - 15:08и если к его появлению
мы не будем подготовленными, -
15:08 - 15:11это будет величайшей ошибкой
в истории человечества — -
15:11 - 15:13давайте это признаем.
-
15:13 - 15:15Это может сделать возможным
жёсткую глобальную диктатуру -
15:15 - 15:19с беспрецедентным неравенством,
слежкой и страданиями, -
15:19 - 15:21и, возможно, даже
с исчезновением человечества. -
15:21 - 15:23Но если мы будем разумно
следовать нашему курсу, -
15:24 - 15:28мы окажемся в фантастическом будущем,
где каждому будет хорошо: -
15:28 - 15:30бедные будут богаче, богатые будут богаче,
-
15:30 - 15:34каждый будет здоровым
и будет жить так, как мечтает. -
15:35 - 15:37А теперь послушайте.
-
15:37 - 15:41Ребята, хотите ли вы политически правого
или левого будущего? -
15:41 - 15:44Жить в ханжеском обществе
со строгими моральными правилами -
15:44 - 15:46или в обществе «свободы для всех»,
-
15:46 - 15:48как на фестивале Burning Man
в режиме 24/7? -
15:48 - 15:51Хотите ли прекрасные пляжи, леса и озёра,
-
15:51 - 15:54или предпочли бы с помощью компьютера
переместить кое-какие атомы, -
15:54 - 15:56сделав виртуальное реальным.
-
15:56 - 15:59С дружественным ИИ мы можем
просто построить эти общества -
15:59 - 16:02и дать людям свободу выбора
того общества, где они хотят жить, -
16:02 - 16:05потому что мы больше не будем
ограничены своим интеллектом, -
16:05 - 16:07а только законами физики.
-
16:07 - 16:11Поэтому ресурсы и пространство для этого
будут астрономическими — -
16:11 - 16:13в буквальном смысле слова.
-
16:13 - 16:15Вот какой у нас выбор.
-
16:16 - 16:18Мы либо можем быть
довольными своим будущим, -
16:19 - 16:22принимая на веру то,
-
16:22 - 16:26что любая новая технология
наверняка будет полезной, -
16:26 - 16:30и повторять это снова и снова, как мантру,
-
16:30 - 16:34как будто мы плывём на корабле без руля
к своему исчезновению. -
16:35 - 16:37Либо мы можем быть целеустремлёнными,
-
16:38 - 16:40продумывая то, как управлять
нашими технологиями -
16:40 - 16:42и в каком направлении с ними двигаться,
-
16:42 - 16:44чтобы создать изумительную эпоху.
-
16:45 - 16:48Мы здесь для того, чтобы
прославлять изумительную эпоху, -
16:48 - 16:52и я чувствую, что его суть должна
заключаться не в том, -
16:52 - 16:56чтобы уступить технологиям,
а чтобы с их помощью стать сильнее. -
16:56 - 16:57Спасибо.
-
16:57 - 17:00(Аплодисменты)
- Title:
- Искусственный интеллект: как получить новые возможности, а не быть побеждёнными
- Speaker:
- Макс Тегмарк
- Description:
-
Многие учёные-исследователи искусственного интеллекта, ожидают того, что ИИ превзойдёт людей во многих областях в ближайшие десятилетия, делая реальным будущее, в котором мы будем ограничены лишь законами физики, а не возможностями нашего интеллекта. Макс Тегмарк, физик из Массачусетского технологического института, отделяет реальные перспективы и угрозы от мифов, описывая конкретные шаги, которые мы должны сделать, чтобы ИИ был наилучшим, а не наихудшим явлением в истории человечества.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:15
Natalia Ost approved Russian subtitles for How to get empowered, not overpowered, by AI | ||
Natalia Ost edited Russian subtitles for How to get empowered, not overpowered, by AI | ||
Natalia Ost accepted Russian subtitles for How to get empowered, not overpowered, by AI | ||
Natalia Ost edited Russian subtitles for How to get empowered, not overpowered, by AI | ||
Elena Malykh edited Russian subtitles for How to get empowered, not overpowered, by AI | ||
Elena Malykh edited Russian subtitles for How to get empowered, not overpowered, by AI | ||
Elena Malykh edited Russian subtitles for How to get empowered, not overpowered, by AI | ||
Elena Malykh edited Russian subtitles for How to get empowered, not overpowered, by AI |