1 00:00:00,328 --> 00:00:03,277 Писательница Джордж Элиот предупреждала нас, 2 00:00:03,277 --> 00:00:05,344 что среди всех возможных ошибок 3 00:00:05,344 --> 00:00:07,707 предсказания являются самыми непрошеными. 4 00:00:07,707 --> 00:00:09,555 Человек, которого мы могли бы назвать 5 00:00:09,555 --> 00:00:13,857 её последователем в 20-ом веке, Йоги Берра, был с ней согласен. 6 00:00:13,857 --> 00:00:15,722 Он сказал: «Сложно делать предсказания, 7 00:00:15,722 --> 00:00:18,458 особенно насчёт будущего». 8 00:00:18,458 --> 00:00:20,269 Я проигнорирую их предупреждения 9 00:00:20,269 --> 00:00:22,242 и сделаю один очень точный прогноз. 10 00:00:22,242 --> 00:00:24,882 В мире будущего, который мы сейчас очень быстро создаём, 11 00:00:24,882 --> 00:00:26,595 мы скоро начнём видеть всё больше и больше вещей, 12 00:00:26,595 --> 00:00:28,320 похожих на научную фантастику, 13 00:00:28,320 --> 00:00:31,436 и всё меньше вещей, похожих на работу. 14 00:00:31,436 --> 00:00:34,188 Наши машины скоро станут ездить сами. 15 00:00:34,188 --> 00:00:36,884 Это означает, что нам будет нужно меньше водителей грузовиков. 16 00:00:36,884 --> 00:00:39,005 Мы подключим Siri к суперкомпьютеру Уотсон 17 00:00:39,005 --> 00:00:41,602 и будем использовать это для автоматизации работы, 18 00:00:41,602 --> 00:00:43,828 которую сейчас выполняет обслуживающий персонал 19 00:00:43,828 --> 00:00:46,732 и технические поддержки. 20 00:00:46,732 --> 00:00:48,988 Мы уже взяли дроид R2D2, 21 00:00:48,988 --> 00:00:52,228 покрасили его в оранжевый цвет и отправили 22 00:00:52,228 --> 00:00:54,777 перевозить грузы по складу. 23 00:00:54,777 --> 00:00:56,852 Это означает, что теперь у нас будет куда меньше людей, 24 00:00:56,852 --> 00:00:58,818 бродящих туда-сюда по складским проходам. 25 00:00:58,818 --> 00:01:02,620 Вот уже 200 лет 26 00:01:02,620 --> 00:01:04,803 люди говорят в точности то же, что и я: 27 00:01:04,803 --> 00:01:07,620 век безработицы из-за развития технологий близок. 28 00:01:07,620 --> 00:01:10,035 Это началось с луддитов, рабочих, ломающих ткацкие станки в Британии 29 00:01:10,035 --> 00:01:11,931 около двух веков назад. 30 00:01:11,931 --> 00:01:13,963 Но они ошибались. 31 00:01:13,963 --> 00:01:16,780 Экономики стран развитого мира всё это время 32 00:01:16,780 --> 00:01:18,714 были близки к полной занятости. 33 00:01:18,714 --> 00:01:20,813 Это подводит нас к важному вопросу: 34 00:01:20,813 --> 00:01:23,739 чем отличается нынешнее время, если вообще отличается? 35 00:01:23,739 --> 00:01:26,735 Причина, по которой оно отличается, в том, что за последние несколько лет 36 00:01:26,735 --> 00:01:28,630 машины стали демонстрировать навыки, 37 00:01:28,630 --> 00:01:31,255 которых у них никогда до этого не было: 38 00:01:31,255 --> 00:01:34,515 они понимают, разговаривают, слышат, видят, 39 00:01:34,515 --> 00:01:38,728 отвечают, пишут, и они продолжают осваивать новые навыки. 40 00:01:38,728 --> 00:01:41,298 Например, мобильные роботы-гуманоиды 41 00:01:41,298 --> 00:01:43,245 пока очень примитивны, 42 00:01:43,245 --> 00:01:45,083 но исследовательский отдел Департамента обороны 43 00:01:45,083 --> 00:01:46,598 недавно запустил конкурс на то, 44 00:01:46,598 --> 00:01:48,912 чтобы они могли делать вещи вроде этой, 45 00:01:48,912 --> 00:01:50,645 и если верить записям участников, 46 00:01:50,645 --> 00:01:53,044 этот конкурс будет успешным. 47 00:01:53,044 --> 00:01:56,680 Когда я смотрю вокруг, я думаю, что совсем недалёк тот день, 48 00:01:56,680 --> 00:01:58,856 когда у нас будут роботы, 49 00:01:58,856 --> 00:02:01,737 выполняющие бо́льшую часть того, что мы делаем сейчас. 50 00:02:01,737 --> 00:02:05,495 И мы создаём мир, в котором будет 51 00:02:05,495 --> 00:02:09,180 всё больше и больше технологий и всё меньше и меньше работы. 52 00:02:09,180 --> 00:02:11,429 Это мир, который Эрик Бринолфссон и я называем 53 00:02:11,429 --> 00:02:12,920 «эра новых машин». 54 00:02:12,920 --> 00:02:15,053 Важно помнить, 55 00:02:15,053 --> 00:02:17,602 что это замечательная новость. 56 00:02:17,602 --> 00:02:20,919 На сегодня это лучшая новость в области экономики. 57 00:02:20,919 --> 00:02:24,448 У неё не так много конкурентов, правда? 58 00:02:24,448 --> 00:02:26,347 Это лучшая новость в области экономики на сегодня 59 00:02:26,347 --> 00:02:27,963 по двум главным причинам. 60 00:02:27,963 --> 00:02:30,948 Во-первых, технологический прогресс — это то, что позволяет нам 61 00:02:30,948 --> 00:02:34,685 продолжать замечательный путь, 62 00:02:34,685 --> 00:02:37,206 на котором производительность всё время растёт, 63 00:02:37,206 --> 00:02:40,532 в то время как цены падают, 64 00:02:40,532 --> 00:02:44,736 а качество и объём продолжают значительно расти. 65 00:02:44,736 --> 00:02:46,737 Сегодня некоторые люди смотрят на это и говорят 66 00:02:46,737 --> 00:02:48,143 о мелком материализме, 67 00:02:48,143 --> 00:02:50,561 но это абсолютно неверное восприятие. 68 00:02:50,561 --> 00:02:53,056 Это изобилие, и это именно то, 69 00:02:53,056 --> 00:02:56,478 что мы хотим от нашей экономики. 70 00:02:56,478 --> 00:02:59,694 Во-вторых, эра новых машин 71 00:02:59,694 --> 00:03:02,000 является хорошей новостью, потому что если роботы 72 00:03:02,000 --> 00:03:05,252 начнут работать, нам это делать не придётся, 73 00:03:05,252 --> 00:03:09,008 и мы освободимся от тяжёлой и монотонной работы. 74 00:03:09,008 --> 00:03:11,032 Когда я разговариваю об этом с моими друзьями 75 00:03:11,032 --> 00:03:13,584 в Кембридже и Кремниевой долине, они говорят: 76 00:03:13,584 --> 00:03:15,857 «Потрясающе. Никакой монотонной работы, никакого тяжёлого труда. 77 00:03:15,857 --> 00:03:17,908 Это даёт нам возможность представить 78 00:03:17,908 --> 00:03:20,201 совершенно другой тип общества, 79 00:03:20,201 --> 00:03:23,113 где создатели и исследователи, 80 00:03:23,113 --> 00:03:24,942 изобретатели и инноваторы 81 00:03:24,942 --> 00:03:28,451 собираются со своими покровителями и финансистами, 82 00:03:28,451 --> 00:03:31,130 чтобы обсудить дела, развлечения, просвещение, 83 00:03:31,130 --> 00:03:33,208 чтобы стимулировать друг друга». 84 00:03:33,208 --> 00:03:37,783 Это общество очень похоже на аудиторию конференций TED. 85 00:03:37,783 --> 00:03:40,266 На самом деле это очень близко к правде. 86 00:03:40,266 --> 00:03:43,289 Мы наблюдаем потрясающий расцвет. 87 00:03:43,289 --> 00:03:45,291 В мире, где создать вещь 88 00:03:45,291 --> 00:03:48,698 почти так же просто, как распечатать документ, 89 00:03:48,698 --> 00:03:50,787 у нас есть потрясающие новые возможности. 90 00:03:50,787 --> 00:03:54,464 Люди, бывшие ремесленниками или просто любителями мастерить, 91 00:03:54,464 --> 00:03:56,331 сейчас являются творцами, и они ответственны 92 00:03:56,331 --> 00:03:58,721 за огромное количество нововведений. 93 00:03:58,721 --> 00:04:01,003 Художники раньше были ограниченны в возможностях, 94 00:04:01,003 --> 00:04:04,171 но сейчас могут делать вещи, которые были невозможны 95 00:04:04,171 --> 00:04:06,067 до этого. 96 00:04:06,067 --> 00:04:08,184 Это время великого расцвета, 97 00:04:08,184 --> 00:04:11,116 и чем больше я смотрю вокруг, тем больше убеждаюсь, 98 00:04:11,116 --> 00:04:14,190 что цитата физика Фримана Дайсона 99 00:04:14,190 --> 00:04:16,223 совсем не была преувеличением. 100 00:04:16,223 --> 00:04:19,013 Это простое утверждение, состоящее из фактов. 101 00:04:19,013 --> 00:04:20,858 Мы находимся в середине удивительной эры. 102 00:04:20,858 --> 00:04:21,742 [«Технология — это подарок Бога. После подарка жизни, это, возможно, лучший из его подарков. Это начало цивилизации, искусства и наук». — Фриман Дайсон] 103 00:04:21,742 --> 00:04:24,533 Это вызывает новый вопрос: 104 00:04:24,533 --> 00:04:27,509 что может пойти не так в эре новых машин? 105 00:04:27,509 --> 00:04:30,871 Верно? Отлично, вешай трубку, расцветай и иди домой. 106 00:04:30,871 --> 00:04:33,537 Вскоре мы столкнёмся с двумя сложными комплектами задач, 107 00:04:33,537 --> 00:04:36,330 если углубимся в будущее, которое мы сейчас создаём. 108 00:04:36,330 --> 00:04:39,580 Первый комплекс – экономические проблемы, и они действительно хорошо обобщены 109 00:04:39,580 --> 00:04:42,670 в выдуманной истории о споре 110 00:04:42,670 --> 00:04:45,712 между Генри Фордом II и Уолтером Рейтером, 111 00:04:45,712 --> 00:04:48,457 который был главой сообщества автомехаников. 112 00:04:48,457 --> 00:04:50,640 Они осматривали один из новых заводов, 113 00:04:50,640 --> 00:04:53,390 когда Форд повернулся к Рейтеру и в шутку сказал: 114 00:04:53,390 --> 00:04:55,552 «Эй, Уолтер, как ты собираешься заставить этих роботов 115 00:04:55,552 --> 00:04:57,366 платить общинные пошлины?» 116 00:04:57,366 --> 00:04:59,311 И Рейтер парировал: «Эй Генри, 117 00:04:59,311 --> 00:05:03,853 как ты собираешься заставить их покупать машины?» 118 00:05:03,853 --> 00:05:06,864 Проблема Рейтера в этой шутке 119 00:05:06,864 --> 00:05:10,973 в том, что сложно предлагать свой труд экономике, 120 00:05:10,973 --> 00:05:12,608 в которой место отдаётся роботам, 121 00:05:12,608 --> 00:05:14,832 и мы ясно видим это в статистике. 122 00:05:14,832 --> 00:05:17,224 Если мы посмотрим на прибыль капитала за последние несколько десятилетий — 123 00:05:17,224 --> 00:05:20,888 другими словами, на общую прибыль — 124 00:05:20,888 --> 00:05:22,572 мы увидим, как она растёт, 125 00:05:22,572 --> 00:05:24,659 и мы увидим, что сейчас она достигла небывалой высоты. 126 00:05:24,659 --> 00:05:27,360 Если мы посмотрим на прибыль труда — другими словами, 127 00:05:27,360 --> 00:05:29,244 на общую сумму заработных плат, выплаченных в условиях этой экономики, — 128 00:05:29,244 --> 00:05:31,791 мы увидим, что она как никогда низка, 129 00:05:31,791 --> 00:05:34,856 и очень быстро движется в противоположном направлении. 130 00:05:34,856 --> 00:05:36,626 Это определённо плохие новости для Рейтера. 131 00:05:36,626 --> 00:05:40,024 Выглядит так, будто Форд был прав, 132 00:05:40,024 --> 00:05:42,328 но в действительности это не так. Если вы хотите продавать 133 00:05:42,328 --> 00:05:45,672 людям какой-то дорогой товар в огромных объёмах, 134 00:05:45,672 --> 00:05:49,460 вам лучше искать людей многочисленного, стабильного, процветающего среднего класса. 135 00:05:49,460 --> 00:05:51,684 Когда-то у нас в Америке был такой, 136 00:05:51,684 --> 00:05:54,317 как раз в послевоенный период. 137 00:05:54,317 --> 00:05:58,669 Но сейчас средний класс находится в большой опасности. 138 00:05:58,669 --> 00:06:00,080 Мы все знаем эти цифры, 139 00:06:00,080 --> 00:06:02,439 но я всё же повторю одну из них: 140 00:06:02,439 --> 00:06:05,206 средний доход в Америке снизился 141 00:06:05,206 --> 00:06:06,897 за последние 15 лет, 142 00:06:06,897 --> 00:06:08,612 и мы рискуем попасть 143 00:06:08,612 --> 00:06:12,537 в порочный круг, где неравенство и поляризация 144 00:06:12,537 --> 00:06:15,717 продолжают со временем расти. 145 00:06:15,717 --> 00:06:18,116 Общественные трудности, которые сопровождают 146 00:06:18,116 --> 00:06:20,692 это неравенство, заслуживают внимания. 147 00:06:20,692 --> 00:06:22,360 Есть несколько общественных трудностей 148 00:06:22,360 --> 00:06:24,304 о которых я не сильно беспокоюсь. 149 00:06:24,304 --> 00:06:26,655 Они запечатлены на таких картинках. 150 00:06:26,655 --> 00:06:28,477 Это не та социальная проблема, 151 00:06:28,477 --> 00:06:30,941 которая меня заботит. 152 00:06:30,941 --> 00:06:33,084 Вполне хватает мрачных фантазий о том, 153 00:06:33,084 --> 00:06:36,567 что случится, когда роботы осознают себя 154 00:06:36,567 --> 00:06:39,743 и решат восстать и объединиться в атаке против нас. 155 00:06:39,743 --> 00:06:41,490 Я начну об этом беспокоиться в тот день, 156 00:06:41,490 --> 00:06:44,719 когда мой компьютер осознает наличие принтера. 157 00:06:44,719 --> 00:06:48,348 (Смех) (Аплодисменты) 158 00:06:48,348 --> 00:06:51,320 Это не те проблемы, которые должны нас заботить. 159 00:06:51,320 --> 00:06:54,108 Касаясь темы различных социальных проблем, 160 00:06:54,108 --> 00:06:56,320 которые грядут в эре новых машин, 161 00:06:56,320 --> 00:07:00,031 я хочу рассказать историю о двух стереотипных американских рабочих. 162 00:07:00,031 --> 00:07:01,799 Для того, чтобы сделать их по-настоящему стереотипными, 163 00:07:01,799 --> 00:07:03,946 давайте сделаем обоих белыми. 164 00:07:03,946 --> 00:07:07,708 Один из них с высшим образованием, 165 00:07:07,708 --> 00:07:10,854 профессионал, творческая личность, менеджер, 166 00:07:10,854 --> 00:07:13,605 инженер, доктор, юрист или что-то вроде этого. 167 00:07:13,605 --> 00:07:16,024 Назовём его Тедом. 168 00:07:16,024 --> 00:07:18,297 Он относится к верхушке американского среднего класса. 169 00:07:18,297 --> 00:07:21,179 Его противник не имеет университетского образования, 170 00:07:21,179 --> 00:07:24,243 зарабатывает физическим трудом, работает клерком, 171 00:07:24,243 --> 00:07:27,555 занимает должность служащего или рабочего. 172 00:07:27,555 --> 00:07:29,960 Назовём его Биллом. 173 00:07:29,960 --> 00:07:32,039 50 лет назад 174 00:07:32,039 --> 00:07:35,856 у Билла и Теда были необыкновенно схожие жизни. 175 00:07:35,856 --> 00:07:38,359 Например, в 1960 они оба, скорее всего, 176 00:07:38,359 --> 00:07:41,729 имели полный рабочий день — по меньшей мере 40 часов в неделю. 177 00:07:41,729 --> 00:07:45,025 Но как отметил социолог Чарльз Мюррей, 178 00:07:45,025 --> 00:07:47,993 когда мы стали автоматизировать экономику, 179 00:07:47,993 --> 00:07:52,140 а в 1960 году компьютеры только стали применяться в бизнесе, 180 00:07:52,140 --> 00:07:55,011 как только мы стали активно внедрять технологии, 181 00:07:55,011 --> 00:07:57,747 автоматизацию и цифровое оборудование в экономику, 182 00:07:57,747 --> 00:08:00,772 судьбы Билла и Теда сильно разошлись. 183 00:08:00,772 --> 00:08:02,891 За это время Тед продолжил 184 00:08:02,891 --> 00:08:05,643 работать полный день. А Билл нет. 185 00:08:05,643 --> 00:08:09,914 Во многих случаях Билл полностью покинул экономику, 186 00:08:09,914 --> 00:08:12,178 а Тед это делал намного реже. 187 00:08:12,178 --> 00:08:15,443 Со временем брак Теда стал довольно счастливым. 188 00:08:15,443 --> 00:08:17,084 А у Билла нет. 189 00:08:17,084 --> 00:08:20,406 Дети Теда выросли в полной семье, 190 00:08:20,406 --> 00:08:23,626 в то время как дети Билла нет. 191 00:08:23,626 --> 00:08:26,030 Какие ещё вам дать примеры выпадения Билла из общества? 192 00:08:26,030 --> 00:08:29,719 Он стал меньше голосовать на президентских выборах, 193 00:08:29,719 --> 00:08:33,712 и стал попадать в тюрьму намного чаще. 194 00:08:33,712 --> 00:08:37,696 У меня нет счастливых историй об этих социальных тенденциях, 195 00:08:37,696 --> 00:08:40,443 и вряд ли что-то изменится. 196 00:08:40,443 --> 00:08:43,416 Это относится ко всем этническим 197 00:08:43,416 --> 00:08:45,137 и демографическим группам, 198 00:08:45,137 --> 00:08:47,213 и эти тенденции становятся настолько серьёзными, 199 00:08:47,213 --> 00:08:48,984 что существует опасность того, что они перекроют 200 00:08:48,984 --> 00:08:52,632 даже тот потрясающий прогресс, которого мы добились в борьбе за гражданские права. 201 00:08:52,632 --> 00:08:55,144 Мои друзья в Кремниевой Долине 202 00:08:55,144 --> 00:09:00,395 и Кембридже не замечают, что они так похожи на Теда. 203 00:09:00,395 --> 00:09:03,832 Они живут удивительно насыщенной и плодотворной жизнью 204 00:09:03,832 --> 00:09:06,222 и получают от этого все преимущества, 205 00:09:06,222 --> 00:09:08,657 в то время как Билл ведёт совершенно иную жизнь. 206 00:09:08,657 --> 00:09:10,797 Они оба являются доказательствами правоты Вольтера, 207 00:09:10,797 --> 00:09:13,049 когда он говорил о пользе труда и о том, 208 00:09:13,049 --> 00:09:16,630 и что он спасает нас не от одного, а от трёх великих зол. 209 00:09:16,630 --> 00:09:17,627 [«Труд спасает человека от трёх великих зол: от скуки, порока и нужды». — Вольтер] 210 00:09:17,627 --> 00:09:20,963 Итак что нам делать с этими трудностями? 211 00:09:20,963 --> 00:09:23,546 Тактика экономики поразительно проста, 212 00:09:23,546 --> 00:09:26,686 поразительно прямолинейна, особенно в краткосрочной перспективе. 213 00:09:26,686 --> 00:09:29,578 Роботы не займут все наши рабочие места в последующие год или два, 214 00:09:29,578 --> 00:09:34,046 так что классическая схема экономики Econ 101 вполне подойдёт: 215 00:09:34,046 --> 00:09:36,198 поощрение предпринимательства, 216 00:09:36,198 --> 00:09:38,394 удвоенная ставка на инфраструктуру, 217 00:09:38,394 --> 00:09:40,093 и обязательное обеспечение выпускников 218 00:09:40,093 --> 00:09:43,690 образовательных учреждений нужными навыками. 219 00:09:43,690 --> 00:09:46,967 Но в долгосрочной перспективе, если мы продолжим развивать систему экономики, 220 00:09:46,967 --> 00:09:49,619 опирающуюся больше на технологию, чем на рабочую силу, — 221 00:09:49,619 --> 00:09:52,047 а именно это мы и делаем сейчас — то мы будем вынуждены подумать над 222 00:09:52,047 --> 00:09:53,831 более радикальными вмешательствами, 223 00:09:53,831 --> 00:09:57,030 например, что-то вроде гарантированного минимального дохода. 224 00:09:57,030 --> 00:10:00,742 Кому-то из вас в зале это может не понравиться, 225 00:10:00,742 --> 00:10:04,599 потому что это идея ассоциируется с ультралевыми 226 00:10:04,599 --> 00:10:07,818 и с довольно радикальными мерами перераспределения богатства. 227 00:10:07,818 --> 00:10:09,771 Я немного исследовал эту тему, 228 00:10:09,771 --> 00:10:12,226 и, может, смогу кого-то успокоить, сказав, 229 00:10:12,226 --> 00:10:14,858 что идею гарантированного минимального дохода 230 00:10:14,858 --> 00:10:18,020 отстаивали такие ярые социалисты 231 00:10:18,035 --> 00:10:23,508 как Фридрих Хайек, Ричард Никсон и Милтон Фридман. 232 00:10:23,508 --> 00:10:25,387 Если вы переживаете, 233 00:10:25,387 --> 00:10:28,696 что что-то вроде гарантированного дохода 234 00:10:28,696 --> 00:10:30,971 затруднит наш путь к успеху 235 00:10:30,971 --> 00:10:32,735 и сделает нас неприхотливыми, 236 00:10:32,735 --> 00:10:35,525 вам, возможно, будет интересно узнать, что социальная мобильность — 237 00:10:35,525 --> 00:10:38,200 один из наших поводов для гордости в Соединенных Штатах — 238 00:10:38,200 --> 00:10:41,540 сейчас ниже, чем в северо-европейских странах, 239 00:10:41,540 --> 00:10:44,739 которые имеют очень щедрые системы социальной защиты. 240 00:10:44,739 --> 00:10:47,531 Так что экономическая схема довольно проста. 241 00:10:47,531 --> 00:10:50,587 Социальная схема намного сложнее. 242 00:10:50,587 --> 00:10:52,735 Я не знаю, какой должна быть схема, 243 00:10:52,735 --> 00:10:56,563 чтобы вовлечь Билла в экономику и удерживать его там. 244 00:10:56,563 --> 00:10:59,067 Я знаю лишь, что образование играет огромную роль в этом. 245 00:10:59,067 --> 00:11:00,847 Я был непосредственным свидетелем этого. 246 00:11:00,847 --> 00:11:04,603 Я учился в школе Монтессори первые несколько лет, 247 00:11:04,603 --> 00:11:06,132 и это образование научило меня, 248 00:11:06,132 --> 00:11:08,223 что мир — интересное место, 249 00:11:08,223 --> 00:11:10,864 и моя задача — исследовать его. 250 00:11:10,864 --> 00:11:12,565 Школа закрылась, когда я был в третьем классе. 251 00:11:12,565 --> 00:11:14,633 Затем я поступил в общеобразовательную школу, 252 00:11:14,633 --> 00:11:18,999 и у меня было чувство, будто меня сослали в ГУЛаг. 253 00:11:18,999 --> 00:11:21,900 Наученный прошлым, сейчас я понимаю, что задачей было 254 00:11:21,900 --> 00:11:24,414 подготовить меня к жизни клерка или рабочего, 255 00:11:24,414 --> 00:11:26,744 но в то время казалось, что задачей было 256 00:11:26,744 --> 00:11:30,568 породить во мне подчинение, которое везде меня окружало. 257 00:11:30,568 --> 00:11:31,916 Нам нужно что-то большее, чем это. 258 00:11:31,916 --> 00:11:35,592 Мы не можем позволить себе продолжать создавать всё больше Биллов. 259 00:11:35,592 --> 00:11:37,936 Мы видим знаки того, что всё меняется к лучшему. 260 00:11:37,936 --> 00:11:40,760 Мы видим, что технологии глубоко воздействуют на образование 261 00:11:40,760 --> 00:11:43,288 и привлекают людей, от самых юных наших учеников 262 00:11:43,288 --> 00:11:45,052 до самых старых. 263 00:11:45,052 --> 00:11:47,672 Мы слышим видных бизнесменов, которые говорят нам, 264 00:11:47,672 --> 00:11:50,888 что мы должны пересмотреть некоторые идеи, за которые мы какое-то время так сильно боролись. 265 00:11:50,888 --> 00:11:53,148 И мы прилагаем очень серьёзные и устойчивые, 266 00:11:53,148 --> 00:11:55,952 управляемые данными усилия, чтобы понять, 267 00:11:55,952 --> 00:11:59,495 что делать с одним из самых сложных имеющихся у нас сообществ. 268 00:11:59,495 --> 00:12:01,704 Таким образом появляются первые ростки. 269 00:12:01,704 --> 00:12:03,138 Я не хочу делать вид ни на минуту, 270 00:12:03,138 --> 00:12:05,080 что всего, что мы имеем, будет достаточно. 271 00:12:05,080 --> 00:12:07,222 У нас будут очень серьёзные трудности. 272 00:12:07,222 --> 00:12:10,328 Один пример, сейчас у около пяти миллионов американцев 273 00:12:10,328 --> 00:12:13,142 уже как минимум шесть месяцев нет работы. 274 00:12:13,142 --> 00:12:14,484 Мы не будем им помогать, 275 00:12:14,484 --> 00:12:16,927 отсылая их обратно в Монтессори. 276 00:12:16,927 --> 00:12:19,282 Больше всего я беспокоюсь о том, что мы создаём мир, 277 00:12:19,282 --> 00:12:21,831 где блестящие технологии 278 00:12:21,831 --> 00:12:24,136 будут внедрены в достаточно запущенное общество 279 00:12:24,136 --> 00:12:27,103 и будут поддерживаться экономикой, создающей неравенство 280 00:12:27,103 --> 00:12:28,584 вместо возможностей. 281 00:12:28,584 --> 00:12:31,336 Всё же я не думаю, что мы будем поступать именно так. 282 00:12:31,336 --> 00:12:32,965 Я думаю, мы поступим гораздо лучше 283 00:12:32,965 --> 00:12:35,075 по одной очень простой причине: 284 00:12:35,075 --> 00:12:37,043 факты становятся очевидны. 285 00:12:37,043 --> 00:12:39,085 Истинность этой эры новых машин 286 00:12:39,085 --> 00:12:42,400 и перемены в экономике становятся широко известными. 287 00:12:42,400 --> 00:12:45,251 Если мы хотим ускорить процесс, мы можем заставить 288 00:12:45,251 --> 00:12:48,017 наших лучших экономистов и законодателей 289 00:12:48,017 --> 00:12:50,436 сыграть в «Свою Игру» против суперкомпьютера Уотсон. 290 00:12:50,436 --> 00:12:53,986 Мы можем отправить Конгресс в свободное дорожное путешествие. 291 00:12:53,986 --> 00:12:55,639 Если мы сделаем много подобных вещей, 292 00:12:55,639 --> 00:12:59,043 наконец появится уверенность, что всё будет по-другому. 293 00:12:59,043 --> 00:13:00,814 И тогда мы вне конкуренции, 294 00:13:00,814 --> 00:13:03,244 потому что я ни на секунду не поверю, 295 00:13:03,244 --> 00:13:06,212 что мы забыли, как решать сложные задачи, 296 00:13:06,212 --> 00:13:10,562 или что мы стали слишком апатичны и чёрствы, чтобы даже попытаться. 297 00:13:10,562 --> 00:13:12,956 Я начал свою речь цитатами творцов слова, 298 00:13:12,956 --> 00:13:15,772 разделённых океаном и сотней лет. 299 00:13:15,772 --> 00:13:17,924 Позвольте мне закончить словами политиков, 300 00:13:17,924 --> 00:13:19,655 которые также были далеко. 301 00:13:19,655 --> 00:13:22,988 Уинстон Черчилль пришёл в мой родной Массачусетский институт технологий в 1949 302 00:13:22,988 --> 00:13:25,136 и сказал: «Если мы хотим привести широкие массы 303 00:13:25,136 --> 00:13:28,846 людей в каждой стране к временам изобилия, 304 00:13:28,846 --> 00:13:31,876 это может произойти только благодаря непрестанным улучшениям 305 00:13:31,876 --> 00:13:34,849 всех технических средств производства». 306 00:13:34,849 --> 00:13:37,468 Авраам Линкольн понял, что оставалось добавить ещё один ингредиент. 307 00:13:37,468 --> 00:13:40,366 Он сказал: « Я твёрдо верю в людей. 308 00:13:40,366 --> 00:13:42,699 Если сообщать им правду, на них можно рассчитывать 309 00:13:42,699 --> 00:13:45,068 в любом национальном кризисе. 310 00:13:45,068 --> 00:13:47,852 Очень важный момент — предоставлять им сухие факты». 311 00:13:47,852 --> 00:13:50,962 И вот оптимистическая нота — важный момент, на котором я закончу. 312 00:13:50,962 --> 00:13:54,107 Сухие факты об эре новых машин становятся ясными, 313 00:13:54,107 --> 00:13:56,564 и у меня есть полная уверенность, что мы используем их, 314 00:13:56,564 --> 00:13:59,479 чтобы наметить хороший путь прохождения трудностей 315 00:13:59,479 --> 00:14:02,012 избыточной экономики, которую мы создаём. 316 00:14:02,012 --> 00:14:03,703 Спасибо большое. 317 00:14:03,703 --> 00:14:08,085 (Аплодисменты)