1 00:00:00,820 --> 00:00:05,096 Рой Прайс — это человек, о котором большинство из вас никогда не слышало, 2 00:00:05,120 --> 00:00:07,616 а он мог быть ответственным 3 00:00:07,640 --> 00:00:14,536 за 22 посредственных минуты вашего времени 19 апреля 2013 года. 4 00:00:14,560 --> 00:00:17,736 Он также мог быть ответственным за 22 весьма развлекательных минуты, 5 00:00:17,760 --> 00:00:20,016 но не для многих из вас. 6 00:00:20,040 --> 00:00:21,936 Всё это ведёт нас к решению, 7 00:00:21,960 --> 00:00:24,140 которое Рой должен был принять три года назад. 8 00:00:24,140 --> 00:00:28,816 Рой Прайс — ответственный менеджер в Amazon Studios. 9 00:00:28,840 --> 00:00:31,856 Это подразделение Amazon по производству телепрограмм. 10 00:00:31,880 --> 00:00:35,136 Ему 47 лет, худощавый, с «ёжиком» на голове, 11 00:00:35,160 --> 00:00:39,976 в Твиттере он описывает себя так: «фильмы, ТВ, технологии, тако». 12 00:00:40,000 --> 00:00:45,176 У Роя Прайса очень ответственная работа, потому что он отвечает 13 00:00:45,200 --> 00:00:49,256 за выбор сериалов, оригинального контента, который будет производить Amazon. 14 00:00:49,280 --> 00:00:51,616 Безусловно, это очень конкурентная среда. 15 00:00:51,640 --> 00:00:54,376 Уже есть столько сериалов, 16 00:00:54,400 --> 00:00:56,576 что Рой не может просто выбрать любой сериал. 17 00:00:56,600 --> 00:01:00,696 Ему нужно находить сериалы, которые действительно очень хороши. 18 00:01:00,720 --> 00:01:03,536 Другими словами, ему нужно находить сериалы, 19 00:01:03,560 --> 00:01:05,936 которые будут на самом правом краю этой кривой. 20 00:01:05,960 --> 00:01:08,616 Эта кривая — распределение рейтингов 21 00:01:08,640 --> 00:01:13,016 порядка 2 500 телесериалов, по данным сайта IMDB. 22 00:01:13,040 --> 00:01:15,936 Рейтинг может быть от 1 до 10, 23 00:01:15,960 --> 00:01:18,936 высота показывает, сколько сериалов получают данный рейтинг. 24 00:01:18,960 --> 00:01:23,656 Если у вашего сериала рейтинг 9 и выше, это победитель. 25 00:01:23,680 --> 00:01:25,496 Ваш сериал в 2% самых успешных. 26 00:01:25,520 --> 00:01:29,416 Это такие сериалы, как «Во все тяжкие», «Игра престолов», «Прослушка», 27 00:01:29,440 --> 00:01:31,736 все они затягивают, 28 00:01:31,760 --> 00:01:34,816 после того, как вы посмотрите сезон, ваш мозг думает: 29 00:01:34,840 --> 00:01:37,016 «Где бы мне достать ещё эпизодов?» 30 00:01:37,040 --> 00:01:38,240 Вот такие сериалы. 31 00:01:38,920 --> 00:01:41,416 Для ясности: на левой стороне 32 00:01:41,440 --> 00:01:44,616 у нас сериал «Коронованные детки», 33 00:01:44,640 --> 00:01:47,296 (Смех) 34 00:01:47,320 --> 00:01:48,856 и это должно сказать достаточно 35 00:01:48,880 --> 00:01:51,071 о том, что происходит на левом краю кривой. 36 00:01:51,095 --> 00:01:55,256 Рой Прайс не боится попасть на левый край, 37 00:01:55,280 --> 00:01:58,216 потому что нужны серьёзные мыслительные способности, 38 00:01:58,240 --> 00:01:59,936 чтобы обойти «Коронованных деток». 39 00:01:59,960 --> 00:02:03,896 О чём он волновался, так это о средней части этой кривой, 40 00:02:03,920 --> 00:02:05,736 там где находятся средние сериалы, 41 00:02:05,760 --> 00:02:08,616 сериалы, которые не хороши и не плохи, 42 00:02:08,639 --> 00:02:10,295 которые никого не будоражат. 43 00:02:10,320 --> 00:02:15,176 Рою нужно непременно попасть на правый край. 44 00:02:15,200 --> 00:02:16,776 Давление нарастает, 45 00:02:16,800 --> 00:02:18,976 и, конечно, это первый раз, 46 00:02:19,000 --> 00:02:21,176 когда Amazon делает что-то подобное, 47 00:02:21,200 --> 00:02:24,536 поэтому Рой Прайс не хочет рисковать. 48 00:02:24,560 --> 00:02:27,016 Он хочет сделать успешное шоу. 49 00:02:27,040 --> 00:02:28,816 Ему нужен гарантированный успех, 50 00:02:28,840 --> 00:02:31,416 поэтому он проводит соревнование. 51 00:02:31,440 --> 00:02:34,576 Он берёт несколько идей для сериалов, 52 00:02:34,600 --> 00:02:36,896 из которых затем с помощью оценки 53 00:02:36,920 --> 00:02:41,016 они выбирают восемь кандидатов для сериала, 54 00:02:41,040 --> 00:02:44,256 а потом снимают первый эпизод для каждого из этих сериалов 55 00:02:44,280 --> 00:02:47,416 и выкладывают их онлайн бесплатно, чтобы все могли посмотреть. 56 00:02:47,440 --> 00:02:49,696 Когда Amazon бесплатно раздаёт что-то, 57 00:02:49,720 --> 00:02:51,256 мы, конечно, берём, правда? 58 00:02:51,280 --> 00:02:56,416 Миллионы зрителей смотрят эти эпизоды. 59 00:02:56,440 --> 00:02:59,656 Но они не осознают, что пока они смотрят сериалы, 60 00:02:59,680 --> 00:03:01,976 на самом деле наблюдают за ними. 61 00:03:02,000 --> 00:03:04,336 За ними наблюдает Рой Прайс и его команда, 62 00:03:04,360 --> 00:03:05,736 они записывают всё. 63 00:03:05,760 --> 00:03:09,136 Записывают, когда кто-то нажал «Воспроизвести», «Пауза», 64 00:03:09,160 --> 00:03:11,696 какие части они пропускают, какие — пересматривают. 65 00:03:11,720 --> 00:03:13,976 Они собирают миллионы ориентиров, 66 00:03:14,000 --> 00:03:16,096 потому что они хотят иметь эти данные, 67 00:03:16,120 --> 00:03:18,816 чтобы на их основе решить, какой сериал снимать. 68 00:03:18,840 --> 00:03:21,016 Закономерно, что они собирают данные, 69 00:03:21,040 --> 00:03:23,616 обрабатывают их и получают ответ, 70 00:03:23,640 --> 00:03:24,856 и ответ таков: 71 00:03:24,880 --> 00:03:30,416 «Amazon должна снять ситком о четырёх сенаторах-республиканцах». 72 00:03:30,440 --> 00:03:31,656 Они его сняли. 73 00:03:31,680 --> 00:03:33,840 Кто-нибудь знает, как он называется? 74 00:03:34,720 --> 00:03:36,016 (Зал: «Альфа-дом») 75 00:03:36,040 --> 00:03:37,496 Да, «Альфа-дом», 76 00:03:37,520 --> 00:03:41,616 но, похоже, немногие из вас помнят этот сериал, 77 00:03:41,640 --> 00:03:43,496 потому что он не был таким классным. 78 00:03:43,520 --> 00:03:45,376 На самом деле это средний сериал, 79 00:03:45,400 --> 00:03:49,976 буквально средний, потому что средняя цифра на этой кривой — 7.4, 80 00:03:50,000 --> 00:03:52,416 а у «Альфа-дома» рейтинг 7.5, 81 00:03:52,440 --> 00:03:54,456 чуть-чуть выше среднего сериала, 82 00:03:54,480 --> 00:03:57,400 но это явно не то, к чему Рой Прайс и его команда стремились. 83 00:03:58,320 --> 00:04:01,176 А между тем примерно в то же время 84 00:04:01,200 --> 00:04:02,776 другая компания, 85 00:04:02,800 --> 00:04:07,016 другой менеджер умудрился сделать топовый сериал, используя анализ данных. 86 00:04:07,040 --> 00:04:08,616 Его зовут Тед, 87 00:04:08,640 --> 00:04:12,056 Тед Сарандос, программный директор в Netflix, 88 00:04:12,080 --> 00:04:14,216 и, как и Рой, он постоянно работает над тем, 89 00:04:14,240 --> 00:04:15,736 чтобы найти отличный сериал, 90 00:04:15,760 --> 00:04:17,776 и он также использует для этого данные, 91 00:04:17,800 --> 00:04:19,815 но делает это немного по-другому. 92 00:04:19,839 --> 00:04:23,576 Вместо того, чтобы проводить соревнование, он — и его команда, конечно, — 93 00:04:23,600 --> 00:04:27,136 посмотрели на данные, которые уже имелись о зрителях Netflix: 94 00:04:27,160 --> 00:04:29,256 оценки, которые зрители ставили сериалам, 95 00:04:29,280 --> 00:04:31,976 история просмотров, какие сериалы нравятся и так далее. 96 00:04:32,000 --> 00:04:33,896 Они использовали эти данные, 97 00:04:33,920 --> 00:04:36,536 чтобы выяснить мелочи и детали об аудитории: 98 00:04:36,560 --> 00:04:38,016 какие сериалы им нравятся, 99 00:04:38,040 --> 00:04:40,136 какие продюсеры, какие актёры. 100 00:04:40,160 --> 00:04:42,736 Когда они собрали эти данные вместе, 101 00:04:42,760 --> 00:04:44,416 они совершили решительный шаг, 102 00:04:44,440 --> 00:04:46,536 они решили сделать 103 00:04:46,560 --> 00:04:49,016 не ситком о четырёх сенаторах, 104 00:04:49,040 --> 00:04:51,920 а драму об одном сенаторе. 105 00:04:52,760 --> 00:04:54,416 Вы, ребята, знаете этот сериал? 106 00:04:54,440 --> 00:04:55,736 (Смех) 107 00:04:55,760 --> 00:04:59,496 Да, «Карточный домик», и Netflix отлично справился с этим сериалом, 108 00:04:59,520 --> 00:05:01,656 по крайней мере, с первыми двумя сезонами. 109 00:05:01,680 --> 00:05:05,656 (Смех) (Аплодисменты) 110 00:05:05,680 --> 00:05:08,856 У «Карточного домика» рейтинг 9.1 по этой кривой, 111 00:05:08,880 --> 00:05:12,056 именно такой, какой они хотели. 112 00:05:12,080 --> 00:05:14,496 Само собой, вопрос в том, что произошло? 113 00:05:14,520 --> 00:05:17,176 Две конкурентоспособные, понимающие в данных компании. 114 00:05:17,200 --> 00:05:20,056 Они собирают миллионы индикаторов, 115 00:05:20,080 --> 00:05:22,456 которые отлично работают для одной из них 116 00:05:22,480 --> 00:05:24,336 и совсем не работают для другой. 117 00:05:24,360 --> 00:05:25,576 Почему? 118 00:05:25,600 --> 00:05:29,056 Логика подсказывает нам, что это должно было сработать в обоих случаях. 119 00:05:29,080 --> 00:05:31,536 В смысле, если вы собираете миллионы индикаторов 120 00:05:31,560 --> 00:05:33,546 для решения, которое собираетесь принять, 121 00:05:33,570 --> 00:05:35,960 то вы должны принять очень хорошее решение. 122 00:05:35,960 --> 00:05:38,176 У вас есть статистика за 200 лет. 123 00:05:38,200 --> 00:05:41,216 Вы анализируете данные с помощью очень мощных компьютеров. 124 00:05:41,240 --> 00:05:44,520 Как минимум, вы можете ожидать хорошего сериала, да? 125 00:05:45,880 --> 00:05:48,600 И если анализ данных не работает, 126 00:05:49,520 --> 00:05:51,576 то это даже страшновато, 127 00:05:51,600 --> 00:05:55,416 потому что мы живём во время, когда мы всё больше работаем с данными 128 00:05:55,440 --> 00:05:59,920 для принятия серьёзных решений, которые выходят далеко за рамки ТВ. 129 00:06:00,760 --> 00:06:04,000 Кто-нибудь знает компанию Multi-Health Systems? 130 00:06:05,080 --> 00:06:06,736 Никто. Это даже хорошо. 131 00:06:06,760 --> 00:06:09,976 Multi-Health Systems — это компания-разработчик, 132 00:06:10,000 --> 00:06:12,816 и я надеюсь, никто в этом зале 133 00:06:12,840 --> 00:06:16,016 никогда не столкнётся с их ПО, 134 00:06:16,040 --> 00:06:18,336 потому что если столкнётесь, значит, вы в тюрьме. 135 00:06:18,336 --> 00:06:19,336 (Смех) 136 00:06:19,360 --> 00:06:22,896 Если в США заключённый просит о досрочном освобождении, 137 00:06:22,920 --> 00:06:27,216 весьма вероятно, что будет использован анализ данных от этой компании, 138 00:06:27,240 --> 00:06:30,856 чтобы решить, стоит ли его предоставить. 139 00:06:30,880 --> 00:06:33,456 Это то же самый принцип, как у Amazon и Netflix, 140 00:06:33,480 --> 00:06:38,096 только вместо того, чтобы решать, будет ли сериал хорошим или плохим, 141 00:06:38,120 --> 00:06:41,016 вы решаете, будет ли человек хорошим или плохим. 142 00:06:41,040 --> 00:06:46,536 Средненькая серия на 22 минуты — да, это может быть не очень хорошо, 143 00:06:46,560 --> 00:06:49,200 но больше лет в тюрьме — это много хуже. 144 00:06:50,360 --> 00:06:54,496 К сожалению, есть доказательства, что такой анализ данных, 145 00:06:54,520 --> 00:06:58,736 несмотря на огромное количество данных, не всегда выдаёт оптимальные результаты. 146 00:06:58,760 --> 00:07:01,482 Это не потому, что компании вроде Multi-Health Systems 147 00:07:01,506 --> 00:07:03,133 не знают, что делать с данными. 148 00:07:03,158 --> 00:07:05,586 Даже самые понимающие в данных компании ошибаются. 149 00:07:05,586 --> 00:07:07,880 Да, даже Google иногда ошибается. 150 00:07:08,680 --> 00:07:13,176 В 2009 году Google заявил, что благодаря анализу данных они могут 151 00:07:13,200 --> 00:07:17,336 предсказать эпидемию гриппа, 152 00:07:17,360 --> 00:07:21,136 основываясь на анализе поисковых запросов. 153 00:07:21,160 --> 00:07:24,940 Это отлично работало, это вызвало резонанс в новостях, 154 00:07:24,940 --> 00:07:27,496 включая максимальный успех для научного исследования — 155 00:07:27,496 --> 00:07:29,896 публикацию в журнале Nature. 156 00:07:29,896 --> 00:07:33,296 Это отлично работало год за годом, год за годом, 157 00:07:33,320 --> 00:07:34,976 пока однажды не провалилось. 158 00:07:35,000 --> 00:07:37,256 Никто не может точно сказать почему. 159 00:07:37,280 --> 00:07:38,976 Это просто не сработало в том году; 160 00:07:39,000 --> 00:07:40,936 конечно, снова был резонанс в новостях, 161 00:07:40,984 --> 00:07:45,350 включая отзы́в статьи из журнала Nature. 162 00:07:46,480 --> 00:07:49,816 Так что даже самые опытные компании, Amazon и Google, 163 00:07:49,840 --> 00:07:51,976 иногда ошибаются. 164 00:07:52,000 --> 00:07:54,936 Но несмотря на эти ошибки, 165 00:07:54,960 --> 00:07:58,816 данные всё больше вовлекаются в ежедневное принятие решений — 166 00:07:58,840 --> 00:08:00,656 в рабочее пространство, 167 00:08:00,680 --> 00:08:02,496 в работу правоохранительных органов, 168 00:08:02,520 --> 00:08:03,720 медицину. 169 00:08:04,400 --> 00:08:07,736 Так что нам бы хорошо убедиться, что данные помогают. 170 00:08:07,760 --> 00:08:10,896 Я лично сталкивался с заминками в работе с данными, 171 00:08:10,920 --> 00:08:12,896 потому что я работаю в вычислительной генетике, 172 00:08:12,920 --> 00:08:15,416 а это сфера, где очень умные люди 173 00:08:15,440 --> 00:08:19,096 используют невообразимые объёмы данных для принятия серьёзных решений, 174 00:08:19,120 --> 00:08:22,680 например, решения о терапии рака или разработки лекарства. 175 00:08:23,520 --> 00:08:25,896 За годы я заметил что-то вроде тенденции 176 00:08:25,920 --> 00:08:28,376 или правила, если хотите, о разнице 177 00:08:28,400 --> 00:08:31,096 между успешным решением, основанным на данных, 178 00:08:31,120 --> 00:08:32,736 и неуспешным решением, 179 00:08:32,760 --> 00:08:36,640 и я думаю, что эта тенденция стоит того, чтобы поделиться ей. Вот она: 180 00:08:38,520 --> 00:08:40,655 когда вы решаете сложную проблему, 181 00:08:40,679 --> 00:08:42,416 вы обязательно делаете две вещи. 182 00:08:42,440 --> 00:08:45,736 Во-первых, вы берёте проблему и раскладываете её на кусочки, 183 00:08:45,760 --> 00:08:48,256 чтобы суметь глубоко проанализировать эти кусочки, 184 00:08:48,280 --> 00:08:50,296 а потом, конечно, вы делаете вторую часть. 185 00:08:50,320 --> 00:08:52,976 Вы собираете эти кусочки в одно целое, 186 00:08:53,000 --> 00:08:54,336 чтобы прийти к решению. 187 00:08:54,360 --> 00:08:56,696 Иногда приходится делать это не раз, 188 00:08:56,720 --> 00:08:58,376 но всегда есть два этапа: 189 00:08:58,400 --> 00:09:00,720 разложить на кусочки и собрать обратно. 190 00:09:02,280 --> 00:09:03,896 Самое важное состоит в том, 191 00:09:03,920 --> 00:09:06,816 что данные и анализ данных 192 00:09:06,840 --> 00:09:09,336 годятся только для первого шага. 193 00:09:09,360 --> 00:09:11,846 Данные и анализ данных, не важно, насколько мощные, 194 00:09:11,846 --> 00:09:16,056 могут помочь только с разделением проблемы на кусочки и пониманием их. 195 00:09:16,080 --> 00:09:19,576 Они не подходят для собирания кусочков в единое целое 196 00:09:19,576 --> 00:09:21,472 и принятия решения. 197 00:09:21,520 --> 00:09:24,556 Для этого существует другой инструмент, который есть у всех нас, — 198 00:09:24,556 --> 00:09:25,576 это наш мозг. 199 00:09:25,600 --> 00:09:27,636 Что мозг умеет делать хорошо — 200 00:09:27,636 --> 00:09:29,816 так это собирать кусочки воедино, 201 00:09:29,840 --> 00:09:31,856 даже в условиях недостаточной информации, 202 00:09:31,880 --> 00:09:33,456 и делать правильные выводы, 203 00:09:33,480 --> 00:09:36,416 особенно если это мозг эксперта. 204 00:09:36,440 --> 00:09:39,096 Я думаю, именно поэтому Netflix получил такой успех — 205 00:09:39,120 --> 00:09:42,696 они использовали и данные, и силу человеческого мозга, где необходимо. 206 00:09:42,720 --> 00:09:46,256 Они использовали данные, чтобы детально понять свою аудиторию, 207 00:09:46,280 --> 00:09:49,696 иначе они не смогли бы сделать такой глубокий анализ, 208 00:09:49,720 --> 00:09:52,446 но их решение, когда пришло время собирать кусочки воедино 209 00:09:52,446 --> 00:09:55,696 и снимать сериал вроде «Карточного домика», 210 00:09:55,720 --> 00:09:57,136 было принято не данными. 211 00:09:57,160 --> 00:10:01,136 Это решение приняли Тед Сарандос и его команда, 212 00:10:01,160 --> 00:10:03,541 что, кстати, означает, 213 00:10:03,565 --> 00:10:06,416 что они лично серьёзно рисковали с этим решением. 214 00:10:06,440 --> 00:10:09,456 С другой стороны, Amazon сделали всё наоборот. 215 00:10:09,480 --> 00:10:12,216 Они использовали данные на обоих этапах принятия решения: 216 00:10:12,240 --> 00:10:14,656 сначала провели соревнование сценариев для сериала, 217 00:10:14,680 --> 00:10:18,376 а затем выбрали «Альфа-дом». 218 00:10:18,400 --> 00:10:20,896 Это, конечно, было весьма безопасное решение для них, 219 00:10:20,920 --> 00:10:23,376 потому что они всегда могли бы сказать: 220 00:10:23,400 --> 00:10:25,096 «Вот что говорят нам данные». 221 00:10:25,120 --> 00:10:29,360 Но это не привело их к выдающемуся результату, к которому они стремились. 222 00:10:30,120 --> 00:10:35,096 Данные — это, безусловно, полезный инструмент для принятия хороших решений, 223 00:10:35,120 --> 00:10:37,496 но я уверен, что неправильно, 224 00:10:37,520 --> 00:10:40,096 когда данные начинают управлять этими решениями. 225 00:10:40,120 --> 00:10:43,896 Вне зависимости от своей силы, данные — это всего лишь инструмент, 226 00:10:43,920 --> 00:10:47,256 учитывая это, я думаю, что вот эта штука очень полезная. 227 00:10:47,280 --> 00:10:48,496 Многие из вас... 228 00:10:48,520 --> 00:10:49,736 (Смех) 229 00:10:49,760 --> 00:10:51,146 До того, как появились данные, 230 00:10:51,146 --> 00:10:53,856 эту штуку использовали для принятия решений. 231 00:10:53,880 --> 00:10:55,136 (Смех) 232 00:10:55,160 --> 00:10:56,496 Многие знают, что это. 233 00:10:56,520 --> 00:10:58,473 Это называется «Шар предсказаний», 234 00:10:58,497 --> 00:10:59,696 он правда классный, 235 00:10:59,720 --> 00:11:02,616 потому что, если вам нужен ответ на вопрос «да или нет», 236 00:11:02,640 --> 00:11:06,376 всё, что нужно сделать, это потрясти шар, и у вас есть ответ — 237 00:11:06,400 --> 00:11:09,216 «Вероятнее всего» — прямо здесь, прямо сейчас. 238 00:11:09,240 --> 00:11:11,336 Вы сможете попробовать попозже. 239 00:11:11,360 --> 00:11:12,576 (Смех) 240 00:11:12,600 --> 00:11:16,176 Я принимал в своей жизни много решений, 241 00:11:16,200 --> 00:11:19,096 в которых, как я сейчас понимаю, лучше было послушаться шара. 242 00:11:19,120 --> 00:11:22,456 Но, конечно, если у вас есть данные, 243 00:11:22,480 --> 00:11:25,536 вы захотите использовать нечто посерьёзнее шара, 244 00:11:25,560 --> 00:11:29,176 вроде анализа данных, чтобы прийти к лучшему решению. 245 00:11:29,200 --> 00:11:31,816 Но это не меняет основной идеи. 246 00:11:31,840 --> 00:11:35,016 Шар может становиться умнее, умнее и умнее, 247 00:11:35,040 --> 00:11:37,856 но принятие решений — всё ещё наша ответственность, 248 00:11:37,880 --> 00:11:40,896 если мы хотим достичь чего-то выдающегося, 249 00:11:40,920 --> 00:11:42,856 попасть в правую часть кривой. 250 00:11:42,880 --> 00:11:47,376 Я нахожу это очень вдохновляющим: 251 00:11:47,400 --> 00:11:51,376 даже перед лицом огромных объёмов данных 252 00:11:51,400 --> 00:11:55,496 всё ещё стоит принимать решения, 253 00:11:55,520 --> 00:11:58,176 быть экспертом в своём деле 254 00:11:58,200 --> 00:12:00,296 и рисковать. 255 00:12:00,320 --> 00:12:03,096 Потому что в конце концов не данные, 256 00:12:03,120 --> 00:12:07,080 а риск приведёт вас в правую часть кривой. 257 00:12:07,840 --> 00:12:09,056 Спасибо. 258 00:12:09,080 --> 00:12:12,760 (Аплодисменты)