1 00:00:00,792 --> 00:00:03,059 Каждый день, каждую неделю, 2 00:00:03,083 --> 00:00:05,268 мы соглашаемся c положениями и условиями. 3 00:00:05,292 --> 00:00:06,768 Делая такой шаг, 4 00:00:06,792 --> 00:00:09,268 мы предоставляем компаниям законное право 5 00:00:09,292 --> 00:00:12,220 делать всё, что они хотят с нашими данными 6 00:00:12,750 --> 00:00:15,375 и данными наших детей. 7 00:00:16,792 --> 00:00:19,768 Что заставляет нас задуматься: 8 00:00:19,792 --> 00:00:22,684 какое количество данных о детях мы предоставляем, 9 00:00:22,708 --> 00:00:24,708 и какие последствия это за собой повлечёт? 10 00:00:26,500 --> 00:00:27,893 Я антрополог, 11 00:00:27,917 --> 00:00:30,518 а также мать двух маленьких девочек. 12 00:00:30,542 --> 00:00:35,018 В 2015 году я начала интересоваться этим вопросом 13 00:00:35,042 --> 00:00:37,768 и внезапно осознала, что существует огромное, 14 00:00:37,792 --> 00:00:40,809 почти невообразимое количество 15 00:00:40,833 --> 00:00:44,000 собираемых о детях данных. 16 00:00:44,620 --> 00:00:46,768 Поэтому я запустила исследовательский проект 17 00:00:46,792 --> 00:00:49,268 под названием Child Data Citizen 18 00:00:49,292 --> 00:00:51,417 и намерена заполнить эту пустоту. 19 00:00:52,583 --> 00:00:55,601 Возможно, вы подумаете, что я пришла сюда обвинять вас 20 00:00:55,625 --> 00:00:58,393 в публикации фотографий ваших детей в социальных сетях, 21 00:00:58,417 --> 00:01:00,559 но дело не в этом. 22 00:01:00,583 --> 00:01:04,000 Проблема намного шире, чем так называемое «делительство». 23 00:01:05,561 --> 00:01:08,893 Она носит системный характер, а не индивидуальный. 24 00:01:08,917 --> 00:01:11,208 Вы и ваши привычки не виноваты. 25 00:01:12,833 --> 00:01:15,684 Впервые в истории 26 00:01:15,708 --> 00:01:18,268 мы отслеживаем личные данные детей 27 00:01:18,292 --> 00:01:20,059 задолго до их рождения, 28 00:01:20,083 --> 00:01:22,768 иногда — с момента зачатия, 29 00:01:22,792 --> 00:01:25,143 а в дальнейшем — на протяжении жизни. 30 00:01:25,167 --> 00:01:28,268 Понимаете, когда родители решают зачать ребенка, 31 00:01:28,292 --> 00:01:31,268 они идут в интернет, чтобы посмотреть «способы забеременеть», 32 00:01:31,292 --> 00:01:34,042 или скачивают приложения для отслеживания овуляции. 33 00:01:35,250 --> 00:01:37,851 Забеременев, 34 00:01:37,875 --> 00:01:41,018 они публикуют фото УЗИ своих детей в социальных сетях, 35 00:01:41,042 --> 00:01:43,555 скачивают приложения для отслеживания беременности, 36 00:01:43,555 --> 00:01:46,809 или консультируются с доктором Гуглом по всем вопросам, 37 00:01:46,833 --> 00:01:48,005 например таким: 38 00:01:48,005 --> 00:01:50,955 «риск выкидыша при полёте» 39 00:01:50,955 --> 00:01:53,645 или «спазмы в животе при беременности». 40 00:01:53,785 --> 00:01:55,559 Я знаю, сама прошла через это, 41 00:01:55,583 --> 00:01:57,208 и не раз. 42 00:01:58,285 --> 00:02:01,495 После рождения ребёнка, они отслеживают каждый его сон, 43 00:02:01,495 --> 00:02:02,559 каждое кормление, 44 00:02:02,583 --> 00:02:05,167 каждое событие жизни, используя различные технологии. 45 00:02:06,083 --> 00:02:07,559 И все эти технологии 46 00:02:07,583 --> 00:02:13,726 превращают личные данные о здоровье и поведении ребёнка в прибыль, 47 00:02:13,750 --> 00:02:15,542 когда ими делятся с другими. 48 00:02:16,583 --> 00:02:18,726 Проиллюстрирую, как это работает. 49 00:02:18,750 --> 00:02:21,317 В 2019 году Британский медицинский журнал 50 00:02:21,317 --> 00:02:23,958 опубликовал исследование, показавшее, 51 00:02:23,958 --> 00:02:27,601 что 19 из 24 мобильных приложений для здоровья 52 00:02:27,625 --> 00:02:31,083 поделились информацией с третьими сторонами. 53 00:02:32,083 --> 00:02:34,887 И эти третьи стороны поделились ей 54 00:02:34,887 --> 00:02:38,875 с ещё 216 организациями. 55 00:02:38,875 --> 00:02:42,309 Из этих 216 организаций 56 00:02:42,333 --> 00:02:45,400 только треть принадлежали к сектору здравоохранения. 57 00:02:45,400 --> 00:02:48,147 Другими компаниями, получившими доступ к данным, 58 00:02:48,147 --> 00:02:50,042 были технологические гиганты 59 00:02:50,042 --> 00:02:53,559 вроде Google, Facebook или Oracle, 60 00:02:53,583 --> 00:02:56,184 среди них были рекламные, 61 00:02:56,208 --> 00:03:00,333 а также кредитные агентства. 62 00:03:01,125 --> 00:03:02,559 Итак, вы поняли верно: 63 00:03:02,583 --> 00:03:05,302 рекламные и кредитные агентства, 64 00:03:05,302 --> 00:03:08,486 возможно, уже владеют данными о детях. 65 00:03:09,125 --> 00:03:11,893 Но мобильные приложения, поисковики и социальные сети 66 00:03:11,917 --> 00:03:15,018 лишь верхушка айсберга, 67 00:03:15,042 --> 00:03:18,027 так как в повседневной жизни за детьми наблюдают многочисленные 68 00:03:18,027 --> 00:03:19,643 устройства и приложения. 69 00:03:19,667 --> 00:03:23,520 В домах деятельность детей отслеживают виртуальные помощники и бытовая техника. 70 00:03:23,520 --> 00:03:25,809 В школах это делается при помощи 71 00:03:25,833 --> 00:03:28,018 образовательных платформ и технологий. 72 00:03:28,042 --> 00:03:29,643 В кабинете врача их отслеживают 73 00:03:29,667 --> 00:03:31,942 по онлайн-записям и онлайн-порталам. 74 00:03:31,942 --> 00:03:35,182 За ними следят при помощи их игрушек, подключённых к интернету, 75 00:03:35,182 --> 00:03:36,393 онлайн-игр, 76 00:03:36,417 --> 00:03:39,083 и множества других технологий. 77 00:03:40,250 --> 00:03:41,893 За время исследования 78 00:03:41,917 --> 00:03:45,359 ко мне обращались многие родители и спрашивали: «Ну и что? 79 00:03:45,463 --> 00:03:49,000 Разве то, что мои дети отслеживаются, имеет какое-то значение? 80 00:03:50,042 --> 00:03:51,375 Нам скрывать нечего». 81 00:03:52,958 --> 00:03:54,458 Да, это имеет значение. 82 00:03:55,083 --> 00:04:01,101 Это имеет значение, потому что сегодня за людьми не только следят, 83 00:04:01,125 --> 00:04:05,226 но и анализируют их данные на основе оставленного ими информационного следа. 84 00:04:05,250 --> 00:04:09,059 Искусственный интеллект и прогнозная аналитика используются, 85 00:04:09,083 --> 00:04:12,726 чтобы собрать как можно больше данных о жизни человека 86 00:04:12,750 --> 00:04:14,601 из разных источников: 87 00:04:14,625 --> 00:04:19,143 семейной истории, покупательских привычек, комментариев в социальных сетях. 88 00:04:19,167 --> 00:04:21,018 А потом они объединяют эти данные, 89 00:04:21,042 --> 00:04:23,792 чтобы принимать решения на основе данных о личности. 90 00:04:24,792 --> 00:04:28,104 И эти технологии используются везде. 91 00:04:28,250 --> 00:04:30,643 Банки используют их при выдаче кредита. 92 00:04:30,667 --> 00:04:33,654 Страховые компании — для определения размера страховых взносов. 93 00:04:34,208 --> 00:04:36,684 Рекрутеры и работодатели используют их, 94 00:04:36,708 --> 00:04:39,625 чтобы решить, кто лучше подходит для работы. 95 00:04:40,750 --> 00:04:43,851 Полиция и суды также применяют их, 96 00:04:43,875 --> 00:04:47,393 чтобы определить, кто является потенциальным преступником 97 00:04:47,417 --> 00:04:50,042 или кто вновь совершит преступление. 98 00:04:52,458 --> 00:04:56,518 Мы не знаем и не контролируем 99 00:04:56,542 --> 00:04:58,314 способы, которыми те, кто покупают, 100 00:04:58,314 --> 00:05:00,208 продают и обрабатывают наши данные, 101 00:05:00,208 --> 00:05:02,917 составляют психологические профили наших детей и наши. 102 00:05:03,625 --> 00:05:07,667 Но эти профили могут существенно повлиять на наши права. 103 00:05:08,917 --> 00:05:11,125 Например, 104 00:05:13,792 --> 00:05:17,851 в 2018 году газета «Нью-Йорк Таймс» опубликовала новость о том, 105 00:05:17,875 --> 00:05:20,101 что собранные с помощью онлайн-сервисов 106 00:05:20,135 --> 00:05:22,934 данные о поступлении в колледжи, 107 00:05:22,958 --> 00:05:27,684 которые в США заполняются миллионами школьников 108 00:05:27,708 --> 00:05:31,351 при поиске программы колледжа или стипендии, 109 00:05:31,375 --> 00:05:34,417 были проданы брокерам в сфере образовательных услуг. 110 00:05:35,792 --> 00:05:41,226 Исследователи из Фордхэма, изучавшие данные образовательных брокеров, 111 00:05:41,250 --> 00:05:46,476 раскрыли, как эти компании профилируют детей в возрасте всего двух лет 112 00:05:46,500 --> 00:05:49,559 на основе разных категорий: 113 00:05:49,583 --> 00:05:53,768 этнической принадлежности, религии, достатка, 114 00:05:53,792 --> 00:05:55,851 социальной неуверенности в себе 115 00:05:55,875 --> 00:05:58,809 и многих других произвольно взятых категорий. 116 00:05:58,833 --> 00:06:03,851 А потом эти компании продают эти профили вместе с именем ребёнка, 117 00:06:03,875 --> 00:06:06,684 их домашним адресом и контактными данными 118 00:06:06,708 --> 00:06:08,559 различным организациям, 119 00:06:08,583 --> 00:06:11,018 включая торговые и карьерные учреждения, 120 00:06:11,018 --> 00:06:13,238 банки, предоставляющие студенческие кредиты 121 00:06:13,238 --> 00:06:16,028 и компании, выпускающие кредитные карты для студентов. 122 00:06:16,542 --> 00:06:17,893 Чтобы расширить границы, 123 00:06:17,917 --> 00:06:21,726 исследователи из Фордхэма попросили брокера образовательных данных 124 00:06:21,750 --> 00:06:27,559 предоставить им список девушек в возрасте 14–15 лет, 125 00:06:27,583 --> 00:06:30,958 интересовавшихся услугами по планированию семьи. 126 00:06:32,058 --> 00:06:34,684 И торговец данными согласился предоставить такой список. 127 00:06:34,708 --> 00:06:39,583 А теперь представьте, насколько глубоко они внедрены в жизнь наших детей. 128 00:06:40,833 --> 00:06:44,809 Но торговцы данными — лишь один из ста примеров. 129 00:06:44,833 --> 00:06:49,518 Правда в том, что наши дети отслеживаются так, что мы не можем это контролировать, 130 00:06:49,542 --> 00:06:52,958 и это может значительно повлиять на их возможности в жизни. 131 00:06:54,167 --> 00:06:57,643 Поэтому мы должны спросить самих себя: 132 00:06:57,667 --> 00:07:00,119 можем ли мы доверять этим технологиям, 133 00:07:00,119 --> 00:07:02,375 когда речь идёт об отслеживании наших детей? 134 00:07:02,375 --> 00:07:03,625 Можем ли? 135 00:07:05,708 --> 00:07:06,958 Мой ответ — нет. 136 00:07:07,792 --> 00:07:09,059 Как антрополог 137 00:07:09,083 --> 00:07:12,851 я верю, что искуственный интеллект и прогнозная аналитика могут быть полезны 138 00:07:12,875 --> 00:07:14,893 в предсказывании течения болезни 139 00:07:14,917 --> 00:07:16,750 или в борьбе с изменением климата. 140 00:07:18,000 --> 00:07:19,759 Но мы должны отказаться от убеждения, 141 00:07:19,759 --> 00:07:23,351 что эти технологии могут составить объективный психологический профиль, 142 00:07:23,375 --> 00:07:27,089 и мы не можем на них полагаться, чтобы принимать решения на основе данных 143 00:07:27,089 --> 00:07:28,476 об отдельных жизнях. 144 00:07:28,500 --> 00:07:31,059 Потому что они на это не способны. 145 00:07:31,083 --> 00:07:34,434 Наш информационный след не являются отражением того, кто мы есть. 146 00:07:34,458 --> 00:07:36,559 Люди думают об одном, а говорят о другом, 147 00:07:36,583 --> 00:07:39,018 чувствуют одно, а действуют по-другому. 148 00:07:39,042 --> 00:07:41,518 Алгоритмические прогнозы или наша цифровая практика 149 00:07:41,542 --> 00:07:46,708 не могут объяснить непредсказуемость и сложность человеческого опыта. 150 00:07:48,417 --> 00:07:49,976 Но вдобавок ко всему, 151 00:07:50,000 --> 00:07:52,684 эти технологии всегда, 152 00:07:52,708 --> 00:07:53,976 так или иначе, 153 00:07:54,000 --> 00:07:55,917 необъективны. 154 00:07:57,125 --> 00:08:02,184 Вы знаете, что алгоритмы по определению означают набор правил и шагов, 155 00:08:02,208 --> 00:08:05,917 которые были разработаны для достижения определённого результата? 156 00:08:06,833 --> 00:08:09,559 Но эти наборы правил и шагов не могут быть объективными, 157 00:08:09,583 --> 00:08:11,726 так как они были придуманы человеком 158 00:08:11,750 --> 00:08:13,476 в определённом культурном контексте 159 00:08:13,500 --> 00:08:16,000 и сформированы определёнными культурными ценностями. 160 00:08:16,667 --> 00:08:18,393 Итак, когда машины учатся, 161 00:08:18,417 --> 00:08:20,787 они учатся как с помощью предвзятых алгоритмов, 162 00:08:21,625 --> 00:08:24,833 так и на основе предвзято составленных баз данных. 163 00:08:25,833 --> 00:08:29,559 Сегодня мы видим первые примеры алгоритмической предвзятости. 164 00:08:29,583 --> 00:08:33,083 Некоторые из этих примеров просто ужасны. 165 00:08:34,500 --> 00:08:38,559 В этом году организация AI Now Institute в Нью-Йорке опубликовала отчёт, 166 00:08:38,583 --> 00:08:40,976 в котором говорится, что технологии ИИ, 167 00:08:41,000 --> 00:08:44,476 используемые для прогнозирования полицейской деятельности, 168 00:08:44,500 --> 00:08:47,625 были обучены на «грязных» данных. 169 00:08:48,333 --> 00:08:51,226 В основном это данные, собранные 170 00:08:51,250 --> 00:08:55,434 в течение исторических периодов, известных расовыми предрассудками 171 00:08:55,458 --> 00:08:57,708 и непрозрачными действиями полиции. 172 00:08:58,542 --> 00:09:02,601 Из-за того, что эти технологии разрабатывались на основе грязных данных, 173 00:09:02,625 --> 00:09:04,059 они необъективны, 174 00:09:04,083 --> 00:09:08,601 и их результаты только усиливают и дополняют 175 00:09:08,625 --> 00:09:10,250 необъективность и ошибки полиции. 176 00:09:13,167 --> 00:09:16,309 Я думаю, мы столкнулись с фундаментальной проблемой 177 00:09:16,333 --> 00:09:17,976 нашего общества. 178 00:09:18,000 --> 00:09:22,792 Мы начинаем доверять технологиям, когда речь идёт о профилировании людей. 179 00:09:23,750 --> 00:09:26,268 Мы знаем, что при профилировании людей 180 00:09:26,292 --> 00:09:29,101 эти технологии всегда будут предвзятыми 181 00:09:29,125 --> 00:09:31,381 и никогда не будут точными. 182 00:09:31,381 --> 00:09:34,809 Поэтому нам сейчас нужно политическое решение данного вопроса. 183 00:09:34,833 --> 00:09:37,456 Нам нужно, чтобы правительства признали, 184 00:09:37,456 --> 00:09:40,292 что права на данные — наши права человека. 185 00:09:40,292 --> 00:09:44,375 (Аплодисменты) 186 00:09:47,833 --> 00:09:51,917 Пока этого не произойдет, мы не можем надеяться на более справедливое будущее. 187 00:09:52,750 --> 00:09:55,476 Я волнуюсь из-за того, что мои дочери будут подвергаться 188 00:09:55,500 --> 00:09:59,226 всевозможной алгоритмической дискриминации и ошибкам. 189 00:09:59,250 --> 00:10:01,643 Разница между мной и моими дочерями в том, 190 00:10:01,667 --> 00:10:04,851 что нет публичных записей моего детства. 191 00:10:04,875 --> 00:10:08,893 Точно нет никакой базы данных обо всех глупостях, которые я совершила, 192 00:10:08,917 --> 00:10:11,109 или о которых помышляла, когда была подростком. 193 00:10:11,113 --> 00:10:12,583 (Смех) 194 00:10:13,833 --> 00:10:16,583 Но у моих дочерей всё может сложиться по-другому. 195 00:10:17,292 --> 00:10:20,476 Информация, собранная о них сегодня 196 00:10:20,500 --> 00:10:24,309 может быть использована для их оценки в будущем, 197 00:10:24,333 --> 00:10:27,292 и может помешать реализации их надежд и целей. 198 00:10:28,374 --> 00:10:29,634 Я думаю, время пришло. 199 00:10:29,634 --> 00:10:31,874 Время, чтобы мы все сделали шаг вперед. 200 00:10:31,874 --> 00:10:34,059 Пришло время, чтобы мы начали работать вместе 201 00:10:34,083 --> 00:10:35,518 как отдельные люди, 202 00:10:35,542 --> 00:10:38,059 как организации и как институты, 203 00:10:38,083 --> 00:10:41,184 мы требуем большей справедливости в отношении данных для нас 204 00:10:41,208 --> 00:10:42,601 и наших детей, 205 00:10:42,625 --> 00:10:44,143 пока не стало слишком поздно. 206 00:10:44,167 --> 00:10:45,434 Благодарю вас. 207 00:10:45,458 --> 00:10:46,875 (Аплодисменты)