WEBVTT 00:00:00.792 --> 00:00:03.059 Каждый день, каждую неделю, 00:00:03.083 --> 00:00:05.268 мы соглашаемся c положениями и условиями. 00:00:05.292 --> 00:00:06.768 Делая такой шаг, 00:00:06.792 --> 00:00:09.268 мы предоставляем компаниям законное право 00:00:09.292 --> 00:00:12.220 делать всё, что они хотят с нашими данными 00:00:12.750 --> 00:00:15.375 и данными наших детей. 00:00:16.792 --> 00:00:19.768 Что заставляет нас задуматься: 00:00:19.792 --> 00:00:22.684 какое количество данных о детях мы предоставляем, 00:00:22.708 --> 00:00:24.708 и какие последствия это за собой повлечёт? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 Я антрополог, 00:00:27.917 --> 00:00:30.518 а также мать двух маленьких девочек. 00:00:30.542 --> 00:00:35.018 В 2015 году я начала интересоваться этим вопросом 00:00:35.042 --> 00:00:37.768 и внезапно осознала, что существует огромное, 00:00:37.792 --> 00:00:40.809 почти невообразимое количество 00:00:40.833 --> 00:00:44.000 собираемых о детях данных. 00:00:44.620 --> 00:00:46.768 Поэтому я запустила исследовательский проект 00:00:46.792 --> 00:00:49.268 под названием Child Data Citizen 00:00:49.292 --> 00:00:51.417 и намерена заполнить эту пустоту. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 Возможно, вы подумаете, что я пришла сюда обвинять вас 00:00:55.625 --> 00:00:58.393 в публикации фотографий ваших детей в социальных сетях, 00:00:58.417 --> 00:01:00.559 но дело не в этом. 00:01:00.583 --> 00:01:04.000 Проблема намного шире, чем так называемое «делительство». 00:01:05.561 --> 00:01:08.893 Она носит системный характер, а не индивидуальный. 00:01:08.917 --> 00:01:11.208 Вы и ваши привычки не виноваты. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 Впервые в истории 00:01:15.708 --> 00:01:18.268 мы отслеживаем личные данные детей 00:01:18.292 --> 00:01:20.059 задолго до их рождения, 00:01:20.083 --> 00:01:22.768 иногда — с момента зачатия, 00:01:22.792 --> 00:01:25.143 а в дальнейшем — на протяжении жизни. 00:01:25.167 --> 00:01:28.268 Понимаете, когда родители решают зачать ребенка, 00:01:28.292 --> 00:01:31.268 они идут в интернет, чтобы посмотреть «способы забеременеть», 00:01:31.292 --> 00:01:34.042 или скачивают приложения для отслеживания овуляции. 00:01:35.250 --> 00:01:37.851 Забеременев, 00:01:37.875 --> 00:01:41.018 они публикуют фото УЗИ своих детей в социальных сетях, 00:01:41.042 --> 00:01:43.555 скачивают приложения для отслеживания беременности, 00:01:43.555 --> 00:01:46.809 или консультируются с доктором Гуглом по всем вопросам, 00:01:46.833 --> 00:01:48.005 например таким: 00:01:48.005 --> 00:01:50.955 «риск выкидыша при полёте» 00:01:50.955 --> 00:01:53.645 или «спазмы в животе при беременности». 00:01:53.785 --> 00:01:55.559 Я знаю, сама прошла через это, 00:01:55.583 --> 00:01:57.208 и не раз. 00:01:58.285 --> 00:02:01.495 После рождения ребёнка, они отслеживают каждый его сон, 00:02:01.495 --> 00:02:02.559 каждое кормление, 00:02:02.583 --> 00:02:05.167 каждое событие жизни, используя различные технологии. 00:02:06.083 --> 00:02:07.559 И все эти технологии 00:02:07.583 --> 00:02:13.726 превращают личные данные о здоровье и поведении ребёнка в прибыль, 00:02:13.750 --> 00:02:15.542 когда ими делятся с другими. NOTE Paragraph 00:02:16.583 --> 00:02:18.726 Проиллюстрирую, как это работает. 00:02:18.750 --> 00:02:21.317 В 2019 году Британский медицинский журнал 00:02:21.317 --> 00:02:23.958 опубликовал исследование, показавшее, 00:02:23.958 --> 00:02:27.601 что 19 из 24 мобильных приложений для здоровья 00:02:27.625 --> 00:02:31.083 поделились информацией с третьими сторонами. 00:02:32.083 --> 00:02:34.887 И эти третьи стороны поделились ей 00:02:34.887 --> 00:02:38.875 с ещё 216 организациями. 00:02:38.875 --> 00:02:42.309 Из этих 216 организаций 00:02:42.333 --> 00:02:45.400 только треть принадлежали к сектору здравоохранения. 00:02:45.400 --> 00:02:48.147 Другими компаниями, получившими доступ к данным, 00:02:48.147 --> 00:02:50.042 были технологические гиганты 00:02:50.042 --> 00:02:53.559 вроде Google, Facebook или Oracle, 00:02:53.583 --> 00:02:56.184 среди них были рекламные, 00:02:56.208 --> 00:03:00.333 а также кредитные агентства. 00:03:01.125 --> 00:03:02.559 Итак, вы поняли верно: 00:03:02.583 --> 00:03:05.302 рекламные и кредитные агентства, 00:03:05.302 --> 00:03:08.486 возможно, уже владеют данными о детях. 00:03:09.125 --> 00:03:11.893 Но мобильные приложения, поисковики и социальные сети 00:03:11.917 --> 00:03:15.018 лишь верхушка айсберга, 00:03:15.042 --> 00:03:18.027 так как в повседневной жизни за детьми наблюдают многочисленные 00:03:18.027 --> 00:03:19.643 устройства и приложения. 00:03:19.667 --> 00:03:23.520 В домах деятельность детей отслеживают виртуальные помощники и бытовая техника. 00:03:23.520 --> 00:03:25.809 В школах это делается при помощи 00:03:25.833 --> 00:03:28.018 образовательных платформ и технологий. 00:03:28.042 --> 00:03:29.643 В кабинете врача их отслеживают 00:03:29.667 --> 00:03:31.942 по онлайн-записям и онлайн-порталам. 00:03:31.942 --> 00:03:35.182 За ними следят при помощи их игрушек, подключённых к интернету, 00:03:35.182 --> 00:03:36.393 онлайн-игр, 00:03:36.417 --> 00:03:39.083 и множества других технологий. NOTE Paragraph 00:03:40.250 --> 00:03:41.893 За время исследования 00:03:41.917 --> 00:03:45.359 ко мне обращались многие родители и спрашивали: «Ну и что? 00:03:45.463 --> 00:03:49.000 Разве то, что мои дети отслеживаются, имеет какое-то значение? 00:03:50.042 --> 00:03:51.375 Нам скрывать нечего». 00:03:52.958 --> 00:03:54.458 Да, это имеет значение. 00:03:55.083 --> 00:04:01.101 Это имеет значение, потому что сегодня за людьми не только следят, 00:04:01.125 --> 00:04:05.226 но и анализируют их данные на основе оставленного ими информационного следа. 00:04:05.250 --> 00:04:09.059 Искусственный интеллект и прогнозная аналитика используются, 00:04:09.083 --> 00:04:12.726 чтобы собрать как можно больше данных о жизни человека 00:04:12.750 --> 00:04:14.601 из разных источников: 00:04:14.625 --> 00:04:19.143 семейной истории, покупательских привычек, комментариев в социальных сетях. 00:04:19.167 --> 00:04:21.018 А потом они объединяют эти данные, 00:04:21.042 --> 00:04:23.792 чтобы принимать решения на основе данных о личности. 00:04:24.792 --> 00:04:28.104 И эти технологии используются везде. 00:04:28.250 --> 00:04:30.643 Банки используют их при выдаче кредита. 00:04:30.667 --> 00:04:33.654 Страховые компании — для определения размера страховых взносов. 00:04:34.208 --> 00:04:36.684 Рекрутеры и работодатели используют их, 00:04:36.708 --> 00:04:39.625 чтобы решить, кто лучше подходит для работы. 00:04:40.750 --> 00:04:43.851 Полиция и суды также применяют их, 00:04:43.875 --> 00:04:47.393 чтобы определить, кто является потенциальным преступником 00:04:47.417 --> 00:04:50.042 или кто вновь совершит преступление. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 Мы не знаем и не контролируем 00:04:56.542 --> 00:04:58.314 способы, которыми те, кто покупают, 00:04:58.314 --> 00:05:00.208 продают и обрабатывают наши данные, 00:05:00.208 --> 00:05:02.917 составляют психологические профили наших детей и наши. 00:05:03.625 --> 00:05:07.667 Но эти профили могут существенно повлиять на наши права. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 Например, 00:05:13.792 --> 00:05:17.851 в 2018 году газета «Нью-Йорк Таймс» опубликовала новость о том, 00:05:17.875 --> 00:05:20.101 что собранные с помощью онлайн-сервисов 00:05:20.135 --> 00:05:22.934 данные о поступлении в колледжи, 00:05:22.958 --> 00:05:27.684 которые в США заполняются миллионами школьников 00:05:27.708 --> 00:05:31.351 при поиске программы колледжа или стипендии, 00:05:31.375 --> 00:05:34.417 были проданы брокерам в сфере образовательных услуг. 00:05:35.792 --> 00:05:41.226 Исследователи из Фордхэма, изучавшие данные образовательных брокеров, 00:05:41.250 --> 00:05:46.476 раскрыли, как эти компании профилируют детей в возрасте всего двух лет 00:05:46.500 --> 00:05:49.559 на основе разных категорий: 00:05:49.583 --> 00:05:53.768 этнической принадлежности, религии, достатка, 00:05:53.792 --> 00:05:55.851 социальной неуверенности в себе 00:05:55.875 --> 00:05:58.809 и многих других произвольно взятых категорий. 00:05:58.833 --> 00:06:03.851 А потом эти компании продают эти профили вместе с именем ребёнка, 00:06:03.875 --> 00:06:06.684 их домашним адресом и контактными данными 00:06:06.708 --> 00:06:08.559 различным организациям, 00:06:08.583 --> 00:06:11.018 включая торговые и карьерные учреждения, 00:06:11.018 --> 00:06:13.238 банки, предоставляющие студенческие кредиты 00:06:13.238 --> 00:06:16.028 и компании, выпускающие кредитные карты для студентов. 00:06:16.542 --> 00:06:17.893 Чтобы расширить границы, 00:06:17.917 --> 00:06:21.726 исследователи из Фордхэма попросили брокера образовательных данных 00:06:21.750 --> 00:06:27.559 предоставить им список девушек в возрасте 14–15 лет, 00:06:27.583 --> 00:06:30.958 интересовавшихся услугами по планированию семьи. 00:06:32.058 --> 00:06:34.684 И торговец данными согласился предоставить такой список. 00:06:34.708 --> 00:06:39.583 А теперь представьте, насколько глубоко они внедрены в жизнь наших детей. 00:06:40.833 --> 00:06:44.809 Но торговцы данными — лишь один из ста примеров. 00:06:44.833 --> 00:06:49.518 Правда в том, что наши дети отслеживаются так, что мы не можем это контролировать, 00:06:49.542 --> 00:06:52.958 и это может значительно повлиять на их возможности в жизни. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 Поэтому мы должны спросить самих себя: 00:06:57.667 --> 00:07:00.119 можем ли мы доверять этим технологиям, NOTE Paragraph 00:07:00.119 --> 00:07:02.375 когда речь идёт об отслеживании наших детей? 00:07:02.375 --> 00:07:03.625 Можем ли? 00:07:05.708 --> 00:07:06.958 Мой ответ — нет. 00:07:07.792 --> 00:07:09.059 Как антрополог 00:07:09.083 --> 00:07:12.851 я верю, что искуственный интеллект и прогнозная аналитика могут быть полезны 00:07:12.875 --> 00:07:14.893 в предсказывании течения болезни 00:07:14.917 --> 00:07:16.750 или в борьбе с изменением климата. 00:07:18.000 --> 00:07:19.759 Но мы должны отказаться от убеждения, 00:07:19.759 --> 00:07:23.351 что эти технологии могут составить объективный психологический профиль, 00:07:23.375 --> 00:07:27.089 и мы не можем на них полагаться, чтобы принимать решения на основе данных 00:07:27.089 --> 00:07:28.476 об отдельных жизнях. 00:07:28.500 --> 00:07:31.059 Потому что они на это не способны. 00:07:31.083 --> 00:07:34.434 Наш информационный след не являются отражением того, кто мы есть. 00:07:34.458 --> 00:07:36.559 Люди думают об одном, а говорят о другом, 00:07:36.583 --> 00:07:39.018 чувствуют одно, а действуют по-другому. 00:07:39.042 --> 00:07:41.518 Алгоритмические прогнозы или наша цифровая практика 00:07:41.542 --> 00:07:46.708 не могут объяснить непредсказуемость и сложность человеческого опыта. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 Но вдобавок ко всему, 00:07:50.000 --> 00:07:52.684 эти технологии всегда, 00:07:52.708 --> 00:07:53.976 так или иначе, 00:07:54.000 --> 00:07:55.917 необъективны. 00:07:57.125 --> 00:08:02.184 Вы знаете, что алгоритмы по определению означают набор правил и шагов, 00:08:02.208 --> 00:08:05.917 которые были разработаны для достижения определённого результата? 00:08:06.833 --> 00:08:09.559 Но эти наборы правил и шагов не могут быть объективными, 00:08:09.583 --> 00:08:11.726 так как они были придуманы человеком 00:08:11.750 --> 00:08:13.476 в определённом культурном контексте 00:08:13.500 --> 00:08:16.000 и сформированы определёнными культурными ценностями. 00:08:16.667 --> 00:08:18.393 Итак, когда машины учатся, 00:08:18.417 --> 00:08:20.787 они учатся как с помощью предвзятых алгоритмов, 00:08:21.625 --> 00:08:24.833 так и на основе предвзято составленных баз данных. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 Сегодня мы видим первые примеры алгоритмической предвзятости. 00:08:29.583 --> 00:08:33.083 Некоторые из этих примеров просто ужасны. 00:08:34.500 --> 00:08:38.559 В этом году организация AI Now Institute в Нью-Йорке опубликовала отчёт, 00:08:38.583 --> 00:08:40.976 в котором говорится, что технологии ИИ, 00:08:41.000 --> 00:08:44.476 используемые для прогнозирования полицейской деятельности, 00:08:44.500 --> 00:08:47.625 были обучены на «грязных» данных. 00:08:48.333 --> 00:08:51.226 В основном это данные, собранные 00:08:51.250 --> 00:08:55.434 в течение исторических периодов, известных расовыми предрассудками 00:08:55.458 --> 00:08:57.708 и непрозрачными действиями полиции. 00:08:58.542 --> 00:09:02.601 Из-за того, что эти технологии разрабатывались на основе грязных данных, 00:09:02.625 --> 00:09:04.059 они необъективны, 00:09:04.083 --> 00:09:08.601 и их результаты только усиливают и дополняют 00:09:08.625 --> 00:09:10.250 необъективность и ошибки полиции. NOTE Paragraph 00:09:13.167 --> 00:09:16.309 Я думаю, мы столкнулись с фундаментальной проблемой 00:09:16.333 --> 00:09:17.976 нашего общества. 00:09:18.000 --> 00:09:22.792 Мы начинаем доверять технологиям, когда речь идёт о профилировании людей. 00:09:23.750 --> 00:09:26.268 Мы знаем, что при профилировании людей 00:09:26.292 --> 00:09:29.101 эти технологии всегда будут предвзятыми 00:09:29.125 --> 00:09:31.381 и никогда не будут точными. 00:09:31.381 --> 00:09:34.809 Поэтому нам сейчас нужно политическое решение данного вопроса. 00:09:34.833 --> 00:09:37.456 Нам нужно, чтобы правительства признали, 00:09:37.456 --> 00:09:40.292 что права на данные — наши права человека. NOTE Paragraph 00:09:40.292 --> 00:09:44.375 (Аплодисменты) NOTE Paragraph 00:09:47.833 --> 00:09:51.917 Пока этого не произойдет, мы не можем надеяться на более справедливое будущее. 00:09:52.750 --> 00:09:55.476 Я волнуюсь из-за того, что мои дочери будут подвергаться 00:09:55.500 --> 00:09:59.226 всевозможной алгоритмической дискриминации и ошибкам. 00:09:59.250 --> 00:10:01.643 Разница между мной и моими дочерями в том, 00:10:01.667 --> 00:10:04.851 что нет публичных записей моего детства. 00:10:04.875 --> 00:10:08.893 Точно нет никакой базы данных обо всех глупостях, которые я совершила, 00:10:08.917 --> 00:10:11.109 или о которых помышляла, когда была подростком. NOTE Paragraph 00:10:11.113 --> 00:10:12.583 (Смех) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 Но у моих дочерей всё может сложиться по-другому. 00:10:17.292 --> 00:10:20.476 Информация, собранная о них сегодня 00:10:20.500 --> 00:10:24.309 может быть использована для их оценки в будущем, 00:10:24.333 --> 00:10:27.292 и может помешать реализации их надежд и целей. NOTE Paragraph 00:10:28.374 --> 00:10:29.634 Я думаю, время пришло. 00:10:29.634 --> 00:10:31.874 Время, чтобы мы все сделали шаг вперед. 00:10:31.874 --> 00:10:34.059 Пришло время, чтобы мы начали работать вместе 00:10:34.083 --> 00:10:35.518 как отдельные люди, 00:10:35.542 --> 00:10:38.059 как организации и как институты, 00:10:38.083 --> 00:10:41.184 мы требуем большей справедливости в отношении данных для нас 00:10:41.208 --> 00:10:42.601 и наших детей, 00:10:42.625 --> 00:10:44.143 пока не стало слишком поздно. NOTE Paragraph 00:10:44.167 --> 00:10:45.434 Благодарю вас. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (Аплодисменты)