0:00:00.792,0:00:03.059 Каждый день, каждую неделю, 0:00:03.083,0:00:05.268 мы соглашаемся c положениями и условиями. 0:00:05.292,0:00:06.768 Делая такой шаг, 0:00:06.792,0:00:09.268 мы предоставляем компаниям законное право 0:00:09.292,0:00:12.220 делать всё, что они хотят с нашими данными 0:00:12.750,0:00:15.375 и данными наших детей. 0:00:16.792,0:00:19.768 Что заставляет нас задуматься: 0:00:19.792,0:00:22.684 какое количество данных о детях[br]мы предоставляем, 0:00:22.708,0:00:24.708 и какие последствия это за собой повлечёт? 0:00:26.500,0:00:27.893 Я антрополог, 0:00:27.917,0:00:30.518 а также мать двух маленьких девочек. 0:00:30.542,0:00:35.018 В 2015 году я начала[br]интересоваться этим вопросом 0:00:35.042,0:00:37.768 и внезапно осознала,[br]что существует огромное, 0:00:37.792,0:00:40.809 почти невообразимое количество 0:00:40.833,0:00:44.000 собираемых о детях данных. 0:00:44.620,0:00:46.768 Поэтому я запустила[br]исследовательский проект 0:00:46.792,0:00:49.268 под названием Child Data Citizen 0:00:49.292,0:00:51.417 и намерена заполнить эту пустоту. 0:00:52.583,0:00:55.601 Возможно, вы подумаете,[br]что я пришла сюда обвинять вас 0:00:55.625,0:00:58.393 в публикации фотографий ваших детей[br]в социальных сетях, 0:00:58.417,0:01:00.559 но дело не в этом. 0:01:00.583,0:01:04.000 Проблема намного шире,[br]чем так называемое «делительство». 0:01:05.561,0:01:08.893 Она носит системный характер,[br]а не индивидуальный. 0:01:08.917,0:01:11.208 Вы и ваши привычки не виноваты. 0:01:12.833,0:01:15.684 Впервые в истории 0:01:15.708,0:01:18.268 мы отслеживаем личные данные детей 0:01:18.292,0:01:20.059 задолго до их рождения, 0:01:20.083,0:01:22.768 иногда — с момента зачатия, 0:01:22.792,0:01:25.143 а в дальнейшем — на протяжении жизни. 0:01:25.167,0:01:28.268 Понимаете, когда родители[br]решают зачать ребенка, 0:01:28.292,0:01:31.268 они идут в интернет,[br]чтобы посмотреть «способы забеременеть», 0:01:31.292,0:01:34.042 или скачивают приложения [br]для отслеживания овуляции. 0:01:35.250,0:01:37.851 Забеременев, 0:01:37.875,0:01:41.018 они публикуют фото УЗИ своих детей [br]в социальных сетях, 0:01:41.042,0:01:43.555 скачивают приложения для [br]отслеживания беременности, 0:01:43.555,0:01:46.809 или консультируются с доктором Гуглом[br]по всем вопросам, 0:01:46.833,0:01:48.005 например таким: 0:01:48.005,0:01:50.955 «риск выкидыша при полёте» 0:01:50.955,0:01:53.645 или «спазмы в животе при беременности». 0:01:53.785,0:01:55.559 Я знаю, сама прошла через это, 0:01:55.583,0:01:57.208 и не раз. 0:01:58.285,0:02:01.495 После рождения ребёнка,[br]они отслеживают каждый его сон, 0:02:01.495,0:02:02.559 каждое кормление, 0:02:02.583,0:02:05.167 каждое событие жизни,[br]используя различные технологии. 0:02:06.083,0:02:07.559 И все эти технологии 0:02:07.583,0:02:13.726 превращают личные данные [br]о здоровье и поведении ребёнка в прибыль, 0:02:13.750,0:02:15.542 когда ими делятся с другими. 0:02:16.583,0:02:18.726 Проиллюстрирую, как это работает. 0:02:18.750,0:02:21.317 В 2019 году Британский медицинский журнал 0:02:21.317,0:02:23.958 опубликовал исследование, показавшее, 0:02:23.958,0:02:27.601 что 19 из 24 мобильных приложений [br]для здоровья 0:02:27.625,0:02:31.083 поделились информацией [br]с третьими сторонами. 0:02:32.083,0:02:34.887 И эти третьи стороны поделились ей 0:02:34.887,0:02:38.875 с ещё 216 организациями. 0:02:38.875,0:02:42.309 Из этих 216 организаций 0:02:42.333,0:02:45.400 только треть принадлежали[br]к сектору здравоохранения. 0:02:45.400,0:02:48.147 Другими компаниями,[br]получившими доступ к данным, 0:02:48.147,0:02:50.042 были технологические гиганты 0:02:50.042,0:02:53.559 вроде Google, Facebook или Oracle, 0:02:53.583,0:02:56.184 среди них были рекламные, 0:02:56.208,0:03:00.333 а также кредитные агентства. 0:03:01.125,0:03:02.559 Итак, вы поняли верно: 0:03:02.583,0:03:05.302 рекламные и кредитные агентства, 0:03:05.302,0:03:08.486 возможно, уже владеют данными о детях. 0:03:09.125,0:03:11.893 Но мобильные приложения,[br]поисковики и социальные сети 0:03:11.917,0:03:15.018 лишь верхушка айсберга, 0:03:15.042,0:03:18.027 так как в повседневной жизни[br]за детьми наблюдают многочисленные 0:03:18.027,0:03:19.643 устройства и приложения. 0:03:19.667,0:03:23.520 В домах деятельность детей отслеживают[br]виртуальные помощники и бытовая техника. 0:03:23.520,0:03:25.809 В школах это делается при помощи 0:03:25.833,0:03:28.018 образовательных платформ и технологий. 0:03:28.042,0:03:29.643 В кабинете врача их отслеживают 0:03:29.667,0:03:31.942 по онлайн-записям и онлайн-порталам. 0:03:31.942,0:03:35.182 За ними следят при помощи их игрушек, [br]подключённых к интернету, 0:03:35.182,0:03:36.393 онлайн-игр, 0:03:36.417,0:03:39.083 и множества других технологий. 0:03:40.250,0:03:41.893 За время исследования 0:03:41.917,0:03:45.359 ко мне обращались многие родители[br]и спрашивали: «Ну и что? 0:03:45.463,0:03:49.000 Разве то, что мои дети отслеживаются,[br]имеет какое-то значение? 0:03:50.042,0:03:51.375 Нам скрывать нечего». 0:03:52.958,0:03:54.458 Да, это имеет значение. 0:03:55.083,0:04:01.101 Это имеет значение, потому что сегодня[br]за людьми не только следят, 0:04:01.125,0:04:05.226 но и анализируют их данные на основе[br]оставленного ими информационного следа. 0:04:05.250,0:04:09.059 Искусственный интеллект[br]и прогнозная аналитика используются, 0:04:09.083,0:04:12.726 чтобы собрать как можно больше данных[br]о жизни человека 0:04:12.750,0:04:14.601 из разных источников: 0:04:14.625,0:04:19.143 семейной истории, покупательских привычек,[br]комментариев в социальных сетях. 0:04:19.167,0:04:21.018 А потом они объединяют эти данные, 0:04:21.042,0:04:23.792 чтобы принимать решения [br]на основе данных о личности. 0:04:24.792,0:04:28.104 И эти технологии используются везде. 0:04:28.250,0:04:30.643 Банки используют их при выдаче кредита. 0:04:30.667,0:04:33.654 Страховые компании —[br]для определения размера страховых взносов. 0:04:34.208,0:04:36.684 Рекрутеры и работодатели используют их, 0:04:36.708,0:04:39.625 чтобы решить, [br]кто лучше подходит для работы. 0:04:40.750,0:04:43.851 Полиция и суды также применяют их, 0:04:43.875,0:04:47.393 чтобы определить, [br]кто является потенциальным преступником 0:04:47.417,0:04:50.042 или кто вновь совершит преступление. 0:04:52.458,0:04:56.518 Мы не знаем и не контролируем 0:04:56.542,0:04:58.314 способы, которыми те, кто покупают, 0:04:58.314,0:05:00.208 продают и обрабатывают наши данные, 0:05:00.208,0:05:02.917 составляют психологические профили[br]наших детей и наши. 0:05:03.625,0:05:07.667 Но эти профили могут существенно [br]повлиять на наши права. 0:05:08.917,0:05:11.125 Например, 0:05:13.792,0:05:17.851 в 2018 году газета «Нью-Йорк Таймс»[br]опубликовала новость о том, 0:05:17.875,0:05:20.101 что собранные с помощью онлайн-сервисов 0:05:20.135,0:05:22.934 [br]данные о поступлении в колледжи, 0:05:22.958,0:05:27.684 которые в США заполняются[br]миллионами школьников 0:05:27.708,0:05:31.351 при поиске программы колледжа[br]или стипендии, 0:05:31.375,0:05:34.417 были проданы брокерам [br]в сфере образовательных услуг. 0:05:35.792,0:05:41.226 Исследователи из Фордхэма,[br]изучавшие данные образовательных брокеров, 0:05:41.250,0:05:46.476 раскрыли, как эти компании профилируют [br]детей в возрасте всего двух лет 0:05:46.500,0:05:49.559 на основе разных категорий: 0:05:49.583,0:05:53.768 этнической принадлежности, [br]религии, достатка, 0:05:53.792,0:05:55.851 социальной неуверенности в себе 0:05:55.875,0:05:58.809 и многих других[br]произвольно взятых категорий. 0:05:58.833,0:06:03.851 А потом эти компании продают[br]эти профили вместе с именем ребёнка, 0:06:03.875,0:06:06.684 их домашним адресом и контактными данными 0:06:06.708,0:06:08.559 различным организациям, 0:06:08.583,0:06:11.018 включая торговые и карьерные учреждения, 0:06:11.018,0:06:13.238 банки, предоставляющие [br]студенческие кредиты 0:06:13.238,0:06:16.028 и компании, выпускающие [br]кредитные карты для студентов. 0:06:16.542,0:06:17.893 Чтобы расширить границы, 0:06:17.917,0:06:21.726 исследователи из Фордхэма попросили [br]брокера образовательных данных 0:06:21.750,0:06:27.559 предоставить им список девушек[br]в возрасте 14–15 лет, 0:06:27.583,0:06:30.958 интересовавшихся услугами [br]по планированию семьи. 0:06:32.058,0:06:34.684 И торговец данными согласился[br]предоставить такой список. 0:06:34.708,0:06:39.583 А теперь представьте, насколько глубоко[br]они внедрены в жизнь наших детей. 0:06:40.833,0:06:44.809 Но торговцы данными —[br]лишь один из ста примеров. 0:06:44.833,0:06:49.518 Правда в том, что наши дети отслеживаются[br]так, что мы не можем это контролировать, 0:06:49.542,0:06:52.958 и это может значительно повлиять[br]на их возможности в жизни. 0:06:54.167,0:06:57.643 Поэтому мы должны спросить самих себя: 0:06:57.667,0:07:00.119 можем ли мы доверять этим технологиям, 0:07:00.119,0:07:02.375 когда речь идёт[br]об отслеживании наших детей? 0:07:02.375,0:07:03.625 Можем ли? 0:07:05.708,0:07:06.958 Мой ответ — нет. 0:07:07.792,0:07:09.059 Как антрополог 0:07:09.083,0:07:12.851 я верю, что искуственный интеллект[br]и прогнозная аналитика могут быть полезны 0:07:12.875,0:07:14.893 в предсказывании течения болезни 0:07:14.917,0:07:16.750 или в борьбе с изменением климата. 0:07:18.000,0:07:19.759 Но мы должны отказаться от убеждения, 0:07:19.759,0:07:23.351 что эти технологии могут составить[br]объективный психологический профиль, 0:07:23.375,0:07:27.089 и мы не можем на них полагаться, чтобы[br]принимать решения на основе данных 0:07:27.089,0:07:28.476 об отдельных жизнях. 0:07:28.500,0:07:31.059 Потому что они на это не способны. 0:07:31.083,0:07:34.434 Наш информационный след не являются [br]отражением того, кто мы есть. 0:07:34.458,0:07:36.559 Люди думают об одном, а говорят о другом, 0:07:36.583,0:07:39.018 чувствуют одно, а действуют по-другому. 0:07:39.042,0:07:41.518 Алгоритмические прогнозы [br]или наша цифровая практика 0:07:41.542,0:07:46.708 не могут объяснить непредсказуемость[br]и сложность человеческого опыта. 0:07:48.417,0:07:49.976 Но вдобавок ко всему, 0:07:50.000,0:07:52.684 эти технологии всегда, 0:07:52.708,0:07:53.976 так или иначе, 0:07:54.000,0:07:55.917 необъективны. 0:07:57.125,0:08:02.184 Вы знаете, что алгоритмы по определению[br]означают набор правил и шагов, 0:08:02.208,0:08:05.917 которые были разработаны для достижения[br]определённого результата? 0:08:06.833,0:08:09.559 Но эти наборы правил и шагов [br]не могут быть объективными, 0:08:09.583,0:08:11.726 так как они были придуманы человеком 0:08:11.750,0:08:13.476 в определённом культурном контексте 0:08:13.500,0:08:16.000 и сформированы определёнными [br]культурными ценностями. 0:08:16.667,0:08:18.393 Итак, когда машины учатся, 0:08:18.417,0:08:20.787 они учатся как с помощью[br]предвзятых алгоритмов, 0:08:21.625,0:08:24.833 так и на основе[br]предвзято составленных баз данных. 0:08:25.833,0:08:29.559 Сегодня мы видим первые примеры[br]алгоритмической предвзятости. 0:08:29.583,0:08:33.083 Некоторые из этих примеров просто ужасны. 0:08:34.500,0:08:38.559 В этом году организация AI Now Institute[br]в Нью-Йорке опубликовала отчёт, 0:08:38.583,0:08:40.976 в котором говорится, что технологии ИИ, 0:08:41.000,0:08:44.476 используемые для прогнозирования [br]полицейской деятельности, 0:08:44.500,0:08:47.625 были обучены на «грязных» данных. 0:08:48.333,0:08:51.226 В основном это данные, собранные 0:08:51.250,0:08:55.434 в течение исторических периодов, [br]известных расовыми предрассудками 0:08:55.458,0:08:57.708 и непрозрачными действиями полиции. 0:08:58.542,0:09:02.601 Из-за того, что эти технологии[br]разрабатывались на основе грязных данных, 0:09:02.625,0:09:04.059 они необъективны, 0:09:04.083,0:09:08.601 и их результаты только [br]усиливают и дополняют 0:09:08.625,0:09:10.250 необъективность и ошибки полиции. 0:09:13.167,0:09:16.309 Я думаю, мы столкнулись [br]с фундаментальной проблемой 0:09:16.333,0:09:17.976 нашего общества. 0:09:18.000,0:09:22.792 Мы начинаем доверять технологиям,[br]когда речь идёт о профилировании людей. 0:09:23.750,0:09:26.268 Мы знаем, что при профилировании людей 0:09:26.292,0:09:29.101 эти технологии всегда будут предвзятыми 0:09:29.125,0:09:31.381 и никогда не будут точными. 0:09:31.381,0:09:34.809 Поэтому нам сейчас нужно политическое [br]решение данного вопроса. 0:09:34.833,0:09:37.456 Нам нужно, чтобы правительства признали, 0:09:37.456,0:09:40.292 что права на данные — наши права человека. 0:09:40.292,0:09:44.375 (Аплодисменты) 0:09:47.833,0:09:51.917 Пока этого не произойдет, мы не можем [br]надеяться на более справедливое будущее. 0:09:52.750,0:09:55.476 Я волнуюсь из-за того,[br]что мои дочери будут подвергаться 0:09:55.500,0:09:59.226 всевозможной алгоритмической [br]дискриминации и ошибкам. 0:09:59.250,0:10:01.643 Разница между мной и моими дочерями в том, 0:10:01.667,0:10:04.851 что нет публичных записей моего детства. 0:10:04.875,0:10:08.893 Точно нет никакой базы данных обо всех [br]глупостях, которые я совершила, 0:10:08.917,0:10:11.109 или о которых помышляла,[br]когда была подростком. 0:10:11.113,0:10:12.583 (Смех) 0:10:13.833,0:10:16.583 Но у моих дочерей[br]всё может сложиться по-другому. 0:10:17.292,0:10:20.476 Информация, собранная о них сегодня 0:10:20.500,0:10:24.309 может быть использована для [br]их оценки в будущем, 0:10:24.333,0:10:27.292 и может помешать реализации[br]их надежд и целей. 0:10:28.374,0:10:29.634 Я думаю, время пришло. 0:10:29.634,0:10:31.874 Время, чтобы мы все сделали шаг вперед. 0:10:31.874,0:10:34.059 Пришло время, чтобы мы начали [br]работать вместе 0:10:34.083,0:10:35.518 как отдельные люди, 0:10:35.542,0:10:38.059 как организации и как институты, 0:10:38.083,0:10:41.184 мы требуем большей справедливости [br]в отношении данных для нас 0:10:41.208,0:10:42.601 и наших детей, 0:10:42.625,0:10:44.143 пока не стало слишком поздно. 0:10:44.167,0:10:45.434 Благодарю вас. 0:10:45.458,0:10:46.875 (Аплодисменты)