Что знают технологические компании о ваших детях?
-
0:01 - 0:03Каждый день, каждую неделю,
-
0:03 - 0:05мы соглашаемся c положениями и условиями.
-
0:05 - 0:07Делая такой шаг,
-
0:07 - 0:09мы предоставляем компаниям законное право
-
0:09 - 0:12делать всё, что они хотят с нашими данными
-
0:13 - 0:15и данными наших детей.
-
0:17 - 0:20Что заставляет нас задуматься:
-
0:20 - 0:23какое количество данных о детях
мы предоставляем, -
0:23 - 0:25и какие последствия это за собой повлечёт?
-
0:26 - 0:28Я антрополог,
-
0:28 - 0:31а также мать двух маленьких девочек.
-
0:31 - 0:35В 2015 году я начала
интересоваться этим вопросом -
0:35 - 0:38и внезапно осознала,
что существует огромное, -
0:38 - 0:41почти невообразимое количество
-
0:41 - 0:44собираемых о детях данных.
-
0:45 - 0:47Поэтому я запустила
исследовательский проект -
0:47 - 0:49под названием Child Data Citizen
-
0:49 - 0:51и намерена заполнить эту пустоту.
-
0:53 - 0:56Возможно, вы подумаете,
что я пришла сюда обвинять вас -
0:56 - 0:58в публикации фотографий ваших детей
в социальных сетях, -
0:58 - 1:01но дело не в этом.
-
1:01 - 1:04Проблема намного шире,
чем так называемое «делительство». -
1:06 - 1:09Она носит системный характер,
а не индивидуальный. -
1:09 - 1:11Вы и ваши привычки не виноваты.
-
1:13 - 1:16Впервые в истории
-
1:16 - 1:18мы отслеживаем личные данные детей
-
1:18 - 1:20задолго до их рождения,
-
1:20 - 1:23иногда — с момента зачатия,
-
1:23 - 1:25а в дальнейшем — на протяжении жизни.
-
1:25 - 1:28Понимаете, когда родители
решают зачать ребенка, -
1:28 - 1:31они идут в интернет,
чтобы посмотреть «способы забеременеть», -
1:31 - 1:34или скачивают приложения
для отслеживания овуляции. -
1:35 - 1:38Забеременев,
-
1:38 - 1:41они публикуют фото УЗИ своих детей
в социальных сетях, -
1:41 - 1:44скачивают приложения для
отслеживания беременности, -
1:44 - 1:47или консультируются с доктором Гуглом
по всем вопросам, -
1:47 - 1:48например таким:
-
1:48 - 1:51«риск выкидыша при полёте»
-
1:51 - 1:54или «спазмы в животе при беременности».
-
1:54 - 1:56Я знаю, сама прошла через это,
-
1:56 - 1:57и не раз.
-
1:58 - 2:01После рождения ребёнка,
они отслеживают каждый его сон, -
2:01 - 2:03каждое кормление,
-
2:03 - 2:05каждое событие жизни,
используя различные технологии. -
2:06 - 2:08И все эти технологии
-
2:08 - 2:14превращают личные данные
о здоровье и поведении ребёнка в прибыль, -
2:14 - 2:16когда ими делятся с другими.
-
2:17 - 2:19Проиллюстрирую, как это работает.
-
2:19 - 2:21В 2019 году Британский медицинский журнал
-
2:21 - 2:24опубликовал исследование, показавшее,
-
2:24 - 2:28что 19 из 24 мобильных приложений
для здоровья -
2:28 - 2:31поделились информацией
с третьими сторонами. -
2:32 - 2:35И эти третьи стороны поделились ей
-
2:35 - 2:39с ещё 216 организациями.
-
2:39 - 2:42Из этих 216 организаций
-
2:42 - 2:45только треть принадлежали
к сектору здравоохранения. -
2:45 - 2:48Другими компаниями,
получившими доступ к данным, -
2:48 - 2:50были технологические гиганты
-
2:50 - 2:54вроде Google, Facebook или Oracle,
-
2:54 - 2:56среди них были рекламные,
-
2:56 - 3:00а также кредитные агентства.
-
3:01 - 3:03Итак, вы поняли верно:
-
3:03 - 3:05рекламные и кредитные агентства,
-
3:05 - 3:08возможно, уже владеют данными о детях.
-
3:09 - 3:12Но мобильные приложения,
поисковики и социальные сети -
3:12 - 3:15лишь верхушка айсберга,
-
3:15 - 3:18так как в повседневной жизни
за детьми наблюдают многочисленные -
3:18 - 3:20устройства и приложения.
-
3:20 - 3:24В домах деятельность детей отслеживают
виртуальные помощники и бытовая техника. -
3:24 - 3:26В школах это делается при помощи
-
3:26 - 3:28образовательных платформ и технологий.
-
3:28 - 3:30В кабинете врача их отслеживают
-
3:30 - 3:32по онлайн-записям и онлайн-порталам.
-
3:32 - 3:35За ними следят при помощи их игрушек,
подключённых к интернету, -
3:35 - 3:36онлайн-игр,
-
3:36 - 3:39и множества других технологий.
-
3:40 - 3:42За время исследования
-
3:42 - 3:45ко мне обращались многие родители
и спрашивали: «Ну и что? -
3:45 - 3:49Разве то, что мои дети отслеживаются,
имеет какое-то значение? -
3:50 - 3:51Нам скрывать нечего».
-
3:53 - 3:54Да, это имеет значение.
-
3:55 - 4:01Это имеет значение, потому что сегодня
за людьми не только следят, -
4:01 - 4:05но и анализируют их данные на основе
оставленного ими информационного следа. -
4:05 - 4:09Искусственный интеллект
и прогнозная аналитика используются, -
4:09 - 4:13чтобы собрать как можно больше данных
о жизни человека -
4:13 - 4:15из разных источников:
-
4:15 - 4:19семейной истории, покупательских привычек,
комментариев в социальных сетях. -
4:19 - 4:21А потом они объединяют эти данные,
-
4:21 - 4:24чтобы принимать решения
на основе данных о личности. -
4:25 - 4:28И эти технологии используются везде.
-
4:28 - 4:31Банки используют их при выдаче кредита.
-
4:31 - 4:34Страховые компании —
для определения размера страховых взносов. -
4:34 - 4:37Рекрутеры и работодатели используют их,
-
4:37 - 4:40чтобы решить,
кто лучше подходит для работы. -
4:41 - 4:44Полиция и суды также применяют их,
-
4:44 - 4:47чтобы определить,
кто является потенциальным преступником -
4:47 - 4:50или кто вновь совершит преступление.
-
4:52 - 4:57Мы не знаем и не контролируем
-
4:57 - 4:58способы, которыми те, кто покупают,
-
4:58 - 5:00продают и обрабатывают наши данные,
-
5:00 - 5:03составляют психологические профили
наших детей и наши. -
5:04 - 5:08Но эти профили могут существенно
повлиять на наши права. -
5:09 - 5:11Например,
-
5:14 - 5:18в 2018 году газета «Нью-Йорк Таймс»
опубликовала новость о том, -
5:18 - 5:20что собранные с помощью онлайн-сервисов
-
5:20 - 5:23
данные о поступлении в колледжи, -
5:23 - 5:28которые в США заполняются
миллионами школьников -
5:28 - 5:31при поиске программы колледжа
или стипендии, -
5:31 - 5:34были проданы брокерам
в сфере образовательных услуг. -
5:36 - 5:41Исследователи из Фордхэма,
изучавшие данные образовательных брокеров, -
5:41 - 5:46раскрыли, как эти компании профилируют
детей в возрасте всего двух лет -
5:46 - 5:50на основе разных категорий:
-
5:50 - 5:54этнической принадлежности,
религии, достатка, -
5:54 - 5:56социальной неуверенности в себе
-
5:56 - 5:59и многих других
произвольно взятых категорий. -
5:59 - 6:04А потом эти компании продают
эти профили вместе с именем ребёнка, -
6:04 - 6:07их домашним адресом и контактными данными
-
6:07 - 6:09различным организациям,
-
6:09 - 6:11включая торговые и карьерные учреждения,
-
6:11 - 6:13банки, предоставляющие
студенческие кредиты -
6:13 - 6:16и компании, выпускающие
кредитные карты для студентов. -
6:17 - 6:18Чтобы расширить границы,
-
6:18 - 6:22исследователи из Фордхэма попросили
брокера образовательных данных -
6:22 - 6:28предоставить им список девушек
в возрасте 14–15 лет, -
6:28 - 6:31интересовавшихся услугами
по планированию семьи. -
6:32 - 6:35И торговец данными согласился
предоставить такой список. -
6:35 - 6:40А теперь представьте, насколько глубоко
они внедрены в жизнь наших детей. -
6:41 - 6:45Но торговцы данными —
лишь один из ста примеров. -
6:45 - 6:50Правда в том, что наши дети отслеживаются
так, что мы не можем это контролировать, -
6:50 - 6:53и это может значительно повлиять
на их возможности в жизни. -
6:54 - 6:58Поэтому мы должны спросить самих себя:
-
6:58 - 7:00можем ли мы доверять этим технологиям,
-
7:00 - 7:02когда речь идёт
об отслеживании наших детей? -
7:02 - 7:04Можем ли?
-
7:06 - 7:07Мой ответ — нет.
-
7:08 - 7:09Как антрополог
-
7:09 - 7:13я верю, что искуственный интеллект
и прогнозная аналитика могут быть полезны -
7:13 - 7:15в предсказывании течения болезни
-
7:15 - 7:17или в борьбе с изменением климата.
-
7:18 - 7:20Но мы должны отказаться от убеждения,
-
7:20 - 7:23что эти технологии могут составить
объективный психологический профиль, -
7:23 - 7:27и мы не можем на них полагаться, чтобы
принимать решения на основе данных -
7:27 - 7:28об отдельных жизнях.
-
7:28 - 7:31Потому что они на это не способны.
-
7:31 - 7:34Наш информационный след не являются
отражением того, кто мы есть. -
7:34 - 7:37Люди думают об одном, а говорят о другом,
-
7:37 - 7:39чувствуют одно, а действуют по-другому.
-
7:39 - 7:42Алгоритмические прогнозы
или наша цифровая практика -
7:42 - 7:47не могут объяснить непредсказуемость
и сложность человеческого опыта. -
7:48 - 7:50Но вдобавок ко всему,
-
7:50 - 7:53эти технологии всегда,
-
7:53 - 7:54так или иначе,
-
7:54 - 7:56необъективны.
-
7:57 - 8:02Вы знаете, что алгоритмы по определению
означают набор правил и шагов, -
8:02 - 8:06которые были разработаны для достижения
определённого результата? -
8:07 - 8:10Но эти наборы правил и шагов
не могут быть объективными, -
8:10 - 8:12так как они были придуманы человеком
-
8:12 - 8:13в определённом культурном контексте
-
8:14 - 8:16и сформированы определёнными
культурными ценностями. -
8:17 - 8:18Итак, когда машины учатся,
-
8:18 - 8:21они учатся как с помощью
предвзятых алгоритмов, -
8:22 - 8:25так и на основе
предвзято составленных баз данных. -
8:26 - 8:30Сегодня мы видим первые примеры
алгоритмической предвзятости. -
8:30 - 8:33Некоторые из этих примеров просто ужасны.
-
8:34 - 8:39В этом году организация AI Now Institute
в Нью-Йорке опубликовала отчёт, -
8:39 - 8:41в котором говорится, что технологии ИИ,
-
8:41 - 8:44используемые для прогнозирования
полицейской деятельности, -
8:44 - 8:48были обучены на «грязных» данных.
-
8:48 - 8:51В основном это данные, собранные
-
8:51 - 8:55в течение исторических периодов,
известных расовыми предрассудками -
8:55 - 8:58и непрозрачными действиями полиции.
-
8:59 - 9:03Из-за того, что эти технологии
разрабатывались на основе грязных данных, -
9:03 - 9:04они необъективны,
-
9:04 - 9:09и их результаты только
усиливают и дополняют -
9:09 - 9:10необъективность и ошибки полиции.
-
9:13 - 9:16Я думаю, мы столкнулись
с фундаментальной проблемой -
9:16 - 9:18нашего общества.
-
9:18 - 9:23Мы начинаем доверять технологиям,
когда речь идёт о профилировании людей. -
9:24 - 9:26Мы знаем, что при профилировании людей
-
9:26 - 9:29эти технологии всегда будут предвзятыми
-
9:29 - 9:31и никогда не будут точными.
-
9:31 - 9:35Поэтому нам сейчас нужно политическое
решение данного вопроса. -
9:35 - 9:37Нам нужно, чтобы правительства признали,
-
9:37 - 9:40что права на данные — наши права человека.
-
9:40 - 9:44(Аплодисменты)
-
9:48 - 9:52Пока этого не произойдет, мы не можем
надеяться на более справедливое будущее. -
9:53 - 9:55Я волнуюсь из-за того,
что мои дочери будут подвергаться -
9:56 - 9:59всевозможной алгоритмической
дискриминации и ошибкам. -
9:59 - 10:02Разница между мной и моими дочерями в том,
-
10:02 - 10:05что нет публичных записей моего детства.
-
10:05 - 10:09Точно нет никакой базы данных обо всех
глупостях, которые я совершила, -
10:09 - 10:11или о которых помышляла,
когда была подростком. -
10:11 - 10:13(Смех)
-
10:14 - 10:17Но у моих дочерей
всё может сложиться по-другому. -
10:17 - 10:20Информация, собранная о них сегодня
-
10:20 - 10:24может быть использована для
их оценки в будущем, -
10:24 - 10:27и может помешать реализации
их надежд и целей. -
10:28 - 10:30Я думаю, время пришло.
-
10:30 - 10:32Время, чтобы мы все сделали шаг вперед.
-
10:32 - 10:34Пришло время, чтобы мы начали
работать вместе -
10:34 - 10:36как отдельные люди,
-
10:36 - 10:38как организации и как институты,
-
10:38 - 10:41мы требуем большей справедливости
в отношении данных для нас -
10:41 - 10:43и наших детей,
-
10:43 - 10:44пока не стало слишком поздно.
-
10:44 - 10:45Благодарю вас.
-
10:45 - 10:47(Аплодисменты)
- Title:
- Что знают технологические компании о ваших детях?
- Speaker:
- Вероника Барасси
- Description:
-
Цифровые платформы, которые вы и ваша семья используете каждый день — от онлайн-игр до образовательных приложений и медицинских порталов — могут собирать и продавать данные о ваших детях, — говорит антрополог Вероника Барасси. Делясь своими переворачивающими сознание исследованиями, Барасси призывает родителей пристальнее взглянуть на цифровые пользовательские соглашения, а не слепо принимать их — и требовать защиты, которая гарантирует, что данные детей не будут искажены в будущем.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Natalia Ost approved Russian subtitles for What tech companies know about your kids | ||
Natalia Ost edited Russian subtitles for What tech companies know about your kids | ||
Anna Zvereva accepted Russian subtitles for What tech companies know about your kids | ||
Anna Zvereva edited Russian subtitles for What tech companies know about your kids | ||
Anna Zvereva edited Russian subtitles for What tech companies know about your kids | ||
Anna Zvereva edited Russian subtitles for What tech companies know about your kids | ||
Retired user rejected Russian subtitles for What tech companies know about your kids | ||
Anastasia Zotova accepted Russian subtitles for What tech companies know about your kids |