Return to Video

Что знают технологические компании о ваших детях?

  • 0:01 - 0:03
    Каждый день, каждую неделю,
  • 0:03 - 0:05
    мы соглашаемся c положениями и условиями.
  • 0:05 - 0:07
    Делая такой шаг,
  • 0:07 - 0:09
    мы предоставляем компаниям законное право
  • 0:09 - 0:12
    делать всё, что они хотят с нашими данными
  • 0:13 - 0:15
    и данными наших детей.
  • 0:17 - 0:20
    Что заставляет нас задуматься:
  • 0:20 - 0:23
    какое количество данных о детях
    мы предоставляем,
  • 0:23 - 0:25
    и какие последствия это за собой повлечёт?
  • 0:26 - 0:28
    Я антрополог,
  • 0:28 - 0:31
    а также мать двух маленьких девочек.
  • 0:31 - 0:35
    В 2015 году я начала
    интересоваться этим вопросом
  • 0:35 - 0:38
    и внезапно осознала,
    что существует огромное,
  • 0:38 - 0:41
    почти невообразимое количество
  • 0:41 - 0:44
    собираемых о детях данных.
  • 0:45 - 0:47
    Поэтому я запустила
    исследовательский проект
  • 0:47 - 0:49
    под названием Child Data Citizen
  • 0:49 - 0:51
    и намерена заполнить эту пустоту.
  • 0:53 - 0:56
    Возможно, вы подумаете,
    что я пришла сюда обвинять вас
  • 0:56 - 0:58
    в публикации фотографий ваших детей
    в социальных сетях,
  • 0:58 - 1:01
    но дело не в этом.
  • 1:01 - 1:04
    Проблема намного шире,
    чем так называемое «делительство».
  • 1:06 - 1:09
    Она носит системный характер,
    а не индивидуальный.
  • 1:09 - 1:11
    Вы и ваши привычки не виноваты.
  • 1:13 - 1:16
    Впервые в истории
  • 1:16 - 1:18
    мы отслеживаем личные данные детей
  • 1:18 - 1:20
    задолго до их рождения,
  • 1:20 - 1:23
    иногда — с момента зачатия,
  • 1:23 - 1:25
    а в дальнейшем — на протяжении жизни.
  • 1:25 - 1:28
    Понимаете, когда родители
    решают зачать ребенка,
  • 1:28 - 1:31
    они идут в интернет,
    чтобы посмотреть «способы забеременеть»,
  • 1:31 - 1:34
    или скачивают приложения
    для отслеживания овуляции.
  • 1:35 - 1:38
    Забеременев,
  • 1:38 - 1:41
    они публикуют фото УЗИ своих детей
    в социальных сетях,
  • 1:41 - 1:44
    скачивают приложения для
    отслеживания беременности,
  • 1:44 - 1:47
    или консультируются с доктором Гуглом
    по всем вопросам,
  • 1:47 - 1:48
    например таким:
  • 1:48 - 1:51
    «риск выкидыша при полёте»
  • 1:51 - 1:54
    или «спазмы в животе при беременности».
  • 1:54 - 1:56
    Я знаю, сама прошла через это,
  • 1:56 - 1:57
    и не раз.
  • 1:58 - 2:01
    После рождения ребёнка,
    они отслеживают каждый его сон,
  • 2:01 - 2:03
    каждое кормление,
  • 2:03 - 2:05
    каждое событие жизни,
    используя различные технологии.
  • 2:06 - 2:08
    И все эти технологии
  • 2:08 - 2:14
    превращают личные данные
    о здоровье и поведении ребёнка в прибыль,
  • 2:14 - 2:16
    когда ими делятся с другими.
  • 2:17 - 2:19
    Проиллюстрирую, как это работает.
  • 2:19 - 2:21
    В 2019 году Британский медицинский журнал
  • 2:21 - 2:24
    опубликовал исследование, показавшее,
  • 2:24 - 2:28
    что 19 из 24 мобильных приложений
    для здоровья
  • 2:28 - 2:31
    поделились информацией
    с третьими сторонами.
  • 2:32 - 2:35
    И эти третьи стороны поделились ей
  • 2:35 - 2:39
    с ещё 216 организациями.
  • 2:39 - 2:42
    Из этих 216 организаций
  • 2:42 - 2:45
    только треть принадлежали
    к сектору здравоохранения.
  • 2:45 - 2:48
    Другими компаниями,
    получившими доступ к данным,
  • 2:48 - 2:50
    были технологические гиганты
  • 2:50 - 2:54
    вроде Google, Facebook или Oracle,
  • 2:54 - 2:56
    среди них были рекламные,
  • 2:56 - 3:00
    а также кредитные агентства.
  • 3:01 - 3:03
    Итак, вы поняли верно:
  • 3:03 - 3:05
    рекламные и кредитные агентства,
  • 3:05 - 3:08
    возможно, уже владеют данными о детях.
  • 3:09 - 3:12
    Но мобильные приложения,
    поисковики и социальные сети
  • 3:12 - 3:15
    лишь верхушка айсберга,
  • 3:15 - 3:18
    так как в повседневной жизни
    за детьми наблюдают многочисленные
  • 3:18 - 3:20
    устройства и приложения.
  • 3:20 - 3:24
    В домах деятельность детей отслеживают
    виртуальные помощники и бытовая техника.
  • 3:24 - 3:26
    В школах это делается при помощи
  • 3:26 - 3:28
    образовательных платформ и технологий.
  • 3:28 - 3:30
    В кабинете врача их отслеживают
  • 3:30 - 3:32
    по онлайн-записям и онлайн-порталам.
  • 3:32 - 3:35
    За ними следят при помощи их игрушек,
    подключённых к интернету,
  • 3:35 - 3:36
    онлайн-игр,
  • 3:36 - 3:39
    и множества других технологий.
  • 3:40 - 3:42
    За время исследования
  • 3:42 - 3:45
    ко мне обращались многие родители
    и спрашивали: «Ну и что?
  • 3:45 - 3:49
    Разве то, что мои дети отслеживаются,
    имеет какое-то значение?
  • 3:50 - 3:51
    Нам скрывать нечего».
  • 3:53 - 3:54
    Да, это имеет значение.
  • 3:55 - 4:01
    Это имеет значение, потому что сегодня
    за людьми не только следят,
  • 4:01 - 4:05
    но и анализируют их данные на основе
    оставленного ими информационного следа.
  • 4:05 - 4:09
    Искусственный интеллект
    и прогнозная аналитика используются,
  • 4:09 - 4:13
    чтобы собрать как можно больше данных
    о жизни человека
  • 4:13 - 4:15
    из разных источников:
  • 4:15 - 4:19
    семейной истории, покупательских привычек,
    комментариев в социальных сетях.
  • 4:19 - 4:21
    А потом они объединяют эти данные,
  • 4:21 - 4:24
    чтобы принимать решения
    на основе данных о личности.
  • 4:25 - 4:28
    И эти технологии используются везде.
  • 4:28 - 4:31
    Банки используют их при выдаче кредита.
  • 4:31 - 4:34
    Страховые компании —
    для определения размера страховых взносов.
  • 4:34 - 4:37
    Рекрутеры и работодатели используют их,
  • 4:37 - 4:40
    чтобы решить,
    кто лучше подходит для работы.
  • 4:41 - 4:44
    Полиция и суды также применяют их,
  • 4:44 - 4:47
    чтобы определить,
    кто является потенциальным преступником
  • 4:47 - 4:50
    или кто вновь совершит преступление.
  • 4:52 - 4:57
    Мы не знаем и не контролируем
  • 4:57 - 4:58
    способы, которыми те, кто покупают,
  • 4:58 - 5:00
    продают и обрабатывают наши данные,
  • 5:00 - 5:03
    составляют психологические профили
    наших детей и наши.
  • 5:04 - 5:08
    Но эти профили могут существенно
    повлиять на наши права.
  • 5:09 - 5:11
    Например,
  • 5:14 - 5:18
    в 2018 году газета «Нью-Йорк Таймс»
    опубликовала новость о том,
  • 5:18 - 5:20
    что собранные с помощью онлайн-сервисов
  • 5:20 - 5:23

    данные о поступлении в колледжи,
  • 5:23 - 5:28
    которые в США заполняются
    миллионами школьников
  • 5:28 - 5:31
    при поиске программы колледжа
    или стипендии,
  • 5:31 - 5:34
    были проданы брокерам
    в сфере образовательных услуг.
  • 5:36 - 5:41
    Исследователи из Фордхэма,
    изучавшие данные образовательных брокеров,
  • 5:41 - 5:46
    раскрыли, как эти компании профилируют
    детей в возрасте всего двух лет
  • 5:46 - 5:50
    на основе разных категорий:
  • 5:50 - 5:54
    этнической принадлежности,
    религии, достатка,
  • 5:54 - 5:56
    социальной неуверенности в себе
  • 5:56 - 5:59
    и многих других
    произвольно взятых категорий.
  • 5:59 - 6:04
    А потом эти компании продают
    эти профили вместе с именем ребёнка,
  • 6:04 - 6:07
    их домашним адресом и контактными данными
  • 6:07 - 6:09
    различным организациям,
  • 6:09 - 6:11
    включая торговые и карьерные учреждения,
  • 6:11 - 6:13
    банки, предоставляющие
    студенческие кредиты
  • 6:13 - 6:16
    и компании, выпускающие
    кредитные карты для студентов.
  • 6:17 - 6:18
    Чтобы расширить границы,
  • 6:18 - 6:22
    исследователи из Фордхэма попросили
    брокера образовательных данных
  • 6:22 - 6:28
    предоставить им список девушек
    в возрасте 14–15 лет,
  • 6:28 - 6:31
    интересовавшихся услугами
    по планированию семьи.
  • 6:32 - 6:35
    И торговец данными согласился
    предоставить такой список.
  • 6:35 - 6:40
    А теперь представьте, насколько глубоко
    они внедрены в жизнь наших детей.
  • 6:41 - 6:45
    Но торговцы данными —
    лишь один из ста примеров.
  • 6:45 - 6:50
    Правда в том, что наши дети отслеживаются
    так, что мы не можем это контролировать,
  • 6:50 - 6:53
    и это может значительно повлиять
    на их возможности в жизни.
  • 6:54 - 6:58
    Поэтому мы должны спросить самих себя:
  • 6:58 - 7:00
    можем ли мы доверять этим технологиям,
  • 7:00 - 7:02
    когда речь идёт
    об отслеживании наших детей?
  • 7:02 - 7:04
    Можем ли?
  • 7:06 - 7:07
    Мой ответ — нет.
  • 7:08 - 7:09
    Как антрополог
  • 7:09 - 7:13
    я верю, что искуственный интеллект
    и прогнозная аналитика могут быть полезны
  • 7:13 - 7:15
    в предсказывании течения болезни
  • 7:15 - 7:17
    или в борьбе с изменением климата.
  • 7:18 - 7:20
    Но мы должны отказаться от убеждения,
  • 7:20 - 7:23
    что эти технологии могут составить
    объективный психологический профиль,
  • 7:23 - 7:27
    и мы не можем на них полагаться, чтобы
    принимать решения на основе данных
  • 7:27 - 7:28
    об отдельных жизнях.
  • 7:28 - 7:31
    Потому что они на это не способны.
  • 7:31 - 7:34
    Наш информационный след не являются
    отражением того, кто мы есть.
  • 7:34 - 7:37
    Люди думают об одном, а говорят о другом,
  • 7:37 - 7:39
    чувствуют одно, а действуют по-другому.
  • 7:39 - 7:42
    Алгоритмические прогнозы
    или наша цифровая практика
  • 7:42 - 7:47
    не могут объяснить непредсказуемость
    и сложность человеческого опыта.
  • 7:48 - 7:50
    Но вдобавок ко всему,
  • 7:50 - 7:53
    эти технологии всегда,
  • 7:53 - 7:54
    так или иначе,
  • 7:54 - 7:56
    необъективны.
  • 7:57 - 8:02
    Вы знаете, что алгоритмы по определению
    означают набор правил и шагов,
  • 8:02 - 8:06
    которые были разработаны для достижения
    определённого результата?
  • 8:07 - 8:10
    Но эти наборы правил и шагов
    не могут быть объективными,
  • 8:10 - 8:12
    так как они были придуманы человеком
  • 8:12 - 8:13
    в определённом культурном контексте
  • 8:14 - 8:16
    и сформированы определёнными
    культурными ценностями.
  • 8:17 - 8:18
    Итак, когда машины учатся,
  • 8:18 - 8:21
    они учатся как с помощью
    предвзятых алгоритмов,
  • 8:22 - 8:25
    так и на основе
    предвзято составленных баз данных.
  • 8:26 - 8:30
    Сегодня мы видим первые примеры
    алгоритмической предвзятости.
  • 8:30 - 8:33
    Некоторые из этих примеров просто ужасны.
  • 8:34 - 8:39
    В этом году организация AI Now Institute
    в Нью-Йорке опубликовала отчёт,
  • 8:39 - 8:41
    в котором говорится, что технологии ИИ,
  • 8:41 - 8:44
    используемые для прогнозирования
    полицейской деятельности,
  • 8:44 - 8:48
    были обучены на «грязных» данных.
  • 8:48 - 8:51
    В основном это данные, собранные
  • 8:51 - 8:55
    в течение исторических периодов,
    известных расовыми предрассудками
  • 8:55 - 8:58
    и непрозрачными действиями полиции.
  • 8:59 - 9:03
    Из-за того, что эти технологии
    разрабатывались на основе грязных данных,
  • 9:03 - 9:04
    они необъективны,
  • 9:04 - 9:09
    и их результаты только
    усиливают и дополняют
  • 9:09 - 9:10
    необъективность и ошибки полиции.
  • 9:13 - 9:16
    Я думаю, мы столкнулись
    с фундаментальной проблемой
  • 9:16 - 9:18
    нашего общества.
  • 9:18 - 9:23
    Мы начинаем доверять технологиям,
    когда речь идёт о профилировании людей.
  • 9:24 - 9:26
    Мы знаем, что при профилировании людей
  • 9:26 - 9:29
    эти технологии всегда будут предвзятыми
  • 9:29 - 9:31
    и никогда не будут точными.
  • 9:31 - 9:35
    Поэтому нам сейчас нужно политическое
    решение данного вопроса.
  • 9:35 - 9:37
    Нам нужно, чтобы правительства признали,
  • 9:37 - 9:40
    что права на данные — наши права человека.
  • 9:40 - 9:44
    (Аплодисменты)
  • 9:48 - 9:52
    Пока этого не произойдет, мы не можем
    надеяться на более справедливое будущее.
  • 9:53 - 9:55
    Я волнуюсь из-за того,
    что мои дочери будут подвергаться
  • 9:56 - 9:59
    всевозможной алгоритмической
    дискриминации и ошибкам.
  • 9:59 - 10:02
    Разница между мной и моими дочерями в том,
  • 10:02 - 10:05
    что нет публичных записей моего детства.
  • 10:05 - 10:09
    Точно нет никакой базы данных обо всех
    глупостях, которые я совершила,
  • 10:09 - 10:11
    или о которых помышляла,
    когда была подростком.
  • 10:11 - 10:13
    (Смех)
  • 10:14 - 10:17
    Но у моих дочерей
    всё может сложиться по-другому.
  • 10:17 - 10:20
    Информация, собранная о них сегодня
  • 10:20 - 10:24
    может быть использована для
    их оценки в будущем,
  • 10:24 - 10:27
    и может помешать реализации
    их надежд и целей.
  • 10:28 - 10:30
    Я думаю, время пришло.
  • 10:30 - 10:32
    Время, чтобы мы все сделали шаг вперед.
  • 10:32 - 10:34
    Пришло время, чтобы мы начали
    работать вместе
  • 10:34 - 10:36
    как отдельные люди,
  • 10:36 - 10:38
    как организации и как институты,
  • 10:38 - 10:41
    мы требуем большей справедливости
    в отношении данных для нас
  • 10:41 - 10:43
    и наших детей,
  • 10:43 - 10:44
    пока не стало слишком поздно.
  • 10:44 - 10:45
    Благодарю вас.
  • 10:45 - 10:47
    (Аплодисменты)
タイトル:
Что знают технологические компании о ваших детях?
話者:
Вероника Барасси
概説:

Цифровые платформы, которые вы и ваша семья используете каждый день — от онлайн-игр до образовательных приложений и медицинских порталов — могут собирать и продавать данные о ваших детях, — говорит антрополог Вероника Барасси. Делясь своими переворачивающими сознание исследованиями, Барасси призывает родителей пристальнее взглянуть на цифровые пользовательские соглашения, а не слепо принимать их — и требовать защиты, которая гарантирует, что данные детей не будут искажены в будущем.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Russian subtitles

改訂