Russian subtitles

← Что знают технологические компании о ваших детях?

Get Embed Code
36 Languages

Showing Revision 7 created 09/03/2020 by Natalia Ost.

  1. Каждый день, каждую неделю,
  2. мы соглашаемся c положениями и условиями.
  3. Делая такой шаг,
  4. мы предоставляем компаниям законное право
  5. делать всё, что они хотят с нашими данными
  6. и данными наших детей.
  7. Что заставляет нас задуматься:
  8. какое количество данных о детях
    мы предоставляем,
  9. и какие последствия это за собой повлечёт?
  10. Я антрополог,

  11. а также мать двух маленьких девочек.
  12. В 2015 году я начала
    интересоваться этим вопросом
  13. и внезапно осознала,
    что существует огромное,
  14. почти невообразимое количество
  15. собираемых о детях данных.
  16. Поэтому я запустила
    исследовательский проект
  17. под названием Child Data Citizen
  18. и намерена заполнить эту пустоту.
  19. Возможно, вы подумаете,
    что я пришла сюда обвинять вас

  20. в публикации фотографий ваших детей
    в социальных сетях,
  21. но дело не в этом.
  22. Проблема намного шире,
    чем так называемое «делительство».
  23. Она носит системный характер,
    а не индивидуальный.
  24. Вы и ваши привычки не виноваты.
  25. Впервые в истории

  26. мы отслеживаем личные данные детей
  27. задолго до их рождения,
  28. иногда — с момента зачатия,
  29. а в дальнейшем — на протяжении жизни.
  30. Понимаете, когда родители
    решают зачать ребенка,
  31. они идут в интернет,
    чтобы посмотреть «способы забеременеть»,
  32. или скачивают приложения
    для отслеживания овуляции.
  33. Забеременев,
  34. они публикуют фото УЗИ своих детей
    в социальных сетях,
  35. скачивают приложения для
    отслеживания беременности,
  36. или консультируются с доктором Гуглом
    по всем вопросам,
  37. например таким:
  38. «риск выкидыша при полёте»
  39. или «спазмы в животе при беременности».
  40. Я знаю, сама прошла через это,
  41. и не раз.
  42. После рождения ребёнка,
    они отслеживают каждый его сон,
  43. каждое кормление,
  44. каждое событие жизни,
    используя различные технологии.
  45. И все эти технологии
  46. превращают личные данные
    о здоровье и поведении ребёнка в прибыль,
  47. когда ими делятся с другими.
  48. Проиллюстрирую, как это работает.

  49. В 2019 году Британский медицинский журнал
  50. опубликовал исследование, показавшее,
  51. что 19 из 24 мобильных приложений
    для здоровья
  52. поделились информацией
    с третьими сторонами.
  53. И эти третьи стороны поделились ей
  54. с ещё 216 организациями.
  55. Из этих 216 организаций
  56. только треть принадлежали
    к сектору здравоохранения.
  57. Другими компаниями,
    получившими доступ к данным,
  58. были технологические гиганты
  59. вроде Google, Facebook или Oracle,
  60. среди них были рекламные,
  61. а также кредитные агентства.
  62. Итак, вы поняли верно:
  63. рекламные и кредитные агентства,
  64. возможно, уже владеют данными о детях.
  65. Но мобильные приложения,
    поисковики и социальные сети
  66. лишь верхушка айсберга,
  67. так как в повседневной жизни
    за детьми наблюдают многочисленные
  68. устройства и приложения.
  69. В домах деятельность детей отслеживают
    виртуальные помощники и бытовая техника.
  70. В школах это делается при помощи
  71. образовательных платформ и технологий.
  72. В кабинете врача их отслеживают
  73. по онлайн-записям и онлайн-порталам.
  74. За ними следят при помощи их игрушек,
    подключённых к интернету,
  75. онлайн-игр,
  76. и множества других технологий.
  77. За время исследования

  78. ко мне обращались многие родители
    и спрашивали: «Ну и что?
  79. Разве то, что мои дети отслеживаются,
    имеет какое-то значение?
  80. Нам скрывать нечего».
  81. Да, это имеет значение.
  82. Это имеет значение, потому что сегодня
    за людьми не только следят,
  83. но и анализируют их данные на основе
    оставленного ими информационного следа.
  84. Искусственный интеллект
    и прогнозная аналитика используются,
  85. чтобы собрать как можно больше данных
    о жизни человека
  86. из разных источников:
  87. семейной истории, покупательских привычек,
    комментариев в социальных сетях.
  88. А потом они объединяют эти данные,
  89. чтобы принимать решения
    на основе данных о личности.
  90. И эти технологии используются везде.
  91. Банки используют их при выдаче кредита.
  92. Страховые компании —
    для определения размера страховых взносов.
  93. Рекрутеры и работодатели используют их,
  94. чтобы решить,
    кто лучше подходит для работы.
  95. Полиция и суды также применяют их,
  96. чтобы определить,
    кто является потенциальным преступником
  97. или кто вновь совершит преступление.
  98. Мы не знаем и не контролируем

  99. способы, которыми те, кто покупают,
  100. продают и обрабатывают наши данные,
  101. составляют психологические профили
    наших детей и наши.
  102. Но эти профили могут существенно
    повлиять на наши права.
  103. Например,

  104. в 2018 году газета «Нью-Йорк Таймс»
    опубликовала новость о том,
  105. что собранные с помощью онлайн-сервисов

  106. данные о поступлении в колледжи,
  107. которые в США заполняются
    миллионами школьников
  108. при поиске программы колледжа
    или стипендии,
  109. были проданы брокерам
    в сфере образовательных услуг.
  110. Исследователи из Фордхэма,
    изучавшие данные образовательных брокеров,
  111. раскрыли, как эти компании профилируют
    детей в возрасте всего двух лет
  112. на основе разных категорий:
  113. этнической принадлежности,
    религии, достатка,
  114. социальной неуверенности в себе
  115. и многих других
    произвольно взятых категорий.
  116. А потом эти компании продают
    эти профили вместе с именем ребёнка,
  117. их домашним адресом и контактными данными
  118. различным организациям,
  119. включая торговые и карьерные учреждения,
  120. банки, предоставляющие
    студенческие кредиты
  121. и компании, выпускающие
    кредитные карты для студентов.
  122. Чтобы расширить границы,
  123. исследователи из Фордхэма попросили
    брокера образовательных данных
  124. предоставить им список девушек
    в возрасте 14–15 лет,
  125. интересовавшихся услугами
    по планированию семьи.
  126. И торговец данными согласился
    предоставить такой список.
  127. А теперь представьте, насколько глубоко
    они внедрены в жизнь наших детей.
  128. Но торговцы данными —
    лишь один из ста примеров.
  129. Правда в том, что наши дети отслеживаются
    так, что мы не можем это контролировать,
  130. и это может значительно повлиять
    на их возможности в жизни.
  131. Поэтому мы должны спросить самих себя:

  132. можем ли мы доверять этим технологиям,
  133. когда речь идёт
    об отслеживании наших детей?

  134. Можем ли?
  135. Мой ответ — нет.
  136. Как антрополог
  137. я верю, что искуственный интеллект
    и прогнозная аналитика могут быть полезны
  138. в предсказывании течения болезни
  139. или в борьбе с изменением климата.
  140. Но мы должны отказаться от убеждения,
  141. что эти технологии могут составить
    объективный психологический профиль,
  142. и мы не можем на них полагаться, чтобы
    принимать решения на основе данных
  143. об отдельных жизнях.
  144. Потому что они на это не способны.
  145. Наш информационный след не являются
    отражением того, кто мы есть.
  146. Люди думают об одном, а говорят о другом,
  147. чувствуют одно, а действуют по-другому.
  148. Алгоритмические прогнозы
    или наша цифровая практика
  149. не могут объяснить непредсказуемость
    и сложность человеческого опыта.
  150. Но вдобавок ко всему,

  151. эти технологии всегда,
  152. так или иначе,
  153. необъективны.
  154. Вы знаете, что алгоритмы по определению
    означают набор правил и шагов,
  155. которые были разработаны для достижения
    определённого результата?
  156. Но эти наборы правил и шагов
    не могут быть объективными,
  157. так как они были придуманы человеком
  158. в определённом культурном контексте
  159. и сформированы определёнными
    культурными ценностями.
  160. Итак, когда машины учатся,
  161. они учатся как с помощью
    предвзятых алгоритмов,
  162. так и на основе
    предвзято составленных баз данных.
  163. Сегодня мы видим первые примеры
    алгоритмической предвзятости.

  164. Некоторые из этих примеров просто ужасны.
  165. В этом году организация AI Now Institute
    в Нью-Йорке опубликовала отчёт,
  166. в котором говорится, что технологии ИИ,
  167. используемые для прогнозирования
    полицейской деятельности,
  168. были обучены на «грязных» данных.
  169. В основном это данные, собранные
  170. в течение исторических периодов,
    известных расовыми предрассудками
  171. и непрозрачными действиями полиции.
  172. Из-за того, что эти технологии
    разрабатывались на основе грязных данных,
  173. они необъективны,
  174. и их результаты только
    усиливают и дополняют
  175. необъективность и ошибки полиции.
  176. Я думаю, мы столкнулись
    с фундаментальной проблемой

  177. нашего общества.
  178. Мы начинаем доверять технологиям,
    когда речь идёт о профилировании людей.
  179. Мы знаем, что при профилировании людей
  180. эти технологии всегда будут предвзятыми
  181. и никогда не будут точными.
  182. Поэтому нам сейчас нужно политическое
    решение данного вопроса.
  183. Нам нужно, чтобы правительства признали,
  184. что права на данные — наши права человека.
  185. (Аплодисменты)

  186. Пока этого не произойдет, мы не можем
    надеяться на более справедливое будущее.

  187. Я волнуюсь из-за того,
    что мои дочери будут подвергаться
  188. всевозможной алгоритмической
    дискриминации и ошибкам.
  189. Разница между мной и моими дочерями в том,
  190. что нет публичных записей моего детства.
  191. Точно нет никакой базы данных обо всех
    глупостях, которые я совершила,
  192. или о которых помышляла,
    когда была подростком.
  193. (Смех)

  194. Но у моих дочерей
    всё может сложиться по-другому.

  195. Информация, собранная о них сегодня
  196. может быть использована для
    их оценки в будущем,
  197. и может помешать реализации
    их надежд и целей.
  198. Я думаю, время пришло.

  199. Время, чтобы мы все сделали шаг вперед.
  200. Пришло время, чтобы мы начали
    работать вместе
  201. как отдельные люди,
  202. как организации и как институты,
  203. мы требуем большей справедливости
    в отношении данных для нас
  204. и наших детей,
  205. пока не стало слишком поздно.
  206. Благодарю вас.

  207. (Аплодисменты)