Portuguese, Brazilian 字幕

← O que as empresas de tecnologia sabem sobre seus filhos

埋め込みコードを取得する
36言語

Showing Revision 31 created 07/14/2020 by Maricene Crus.

  1. Todo dia, toda semana, concordamos
    com os termos e condições.
  2. Quando fazemos isso, fornecemos
    às empresas o direito legal
  3. de fazerem o que quiserem
    com nossos dados
  4. e com os dados de nossos filhos.
  5. O que nos faz questionar:
  6. quantos dados sobre crianças nós damos,
  7. e quais são as consequências?
  8. Eu sou antropóloga

  9. e mãe de duas garotinhas.
  10. Passei a ter interesse nisso em 2015
  11. quando subitamente percebi que existem
    quantidades de dados enormes,
  12. quase inimagináveis,
  13. sendo produzidas
    e coletadas sobre crianças.
  14. E então, comecei um projeto de pesquisa,
  15. chamado Child Data Citizen,
  16. que almeja preencher essa lacuna.
  17. Talvez, pensem que estou
    aqui para culpar vocês

  18. por postar fotos
    de seus filhos nas redes sociais,
  19. mas esse não é o ponto.
  20. O problema é bem maior
    que o assim chamado "sharenting".
  21. É sobre sistemas, não indivíduos.
  22. A culpa não é dos seus hábitos.
  23. Pela primeira vez na história,

  24. estamos rastreando os dados
    individuais das crianças
  25. bem antes de elas nascerem,
  26. às vezes, do momento da concepção
  27. e depois ao longo da vida delas.
  28. Quando os pais decidem conceber,
  29. buscam on-line por "formas de engravidar",
  30. ou fazem download de aplicativos
    que rastreiam a ovulação.
  31. Quando a mulher consegue engravidar,
  32. eles postam fotos do ultrassom
    do bebê nas redes sociais,
  33. baixam aplicativos de gravidez
  34. ou consultam o Dr. Google
    para saber sobre tudo,
  35. por exemplo,
  36. "risco de aborto involuntário
    ao pegar um avião"
  37. ou "cãibras abdominais
    no início da gravidez".
  38. Eu sei porque já fiz isso, muitas vezes.
  39. E então, quando o bebê nasce,
    monitoram cada cochilo, cada refeição,
  40. cada evento da vida dele
    em uma tecnologia diferente.
  41. E todas essas tecnologias
  42. transformam os dados mais íntimos
    do comportamento e saúde do bebê em lucro
  43. através do compartilhamento.
  44. Explicando basicamente como isso funciona,

  45. em 2019, uma pesquisa publicada
    pelo British Medical Journal mostrou
  46. que de 24 aplicativos de saúde,
  47. 19 compartilharam
    informações com terceiros.
  48. E esses terceiros compartilharam
    informações com outras 216 organizações.
  49. Dessas 216 organizações,
  50. somente três pertenciam ao setor da saúde.
  51. As outras eram grandes
    empresas de tecnologia
  52. como Google, Facebook ou Oracle,
  53. que estavam fazendo publicidade digital,
  54. e havia também uma agência
    de relatório do crédito ao consumidor.
  55. Vocês entenderam corretamente:
  56. empresas e agências de publicidade
    já devem ter dados sobre bebês.
  57. Só que aplicativos, pesquisas
    na web e redes sociais
  58. são apenas a ponta do iceberg,
  59. porque as crianças são rastreadas
    por diversas tecnologias
  60. em seus cotidianos:
  61. tecnologias da casa, assistentes virtuais,
  62. plataformas educacionais e tecnologias
    educacionais nas escolas,
  63. registros on-line e portais
    de seus consultórios médicos,
  64. brinquedos conectados
    à internet, jogos on-line
  65. e muitas outras tecnologias.
  66. Ao longo de minha pesquisa,

  67. muitos pais me perguntaram: "E daí?
  68. Importa se meus filhos forem rastreados?
  69. Não temos nada a esconder".
  70. Bem, importa sim.
  71. Importa porque os indivíduos
    não são apenas rastreados,
  72. mas também são perfilados
    de acordo com seus dados.
  73. A inteligência artificial
    e a análise preditiva são usadas
  74. para alcançar o máximo de dados
    possível de um indivíduo
  75. através de fontes diferentes:
  76. histórico familiar, hábitos de compra,
    comentários em rede sociais.
  77. E então, esses dados são coletados
  78. para orientar escolhas
    a respeito do indivíduo.
  79. E essas tecnologias
    são usadas em toda parte.
  80. Bancos as usam para decidir empréstimos.
  81. Seguradoras as usam para decidir
    valores de contratação.
  82. Recrutadoras e empregadores as usam
  83. para decidir se a pessoa
    se encaixa ou não num emprego.
  84. A polícia e os tribunais também as usam
  85. para determinar se alguém
    é um criminoso em potencial
  86. ou é propenso a voltar a cometer um crime.
  87. Nós não temos conhecimento ou controle

  88. sobre as formas em que aqueles
    que compram e vendem nossos dados
  89. profilam a nós e nossos filhos.
  90. Mas esses perfis podem impactar
    nossos direitos de forma significativa.
  91. Por exemplo,

  92. em 2018, o New York Times publicou
  93. que os dados que foram coletados
  94. pelos serviços de planejamento
    de faculdade on-line,
  95. que são usados por milhões de alunos
    do ensino médio nos EUA
  96. que procuram por programas
    ou bolsas de estudos para a faculdade,
  97. haviam sido vendidos para corretores
    de dados educacionais.
  98. Pesquisadores da Universidade Fordham
    que estudaram esse tipo de corretor
  99. revelaram que essas empresas perfilam
    crianças acima de dois anos de idade
  100. com base em categorias diferentes:
  101. etnia, religião, riqueza,
  102. inépcia social
  103. e muitas outras categorias aleatórias.
  104. Depois, elas vendem os perfis,
    juntamente com o nome das crianças,
  105. o endereço delas e informações de contato
  106. para empresas diferentes,
  107. incluindo instituições
    de carreira, comércio,
  108. e empresas de empréstimos
    e cartões de crédito estudantis.
  109. Para ampliar os limites,
  110. os pesquisadores pediram
    a um corretor de dados educacionais
  111. para providenciar uma lista com o nome
    de garotas de 14 e 15 anos de idade
  112. que estivessem interessadas
    em serviços de planejamento familiar.
  113. O corretor de dados aceitou o pedido.
  114. Imaginem o quanto isso é íntimo
    e intrusivo para nossas crianças.
  115. Mas esse é só um exemplo.
  116. A verdade é que nossos filhos estão
    sendo perfilados de formas incontroláveis
  117. que podem impactar significativamente
    suas oportunidades na vida.
  118. Então, precisamos nos perguntar:

  119. podemos confiar nessas tecnologias
    que perfilam nossos filhos?
  120. Será que podemos?
  121. Minha resposta é não.
  122. Como antropóloga,
  123. acredito que a inteligência artificial
    e a análise preditiva possam ser úteis
  124. para prever o curso de uma doença
  125. ou lutar contra a mudança climática.
  126. Mas precisamos abandonar a crença
  127. de que essas tecnologias podem perfilar
    seres humanos objetivamente
  128. e que podemos confiar nelas
    para tomar decisões sobre indivíduos
  129. baseadas em bancos de dados,
  130. porque eles não conseguem
    perfilar seres humanos.
  131. Dados não são um reflexo de quem somos.
  132. Humanos pensam uma coisa e dizem outra,
  133. sentem e agem de formas diferentes.
  134. Predições algorítmicas
    ou nossas práticas digitais
  135. não podem explicar a imprevisibilidade
    e a complexidade da vivência humana.
  136. Mas acima de tudo isso,

  137. essas tecnologias são sempre,
  138. de uma forma ou outra, tendenciosas.
  139. Algoritmos são, por definição,
    um conjunto de regras ou passos
  140. projetado para alcançar
    um resultado específico, certo?
  141. Mas esses conjuntos
    não podem ser objetivos
  142. porque são projetados por seres humanos
  143. num contexto cultural específico
  144. e são modelados por valores
    culturais específicos.
  145. Quando as máquinas aprendem,
  146. é através de algoritmos tendenciosos
  147. e, com frequência, através de bases
    de dados também tendenciosas.
  148. No momento, vemos os primeiros
    exemplos de viés algorítmico.

  149. E alguns desses exemplos são terríveis.
  150. Neste ano, o AI Now Institute
    en Nova York publicou um relatório
  151. que revelou que as tecnologias IA
  152. que estão sendo utilizadas
    para o policiamento preditivo
  153. foram treinadas com "dados sujos".
  154. Esses são dados que foram coletados
  155. durante períodos históricos
    de preconceito racial explícito
  156. e práticas policiais não transparentes.
  157. Por essas tecnologias serem
    treinadas com dados sujos,
  158. elas não são objetivas,
  159. e seus resultados estão
    ampliando e perpetuando
  160. os erros e o preconceito policial.
  161. Aqui, nós enfrentamos
    um problema fundamental

  162. em nossa sociedade.
  163. Estamos confiando em tecnologias
    para perfilar seres humanos,
  164. mas sabemos que ao fazermos isso,
  165. essas tecnologias sempre
    serão tendenciosas
  166. e jamais realmente precisas.
  167. Precisamos de uma solução política.
  168. Que os governos reconheçam que direitos
    sobre dados são direitos humanos.
  169. (Aplausos)

  170. Até que isso aconteça, não podemos
    esperar por um futuro mais justo.

  171. Preocupa-me que minhas filhas serão
    expostas a toda forma de discriminação
  172. e erro dos algoritmos.
  173. A diferença entre mim e minhas filhas
  174. é que não existe um registro
    público da minha infância.
  175. Certamente não existe base de dados
    sobre todas as coisas estúpidas que fiz
  176. e pensei quando era adolescente.
  177. (Risos)

  178. Mas, para elas, pode ser diferente.

  179. Os dados coletados sobre elas atualmente
  180. podem ser usados para julgá-las no futuro
  181. e impedir os sonhos e esperanças delas.
  182. Acho que chegou o momento
    de nos posicionarmos.

  183. De começarmos a trabalhar juntos
  184. como indivíduos,
  185. organizações e instituições,
  186. e exigir uma justiça de dados
    maior para nós e para nossas crianças
  187. antes que seja tarde demais.
  188. Obrigada.

  189. (Aplausos)