Portuguese 字幕

← O que as empresas de tecnologia sabem sobre os vossos filhos

埋め込みコードを取得する
36言語

Showing Revision 7 created 06/20/2020 by Margarida Ferreira.

  1. Todos os dias, todas as semanas,
  2. nós concordamos com termos e condições.
  3. E quando fazemos isso,
  4. fornecemos às empresas o direito legal
  5. de fazerem o que quiserem
    com os nossos dados
  6. e com os dados dos nossos filhos.
  7. O que nos leva pensar:
  8. quantos dados dos nossos filhos
    é que estamos a ceder,
  9. e quais são as implicações disso?
  10. Eu sou antropóloga,

  11. mas também sou mãe
    de duas meninas pequenas.
  12. Comecei a interessar-me
    por esta questão em 2015
  13. quando, de repente,
    me apercebi de que havia
  14. uma quantidade
    quase inimaginável de dados
  15. que estão a ser produzidos
    e recolhidos sobre crianças.
  16. Por isso, lancei
    um projeto de investigação,
  17. chamado Child Data Citizen,
  18. com o objetivo de preencher
    os espaços em branco.
  19. Podem pensar
    que estou aqui para vos acusar

  20. de publicarem fotos dos vossos filhos
    nas redes sociais,
  21. mas o problema não é esse.
  22. O problema é muito maior
    do que o chamado "sharenting."
  23. Isto é sobre sistemas,
    não é sobre indivíduos.
  24. Vocês e os vossos hábitos
    não são os culpados.
  25. Pela primeira vez na história,

  26. estamos a rastrear os dados
    individuais de crianças
  27. desde antes de elas nascerem
  28. — por vezes, desde o momento da conceção,
  29. e depois ao longo da vida delas.
  30. Como veem, quando os pais
    decidem conceber,
  31. vão "online" pesquisar
    "maneiras de engravidar,"
  32. ou descarregam aplicações
    de monitorização da ovulação.
  33. Quando engravidam,
  34. publicam as ecografias
    dos bebés nas redes sociais,
  35. descarregam aplicações de gravidez
  36. ou consultam o Dr. Google
    para todo o tipo de coisas,
  37. como, por exemplo,
  38. "risco de aborto ao viajar de avião"
  39. ou "dores abdominais
    no início da gravidez."
  40. Eu sei disto porque já o fiz,
  41. e várias vezes.
  42. Depois, quando o bebé nasce,
    eles registam cada sesta, cada refeição,
  43. cada acontecimento na sua vida,
  44. em diferentes tecnologias.
  45. E todas estas tecnologias,
  46. transformam em lucro
  47. os dados comportamentais
    e médicos mais íntimos do bebé
  48. ao partilhá-los com outros.
  49. Para vos dar uma ideia
    de como isto funciona,

  50. em 2019, o British Medical Journal
    publicou uma investigação
  51. que mostrava que,
    de 24 aplicações móveis de saúde,
  52. 19 partilhavam informações com terceiros.
  53. E esses terceiros partilhavam informações
    com outras 216 organizações.
  54. Destas outras 216 organizações,
  55. apenas 3 pertenciam ao setor da saúde.
  56. As outras empresas
    que tinham acesso a esses dados
  57. eram importantes empresas de tecnologia
  58. como o Google, o Facebook ou o Oracle,
  59. empresas de publicidade digital
  60. e também agências de informações
    comerciais de consumo.
  61. Vocês perceberam bem:
  62. empresas de publicidade
    e agências de crédito
  63. podem já ter dados sobre bebés.
  64. Mas as aplicações móveis,
    os motores de pesquisa e as redes sociais
  65. são apenas a ponta do icebergue,
  66. porque as crianças estão a ser rastreadas
    por múltiplas tecnologias
  67. na sua vida diária.
  68. São rastreadas
    pelas tecnologias domésticas
  69. e pelos assistentes virtuais
    nas nossas casas.
  70. São rastreadas
    pelas plataformas educativas,
  71. pelas tecnologias de educação
    nas escolas.
  72. São rastreadas por registos "online"
  73. e por portais "online"
    no consultório do médico deles.
  74. São rastreadas pelos seus brinquedos
    ligados à Internet,
  75. pelos seus jogos "online"
  76. e por muitas, muitas, muitas
    outras tecnologias.
  77. Durante a minha pesquisa,

  78. muitos pais me disseram:
  79. "E depois? Que importância tem
    os meus filhos estarem a ser rastreados?
  80. "Não temos nada a esconder."
  81. Bem, é muito importante
  82. É importante porque hoje em dia,
    as pessoas não estão só a ser rastreadas,
  83. também traçam os perfis delas
    com base nesses dados.
  84. A inteligência artificial e a análise
    preditiva estão a ser utilizadas
  85. para reunir o máximo de dados possível
    da vida de um indivíduo
  86. a partir de diferentes fontes:
  87. o histórico familiar,
    os hábitos de compra,
  88. os comentários nas redes sociais.
  89. E reúnem esses dados
  90. para tomarem decisões orientadas
    pelos dados sobre o indivíduo.
  91. Estas tecnologias são utilizadas
    em todo o lado.
  92. Os bancos usam-nas
    para decidirem empréstimos.
  93. As companhias de seguros usam-nas
    para decidirem prémios.
  94. Os recrutadores e empregadores usam-nas
  95. para decidirem se alguém é uma boa escolha
    ou não, para um emprego.
  96. A polícia e os tribunais também as usam
  97. para determinarem se alguém
    é um potencial criminoso
  98. ou se é provável que voltem
    a cometer um crime.
  99. Nós não temos conhecimento nem controlo

  100. sobre a forma como aqueles que compram,
    vendem e processam os nossos dados
  101. estão a traçar os nossos perfis
    e os perfis dos nossos filhos.
  102. Mas estes perfis podem
    vir a ter impacto nos nossos direitos
  103. de forma significativa.
  104. Por exemplo,

  105. em 2018 o "New York Times"
    publicou a notícia
  106. de que os dados reunidos
  107. através de serviços de planeamento
    universitário "online"
  108. que são utilizados por milhões
    de alunos do secundário nos EUA
  109. que estão à procura de um programa
    universitário ou de uma bolsa,
  110. tinham sido vendidos
    a corretores de dados educativos.
  111. Ora, os investigadores
    da Universidade de Fordham
  112. que investigaram corretores
    de dados educativos
  113. revelaram que estas empresas traçaram
    perfis de crianças a partir dos dois anos
  114. com base em muitas outras
    categorias arbitrárias.
  115. etnia, religião, riqueza,
  116. inépcia social
  117. e muitas outras categorias.
  118. Depois vendem os perfis juntamente
    com os nomes das crianças,
  119. a morada e informações de contacto
  120. a empresas diferentes,
  121. incluindo instituições comerciais
    e de carreira,
  122. empresas de empréstimos estudantis
  123. e de cartões de crédito estudantis.
  124. Para alargarem os limites,
  125. os investigadores da Fordham pediram
    a um corretor de dados educativos
  126. que lhes fornecessem uma lista
    de raparigas dos 14 aos 15 anos
  127. que estivessem interessadas
    em serviços de planeamento familiar.
  128. O corretor aceitou fornecer a lista.
  129. Por isso imaginem
    o quão íntimo e intrusivo
  130. isto é para os nossos filhos.
  131. Mas os corretores de dados educativos
    são apenas um exemplo.
  132. A verdade é que os nossos filhos
    estão a ter perfis
  133. de maneiras que não conseguimos controlar
  134. e que podem ter um impacto significativo
    nas suas oportunidades na vida.
  135. Por isso, precisamos de perguntar:

  136. podemos confiar nestas tecnologias
    para traçarem os perfis dos nossos filhos?
  137. Podemos?
  138. A minha resposta é não.
  139. Como antropóloga,
  140. eu acredito que a inteligência artificial
    e a análise preditiva podem ser ótimas
  141. para prever o decorrer de uma doença
  142. ou para lutar contra
    a alteração climática.
  143. Mas precisamos de abandonar a convicção
  144. de que estas tecnologias podem traçar
    objetivamente perfis das pessoas
  145. e de que podemos contar com elas
  146. para tomarem decisões
    orientadas por dados
  147. sobre vidas individuais.
  148. Porque elas não conseguem
    traçar perfis das pessoas.
  149. Os rastreios de dados não são
    um espelho do quem somos.
  150. Os seres humanos pensam
    uma coisa e dizem outra,
  151. sentem-se de uma maneira
    e agem de maneira diferente.
  152. As previsões algorítmicas
    e as nossas práticas digitais
  153. não têm em conta a imprevisibilidade
    e a complexidade da experiência humana.
  154. Mas além disso,

  155. essas tecnologias são sempre,
  156. sempre,
  157. de uma maneira ou outra, tendenciosas.
  158. Os algoritmos são, por definição,
    conjuntos de regras ou passos
  159. que foram concebidos para alcançar
    um resultado específico, OK?
  160. Mas estes conjuntos de regras ou passos
    não podem ser objetivos,
  161. porque foram concebidos
    por seres humanos
  162. dentro de um contexto cultural específico
  163. e são modelados
    por valores culturais específicos.
  164. Por isso quando as máquinas aprendem,
  165. aprendem a partir de algoritmos parciais,
  166. e muitas vezes aprendem também
    a partir de bases de dados parciais.
  167. De momento, estamos a ver os primeiros
    exemplos de viés algorítmico.

  168. E alguns destes exemplos
    são francamente aterradores.
  169. Este ano, o AI Now Institute
    em Nova Iorque publicou um relatório
  170. que revelou que as tecnologias de IA
  171. que estão a ser utilizadas
    para policiamento preditivo
  172. foram treinadas com base em dados "sujos".
  173. Ou seja, basicamente dados
    que foram reunidos
  174. durante períodos históricos conhecidos
    pelos preconceitos raciais
  175. e por práticas policiais
    pouco transparentes.
  176. Como estas tecnologias estão
    a ser treinadas com dados sujos,
  177. não são objetivas,
  178. e os resultados estão apenas
    a amplificar e a perpetrar
  179. preconceitos policiais e erros.
  180. Por isso, eu acho que estamos a enfrentar
    um problema fundamental

  181. na nossa sociedade.
  182. Estamos a começar a confiar
    em tecnologias
  183. no que toca a traçar perfis
    de seres humanos.
  184. Sabemos que,
    ao traçarem perfis de pessoas,
  185. estas tecnologias vão ser
    sempre tendenciosas
  186. e nunca vão ser exatas.
  187. Por isso, precisamos agora
    de uma solução política.
  188. Precisamos que os governos reconheçam
  189. que os nossos direitos de dados
    são os nossos direitos humanos.
  190. (Aplausos)

  191. Enquanto isto não acontecer, não podemos
    ter esperança de um futuro mais justo.

  192. Eu preocupo-me que as minhas filhas
    sejam expostas
  193. a todo o tipo de discriminação
    e de erros algorítmicos.
  194. A diferença entre mim e as minhas filhas
  195. é que não há nenhum registo público
    da minha infância.
  196. Certamente não há nenhuma base de dados
    com todas as coisas estúpidas que fiz
  197. e que pensei quando era adolescente.
  198. (Risos)

  199. Mas para as minhas filhas
    isso pode ser diferente.

  200. Os dados delas que estão
    a ser reunidos hoje
  201. podem ser utilizados
    para julgá-las no futuro
  202. e podem impedir
    os sonhos e esperanças delas.
  203. Eu acho que está na hora,

  204. está na hora de avançar.
  205. Está na hora de começarmos
    a trabalhar juntos
  206. como indivíduos,
  207. como organizações e como instituições,
  208. e exigir maior justiça de dados para nós
  209. e para os nossos filhos
  210. antes que seja tarde de mais.
  211. Obrigada.

  212. (Aplausos)