Todo dia, toda semana, concordamos com os termos e condições. Quando fazemos isso, fornecemos às empresas o direito legal de fazerem o que quiserem com nossos dados e com os dados de nossos filhos. O que nos faz questionar: quantos dados sobre crianças nós damos, e quais são as consequências? Eu sou antropóloga e mãe de duas garotinhas. Passei a ter interesse nisso em 2015 quando subitamente percebi que existem quantidades de dados enormes, quase inimagináveis, sendo produzidas e coletadas sobre crianças. E então, comecei um projeto de pesquisa, chamado Child Data Citizen, que almeja preencher essa lacuna. Talvez, pensem que estou aqui para culpar vocês por postar fotos de seus filhos nas redes sociais, mas esse não é o ponto. O problema é bem maior que o assim chamado "sharenting". É sobre sistemas, não indivíduos. A culpa não é dos seus hábitos. Pela primeira vez na história, estamos rastreando os dados individuais das crianças bem antes de elas nascerem, às vezes, do momento da concepção e depois ao longo da vida delas. Quando os pais decidem conceber, buscam on-line por "formas de engravidar", ou fazem download de aplicativos que rastreiam a ovulação. Quando a mulher consegue engravidar, eles postam fotos do ultrassom do bebê nas redes sociais, baixam aplicativos de gravidez ou consultam o Dr. Google para saber sobre tudo, por exemplo, "risco de aborto involuntário ao pegar um avião" ou "cãibras abdominais no início da gravidez". Eu sei porque já fiz isso, muitas vezes. E então, quando o bebê nasce, monitoram cada cochilo, cada refeição, cada evento da vida dele em uma tecnologia diferente. E todas essas tecnologias transformam os dados mais íntimos do comportamento e saúde do bebê em lucro através do compartilhamento. Explicando basicamente como isso funciona, em 2019, uma pesquisa publicada pelo British Medical Journal mostrou que de 24 aplicativos de saúde, 19 compartilharam informações com terceiros. E esses terceiros compartilharam informações com outras 216 organizações. Dessas 216 organizações, somente três pertenciam ao setor da saúde. As outras eram grandes empresas de tecnologia como Google, Facebook ou Oracle, que estavam fazendo publicidade digital, e havia também uma agência de relatório do crédito ao consumidor. Vocês entenderam corretamente: empresas e agências de publicidade já devem ter dados sobre bebês. Só que aplicativos, pesquisas na web e redes sociais são apenas a ponta do iceberg, porque as crianças são rastreadas por diversas tecnologias em seus cotidianos: tecnologias da casa, assistentes virtuais, plataformas educacionais e tecnologias educacionais nas escolas, registros on-line e portais de seus consultórios médicos, brinquedos conectados à internet, jogos on-line e muitas outras tecnologias. Ao longo de minha pesquisa, muitos pais me perguntaram: "E daí? Importa se meus filhos forem rastreados? Não temos nada a esconder". Bem, importa sim. Importa porque os indivíduos não são apenas rastreados, mas também são perfilados de acordo com seus dados. A inteligência artificial e a análise preditiva são usadas para alcançar o máximo de dados possível de um indivíduo através de fontes diferentes: histórico familiar, hábitos de compra, comentários em rede sociais. E então, esses dados são coletados para orientar escolhas a respeito do indivíduo. E essas tecnologias são usadas em toda parte. Bancos as usam para decidir empréstimos. Seguradoras as usam para decidir valores de contratação. Recrutadoras e empregadores as usam para decidir se a pessoa se encaixa ou não num emprego. A polícia e os tribunais também as usam para determinar se alguém é um criminoso em potencial ou é propenso a voltar a cometer um crime. Nós não temos conhecimento ou controle sobre as formas em que aqueles que compram e vendem nossos dados profilam a nós e nossos filhos. Mas esses perfis podem impactar nossos direitos de forma significativa. Por exemplo, em 2018, o New York Times publicou que os dados que foram coletados pelos serviços de planejamento de faculdade on-line, que são usados por milhões de alunos do ensino médio nos EUA que procuram por programas ou bolsas de estudos para a faculdade, haviam sido vendidos para corretores de dados educacionais. Pesquisadores da Universidade Fordham que estudaram esse tipo de corretor revelaram que essas empresas perfilam crianças acima de dois anos de idade com base em categorias diferentes: etnia, religião, riqueza, inépcia social e muitas outras categorias aleatórias. Depois, elas vendem os perfis, juntamente com o nome das crianças, o endereço delas e informações de contato para empresas diferentes, incluindo instituições de carreira, comércio, e empresas de empréstimos e cartões de crédito estudantis. Para ampliar os limites, os pesquisadores pediram a um corretor de dados educacionais para providenciar uma lista com o nome de garotas de 14 e 15 anos de idade que estivessem interessadas em serviços de planejamento familiar. O corretor de dados aceitou o pedido. Imaginem o quanto isso é íntimo e intrusivo para nossas crianças. Mas esse é só um exemplo. A verdade é que nossos filhos estão sendo perfilados de formas incontroláveis que podem impactar significativamente suas oportunidades na vida. Então, precisamos nos perguntar: podemos confiar nessas tecnologias que perfilam nossos filhos? Será que podemos? Minha resposta é não. Como antropóloga, acredito que a inteligência artificial e a análise preditiva possam ser úteis para prever o curso de uma doença ou lutar contra a mudança climática. Mas precisamos abandonar a crença de que essas tecnologias podem perfilar seres humanos objetivamente e que podemos confiar nelas para tomar decisões sobre indivíduos baseadas em bancos de dados, porque eles não conseguem perfilar seres humanos. Dados não são um reflexo de quem somos. Humanos pensam uma coisa e dizem outra, sentem e agem de formas diferentes. Predições algorítmicas ou nossas práticas digitais não podem explicar a imprevisibilidade e a complexidade da vivência humana. Mas acima de tudo isso, essas tecnologias são sempre, de uma forma ou outra, tendenciosas. Algoritmos são, por definição, um conjunto de regras ou passos projetado para alcançar um resultado específico, certo? Mas esses conjuntos não podem ser objetivos porque são projetados por seres humanos num contexto cultural específico e são modelados por valores culturais específicos. Quando as máquinas aprendem, é através de algoritmos tendenciosos e, com frequência, através de bases de dados também tendenciosas. No momento, vemos os primeiros exemplos de viés algorítmico. E alguns desses exemplos são terríveis. Neste ano, o AI Now Institute en Nova York publicou um relatório que revelou que as tecnologias IA que estão sendo utilizadas para o policiamento preditivo foram treinadas com "dados sujos". Esses são dados que foram coletados durante períodos históricos de preconceito racial explícito e práticas policiais não transparentes. Por essas tecnologias serem treinadas com dados sujos, elas não são objetivas, e seus resultados estão ampliando e perpetuando os erros e o preconceito policial. Aqui, nós enfrentamos um problema fundamental em nossa sociedade. Estamos confiando em tecnologias para perfilar seres humanos, mas sabemos que ao fazermos isso, essas tecnologias sempre serão tendenciosas e jamais realmente precisas. Precisamos de uma solução política. Que os governos reconheçam que direitos sobre dados são direitos humanos. (Aplausos) Até que isso aconteça, não podemos esperar por um futuro mais justo. Preocupa-me que minhas filhas serão expostas a toda forma de discriminação e erro dos algoritmos. A diferença entre mim e minhas filhas é que não existe um registro público da minha infância. Certamente não existe base de dados sobre todas as coisas estúpidas que fiz e pensei quando era adolescente. (Risos) Mas, para elas, pode ser diferente. Os dados coletados sobre elas atualmente podem ser usados para julgá-las no futuro e impedir os sonhos e esperanças delas. Acho que chegou o momento de nos posicionarmos. De começarmos a trabalhar juntos como indivíduos, organizações e instituições, e exigir uma justiça de dados maior para nós e para nossas crianças antes que seja tarde demais. Obrigada. (Aplausos)