Todos os dias, todas as semanas, nós concordamos com termos e condições. E quando fazemos isso, fornecemos às empresas o direito legal de fazerem o que quiserem com os nossos dados e com os dados dos nossos filhos. O que nos leva pensar: quantos dados dos nossos filhos é que estamos a ceder, e quais são as implicações disso? Eu sou antropóloga, mas também sou mãe de duas meninas pequenas. Comecei a interessar-me por esta questão em 2015 quando, de repente, me apercebi de que havia uma quantidade quase inimaginável de dados que estão a ser produzidos e recolhidos sobre crianças. Por isso, lancei um projeto de investigação, chamado Child Data Citizen, com o objetivo de preencher os espaços em branco. Podem pensar que estou aqui para vos acusar de publicarem fotos dos vossos filhos nas redes sociais, mas o problema não é esse. O problema é muito maior do que o chamado "sharenting." Isto é sobre sistemas, não é sobre indivíduos. Vocês e os vossos hábitos não são os culpados. Pela primeira vez na história, estamos a rastrear os dados individuais de crianças desde antes de elas nascerem — por vezes, desde o momento da conceção, e depois ao longo da vida delas. Como veem, quando os pais decidem conceber, vão "online" pesquisar "maneiras de engravidar," ou descarregam aplicações de monitorização da ovulação. Quando engravidam, publicam as ecografias dos bebés nas redes sociais, descarregam aplicações de gravidez ou consultam o Dr. Google para todo o tipo de coisas, como, por exemplo, "risco de aborto ao viajar de avião" ou "dores abdominais no início da gravidez." Eu sei disto porque já o fiz, e várias vezes. Depois, quando o bebé nasce, eles registam cada sesta, cada refeição, cada acontecimento na sua vida, em diferentes tecnologias. E todas estas tecnologias, transformam em lucro os dados comportamentais e médicos mais íntimos do bebé ao partilhá-los com outros. Para vos dar uma ideia de como isto funciona, em 2019, o British Medical Journal publicou uma investigação que mostrava que, de 24 aplicações móveis de saúde, 19 partilhavam informações com terceiros. E esses terceiros partilhavam informações com outras 216 organizações. Destas outras 216 organizações, apenas 3 pertenciam ao setor da saúde. As outras empresas que tinham acesso a esses dados eram importantes empresas de tecnologia como o Google, o Facebook ou o Oracle, empresas de publicidade digital e também agências de informações comerciais de consumo. Vocês perceberam bem: empresas de publicidade e agências de crédito podem já ter dados sobre bebés. Mas as aplicações móveis, os motores de pesquisa e as redes sociais são apenas a ponta do icebergue, porque as crianças estão a ser rastreadas por múltiplas tecnologias na sua vida diária. São rastreadas pelas tecnologias domésticas e pelos assistentes virtuais nas nossas casas. São rastreadas pelas plataformas educativas, pelas tecnologias de educação nas escolas. São rastreadas por registos "online" e por portais "online" no consultório do médico deles. São rastreadas pelos seus brinquedos ligados à Internet, pelos seus jogos "online" e por muitas, muitas, muitas outras tecnologias. Durante a minha pesquisa, muitos pais me disseram: "E depois? Que importância tem os meus filhos estarem a ser rastreados? "Não temos nada a esconder." Bem, é muito importante É importante porque hoje em dia, as pessoas não estão só a ser rastreadas, também traçam os perfis delas com base nesses dados. A inteligência artificial e a análise preditiva estão a ser utilizadas para reunir o máximo de dados possível da vida de um indivíduo a partir de diferentes fontes: o histórico familiar, os hábitos de compra, os comentários nas redes sociais. E reúnem esses dados para tomarem decisões orientadas pelos dados sobre o indivíduo. Estas tecnologias são utilizadas em todo o lado. Os bancos usam-nas para decidirem empréstimos. As companhias de seguros usam-nas para decidirem prémios. Os recrutadores e empregadores usam-nas para decidirem se alguém é uma boa escolha ou não, para um emprego. A polícia e os tribunais também as usam para determinarem se alguém é um potencial criminoso ou se é provável que voltem a cometer um crime. Nós não temos conhecimento nem controlo sobre a forma como aqueles que compram, vendem e processam os nossos dados estão a traçar os nossos perfis e os perfis dos nossos filhos. Mas estes perfis podem vir a ter impacto nos nossos direitos de forma significativa. Por exemplo, em 2018 o "New York Times" publicou a notícia de que os dados reunidos através de serviços de planeamento universitário "online" que são utilizados por milhões de alunos do secundário nos EUA que estão à procura de um programa universitário ou de uma bolsa, tinham sido vendidos a corretores de dados educativos. Ora, os investigadores da Universidade de Fordham que investigaram corretores de dados educativos revelaram que estas empresas traçaram perfis de crianças a partir dos dois anos com base em muitas outras categorias arbitrárias. etnia, religião, riqueza, inépcia social e muitas outras categorias. Depois vendem os perfis juntamente com os nomes das crianças, a morada e informações de contacto a empresas diferentes, incluindo instituições comerciais e de carreira, empresas de empréstimos estudantis e de cartões de crédito estudantis. Para alargarem os limites, os investigadores da Fordham pediram a um corretor de dados educativos que lhes fornecessem uma lista de raparigas dos 14 aos 15 anos que estivessem interessadas em serviços de planeamento familiar. O corretor aceitou fornecer a lista. Por isso imaginem o quão íntimo e intrusivo isto é para os nossos filhos. Mas os corretores de dados educativos são apenas um exemplo. A verdade é que os nossos filhos estão a ter perfis de maneiras que não conseguimos controlar e que podem ter um impacto significativo nas suas oportunidades na vida. Por isso, precisamos de perguntar: podemos confiar nestas tecnologias para traçarem os perfis dos nossos filhos? Podemos? A minha resposta é não. Como antropóloga, eu acredito que a inteligência artificial e a análise preditiva podem ser ótimas para prever o decorrer de uma doença ou para lutar contra a alteração climática. Mas precisamos de abandonar a convicção de que estas tecnologias podem traçar objetivamente perfis das pessoas e de que podemos contar com elas para tomarem decisões orientadas por dados sobre vidas individuais. Porque elas não conseguem traçar perfis das pessoas. Os rastreios de dados não são um espelho do quem somos. Os seres humanos pensam uma coisa e dizem outra, sentem-se de uma maneira e agem de maneira diferente. As previsões algorítmicas e as nossas práticas digitais não têm em conta a imprevisibilidade e a complexidade da experiência humana. Mas além disso, essas tecnologias são sempre, sempre, de uma maneira ou outra, tendenciosas. Os algoritmos são, por definição, conjuntos de regras ou passos que foram concebidos para alcançar um resultado específico, OK? Mas estes conjuntos de regras ou passos não podem ser objetivos, porque foram concebidos por seres humanos dentro de um contexto cultural específico e são modelados por valores culturais específicos. Por isso quando as máquinas aprendem, aprendem a partir de algoritmos parciais, e muitas vezes aprendem também a partir de bases de dados parciais. De momento, estamos a ver os primeiros exemplos de viés algorítmico. E alguns destes exemplos são francamente aterradores. Este ano, o AI Now Institute em Nova Iorque publicou um relatório que revelou que as tecnologias de IA que estão a ser utilizadas para policiamento preditivo foram treinadas com base em dados "sujos". Ou seja, basicamente dados que foram reunidos durante períodos históricos conhecidos pelos preconceitos raciais e por práticas policiais pouco transparentes. Como estas tecnologias estão a ser treinadas com dados sujos, não são objetivas, e os resultados estão apenas a amplificar e a perpetrar preconceitos policiais e erros. Por isso, eu acho que estamos a enfrentar um problema fundamental na nossa sociedade. Estamos a começar a confiar em tecnologias no que toca a traçar perfis de seres humanos. Sabemos que, ao traçarem perfis de pessoas, estas tecnologias vão ser sempre tendenciosas e nunca vão ser exatas. Por isso, precisamos agora de uma solução política. Precisamos que os governos reconheçam que os nossos direitos de dados são os nossos direitos humanos. (Aplausos) Enquanto isto não acontecer, não podemos ter esperança de um futuro mais justo. Eu preocupo-me que as minhas filhas sejam expostas a todo o tipo de discriminação e de erros algorítmicos. A diferença entre mim e as minhas filhas é que não há nenhum registo público da minha infância. Certamente não há nenhuma base de dados com todas as coisas estúpidas que fiz e que pensei quando era adolescente. (Risos) Mas para as minhas filhas isso pode ser diferente. Os dados delas que estão a ser reunidos hoje podem ser utilizados para julgá-las no futuro e podem impedir os sonhos e esperanças delas. Eu acho que está na hora, está na hora de avançar. Está na hora de começarmos a trabalhar juntos como indivíduos, como organizações e como instituições, e exigir maior justiça de dados para nós e para os nossos filhos antes que seja tarde de mais. Obrigada. (Aplausos)