WEBVTT 00:00:00.792 --> 00:00:03.059 Todos os dias, todas as semanas, 00:00:03.083 --> 00:00:05.268 nós concordamos com termos e condições. 00:00:05.292 --> 00:00:06.768 E quando fazemos isso, 00:00:06.792 --> 00:00:09.268 fornecemos às empresas o direito legal 00:00:09.292 --> 00:00:12.976 de fazerem o que quiserem com os nossos dados 00:00:13.000 --> 00:00:15.686 e com os dados dos nossos filhos. 00:00:16.792 --> 00:00:19.768 O que nos leva pensar: 00:00:19.792 --> 00:00:22.684 quantos dados dos nossos filhos é que estamos a ceder, 00:00:22.708 --> 00:00:25.273 e quais são as implicações disso? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 Eu sou antropóloga, 00:00:27.917 --> 00:00:30.518 mas também sou mãe de duas meninas pequenas. 00:00:31.262 --> 00:00:35.018 Comecei a interessar-me por esta questão em 2015 00:00:35.042 --> 00:00:37.768 quando, de repente, me apercebi de que havia 00:00:37.792 --> 00:00:40.809 uma quantidade quase inimaginável de dados 00:00:40.833 --> 00:00:44.129 que estão a ser produzidos e recolhidos sobre crianças. 00:00:44.722 --> 00:00:47.168 Por isso, lancei um projeto de investigação, 00:00:47.182 --> 00:00:49.268 chamado Child Data Citizen, 00:00:49.292 --> 00:00:51.887 com o objetivo de preencher os espaços em branco. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 Podem pensar que estou aqui para vos acusar 00:00:55.625 --> 00:00:58.393 de publicarem fotos dos vossos filhos nas redes sociais, 00:00:58.417 --> 00:01:00.559 mas o problema não é esse. 00:01:00.583 --> 00:01:04.312 O problema é muito maior do que o chamado "sharenting." 00:01:04.792 --> 00:01:08.893 Isto é sobre sistemas, não é sobre indivíduos. 00:01:08.917 --> 00:01:11.578 Vocês e os vossos hábitos não são os culpados. NOTE Paragraph 00:01:12.833 --> 00:01:15.774 Pela primeira vez na história, 00:01:15.818 --> 00:01:18.268 estamos a rastrear os dados individuais de crianças 00:01:18.292 --> 00:01:20.229 desde antes de elas nascerem 00:01:20.273 --> 00:01:22.968 — por vezes, desde o momento da conceção, 00:01:23.012 --> 00:01:25.293 e depois ao longo da vida delas. 00:01:25.307 --> 00:01:28.268 Como veem, quando os pais decidem conceber, 00:01:28.292 --> 00:01:31.268 vão "online" pesquisar "maneiras de engravidar," 00:01:31.292 --> 00:01:34.777 ou descarregam aplicações de monitorização da ovulação. 00:01:35.250 --> 00:01:37.691 Quando engravidam, 00:01:37.875 --> 00:01:41.018 publicam as ecografias dos bebés nas redes sociais, 00:01:41.042 --> 00:01:43.059 descarregam aplicações de gravidez 00:01:43.083 --> 00:01:46.809 ou consultam o Dr. Google para todo o tipo de coisas, 00:01:46.833 --> 00:01:48.351 como, por exemplo, 00:01:48.375 --> 00:01:50.934 "risco de aborto ao viajar de avião" 00:01:50.958 --> 00:01:53.726 ou "dores abdominais no início da gravidez." 00:01:53.750 --> 00:01:55.559 Eu sei disto porque já o fiz, 00:01:55.583 --> 00:01:57.636 e várias vezes. 00:01:58.458 --> 00:02:02.548 Depois, quando o bebé nasce, eles registam cada sesta, cada refeição, 00:02:02.583 --> 00:02:04.263 cada acontecimento na sua vida, 00:02:04.263 --> 00:02:06.083 em diferentes tecnologias. 00:02:06.083 --> 00:02:07.739 E todas estas tecnologias, 00:02:07.783 --> 00:02:09.568 transformam em lucro 00:02:09.598 --> 00:02:13.524 os dados comportamentais e médicos mais íntimos do bebé 00:02:13.614 --> 00:02:15.933 ao partilhá-los com outros. NOTE Paragraph 00:02:16.583 --> 00:02:18.886 Para vos dar uma ideia de como isto funciona, 00:02:18.940 --> 00:02:23.474 em 2019, o British Medical Journal publicou uma investigação 00:02:23.538 --> 00:02:27.601 que mostrava que, de 24 aplicações móveis de saúde, 00:02:27.625 --> 00:02:31.230 19 partilhavam informações com terceiros. 00:02:32.083 --> 00:02:38.128 E esses terceiros partilhavam informações com outras 216 organizações. 00:02:38.875 --> 00:02:42.309 Destas outras 216 organizações, 00:02:42.333 --> 00:02:45.066 apenas 3 pertenciam ao setor da saúde. 00:02:45.500 --> 00:02:48.102 As outras empresas que tinham acesso a esses dados 00:02:48.142 --> 00:02:50.382 eram importantes empresas de tecnologia 00:02:50.432 --> 00:02:53.559 como o Google, o Facebook ou o Oracle, 00:02:53.583 --> 00:02:56.184 empresas de publicidade digital 00:02:56.208 --> 00:03:00.503 e também agências de informações comerciais de consumo. 00:03:01.125 --> 00:03:02.739 Vocês perceberam bem: 00:03:02.783 --> 00:03:05.014 empresas de publicidade e agências de crédito 00:03:05.045 --> 00:03:07.805 podem já ter dados sobre bebés. 00:03:09.125 --> 00:03:12.373 Mas as aplicações móveis, os motores de pesquisa e as redes sociais 00:03:12.373 --> 00:03:14.952 são apenas a ponta do icebergue, 00:03:14.982 --> 00:03:18.180 porque as crianças estão a ser rastreadas por múltiplas tecnologias 00:03:18.200 --> 00:03:19.773 na sua vida diária. 00:03:19.777 --> 00:03:21.993 São rastreadas pelas tecnologias domésticas 00:03:22.033 --> 00:03:24.203 e pelos assistentes virtuais nas nossas casas. 00:03:24.243 --> 00:03:26.352 São rastreadas pelas plataformas educativas, 00:03:26.362 --> 00:03:28.358 pelas tecnologias de educação nas escolas. 00:03:28.378 --> 00:03:30.173 São rastreadas por registos "online" 00:03:30.187 --> 00:03:32.744 e por portais "online" no consultório do médico deles. 00:03:32.765 --> 00:03:35.497 São rastreadas pelos seus brinquedos ligados à Internet, 00:03:35.527 --> 00:03:36.983 pelos seus jogos "online" 00:03:37.023 --> 00:03:39.503 e por muitas, muitas, muitas outras tecnologias. NOTE Paragraph 00:03:40.250 --> 00:03:42.133 Durante a minha pesquisa, 00:03:42.157 --> 00:03:44.309 muitos pais me disseram: 00:03:44.703 --> 00:03:49.043 "E depois? Que importância tem os meus filhos estarem a ser rastreados? 00:03:50.052 --> 00:03:52.165 "Não temos nada a esconder." 00:03:52.958 --> 00:03:54.728 Bem, é muito importante 00:03:55.083 --> 00:04:00.701 É importante porque hoje em dia, as pessoas não estão só a ser rastreadas, 00:04:01.125 --> 00:04:04.786 também traçam os perfis delas com base nesses dados. 00:04:05.250 --> 00:04:09.059 A inteligência artificial e a análise preditiva estão a ser utilizadas 00:04:09.083 --> 00:04:12.726 para reunir o máximo de dados possível da vida de um indivíduo 00:04:12.750 --> 00:04:14.571 a partir de diferentes fontes: 00:04:14.581 --> 00:04:17.337 o histórico familiar, os hábitos de compra, 00:04:17.347 --> 00:04:19.167 os comentários nas redes sociais. 00:04:19.247 --> 00:04:21.018 E reúnem esses dados 00:04:21.042 --> 00:04:24.449 para tomarem decisões orientadas pelos dados sobre o indivíduo. 00:04:24.792 --> 00:04:28.226 Estas tecnologias são utilizadas em todo o lado. 00:04:28.250 --> 00:04:30.643 Os bancos usam-nas para decidirem empréstimos. 00:04:30.667 --> 00:04:33.522 As companhias de seguros usam-nas para decidirem prémios. 00:04:34.208 --> 00:04:36.684 Os recrutadores e empregadores usam-nas 00:04:36.708 --> 00:04:40.295 para decidirem se alguém é uma boa escolha ou não, para um emprego. 00:04:40.750 --> 00:04:43.851 A polícia e os tribunais também as usam 00:04:43.875 --> 00:04:47.393 para determinarem se alguém é um potencial criminoso 00:04:47.417 --> 00:04:50.335 ou se é provável que voltem a cometer um crime. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 Nós não temos conhecimento nem controlo 00:04:56.542 --> 00:05:00.184 sobre a forma como aqueles que compram, vendem e processam os nossos dados 00:05:00.208 --> 00:05:03.527 estão a traçar os nossos perfis e os perfis dos nossos filhos. 00:05:03.577 --> 00:05:06.529 Mas estes perfis podem vir a ter impacto nos nossos direitos 00:05:06.537 --> 00:05:08.387 de forma significativa. NOTE Paragraph 00:05:09.137 --> 00:05:11.125 Por exemplo, 00:05:13.792 --> 00:05:17.851 em 2018 o "New York Times" publicou a notícia 00:05:17.875 --> 00:05:19.851 de que os dados reunidos 00:05:19.875 --> 00:05:22.934 através de serviços de planeamento universitário "online" 00:05:22.958 --> 00:05:27.684 que são utilizados por milhões de alunos do secundário nos EUA 00:05:27.708 --> 00:05:31.351 que estão à procura de um programa universitário ou de uma bolsa, 00:05:31.375 --> 00:05:34.717 tinham sido vendidos a corretores de dados educativos. 00:05:35.792 --> 00:05:38.920 Ora, os investigadores da Universidade de Fordham 00:05:38.930 --> 00:05:41.380 que investigaram corretores de dados educativos 00:05:41.400 --> 00:05:46.476 revelaram que estas empresas traçaram perfis de crianças a partir dos dois anos 00:05:46.500 --> 00:05:49.559 com base em muitas outras categorias arbitrárias. 00:05:49.583 --> 00:05:53.148 etnia, religião, riqueza, 00:05:53.792 --> 00:05:55.851 inépcia social 00:05:55.875 --> 00:05:58.569 e muitas outras categorias. 00:05:58.833 --> 00:06:03.661 Depois vendem os perfis juntamente com os nomes das crianças, 00:06:03.875 --> 00:06:06.684 a morada e informações de contacto 00:06:06.708 --> 00:06:08.559 a empresas diferentes, 00:06:08.583 --> 00:06:11.692 incluindo instituições comerciais e de carreira, 00:06:11.863 --> 00:06:13.664 empresas de empréstimos estudantis 00:06:13.664 --> 00:06:15.695 e de cartões de crédito estudantis. 00:06:16.662 --> 00:06:18.434 Para alargarem os limites, 00:06:18.444 --> 00:06:21.726 os investigadores da Fordham pediram a um corretor de dados educativos 00:06:21.750 --> 00:06:27.559 que lhes fornecessem uma lista de raparigas dos 14 aos 15 anos 00:06:27.583 --> 00:06:31.100 que estivessem interessadas em serviços de planeamento familiar. 00:06:32.208 --> 00:06:34.834 O corretor aceitou fornecer a lista. 00:06:34.878 --> 00:06:38.233 Por isso imaginem o quão íntimo e intrusivo 00:06:38.248 --> 00:06:40.428 isto é para os nossos filhos. 00:06:40.833 --> 00:06:44.889 Mas os corretores de dados educativos são apenas um exemplo. 00:06:44.933 --> 00:06:47.562 A verdade é que os nossos filhos estão a ter perfis 00:06:47.562 --> 00:06:49.712 de maneiras que não conseguimos controlar 00:06:49.742 --> 00:06:53.858 e que podem ter um impacto significativo nas suas oportunidades na vida. NOTE Paragraph 00:06:54.167 --> 00:06:57.353 Por isso, precisamos de perguntar: 00:06:57.717 --> 00:07:02.351 podemos confiar nestas tecnologias para traçarem os perfis dos nossos filhos? 00:07:02.495 --> 00:07:03.815 Podemos? 00:07:05.708 --> 00:07:07.366 A minha resposta é não. 00:07:07.792 --> 00:07:09.149 Como antropóloga, 00:07:09.173 --> 00:07:13.031 eu acredito que a inteligência artificial e a análise preditiva podem ser ótimas 00:07:13.045 --> 00:07:15.153 para prever o decorrer de uma doença 00:07:15.197 --> 00:07:17.750 ou para lutar contra a alteração climática. 00:07:18.000 --> 00:07:20.027 Mas precisamos de abandonar a convicção 00:07:20.047 --> 00:07:23.351 de que estas tecnologias podem traçar objetivamente perfis das pessoas 00:07:23.375 --> 00:07:24.899 e de que podemos contar com elas 00:07:24.921 --> 00:07:26.951 para tomarem decisões orientadas por dados 00:07:26.993 --> 00:07:28.606 sobre vidas individuais. 00:07:28.650 --> 00:07:31.419 Porque elas não conseguem traçar perfis das pessoas. 00:07:31.443 --> 00:07:34.074 Os rastreios de dados não são um espelho do quem somos. 00:07:34.458 --> 00:07:36.779 Os seres humanos pensam uma coisa e dizem outra, 00:07:36.823 --> 00:07:39.368 sentem-se de uma maneira e agem de maneira diferente. 00:07:39.382 --> 00:07:42.182 As previsões algorítmicas e as nossas práticas digitais 00:07:42.182 --> 00:07:46.813 não têm em conta a imprevisibilidade e a complexidade da experiência humana. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 Mas além disso, 00:07:50.000 --> 00:07:52.684 essas tecnologias são sempre, 00:07:52.708 --> 00:07:53.976 sempre, 00:07:54.000 --> 00:07:56.430 de uma maneira ou outra, tendenciosas. 00:07:57.125 --> 00:08:02.184 Os algoritmos são, por definição, conjuntos de regras ou passos 00:08:02.208 --> 00:08:05.917 que foram concebidos para alcançar um resultado específico, OK? 00:08:06.833 --> 00:08:09.859 Mas estes conjuntos de regras ou passos não podem ser objetivos, 00:08:09.873 --> 00:08:11.996 porque foram concebidos por seres humanos 00:08:12.010 --> 00:08:13.986 dentro de um contexto cultural específico 00:08:14.010 --> 00:08:16.610 e são modelados por valores culturais específicos. 00:08:16.667 --> 00:08:18.873 Por isso quando as máquinas aprendem, 00:08:18.897 --> 00:08:21.277 aprendem a partir de algoritmos parciais, 00:08:21.625 --> 00:08:25.071 e muitas vezes aprendem também a partir de bases de dados parciais. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 De momento, estamos a ver os primeiros exemplos de viés algorítmico. 00:08:29.713 --> 00:08:33.494 E alguns destes exemplos são francamente aterradores. 00:08:34.500 --> 00:08:38.559 Este ano, o AI Now Institute em Nova Iorque publicou um relatório 00:08:38.593 --> 00:08:41.246 que revelou que as tecnologias de IA 00:08:41.260 --> 00:08:44.476 que estão a ser utilizadas para policiamento preditivo 00:08:44.500 --> 00:08:48.275 foram treinadas com base em dados "sujos". 00:08:48.333 --> 00:08:51.226 Ou seja, basicamente dados que foram reunidos 00:08:51.250 --> 00:08:55.434 durante períodos históricos conhecidos pelos preconceitos raciais 00:08:55.458 --> 00:08:58.468 e por práticas policiais pouco transparentes. 00:08:58.542 --> 00:09:02.601 Como estas tecnologias estão a ser treinadas com dados sujos, 00:09:02.625 --> 00:09:04.119 não são objetivas, 00:09:04.153 --> 00:09:08.601 e os resultados estão apenas a amplificar e a perpetrar 00:09:08.625 --> 00:09:11.080 preconceitos policiais e erros. NOTE Paragraph 00:09:13.167 --> 00:09:16.309 Por isso, eu acho que estamos a enfrentar um problema fundamental 00:09:16.333 --> 00:09:18.166 na nossa sociedade. 00:09:18.180 --> 00:09:20.815 Estamos a começar a confiar em tecnologias 00:09:20.845 --> 00:09:23.750 no que toca a traçar perfis de seres humanos. 00:09:23.780 --> 00:09:26.298 Sabemos que, ao traçarem perfis de pessoas, 00:09:26.342 --> 00:09:29.101 estas tecnologias vão ser sempre tendenciosas 00:09:29.125 --> 00:09:31.531 e nunca vão ser exatas. 00:09:31.875 --> 00:09:34.809 Por isso, precisamos agora de uma solução política. 00:09:34.843 --> 00:09:37.152 Precisamos que os governos reconheçam 00:09:37.182 --> 00:09:40.628 que os nossos direitos de dados são os nossos direitos humanos. NOTE Paragraph 00:09:40.722 --> 00:09:44.375 (Aplausos) NOTE Paragraph 00:09:47.833 --> 00:09:52.138 Enquanto isto não acontecer, não podemos ter esperança de um futuro mais justo. 00:09:52.830 --> 00:09:55.716 Eu preocupo-me que as minhas filhas sejam expostas 00:09:55.760 --> 00:09:59.266 a todo o tipo de discriminação e de erros algorítmicos. 00:09:59.350 --> 00:10:01.643 A diferença entre mim e as minhas filhas 00:10:01.667 --> 00:10:04.851 é que não há nenhum registo público da minha infância. 00:10:04.985 --> 00:10:08.893 Certamente não há nenhuma base de dados com todas as coisas estúpidas que fiz 00:10:08.917 --> 00:10:11.259 e que pensei quando era adolescente. NOTE Paragraph 00:10:11.329 --> 00:10:13.049 (Risos) NOTE Paragraph 00:10:13.833 --> 00:10:16.984 Mas para as minhas filhas isso pode ser diferente. 00:10:17.292 --> 00:10:20.246 Os dados delas que estão a ser reunidos hoje 00:10:20.500 --> 00:10:24.099 podem ser utilizados para julgá-las no futuro 00:10:24.333 --> 00:10:27.752 e podem impedir os sonhos e esperanças delas. NOTE Paragraph 00:10:28.583 --> 00:10:30.161 Eu acho que está na hora, 00:10:30.215 --> 00:10:31.739 está na hora de avançar. 00:10:31.767 --> 00:10:34.083 Está na hora de começarmos a trabalhar juntos 00:10:34.083 --> 00:10:35.738 como indivíduos, 00:10:35.812 --> 00:10:38.199 como organizações e como instituições, 00:10:38.243 --> 00:10:41.184 e exigir maior justiça de dados para nós 00:10:41.208 --> 00:10:42.701 e para os nossos filhos 00:10:42.741 --> 00:10:44.253 antes que seja tarde de mais. NOTE Paragraph 00:10:44.297 --> 00:10:45.694 Obrigada. NOTE Paragraph 00:10:45.718 --> 00:10:47.671 (Aplausos)