WEBVTT 00:00:01.000 --> 00:00:05.269 Todo dia, toda semana, concordamos com os termos e condições. 00:00:05.292 --> 00:00:09.268 Quando fazemos isso, fornecemos às empresas o direito legal 00:00:09.292 --> 00:00:12.976 de fazerem o que quiserem com nossos dados 00:00:13.000 --> 00:00:15.875 e com os dados de nossos filhos. 00:00:16.792 --> 00:00:19.768 O que nos faz questionar: 00:00:19.792 --> 00:00:22.684 quantos dados sobre crianças nós damos, 00:00:22.708 --> 00:00:24.708 e quais são as consequências? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 Eu sou antropóloga 00:00:27.917 --> 00:00:30.518 e mãe de duas garotinhas. 00:00:30.542 --> 00:00:35.018 Passei a ter interesse nisso em 2015 00:00:35.042 --> 00:00:39.002 quando subitamente percebi que existem quantidades de dados enormes, 00:00:39.002 --> 00:00:40.809 quase inimagináveis, 00:00:40.833 --> 00:00:44.300 sendo produzidas e coletadas sobre crianças. 00:00:44.792 --> 00:00:46.768 E então, comecei um projeto de pesquisa, 00:00:46.792 --> 00:00:49.268 chamado Child Data Citizen, 00:00:49.292 --> 00:00:51.417 que almeja preencher essa lacuna. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 Talvez, pensem que estou aqui para culpar vocês 00:00:55.625 --> 00:00:58.393 por postar fotos de seus filhos nas redes sociais, 00:00:58.417 --> 00:01:00.559 mas esse não é o ponto. 00:01:00.583 --> 00:01:04.000 O problema é bem maior que o assim chamado "sharenting". 00:01:04.792 --> 00:01:08.893 É sobre sistemas, não indivíduos. 00:01:08.917 --> 00:01:11.208 A culpa não é dos seus hábitos. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 Pela primeira vez na história, 00:01:15.708 --> 00:01:18.268 estamos rastreando os dados individuais das crianças 00:01:18.292 --> 00:01:20.059 bem antes de elas nascerem, 00:01:20.083 --> 00:01:22.768 às vezes, do momento da concepção 00:01:22.792 --> 00:01:25.143 e depois ao longo da vida delas. 00:01:25.167 --> 00:01:28.268 Quando os pais decidem conceber, 00:01:28.292 --> 00:01:31.268 buscam on-line por "formas de engravidar", 00:01:31.292 --> 00:01:34.812 ou fazem download de aplicativos que rastreiam a ovulação. 00:01:35.250 --> 00:01:37.851 Quando a mulher consegue engravidar, 00:01:37.875 --> 00:01:41.018 eles postam fotos do ultrassom do bebê nas redes sociais, 00:01:41.042 --> 00:01:43.059 baixam aplicativos de gravidez 00:01:43.083 --> 00:01:46.809 ou consultam o Dr. Google para saber sobre tudo, 00:01:46.833 --> 00:01:48.351 por exemplo, 00:01:48.375 --> 00:01:50.934 "risco de aborto involuntário ao pegar um avião" 00:01:50.958 --> 00:01:53.726 ou "cãibras abdominais no início da gravidez". 00:01:53.750 --> 00:01:57.209 Eu sei porque já fiz isso, muitas vezes. 00:01:58.458 --> 00:02:02.558 E então, quando o bebê nasce, monitoram cada cochilo, cada refeição, 00:02:02.583 --> 00:02:05.767 cada evento da vida dele em uma tecnologia diferente. 00:02:06.083 --> 00:02:07.703 E todas essas tecnologias 00:02:07.703 --> 00:02:13.196 transformam os dados mais íntimos do comportamento e saúde do bebê em lucro 00:02:13.750 --> 00:02:15.542 através do compartilhamento. NOTE Paragraph 00:02:16.583 --> 00:02:18.726 Explicando basicamente como isso funciona, 00:02:18.750 --> 00:02:23.934 em 2019, uma pesquisa publicada pelo British Medical Journal mostrou 00:02:23.958 --> 00:02:27.601 que de 24 aplicativos de saúde, 00:02:27.625 --> 00:02:31.083 19 compartilharam informações com terceiros. 00:02:32.083 --> 00:02:37.917 E esses terceiros compartilharam informações com outras 216 organizações. 00:02:38.875 --> 00:02:42.309 Dessas 216 organizações, 00:02:42.333 --> 00:02:45.476 somente três pertenciam ao setor da saúde. 00:02:45.500 --> 00:02:50.018 As outras eram grandes empresas de tecnologia 00:02:50.042 --> 00:02:53.559 como Google, Facebook ou Oracle, 00:02:53.583 --> 00:02:56.184 que estavam fazendo publicidade digital, 00:02:56.208 --> 00:03:00.333 e havia também uma agência de relatório do crédito ao consumidor. 00:03:01.125 --> 00:03:02.559 Vocês entenderam corretamente: 00:03:02.583 --> 00:03:07.708 empresas e agências de publicidade já devem ter dados sobre bebês. 00:03:09.125 --> 00:03:11.893 Só que aplicativos, pesquisas na web e redes sociais 00:03:11.917 --> 00:03:15.018 são apenas a ponta do iceberg, 00:03:15.042 --> 00:03:17.893 porque as crianças são rastreadas por diversas tecnologias 00:03:17.917 --> 00:03:19.643 em seus cotidianos: 00:03:19.667 --> 00:03:23.809 tecnologias da casa, assistentes virtuais, 00:03:23.833 --> 00:03:28.019 plataformas educacionais e tecnologias educacionais nas escolas, 00:03:28.042 --> 00:03:32.683 registros on-line e portais de seus consultórios médicos, 00:03:32.708 --> 00:03:36.389 brinquedos conectados à internet, jogos on-line 00:03:36.417 --> 00:03:39.083 e muitas outras tecnologias. NOTE Paragraph 00:03:40.250 --> 00:03:41.893 Ao longo de minha pesquisa, 00:03:41.917 --> 00:03:45.309 muitos pais me perguntaram: "E daí? 00:03:46.083 --> 00:03:49.320 Importa se meus filhos forem rastreados? 00:03:50.042 --> 00:03:51.985 Não temos nada a esconder". 00:03:52.958 --> 00:03:54.458 Bem, importa sim. 00:03:55.083 --> 00:04:00.341 Importa porque os indivíduos não são apenas rastreados, 00:04:01.125 --> 00:04:05.226 mas também são perfilados de acordo com seus dados. 00:04:05.250 --> 00:04:09.059 A inteligência artificial e a análise preditiva são usadas 00:04:09.083 --> 00:04:12.726 para alcançar o máximo de dados possível de um indivíduo 00:04:12.750 --> 00:04:14.601 através de fontes diferentes: 00:04:14.625 --> 00:04:19.143 histórico familiar, hábitos de compra, comentários em rede sociais. 00:04:19.167 --> 00:04:21.018 E então, esses dados são coletados 00:04:21.042 --> 00:04:23.792 para orientar escolhas a respeito do indivíduo. 00:04:24.792 --> 00:04:28.226 E essas tecnologias são usadas em toda parte. 00:04:28.250 --> 00:04:30.643 Bancos as usam para decidir empréstimos. 00:04:30.667 --> 00:04:33.388 Seguradoras as usam para decidir valores de contratação. 00:04:34.208 --> 00:04:36.684 Recrutadoras e empregadores as usam 00:04:36.708 --> 00:04:39.625 para decidir se a pessoa se encaixa ou não num emprego. 00:04:40.750 --> 00:04:43.851 A polícia e os tribunais também as usam 00:04:43.875 --> 00:04:47.393 para determinar se alguém é um criminoso em potencial 00:04:47.417 --> 00:04:50.542 ou é propenso a voltar a cometer um crime. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 Nós não temos conhecimento ou controle 00:04:56.542 --> 00:05:00.184 sobre as formas em que aqueles que compram e vendem nossos dados 00:05:00.208 --> 00:05:03.567 profilam a nós e nossos filhos. 00:05:03.625 --> 00:05:08.177 Mas esses perfis podem impactar nossos direitos de forma significativa. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 Por exemplo, 00:05:13.792 --> 00:05:17.851 em 2018, o New York Times publicou 00:05:17.875 --> 00:05:19.851 que os dados que foram coletados 00:05:19.875 --> 00:05:22.934 pelos serviços de planejamento de faculdade on-line, 00:05:22.958 --> 00:05:27.684 que são usados por milhões de alunos do ensino médio nos EUA 00:05:27.708 --> 00:05:31.351 que procuram por programas ou bolsas de estudos para a faculdade, 00:05:31.375 --> 00:05:35.127 haviam sido vendidos para corretores de dados educacionais. 00:05:35.792 --> 00:05:41.226 Pesquisadores da Universidade Fordham que estudaram esse tipo de corretor 00:05:41.250 --> 00:05:46.476 revelaram que essas empresas perfilam crianças acima de dois anos de idade 00:05:46.500 --> 00:05:49.559 com base em categorias diferentes: 00:05:49.583 --> 00:05:53.768 etnia, religião, riqueza, 00:05:53.792 --> 00:05:55.561 inépcia social 00:05:55.875 --> 00:05:58.349 e muitas outras categorias aleatórias. 00:05:58.833 --> 00:06:03.851 Depois, elas vendem os perfis, juntamente com o nome das crianças, 00:06:03.875 --> 00:06:06.684 o endereço delas e informações de contato 00:06:06.708 --> 00:06:08.559 para empresas diferentes, 00:06:08.583 --> 00:06:12.022 incluindo instituições de carreira, comércio, 00:06:12.083 --> 00:06:15.595 e empresas de empréstimos e cartões de crédito estudantis. 00:06:16.542 --> 00:06:17.893 Para ampliar os limites, 00:06:17.917 --> 00:06:21.726 os pesquisadores pediram a um corretor de dados educacionais 00:06:21.750 --> 00:06:27.559 para providenciar uma lista com o nome de garotas de 14 e 15 anos de idade 00:06:27.583 --> 00:06:31.248 que estivessem interessadas em serviços de planejamento familiar. 00:06:32.208 --> 00:06:34.684 O corretor de dados aceitou o pedido. 00:06:34.708 --> 00:06:39.583 Imaginem o quanto isso é íntimo e intrusivo para nossas crianças. 00:06:40.833 --> 00:06:44.809 Mas esse é só um exemplo. 00:06:44.833 --> 00:06:49.518 A verdade é que nossos filhos estão sendo perfilados de formas incontroláveis 00:06:49.542 --> 00:06:52.958 que podem impactar significativamente suas oportunidades na vida. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 Então, precisamos nos perguntar: 00:06:57.667 --> 00:07:02.351 podemos confiar nessas tecnologias que perfilam nossos filhos? 00:07:02.375 --> 00:07:04.075 Será que podemos? 00:07:05.708 --> 00:07:07.628 Minha resposta é não. 00:07:07.628 --> 00:07:08.859 Como antropóloga, 00:07:08.859 --> 00:07:12.851 acredito que a inteligência artificial e a análise preditiva possam ser úteis 00:07:12.875 --> 00:07:14.893 para prever o curso de uma doença 00:07:14.917 --> 00:07:17.470 ou lutar contra a mudança climática. 00:07:18.000 --> 00:07:19.643 Mas precisamos abandonar a crença 00:07:19.667 --> 00:07:23.351 de que essas tecnologias podem perfilar seres humanos objetivamente 00:07:23.375 --> 00:07:26.559 e que podemos confiar nelas para tomar decisões sobre indivíduos 00:07:26.583 --> 00:07:28.476 baseadas em bancos de dados, 00:07:28.500 --> 00:07:31.059 porque eles não conseguem perfilar seres humanos. 00:07:31.083 --> 00:07:34.434 Dados não são um reflexo de quem somos. 00:07:34.458 --> 00:07:36.559 Humanos pensam uma coisa e dizem outra, 00:07:36.583 --> 00:07:39.018 sentem e agem de formas diferentes. 00:07:39.042 --> 00:07:41.518 Predições algorítmicas ou nossas práticas digitais 00:07:41.542 --> 00:07:47.008 não podem explicar a imprevisibilidade e a complexidade da vivência humana. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 Mas acima de tudo isso, 00:07:50.000 --> 00:07:53.998 essas tecnologias são sempre, 00:07:53.998 --> 00:07:56.436 de uma forma ou outra, tendenciosas. 00:07:57.125 --> 00:08:02.184 Algoritmos são, por definição, um conjunto de regras ou passos 00:08:02.208 --> 00:08:05.917 projetado para alcançar um resultado específico, certo? 00:08:06.833 --> 00:08:09.559 Mas esses conjuntos não podem ser objetivos 00:08:09.583 --> 00:08:11.726 porque são projetados por seres humanos 00:08:11.750 --> 00:08:13.476 num contexto cultural específico 00:08:13.500 --> 00:08:16.450 e são modelados por valores culturais específicos. 00:08:16.667 --> 00:08:18.393 Quando as máquinas aprendem, 00:08:18.417 --> 00:08:21.307 é através de algoritmos tendenciosos 00:08:21.625 --> 00:08:25.833 e, com frequência, através de bases de dados também tendenciosas. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 No momento, vemos os primeiros exemplos de viés algorítmico. 00:08:29.583 --> 00:08:33.083 E alguns desses exemplos são terríveis. 00:08:34.500 --> 00:08:38.559 Neste ano, o AI Now Institute en Nova York publicou um relatório 00:08:38.583 --> 00:08:40.976 que revelou que as tecnologias IA 00:08:41.000 --> 00:08:44.476 que estão sendo utilizadas para o policiamento preditivo 00:08:44.500 --> 00:08:47.625 foram treinadas com "dados sujos". 00:08:48.333 --> 00:08:51.226 Esses são dados que foram coletados 00:08:51.250 --> 00:08:55.434 durante períodos históricos de preconceito racial explícito 00:08:55.458 --> 00:08:57.708 e práticas policiais não transparentes. 00:08:58.542 --> 00:09:02.601 Por essas tecnologias serem treinadas com dados sujos, 00:09:02.625 --> 00:09:04.059 elas não são objetivas, 00:09:04.083 --> 00:09:08.601 e seus resultados estão ampliando e perpetuando 00:09:08.625 --> 00:09:10.750 os erros e o preconceito policial. NOTE Paragraph 00:09:13.167 --> 00:09:16.309 Aqui, nós enfrentamos um problema fundamental 00:09:16.333 --> 00:09:17.976 em nossa sociedade. 00:09:18.000 --> 00:09:22.792 Estamos confiando em tecnologias para perfilar seres humanos, 00:09:23.750 --> 00:09:26.268 mas sabemos que ao fazermos isso, 00:09:26.292 --> 00:09:29.101 essas tecnologias sempre serão tendenciosas 00:09:29.125 --> 00:09:31.851 e jamais realmente precisas. 00:09:31.875 --> 00:09:34.809 Precisamos de uma solução política. 00:09:34.833 --> 00:09:40.002 Que os governos reconheçam que direitos sobre dados são direitos humanos. NOTE Paragraph 00:09:40.292 --> 00:09:42.351 (Aplausos) NOTE Paragraph 00:09:47.833 --> 00:09:52.537 Até que isso aconteça, não podemos esperar por um futuro mais justo. 00:09:52.750 --> 00:09:57.740 Preocupa-me que minhas filhas serão expostas a toda forma de discriminação 00:09:57.740 --> 00:09:59.226 e erro dos algoritmos. 00:09:59.250 --> 00:10:01.643 A diferença entre mim e minhas filhas 00:10:01.667 --> 00:10:04.851 é que não existe um registro público da minha infância. 00:10:04.875 --> 00:10:08.893 Certamente não existe base de dados sobre todas as coisas estúpidas que fiz 00:10:08.917 --> 00:10:11.059 e pensei quando era adolescente. NOTE Paragraph 00:10:11.083 --> 00:10:12.583 (Risos) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 Mas, para elas, pode ser diferente. 00:10:17.292 --> 00:10:20.476 Os dados coletados sobre elas atualmente 00:10:20.500 --> 00:10:24.309 podem ser usados para julgá-las no futuro 00:10:24.333 --> 00:10:28.172 e impedir os sonhos e esperanças delas. NOTE Paragraph 00:10:28.583 --> 00:10:31.583 Acho que chegou o momento de nos posicionarmos. 00:10:31.583 --> 00:10:34.059 De começarmos a trabalhar juntos 00:10:34.083 --> 00:10:35.518 como indivíduos, 00:10:35.542 --> 00:10:38.059 organizações e instituições, 00:10:38.083 --> 00:10:42.625 e exigir uma justiça de dados maior para nós e para nossas crianças 00:10:42.625 --> 00:10:44.143 antes que seja tarde demais. NOTE Paragraph 00:10:44.167 --> 00:10:45.434 Obrigada. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (Aplausos)