0:00:01.000,0:00:05.269 Todo dia, toda semana, concordamos[br]com os termos e condições. 0:00:05.292,0:00:09.268 Quando fazemos isso, fornecemos[br]às empresas o direito legal 0:00:09.292,0:00:12.976 de fazerem o que quiserem[br]com nossos dados 0:00:13.000,0:00:15.875 e com os dados de nossos filhos. 0:00:16.792,0:00:19.768 O que nos faz questionar: 0:00:19.792,0:00:22.684 quantos dados sobre crianças nós damos, 0:00:22.708,0:00:24.708 e quais são as consequências? 0:00:26.500,0:00:27.893 Eu sou antropóloga 0:00:27.917,0:00:30.518 e mãe de duas garotinhas. 0:00:30.542,0:00:35.018 Passei a ter interesse nisso em 2015 0:00:35.042,0:00:39.002 quando subitamente percebi que existem[br]quantidades de dados enormes, 0:00:39.002,0:00:40.809 quase inimagináveis, 0:00:40.833,0:00:44.300 sendo produzidas[br]e coletadas sobre crianças. 0:00:44.792,0:00:46.768 E então, comecei um projeto de pesquisa, 0:00:46.792,0:00:49.268 chamado Child Data Citizen, 0:00:49.292,0:00:51.417 que almeja preencher essa lacuna. 0:00:52.583,0:00:55.601 Talvez, pensem que estou[br]aqui para culpar vocês 0:00:55.625,0:00:58.393 por postar fotos[br]de seus filhos nas redes sociais, 0:00:58.417,0:01:00.559 mas esse não é o ponto. 0:01:00.583,0:01:04.000 O problema é bem maior[br]que o assim chamado "sharenting". 0:01:04.792,0:01:08.893 É sobre sistemas, não indivíduos. 0:01:08.917,0:01:11.208 A culpa não é dos seus hábitos. 0:01:12.833,0:01:15.684 Pela primeira vez na história, 0:01:15.708,0:01:18.268 estamos rastreando os dados[br]individuais das crianças 0:01:18.292,0:01:20.059 bem antes de elas nascerem, 0:01:20.083,0:01:22.768 às vezes, do momento da concepção 0:01:22.792,0:01:25.143 e depois ao longo da vida delas. 0:01:25.167,0:01:28.268 Quando os pais decidem conceber, 0:01:28.292,0:01:31.268 buscam on-line por "formas de engravidar", 0:01:31.292,0:01:34.812 ou fazem download de aplicativos[br]que rastreiam a ovulação. 0:01:35.250,0:01:37.851 Quando a mulher consegue engravidar, 0:01:37.875,0:01:41.018 eles postam fotos do ultrassom[br]do bebê nas redes sociais, 0:01:41.042,0:01:43.059 baixam aplicativos de gravidez 0:01:43.083,0:01:46.809 ou consultam o Dr. Google[br]para saber sobre tudo, 0:01:46.833,0:01:48.351 por exemplo, 0:01:48.375,0:01:50.934 "risco de aborto involuntário[br]ao pegar um avião" 0:01:50.958,0:01:53.726 ou "cãibras abdominais[br]no início da gravidez". 0:01:53.750,0:01:57.209 Eu sei porque já fiz isso, muitas vezes. 0:01:58.458,0:02:02.558 E então, quando o bebê nasce,[br]monitoram cada cochilo, cada refeição, 0:02:02.583,0:02:05.767 cada evento da vida dele[br]em uma tecnologia diferente. 0:02:06.083,0:02:07.703 E todas essas tecnologias 0:02:07.703,0:02:13.196 transformam os dados mais íntimos[br]do comportamento e saúde do bebê em lucro 0:02:13.750,0:02:15.542 através do compartilhamento. 0:02:16.583,0:02:18.726 Explicando basicamente como isso funciona, 0:02:18.750,0:02:23.934 em 2019, uma pesquisa publicada[br]pelo British Medical Journal mostrou 0:02:23.958,0:02:27.601 que de 24 aplicativos de saúde, 0:02:27.625,0:02:31.083 19 compartilharam[br]informações com terceiros. 0:02:32.083,0:02:37.917 E esses terceiros compartilharam[br]informações com outras 216 organizações. 0:02:38.875,0:02:42.309 Dessas 216 organizações, 0:02:42.333,0:02:45.476 somente três pertenciam ao setor da saúde. 0:02:45.500,0:02:50.018 As outras eram grandes[br]empresas de tecnologia 0:02:50.042,0:02:53.559 como Google, Facebook ou Oracle, 0:02:53.583,0:02:56.184 que estavam fazendo publicidade digital, 0:02:56.208,0:03:00.333 e havia também uma agência[br]de relatório do crédito ao consumidor. 0:03:01.125,0:03:02.559 Vocês entenderam corretamente: 0:03:02.583,0:03:07.708 empresas e agências de publicidade[br]já devem ter dados sobre bebês. 0:03:09.125,0:03:11.893 Só que aplicativos, pesquisas[br]na web e redes sociais 0:03:11.917,0:03:15.018 são apenas a ponta do iceberg, 0:03:15.042,0:03:17.893 porque as crianças são rastreadas[br]por diversas tecnologias 0:03:17.917,0:03:19.643 em seus cotidianos: 0:03:19.667,0:03:23.809 tecnologias da casa, assistentes virtuais, 0:03:23.833,0:03:28.019 plataformas educacionais e tecnologias[br]educacionais nas escolas, 0:03:28.042,0:03:32.683 registros on-line e portais[br]de seus consultórios médicos, 0:03:32.708,0:03:36.389 brinquedos conectados[br]à internet, jogos on-line 0:03:36.417,0:03:39.083 e muitas outras tecnologias. 0:03:40.250,0:03:41.893 Ao longo de minha pesquisa, 0:03:41.917,0:03:45.309 muitos pais me perguntaram: "E daí? 0:03:46.083,0:03:49.320 Importa se meus filhos forem rastreados? 0:03:50.042,0:03:51.985 Não temos nada a esconder". 0:03:52.958,0:03:54.458 Bem, importa sim. 0:03:55.083,0:04:00.341 Importa porque os indivíduos[br]não são apenas rastreados, 0:04:01.125,0:04:05.226 mas também são perfilados[br]de acordo com seus dados. 0:04:05.250,0:04:09.059 A inteligência artificial[br]e a análise preditiva são usadas 0:04:09.083,0:04:12.726 para alcançar o máximo de dados[br]possível de um indivíduo 0:04:12.750,0:04:14.601 através de fontes diferentes: 0:04:14.625,0:04:19.143 histórico familiar, hábitos de compra,[br]comentários em rede sociais. 0:04:19.167,0:04:21.018 E então, esses dados são coletados 0:04:21.042,0:04:23.792 para orientar escolhas[br]a respeito do indivíduo. 0:04:24.792,0:04:28.226 E essas tecnologias[br]são usadas em toda parte. 0:04:28.250,0:04:30.643 Bancos as usam para decidir empréstimos. 0:04:30.667,0:04:33.388 Seguradoras as usam para decidir[br]valores de contratação. 0:04:34.208,0:04:36.684 Recrutadoras e empregadores as usam 0:04:36.708,0:04:39.625 para decidir se a pessoa[br]se encaixa ou não num emprego. 0:04:40.750,0:04:43.851 A polícia e os tribunais também as usam 0:04:43.875,0:04:47.393 para determinar se alguém[br]é um criminoso em potencial 0:04:47.417,0:04:50.542 ou é propenso a voltar a cometer um crime. 0:04:52.458,0:04:56.518 Nós não temos conhecimento ou controle 0:04:56.542,0:05:00.184 sobre as formas em que aqueles[br]que compram e vendem nossos dados 0:05:00.208,0:05:03.567 profilam a nós e nossos filhos. 0:05:03.625,0:05:08.177 Mas esses perfis podem impactar[br]nossos direitos de forma significativa. 0:05:08.917,0:05:11.125 Por exemplo, 0:05:13.792,0:05:17.851 em 2018, o New York Times publicou 0:05:17.875,0:05:19.851 que os dados que foram coletados 0:05:19.875,0:05:22.934 pelos serviços de planejamento[br]de faculdade on-line, 0:05:22.958,0:05:27.684 que são usados por milhões de alunos[br]do ensino médio nos EUA 0:05:27.708,0:05:31.351 que procuram por programas[br]ou bolsas de estudos para a faculdade, 0:05:31.375,0:05:35.127 haviam sido vendidos para corretores[br]de dados educacionais. 0:05:35.792,0:05:41.226 Pesquisadores da Universidade Fordham[br]que estudaram esse tipo de corretor 0:05:41.250,0:05:46.476 revelaram que essas empresas perfilam[br]crianças acima de dois anos de idade 0:05:46.500,0:05:49.559 com base em categorias diferentes: 0:05:49.583,0:05:53.768 etnia, religião, riqueza, 0:05:53.792,0:05:55.561 inépcia social 0:05:55.875,0:05:58.349 e muitas outras categorias aleatórias. 0:05:58.833,0:06:03.851 Depois, elas vendem os perfis,[br]juntamente com o nome das crianças, 0:06:03.875,0:06:06.684 o endereço delas e informações de contato 0:06:06.708,0:06:08.559 para empresas diferentes, 0:06:08.583,0:06:12.022 incluindo instituições[br]de carreira, comércio, 0:06:12.083,0:06:15.595 e empresas de empréstimos[br]e cartões de crédito estudantis. 0:06:16.542,0:06:17.893 Para ampliar os limites, 0:06:17.917,0:06:21.726 os pesquisadores pediram[br]a um corretor de dados educacionais 0:06:21.750,0:06:27.559 para providenciar uma lista com o nome[br]de garotas de 14 e 15 anos de idade 0:06:27.583,0:06:31.248 que estivessem interessadas[br]em serviços de planejamento familiar. 0:06:32.208,0:06:34.684 O corretor de dados aceitou o pedido. 0:06:34.708,0:06:39.583 Imaginem o quanto isso é íntimo[br]e intrusivo para nossas crianças. 0:06:40.833,0:06:44.809 Mas esse é só um exemplo. 0:06:44.833,0:06:49.518 A verdade é que nossos filhos estão[br]sendo perfilados de formas incontroláveis 0:06:49.542,0:06:52.958 que podem impactar significativamente[br]suas oportunidades na vida. 0:06:54.167,0:06:57.643 Então, precisamos nos perguntar: 0:06:57.667,0:07:02.351 podemos confiar nessas tecnologias[br]que perfilam nossos filhos? 0:07:02.375,0:07:04.075 Será que podemos? 0:07:05.708,0:07:07.628 Minha resposta é não. 0:07:07.628,0:07:08.859 Como antropóloga, 0:07:08.859,0:07:12.851 acredito que a inteligência artificial[br]e a análise preditiva possam ser úteis 0:07:12.875,0:07:14.893 para prever o curso de uma doença 0:07:14.917,0:07:17.470 ou lutar contra a mudança climática. 0:07:18.000,0:07:19.643 Mas precisamos abandonar a crença 0:07:19.667,0:07:23.351 de que essas tecnologias podem perfilar[br]seres humanos objetivamente 0:07:23.375,0:07:26.559 e que podemos confiar nelas[br]para tomar decisões sobre indivíduos 0:07:26.583,0:07:28.476 baseadas em bancos de dados, 0:07:28.500,0:07:31.059 porque eles não conseguem[br]perfilar seres humanos. 0:07:31.083,0:07:34.434 Dados não são um reflexo de quem somos. 0:07:34.458,0:07:36.559 Humanos pensam uma coisa e dizem outra, 0:07:36.583,0:07:39.018 sentem e agem de formas diferentes. 0:07:39.042,0:07:41.518 Predições algorítmicas[br]ou nossas práticas digitais 0:07:41.542,0:07:47.008 não podem explicar a imprevisibilidade[br]e a complexidade da vivência humana. 0:07:48.417,0:07:49.976 Mas acima de tudo isso, 0:07:50.000,0:07:53.998 essas tecnologias são sempre, 0:07:53.998,0:07:56.436 de uma forma ou outra, tendenciosas. 0:07:57.125,0:08:02.184 Algoritmos são, por definição,[br]um conjunto de regras ou passos 0:08:02.208,0:08:05.917 projetado para alcançar[br]um resultado específico, certo? 0:08:06.833,0:08:09.559 Mas esses conjuntos[br]não podem ser objetivos 0:08:09.583,0:08:11.726 porque são projetados por seres humanos 0:08:11.750,0:08:13.476 num contexto cultural específico 0:08:13.500,0:08:16.450 e são modelados por valores[br]culturais específicos. 0:08:16.667,0:08:18.393 Quando as máquinas aprendem, 0:08:18.417,0:08:21.307 é através de algoritmos tendenciosos 0:08:21.625,0:08:25.833 e, com frequência, através de bases[br]de dados também tendenciosas. 0:08:25.833,0:08:29.559 No momento, vemos os primeiros[br]exemplos de viés algorítmico. 0:08:29.583,0:08:33.083 E alguns desses exemplos são terríveis. 0:08:34.500,0:08:38.559 Neste ano, o AI Now Institute[br]en Nova York publicou um relatório 0:08:38.583,0:08:40.976 que revelou que as tecnologias IA 0:08:41.000,0:08:44.476 que estão sendo utilizadas[br]para o policiamento preditivo 0:08:44.500,0:08:47.625 foram treinadas com "dados sujos". 0:08:48.333,0:08:51.226 Esses são dados que foram coletados 0:08:51.250,0:08:55.434 durante períodos históricos[br]de preconceito racial explícito 0:08:55.458,0:08:57.708 e práticas policiais não transparentes. 0:08:58.542,0:09:02.601 Por essas tecnologias serem[br]treinadas com dados sujos, 0:09:02.625,0:09:04.059 elas não são objetivas, 0:09:04.083,0:09:08.601 e seus resultados estão[br]ampliando e perpetuando 0:09:08.625,0:09:10.750 os erros e o preconceito policial. 0:09:13.167,0:09:16.309 Aqui, nós enfrentamos[br]um problema fundamental 0:09:16.333,0:09:17.976 em nossa sociedade. 0:09:18.000,0:09:22.792 Estamos confiando em tecnologias[br]para perfilar seres humanos, 0:09:23.750,0:09:26.268 mas sabemos que ao fazermos isso, 0:09:26.292,0:09:29.101 essas tecnologias sempre[br]serão tendenciosas 0:09:29.125,0:09:31.851 e jamais realmente precisas. 0:09:31.875,0:09:34.809 Precisamos de uma solução política. 0:09:34.833,0:09:40.002 Que os governos reconheçam que direitos [br]sobre dados são direitos humanos. 0:09:40.292,0:09:42.351 (Aplausos) 0:09:47.833,0:09:52.537 Até que isso aconteça, não podemos[br]esperar por um futuro mais justo. 0:09:52.750,0:09:57.740 Preocupa-me que minhas filhas serão[br]expostas a toda forma de discriminação 0:09:57.740,0:09:59.226 e erro dos algoritmos. 0:09:59.250,0:10:01.643 A diferença entre mim e minhas filhas 0:10:01.667,0:10:04.851 é que não existe um registro[br]público da minha infância. 0:10:04.875,0:10:08.893 Certamente não existe base de dados[br]sobre todas as coisas estúpidas que fiz 0:10:08.917,0:10:11.059 e pensei quando era adolescente. 0:10:11.083,0:10:12.583 (Risos) 0:10:13.833,0:10:16.583 Mas, para elas, pode ser diferente. 0:10:17.292,0:10:20.476 Os dados coletados sobre elas atualmente 0:10:20.500,0:10:24.309 podem ser usados para julgá-las no futuro 0:10:24.333,0:10:28.172 e impedir os sonhos e esperanças delas. 0:10:28.583,0:10:31.583 Acho que chegou o momento[br]de nos posicionarmos. 0:10:31.583,0:10:34.059 De começarmos a trabalhar juntos 0:10:34.083,0:10:35.518 como indivíduos, 0:10:35.542,0:10:38.059 organizações e instituições, 0:10:38.083,0:10:42.625 e exigir uma justiça de dados[br]maior para nós e para nossas crianças 0:10:42.625,0:10:44.143 antes que seja tarde demais. 0:10:44.167,0:10:45.434 Obrigada. 0:10:45.458,0:10:46.875 (Aplausos)