1 00:00:01,000 --> 00:00:05,269 Todo dia, toda semana, concordamos com os termos e condições. 2 00:00:05,292 --> 00:00:09,268 Quando fazemos isso, fornecemos às empresas o direito legal 3 00:00:09,292 --> 00:00:12,976 de fazerem o que quiserem com nossos dados 4 00:00:13,000 --> 00:00:15,875 e com os dados de nossos filhos. 5 00:00:16,792 --> 00:00:19,768 O que nos faz questionar: 6 00:00:19,792 --> 00:00:22,684 quantos dados sobre crianças nós damos, 7 00:00:22,708 --> 00:00:24,708 e quais são as consequências? 8 00:00:26,500 --> 00:00:27,893 Eu sou antropóloga 9 00:00:27,917 --> 00:00:30,518 e mãe de duas garotinhas. 10 00:00:30,542 --> 00:00:35,018 Passei a ter interesse nisso em 2015 11 00:00:35,042 --> 00:00:39,002 quando subitamente percebi que existem quantidades de dados enormes, 12 00:00:39,002 --> 00:00:40,809 quase inimagináveis, 13 00:00:40,833 --> 00:00:44,300 sendo produzidas e coletadas sobre crianças. 14 00:00:44,792 --> 00:00:46,768 E então, comecei um projeto de pesquisa, 15 00:00:46,792 --> 00:00:49,268 chamado Child Data Citizen, 16 00:00:49,292 --> 00:00:51,417 que almeja preencher essa lacuna. 17 00:00:52,583 --> 00:00:55,601 Talvez, pensem que estou aqui para culpar vocês 18 00:00:55,625 --> 00:00:58,393 por postar fotos de seus filhos nas redes sociais, 19 00:00:58,417 --> 00:01:00,559 mas esse não é o ponto. 20 00:01:00,583 --> 00:01:04,000 O problema é bem maior que o assim chamado "sharenting". 21 00:01:04,792 --> 00:01:08,893 É sobre sistemas, não indivíduos. 22 00:01:08,917 --> 00:01:11,208 A culpa não é dos seus hábitos. 23 00:01:12,833 --> 00:01:15,684 Pela primeira vez na história, 24 00:01:15,708 --> 00:01:18,268 estamos rastreando os dados individuais das crianças 25 00:01:18,292 --> 00:01:20,059 bem antes de elas nascerem, 26 00:01:20,083 --> 00:01:22,768 às vezes, do momento da concepção 27 00:01:22,792 --> 00:01:25,143 e depois ao longo da vida delas. 28 00:01:25,167 --> 00:01:28,268 Quando os pais decidem conceber, 29 00:01:28,292 --> 00:01:31,268 buscam on-line por "formas de engravidar", 30 00:01:31,292 --> 00:01:34,812 ou fazem download de aplicativos que rastreiam a ovulação. 31 00:01:35,250 --> 00:01:37,851 Quando a mulher consegue engravidar, 32 00:01:37,875 --> 00:01:41,018 eles postam fotos do ultrassom do bebê nas redes sociais, 33 00:01:41,042 --> 00:01:43,059 baixam aplicativos de gravidez 34 00:01:43,083 --> 00:01:46,809 ou consultam o Dr. Google para saber sobre tudo, 35 00:01:46,833 --> 00:01:48,351 por exemplo, 36 00:01:48,375 --> 00:01:50,934 "risco de aborto involuntário ao pegar um avião" 37 00:01:50,958 --> 00:01:53,726 ou "cãibras abdominais no início da gravidez". 38 00:01:53,750 --> 00:01:57,209 Eu sei porque já fiz isso, muitas vezes. 39 00:01:58,458 --> 00:02:02,558 E então, quando o bebê nasce, monitoram cada cochilo, cada refeição, 40 00:02:02,583 --> 00:02:05,767 cada evento da vida dele em uma tecnologia diferente. 41 00:02:06,083 --> 00:02:07,703 E todas essas tecnologias 42 00:02:07,703 --> 00:02:13,196 transformam os dados mais íntimos do comportamento e saúde do bebê em lucro 43 00:02:13,750 --> 00:02:15,542 através do compartilhamento. 44 00:02:16,583 --> 00:02:18,726 Explicando basicamente como isso funciona, 45 00:02:18,750 --> 00:02:23,934 em 2019, uma pesquisa publicada pelo British Medical Journal mostrou 46 00:02:23,958 --> 00:02:27,601 que de 24 aplicativos de saúde, 47 00:02:27,625 --> 00:02:31,083 19 compartilharam informações com terceiros. 48 00:02:32,083 --> 00:02:37,917 E esses terceiros compartilharam informações com outras 216 organizações. 49 00:02:38,875 --> 00:02:42,309 Dessas 216 organizações, 50 00:02:42,333 --> 00:02:45,476 somente três pertenciam ao setor da saúde. 51 00:02:45,500 --> 00:02:50,018 As outras eram grandes empresas de tecnologia 52 00:02:50,042 --> 00:02:53,559 como Google, Facebook ou Oracle, 53 00:02:53,583 --> 00:02:56,184 que estavam fazendo publicidade digital, 54 00:02:56,208 --> 00:03:00,333 e havia também uma agência de relatório do crédito ao consumidor. 55 00:03:01,125 --> 00:03:02,559 Vocês entenderam corretamente: 56 00:03:02,583 --> 00:03:07,708 empresas e agências de publicidade já devem ter dados sobre bebês. 57 00:03:09,125 --> 00:03:11,893 Só que aplicativos, pesquisas na web e redes sociais 58 00:03:11,917 --> 00:03:15,018 são apenas a ponta do iceberg, 59 00:03:15,042 --> 00:03:17,893 porque as crianças são rastreadas por diversas tecnologias 60 00:03:17,917 --> 00:03:19,643 em seus cotidianos: 61 00:03:19,667 --> 00:03:23,809 tecnologias da casa, assistentes virtuais, 62 00:03:23,833 --> 00:03:28,019 plataformas educacionais e tecnologias educacionais nas escolas, 63 00:03:28,042 --> 00:03:32,683 registros on-line e portais de seus consultórios médicos, 64 00:03:32,708 --> 00:03:36,389 brinquedos conectados à internet, jogos on-line 65 00:03:36,417 --> 00:03:39,083 e muitas outras tecnologias. 66 00:03:40,250 --> 00:03:41,893 Ao longo de minha pesquisa, 67 00:03:41,917 --> 00:03:45,309 muitos pais me perguntaram: "E daí? 68 00:03:46,083 --> 00:03:49,320 Importa se meus filhos forem rastreados? 69 00:03:50,042 --> 00:03:51,985 Não temos nada a esconder". 70 00:03:52,958 --> 00:03:54,458 Bem, importa sim. 71 00:03:55,083 --> 00:04:00,341 Importa porque os indivíduos não são apenas rastreados, 72 00:04:01,125 --> 00:04:05,226 mas também são perfilados de acordo com seus dados. 73 00:04:05,250 --> 00:04:09,059 A inteligência artificial e a análise preditiva são usadas 74 00:04:09,083 --> 00:04:12,726 para alcançar o máximo de dados possível de um indivíduo 75 00:04:12,750 --> 00:04:14,601 através de fontes diferentes: 76 00:04:14,625 --> 00:04:19,143 histórico familiar, hábitos de compra, comentários em rede sociais. 77 00:04:19,167 --> 00:04:21,018 E então, esses dados são coletados 78 00:04:21,042 --> 00:04:23,792 para orientar escolhas a respeito do indivíduo. 79 00:04:24,792 --> 00:04:28,226 E essas tecnologias são usadas em toda parte. 80 00:04:28,250 --> 00:04:30,643 Bancos as usam para decidir empréstimos. 81 00:04:30,667 --> 00:04:33,388 Seguradoras as usam para decidir valores de contratação. 82 00:04:34,208 --> 00:04:36,684 Recrutadoras e empregadores as usam 83 00:04:36,708 --> 00:04:39,625 para decidir se a pessoa se encaixa ou não num emprego. 84 00:04:40,750 --> 00:04:43,851 A polícia e os tribunais também as usam 85 00:04:43,875 --> 00:04:47,393 para determinar se alguém é um criminoso em potencial 86 00:04:47,417 --> 00:04:50,542 ou é propenso a voltar a cometer um crime. 87 00:04:52,458 --> 00:04:56,518 Nós não temos conhecimento ou controle 88 00:04:56,542 --> 00:05:00,184 sobre as formas em que aqueles que compram e vendem nossos dados 89 00:05:00,208 --> 00:05:03,567 profilam a nós e nossos filhos. 90 00:05:03,625 --> 00:05:08,177 Mas esses perfis podem impactar nossos direitos de forma significativa. 91 00:05:08,917 --> 00:05:11,125 Por exemplo, 92 00:05:13,792 --> 00:05:17,851 em 2018, o New York Times publicou 93 00:05:17,875 --> 00:05:19,851 que os dados que foram coletados 94 00:05:19,875 --> 00:05:22,934 pelos serviços de planejamento de faculdade on-line, 95 00:05:22,958 --> 00:05:27,684 que são usados por milhões de alunos do ensino médio nos EUA 96 00:05:27,708 --> 00:05:31,351 que procuram por programas ou bolsas de estudos para a faculdade, 97 00:05:31,375 --> 00:05:35,127 haviam sido vendidos para corretores de dados educacionais. 98 00:05:35,792 --> 00:05:41,226 Pesquisadores da Universidade Fordham que estudaram esse tipo de corretor 99 00:05:41,250 --> 00:05:46,476 revelaram que essas empresas perfilam crianças acima de dois anos de idade 100 00:05:46,500 --> 00:05:49,559 com base em categorias diferentes: 101 00:05:49,583 --> 00:05:53,768 etnia, religião, riqueza, 102 00:05:53,792 --> 00:05:55,561 inépcia social 103 00:05:55,875 --> 00:05:58,349 e muitas outras categorias aleatórias. 104 00:05:58,833 --> 00:06:03,851 Depois, elas vendem os perfis, juntamente com o nome das crianças, 105 00:06:03,875 --> 00:06:06,684 o endereço delas e informações de contato 106 00:06:06,708 --> 00:06:08,559 para empresas diferentes, 107 00:06:08,583 --> 00:06:12,022 incluindo instituições de carreira, comércio, 108 00:06:12,083 --> 00:06:15,595 e empresas de empréstimos e cartões de crédito estudantis. 109 00:06:16,542 --> 00:06:17,893 Para ampliar os limites, 110 00:06:17,917 --> 00:06:21,726 os pesquisadores pediram a um corretor de dados educacionais 111 00:06:21,750 --> 00:06:27,559 para providenciar uma lista com o nome de garotas de 14 e 15 anos de idade 112 00:06:27,583 --> 00:06:31,248 que estivessem interessadas em serviços de planejamento familiar. 113 00:06:32,208 --> 00:06:34,684 O corretor de dados aceitou o pedido. 114 00:06:34,708 --> 00:06:39,583 Imaginem o quanto isso é íntimo e intrusivo para nossas crianças. 115 00:06:40,833 --> 00:06:44,809 Mas esse é só um exemplo. 116 00:06:44,833 --> 00:06:49,518 A verdade é que nossos filhos estão sendo perfilados de formas incontroláveis 117 00:06:49,542 --> 00:06:52,958 que podem impactar significativamente suas oportunidades na vida. 118 00:06:54,167 --> 00:06:57,643 Então, precisamos nos perguntar: 119 00:06:57,667 --> 00:07:02,351 podemos confiar nessas tecnologias que perfilam nossos filhos? 120 00:07:02,375 --> 00:07:04,075 Será que podemos? 121 00:07:05,708 --> 00:07:07,628 Minha resposta é não. 122 00:07:07,628 --> 00:07:08,859 Como antropóloga, 123 00:07:08,859 --> 00:07:12,851 acredito que a inteligência artificial e a análise preditiva possam ser úteis 124 00:07:12,875 --> 00:07:14,893 para prever o curso de uma doença 125 00:07:14,917 --> 00:07:17,470 ou lutar contra a mudança climática. 126 00:07:18,000 --> 00:07:19,643 Mas precisamos abandonar a crença 127 00:07:19,667 --> 00:07:23,351 de que essas tecnologias podem perfilar seres humanos objetivamente 128 00:07:23,375 --> 00:07:26,559 e que podemos confiar nelas para tomar decisões sobre indivíduos 129 00:07:26,583 --> 00:07:28,476 baseadas em bancos de dados, 130 00:07:28,500 --> 00:07:31,059 porque eles não conseguem perfilar seres humanos. 131 00:07:31,083 --> 00:07:34,434 Dados não são um reflexo de quem somos. 132 00:07:34,458 --> 00:07:36,559 Humanos pensam uma coisa e dizem outra, 133 00:07:36,583 --> 00:07:39,018 sentem e agem de formas diferentes. 134 00:07:39,042 --> 00:07:41,518 Predições algorítmicas ou nossas práticas digitais 135 00:07:41,542 --> 00:07:47,008 não podem explicar a imprevisibilidade e a complexidade da vivência humana. 136 00:07:48,417 --> 00:07:49,976 Mas acima de tudo isso, 137 00:07:50,000 --> 00:07:53,998 essas tecnologias são sempre, 138 00:07:53,998 --> 00:07:56,436 de uma forma ou outra, tendenciosas. 139 00:07:57,125 --> 00:08:02,184 Algoritmos são, por definição, um conjunto de regras ou passos 140 00:08:02,208 --> 00:08:05,917 projetado para alcançar um resultado específico, certo? 141 00:08:06,833 --> 00:08:09,559 Mas esses conjuntos não podem ser objetivos 142 00:08:09,583 --> 00:08:11,726 porque são projetados por seres humanos 143 00:08:11,750 --> 00:08:13,476 num contexto cultural específico 144 00:08:13,500 --> 00:08:16,450 e são modelados por valores culturais específicos. 145 00:08:16,667 --> 00:08:18,393 Quando as máquinas aprendem, 146 00:08:18,417 --> 00:08:21,307 é através de algoritmos tendenciosos 147 00:08:21,625 --> 00:08:25,833 e, com frequência, através de bases de dados também tendenciosas. 148 00:08:25,833 --> 00:08:29,559 No momento, vemos os primeiros exemplos de viés algorítmico. 149 00:08:29,583 --> 00:08:33,083 E alguns desses exemplos são terríveis. 150 00:08:34,500 --> 00:08:38,559 Neste ano, o AI Now Institute en Nova York publicou um relatório 151 00:08:38,583 --> 00:08:40,976 que revelou que as tecnologias IA 152 00:08:41,000 --> 00:08:44,476 que estão sendo utilizadas para o policiamento preditivo 153 00:08:44,500 --> 00:08:47,625 foram treinadas com "dados sujos". 154 00:08:48,333 --> 00:08:51,226 Esses são dados que foram coletados 155 00:08:51,250 --> 00:08:55,434 durante períodos históricos de preconceito racial explícito 156 00:08:55,458 --> 00:08:57,708 e práticas policiais não transparentes. 157 00:08:58,542 --> 00:09:02,601 Por essas tecnologias serem treinadas com dados sujos, 158 00:09:02,625 --> 00:09:04,059 elas não são objetivas, 159 00:09:04,083 --> 00:09:08,601 e seus resultados estão ampliando e perpetuando 160 00:09:08,625 --> 00:09:10,750 os erros e o preconceito policial. 161 00:09:13,167 --> 00:09:16,309 Aqui, nós enfrentamos um problema fundamental 162 00:09:16,333 --> 00:09:17,976 em nossa sociedade. 163 00:09:18,000 --> 00:09:22,792 Estamos confiando em tecnologias para perfilar seres humanos, 164 00:09:23,750 --> 00:09:26,268 mas sabemos que ao fazermos isso, 165 00:09:26,292 --> 00:09:29,101 essas tecnologias sempre serão tendenciosas 166 00:09:29,125 --> 00:09:31,851 e jamais realmente precisas. 167 00:09:31,875 --> 00:09:34,809 Precisamos de uma solução política. 168 00:09:34,833 --> 00:09:40,002 Que os governos reconheçam que direitos sobre dados são direitos humanos. 169 00:09:40,292 --> 00:09:42,351 (Aplausos) 170 00:09:47,833 --> 00:09:52,537 Até que isso aconteça, não podemos esperar por um futuro mais justo. 171 00:09:52,750 --> 00:09:57,740 Preocupa-me que minhas filhas serão expostas a toda forma de discriminação 172 00:09:57,740 --> 00:09:59,226 e erro dos algoritmos. 173 00:09:59,250 --> 00:10:01,643 A diferença entre mim e minhas filhas 174 00:10:01,667 --> 00:10:04,851 é que não existe um registro público da minha infância. 175 00:10:04,875 --> 00:10:08,893 Certamente não existe base de dados sobre todas as coisas estúpidas que fiz 176 00:10:08,917 --> 00:10:11,059 e pensei quando era adolescente. 177 00:10:11,083 --> 00:10:12,583 (Risos) 178 00:10:13,833 --> 00:10:16,583 Mas, para elas, pode ser diferente. 179 00:10:17,292 --> 00:10:20,476 Os dados coletados sobre elas atualmente 180 00:10:20,500 --> 00:10:24,309 podem ser usados para julgá-las no futuro 181 00:10:24,333 --> 00:10:28,172 e impedir os sonhos e esperanças delas. 182 00:10:28,583 --> 00:10:31,583 Acho que chegou o momento de nos posicionarmos. 183 00:10:31,583 --> 00:10:34,059 De começarmos a trabalhar juntos 184 00:10:34,083 --> 00:10:35,518 como indivíduos, 185 00:10:35,542 --> 00:10:38,059 organizações e instituições, 186 00:10:38,083 --> 00:10:42,625 e exigir uma justiça de dados maior para nós e para nossas crianças 187 00:10:42,625 --> 00:10:44,143 antes que seja tarde demais. 188 00:10:44,167 --> 00:10:45,434 Obrigada. 189 00:10:45,458 --> 00:10:46,875 (Aplausos)