Todos os dias, todas as semanas,
nós concordamos com termos e condições.
E quando fazemos isso,
fornecemos às empresas o direito legal
de fazerem o que quiserem
com os nossos dados
e com os dados dos nossos filhos.
O que nos leva pensar:
quantos dados dos nossos filhos
é que estamos a ceder,
e quais são as implicações disso?
Eu sou antropóloga,
mas também sou mãe
de duas meninas pequenas.
Comecei a interessar-me
por esta questão em 2015
quando, de repente,
me apercebi de que havia
uma quantidade
quase inimaginável de dados
que estão a ser produzidos
e recolhidos sobre crianças.
Por isso, lancei
um projeto de investigação,
chamado Child Data Citizen,
com o objetivo de preencher
os espaços em branco.
Podem pensar
que estou aqui para vos acusar
de publicarem fotos dos vossos filhos
nas redes sociais,
mas o problema não é esse.
O problema é muito maior
do que o chamado "sharenting."
Isto é sobre sistemas,
não é sobre indivíduos.
Vocês e os vossos hábitos
não são os culpados.
Pela primeira vez na história,
estamos a rastrear os dados
individuais de crianças
desde antes de elas nascerem
— por vezes, desde o momento da conceção,
e depois ao longo da vida delas.
Como veem, quando os pais
decidem conceber,
vão "online" pesquisar
"maneiras de engravidar,"
ou descarregam aplicações
de monitorização da ovulação.
Quando engravidam,
publicam as ecografias
dos bebés nas redes sociais,
descarregam aplicações de gravidez
ou consultam o Dr. Google
para todo o tipo de coisas,
como, por exemplo,
"risco de aborto ao viajar de avião"
ou "dores abdominais
no início da gravidez."
Eu sei disto porque já o fiz,
e várias vezes.
Depois, quando o bebé nasce,
eles registam cada sesta, cada refeição,
cada acontecimento na sua vida,
em diferentes tecnologias.
E todas estas tecnologias,
transformam em lucro
os dados comportamentais
e médicos mais íntimos do bebé
ao partilhá-los com outros.
Para vos dar uma ideia
de como isto funciona,
em 2019, o British Medical Journal
publicou uma investigação
que mostrava que,
de 24 aplicações móveis de saúde,
19 partilhavam informações com terceiros.
E esses terceiros partilhavam informações
com outras 216 organizações.
Destas outras 216 organizações,
apenas 3 pertenciam ao setor da saúde.
As outras empresas
que tinham acesso a esses dados
eram importantes empresas de tecnologia
como o Google, o Facebook ou o Oracle,
empresas de publicidade digital
e também agências de informações
comerciais de consumo.
Vocês perceberam bem:
empresas de publicidade
e agências de crédito
podem já ter dados sobre bebés.
Mas as aplicações móveis,
os motores de pesquisa e as redes sociais
são apenas a ponta do icebergue,
porque as crianças estão a ser rastreadas
por múltiplas tecnologias
na sua vida diária.
São rastreadas
pelas tecnologias domésticas
e pelos assistentes virtuais
nas nossas casas.
São rastreadas
pelas plataformas educativas,
pelas tecnologias de educação
nas escolas.
São rastreadas por registos "online"
e por portais "online"
no consultório do médico deles.
São rastreadas pelos seus brinquedos
ligados à Internet,
pelos seus jogos "online"
e por muitas, muitas, muitas
outras tecnologias.
Durante a minha pesquisa,
muitos pais me disseram:
"E depois? Que importância tem
os meus filhos estarem a ser rastreados?
"Não temos nada a esconder."
Bem, é muito importante
É importante porque hoje em dia,
as pessoas não estão só a ser rastreadas,
também traçam os perfis delas
com base nesses dados.
A inteligência artificial e a análise
preditiva estão a ser utilizadas
para reunir o máximo de dados possível
da vida de um indivíduo
a partir de diferentes fontes:
o histórico familiar,
os hábitos de compra,
os comentários nas redes sociais.
E reúnem esses dados
para tomarem decisões orientadas
pelos dados sobre o indivíduo.
Estas tecnologias são utilizadas
em todo o lado.
Os bancos usam-nas
para decidirem empréstimos.
As companhias de seguros usam-nas
para decidirem prémios.
Os recrutadores e empregadores usam-nas
para decidirem se alguém é uma boa escolha
ou não, para um emprego.
A polícia e os tribunais também as usam
para determinarem se alguém
é um potencial criminoso
ou se é provável que voltem
a cometer um crime.
Nós não temos conhecimento nem controlo
sobre a forma como aqueles que compram,
vendem e processam os nossos dados
estão a traçar os nossos perfis
e os perfis dos nossos filhos.
Mas estes perfis podem
vir a ter impacto nos nossos direitos
de forma significativa.
Por exemplo,
em 2018 o "New York Times"
publicou a notícia
de que os dados reunidos
através de serviços de planeamento
universitário "online"
que são utilizados por milhões
de alunos do secundário nos EUA
que estão à procura de um programa
universitário ou de uma bolsa,
tinham sido vendidos
a corretores de dados educativos.
Ora, os investigadores
da Universidade de Fordham
que investigaram corretores
de dados educativos
revelaram que estas empresas traçaram
perfis de crianças a partir dos dois anos
com base em muitas outras
categorias arbitrárias.
etnia, religião, riqueza,
inépcia social
e muitas outras categorias.
Depois vendem os perfis juntamente
com os nomes das crianças,
a morada e informações de contacto
a empresas diferentes,
incluindo instituições comerciais
e de carreira,
empresas de empréstimos estudantis
e de cartões de crédito estudantis.
Para alargarem os limites,
os investigadores da Fordham pediram
a um corretor de dados educativos
que lhes fornecessem uma lista
de raparigas dos 14 aos 15 anos
que estivessem interessadas
em serviços de planeamento familiar.
O corretor aceitou fornecer a lista.
Por isso imaginem
o quão íntimo e intrusivo
isto é para os nossos filhos.
Mas os corretores de dados educativos
são apenas um exemplo.
A verdade é que os nossos filhos
estão a ter perfis
de maneiras que não conseguimos controlar
e que podem ter um impacto significativo
nas suas oportunidades na vida.
Por isso, precisamos de perguntar:
podemos confiar nestas tecnologias
para traçarem os perfis dos nossos filhos?
Podemos?
A minha resposta é não.
Como antropóloga,
eu acredito que a inteligência artificial
e a análise preditiva podem ser ótimas
para prever o decorrer de uma doença
ou para lutar contra
a alteração climática.
Mas precisamos de abandonar a convicção
de que estas tecnologias podem traçar
objetivamente perfis das pessoas
e de que podemos contar com elas
para tomarem decisões
orientadas por dados
sobre vidas individuais.
Porque elas não conseguem
traçar perfis das pessoas.
Os rastreios de dados não são
um espelho do quem somos.
Os seres humanos pensam
uma coisa e dizem outra,
sentem-se de uma maneira
e agem de maneira diferente.
As previsões algorítmicas
e as nossas práticas digitais
não têm em conta a imprevisibilidade
e a complexidade da experiência humana.
Mas além disso,
essas tecnologias são sempre,
sempre,
de uma maneira ou outra, tendenciosas.
Os algoritmos são, por definição,
conjuntos de regras ou passos
que foram concebidos para alcançar
um resultado específico, OK?
Mas estes conjuntos de regras ou passos
não podem ser objetivos,
porque foram concebidos
por seres humanos
dentro de um contexto cultural específico
e são modelados
por valores culturais específicos.
Por isso quando as máquinas aprendem,
aprendem a partir de algoritmos parciais,
e muitas vezes aprendem também
a partir de bases de dados parciais.
De momento, estamos a ver os primeiros
exemplos de viés algorítmico.
E alguns destes exemplos
são francamente aterradores.
Este ano, o AI Now Institute
em Nova Iorque publicou um relatório
que revelou que as tecnologias de IA
que estão a ser utilizadas
para policiamento preditivo
foram treinadas com base em dados "sujos".
Ou seja, basicamente dados
que foram reunidos
durante períodos históricos conhecidos
pelos preconceitos raciais
e por práticas policiais
pouco transparentes.
Como estas tecnologias estão
a ser treinadas com dados sujos,
não são objetivas,
e os resultados estão apenas
a amplificar e a perpetrar
preconceitos policiais e erros.
Por isso, eu acho que estamos a enfrentar
um problema fundamental
na nossa sociedade.
Estamos a começar a confiar
em tecnologias
no que toca a traçar perfis
de seres humanos.
Sabemos que,
ao traçarem perfis de pessoas,
estas tecnologias vão ser
sempre tendenciosas
e nunca vão ser exatas.
Por isso, precisamos agora
de uma solução política.
Precisamos que os governos reconheçam
que os nossos direitos de dados
são os nossos direitos humanos.
(Aplausos)
Enquanto isto não acontecer, não podemos
ter esperança de um futuro mais justo.
Eu preocupo-me que as minhas filhas
sejam expostas
a todo o tipo de discriminação
e de erros algorítmicos.
A diferença entre mim e as minhas filhas
é que não há nenhum registo público
da minha infância.
Certamente não há nenhuma base de dados
com todas as coisas estúpidas que fiz
e que pensei quando era adolescente.
(Risos)
Mas para as minhas filhas
isso pode ser diferente.
Os dados delas que estão
a ser reunidos hoje
podem ser utilizados
para julgá-las no futuro
e podem impedir
os sonhos e esperanças delas.
Eu acho que está na hora,
está na hora de avançar.
Está na hora de começarmos
a trabalhar juntos
como indivíduos,
como organizações e como instituições,
e exigir maior justiça de dados para nós
e para os nossos filhos
antes que seja tarde de mais.
Obrigada.
(Aplausos)