O que as empresas de tecnologia sabem sobre os vossos filhos
-
0:01 - 0:03Todos os dias, todas as semanas,
-
0:03 - 0:05nós concordamos com termos e condições.
-
0:05 - 0:07E quando fazemos isso,
-
0:07 - 0:09fornecemos às empresas o direito legal
-
0:09 - 0:13de fazerem o que quiserem
com os nossos dados -
0:13 - 0:16e com os dados dos nossos filhos.
-
0:17 - 0:20O que nos leva pensar:
-
0:20 - 0:23quantos dados dos nossos filhos
é que estamos a ceder, -
0:23 - 0:25e quais são as implicações disso?
-
0:26 - 0:28Eu sou antropóloga,
-
0:28 - 0:31mas também sou mãe
de duas meninas pequenas. -
0:31 - 0:35Comecei a interessar-me
por esta questão em 2015 -
0:35 - 0:38quando, de repente,
me apercebi de que havia -
0:38 - 0:41uma quantidade
quase inimaginável de dados -
0:41 - 0:44que estão a ser produzidos
e recolhidos sobre crianças. -
0:45 - 0:47Por isso, lancei
um projeto de investigação, -
0:47 - 0:49chamado Child Data Citizen,
-
0:49 - 0:52com o objetivo de preencher
os espaços em branco. -
0:53 - 0:56Podem pensar
que estou aqui para vos acusar -
0:56 - 0:58de publicarem fotos dos vossos filhos
nas redes sociais, -
0:58 - 1:01mas o problema não é esse.
-
1:01 - 1:04O problema é muito maior
do que o chamado "sharenting." -
1:05 - 1:09Isto é sobre sistemas,
não é sobre indivíduos. -
1:09 - 1:12Vocês e os vossos hábitos
não são os culpados. -
1:13 - 1:16Pela primeira vez na história,
-
1:16 - 1:18estamos a rastrear os dados
individuais de crianças -
1:18 - 1:20desde antes de elas nascerem
-
1:20 - 1:23— por vezes, desde o momento da conceção,
-
1:23 - 1:25e depois ao longo da vida delas.
-
1:25 - 1:28Como veem, quando os pais
decidem conceber, -
1:28 - 1:31vão "online" pesquisar
"maneiras de engravidar," -
1:31 - 1:35ou descarregam aplicações
de monitorização da ovulação. -
1:35 - 1:38Quando engravidam,
-
1:38 - 1:41publicam as ecografias
dos bebés nas redes sociais, -
1:41 - 1:43descarregam aplicações de gravidez
-
1:43 - 1:47ou consultam o Dr. Google
para todo o tipo de coisas, -
1:47 - 1:48como, por exemplo,
-
1:48 - 1:51"risco de aborto ao viajar de avião"
-
1:51 - 1:54ou "dores abdominais
no início da gravidez." -
1:54 - 1:56Eu sei disto porque já o fiz,
-
1:56 - 1:58e várias vezes.
-
1:58 - 2:03Depois, quando o bebé nasce,
eles registam cada sesta, cada refeição, -
2:03 - 2:04cada acontecimento na sua vida,
-
2:04 - 2:06em diferentes tecnologias.
-
2:06 - 2:08E todas estas tecnologias,
-
2:08 - 2:10transformam em lucro
-
2:10 - 2:14os dados comportamentais
e médicos mais íntimos do bebé -
2:14 - 2:16ao partilhá-los com outros.
-
2:17 - 2:19Para vos dar uma ideia
de como isto funciona, -
2:19 - 2:23em 2019, o British Medical Journal
publicou uma investigação -
2:24 - 2:28que mostrava que,
de 24 aplicações móveis de saúde, -
2:28 - 2:3119 partilhavam informações com terceiros.
-
2:32 - 2:38E esses terceiros partilhavam informações
com outras 216 organizações. -
2:39 - 2:42Destas outras 216 organizações,
-
2:42 - 2:45apenas 3 pertenciam ao setor da saúde.
-
2:46 - 2:48As outras empresas
que tinham acesso a esses dados -
2:48 - 2:50eram importantes empresas de tecnologia
-
2:50 - 2:54como o Google, o Facebook ou o Oracle,
-
2:54 - 2:56empresas de publicidade digital
-
2:56 - 3:01e também agências de informações
comerciais de consumo. -
3:01 - 3:03Vocês perceberam bem:
-
3:03 - 3:05empresas de publicidade
e agências de crédito -
3:05 - 3:08podem já ter dados sobre bebés.
-
3:09 - 3:12Mas as aplicações móveis,
os motores de pesquisa e as redes sociais -
3:12 - 3:15são apenas a ponta do icebergue,
-
3:15 - 3:18porque as crianças estão a ser rastreadas
por múltiplas tecnologias -
3:18 - 3:20na sua vida diária.
-
3:20 - 3:22São rastreadas
pelas tecnologias domésticas -
3:22 - 3:24e pelos assistentes virtuais
nas nossas casas. -
3:24 - 3:26São rastreadas
pelas plataformas educativas, -
3:26 - 3:28pelas tecnologias de educação
nas escolas. -
3:28 - 3:30São rastreadas por registos "online"
-
3:30 - 3:33e por portais "online"
no consultório do médico deles. -
3:33 - 3:35São rastreadas pelos seus brinquedos
ligados à Internet, -
3:36 - 3:37pelos seus jogos "online"
-
3:37 - 3:40e por muitas, muitas, muitas
outras tecnologias. -
3:40 - 3:42Durante a minha pesquisa,
-
3:42 - 3:44muitos pais me disseram:
-
3:45 - 3:49"E depois? Que importância tem
os meus filhos estarem a ser rastreados? -
3:50 - 3:52"Não temos nada a esconder."
-
3:53 - 3:55Bem, é muito importante
-
3:55 - 4:01É importante porque hoje em dia,
as pessoas não estão só a ser rastreadas, -
4:01 - 4:05também traçam os perfis delas
com base nesses dados. -
4:05 - 4:09A inteligência artificial e a análise
preditiva estão a ser utilizadas -
4:09 - 4:13para reunir o máximo de dados possível
da vida de um indivíduo -
4:13 - 4:15a partir de diferentes fontes:
-
4:15 - 4:17o histórico familiar,
os hábitos de compra, -
4:17 - 4:19os comentários nas redes sociais.
-
4:19 - 4:21E reúnem esses dados
-
4:21 - 4:24para tomarem decisões orientadas
pelos dados sobre o indivíduo. -
4:25 - 4:28Estas tecnologias são utilizadas
em todo o lado. -
4:28 - 4:31Os bancos usam-nas
para decidirem empréstimos. -
4:31 - 4:34As companhias de seguros usam-nas
para decidirem prémios. -
4:34 - 4:37Os recrutadores e empregadores usam-nas
-
4:37 - 4:40para decidirem se alguém é uma boa escolha
ou não, para um emprego. -
4:41 - 4:44A polícia e os tribunais também as usam
-
4:44 - 4:47para determinarem se alguém
é um potencial criminoso -
4:47 - 4:50ou se é provável que voltem
a cometer um crime. -
4:52 - 4:57Nós não temos conhecimento nem controlo
-
4:57 - 5:00sobre a forma como aqueles que compram,
vendem e processam os nossos dados -
5:00 - 5:04estão a traçar os nossos perfis
e os perfis dos nossos filhos. -
5:04 - 5:07Mas estes perfis podem
vir a ter impacto nos nossos direitos -
5:07 - 5:08de forma significativa.
-
5:09 - 5:11Por exemplo,
-
5:14 - 5:18em 2018 o "New York Times"
publicou a notícia -
5:18 - 5:20de que os dados reunidos
-
5:20 - 5:23através de serviços de planeamento
universitário "online" -
5:23 - 5:28que são utilizados por milhões
de alunos do secundário nos EUA -
5:28 - 5:31que estão à procura de um programa
universitário ou de uma bolsa, -
5:31 - 5:35tinham sido vendidos
a corretores de dados educativos. -
5:36 - 5:39Ora, os investigadores
da Universidade de Fordham -
5:39 - 5:41que investigaram corretores
de dados educativos -
5:41 - 5:46revelaram que estas empresas traçaram
perfis de crianças a partir dos dois anos -
5:46 - 5:50com base em muitas outras
categorias arbitrárias. -
5:50 - 5:53etnia, religião, riqueza,
-
5:54 - 5:56inépcia social
-
5:56 - 5:59e muitas outras categorias.
-
5:59 - 6:04Depois vendem os perfis juntamente
com os nomes das crianças, -
6:04 - 6:07a morada e informações de contacto
-
6:07 - 6:09a empresas diferentes,
-
6:09 - 6:12incluindo instituições comerciais
e de carreira, -
6:12 - 6:14empresas de empréstimos estudantis
-
6:14 - 6:16e de cartões de crédito estudantis.
-
6:17 - 6:18Para alargarem os limites,
-
6:18 - 6:22os investigadores da Fordham pediram
a um corretor de dados educativos -
6:22 - 6:28que lhes fornecessem uma lista
de raparigas dos 14 aos 15 anos -
6:28 - 6:31que estivessem interessadas
em serviços de planeamento familiar. -
6:32 - 6:35O corretor aceitou fornecer a lista.
-
6:35 - 6:38Por isso imaginem
o quão íntimo e intrusivo -
6:38 - 6:40isto é para os nossos filhos.
-
6:41 - 6:45Mas os corretores de dados educativos
são apenas um exemplo. -
6:45 - 6:48A verdade é que os nossos filhos
estão a ter perfis -
6:48 - 6:50de maneiras que não conseguimos controlar
-
6:50 - 6:54e que podem ter um impacto significativo
nas suas oportunidades na vida. -
6:54 - 6:57Por isso, precisamos de perguntar:
-
6:58 - 7:02podemos confiar nestas tecnologias
para traçarem os perfis dos nossos filhos? -
7:02 - 7:04Podemos?
-
7:06 - 7:07A minha resposta é não.
-
7:08 - 7:09Como antropóloga,
-
7:09 - 7:13eu acredito que a inteligência artificial
e a análise preditiva podem ser ótimas -
7:13 - 7:15para prever o decorrer de uma doença
-
7:15 - 7:18ou para lutar contra
a alteração climática. -
7:18 - 7:20Mas precisamos de abandonar a convicção
-
7:20 - 7:23de que estas tecnologias podem traçar
objetivamente perfis das pessoas -
7:23 - 7:25e de que podemos contar com elas
-
7:25 - 7:27para tomarem decisões
orientadas por dados -
7:27 - 7:29sobre vidas individuais.
-
7:29 - 7:31Porque elas não conseguem
traçar perfis das pessoas. -
7:31 - 7:34Os rastreios de dados não são
um espelho do quem somos. -
7:34 - 7:37Os seres humanos pensam
uma coisa e dizem outra, -
7:37 - 7:39sentem-se de uma maneira
e agem de maneira diferente. -
7:39 - 7:42As previsões algorítmicas
e as nossas práticas digitais -
7:42 - 7:47não têm em conta a imprevisibilidade
e a complexidade da experiência humana. -
7:48 - 7:50Mas além disso,
-
7:50 - 7:53essas tecnologias são sempre,
-
7:53 - 7:54sempre,
-
7:54 - 7:56de uma maneira ou outra, tendenciosas.
-
7:57 - 8:02Os algoritmos são, por definição,
conjuntos de regras ou passos -
8:02 - 8:06que foram concebidos para alcançar
um resultado específico, OK? -
8:07 - 8:10Mas estes conjuntos de regras ou passos
não podem ser objetivos, -
8:10 - 8:12porque foram concebidos
por seres humanos -
8:12 - 8:14dentro de um contexto cultural específico
-
8:14 - 8:17e são modelados
por valores culturais específicos. -
8:17 - 8:19Por isso quando as máquinas aprendem,
-
8:19 - 8:21aprendem a partir de algoritmos parciais,
-
8:22 - 8:25e muitas vezes aprendem também
a partir de bases de dados parciais. -
8:26 - 8:30De momento, estamos a ver os primeiros
exemplos de viés algorítmico. -
8:30 - 8:33E alguns destes exemplos
são francamente aterradores. -
8:34 - 8:39Este ano, o AI Now Institute
em Nova Iorque publicou um relatório -
8:39 - 8:41que revelou que as tecnologias de IA
-
8:41 - 8:44que estão a ser utilizadas
para policiamento preditivo -
8:44 - 8:48foram treinadas com base em dados "sujos".
-
8:48 - 8:51Ou seja, basicamente dados
que foram reunidos -
8:51 - 8:55durante períodos históricos conhecidos
pelos preconceitos raciais -
8:55 - 8:58e por práticas policiais
pouco transparentes. -
8:59 - 9:03Como estas tecnologias estão
a ser treinadas com dados sujos, -
9:03 - 9:04não são objetivas,
-
9:04 - 9:09e os resultados estão apenas
a amplificar e a perpetrar -
9:09 - 9:11preconceitos policiais e erros.
-
9:13 - 9:16Por isso, eu acho que estamos a enfrentar
um problema fundamental -
9:16 - 9:18na nossa sociedade.
-
9:18 - 9:21Estamos a começar a confiar
em tecnologias -
9:21 - 9:24no que toca a traçar perfis
de seres humanos. -
9:24 - 9:26Sabemos que,
ao traçarem perfis de pessoas, -
9:26 - 9:29estas tecnologias vão ser
sempre tendenciosas -
9:29 - 9:32e nunca vão ser exatas.
-
9:32 - 9:35Por isso, precisamos agora
de uma solução política. -
9:35 - 9:37Precisamos que os governos reconheçam
-
9:37 - 9:41que os nossos direitos de dados
são os nossos direitos humanos. -
9:41 - 9:44(Aplausos)
-
9:48 - 9:52Enquanto isto não acontecer, não podemos
ter esperança de um futuro mais justo. -
9:53 - 9:56Eu preocupo-me que as minhas filhas
sejam expostas -
9:56 - 9:59a todo o tipo de discriminação
e de erros algorítmicos. -
9:59 - 10:02A diferença entre mim e as minhas filhas
-
10:02 - 10:05é que não há nenhum registo público
da minha infância. -
10:05 - 10:09Certamente não há nenhuma base de dados
com todas as coisas estúpidas que fiz -
10:09 - 10:11e que pensei quando era adolescente.
-
10:11 - 10:13(Risos)
-
10:14 - 10:17Mas para as minhas filhas
isso pode ser diferente. -
10:17 - 10:20Os dados delas que estão
a ser reunidos hoje -
10:20 - 10:24podem ser utilizados
para julgá-las no futuro -
10:24 - 10:28e podem impedir
os sonhos e esperanças delas. -
10:29 - 10:30Eu acho que está na hora,
-
10:30 - 10:32está na hora de avançar.
-
10:32 - 10:34Está na hora de começarmos
a trabalhar juntos -
10:34 - 10:36como indivíduos,
-
10:36 - 10:38como organizações e como instituições,
-
10:38 - 10:41e exigir maior justiça de dados para nós
-
10:41 - 10:43e para os nossos filhos
-
10:43 - 10:44antes que seja tarde de mais.
-
10:44 - 10:46Obrigada.
-
10:46 - 10:48(Aplausos)
- Title:
- O que as empresas de tecnologia sabem sobre os vossos filhos
- Speaker:
- Veronica Barassi
- Description:
-
As plataformas digitais que vocês e a vossa família usam todos os dias — desde os jogos "online" a aplicações educativas e portais médicos — podem estar a recolher e a vender os dados dos vossos filhos, diz a antropóloga Veronica Barassi. Ao partilhar a sua pesquisa reveladora, Barassi aconselha os pais a olharem duas vezes para os termos e condições digitais, em vez de os aceitar às cegas — e exigirem proteções que garantam que os dados dos vossos filhos não distorcem o futuro deles.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Margarida Ferreira approved Portuguese subtitles for What tech companies know about your kids | ||
Margarida Ferreira edited Portuguese subtitles for What tech companies know about your kids | ||
Margarida Ferreira accepted Portuguese subtitles for What tech companies know about your kids | ||
Margarida Ferreira edited Portuguese subtitles for What tech companies know about your kids | ||
Margarida Ferreira edited Portuguese subtitles for What tech companies know about your kids | ||
Beatriz Morais edited Portuguese subtitles for What tech companies know about your kids | ||
Beatriz Morais edited Portuguese subtitles for What tech companies know about your kids | ||
Vanessa Lobo edited Portuguese subtitles for What tech companies know about your kids |