O que as empresas de tecnologia sabem sobre seus filhos
-
0:01 - 0:05Todo dia, toda semana, concordamos
com os termos e condições. -
0:05 - 0:09Quando fazemos isso, fornecemos
às empresas o direito legal -
0:09 - 0:13de fazerem o que quiserem
com nossos dados -
0:13 - 0:16e com os dados de nossos filhos.
-
0:17 - 0:20O que nos faz questionar:
-
0:20 - 0:23quantos dados sobre crianças nós damos,
-
0:23 - 0:25e quais são as consequências?
-
0:26 - 0:28Eu sou antropóloga
-
0:28 - 0:31e mãe de duas garotinhas.
-
0:31 - 0:35Passei a ter interesse nisso em 2015
-
0:35 - 0:39quando subitamente percebi que existem
quantidades de dados enormes, -
0:39 - 0:41quase inimagináveis,
-
0:41 - 0:44sendo produzidas
e coletadas sobre crianças. -
0:45 - 0:47E então, comecei um projeto de pesquisa,
-
0:47 - 0:49chamado Child Data Citizen,
-
0:49 - 0:51que almeja preencher essa lacuna.
-
0:53 - 0:56Talvez, pensem que estou
aqui para culpar vocês -
0:56 - 0:58por postar fotos
de seus filhos nas redes sociais, -
0:58 - 1:01mas esse não é o ponto.
-
1:01 - 1:04O problema é bem maior
que o assim chamado "sharenting". -
1:05 - 1:09É sobre sistemas, não indivíduos.
-
1:09 - 1:11A culpa não é dos seus hábitos.
-
1:13 - 1:16Pela primeira vez na história,
-
1:16 - 1:18estamos rastreando os dados
individuais das crianças -
1:18 - 1:20bem antes de elas nascerem,
-
1:20 - 1:23às vezes, do momento da concepção
-
1:23 - 1:25e depois ao longo da vida delas.
-
1:25 - 1:28Quando os pais decidem conceber,
-
1:28 - 1:31buscam on-line por "formas de engravidar",
-
1:31 - 1:35ou fazem download de aplicativos
que rastreiam a ovulação. -
1:35 - 1:38Quando a mulher consegue engravidar,
-
1:38 - 1:41eles postam fotos do ultrassom
do bebê nas redes sociais, -
1:41 - 1:43baixam aplicativos de gravidez
-
1:43 - 1:47ou consultam o Dr. Google
para saber sobre tudo, -
1:47 - 1:48por exemplo,
-
1:48 - 1:51"risco de aborto involuntário
ao pegar um avião" -
1:51 - 1:54ou "cãibras abdominais
no início da gravidez". -
1:54 - 1:57Eu sei porque já fiz isso, muitas vezes.
-
1:58 - 2:03E então, quando o bebê nasce,
monitoram cada cochilo, cada refeição, -
2:03 - 2:06cada evento da vida dele
em uma tecnologia diferente. -
2:06 - 2:08E todas essas tecnologias
-
2:08 - 2:13transformam os dados mais íntimos
do comportamento e saúde do bebê em lucro -
2:14 - 2:16através do compartilhamento.
-
2:17 - 2:19Explicando basicamente como isso funciona,
-
2:19 - 2:24em 2019, uma pesquisa publicada
pelo British Medical Journal mostrou -
2:24 - 2:28que de 24 aplicativos de saúde,
-
2:28 - 2:3119 compartilharam
informações com terceiros. -
2:32 - 2:38E esses terceiros compartilharam
informações com outras 216 organizações. -
2:39 - 2:42Dessas 216 organizações,
-
2:42 - 2:45somente três pertenciam ao setor da saúde.
-
2:46 - 2:50As outras eram grandes
empresas de tecnologia -
2:50 - 2:54como Google, Facebook ou Oracle,
-
2:54 - 2:56que estavam fazendo publicidade digital,
-
2:56 - 3:00e havia também uma agência
de relatório do crédito ao consumidor. -
3:01 - 3:03Vocês entenderam corretamente:
-
3:03 - 3:08empresas e agências de publicidade
já devem ter dados sobre bebês. -
3:09 - 3:12Só que aplicativos, pesquisas
na web e redes sociais -
3:12 - 3:15são apenas a ponta do iceberg,
-
3:15 - 3:18porque as crianças são rastreadas
por diversas tecnologias -
3:18 - 3:20em seus cotidianos:
-
3:20 - 3:24tecnologias da casa, assistentes virtuais,
-
3:24 - 3:28plataformas educacionais e tecnologias
educacionais nas escolas, -
3:28 - 3:33registros on-line e portais
de seus consultórios médicos, -
3:33 - 3:36brinquedos conectados
à internet, jogos on-line -
3:36 - 3:39e muitas outras tecnologias.
-
3:40 - 3:42Ao longo de minha pesquisa,
-
3:42 - 3:45muitos pais me perguntaram: "E daí?
-
3:46 - 3:49Importa se meus filhos forem rastreados?
-
3:50 - 3:52Não temos nada a esconder".
-
3:53 - 3:54Bem, importa sim.
-
3:55 - 4:00Importa porque os indivíduos
não são apenas rastreados, -
4:01 - 4:05mas também são perfilados
de acordo com seus dados. -
4:05 - 4:09A inteligência artificial
e a análise preditiva são usadas -
4:09 - 4:13para alcançar o máximo de dados
possível de um indivíduo -
4:13 - 4:15através de fontes diferentes:
-
4:15 - 4:19histórico familiar, hábitos de compra,
comentários em rede sociais. -
4:19 - 4:21E então, esses dados são coletados
-
4:21 - 4:24para orientar escolhas
a respeito do indivíduo. -
4:25 - 4:28E essas tecnologias
são usadas em toda parte. -
4:28 - 4:31Bancos as usam para decidir empréstimos.
-
4:31 - 4:33Seguradoras as usam para decidir
valores de contratação. -
4:34 - 4:37Recrutadoras e empregadores as usam
-
4:37 - 4:40para decidir se a pessoa
se encaixa ou não num emprego. -
4:41 - 4:44A polícia e os tribunais também as usam
-
4:44 - 4:47para determinar se alguém
é um criminoso em potencial -
4:47 - 4:51ou é propenso a voltar a cometer um crime.
-
4:52 - 4:57Nós não temos conhecimento ou controle
-
4:57 - 5:00sobre as formas em que aqueles
que compram e vendem nossos dados -
5:00 - 5:04profilam a nós e nossos filhos.
-
5:04 - 5:08Mas esses perfis podem impactar
nossos direitos de forma significativa. -
5:09 - 5:11Por exemplo,
-
5:14 - 5:18em 2018, o New York Times publicou
-
5:18 - 5:20que os dados que foram coletados
-
5:20 - 5:23pelos serviços de planejamento
de faculdade on-line, -
5:23 - 5:28que são usados por milhões de alunos
do ensino médio nos EUA -
5:28 - 5:31que procuram por programas
ou bolsas de estudos para a faculdade, -
5:31 - 5:35haviam sido vendidos para corretores
de dados educacionais. -
5:36 - 5:41Pesquisadores da Universidade Fordham
que estudaram esse tipo de corretor -
5:41 - 5:46revelaram que essas empresas perfilam
crianças acima de dois anos de idade -
5:46 - 5:50com base em categorias diferentes:
-
5:50 - 5:54etnia, religião, riqueza,
-
5:54 - 5:56inépcia social
-
5:56 - 5:58e muitas outras categorias aleatórias.
-
5:59 - 6:04Depois, elas vendem os perfis,
juntamente com o nome das crianças, -
6:04 - 6:07o endereço delas e informações de contato
-
6:07 - 6:09para empresas diferentes,
-
6:09 - 6:12incluindo instituições
de carreira, comércio, -
6:12 - 6:16e empresas de empréstimos
e cartões de crédito estudantis. -
6:17 - 6:18Para ampliar os limites,
-
6:18 - 6:22os pesquisadores pediram
a um corretor de dados educacionais -
6:22 - 6:28para providenciar uma lista com o nome
de garotas de 14 e 15 anos de idade -
6:28 - 6:31que estivessem interessadas
em serviços de planejamento familiar. -
6:32 - 6:35O corretor de dados aceitou o pedido.
-
6:35 - 6:40Imaginem o quanto isso é íntimo
e intrusivo para nossas crianças. -
6:41 - 6:45Mas esse é só um exemplo.
-
6:45 - 6:50A verdade é que nossos filhos estão
sendo perfilados de formas incontroláveis -
6:50 - 6:53que podem impactar significativamente
suas oportunidades na vida. -
6:54 - 6:58Então, precisamos nos perguntar:
-
6:58 - 7:02podemos confiar nessas tecnologias
que perfilam nossos filhos? -
7:02 - 7:04Será que podemos?
-
7:06 - 7:08Minha resposta é não.
-
7:08 - 7:09Como antropóloga,
-
7:09 - 7:13acredito que a inteligência artificial
e a análise preditiva possam ser úteis -
7:13 - 7:15para prever o curso de uma doença
-
7:15 - 7:17ou lutar contra a mudança climática.
-
7:18 - 7:20Mas precisamos abandonar a crença
-
7:20 - 7:23de que essas tecnologias podem perfilar
seres humanos objetivamente -
7:23 - 7:27e que podemos confiar nelas
para tomar decisões sobre indivíduos -
7:27 - 7:28baseadas em bancos de dados,
-
7:28 - 7:31porque eles não conseguem
perfilar seres humanos. -
7:31 - 7:34Dados não são um reflexo de quem somos.
-
7:34 - 7:37Humanos pensam uma coisa e dizem outra,
-
7:37 - 7:39sentem e agem de formas diferentes.
-
7:39 - 7:42Predições algorítmicas
ou nossas práticas digitais -
7:42 - 7:47não podem explicar a imprevisibilidade
e a complexidade da vivência humana. -
7:48 - 7:50Mas acima de tudo isso,
-
7:50 - 7:54essas tecnologias são sempre,
-
7:54 - 7:56de uma forma ou outra, tendenciosas.
-
7:57 - 8:02Algoritmos são, por definição,
um conjunto de regras ou passos -
8:02 - 8:06projetado para alcançar
um resultado específico, certo? -
8:07 - 8:10Mas esses conjuntos
não podem ser objetivos -
8:10 - 8:12porque são projetados por seres humanos
-
8:12 - 8:13num contexto cultural específico
-
8:14 - 8:16e são modelados por valores
culturais específicos. -
8:17 - 8:18Quando as máquinas aprendem,
-
8:18 - 8:21é através de algoritmos tendenciosos
-
8:22 - 8:26e, com frequência, através de bases
de dados também tendenciosas. -
8:26 - 8:30No momento, vemos os primeiros
exemplos de viés algorítmico. -
8:30 - 8:33E alguns desses exemplos são terríveis.
-
8:34 - 8:39Neste ano, o AI Now Institute
en Nova York publicou um relatório -
8:39 - 8:41que revelou que as tecnologias IA
-
8:41 - 8:44que estão sendo utilizadas
para o policiamento preditivo -
8:44 - 8:48foram treinadas com "dados sujos".
-
8:48 - 8:51Esses são dados que foram coletados
-
8:51 - 8:55durante períodos históricos
de preconceito racial explícito -
8:55 - 8:58e práticas policiais não transparentes.
-
8:59 - 9:03Por essas tecnologias serem
treinadas com dados sujos, -
9:03 - 9:04elas não são objetivas,
-
9:04 - 9:09e seus resultados estão
ampliando e perpetuando -
9:09 - 9:11os erros e o preconceito policial.
-
9:13 - 9:16Aqui, nós enfrentamos
um problema fundamental -
9:16 - 9:18em nossa sociedade.
-
9:18 - 9:23Estamos confiando em tecnologias
para perfilar seres humanos, -
9:24 - 9:26mas sabemos que ao fazermos isso,
-
9:26 - 9:29essas tecnologias sempre
serão tendenciosas -
9:29 - 9:32e jamais realmente precisas.
-
9:32 - 9:35Precisamos de uma solução política.
-
9:35 - 9:40Que os governos reconheçam que direitos
sobre dados são direitos humanos. -
9:40 - 9:42(Aplausos)
-
9:48 - 9:53Até que isso aconteça, não podemos
esperar por um futuro mais justo. -
9:53 - 9:58Preocupa-me que minhas filhas serão
expostas a toda forma de discriminação -
9:58 - 9:59e erro dos algoritmos.
-
9:59 - 10:02A diferença entre mim e minhas filhas
-
10:02 - 10:05é que não existe um registro
público da minha infância. -
10:05 - 10:09Certamente não existe base de dados
sobre todas as coisas estúpidas que fiz -
10:09 - 10:11e pensei quando era adolescente.
-
10:11 - 10:13(Risos)
-
10:14 - 10:17Mas, para elas, pode ser diferente.
-
10:17 - 10:20Os dados coletados sobre elas atualmente
-
10:20 - 10:24podem ser usados para julgá-las no futuro
-
10:24 - 10:28e impedir os sonhos e esperanças delas.
-
10:29 - 10:32Acho que chegou o momento
de nos posicionarmos. -
10:32 - 10:34De começarmos a trabalhar juntos
-
10:34 - 10:36como indivíduos,
-
10:36 - 10:38organizações e instituições,
-
10:38 - 10:43e exigir uma justiça de dados
maior para nós e para nossas crianças -
10:43 - 10:44antes que seja tarde demais.
-
10:44 - 10:45Obrigada.
-
10:45 - 10:47(Aplausos)
- Title:
- O que as empresas de tecnologia sabem sobre seus filhos
- Speaker:
- Veronica Barassi
- Description:
-
As plataformas digitais que você e sua família usam todos os dias, de jogos on-line a aplicativos educacionais e portais médicos, podem estar coletando e vendendo os dados de seus filhos, diz a antropologista Veronica Barassi. Ao compartilhar sua pesquisa reveladora, Barassi encoraja pais a verificar duas vezes os termos e condições ao invés de aceitá-los cegamente, e demandar proteções que garantam que os dados de suas crianças não comprometam o futuro delas.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Maricene Crus approved Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus accepted Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What tech companies know about your kids |