Return to Video

O que as empresas de tecnologia sabem sobre seus filhos

  • 0:01 - 0:05
    Todo dia, toda semana, concordamos
    com os termos e condições.
  • 0:05 - 0:09
    Quando fazemos isso, fornecemos
    às empresas o direito legal
  • 0:09 - 0:13
    de fazerem o que quiserem
    com nossos dados
  • 0:13 - 0:16
    e com os dados de nossos filhos.
  • 0:17 - 0:20
    O que nos faz questionar:
  • 0:20 - 0:23
    quantos dados sobre crianças nós damos,
  • 0:23 - 0:25
    e quais são as consequências?
  • 0:26 - 0:28
    Eu sou antropóloga
  • 0:28 - 0:31
    e mãe de duas garotinhas.
  • 0:31 - 0:35
    Passei a ter interesse nisso em 2015
  • 0:35 - 0:39
    quando subitamente percebi que existem
    quantidades de dados enormes,
  • 0:39 - 0:41
    quase inimagináveis,
  • 0:41 - 0:44
    sendo produzidas
    e coletadas sobre crianças.
  • 0:45 - 0:47
    E então, comecei um projeto de pesquisa,
  • 0:47 - 0:49
    chamado Child Data Citizen,
  • 0:49 - 0:51
    que almeja preencher essa lacuna.
  • 0:53 - 0:56
    Talvez, pensem que estou
    aqui para culpar vocês
  • 0:56 - 0:58
    por postar fotos
    de seus filhos nas redes sociais,
  • 0:58 - 1:01
    mas esse não é o ponto.
  • 1:01 - 1:04
    O problema é bem maior
    que o assim chamado "sharenting".
  • 1:05 - 1:09
    É sobre sistemas, não indivíduos.
  • 1:09 - 1:11
    A culpa não é dos seus hábitos.
  • 1:13 - 1:16
    Pela primeira vez na história,
  • 1:16 - 1:18
    estamos rastreando os dados
    individuais das crianças
  • 1:18 - 1:20
    bem antes de elas nascerem,
  • 1:20 - 1:23
    às vezes, do momento da concepção
  • 1:23 - 1:25
    e depois ao longo da vida delas.
  • 1:25 - 1:28
    Quando os pais decidem conceber,
  • 1:28 - 1:31
    buscam on-line por "formas de engravidar",
  • 1:31 - 1:35
    ou fazem download de aplicativos
    que rastreiam a ovulação.
  • 1:35 - 1:38
    Quando a mulher consegue engravidar,
  • 1:38 - 1:41
    eles postam fotos do ultrassom
    do bebê nas redes sociais,
  • 1:41 - 1:43
    baixam aplicativos de gravidez
  • 1:43 - 1:47
    ou consultam o Dr. Google
    para saber sobre tudo,
  • 1:47 - 1:48
    por exemplo,
  • 1:48 - 1:51
    "risco de aborto involuntário
    ao pegar um avião"
  • 1:51 - 1:54
    ou "cãibras abdominais
    no início da gravidez".
  • 1:54 - 1:57
    Eu sei porque já fiz isso, muitas vezes.
  • 1:58 - 2:03
    E então, quando o bebê nasce,
    monitoram cada cochilo, cada refeição,
  • 2:03 - 2:06
    cada evento da vida dele
    em uma tecnologia diferente.
  • 2:06 - 2:08
    E todas essas tecnologias
  • 2:08 - 2:13
    transformam os dados mais íntimos
    do comportamento e saúde do bebê em lucro
  • 2:14 - 2:16
    através do compartilhamento.
  • 2:17 - 2:19
    Explicando basicamente como isso funciona,
  • 2:19 - 2:24
    em 2019, uma pesquisa publicada
    pelo British Medical Journal mostrou
  • 2:24 - 2:28
    que de 24 aplicativos de saúde,
  • 2:28 - 2:31
    19 compartilharam
    informações com terceiros.
  • 2:32 - 2:38
    E esses terceiros compartilharam
    informações com outras 216 organizações.
  • 2:39 - 2:42
    Dessas 216 organizações,
  • 2:42 - 2:45
    somente três pertenciam ao setor da saúde.
  • 2:46 - 2:50
    As outras eram grandes
    empresas de tecnologia
  • 2:50 - 2:54
    como Google, Facebook ou Oracle,
  • 2:54 - 2:56
    que estavam fazendo publicidade digital,
  • 2:56 - 3:00
    e havia também uma agência
    de relatório do crédito ao consumidor.
  • 3:01 - 3:03
    Vocês entenderam corretamente:
  • 3:03 - 3:08
    empresas e agências de publicidade
    já devem ter dados sobre bebês.
  • 3:09 - 3:12
    Só que aplicativos, pesquisas
    na web e redes sociais
  • 3:12 - 3:15
    são apenas a ponta do iceberg,
  • 3:15 - 3:18
    porque as crianças são rastreadas
    por diversas tecnologias
  • 3:18 - 3:20
    em seus cotidianos:
  • 3:20 - 3:24
    tecnologias da casa, assistentes virtuais,
  • 3:24 - 3:28
    plataformas educacionais e tecnologias
    educacionais nas escolas,
  • 3:28 - 3:33
    registros on-line e portais
    de seus consultórios médicos,
  • 3:33 - 3:36
    brinquedos conectados
    à internet, jogos on-line
  • 3:36 - 3:39
    e muitas outras tecnologias.
  • 3:40 - 3:42
    Ao longo de minha pesquisa,
  • 3:42 - 3:45
    muitos pais me perguntaram: "E daí?
  • 3:46 - 3:49
    Importa se meus filhos forem rastreados?
  • 3:50 - 3:52
    Não temos nada a esconder".
  • 3:53 - 3:54
    Bem, importa sim.
  • 3:55 - 4:00
    Importa porque os indivíduos
    não são apenas rastreados,
  • 4:01 - 4:05
    mas também são perfilados
    de acordo com seus dados.
  • 4:05 - 4:09
    A inteligência artificial
    e a análise preditiva são usadas
  • 4:09 - 4:13
    para alcançar o máximo de dados
    possível de um indivíduo
  • 4:13 - 4:15
    através de fontes diferentes:
  • 4:15 - 4:19
    histórico familiar, hábitos de compra,
    comentários em rede sociais.
  • 4:19 - 4:21
    E então, esses dados são coletados
  • 4:21 - 4:24
    para orientar escolhas
    a respeito do indivíduo.
  • 4:25 - 4:28
    E essas tecnologias
    são usadas em toda parte.
  • 4:28 - 4:31
    Bancos as usam para decidir empréstimos.
  • 4:31 - 4:33
    Seguradoras as usam para decidir
    valores de contratação.
  • 4:34 - 4:37
    Recrutadoras e empregadores as usam
  • 4:37 - 4:40
    para decidir se a pessoa
    se encaixa ou não num emprego.
  • 4:41 - 4:44
    A polícia e os tribunais também as usam
  • 4:44 - 4:47
    para determinar se alguém
    é um criminoso em potencial
  • 4:47 - 4:51
    ou é propenso a voltar a cometer um crime.
  • 4:52 - 4:57
    Nós não temos conhecimento ou controle
  • 4:57 - 5:00
    sobre as formas em que aqueles
    que compram e vendem nossos dados
  • 5:00 - 5:04
    profilam a nós e nossos filhos.
  • 5:04 - 5:08
    Mas esses perfis podem impactar
    nossos direitos de forma significativa.
  • 5:09 - 5:11
    Por exemplo,
  • 5:14 - 5:18
    em 2018, o New York Times publicou
  • 5:18 - 5:20
    que os dados que foram coletados
  • 5:20 - 5:23
    pelos serviços de planejamento
    de faculdade on-line,
  • 5:23 - 5:28
    que são usados por milhões de alunos
    do ensino médio nos EUA
  • 5:28 - 5:31
    que procuram por programas
    ou bolsas de estudos para a faculdade,
  • 5:31 - 5:35
    haviam sido vendidos para corretores
    de dados educacionais.
  • 5:36 - 5:41
    Pesquisadores da Universidade Fordham
    que estudaram esse tipo de corretor
  • 5:41 - 5:46
    revelaram que essas empresas perfilam
    crianças acima de dois anos de idade
  • 5:46 - 5:50
    com base em categorias diferentes:
  • 5:50 - 5:54
    etnia, religião, riqueza,
  • 5:54 - 5:56
    inépcia social
  • 5:56 - 5:58
    e muitas outras categorias aleatórias.
  • 5:59 - 6:04
    Depois, elas vendem os perfis,
    juntamente com o nome das crianças,
  • 6:04 - 6:07
    o endereço delas e informações de contato
  • 6:07 - 6:09
    para empresas diferentes,
  • 6:09 - 6:12
    incluindo instituições
    de carreira, comércio,
  • 6:12 - 6:16
    e empresas de empréstimos
    e cartões de crédito estudantis.
  • 6:17 - 6:18
    Para ampliar os limites,
  • 6:18 - 6:22
    os pesquisadores pediram
    a um corretor de dados educacionais
  • 6:22 - 6:28
    para providenciar uma lista com o nome
    de garotas de 14 e 15 anos de idade
  • 6:28 - 6:31
    que estivessem interessadas
    em serviços de planejamento familiar.
  • 6:32 - 6:35
    O corretor de dados aceitou o pedido.
  • 6:35 - 6:40
    Imaginem o quanto isso é íntimo
    e intrusivo para nossas crianças.
  • 6:41 - 6:45
    Mas esse é só um exemplo.
  • 6:45 - 6:50
    A verdade é que nossos filhos estão
    sendo perfilados de formas incontroláveis
  • 6:50 - 6:53
    que podem impactar significativamente
    suas oportunidades na vida.
  • 6:54 - 6:58
    Então, precisamos nos perguntar:
  • 6:58 - 7:02
    podemos confiar nessas tecnologias
    que perfilam nossos filhos?
  • 7:02 - 7:04
    Será que podemos?
  • 7:06 - 7:08
    Minha resposta é não.
  • 7:08 - 7:09
    Como antropóloga,
  • 7:09 - 7:13
    acredito que a inteligência artificial
    e a análise preditiva possam ser úteis
  • 7:13 - 7:15
    para prever o curso de uma doença
  • 7:15 - 7:17
    ou lutar contra a mudança climática.
  • 7:18 - 7:20
    Mas precisamos abandonar a crença
  • 7:20 - 7:23
    de que essas tecnologias podem perfilar
    seres humanos objetivamente
  • 7:23 - 7:27
    e que podemos confiar nelas
    para tomar decisões sobre indivíduos
  • 7:27 - 7:28
    baseadas em bancos de dados,
  • 7:28 - 7:31
    porque eles não conseguem
    perfilar seres humanos.
  • 7:31 - 7:34
    Dados não são um reflexo de quem somos.
  • 7:34 - 7:37
    Humanos pensam uma coisa e dizem outra,
  • 7:37 - 7:39
    sentem e agem de formas diferentes.
  • 7:39 - 7:42
    Predições algorítmicas
    ou nossas práticas digitais
  • 7:42 - 7:47
    não podem explicar a imprevisibilidade
    e a complexidade da vivência humana.
  • 7:48 - 7:50
    Mas acima de tudo isso,
  • 7:50 - 7:54
    essas tecnologias são sempre,
  • 7:54 - 7:56
    de uma forma ou outra, tendenciosas.
  • 7:57 - 8:02
    Algoritmos são, por definição,
    um conjunto de regras ou passos
  • 8:02 - 8:06
    projetado para alcançar
    um resultado específico, certo?
  • 8:07 - 8:10
    Mas esses conjuntos
    não podem ser objetivos
  • 8:10 - 8:12
    porque são projetados por seres humanos
  • 8:12 - 8:13
    num contexto cultural específico
  • 8:14 - 8:16
    e são modelados por valores
    culturais específicos.
  • 8:17 - 8:18
    Quando as máquinas aprendem,
  • 8:18 - 8:21
    é através de algoritmos tendenciosos
  • 8:22 - 8:26
    e, com frequência, através de bases
    de dados também tendenciosas.
  • 8:26 - 8:30
    No momento, vemos os primeiros
    exemplos de viés algorítmico.
  • 8:30 - 8:33
    E alguns desses exemplos são terríveis.
  • 8:34 - 8:39
    Neste ano, o AI Now Institute
    en Nova York publicou um relatório
  • 8:39 - 8:41
    que revelou que as tecnologias IA
  • 8:41 - 8:44
    que estão sendo utilizadas
    para o policiamento preditivo
  • 8:44 - 8:48
    foram treinadas com "dados sujos".
  • 8:48 - 8:51
    Esses são dados que foram coletados
  • 8:51 - 8:55
    durante períodos históricos
    de preconceito racial explícito
  • 8:55 - 8:58
    e práticas policiais não transparentes.
  • 8:59 - 9:03
    Por essas tecnologias serem
    treinadas com dados sujos,
  • 9:03 - 9:04
    elas não são objetivas,
  • 9:04 - 9:09
    e seus resultados estão
    ampliando e perpetuando
  • 9:09 - 9:11
    os erros e o preconceito policial.
  • 9:13 - 9:16
    Aqui, nós enfrentamos
    um problema fundamental
  • 9:16 - 9:18
    em nossa sociedade.
  • 9:18 - 9:23
    Estamos confiando em tecnologias
    para perfilar seres humanos,
  • 9:24 - 9:26
    mas sabemos que ao fazermos isso,
  • 9:26 - 9:29
    essas tecnologias sempre
    serão tendenciosas
  • 9:29 - 9:32
    e jamais realmente precisas.
  • 9:32 - 9:35
    Precisamos de uma solução política.
  • 9:35 - 9:40
    Que os governos reconheçam que direitos
    sobre dados são direitos humanos.
  • 9:40 - 9:42
    (Aplausos)
  • 9:48 - 9:53
    Até que isso aconteça, não podemos
    esperar por um futuro mais justo.
  • 9:53 - 9:58
    Preocupa-me que minhas filhas serão
    expostas a toda forma de discriminação
  • 9:58 - 9:59
    e erro dos algoritmos.
  • 9:59 - 10:02
    A diferença entre mim e minhas filhas
  • 10:02 - 10:05
    é que não existe um registro
    público da minha infância.
  • 10:05 - 10:09
    Certamente não existe base de dados
    sobre todas as coisas estúpidas que fiz
  • 10:09 - 10:11
    e pensei quando era adolescente.
  • 10:11 - 10:13
    (Risos)
  • 10:14 - 10:17
    Mas, para elas, pode ser diferente.
  • 10:17 - 10:20
    Os dados coletados sobre elas atualmente
  • 10:20 - 10:24
    podem ser usados para julgá-las no futuro
  • 10:24 - 10:28
    e impedir os sonhos e esperanças delas.
  • 10:29 - 10:32
    Acho que chegou o momento
    de nos posicionarmos.
  • 10:32 - 10:34
    De começarmos a trabalhar juntos
  • 10:34 - 10:36
    como indivíduos,
  • 10:36 - 10:38
    organizações e instituições,
  • 10:38 - 10:43
    e exigir uma justiça de dados
    maior para nós e para nossas crianças
  • 10:43 - 10:44
    antes que seja tarde demais.
  • 10:44 - 10:45
    Obrigada.
  • 10:45 - 10:47
    (Aplausos)
タイトル:
O que as empresas de tecnologia sabem sobre seus filhos
話者:
Veronica Barassi
概説:

As plataformas digitais que você e sua família usam todos os dias, de jogos on-line a aplicativos educacionais e portais médicos, podem estar coletando e vendendo os dados de seus filhos, diz a antropologista Veronica Barassi. Ao compartilhar sua pesquisa reveladora, Barassi encoraja pais a verificar duas vezes os termos e condições ao invés de aceitá-los cegamente, e demandar proteções que garantam que os dados de suas crianças não comprometam o futuro delas.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Portuguese, Brazilian subtitles

改訂