Return to Video

O que as empresas de tecnologia sabem sobre os vossos filhos

  • 0:01 - 0:03
    Todos os dias, todas as semanas,
  • 0:03 - 0:05
    nós concordamos com termos e condições.
  • 0:05 - 0:07
    E quando fazemos isso,
  • 0:07 - 0:09
    fornecemos às empresas o direito legal
  • 0:09 - 0:13
    de fazerem o que quiserem
    com os nossos dados
  • 0:13 - 0:16
    e com os dados dos nossos filhos.
  • 0:17 - 0:20
    O que nos leva pensar:
  • 0:20 - 0:23
    quantos dados dos nossos filhos
    é que estamos a ceder,
  • 0:23 - 0:25
    e quais são as implicações disso?
  • 0:26 - 0:28
    Eu sou antropóloga,
  • 0:28 - 0:31
    mas também sou mãe
    de duas meninas pequenas.
  • 0:31 - 0:35
    Comecei a interessar-me
    por esta questão em 2015
  • 0:35 - 0:38
    quando, de repente,
    me apercebi de que havia
  • 0:38 - 0:41
    uma quantidade
    quase inimaginável de dados
  • 0:41 - 0:44
    que estão a ser produzidos
    e recolhidos sobre crianças.
  • 0:45 - 0:47
    Por isso, lancei
    um projeto de investigação,
  • 0:47 - 0:49
    chamado Child Data Citizen,
  • 0:49 - 0:52
    com o objetivo de preencher
    os espaços em branco.
  • 0:53 - 0:56
    Podem pensar
    que estou aqui para vos acusar
  • 0:56 - 0:58
    de publicarem fotos dos vossos filhos
    nas redes sociais,
  • 0:58 - 1:01
    mas o problema não é esse.
  • 1:01 - 1:04
    O problema é muito maior
    do que o chamado "sharenting."
  • 1:05 - 1:09
    Isto é sobre sistemas,
    não é sobre indivíduos.
  • 1:09 - 1:12
    Vocês e os vossos hábitos
    não são os culpados.
  • 1:13 - 1:16
    Pela primeira vez na história,
  • 1:16 - 1:18
    estamos a rastrear os dados
    individuais de crianças
  • 1:18 - 1:20
    desde antes de elas nascerem
  • 1:20 - 1:23
    — por vezes, desde o momento da conceção,
  • 1:23 - 1:25
    e depois ao longo da vida delas.
  • 1:25 - 1:28
    Como veem, quando os pais
    decidem conceber,
  • 1:28 - 1:31
    vão "online" pesquisar
    "maneiras de engravidar,"
  • 1:31 - 1:35
    ou descarregam aplicações
    de monitorização da ovulação.
  • 1:35 - 1:38
    Quando engravidam,
  • 1:38 - 1:41
    publicam as ecografias
    dos bebés nas redes sociais,
  • 1:41 - 1:43
    descarregam aplicações de gravidez
  • 1:43 - 1:47
    ou consultam o Dr. Google
    para todo o tipo de coisas,
  • 1:47 - 1:48
    como, por exemplo,
  • 1:48 - 1:51
    "risco de aborto ao viajar de avião"
  • 1:51 - 1:54
    ou "dores abdominais
    no início da gravidez."
  • 1:54 - 1:56
    Eu sei disto porque já o fiz,
  • 1:56 - 1:58
    e várias vezes.
  • 1:58 - 2:03
    Depois, quando o bebé nasce,
    eles registam cada sesta, cada refeição,
  • 2:03 - 2:04
    cada acontecimento na sua vida,
  • 2:04 - 2:06
    em diferentes tecnologias.
  • 2:06 - 2:08
    E todas estas tecnologias,
  • 2:08 - 2:10
    transformam em lucro
  • 2:10 - 2:14
    os dados comportamentais
    e médicos mais íntimos do bebé
  • 2:14 - 2:16
    ao partilhá-los com outros.
  • 2:17 - 2:19
    Para vos dar uma ideia
    de como isto funciona,
  • 2:19 - 2:23
    em 2019, o British Medical Journal
    publicou uma investigação
  • 2:24 - 2:28
    que mostrava que,
    de 24 aplicações móveis de saúde,
  • 2:28 - 2:31
    19 partilhavam informações com terceiros.
  • 2:32 - 2:38
    E esses terceiros partilhavam informações
    com outras 216 organizações.
  • 2:39 - 2:42
    Destas outras 216 organizações,
  • 2:42 - 2:45
    apenas 3 pertenciam ao setor da saúde.
  • 2:46 - 2:48
    As outras empresas
    que tinham acesso a esses dados
  • 2:48 - 2:50
    eram importantes empresas de tecnologia
  • 2:50 - 2:54
    como o Google, o Facebook ou o Oracle,
  • 2:54 - 2:56
    empresas de publicidade digital
  • 2:56 - 3:01
    e também agências de informações
    comerciais de consumo.
  • 3:01 - 3:03
    Vocês perceberam bem:
  • 3:03 - 3:05
    empresas de publicidade
    e agências de crédito
  • 3:05 - 3:08
    podem já ter dados sobre bebés.
  • 3:09 - 3:12
    Mas as aplicações móveis,
    os motores de pesquisa e as redes sociais
  • 3:12 - 3:15
    são apenas a ponta do icebergue,
  • 3:15 - 3:18
    porque as crianças estão a ser rastreadas
    por múltiplas tecnologias
  • 3:18 - 3:20
    na sua vida diária.
  • 3:20 - 3:22
    São rastreadas
    pelas tecnologias domésticas
  • 3:22 - 3:24
    e pelos assistentes virtuais
    nas nossas casas.
  • 3:24 - 3:26
    São rastreadas
    pelas plataformas educativas,
  • 3:26 - 3:28
    pelas tecnologias de educação
    nas escolas.
  • 3:28 - 3:30
    São rastreadas por registos "online"
  • 3:30 - 3:33
    e por portais "online"
    no consultório do médico deles.
  • 3:33 - 3:35
    São rastreadas pelos seus brinquedos
    ligados à Internet,
  • 3:36 - 3:37
    pelos seus jogos "online"
  • 3:37 - 3:40
    e por muitas, muitas, muitas
    outras tecnologias.
  • 3:40 - 3:42
    Durante a minha pesquisa,
  • 3:42 - 3:44
    muitos pais me disseram:
  • 3:45 - 3:49
    "E depois? Que importância tem
    os meus filhos estarem a ser rastreados?
  • 3:50 - 3:52
    "Não temos nada a esconder."
  • 3:53 - 3:55
    Bem, é muito importante
  • 3:55 - 4:01
    É importante porque hoje em dia,
    as pessoas não estão só a ser rastreadas,
  • 4:01 - 4:05
    também traçam os perfis delas
    com base nesses dados.
  • 4:05 - 4:09
    A inteligência artificial e a análise
    preditiva estão a ser utilizadas
  • 4:09 - 4:13
    para reunir o máximo de dados possível
    da vida de um indivíduo
  • 4:13 - 4:15
    a partir de diferentes fontes:
  • 4:15 - 4:17
    o histórico familiar,
    os hábitos de compra,
  • 4:17 - 4:19
    os comentários nas redes sociais.
  • 4:19 - 4:21
    E reúnem esses dados
  • 4:21 - 4:24
    para tomarem decisões orientadas
    pelos dados sobre o indivíduo.
  • 4:25 - 4:28
    Estas tecnologias são utilizadas
    em todo o lado.
  • 4:28 - 4:31
    Os bancos usam-nas
    para decidirem empréstimos.
  • 4:31 - 4:34
    As companhias de seguros usam-nas
    para decidirem prémios.
  • 4:34 - 4:37
    Os recrutadores e empregadores usam-nas
  • 4:37 - 4:40
    para decidirem se alguém é uma boa escolha
    ou não, para um emprego.
  • 4:41 - 4:44
    A polícia e os tribunais também as usam
  • 4:44 - 4:47
    para determinarem se alguém
    é um potencial criminoso
  • 4:47 - 4:50
    ou se é provável que voltem
    a cometer um crime.
  • 4:52 - 4:57
    Nós não temos conhecimento nem controlo
  • 4:57 - 5:00
    sobre a forma como aqueles que compram,
    vendem e processam os nossos dados
  • 5:00 - 5:04
    estão a traçar os nossos perfis
    e os perfis dos nossos filhos.
  • 5:04 - 5:07
    Mas estes perfis podem
    vir a ter impacto nos nossos direitos
  • 5:07 - 5:08
    de forma significativa.
  • 5:09 - 5:11
    Por exemplo,
  • 5:14 - 5:18
    em 2018 o "New York Times"
    publicou a notícia
  • 5:18 - 5:20
    de que os dados reunidos
  • 5:20 - 5:23
    através de serviços de planeamento
    universitário "online"
  • 5:23 - 5:28
    que são utilizados por milhões
    de alunos do secundário nos EUA
  • 5:28 - 5:31
    que estão à procura de um programa
    universitário ou de uma bolsa,
  • 5:31 - 5:35
    tinham sido vendidos
    a corretores de dados educativos.
  • 5:36 - 5:39
    Ora, os investigadores
    da Universidade de Fordham
  • 5:39 - 5:41
    que investigaram corretores
    de dados educativos
  • 5:41 - 5:46
    revelaram que estas empresas traçaram
    perfis de crianças a partir dos dois anos
  • 5:46 - 5:50
    com base em muitas outras
    categorias arbitrárias.
  • 5:50 - 5:53
    etnia, religião, riqueza,
  • 5:54 - 5:56
    inépcia social
  • 5:56 - 5:59
    e muitas outras categorias.
  • 5:59 - 6:04
    Depois vendem os perfis juntamente
    com os nomes das crianças,
  • 6:04 - 6:07
    a morada e informações de contacto
  • 6:07 - 6:09
    a empresas diferentes,
  • 6:09 - 6:12
    incluindo instituições comerciais
    e de carreira,
  • 6:12 - 6:14
    empresas de empréstimos estudantis
  • 6:14 - 6:16
    e de cartões de crédito estudantis.
  • 6:17 - 6:18
    Para alargarem os limites,
  • 6:18 - 6:22
    os investigadores da Fordham pediram
    a um corretor de dados educativos
  • 6:22 - 6:28
    que lhes fornecessem uma lista
    de raparigas dos 14 aos 15 anos
  • 6:28 - 6:31
    que estivessem interessadas
    em serviços de planeamento familiar.
  • 6:32 - 6:35
    O corretor aceitou fornecer a lista.
  • 6:35 - 6:38
    Por isso imaginem
    o quão íntimo e intrusivo
  • 6:38 - 6:40
    isto é para os nossos filhos.
  • 6:41 - 6:45
    Mas os corretores de dados educativos
    são apenas um exemplo.
  • 6:45 - 6:48
    A verdade é que os nossos filhos
    estão a ter perfis
  • 6:48 - 6:50
    de maneiras que não conseguimos controlar
  • 6:50 - 6:54
    e que podem ter um impacto significativo
    nas suas oportunidades na vida.
  • 6:54 - 6:57
    Por isso, precisamos de perguntar:
  • 6:58 - 7:02
    podemos confiar nestas tecnologias
    para traçarem os perfis dos nossos filhos?
  • 7:02 - 7:04
    Podemos?
  • 7:06 - 7:07
    A minha resposta é não.
  • 7:08 - 7:09
    Como antropóloga,
  • 7:09 - 7:13
    eu acredito que a inteligência artificial
    e a análise preditiva podem ser ótimas
  • 7:13 - 7:15
    para prever o decorrer de uma doença
  • 7:15 - 7:18
    ou para lutar contra
    a alteração climática.
  • 7:18 - 7:20
    Mas precisamos de abandonar a convicção
  • 7:20 - 7:23
    de que estas tecnologias podem traçar
    objetivamente perfis das pessoas
  • 7:23 - 7:25
    e de que podemos contar com elas
  • 7:25 - 7:27
    para tomarem decisões
    orientadas por dados
  • 7:27 - 7:29
    sobre vidas individuais.
  • 7:29 - 7:31
    Porque elas não conseguem
    traçar perfis das pessoas.
  • 7:31 - 7:34
    Os rastreios de dados não são
    um espelho do quem somos.
  • 7:34 - 7:37
    Os seres humanos pensam
    uma coisa e dizem outra,
  • 7:37 - 7:39
    sentem-se de uma maneira
    e agem de maneira diferente.
  • 7:39 - 7:42
    As previsões algorítmicas
    e as nossas práticas digitais
  • 7:42 - 7:47
    não têm em conta a imprevisibilidade
    e a complexidade da experiência humana.
  • 7:48 - 7:50
    Mas além disso,
  • 7:50 - 7:53
    essas tecnologias são sempre,
  • 7:53 - 7:54
    sempre,
  • 7:54 - 7:56
    de uma maneira ou outra, tendenciosas.
  • 7:57 - 8:02
    Os algoritmos são, por definição,
    conjuntos de regras ou passos
  • 8:02 - 8:06
    que foram concebidos para alcançar
    um resultado específico, OK?
  • 8:07 - 8:10
    Mas estes conjuntos de regras ou passos
    não podem ser objetivos,
  • 8:10 - 8:12
    porque foram concebidos
    por seres humanos
  • 8:12 - 8:14
    dentro de um contexto cultural específico
  • 8:14 - 8:17
    e são modelados
    por valores culturais específicos.
  • 8:17 - 8:19
    Por isso quando as máquinas aprendem,
  • 8:19 - 8:21
    aprendem a partir de algoritmos parciais,
  • 8:22 - 8:25
    e muitas vezes aprendem também
    a partir de bases de dados parciais.
  • 8:26 - 8:30
    De momento, estamos a ver os primeiros
    exemplos de viés algorítmico.
  • 8:30 - 8:33
    E alguns destes exemplos
    são francamente aterradores.
  • 8:34 - 8:39
    Este ano, o AI Now Institute
    em Nova Iorque publicou um relatório
  • 8:39 - 8:41
    que revelou que as tecnologias de IA
  • 8:41 - 8:44
    que estão a ser utilizadas
    para policiamento preditivo
  • 8:44 - 8:48
    foram treinadas com base em dados "sujos".
  • 8:48 - 8:51
    Ou seja, basicamente dados
    que foram reunidos
  • 8:51 - 8:55
    durante períodos históricos conhecidos
    pelos preconceitos raciais
  • 8:55 - 8:58
    e por práticas policiais
    pouco transparentes.
  • 8:59 - 9:03
    Como estas tecnologias estão
    a ser treinadas com dados sujos,
  • 9:03 - 9:04
    não são objetivas,
  • 9:04 - 9:09
    e os resultados estão apenas
    a amplificar e a perpetrar
  • 9:09 - 9:11
    preconceitos policiais e erros.
  • 9:13 - 9:16
    Por isso, eu acho que estamos a enfrentar
    um problema fundamental
  • 9:16 - 9:18
    na nossa sociedade.
  • 9:18 - 9:21
    Estamos a começar a confiar
    em tecnologias
  • 9:21 - 9:24
    no que toca a traçar perfis
    de seres humanos.
  • 9:24 - 9:26
    Sabemos que,
    ao traçarem perfis de pessoas,
  • 9:26 - 9:29
    estas tecnologias vão ser
    sempre tendenciosas
  • 9:29 - 9:32
    e nunca vão ser exatas.
  • 9:32 - 9:35
    Por isso, precisamos agora
    de uma solução política.
  • 9:35 - 9:37
    Precisamos que os governos reconheçam
  • 9:37 - 9:41
    que os nossos direitos de dados
    são os nossos direitos humanos.
  • 9:41 - 9:44
    (Aplausos)
  • 9:48 - 9:52
    Enquanto isto não acontecer, não podemos
    ter esperança de um futuro mais justo.
  • 9:53 - 9:56
    Eu preocupo-me que as minhas filhas
    sejam expostas
  • 9:56 - 9:59
    a todo o tipo de discriminação
    e de erros algorítmicos.
  • 9:59 - 10:02
    A diferença entre mim e as minhas filhas
  • 10:02 - 10:05
    é que não há nenhum registo público
    da minha infância.
  • 10:05 - 10:09
    Certamente não há nenhuma base de dados
    com todas as coisas estúpidas que fiz
  • 10:09 - 10:11
    e que pensei quando era adolescente.
  • 10:11 - 10:13
    (Risos)
  • 10:14 - 10:17
    Mas para as minhas filhas
    isso pode ser diferente.
  • 10:17 - 10:20
    Os dados delas que estão
    a ser reunidos hoje
  • 10:20 - 10:24
    podem ser utilizados
    para julgá-las no futuro
  • 10:24 - 10:28
    e podem impedir
    os sonhos e esperanças delas.
  • 10:29 - 10:30
    Eu acho que está na hora,
  • 10:30 - 10:32
    está na hora de avançar.
  • 10:32 - 10:34
    Está na hora de começarmos
    a trabalhar juntos
  • 10:34 - 10:36
    como indivíduos,
  • 10:36 - 10:38
    como organizações e como instituições,
  • 10:38 - 10:41
    e exigir maior justiça de dados para nós
  • 10:41 - 10:43
    e para os nossos filhos
  • 10:43 - 10:44
    antes que seja tarde de mais.
  • 10:44 - 10:46
    Obrigada.
  • 10:46 - 10:48
    (Aplausos)
タイトル:
O que as empresas de tecnologia sabem sobre os vossos filhos
話者:
Veronica Barassi
概説:

As plataformas digitais que vocês e a vossa família usam todos os dias — desde os jogos "online" a aplicações educativas e portais médicos — podem estar a recolher e a vender os dados dos vossos filhos, diz a antropóloga Veronica Barassi. Ao partilhar a sua pesquisa reveladora, Barassi aconselha os pais a olharem duas vezes para os termos e condições digitais, em vez de os aceitar às cegas — e exigirem proteções que garantam que os dados dos vossos filhos não distorcem o futuro deles.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Portuguese subtitles

改訂