Return to Video

Como proteger a verdade na era da desinformação

  • 0:03 - 0:07
    No dia 23 de abril de 2013,
  • 0:07 - 0:12
    a Associated Press publicou
    o seguinte "tweet":
  • 0:12 - 0:15
    "Notícia de última hora:
  • 0:15 - 0:17
    "Houve duas explosões na Casa Branca
  • 0:17 - 0:20
    "e o presidente Barack Obama foi ferido."
  • 0:20 - 0:26
    O "tweet" foi reenviado 4000 vezes
    em menos de 5 minutos,
  • 0:26 - 0:28
    e depois tornou-se viral.
  • 0:29 - 0:33
    No entanto, o "tweet" em questão
    não foi feito pela Associated Press.
  • 0:33 - 0:36
    Na verdade, era uma notícia falsa,
    ou "fake news",
  • 0:36 - 0:39
    que tinha sido divulgada
    por "hackers" sírios
  • 0:39 - 0:44
    que se tinham infiltrado
    na conta da AP no Twitter.
  • 0:44 - 0:48
    O seu propósito era criar ruturas na
    sociedade, mas foram ainda mais além,
  • 0:48 - 0:51
    porque os algoritmos automatizados
    de "trading"
  • 0:51 - 0:54
    captaram imediatamente
    o sentimento deste "tweet"
  • 0:54 - 0:57
    e começaram a trabalhar
    baseados na possibilidade
  • 0:57 - 1:01
    de o presidente dos EUA
    ter sido ferido ou morto
  • 1:01 - 1:02
    nesta explosão.
  • 1:02 - 1:04
    Assim que começaram a publicar "tweets"
  • 1:04 - 1:08
    provocaram imediatamente
    o colapso do mercado de ações,
  • 1:08 - 1:13
    liquidando 140 mil milhões de dólares
    num único dia.
  • 1:13 - 1:18
    O procurador especial dos EUA,
    Robert Mueller,
  • 1:18 - 1:21
    emitiu acusações contra
    três empresas russas
  • 1:21 - 1:24
    e treze indivíduos russos
  • 1:24 - 1:27
    por conspiração para
    defraudar os EUA
  • 1:27 - 1:31
    interferindo nas eleições
    presidenciais de 2016.
  • 1:32 - 1:35
    Essas acusações contam-nos uma história,
  • 1:35 - 1:39
    a história sobre
    a Internet Research Agency,
  • 1:39 - 1:42
    o braço sombrio do Kremlin
    nas redes sociais.
  • 1:43 - 1:46
    Só durante as eleições presidenciais,
  • 1:46 - 1:48
    as publicações da Internet Agency
  • 1:48 - 1:53
    alcançaram 126 milhões de pessoas
    nos EUA através do Facebook,
  • 1:53 - 1:56
    publicaram três milhões
    de "tweets" individuais
  • 1:56 - 2:00
    e 43 horas de conteúdos no YouTube.
  • 2:00 - 2:02
    Era tudo falso
  • 2:02 - 2:05
    — desinformação destinada
    a semear a discórdia
  • 2:05 - 2:08
    nas eleições presidenciais dos EUA.
  • 2:09 - 2:12
    Um estudo recente feito
    na Universidade de Oxford
  • 2:12 - 2:15
    mostrou que, nas recentes
    eleições da Suécia,
  • 2:15 - 2:19
    um terço de todas informações
    a circular nas redes sociais
  • 2:19 - 2:21
    sobre as eleições
  • 2:21 - 2:23
    eram falsas ou desinformação.
  • 2:23 - 2:28
    Além do mais, este tipo de campanhas
    de desinformação nas redes sociais
  • 2:28 - 2:32
    podem difundir o que vem sendo
    chamado de "propaganda genocida",
  • 2:32 - 2:35
    por exemplo contra os Rohingya em Myanmar,
  • 2:35 - 2:38
    desencadeando assassínios
    por parte de multidões na Índia.
  • 2:38 - 2:40
    Nós estudámos as notícias falsas
  • 2:40 - 2:43
    e começámos a estudar isso bem antes
    de este termo se tornar popular.
  • 2:43 - 2:48
    Recentemente publicámos o maior
    estudo longitudinal de sempre
  • 2:48 - 2:51
    sobre o crescimento "online"
    das notícias falsas
  • 2:51 - 2:54
    na capa da revista Science
    em março deste ano.
  • 2:55 - 2:59
    Estudámos todas as notícias
    verificadas como verdadeiras ou falsas
  • 2:59 - 3:01
    que já se propagaram pelo Twitter
  • 3:01 - 3:04
    desde o seu início, em 2006, até 2017.
  • 3:05 - 3:07
    Ao estudarmos estas informações,
  • 3:07 - 3:10
    estudámos notícias verificadas
  • 3:10 - 3:14
    por seis ONG independentes
    que verificam factos.
  • 3:14 - 3:17
    Por isso sabíamos quais
    as notícias verdadeiras
  • 3:17 - 3:19
    e quais as falsas.
  • 3:19 - 3:21
    Podemos medir a sua propagação,
  • 3:21 - 3:22
    a rapidez da propagação,
  • 3:22 - 3:24
    a profundidade e a amplitude
    da propagação,
  • 3:24 - 3:29
    e quantas pessoas são enganadas
    nessa torrente de informação.
  • 3:29 - 3:30
    O que fizemos neste trabalho,
  • 3:30 - 3:34
    foi comparar a propagação de factos
    e a propagação de notícias falsas.
  • 3:34 - 3:36
    E o que encontrámos foi o seguinte.
  • 3:36 - 3:40
    As notícias falsas eram propagadas
    muito mais rapidamente
  • 3:40 - 3:42
    e mais amplamente do que os factos
  • 3:42 - 3:45
    em todas as categorias
    de informações que estudámos,
  • 3:45 - 3:48
    por vezes por uma ordem de magnitude.
  • 3:48 - 3:51
    De facto, as notícias políticas falsas
    eram as mais virais.
  • 3:51 - 3:55
    Espalhavam-se mais rapidamente,
    com maior profundidade e abrangência
  • 3:55 - 3:57
    do que qualquer outro tipo
    de notícias falsas.
  • 3:57 - 3:59
    Quando notámos isto,
  • 3:59 - 4:02
    ficámos preocupados mas também curiosos.
  • 4:02 - 4:03
    Porquê?
  • 4:03 - 4:07
    Por que razão as notícias falsas vão mais
    longe, mais rápida e profundamente
  • 4:07 - 4:09
    e mais extensamente do que a verdade?
  • 4:09 - 4:11
    A primeira hipótese que formulámos foi:
  • 4:11 - 4:14
    "Talvez as pessoas
    que espalham notícias falsas
  • 4:14 - 4:16
    "tenham mais seguidores
    ou sigam mais pessoas,
  • 4:16 - 4:18
    "ou publiquem mais "tweets",
  • 4:18 - 4:22
    "ou talvez tenham contas 'verificadas'
    no Twitter, com mais credibilidade,
  • 4:22 - 4:24
    "ou talvez estejam
    há mais tempo no Twitter."
  • 4:24 - 4:27
    Examinámos todas as opções, uma a uma.
  • 4:27 - 4:29
    Porém, descobrimos exatamente o oposto.
  • 4:30 - 4:32
    Os propagadores de notícias falsas
    tinham menos seguidores,
  • 4:32 - 4:34
    seguiam poucas pessoas,
    não eram tão ativos,
  • 4:35 - 4:36
    não eram tão verificados
  • 4:36 - 4:39
    e estavam no Twitter há menos tempo.
  • 4:39 - 4:40
    Ainda assim,
  • 4:40 - 4:43
    era 70% mais provável que fossem enviadas
  • 4:43 - 4:45
    notícias falsas do que verdadeiras
  • 4:45 - 4:48
    mesmo tendo em conta estes
    e muitos outros fatores.
  • 4:49 - 4:51
    Então tivemos de encontrar
    outras explicações.
  • 4:51 - 4:55
    E criámos algo a que chamámos
    de "hipótese da novidade".
  • 4:55 - 4:57
    Se lerem a literatura sobre este tema,
  • 4:57 - 5:01
    saberão que a novidade
    atrai a atenção humana,
  • 5:01 - 5:03
    isto é, coisas que são novas no ambiente.
  • 5:03 - 5:05
    Se lerem literatura sobre sociologia,
  • 5:05 - 5:10
    saberão que gostamos de partilhar
    informações novas.
  • 5:10 - 5:14
    Faz parecer que temos acesso
    a informações privilegiadas,
  • 5:14 - 5:18
    e ganhamos estatuto por partilhar
    esse tipo de informações.
  • 5:18 - 5:24
    Então, medimos a novidade
    de um novo "tweet", verdadeiro ou falso,
  • 5:24 - 5:28
    e comparámos com
    o que cada pessoa já tinha visto
  • 5:28 - 5:31
    nos últimos 60 dias no Twitter.
  • 5:31 - 5:34
    Mas não foi o suficiente,
    pois pensámos:
  • 5:34 - 5:38
    "Talvez uma notícia falsa seja mais nova
    num sentido mais teórico-informativo,
  • 5:38 - 5:42
    "mas talvez as pessoas não
    vejam isso como novidade."
  • 5:42 - 5:46
    Então, para compreender a perceção
    das pessoas sobre notícias falsas,
  • 5:46 - 5:49
    estudámos as informações e o sentimento
  • 5:50 - 5:54
    contido nas respostas dos "tweets"
    verdadeiros e falsos.
  • 5:54 - 5:55
    E descobrimos
  • 5:55 - 5:59
    que, através de um conjunto
    de diferentes medidas de sentimentos
  • 5:59 - 6:03
    — surpresa, repugnância, medo, tristeza,
  • 6:03 - 6:05
    expetativa, alegria e confiança —
  • 6:05 - 6:11
    as notícias falsas exibiam
    maior surpresa e repugnância
  • 6:11 - 6:14
    em reação aos "tweets" falsos.
  • 6:14 - 6:18
    E as notícias verdadeiras
    exibiam maior expetativa,
  • 6:18 - 6:20
    alegria e confiança
  • 6:20 - 6:22
    em reação aos "tweets" verdadeiros.
  • 6:22 - 6:26
    Esta surpresa confirma
    a nossa hipótese de novidade.
  • 6:26 - 6:31
    Isto é novo e surpreendente,
    por isso é mais provável que partilhemos.
  • 6:31 - 6:34
    Ao mesmo tempo,
    houve testemunhos
  • 6:34 - 6:37
    em ambas as câmaras
    do Congresso dos EUA,
  • 6:37 - 6:41
    sobre o papel dos robôs
    na propagação da desinformação.
  • 6:41 - 6:42
    Também estudámos isso
  • 6:42 - 6:46
    — utilizámos vários algoritmos
    sofisticados para detetar robôs
  • 6:46 - 6:49
    para os encontrar nos nossos dados
    e retirá-los de lá.
  • 6:49 - 6:52
    Retirámo-los e voltámos a colocá-los
  • 6:52 - 6:55
    e comparámos o que acontece
    à nossa medição.
  • 6:55 - 6:57
    O que encontrámos foi que, de facto,
  • 6:57 - 7:01
    os robôs aceleravam a propagação
    das notícias falsas "online",
  • 7:01 - 7:04
    mas aceleravam a propagação
    de notícias verdadeiras
  • 7:04 - 7:06
    aproximadamente da mesma forma.
  • 7:06 - 7:09
    O que significa que os robôs
    não são responsáveis
  • 7:09 - 7:14
    pelas diferenças entre a difusão
    da verdade e da mentira "online".
  • 7:14 - 7:17
    Não podemos abdicar
    dessa responsabilidade,
  • 7:17 - 7:21
    porque nós, seres humanos,
    somos responsáveis por essa divulgação.
  • 7:22 - 7:26
    Infelizmente para todos nós,
  • 7:26 - 7:28
    tudo que vos disse até agora
  • 7:28 - 7:30
    é a melhor parte.
  • 7:31 - 7:35
    As coisas vão piorar bastante.
  • 7:36 - 7:40
    Duas tecnologias específicas
    vão piorar tudo.
  • 7:40 - 7:46
    Veremos a ascensão de uma enorme
    onda de conteúdos sintéticos.
  • 7:46 - 7:51
    Vídeos e áudios falsos muito convincentes
    para o olhar humano.
  • 7:51 - 7:54
    Isso será alimentado por duas tecnologias.
  • 7:54 - 7:58
    A primeira é conhecida por
    "rede generativa antagónica."
  • 7:58 - 8:01
    Trata-se de um modelo de aprendizagem
    de máquina com duas redes:
  • 8:01 - 8:02
    um discriminador,
  • 8:02 - 8:06
    cuja função é determinar
    se algo é verdadeiro ou falso,
  • 8:06 - 8:08
    e um gerador,
  • 8:08 - 8:11
    cuja função é gerar
    conteúdos sintéticos.
  • 8:11 - 8:16
    O gerador sintético produz áudios
    e vídeos sintéticos,
  • 8:16 - 8:21
    e o discriminador tenta dizer-nos:
    ''Isto é real ou é falso?"
  • 8:21 - 8:24
    A função do gerador
  • 8:24 - 8:28
    é maximizar a probabilidade
    de enganar o discriminador
  • 8:28 - 8:32
    para que este julgue que os áudios
    e vídeos sintéticos que está a criar
  • 8:32 - 8:33
    são, de facto, verdadeiros.
  • 8:33 - 8:36
    Imaginem uma máquina num ciclo
  • 8:36 - 8:39
    a tentar ser cada vez melhor
    no ato de nos enganar.
  • 8:39 - 8:42
    Isto, combinado com a segunda tecnologia,
  • 8:42 - 8:47
    que é basicamente a democratização
    da inteligência artificial para as pessoas,
  • 8:47 - 8:50
    a capacidade de qualquer pessoa,
  • 8:50 - 8:52
    sem nenhuma compreensão
    sobre inteligência artificial,
  • 8:52 - 8:54
    ou aprendizagem de máquina,
  • 8:54 - 8:58
    para utilizar este tipo de algoritmos
    para gerar conteúdos sintéticos
  • 8:58 - 9:02
    faz com que seja
    muito mais fácil criar vídeos.
  • 9:02 - 9:07
    A Casa Branca partilhou
    um vídeo falso, adulterado
  • 9:07 - 9:10
    de um jornalista a interagir
    com uma estagiária
  • 9:10 - 9:11
    que tentava tirar-lhe o microfone.
  • 9:11 - 9:14
    Eles removeram partes desse vídeo
  • 9:14 - 9:17
    para fazer a ação do jornalista
    parecer mais agressiva.
  • 9:17 - 9:21
    Quando videógrafos e duplos
  • 9:21 - 9:23
    foram entrevistados
    sobre este tipo de técnica,
  • 9:23 - 9:27
    disseram: "Sim, usamo-la
    com frequência em filmes
  • 9:27 - 9:32
    "para fazer com que os nossos socos
    e pontapés pareçam mais agressivos."
  • 9:32 - 9:34
    Eles partilharam este vídeo
  • 9:34 - 9:37
    e usaram-no em parte como justificação
  • 9:37 - 9:41
    para cancelar a credencial
    do repórter Jim Acosta,
  • 9:41 - 9:42
    da Casa Branca.
  • 9:43 - 9:47
    A CNN teve de processar judicialmente
    para revalidar a credencial.
  • 9:49 - 9:54
    Ocorrem-me cinco caminhos
    que podemos seguir
  • 9:54 - 9:58
    para tentar resolver alguns
    destes problemas difíceis.
  • 9:58 - 10:00
    Cada um deles inclui uma promessa,
  • 10:00 - 10:03
    mas cada um tem os seus próprios desafios.
  • 10:03 - 10:05
    O primeiro é a rotulagem.
  • 10:05 - 10:07
    Pensemos da seguinte forma:
  • 10:07 - 10:10
    quando vamos ao supermercado
    comprar a comida que consumimos,
  • 10:10 - 10:12
    esta está extensivamente rotulada.
  • 10:12 - 10:14
    Sabemos quantas calorias tem,
  • 10:14 - 10:16
    a gordura que contém
  • 10:16 - 10:20
    — no entanto, ao consumirmos informações
    não temos nenhum tipo de rótulo.
  • 10:20 - 10:22
    Qual o conteúdo dessas informações?
  • 10:22 - 10:24
    A fonte é credível?
  • 10:24 - 10:26
    Qual a proveniência dessas informações?
  • 10:26 - 10:28
    Não temos esse tipo de informação
  • 10:28 - 10:30
    quando consumimos informações.
  • 10:30 - 10:33
    É uma possibilidade,
    mas coloca alguns desafios.
  • 10:33 - 10:40
    Por exemplo, na sociedade, quem decide
    o que é verdadeiro ou falso?
  • 10:40 - 10:42
    É o governo?
  • 10:42 - 10:44
    É o Facebook?
  • 10:44 - 10:47
    É um consórcio independente
    de verificadores de factos?
  • 10:47 - 10:50
    Quem verifica os verificadores de factos?
  • 10:50 - 10:54
    Outra possibilidade são os incentivos.
  • 10:54 - 10:56
    Sabemos que, durante
    as eleições presidenciais nos EUA,
  • 10:56 - 11:00
    houve uma onda de desinformação
    proveniente da Macedónia
  • 11:00 - 11:02
    sem qualquer motivação política
  • 11:02 - 11:05
    mas com motivação económica.
  • 11:05 - 11:07
    Esta motivação económica existiu
  • 11:07 - 11:10
    porque as notícias falsas chegam
    muito mais longe, mais depressa
  • 11:10 - 11:13
    e mais profundamente do que a verdade,
  • 11:13 - 11:17
    porque podemos ganhar dinheiro
    em publicidade, atraindo as atenções
  • 11:17 - 11:20
    com esse tipo de informações.
  • 11:20 - 11:23
    Mas se pudermos diminuir a propagação
    deste tipo de informações,
  • 11:23 - 11:26
    talvez isso reduza o incentivo económico
  • 11:26 - 11:29
    de produzir este tipo de informações.
  • 11:29 - 11:32
    Em terceiro lugar,
    podemos pensar em regulamentação,
  • 11:32 - 11:34
    e certamente, devíamos
    considerar esta opção.
  • 11:34 - 11:36
    Atualmente, nos EUA,
  • 11:36 - 11:40
    estamos a estudar o que aconteceria
    se o Facebook e outros fossem regulados.
  • 11:40 - 11:44
    Embora devêssemos considerar coisas
    como regular o discurso político,
  • 11:44 - 11:47
    rotular o facto de se tratar
    de discurso político,
  • 11:47 - 11:51
    garantir que elementos estrangeiros
    não possam financiar o discurso político
  • 11:51 - 11:53
    isso também acarreta os seus perigos.
  • 11:54 - 11:58
    Por exemplo, recentemente a Malásia
    instituiu uma sentença de 6 anos de prisão
  • 11:58 - 12:01
    para qualquer pessoa
    que propague desinformações.
  • 12:02 - 12:04
    Em regimes autoritários,
  • 12:04 - 12:08
    esta política pode ser usada
    para reprimir opiniões de minorias
  • 12:08 - 12:12
    e manter a repressão.
  • 12:13 - 12:16
    A quarta opção possível é a transparência.
  • 12:17 - 12:21
    Queremos saber como funcionam
    os algoritmos do Facebook.
  • 12:21 - 12:23
    Como é que os dados
    se combinam com os algoritmos
  • 12:23 - 12:26
    para produzir os resultados que vemos?
  • 12:26 - 12:29
    Queremos que eles "abram o quimono"
  • 12:29 - 12:33
    e nos mostrem o funcionamento
    interno do Facebook.
  • 12:33 - 12:36
    E se quisermos saber o impacto
    das redes sociais na sociedade
  • 12:36 - 12:38
    precisamos de cientistas e investigadores
  • 12:38 - 12:41
    e outros meios de acesso
    a este tipo de informações.
  • 12:41 - 12:43
    Mas, simultaneamente,
  • 12:43 - 12:46
    estamos a pedir ao Facebook
    para trancar tudo,
  • 12:46 - 12:49
    para guardar todas as informações
    de forma segura.
  • 12:49 - 12:52
    O Facebook e outras plataformas
    de redes sociais
  • 12:52 - 12:55
    estão a enfrentar o que chamamos
    de paradoxo da transparência.
  • 12:55 - 12:58
    Pedimos-lhes para serem, simultaneamente
  • 12:59 - 13:03
    abertos, transparentes e seguros.
  • 13:03 - 13:05
    É uma linha muito difícil de traçar,
  • 13:06 - 13:07
    mas deverão traçá-la
  • 13:07 - 13:11
    se o objetivo for cumprir a promessa
    das tecnologias sociais
  • 13:11 - 13:13
    enquanto evitamos os seus perigos.
  • 13:13 - 13:18
    O último aspeto são os algoritmos
    e a aprendizagem de máquina
  • 13:18 - 13:22
    Tecnologia criada para retirar
    notícias falsas, compreendê-las,
  • 13:22 - 13:26
    como se propagam
    e tentar diminuir o seu fluxo.
  • 13:26 - 13:29
    Precisamos de compreender
    esta tecnologia,
  • 13:29 - 13:32
    porque nunca vamos escapar
    ao facto de que
  • 13:32 - 13:35
    subjacentes a qualquer solução
    ou abordagem tecnológica
  • 13:35 - 13:39
    estão as questões éticas
    e filosóficas fundamentais
  • 13:39 - 13:42
    sobre como definimos
    a verdade e a falsidade,
  • 13:42 - 13:46
    a quem atribuímos o poder
    para definir a verdade e a falsidade,
  • 13:46 - 13:48
    que opiniões são legítimas,
  • 13:48 - 13:52
    e que tipo de discurso
    deve ser permitido, etc.
  • 13:52 - 13:54
    A tecnologia não é uma solução para isso.
  • 13:54 - 13:58
    A solução é a ética e a filosofia.
  • 13:59 - 14:02
    Quase todas as teorias
    sobre a tomada de decisões humanas,
  • 14:02 - 14:05
    a cooperação e coordenação humanas,
  • 14:05 - 14:09
    têm, no seu cerne,
    um sentido do que é a verdade.
  • 14:09 - 14:11
    Mas, com o aumento das notícias falsas,
  • 14:11 - 14:13
    com o aumento dos vídeos falsos,
  • 14:13 - 14:15
    o aumento dos áudios falsos,
  • 14:15 - 14:19
    estamos no limiar do fim da realidade
  • 14:19 - 14:23
    em que não sabemos o que é a verdade
    e o que é a mentira.
  • 14:23 - 14:26
    E isso é potencialmente
    incrivelmente perigoso.
  • 14:27 - 14:31
    Temos de ser vigilantes
    em defender a verdade
  • 14:31 - 14:33
    contra a desinformação.
  • 14:33 - 14:36
    Com as nossas tecnologias,
    com as nossas políticas
  • 14:36 - 14:38
    e, talvez, o mais importante,
  • 14:38 - 14:41
    com as nossas
    responsabilidades individuais,
  • 14:42 - 14:45
    as decisões, os comportamentos e as ações.
  • 14:45 - 14:47
    Muito obrigado.
  • 14:47 - 14:50
    (Aplausos)
Title:
Como proteger a verdade na era da desinformação
Speaker:
Sinan Aral
Description:

As notícias falsas podem influenciar eleições, criar vulnerabilidades na economia e semear discórdias no dia-a-dia. Sinan Aral, cientista de dados, desmistifica como e por que razão isto se alastra tão rapidamente — citando um dos maiores estudos realizados sobre desinformação e identificando cinco estratégias para nos ajudar a desfazer a teia emaranhada entre o verdadeiro e falso.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03
  • Tradução original de Mariana de Oliveira tinha sido feita para português do Brasil, o que não é aceitável neste caso. Continha imensos erros de tradução e algumas expressões tinham claramente sido mal compreendidas e traduzidas por um tradutor automático. Por exemplo, "disseminar" como tradução de "disrupt" e "parar" como tradução de "seize" - "immediately seized on the sentiment on this tweet" tinha sido traduzido para "imediatamente pararam no sentimento do tweet".

Portuguese subtitles

Revisions