Return to Video

Como podemos proteger a verdade na era das notícias falsas

  • 0:01 - 0:07
    Em 23 de abril de 2013,
  • 0:07 - 0:12
    a Associated Press fez
    a seguinte publicação no Twitter:
  • 0:12 - 0:15
    "Notícia de última hora:
  • 0:15 - 0:17
    duas explosões na Casa Branca,
  • 0:17 - 0:20
    e Barack Obama foi ferido".
  • 0:20 - 0:26
    Essa publicação foi repassada 4 mil vezes
    em menos de cinco minutos
  • 0:26 - 0:28
    e viralizou a partir de então.
  • 0:29 - 0:33
    A publicação não era uma notícia real
    divulgada pela Associated Press.
  • 0:33 - 0:36
    Na realidade, era
    uma notícia falsa, ou "fake news",
  • 0:36 - 0:39
    espalhada por hackers sírios
  • 0:39 - 0:44
    que se infiltraram no perfil
    da Associated Press no Twitter.
  • 0:44 - 0:48
    O objetivo era perturbar a sociedade,
    mas eles foram além.
  • 0:48 - 0:51
    Os algoritmos de troca automatizada
  • 0:51 - 0:54
    apoderaram-se imediatamente
    da emoção dessa publicação
  • 0:54 - 0:57
    e começaram a funcionar
    com base na possibilidade
  • 0:57 - 1:02
    de o presidente dos Estados Unidos
    ter sido ferido ou morto nessa explosão.
  • 1:02 - 1:04
    Quando começaram a publicar,
  • 1:04 - 1:08
    levaram imediatamente
    o mercado acionário a um colapso,
  • 1:08 - 1:13
    zerando US$ 140 bilhões
    em valor patrimonial em um único dia.
  • 1:13 - 1:18
    Robert Mueller, promotor de justiça
    especial dos Estados Unidos,
  • 1:18 - 1:21
    fez acusações contra 3 empresas russas
  • 1:21 - 1:24
    e 13 indivíduos russos
  • 1:24 - 1:27
    em uma conspiração
    para fraudar os Estados Unidos,
  • 1:27 - 1:31
    interferindo na eleição
    presidencial de 2016.
  • 1:32 - 1:35
    Essa acusação
  • 1:35 - 1:39
    conta a história da Agência
    de Pesquisa da Internet,
  • 1:39 - 1:42
    a divisão sombria do Kremlin
    nas mídias sociais.
  • 1:43 - 1:46
    Somente durante a eleição presidencial,
  • 1:46 - 1:48
    os esforços da Agência da Internet
  • 1:48 - 1:53
    alcançaram 126 milhões de pessoas
    no Facebook nos Estados Unidos,
  • 1:53 - 1:56
    fizeram 3 milhões de publicações
    individuais no Tweeter
  • 1:56 - 2:00
    e o equivalente a 43 horas
    de conteúdo do YouTube.
  • 2:00 - 2:02
    Tudo isso era falso,
  • 2:02 - 2:08
    notícias falsas para semear discórdia
    na eleição presidencial dos EUA.
  • 2:09 - 2:12
    Um estudo recente da Universidade Oxford
  • 2:12 - 2:15
    mostrou que, nas eleições suecas recentes,
  • 2:15 - 2:19
    um terço de todas as notícias
    divulgadas nas mídias sociais
  • 2:19 - 2:21
    sobre a eleição
  • 2:21 - 2:23
    eram falsas ou incorretas.
  • 2:23 - 2:28
    Além disso, esses tipos de campanhas
    de notícias falsas nas mídias sociais
  • 2:28 - 2:32
    podem espalhar o que foi chamado
    de "propaganda genocida",
  • 2:32 - 2:35
    por exemplo, contra
    o povo rohingya na Birmânia,
  • 2:35 - 2:38
    provocando assassinatos em massa na Índia.
  • 2:38 - 2:39
    Estudamos notícias falsas
  • 2:39 - 2:43
    e começamos antes
    de essa expressão ficar conhecida.
  • 2:43 - 2:48
    Recentemente, publicamos o estudo
    mais extenso de todos os tempos
  • 2:48 - 2:50
    sobre a disseminação
    de notícias falsas on-line
  • 2:50 - 2:54
    na capa da "Science" de março deste ano.
  • 2:55 - 2:59
    Estudamos todas as notícias falsas
    e verdadeiras verificadas
  • 2:59 - 3:00
    já divulgadas no Twitter,
  • 3:00 - 3:04
    desde o início em 2006 até 2017.
  • 3:05 - 3:07
    Quando estudamos essas notícias,
  • 3:07 - 3:10
    estudamos notícias verificadas
  • 3:10 - 3:14
    por seis organizações independentes
    de verificação de fatos.
  • 3:14 - 3:17
    Sabíamos quais histórias eram verdadeiras
  • 3:17 - 3:19
    e quais eram falsas.
  • 3:19 - 3:21
    Conseguimos medir a disseminação delas,
  • 3:21 - 3:22
    a velocidade de disseminação,
  • 3:22 - 3:24
    a profundidade e a amplitude
    de disseminação,
  • 3:24 - 3:29
    quantas pessoas se envolvem nessa cascata
    de notícias e assim por diante.
  • 3:29 - 3:30
    Nesse artigo,
  • 3:30 - 3:34
    comparamos a disseminação de notícias
    verdadeiras com a de notícias falsas.
  • 3:34 - 3:36
    Eis o que descobrimos:
  • 3:36 - 3:40
    notícias falsas se espalham mais,
    mais rápido, mais profundamente
  • 3:40 - 3:42
    e mais amplamente do que a verdade
  • 3:42 - 3:45
    em todas as categorias
    de notícias que estudamos,
  • 3:45 - 3:48
    às vezes por ordem de grandeza.
  • 3:48 - 3:51
    De fato, notícias políticas falsas
    viralizaram mais.
  • 3:51 - 3:55
    Espalharam-se mais, mais rápido,
    mais profundamente e amplamente
  • 3:55 - 3:57
    do que qualquer outro tipo
    de notícia falsa.
  • 3:57 - 3:59
    Quando vimos isso,
  • 3:59 - 4:02
    ficamos imediatamente preocupados,
    mas também curiosos.
  • 4:02 - 4:03
    Por quê?
  • 4:03 - 4:06
    Por que notícias falsas viajam muito mais,
    mais rápido, mais profundamente
  • 4:06 - 4:08
    e mais amplamente do que a verdade?
  • 4:08 - 4:11
    A primeira hipótese que sugerimos foi:
  • 4:11 - 4:16
    "Talvez quem espalha notícias falsas
    tenha mais seguidores, siga mais pessoas,
  • 4:16 - 4:18
    publique com mais frequência,
  • 4:18 - 4:22
    ou talvez seja usuário 'verificado'
    do Twitter, com mais credibilidade,
  • 4:22 - 4:24
    ou talvez esteja no Twitter
    há mais tempo".
  • 4:24 - 4:27
    Verificamos cada uma dessas opções
  • 4:27 - 4:30
    e descobrimos exatamente o oposto.
  • 4:30 - 4:32
    Quem espalha notícias falsas
    tinha menos seguidores,
  • 4:32 - 4:34
    seguia menos pessoas, era menos ativo,
  • 4:34 - 4:36
    menos "verificado"
  • 4:36 - 4:39
    e estava no Twitter há menos tempo.
  • 4:39 - 4:40
    No entanto,
  • 4:40 - 4:45
    notícias falsas tinham 70% mais chances
    de serem repassadas do que a verdade,
  • 4:45 - 4:48
    sendo controladas por todos esses
    e muitos outros fatores.
  • 4:48 - 4:51
    Tivemos que propor outras explicações.
  • 4:51 - 4:55
    Criamos o que chamamos
    de "hipótese da novidade".
  • 4:55 - 4:57
    Se você lê a literatura,
  • 4:57 - 5:01
    sabe que a atenção humana
    é atraída por novidades,
  • 5:01 - 5:03
    coisas novas no ambiente.
  • 5:03 - 5:05
    Se você lê a literatura sobre sociologia,
  • 5:05 - 5:10
    sabe que gostamos de compartilhar
    novas informações.
  • 5:10 - 5:14
    Isso nos faz parecer que temos acesso
    a informações privilegiadas
  • 5:14 - 5:18
    e ganhamos status ao espalhar
    esse tipo de informação.
  • 5:18 - 5:24
    Medimos a novidade de uma publicação
    verdadeira ou falsa que chega no Twitter
  • 5:24 - 5:28
    e comparamos às publicações
    que aquele indivíduo havia visto
  • 5:28 - 5:31
    nos 60 dias anteriores no Twitter.
  • 5:31 - 5:34
    Mas isso não foi suficiente,
    porque pensamos:
  • 5:34 - 5:38
    "Talvez notícias falsas sejam mais novas
    em um sentido teórico da informação,
  • 5:38 - 5:41
    mas talvez as pessoas
    não as percebam como mais novas".
  • 5:42 - 5:46
    Para entender a percepção das pessoas
    sobre notícias falsas,
  • 5:46 - 5:49
    analisamos a informação e o sentimento
  • 5:50 - 5:54
    contidos nas respostas a publicações
    verdadeiras e falsas no Twitter.
  • 5:54 - 5:59
    Descobrimos que, em várias
    medidas diferentes de sentimento -
  • 5:59 - 6:03
    surpresa, repulsa, medo, tristeza,
  • 6:03 - 6:05
    expectativa, alegria e confiança -
  • 6:05 - 6:11
    notícias falsas demonstravam
    significativamente mais surpresa e repulsa
  • 6:11 - 6:14
    nas respostas a publicações falsas.
  • 6:14 - 6:18
    E notícias verdadeiras demonstravam
    significativamente mais expectativa,
  • 6:18 - 6:20
    alegria e confiança
  • 6:20 - 6:22
    em resposta a publicações verdadeiras.
  • 6:22 - 6:26
    A surpresa confirma
    nossa hipótese de novidade.
  • 6:26 - 6:31
    Isso é novo e surpreendente e, portanto,
    temos mais chances de compartilhar.
  • 6:31 - 6:34
    Ao mesmo tempo,
    houve testemunhos do congresso
  • 6:34 - 6:37
    em frente às duas casas do Congresso
    nos Estados Unidos,
  • 6:37 - 6:41
    que analisaram o papel de robôs
    na disseminação de notícias falsas.
  • 6:41 - 6:42
    Também analisamos isso.
  • 6:42 - 6:46
    Usamos vários algoritmos sofisticados
    de detecção de robôs
  • 6:46 - 6:49
    para encontrar os robôs
    em nossos dados e retirá-los.
  • 6:49 - 6:52
    Nós os retiramos, os colocamos de volta
  • 6:52 - 6:55
    e comparamos o que acontece
    com nossa medição.
  • 6:55 - 6:57
    Descobrimos que, de fato,
  • 6:57 - 7:01
    robôs aceleravam a disseminação
    de notícias falsas na internet,
  • 7:01 - 7:04
    mas aceleravam a disseminação
    de notícias verdadeiras
  • 7:04 - 7:06
    aproximadamente na mesma velocidade,
  • 7:06 - 7:09
    o que significa que os robôs
    não são responsáveis
  • 7:09 - 7:14
    pela disseminação diferenciada
    da verdade e da falsidade na internet.
  • 7:14 - 7:17
    Não podemos abdicar
    dessa responsabilidade,
  • 7:17 - 7:21
    porque nós, seres humanos, somos
    responsáveis por essa disseminação.
  • 7:22 - 7:26
    Tudo o que falei até agora,
  • 7:26 - 7:28
    infelizmente para todos nós,
  • 7:28 - 7:29
    são as boas notícias.
  • 7:31 - 7:35
    O motivo é que está prestes
    a ficar muito pior.
  • 7:36 - 7:40
    Duas tecnologias específicas
    vão piorar as coisas.
  • 7:40 - 7:45
    Veremos o aumento de uma onda
    enorme de mídia sintética,
  • 7:45 - 7:51
    vídeos e áudios falsos
    muito convincentes para o olho humano.
  • 7:51 - 7:54
    Isso será alimentado por duas tecnologias.
  • 7:54 - 7:58
    A primeira delas é conhecida
    como "redes adversárias generativas".
  • 7:58 - 8:01
    É um modelo de aprendizado
    de máquina com duas redes:
  • 8:01 - 8:02
    um discriminador,
  • 8:02 - 8:06
    cuja tarefa é determinar
    se algo é verdadeiro ou falso,
  • 8:06 - 8:08
    e um gerador,
  • 8:08 - 8:11
    cuja tarefa é gerar mídia sintética.
  • 8:11 - 8:16
    O gerador sintético
    gera vídeo ou áudio sintéticos,
  • 8:16 - 8:21
    e o discriminador tenta dizer:
    "Isso é real ou falso?"
  • 8:21 - 8:24
    De fato, é a tarefa do gerador
  • 8:24 - 8:28
    maximizar a probabilidade
    de enganar o discriminador
  • 8:28 - 8:32
    para ele achar que o vídeo
    e o áudio sintéticos que está criando
  • 8:32 - 8:33
    são realmente verdadeiros.
  • 8:33 - 8:36
    Imaginem uma máquina em um superciclo,
  • 8:36 - 8:39
    tentando ficar cada vez melhor
    em nos enganar.
  • 8:39 - 8:42
    Isso, combinado com a segunda tecnologia,
  • 8:42 - 8:47
    que é basicamente a democratização
    da inteligência artificial às pessoas,
  • 8:47 - 8:50
    a capacidade de qualquer pessoa
  • 8:50 - 8:54
    sem formação em inteligência artificial
    ou aprendizado de máquina
  • 8:54 - 8:58
    implantar esses tipos de algoritmos
    para gerar mídia sintética,
  • 8:58 - 9:02
    torna, no final,
    muito mais fácil criar vídeos.
  • 9:02 - 9:07
    A Casa Branca divulgou
    um vídeo falso adulterado
  • 9:07 - 9:09
    de um jornalista
    interagindo com uma estagiária
  • 9:09 - 9:11
    que tentava pegar seu microfone.
  • 9:11 - 9:13
    Eles removeram quadros desse vídeo
  • 9:13 - 9:17
    para fazer com que suas ações
    parecessem mais agressivas.
  • 9:17 - 9:21
    Quando cinegrafistas, dublês e mulheres
  • 9:21 - 9:23
    foram entrevistados
    sobre esse tipo de técnica,
  • 9:23 - 9:27
    eles disseram: "Sim, usamos isso
    nos filmes o tempo todo
  • 9:27 - 9:32
    para fazer com que nossos socos e chutes
    pareçam mais duros e agressivos".
  • 9:32 - 9:34
    Esse vídeo foi publicado
  • 9:34 - 9:37
    e parcialmente usado como justificativa
  • 9:37 - 9:41
    para cancelar o passe de imprensa
    do repórter Jim Acosta
  • 9:41 - 9:42
    para a Casa Branca.
  • 9:42 - 9:47
    E a CNN teve que processar
    para reaver esse passe.
  • 9:49 - 9:54
    Posso pensar em cerca de cinco caminhos
    diferentes que podemos seguir
  • 9:54 - 9:58
    para tentar resolver alguns
    desses problemas muito difíceis hoje.
  • 9:58 - 10:00
    Cada um deles tem promessas,
  • 10:00 - 10:03
    mas também seus próprios desafios.
  • 10:03 - 10:05
    O primeiro são os rótulos.
  • 10:05 - 10:07
    Pensem da seguinte maneira:
  • 10:07 - 10:10
    quando vamos ao supermercado
    comprar alimentos para consumo,
  • 10:10 - 10:12
    eles estão amplamente rotulados.
  • 10:12 - 10:14
    Sabemos quantas calorias têm,
  • 10:14 - 10:16
    quanta gordura contêm.
  • 10:16 - 10:20
    Porém, quando consumimos notícias,
    não temos rótulo algum.
  • 10:20 - 10:22
    O que está contido nessas notícias?
  • 10:22 - 10:24
    A fonte é confiável?
  • 10:24 - 10:26
    De onde veio a notícia?
  • 10:26 - 10:28
    Não temos nenhum desses dados
  • 10:28 - 10:30
    quando consumimos notícias.
  • 10:30 - 10:33
    Essa é uma abordagem possível,
    mas vem com seus desafios.
  • 10:33 - 10:40
    Por exemplo, quem decide, na sociedade,
    o que é verdade e o que é falso?
  • 10:40 - 10:42
    São os governos?
  • 10:42 - 10:43
    É o Facebook?
  • 10:44 - 10:47
    É um consórcio independente
    de verificadores de fatos?
  • 10:47 - 10:50
    E quem verifica os verificadores de fatos?
  • 10:50 - 10:54
    Outra abordagem possível são incentivos.
  • 10:54 - 10:56
    Sabemos que, durante a eleição
    presidencial dos EUA,
  • 10:56 - 11:00
    houve uma onda de notícias falsas
    vinda da Macedônia
  • 11:00 - 11:02
    que não tinha nenhum motivo político,
  • 11:02 - 11:05
    mas sim um motivo econômico.
  • 11:05 - 11:07
    E esse motivo econômico existia
  • 11:07 - 11:10
    porque notícias falsas
    viajam muito mais longe, mais rápido
  • 11:10 - 11:12
    e mais profundamente do que a verdade,
  • 11:13 - 11:17
    e pode-se ganhar dólares em publicidade
    enquanto se acumula usuários e atenção
  • 11:17 - 11:19
    com esse tipo de notícia.
  • 11:19 - 11:23
    Mas, se pudermos diminuir
    a disseminação dessas notícias,
  • 11:23 - 11:26
    talvez isso reduza o incentivo econômico
  • 11:26 - 11:29
    para produzi-las de qualquer modo,
    em primeiro lugar.
  • 11:29 - 11:31
    Terceiro, podemos pensar em regulamentação
  • 11:31 - 11:34
    e, certamente, devemos pensar nessa opção.
  • 11:34 - 11:35
    Nos Estados Unidos, atualmente,
  • 11:35 - 11:40
    estamos explorando o que pode acontecer
    se Facebook e outros forem regulamentados.
  • 11:40 - 11:44
    Embora devamos considerar coisas
    como controlar o discurso político,
  • 11:44 - 11:47
    rotular o fato de ser discurso político,
  • 11:47 - 11:51
    garantir que participantes estrangeiros
    não possam financiar discursos políticos,
  • 11:51 - 11:53
    isso também tem seus próprios perigos.
  • 11:54 - 11:58
    Por exemplo, a Malásia acabou de instituir
    uma sentença de seis anos de prisão
  • 11:58 - 12:01
    para quem for encontrado
    espalhando notícias falsas.
  • 12:02 - 12:04
    Em regimes autoritários,
  • 12:04 - 12:08
    esses tipos de políticas podem ser usados
    para reprimir opiniões de minorias
  • 12:08 - 12:12
    e continuar a aumentar a repressão.
  • 12:13 - 12:16
    A quarta opção possível é a transparência.
  • 12:17 - 12:21
    Queremos saber como funcionam
    os algoritmos do Facebook,
  • 12:21 - 12:23
    como os dados se combinam
    com os algoritmos
  • 12:23 - 12:26
    para produzir os resultados que vemos.
  • 12:26 - 12:29
    Queremos que abram o jogo
  • 12:29 - 12:33
    e nos mostrem exatamente
    o funcionamento interno do Facebook.
  • 12:33 - 12:36
    Se queremos saber o efeito
    das mídias sociais na sociedade,
  • 12:36 - 12:38
    precisamos que cientistas, pesquisadores
  • 12:38 - 12:41
    e outros tenham acesso
    a esse tipo de informação.
  • 12:41 - 12:43
    Mas, ao mesmo tempo,
  • 12:43 - 12:46
    pedimos para o Facebook bloquear tudo,
  • 12:46 - 12:49
    para manter todos os dados seguros.
  • 12:49 - 12:52
    O Facebook e as outras
    plataformas de mídia social
  • 12:52 - 12:55
    estão enfrentando o que chamo
    de paradoxo da transparência.
  • 12:55 - 12:58
    Pedimos que, ao mesmo tempo,
  • 12:58 - 13:03
    sejam abertos, transparentes e seguros.
  • 13:03 - 13:05
    É muito difícil tratar desse assunto,
  • 13:06 - 13:07
    mas eles precisarão fazer isso
  • 13:07 - 13:11
    se quisermos cumprir a promessa
    das tecnologias sociais
  • 13:11 - 13:13
    enquanto evitamos seus perigos.
  • 13:13 - 13:18
    A última coisa que poderíamos pensar
    é em algoritmos e aprendizado de máquina.
  • 13:18 - 13:22
    A tecnologia foi criada para erradicar
    e entender as notícias falsas,
  • 13:22 - 13:23
    como elas se espalham
  • 13:23 - 13:25
    e para tentar diminuir seu fluxo.
  • 13:26 - 13:29
    Os seres humanos tem que estar
    informados sobre essa tecnologia,
  • 13:29 - 13:31
    porque nunca podemos escapar do fato
  • 13:31 - 13:35
    de que, subjacente a qualquer solução
    ou abordagem tecnológica,
  • 13:35 - 13:39
    está uma questão ética
    e filosófica fundamental
  • 13:39 - 13:42
    sobre como definimos verdade e falsidade,
  • 13:42 - 13:46
    a quem damos o poder
    de definir verdade e falsidade
  • 13:46 - 13:48
    e quais opiniões são legítimas,
  • 13:48 - 13:52
    que tipo de discurso
    deve ser permitido e assim por diante.
  • 13:52 - 13:54
    A tecnologia não é uma solução para isso.
  • 13:54 - 13:58
    Ética e filosofia
    são uma solução para isso.
  • 13:59 - 14:02
    Quase toda teoria
    de tomada de decisão humana,
  • 14:02 - 14:05
    cooperação e coordenação humanas
  • 14:05 - 14:09
    tem algum sentido da verdade em seu cerne.
  • 14:09 - 14:11
    Mas, com o aumento de notícias falsas,
  • 14:11 - 14:13
    o aumento de vídeos falsos,
  • 14:13 - 14:15
    o aumento de áudios falsos,
  • 14:15 - 14:19
    balançamos à beira do fim da realidade,
  • 14:19 - 14:23
    quando não podemos distinguir
    o que é real do que é falso.
  • 14:23 - 14:26
    Isso é potencial e incrivelmente perigoso.
  • 14:27 - 14:31
    Temos que ficar alertas
    na defesa da verdade
  • 14:31 - 14:33
    contra as notícias falsas.
  • 14:33 - 14:36
    Com nossas tecnologias, nossas políticas
  • 14:36 - 14:38
    e, talvez o mais importante,
  • 14:38 - 14:42
    com nossas próprias responsabilidades,
  • 14:42 - 14:45
    decisões, comportamentos
    e ações individuais.
  • 14:46 - 14:47
    Muito obrigado.
  • 14:47 - 14:49
    (Aplausos)
Title:
Como podemos proteger a verdade na era das notícias falsas
Speaker:
Sinan Aral
Description:

Notícias falsas podem influenciar eleições, derrubar economias e semear discórdia na vida cotidiana. O cientista de dados Sinan Aral desmistifica como e por que elas se espalham tão rapidamente - citando um dos maiores estudos sobre notícias falsas - e identifica cinco estratégias para nos ajudar a desmanchar a teia emaranhada entre o que é verdadeiro e o que é falso.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Portuguese, Brazilian subtitles

Revisions Compare revisions