Como podemos proteger a verdade na era das notícias falsas
-
0:01 - 0:07Em 23 de abril de 2013,
-
0:07 - 0:12a Associated Press fez
a seguinte publicação no Twitter: -
0:12 - 0:15"Notícia de última hora:
-
0:15 - 0:17duas explosões na Casa Branca,
-
0:17 - 0:20e Barack Obama foi ferido".
-
0:20 - 0:26Essa publicação foi repassada 4 mil vezes
em menos de cinco minutos -
0:26 - 0:28e viralizou a partir de então.
-
0:29 - 0:33A publicação não era uma notícia real
divulgada pela Associated Press. -
0:33 - 0:36Na realidade, era
uma notícia falsa, ou "fake news", -
0:36 - 0:39espalhada por hackers sírios
-
0:39 - 0:44que se infiltraram no perfil
da Associated Press no Twitter. -
0:44 - 0:48O objetivo era perturbar a sociedade,
mas eles foram além. -
0:48 - 0:51Os algoritmos de troca automatizada
-
0:51 - 0:54apoderaram-se imediatamente
da emoção dessa publicação -
0:54 - 0:57e começaram a funcionar
com base na possibilidade -
0:57 - 1:02de o presidente dos Estados Unidos
ter sido ferido ou morto nessa explosão. -
1:02 - 1:04Quando começaram a publicar,
-
1:04 - 1:08levaram imediatamente
o mercado acionário a um colapso, -
1:08 - 1:13zerando US$ 140 bilhões
em valor patrimonial em um único dia. -
1:13 - 1:18Robert Mueller, promotor de justiça
especial dos Estados Unidos, -
1:18 - 1:21fez acusações contra 3 empresas russas
-
1:21 - 1:24e 13 indivíduos russos
-
1:24 - 1:27em uma conspiração
para fraudar os Estados Unidos, -
1:27 - 1:31interferindo na eleição
presidencial de 2016. -
1:32 - 1:35Essa acusação
-
1:35 - 1:39conta a história da Agência
de Pesquisa da Internet, -
1:39 - 1:42a divisão sombria do Kremlin
nas mídias sociais. -
1:43 - 1:46Somente durante a eleição presidencial,
-
1:46 - 1:48os esforços da Agência da Internet
-
1:48 - 1:53alcançaram 126 milhões de pessoas
no Facebook nos Estados Unidos, -
1:53 - 1:56fizeram 3 milhões de publicações
individuais no Tweeter -
1:56 - 2:00e o equivalente a 43 horas
de conteúdo do YouTube. -
2:00 - 2:02Tudo isso era falso,
-
2:02 - 2:08notícias falsas para semear discórdia
na eleição presidencial dos EUA. -
2:09 - 2:12Um estudo recente da Universidade Oxford
-
2:12 - 2:15mostrou que, nas eleições suecas recentes,
-
2:15 - 2:19um terço de todas as notícias
divulgadas nas mídias sociais -
2:19 - 2:21sobre a eleição
-
2:21 - 2:23eram falsas ou incorretas.
-
2:23 - 2:28Além disso, esses tipos de campanhas
de notícias falsas nas mídias sociais -
2:28 - 2:32podem espalhar o que foi chamado
de "propaganda genocida", -
2:32 - 2:35por exemplo, contra
o povo rohingya na Birmânia, -
2:35 - 2:38provocando assassinatos em massa na Índia.
-
2:38 - 2:39Estudamos notícias falsas
-
2:39 - 2:43e começamos antes
de essa expressão ficar conhecida. -
2:43 - 2:48Recentemente, publicamos o estudo
mais extenso de todos os tempos -
2:48 - 2:50sobre a disseminação
de notícias falsas on-line -
2:50 - 2:54na capa da "Science" de março deste ano.
-
2:55 - 2:59Estudamos todas as notícias falsas
e verdadeiras verificadas -
2:59 - 3:00já divulgadas no Twitter,
-
3:00 - 3:04desde o início em 2006 até 2017.
-
3:05 - 3:07Quando estudamos essas notícias,
-
3:07 - 3:10estudamos notícias verificadas
-
3:10 - 3:14por seis organizações independentes
de verificação de fatos. -
3:14 - 3:17Sabíamos quais histórias eram verdadeiras
-
3:17 - 3:19e quais eram falsas.
-
3:19 - 3:21Conseguimos medir a disseminação delas,
-
3:21 - 3:22a velocidade de disseminação,
-
3:22 - 3:24a profundidade e a amplitude
de disseminação, -
3:24 - 3:29quantas pessoas se envolvem nessa cascata
de notícias e assim por diante. -
3:29 - 3:30Nesse artigo,
-
3:30 - 3:34comparamos a disseminação de notícias
verdadeiras com a de notícias falsas. -
3:34 - 3:36Eis o que descobrimos:
-
3:36 - 3:40notícias falsas se espalham mais,
mais rápido, mais profundamente -
3:40 - 3:42e mais amplamente do que a verdade
-
3:42 - 3:45em todas as categorias
de notícias que estudamos, -
3:45 - 3:48às vezes por ordem de grandeza.
-
3:48 - 3:51De fato, notícias políticas falsas
viralizaram mais. -
3:51 - 3:55Espalharam-se mais, mais rápido,
mais profundamente e amplamente -
3:55 - 3:57do que qualquer outro tipo
de notícia falsa. -
3:57 - 3:59Quando vimos isso,
-
3:59 - 4:02ficamos imediatamente preocupados,
mas também curiosos. -
4:02 - 4:03Por quê?
-
4:03 - 4:06Por que notícias falsas viajam muito mais,
mais rápido, mais profundamente -
4:06 - 4:08e mais amplamente do que a verdade?
-
4:08 - 4:11A primeira hipótese que sugerimos foi:
-
4:11 - 4:16"Talvez quem espalha notícias falsas
tenha mais seguidores, siga mais pessoas, -
4:16 - 4:18publique com mais frequência,
-
4:18 - 4:22ou talvez seja usuário 'verificado'
do Twitter, com mais credibilidade, -
4:22 - 4:24ou talvez esteja no Twitter
há mais tempo". -
4:24 - 4:27Verificamos cada uma dessas opções
-
4:27 - 4:30e descobrimos exatamente o oposto.
-
4:30 - 4:32Quem espalha notícias falsas
tinha menos seguidores, -
4:32 - 4:34seguia menos pessoas, era menos ativo,
-
4:34 - 4:36menos "verificado"
-
4:36 - 4:39e estava no Twitter há menos tempo.
-
4:39 - 4:40No entanto,
-
4:40 - 4:45notícias falsas tinham 70% mais chances
de serem repassadas do que a verdade, -
4:45 - 4:48sendo controladas por todos esses
e muitos outros fatores. -
4:48 - 4:51Tivemos que propor outras explicações.
-
4:51 - 4:55Criamos o que chamamos
de "hipótese da novidade". -
4:55 - 4:57Se você lê a literatura,
-
4:57 - 5:01sabe que a atenção humana
é atraída por novidades, -
5:01 - 5:03coisas novas no ambiente.
-
5:03 - 5:05Se você lê a literatura sobre sociologia,
-
5:05 - 5:10sabe que gostamos de compartilhar
novas informações. -
5:10 - 5:14Isso nos faz parecer que temos acesso
a informações privilegiadas -
5:14 - 5:18e ganhamos status ao espalhar
esse tipo de informação. -
5:18 - 5:24Medimos a novidade de uma publicação
verdadeira ou falsa que chega no Twitter -
5:24 - 5:28e comparamos às publicações
que aquele indivíduo havia visto -
5:28 - 5:31nos 60 dias anteriores no Twitter.
-
5:31 - 5:34Mas isso não foi suficiente,
porque pensamos: -
5:34 - 5:38"Talvez notícias falsas sejam mais novas
em um sentido teórico da informação, -
5:38 - 5:41mas talvez as pessoas
não as percebam como mais novas". -
5:42 - 5:46Para entender a percepção das pessoas
sobre notícias falsas, -
5:46 - 5:49analisamos a informação e o sentimento
-
5:50 - 5:54contidos nas respostas a publicações
verdadeiras e falsas no Twitter. -
5:54 - 5:59Descobrimos que, em várias
medidas diferentes de sentimento - -
5:59 - 6:03surpresa, repulsa, medo, tristeza,
-
6:03 - 6:05expectativa, alegria e confiança -
-
6:05 - 6:11notícias falsas demonstravam
significativamente mais surpresa e repulsa -
6:11 - 6:14nas respostas a publicações falsas.
-
6:14 - 6:18E notícias verdadeiras demonstravam
significativamente mais expectativa, -
6:18 - 6:20alegria e confiança
-
6:20 - 6:22em resposta a publicações verdadeiras.
-
6:22 - 6:26A surpresa confirma
nossa hipótese de novidade. -
6:26 - 6:31Isso é novo e surpreendente e, portanto,
temos mais chances de compartilhar. -
6:31 - 6:34Ao mesmo tempo,
houve testemunhos do congresso -
6:34 - 6:37em frente às duas casas do Congresso
nos Estados Unidos, -
6:37 - 6:41que analisaram o papel de robôs
na disseminação de notícias falsas. -
6:41 - 6:42Também analisamos isso.
-
6:42 - 6:46Usamos vários algoritmos sofisticados
de detecção de robôs -
6:46 - 6:49para encontrar os robôs
em nossos dados e retirá-los. -
6:49 - 6:52Nós os retiramos, os colocamos de volta
-
6:52 - 6:55e comparamos o que acontece
com nossa medição. -
6:55 - 6:57Descobrimos que, de fato,
-
6:57 - 7:01robôs aceleravam a disseminação
de notícias falsas na internet, -
7:01 - 7:04mas aceleravam a disseminação
de notícias verdadeiras -
7:04 - 7:06aproximadamente na mesma velocidade,
-
7:06 - 7:09o que significa que os robôs
não são responsáveis -
7:09 - 7:14pela disseminação diferenciada
da verdade e da falsidade na internet. -
7:14 - 7:17Não podemos abdicar
dessa responsabilidade, -
7:17 - 7:21porque nós, seres humanos, somos
responsáveis por essa disseminação. -
7:22 - 7:26Tudo o que falei até agora,
-
7:26 - 7:28infelizmente para todos nós,
-
7:28 - 7:29são as boas notícias.
-
7:31 - 7:35O motivo é que está prestes
a ficar muito pior. -
7:36 - 7:40Duas tecnologias específicas
vão piorar as coisas. -
7:40 - 7:45Veremos o aumento de uma onda
enorme de mídia sintética, -
7:45 - 7:51vídeos e áudios falsos
muito convincentes para o olho humano. -
7:51 - 7:54Isso será alimentado por duas tecnologias.
-
7:54 - 7:58A primeira delas é conhecida
como "redes adversárias generativas". -
7:58 - 8:01É um modelo de aprendizado
de máquina com duas redes: -
8:01 - 8:02um discriminador,
-
8:02 - 8:06cuja tarefa é determinar
se algo é verdadeiro ou falso, -
8:06 - 8:08e um gerador,
-
8:08 - 8:11cuja tarefa é gerar mídia sintética.
-
8:11 - 8:16O gerador sintético
gera vídeo ou áudio sintéticos, -
8:16 - 8:21e o discriminador tenta dizer:
"Isso é real ou falso?" -
8:21 - 8:24De fato, é a tarefa do gerador
-
8:24 - 8:28maximizar a probabilidade
de enganar o discriminador -
8:28 - 8:32para ele achar que o vídeo
e o áudio sintéticos que está criando -
8:32 - 8:33são realmente verdadeiros.
-
8:33 - 8:36Imaginem uma máquina em um superciclo,
-
8:36 - 8:39tentando ficar cada vez melhor
em nos enganar. -
8:39 - 8:42Isso, combinado com a segunda tecnologia,
-
8:42 - 8:47que é basicamente a democratização
da inteligência artificial às pessoas, -
8:47 - 8:50a capacidade de qualquer pessoa
-
8:50 - 8:54sem formação em inteligência artificial
ou aprendizado de máquina -
8:54 - 8:58implantar esses tipos de algoritmos
para gerar mídia sintética, -
8:58 - 9:02torna, no final,
muito mais fácil criar vídeos. -
9:02 - 9:07A Casa Branca divulgou
um vídeo falso adulterado -
9:07 - 9:09de um jornalista
interagindo com uma estagiária -
9:09 - 9:11que tentava pegar seu microfone.
-
9:11 - 9:13Eles removeram quadros desse vídeo
-
9:13 - 9:17para fazer com que suas ações
parecessem mais agressivas. -
9:17 - 9:21Quando cinegrafistas, dublês e mulheres
-
9:21 - 9:23foram entrevistados
sobre esse tipo de técnica, -
9:23 - 9:27eles disseram: "Sim, usamos isso
nos filmes o tempo todo -
9:27 - 9:32para fazer com que nossos socos e chutes
pareçam mais duros e agressivos". -
9:32 - 9:34Esse vídeo foi publicado
-
9:34 - 9:37e parcialmente usado como justificativa
-
9:37 - 9:41para cancelar o passe de imprensa
do repórter Jim Acosta -
9:41 - 9:42para a Casa Branca.
-
9:42 - 9:47E a CNN teve que processar
para reaver esse passe. -
9:49 - 9:54Posso pensar em cerca de cinco caminhos
diferentes que podemos seguir -
9:54 - 9:58para tentar resolver alguns
desses problemas muito difíceis hoje. -
9:58 - 10:00Cada um deles tem promessas,
-
10:00 - 10:03mas também seus próprios desafios.
-
10:03 - 10:05O primeiro são os rótulos.
-
10:05 - 10:07Pensem da seguinte maneira:
-
10:07 - 10:10quando vamos ao supermercado
comprar alimentos para consumo, -
10:10 - 10:12eles estão amplamente rotulados.
-
10:12 - 10:14Sabemos quantas calorias têm,
-
10:14 - 10:16quanta gordura contêm.
-
10:16 - 10:20Porém, quando consumimos notícias,
não temos rótulo algum. -
10:20 - 10:22O que está contido nessas notícias?
-
10:22 - 10:24A fonte é confiável?
-
10:24 - 10:26De onde veio a notícia?
-
10:26 - 10:28Não temos nenhum desses dados
-
10:28 - 10:30quando consumimos notícias.
-
10:30 - 10:33Essa é uma abordagem possível,
mas vem com seus desafios. -
10:33 - 10:40Por exemplo, quem decide, na sociedade,
o que é verdade e o que é falso? -
10:40 - 10:42São os governos?
-
10:42 - 10:43É o Facebook?
-
10:44 - 10:47É um consórcio independente
de verificadores de fatos? -
10:47 - 10:50E quem verifica os verificadores de fatos?
-
10:50 - 10:54Outra abordagem possível são incentivos.
-
10:54 - 10:56Sabemos que, durante a eleição
presidencial dos EUA, -
10:56 - 11:00houve uma onda de notícias falsas
vinda da Macedônia -
11:00 - 11:02que não tinha nenhum motivo político,
-
11:02 - 11:05mas sim um motivo econômico.
-
11:05 - 11:07E esse motivo econômico existia
-
11:07 - 11:10porque notícias falsas
viajam muito mais longe, mais rápido -
11:10 - 11:12e mais profundamente do que a verdade,
-
11:13 - 11:17e pode-se ganhar dólares em publicidade
enquanto se acumula usuários e atenção -
11:17 - 11:19com esse tipo de notícia.
-
11:19 - 11:23Mas, se pudermos diminuir
a disseminação dessas notícias, -
11:23 - 11:26talvez isso reduza o incentivo econômico
-
11:26 - 11:29para produzi-las de qualquer modo,
em primeiro lugar. -
11:29 - 11:31Terceiro, podemos pensar em regulamentação
-
11:31 - 11:34e, certamente, devemos pensar nessa opção.
-
11:34 - 11:35Nos Estados Unidos, atualmente,
-
11:35 - 11:40estamos explorando o que pode acontecer
se Facebook e outros forem regulamentados. -
11:40 - 11:44Embora devamos considerar coisas
como controlar o discurso político, -
11:44 - 11:47rotular o fato de ser discurso político,
-
11:47 - 11:51garantir que participantes estrangeiros
não possam financiar discursos políticos, -
11:51 - 11:53isso também tem seus próprios perigos.
-
11:54 - 11:58Por exemplo, a Malásia acabou de instituir
uma sentença de seis anos de prisão -
11:58 - 12:01para quem for encontrado
espalhando notícias falsas. -
12:02 - 12:04Em regimes autoritários,
-
12:04 - 12:08esses tipos de políticas podem ser usados
para reprimir opiniões de minorias -
12:08 - 12:12e continuar a aumentar a repressão.
-
12:13 - 12:16A quarta opção possível é a transparência.
-
12:17 - 12:21Queremos saber como funcionam
os algoritmos do Facebook, -
12:21 - 12:23como os dados se combinam
com os algoritmos -
12:23 - 12:26para produzir os resultados que vemos.
-
12:26 - 12:29Queremos que abram o jogo
-
12:29 - 12:33e nos mostrem exatamente
o funcionamento interno do Facebook. -
12:33 - 12:36Se queremos saber o efeito
das mídias sociais na sociedade, -
12:36 - 12:38precisamos que cientistas, pesquisadores
-
12:38 - 12:41e outros tenham acesso
a esse tipo de informação. -
12:41 - 12:43Mas, ao mesmo tempo,
-
12:43 - 12:46pedimos para o Facebook bloquear tudo,
-
12:46 - 12:49para manter todos os dados seguros.
-
12:49 - 12:52O Facebook e as outras
plataformas de mídia social -
12:52 - 12:55estão enfrentando o que chamo
de paradoxo da transparência. -
12:55 - 12:58Pedimos que, ao mesmo tempo,
-
12:58 - 13:03sejam abertos, transparentes e seguros.
-
13:03 - 13:05É muito difícil tratar desse assunto,
-
13:06 - 13:07mas eles precisarão fazer isso
-
13:07 - 13:11se quisermos cumprir a promessa
das tecnologias sociais -
13:11 - 13:13enquanto evitamos seus perigos.
-
13:13 - 13:18A última coisa que poderíamos pensar
é em algoritmos e aprendizado de máquina. -
13:18 - 13:22A tecnologia foi criada para erradicar
e entender as notícias falsas, -
13:22 - 13:23como elas se espalham
-
13:23 - 13:25e para tentar diminuir seu fluxo.
-
13:26 - 13:29Os seres humanos tem que estar
informados sobre essa tecnologia, -
13:29 - 13:31porque nunca podemos escapar do fato
-
13:31 - 13:35de que, subjacente a qualquer solução
ou abordagem tecnológica, -
13:35 - 13:39está uma questão ética
e filosófica fundamental -
13:39 - 13:42sobre como definimos verdade e falsidade,
-
13:42 - 13:46a quem damos o poder
de definir verdade e falsidade -
13:46 - 13:48e quais opiniões são legítimas,
-
13:48 - 13:52que tipo de discurso
deve ser permitido e assim por diante. -
13:52 - 13:54A tecnologia não é uma solução para isso.
-
13:54 - 13:58Ética e filosofia
são uma solução para isso. -
13:59 - 14:02Quase toda teoria
de tomada de decisão humana, -
14:02 - 14:05cooperação e coordenação humanas
-
14:05 - 14:09tem algum sentido da verdade em seu cerne.
-
14:09 - 14:11Mas, com o aumento de notícias falsas,
-
14:11 - 14:13o aumento de vídeos falsos,
-
14:13 - 14:15o aumento de áudios falsos,
-
14:15 - 14:19balançamos à beira do fim da realidade,
-
14:19 - 14:23quando não podemos distinguir
o que é real do que é falso. -
14:23 - 14:26Isso é potencial e incrivelmente perigoso.
-
14:27 - 14:31Temos que ficar alertas
na defesa da verdade -
14:31 - 14:33contra as notícias falsas.
-
14:33 - 14:36Com nossas tecnologias, nossas políticas
-
14:36 - 14:38e, talvez o mais importante,
-
14:38 - 14:42com nossas próprias responsabilidades,
-
14:42 - 14:45decisões, comportamentos
e ações individuais. -
14:46 - 14:47Muito obrigado.
-
14:47 - 14:49(Aplausos)
- Title:
- Como podemos proteger a verdade na era das notícias falsas
- Speaker:
- Sinan Aral
- Description:
-
Notícias falsas podem influenciar eleições, derrubar economias e semear discórdia na vida cotidiana. O cientista de dados Sinan Aral desmistifica como e por que elas se espalham tão rapidamente - citando um dos maiores estudos sobre notícias falsas - e identifica cinco estratégias para nos ajudar a desmanchar a teia emaranhada entre o que é verdadeiro e o que é falso.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Leonardo Silva edited Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Leonardo Silva approved Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Leonardo Silva accepted Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Keyla Sousa declined Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Maurício Kakuei Tanaka edited Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Maurício Kakuei Tanaka edited Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation | ||
Maurício Kakuei Tanaka edited Portuguese, Brazilian subtitles for How we can protect truth in the age of misinformation |