Como proteger a verdade na era da desinformação
-
0:03 - 0:07No dia 23 de abril de 2013,
-
0:07 - 0:12a Associated Press publicou
o seguinte "tweet": -
0:12 - 0:15"Notícia de última hora:
-
0:15 - 0:17"Houve duas explosões na Casa Branca
-
0:17 - 0:20"e o presidente Barack Obama foi ferido."
-
0:20 - 0:26O "tweet" foi reenviado 4000 vezes
em menos de 5 minutos, -
0:26 - 0:28e depois tornou-se viral.
-
0:29 - 0:33No entanto, o "tweet" em questão
não foi feito pela Associated Press. -
0:33 - 0:36Na verdade, era uma notícia falsa,
ou "fake news", -
0:36 - 0:39que tinha sido divulgada
por "hackers" sírios -
0:39 - 0:44que se tinham infiltrado
na conta da AP no Twitter. -
0:44 - 0:48O seu propósito era criar ruturas na
sociedade, mas foram ainda mais além, -
0:48 - 0:51porque os algoritmos automatizados
de "trading" -
0:51 - 0:54captaram imediatamente
o sentimento deste "tweet" -
0:54 - 0:57e começaram a trabalhar
baseados na possibilidade -
0:57 - 1:01de o presidente dos EUA
ter sido ferido ou morto -
1:01 - 1:02nesta explosão.
-
1:02 - 1:04Assim que começaram a publicar "tweets"
-
1:04 - 1:08provocaram imediatamente
o colapso do mercado de ações, -
1:08 - 1:13liquidando 140 mil milhões de dólares
num único dia. -
1:13 - 1:18O procurador especial dos EUA,
Robert Mueller, -
1:18 - 1:21emitiu acusações contra
três empresas russas -
1:21 - 1:24e treze indivíduos russos
-
1:24 - 1:27por conspiração para
defraudar os EUA -
1:27 - 1:31interferindo nas eleições
presidenciais de 2016. -
1:32 - 1:35Essas acusações contam-nos uma história,
-
1:35 - 1:39a história sobre
a Internet Research Agency, -
1:39 - 1:42o braço sombrio do Kremlin
nas redes sociais. -
1:43 - 1:46Só durante as eleições presidenciais,
-
1:46 - 1:48as publicações da Internet Agency
-
1:48 - 1:53alcançaram 126 milhões de pessoas
nos EUA através do Facebook, -
1:53 - 1:56publicaram três milhões
de "tweets" individuais -
1:56 - 2:00e 43 horas de conteúdos no YouTube.
-
2:00 - 2:02Era tudo falso
-
2:02 - 2:05— desinformação destinada
a semear a discórdia -
2:05 - 2:08nas eleições presidenciais dos EUA.
-
2:09 - 2:12Um estudo recente feito
na Universidade de Oxford -
2:12 - 2:15mostrou que, nas recentes
eleições da Suécia, -
2:15 - 2:19um terço de todas informações
a circular nas redes sociais -
2:19 - 2:21sobre as eleições
-
2:21 - 2:23eram falsas ou desinformação.
-
2:23 - 2:28Além do mais, este tipo de campanhas
de desinformação nas redes sociais -
2:28 - 2:32podem difundir o que vem sendo
chamado de "propaganda genocida", -
2:32 - 2:35por exemplo contra os Rohingya em Myanmar,
-
2:35 - 2:38desencadeando assassínios
por parte de multidões na Índia. -
2:38 - 2:40Nós estudámos as notícias falsas
-
2:40 - 2:43e começámos a estudar isso bem antes
de este termo se tornar popular. -
2:43 - 2:48Recentemente publicámos o maior
estudo longitudinal de sempre -
2:48 - 2:51sobre o crescimento "online"
das notícias falsas -
2:51 - 2:54na capa da revista Science
em março deste ano. -
2:55 - 2:59Estudámos todas as notícias
verificadas como verdadeiras ou falsas -
2:59 - 3:01que já se propagaram pelo Twitter
-
3:01 - 3:04desde o seu início, em 2006, até 2017.
-
3:05 - 3:07Ao estudarmos estas informações,
-
3:07 - 3:10estudámos notícias verificadas
-
3:10 - 3:14por seis ONG independentes
que verificam factos. -
3:14 - 3:17Por isso sabíamos quais
as notícias verdadeiras -
3:17 - 3:19e quais as falsas.
-
3:19 - 3:21Podemos medir a sua propagação,
-
3:21 - 3:22a rapidez da propagação,
-
3:22 - 3:24a profundidade e a amplitude
da propagação, -
3:24 - 3:29e quantas pessoas são enganadas
nessa torrente de informação. -
3:29 - 3:30O que fizemos neste trabalho,
-
3:30 - 3:34foi comparar a propagação de factos
e a propagação de notícias falsas. -
3:34 - 3:36E o que encontrámos foi o seguinte.
-
3:36 - 3:40As notícias falsas eram propagadas
muito mais rapidamente -
3:40 - 3:42e mais amplamente do que os factos
-
3:42 - 3:45em todas as categorias
de informações que estudámos, -
3:45 - 3:48por vezes por uma ordem de magnitude.
-
3:48 - 3:51De facto, as notícias políticas falsas
eram as mais virais. -
3:51 - 3:55Espalhavam-se mais rapidamente,
com maior profundidade e abrangência -
3:55 - 3:57do que qualquer outro tipo
de notícias falsas. -
3:57 - 3:59Quando notámos isto,
-
3:59 - 4:02ficámos preocupados mas também curiosos.
-
4:02 - 4:03Porquê?
-
4:03 - 4:07Por que razão as notícias falsas vão mais
longe, mais rápida e profundamente -
4:07 - 4:09e mais extensamente do que a verdade?
-
4:09 - 4:11A primeira hipótese que formulámos foi:
-
4:11 - 4:14"Talvez as pessoas
que espalham notícias falsas -
4:14 - 4:16"tenham mais seguidores
ou sigam mais pessoas, -
4:16 - 4:18"ou publiquem mais "tweets",
-
4:18 - 4:22"ou talvez tenham contas 'verificadas'
no Twitter, com mais credibilidade, -
4:22 - 4:24"ou talvez estejam
há mais tempo no Twitter." -
4:24 - 4:27Examinámos todas as opções, uma a uma.
-
4:27 - 4:29Porém, descobrimos exatamente o oposto.
-
4:30 - 4:32Os propagadores de notícias falsas
tinham menos seguidores, -
4:32 - 4:34seguiam poucas pessoas,
não eram tão ativos, -
4:35 - 4:36não eram tão verificados
-
4:36 - 4:39e estavam no Twitter há menos tempo.
-
4:39 - 4:40Ainda assim,
-
4:40 - 4:43era 70% mais provável que fossem enviadas
-
4:43 - 4:45notícias falsas do que verdadeiras
-
4:45 - 4:48mesmo tendo em conta estes
e muitos outros fatores. -
4:49 - 4:51Então tivemos de encontrar
outras explicações. -
4:51 - 4:55E criámos algo a que chamámos
de "hipótese da novidade". -
4:55 - 4:57Se lerem a literatura sobre este tema,
-
4:57 - 5:01saberão que a novidade
atrai a atenção humana, -
5:01 - 5:03isto é, coisas que são novas no ambiente.
-
5:03 - 5:05Se lerem literatura sobre sociologia,
-
5:05 - 5:10saberão que gostamos de partilhar
informações novas. -
5:10 - 5:14Faz parecer que temos acesso
a informações privilegiadas, -
5:14 - 5:18e ganhamos estatuto por partilhar
esse tipo de informações. -
5:18 - 5:24Então, medimos a novidade
de um novo "tweet", verdadeiro ou falso, -
5:24 - 5:28e comparámos com
o que cada pessoa já tinha visto -
5:28 - 5:31nos últimos 60 dias no Twitter.
-
5:31 - 5:34Mas não foi o suficiente,
pois pensámos: -
5:34 - 5:38"Talvez uma notícia falsa seja mais nova
num sentido mais teórico-informativo, -
5:38 - 5:42"mas talvez as pessoas não
vejam isso como novidade." -
5:42 - 5:46Então, para compreender a perceção
das pessoas sobre notícias falsas, -
5:46 - 5:49estudámos as informações e o sentimento
-
5:50 - 5:54contido nas respostas dos "tweets"
verdadeiros e falsos. -
5:54 - 5:55E descobrimos
-
5:55 - 5:59que, através de um conjunto
de diferentes medidas de sentimentos -
5:59 - 6:03— surpresa, repugnância, medo, tristeza,
-
6:03 - 6:05expetativa, alegria e confiança —
-
6:05 - 6:11as notícias falsas exibiam
maior surpresa e repugnância -
6:11 - 6:14em reação aos "tweets" falsos.
-
6:14 - 6:18E as notícias verdadeiras
exibiam maior expetativa, -
6:18 - 6:20alegria e confiança
-
6:20 - 6:22em reação aos "tweets" verdadeiros.
-
6:22 - 6:26Esta surpresa confirma
a nossa hipótese de novidade. -
6:26 - 6:31Isto é novo e surpreendente,
por isso é mais provável que partilhemos. -
6:31 - 6:34Ao mesmo tempo,
houve testemunhos -
6:34 - 6:37em ambas as câmaras
do Congresso dos EUA, -
6:37 - 6:41sobre o papel dos robôs
na propagação da desinformação. -
6:41 - 6:42Também estudámos isso
-
6:42 - 6:46— utilizámos vários algoritmos
sofisticados para detetar robôs -
6:46 - 6:49para os encontrar nos nossos dados
e retirá-los de lá. -
6:49 - 6:52Retirámo-los e voltámos a colocá-los
-
6:52 - 6:55e comparámos o que acontece
à nossa medição. -
6:55 - 6:57O que encontrámos foi que, de facto,
-
6:57 - 7:01os robôs aceleravam a propagação
das notícias falsas "online", -
7:01 - 7:04mas aceleravam a propagação
de notícias verdadeiras -
7:04 - 7:06aproximadamente da mesma forma.
-
7:06 - 7:09O que significa que os robôs
não são responsáveis -
7:09 - 7:14pelas diferenças entre a difusão
da verdade e da mentira "online". -
7:14 - 7:17Não podemos abdicar
dessa responsabilidade, -
7:17 - 7:21porque nós, seres humanos,
somos responsáveis por essa divulgação. -
7:22 - 7:26Infelizmente para todos nós,
-
7:26 - 7:28tudo que vos disse até agora
-
7:28 - 7:30é a melhor parte.
-
7:31 - 7:35As coisas vão piorar bastante.
-
7:36 - 7:40Duas tecnologias específicas
vão piorar tudo. -
7:40 - 7:46Veremos a ascensão de uma enorme
onda de conteúdos sintéticos. -
7:46 - 7:51Vídeos e áudios falsos muito convincentes
para o olhar humano. -
7:51 - 7:54Isso será alimentado por duas tecnologias.
-
7:54 - 7:58A primeira é conhecida por
"rede generativa antagónica." -
7:58 - 8:01Trata-se de um modelo de aprendizagem
de máquina com duas redes: -
8:01 - 8:02um discriminador,
-
8:02 - 8:06cuja função é determinar
se algo é verdadeiro ou falso, -
8:06 - 8:08e um gerador,
-
8:08 - 8:11cuja função é gerar
conteúdos sintéticos. -
8:11 - 8:16O gerador sintético produz áudios
e vídeos sintéticos, -
8:16 - 8:21e o discriminador tenta dizer-nos:
''Isto é real ou é falso?" -
8:21 - 8:24A função do gerador
-
8:24 - 8:28é maximizar a probabilidade
de enganar o discriminador -
8:28 - 8:32para que este julgue que os áudios
e vídeos sintéticos que está a criar -
8:32 - 8:33são, de facto, verdadeiros.
-
8:33 - 8:36Imaginem uma máquina num ciclo
-
8:36 - 8:39a tentar ser cada vez melhor
no ato de nos enganar. -
8:39 - 8:42Isto, combinado com a segunda tecnologia,
-
8:42 - 8:47que é basicamente a democratização
da inteligência artificial para as pessoas, -
8:47 - 8:50a capacidade de qualquer pessoa,
-
8:50 - 8:52sem nenhuma compreensão
sobre inteligência artificial, -
8:52 - 8:54ou aprendizagem de máquina,
-
8:54 - 8:58para utilizar este tipo de algoritmos
para gerar conteúdos sintéticos -
8:58 - 9:02faz com que seja
muito mais fácil criar vídeos. -
9:02 - 9:07A Casa Branca partilhou
um vídeo falso, adulterado -
9:07 - 9:10de um jornalista a interagir
com uma estagiária -
9:10 - 9:11que tentava tirar-lhe o microfone.
-
9:11 - 9:14Eles removeram partes desse vídeo
-
9:14 - 9:17para fazer a ação do jornalista
parecer mais agressiva. -
9:17 - 9:21Quando videógrafos e duplos
-
9:21 - 9:23foram entrevistados
sobre este tipo de técnica, -
9:23 - 9:27disseram: "Sim, usamo-la
com frequência em filmes -
9:27 - 9:32"para fazer com que os nossos socos
e pontapés pareçam mais agressivos." -
9:32 - 9:34Eles partilharam este vídeo
-
9:34 - 9:37e usaram-no em parte como justificação
-
9:37 - 9:41para cancelar a credencial
do repórter Jim Acosta, -
9:41 - 9:42da Casa Branca.
-
9:43 - 9:47A CNN teve de processar judicialmente
para revalidar a credencial. -
9:49 - 9:54Ocorrem-me cinco caminhos
que podemos seguir -
9:54 - 9:58para tentar resolver alguns
destes problemas difíceis. -
9:58 - 10:00Cada um deles inclui uma promessa,
-
10:00 - 10:03mas cada um tem os seus próprios desafios.
-
10:03 - 10:05O primeiro é a rotulagem.
-
10:05 - 10:07Pensemos da seguinte forma:
-
10:07 - 10:10quando vamos ao supermercado
comprar a comida que consumimos, -
10:10 - 10:12esta está extensivamente rotulada.
-
10:12 - 10:14Sabemos quantas calorias tem,
-
10:14 - 10:16a gordura que contém
-
10:16 - 10:20— no entanto, ao consumirmos informações
não temos nenhum tipo de rótulo. -
10:20 - 10:22Qual o conteúdo dessas informações?
-
10:22 - 10:24A fonte é credível?
-
10:24 - 10:26Qual a proveniência dessas informações?
-
10:26 - 10:28Não temos esse tipo de informação
-
10:28 - 10:30quando consumimos informações.
-
10:30 - 10:33É uma possibilidade,
mas coloca alguns desafios. -
10:33 - 10:40Por exemplo, na sociedade, quem decide
o que é verdadeiro ou falso? -
10:40 - 10:42É o governo?
-
10:42 - 10:44É o Facebook?
-
10:44 - 10:47É um consórcio independente
de verificadores de factos? -
10:47 - 10:50Quem verifica os verificadores de factos?
-
10:50 - 10:54Outra possibilidade são os incentivos.
-
10:54 - 10:56Sabemos que, durante
as eleições presidenciais nos EUA, -
10:56 - 11:00houve uma onda de desinformação
proveniente da Macedónia -
11:00 - 11:02sem qualquer motivação política
-
11:02 - 11:05mas com motivação económica.
-
11:05 - 11:07Esta motivação económica existiu
-
11:07 - 11:10porque as notícias falsas chegam
muito mais longe, mais depressa -
11:10 - 11:13e mais profundamente do que a verdade,
-
11:13 - 11:17porque podemos ganhar dinheiro
em publicidade, atraindo as atenções -
11:17 - 11:20com esse tipo de informações.
-
11:20 - 11:23Mas se pudermos diminuir a propagação
deste tipo de informações, -
11:23 - 11:26talvez isso reduza o incentivo económico
-
11:26 - 11:29de produzir este tipo de informações.
-
11:29 - 11:32Em terceiro lugar,
podemos pensar em regulamentação, -
11:32 - 11:34e certamente, devíamos
considerar esta opção. -
11:34 - 11:36Atualmente, nos EUA,
-
11:36 - 11:40estamos a estudar o que aconteceria
se o Facebook e outros fossem regulados. -
11:40 - 11:44Embora devêssemos considerar coisas
como regular o discurso político, -
11:44 - 11:47rotular o facto de se tratar
de discurso político, -
11:47 - 11:51garantir que elementos estrangeiros
não possam financiar o discurso político -
11:51 - 11:53isso também acarreta os seus perigos.
-
11:54 - 11:58Por exemplo, recentemente a Malásia
instituiu uma sentença de 6 anos de prisão -
11:58 - 12:01para qualquer pessoa
que propague desinformações. -
12:02 - 12:04Em regimes autoritários,
-
12:04 - 12:08esta política pode ser usada
para reprimir opiniões de minorias -
12:08 - 12:12e manter a repressão.
-
12:13 - 12:16A quarta opção possível é a transparência.
-
12:17 - 12:21Queremos saber como funcionam
os algoritmos do Facebook. -
12:21 - 12:23Como é que os dados
se combinam com os algoritmos -
12:23 - 12:26para produzir os resultados que vemos?
-
12:26 - 12:29Queremos que eles "abram o quimono"
-
12:29 - 12:33e nos mostrem o funcionamento
interno do Facebook. -
12:33 - 12:36E se quisermos saber o impacto
das redes sociais na sociedade -
12:36 - 12:38precisamos de cientistas e investigadores
-
12:38 - 12:41e outros meios de acesso
a este tipo de informações. -
12:41 - 12:43Mas, simultaneamente,
-
12:43 - 12:46estamos a pedir ao Facebook
para trancar tudo, -
12:46 - 12:49para guardar todas as informações
de forma segura. -
12:49 - 12:52O Facebook e outras plataformas
de redes sociais -
12:52 - 12:55estão a enfrentar o que chamamos
de paradoxo da transparência. -
12:55 - 12:58Pedimos-lhes para serem, simultaneamente
-
12:59 - 13:03abertos, transparentes e seguros.
-
13:03 - 13:05É uma linha muito difícil de traçar,
-
13:06 - 13:07mas deverão traçá-la
-
13:07 - 13:11se o objetivo for cumprir a promessa
das tecnologias sociais -
13:11 - 13:13enquanto evitamos os seus perigos.
-
13:13 - 13:18O último aspeto são os algoritmos
e a aprendizagem de máquina -
13:18 - 13:22Tecnologia criada para retirar
notícias falsas, compreendê-las, -
13:22 - 13:26como se propagam
e tentar diminuir o seu fluxo. -
13:26 - 13:29Precisamos de compreender
esta tecnologia, -
13:29 - 13:32porque nunca vamos escapar
ao facto de que -
13:32 - 13:35subjacentes a qualquer solução
ou abordagem tecnológica -
13:35 - 13:39estão as questões éticas
e filosóficas fundamentais -
13:39 - 13:42sobre como definimos
a verdade e a falsidade, -
13:42 - 13:46a quem atribuímos o poder
para definir a verdade e a falsidade, -
13:46 - 13:48que opiniões são legítimas,
-
13:48 - 13:52e que tipo de discurso
deve ser permitido, etc. -
13:52 - 13:54A tecnologia não é uma solução para isso.
-
13:54 - 13:58A solução é a ética e a filosofia.
-
13:59 - 14:02Quase todas as teorias
sobre a tomada de decisões humanas, -
14:02 - 14:05a cooperação e coordenação humanas,
-
14:05 - 14:09têm, no seu cerne,
um sentido do que é a verdade. -
14:09 - 14:11Mas, com o aumento das notícias falsas,
-
14:11 - 14:13com o aumento dos vídeos falsos,
-
14:13 - 14:15o aumento dos áudios falsos,
-
14:15 - 14:19estamos no limiar do fim da realidade
-
14:19 - 14:23em que não sabemos o que é a verdade
e o que é a mentira. -
14:23 - 14:26E isso é potencialmente
incrivelmente perigoso. -
14:27 - 14:31Temos de ser vigilantes
em defender a verdade -
14:31 - 14:33contra a desinformação.
-
14:33 - 14:36Com as nossas tecnologias,
com as nossas políticas -
14:36 - 14:38e, talvez, o mais importante,
-
14:38 - 14:41com as nossas
responsabilidades individuais, -
14:42 - 14:45as decisões, os comportamentos e as ações.
-
14:45 - 14:47Muito obrigado.
-
14:47 - 14:50(Aplausos)
- Title:
- Como proteger a verdade na era da desinformação
- Speaker:
- Sinan Aral
- Description:
-
As notícias falsas podem influenciar eleições, criar vulnerabilidades na economia e semear discórdias no dia-a-dia. Sinan Aral, cientista de dados, desmistifica como e por que razão isto se alastra tão rapidamente — citando um dos maiores estudos realizados sobre desinformação e identificando cinco estratégias para nos ajudar a desfazer a teia emaranhada entre o verdadeiro e falso.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Margarida Ferreira approved Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Margarida Ferreira edited Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Margarida Ferreira edited Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Margarida Ferreira edited Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Margarida Ferreira edited Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Norberto Amaral commented on Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Norberto Amaral accepted Portuguese subtitles for How we can protect truth in the age of misinformation | ||
Norberto Amaral edited Portuguese subtitles for How we can protect truth in the age of misinformation |
Norberto Amaral
Tradução original de Mariana de Oliveira tinha sido feita para português do Brasil, o que não é aceitável neste caso. Continha imensos erros de tradução e algumas expressões tinham claramente sido mal compreendidas e traduzidas por um tradutor automático. Por exemplo, "disseminar" como tradução de "disrupt" e "parar" como tradução de "seize" - "immediately seized on the sentiment on this tweet" tinha sido traduzido para "imediatamente pararam no sentimento do tweet".