Não importa quem seja ou onde more,
eu chutaria que você tem
pelo menos um parente
que gosta de encaminhar aqueles e-mails.
Sabem do que estou falando,
aqueles com alegações duvidosas
ou vídeos conspiratórios.
E vocês provavelmente já
não os seguem mais no Facebook
por compartilhar publicações como esta.
É uma imagem de uma banana
com uma estranha cruz vermelha
passando pelo centro.
E o texto advertindo as pessoas
a não comerem frutas
que tenham essa aparência,
sugerindo que foram injetadas
com sangue contaminado com HIV.
E a mensagem compartilhada só diz:
"Compartilhe para salvar vidas."
Verificadores de fatos
já desmentem essa há anos,
mas é um daqueles boatos
que simplesmente não acabam.
Um boato zumbi.
E, óbvio, é completamente falso.
Pode ser tentador rir
de um exemplo desses,
dizer: "Bem, quem acreditaria nisso?"
Mas a razão para ser um boato zumbi
é que explora nossos medos
mais profundos sobre a própria segurança
e a das pessoas que amamos.
E quando se passa tanto tempo
quanto eu vendo desinformação,
você sabe que esse
é só um exemplo de muitos
que exploram nossos medos
e vulnerabilidades mais profundos.
Todo dia, ao redor do mundo,
vemos muitos novos memes no Instagram
incentivando os pais
a não vacinarem os filhos.
Vemos novos vídeos no YouTube
explicando que a mudança
climática é uma farsa.
E em todas as plataformas,
vemos inúmeras publicações
feitas para demonizar pessoas
baseado em raça, religião ou sexualidade.
Bem-vindos a um dos principais
desafios do nosso tempo.
Como podemos manter uma Internet
com liberdade de expressão em foco,
e ao mesmo tempo garantir
que o conteúdo sendo disseminado
não cause danos irreparáveis
às nossas democracias, comunidades
e nosso bem-estar físico e mental?
Porque vivemos na era da informação,
porém, a moeda central de que
todos dependemos, informação,
já não é mais considerada
totalmente confiável
e às vezes pode parecer
completamente perigosa.
Isso se dá em parte graças
ao crescimento desenfreado
de plataformas de compartilhamento
que nos permitem ir rolando,
onde mentiras e fatos estão lado a lado,
mas sem nenhum dos sinais
tradicionais de credibilidade.
E puxa vida! Nossa linguagem disso
é horrivelmente atrapalhada.
As pessoas ainda estão obcecadas
com o termo "fake news",
apesar do fato de ser
extremamente desnecessário
e usado para descrever muitas coisas
que são, na verdade, bem diferentes:
mentiras, boatos, farsas,
conspirações, campanhas.
Queria que parássemos de usar um termo
que foi adotado por políticos
de todo o mundo,
de esquerda e de direita,
usado como arma para atacar
uma imprensa livre e independente.
(Aplausos)
Pois precisamos dos nossos
noticiários profissionais
agora mais do que nunca.
E além disso, a maioria desse conteúdo
nem disfarça ser notícia.
São memes, vídeos, publicações.
E a maior parte não é falsa; é enganosa.
Temos a tendência de focar
o que é verdadeiro ou falso.
Mas a maior preocupação
é o contexto usado como arma.
Porque a desinformação mais eficaz
sempre foi aquela que tem
uma pitada de verdade.
Usemos esse exemplo de Londres,
de março de 2017,
Um tuíte que circulou bastante
na sequência de um incidente terrorista
na Ponte de Westminster.
Essa imagem é genuína, não falsa.
A mulher que aparece na foto
foi entrevistada em seguida
e explicou que ficou
profundamente traumatizada.
Ela estava no telefone com um ente querido
e não olhava para a vítima por respeito.
Mas ainda assim circulou abertamente
com um enquadramento islamofóbico,
com diversas hashtags,
incluindo: #BanIslam.
E se você trabalhasse
no Twitter, o que faria?
Você o apagaria ou deixaria lá?
Meu instinto, minha reação
emocional, seria de apagar.
Eu detesto o enquadramento dessa imagem.
Mas liberdade de expressão
é um direito humano
e se começarmos a apagar discursos
que nos deixam desconfortáveis,
aí teremos problemas.
E esse pode parecer um caso nítido,
mas a maioria dos discursos não é.
Essa linha é incrivelmente
difícil de definir.
O que é uma decisão
bem-intencionada de uma pessoa
é censura indiscutível para a outra.
O que sabemos agora
é que essa conta, Texas Lone Star,
foi parte de uma campanha russa
mais ampla de desinformação,
uma que já foi derrubada.
Será que isso mudaria sua opinião?
A minha sim,
porque agora é o caso
de uma campanha coordenada
para semear discórdia.
E para vocês que gostariam de pensar
que a inteligência artificial resolverá
todos os nossos problemas,
concordemos que estamos bem longe
de IA que consiga entender
publicações como esta.
Então eu gostaria de explicar
três questões interligadas
que complicam muito essa questão
e pensar em algumas maneiras
para considerar esses desafios.
Primeiro, não temos um relacionamento
racional com a informação,
e sim um emocional.
Não é verdade que mais fatos
farão tudo ficar bem,
porque os algoritmos que determinam
que conteúdo nós vemos
são projetados para recompensar
nossa resposta emocional.
E quando temos medo,
narrativas simplistas,
explicações conspiratórias
e linguagem que demoniza os outros
são muito mais eficazes.
E além disso, muitas dessas empresas
têm um modelo de negócios
vinculado à atenção,
o que significa que esses algoritmos serão
sempre enviesados para o lado emocional.
Segundo, grande parte do discurso
de que estou falando aqui é legal.
Seria um problema diferente
se eu falasse de imagens
de abuso sexual infantil
ou conteúdo que incite violência.
Pode ser perfeitamente legal
postar uma mentira descarada.
As pessoas continuam falando de apagar
conteúdo "problemático" ou "nocivo",
mas sem definição clara
do que querem dizer com isso,
como Mark Zuckerberg,
que recentemente reivindicou
uma regulação global
para moderar o discurso.
E minha preocupação
é estarmos vendo governos
ao redor do mundo todo
lançando decisões
precipitadas de políticas
que podem, de fato, provocar
consequências muito mais sérias
quando se trata do nosso discurso.
E mesmo se pudéssemos decidir
quais discursos publicar ou apagar,
nunca tivemos tanto discurso.
A cada segundo, milhões de conteúdos
são publicados por pessoas do mundo todo
em diferentes idiomas, recorrendo
a milhares de contextos diferentes.
Nunca tivemos mecanismos eficazes
para moderar discurso a essa escala,
seja impulsionado por humano
ou por tecnologia.
E terceiro, essas empresas:
Google, Twitter, Facebook, WhatsApp;
são parte de um ecossistema
de informação mais amplo.
Gostamos de pôr toda a culpa nelas,
mas os meios de comunicação
e os representantes eleitos
podem ter um papel equivalente
para amplificar boatos
e conspirações se quiserem.
Assim como nós, quando
compartilhamos cegamente
conteúdo polêmico
ou enganoso sem querer.
Estamos criando mais poluição.
Sei que todos buscamos uma solução fácil.
Mas não há nenhuma.
Qualquer solução teria que ser lançada
numa escala massiva, escala de Internet,
e sim, as plataformas estão acostumadas
a operar nesse nível.
Mas será que podemos e devemos
permiti-las reparar esses problemas?
Certamente estão tentando,
mas a maioria de nós concordaria
que não queremos multinacionais
como guardiãs da verdade
e da justiça on-line.
E também acho que
as plataformas concordariam.
E agora elas mesmas estão
determinando sua nota.
Gostam de nos dizer que as intervenções
que estão aplicando funcionam,
mas como elas mesmas escrevem
os relatórios de transparência,
não conseguimos verificar
o que está acontecendo de fato.
(Aplausos)
E sejamos claros que a maioria
das mudanças que vemos
só acontecem depois
que jornalistas investigam
e acham evidência de parcialidade
ou conteúdo que viola
suas diretrizes de comunidade.
Então sim, essa empresas têm que ter
um papel fundamental no processo,
mas elas não podem controlá-lo.
E que tal os governos?
Muita gente acredita
que regulamentação global
é nossa última esperança
em termos de sanear
nosso ecossistema de informação.
Mas o que vejo são legisladores
que têm dificuldade de acompanhar
as mudanças rápidas em tecnologia.
E pior, estão trabalhando no escuro,
porque não têm acesso aos dados
para entender o que está acontecendo
nessas plataformas.
E afinal, a quais governos
confiaríamos essas tarefas?
Precisamos de uma resposta
global, não nacional.
Nós somos o elemento que falta.
São aquelas pessoas que usam
essas tecnologias todo dia.
Será que podemos criar uma infraestrutura
que reforce a qualidade da informação?
Bem, acho que sim,
E tenho algumas ideias
do que podemos conseguir fazer.
Primeiro, se quisermos mesmo
envolver o público,
será que conseguimos
nos inspirar na Wikipedia?
Eles nos mostraram o que é possível.
Sim, não é perfeito,
mas demonstraram que,
com as estruturas corretas,
com uma perspectiva global
e muita transparência,
dá para construir algo que
mereça a confiança de muita gente.
Porque é preciso achar um jeito
de explorar o conhecimento coletivo
e a experiência de todos os usuários.
Esse é o caso particularmente
para mulheres, negros
e grupos sub-representados.
E adivinhem por quê?
Eles são especialistas
em ódio e desinformação,
pois já foram o alvo
dessas campanhas por muito tempo.
E ao longo dos anos, eles vêm alertando
e nunca foram escutados.
Isso tem que mudar.
Será que podemos criar
uma Wikipedia da credibilidade?
Será que podemos encontrar um jeito
dos usuários darem ideias?
Podem dar ideias sobre decisões difíceis
de moderação de conteúdo.
Podem fornecer feedback
quando as plataformas decidirem
que querem aplicar novas mudanças.
Segundo, a experiência das pessoas
com informação é personalizada.
Minha linha do tempo no Facebook
é bem diferente da sua.
Suas recomendações no YouTube
são bem diferentes das minhas.
Isso impossibilita que analisemos
quais informações as pessoas estão vendo.
Será que podemos imaginar
o desenvolvimento de um tipo
de repositório aberto e centralizado
para dados anonimizados,
com questões éticas
e de privacidade integradas?
Pois imaginem o que descobriríamos
se construíssemos uma rede global
de cidadãos interessados
que quisessem doar
dados sociais para a ciência.
Porque sabemos mesmo muito pouco
sobre as consequências de longo prazo
do ódio e da desinformação
nas atitudes e comportamento das pessoas.
E o que de fato sabemos,
quase tudo foi elaborado nos EUA,
apesar de esse ser um problema global.
Temos que trabalhar nisso também.
E terceiro, será que encontramos
um jeito de ligar os pontos?
Nenhum setor, especialmente
o não-lucrativo, start-ups ou governos,
vai resolver isso sozinho.
Mas há pessoas muito inteligentes
no mundo todo todo
trabalhando nesses desafios,
de salas de imprensa, sociedade civil,
meio acadêmico, grupos ativistas.
E podem ver alguns aqui.
Alguns estão criando indicadores
de credibilidade de conteúdo.
Outros verificam fatos, para que
declarações, vídeo e imagens falsas
sejam ofuscados pelas plataformas.
Uma não-lucrativa
que ajudei a fundar, a First Draft,
está trabalhando com salas
de imprensa em todo o mundo
para ajudar a construir programas
investigativos e colaborativos.
E Danny Hills, um arquiteto de software,
está projetando um novo sistema
chamado "The Underlay",
que será um arquivo
de todas as constatações públicas
conectadas às suas fontes,
para que as pessoas e os algoritmos
possam julgar melhor o que é confiável.
E educadores de todo o mundo
estão testando técnicas diferentes
de fazer com que as pessoas sejam
mais críticas do conteúdo que consomem.
Todo esse trabalho é maravilhoso,
mas estão trabalhando isoladamente
e muitos não têm financiamento suficiente.
Há também centenas
de pessoas muito inteligentes
trabalhando nessas empresas,
mas esses esforços parecem desconexos,
porque estão desenvolvendo
soluções diferentes para o mesmo problema.
Como podemos encontrar um jeito
de aproximar as pessoas
em um local físico por dias ou semanas,
para que possam abordar
esses problemas em conjunto,
mas de diferentes perspectivas?
Então, será que conseguimos?
Conseguimos criar uma resposta
coordenada e ambiciosa,
que se adeque à escala
e à complexidade do problema?
Eu acho mesmo que sim.
Juntos vamos reconstruir
nosso acervo de informações.
Obrigada.
(Aplausos)