Como você pode ajudar a transformar a Internet em um lugar confiável
-
0:02 - 0:04Não importa quem seja ou onde more,
-
0:04 - 0:06eu chutaria que você tem
pelo menos um parente -
0:06 - 0:09que gosta de encaminhar aqueles e-mails.
-
0:09 - 0:11Sabem do que estou falando,
-
0:11 - 0:14aqueles com alegações duvidosas
ou vídeos conspiratórios. -
0:14 - 0:17E vocês provavelmente já
não os seguem mais no Facebook -
0:17 - 0:19por compartilhar publicações como esta.
-
0:19 - 0:21É uma imagem de uma banana
-
0:21 - 0:23com uma estranha cruz vermelha
passando pelo centro. -
0:23 - 0:25E o texto advertindo as pessoas
-
0:26 - 0:28a não comerem frutas
que tenham essa aparência, -
0:28 - 0:29sugerindo que foram injetadas
-
0:29 - 0:32com sangue contaminado com HIV.
-
0:32 - 0:35E a mensagem compartilhada só diz:
-
0:35 - 0:37"Compartilhe para salvar vidas."
-
0:38 - 0:41Verificadores de fatos
já desmentem essa há anos, -
0:41 - 0:44mas é um daqueles boatos
que simplesmente não acabam. -
0:44 - 0:45Um boato zumbi.
-
0:46 - 0:48E, óbvio, é completamente falso.
-
0:48 - 0:50Pode ser tentador rir
de um exemplo desses, -
0:50 - 0:53dizer: "Bem, quem acreditaria nisso?"
-
0:53 - 0:55Mas a razão para ser um boato zumbi
-
0:55 - 0:59é que explora nossos medos
mais profundos sobre a própria segurança -
0:59 - 1:01e a das pessoas que amamos.
-
1:02 - 1:05E quando se passa tanto tempo
quanto eu vendo desinformação, -
1:05 - 1:08você sabe que esse
é só um exemplo de muitos -
1:08 - 1:11que exploram nossos medos
e vulnerabilidades mais profundos. -
1:11 - 1:16Todo dia, ao redor do mundo,
vemos muitos novos memes no Instagram -
1:16 - 1:19incentivando os pais
a não vacinarem os filhos. -
1:19 - 1:21Vemos novos vídeos no YouTube
-
1:21 - 1:23explicando que a mudança
climática é uma farsa. -
1:23 - 1:25E em todas as plataformas,
-
1:25 - 1:28vemos inúmeras publicações
feitas para demonizar pessoas -
1:28 - 1:31baseado em raça, religião ou sexualidade.
-
1:32 - 1:35Bem-vindos a um dos principais
desafios do nosso tempo. -
1:36 - 1:40Como podemos manter uma Internet
com liberdade de expressão em foco, -
1:40 - 1:43e ao mesmo tempo garantir
que o conteúdo sendo disseminado -
1:43 - 1:47não cause danos irreparáveis
às nossas democracias, comunidades -
1:47 - 1:49e nosso bem-estar físico e mental?
-
1:50 - 1:52Porque vivemos na era da informação,
-
1:52 - 1:56porém, a moeda central de que
todos dependemos, informação, -
1:56 - 1:58já não é mais considerada
totalmente confiável -
1:58 - 2:00e às vezes pode parecer
completamente perigosa. -
2:01 - 2:02Isso se dá em parte graças
-
2:02 - 2:05ao crescimento desenfreado
de plataformas de compartilhamento -
2:05 - 2:07que nos permitem ir rolando,
-
2:07 - 2:09onde mentiras e fatos estão lado a lado,
-
2:09 - 2:12mas sem nenhum dos sinais
tradicionais de credibilidade. -
2:12 - 2:16E puxa vida! Nossa linguagem disso
é horrivelmente atrapalhada. -
2:16 - 2:19As pessoas ainda estão obcecadas
com o termo "fake news", -
2:19 - 2:22apesar do fato de ser
extremamente desnecessário -
2:22 - 2:25e usado para descrever muitas coisas
que são, na verdade, bem diferentes: -
2:25 - 2:28mentiras, boatos, farsas,
conspirações, campanhas. -
2:29 - 2:32Queria que parássemos de usar um termo
-
2:32 - 2:35que foi adotado por políticos
de todo o mundo, -
2:35 - 2:36de esquerda e de direita,
-
2:36 - 2:40usado como arma para atacar
uma imprensa livre e independente. -
2:41 - 2:44(Aplausos)
-
2:45 - 2:47Pois precisamos dos nossos
noticiários profissionais -
2:47 - 2:49agora mais do que nunca.
-
2:49 - 2:52E além disso, a maioria desse conteúdo
nem disfarça ser notícia. -
2:52 - 2:55São memes, vídeos, publicações.
-
2:55 - 2:58E a maior parte não é falsa; é enganosa.
-
2:58 - 3:01Temos a tendência de focar
o que é verdadeiro ou falso. -
3:01 - 3:05Mas a maior preocupação
é o contexto usado como arma. -
3:07 - 3:08Porque a desinformação mais eficaz
-
3:08 - 3:12sempre foi aquela que tem
uma pitada de verdade. -
3:12 - 3:15Usemos esse exemplo de Londres,
de março de 2017, -
3:15 - 3:17Um tuíte que circulou bastante
-
3:17 - 3:21na sequência de um incidente terrorista
na Ponte de Westminster. -
3:21 - 3:23Essa imagem é genuína, não falsa.
-
3:23 - 3:26A mulher que aparece na foto
foi entrevistada em seguida -
3:26 - 3:29e explicou que ficou
profundamente traumatizada. -
3:29 - 3:31Ela estava no telefone com um ente querido
-
3:31 - 3:33e não olhava para a vítima por respeito.
-
3:33 - 3:37Mas ainda assim circulou abertamente
com um enquadramento islamofóbico, -
3:37 - 3:40com diversas hashtags,
incluindo: #BanIslam. -
3:40 - 3:43E se você trabalhasse
no Twitter, o que faria? -
3:43 - 3:45Você o apagaria ou deixaria lá?
-
3:47 - 3:50Meu instinto, minha reação
emocional, seria de apagar. -
3:50 - 3:52Eu detesto o enquadramento dessa imagem.
-
3:53 - 3:55Mas liberdade de expressão
é um direito humano -
3:55 - 3:58e se começarmos a apagar discursos
que nos deixam desconfortáveis, -
3:58 - 3:59aí teremos problemas.
-
4:00 - 4:02E esse pode parecer um caso nítido,
-
4:02 - 4:04mas a maioria dos discursos não é.
-
4:04 - 4:06Essa linha é incrivelmente
difícil de definir. -
4:06 - 4:08O que é uma decisão
bem-intencionada de uma pessoa -
4:08 - 4:11é censura indiscutível para a outra.
-
4:11 - 4:14O que sabemos agora
é que essa conta, Texas Lone Star, -
4:14 - 4:17foi parte de uma campanha russa
mais ampla de desinformação, -
4:17 - 4:19uma que já foi derrubada.
-
4:19 - 4:21Será que isso mudaria sua opinião?
-
4:21 - 4:22A minha sim,
-
4:22 - 4:24porque agora é o caso
de uma campanha coordenada -
4:24 - 4:26para semear discórdia.
-
4:26 - 4:28E para vocês que gostariam de pensar
-
4:28 - 4:31que a inteligência artificial resolverá
todos os nossos problemas, -
4:31 - 4:33concordemos que estamos bem longe
-
4:33 - 4:36de IA que consiga entender
publicações como esta. -
4:37 - 4:39Então eu gostaria de explicar
três questões interligadas -
4:39 - 4:42que complicam muito essa questão
-
4:42 - 4:45e pensar em algumas maneiras
para considerar esses desafios. -
4:45 - 4:49Primeiro, não temos um relacionamento
racional com a informação, -
4:49 - 4:51e sim um emocional.
-
4:51 - 4:55Não é verdade que mais fatos
farão tudo ficar bem, -
4:55 - 4:58porque os algoritmos que determinam
que conteúdo nós vemos -
4:58 - 5:01são projetados para recompensar
nossa resposta emocional. -
5:01 - 5:02E quando temos medo,
-
5:02 - 5:05narrativas simplistas,
explicações conspiratórias -
5:05 - 5:09e linguagem que demoniza os outros
são muito mais eficazes. -
5:10 - 5:11E além disso, muitas dessas empresas
-
5:11 - 5:14têm um modelo de negócios
vinculado à atenção, -
5:14 - 5:18o que significa que esses algoritmos serão
sempre enviesados para o lado emocional. -
5:18 - 5:23Segundo, grande parte do discurso
de que estou falando aqui é legal. -
5:23 - 5:24Seria um problema diferente
-
5:24 - 5:26se eu falasse de imagens
de abuso sexual infantil -
5:26 - 5:29ou conteúdo que incite violência.
-
5:29 - 5:32Pode ser perfeitamente legal
postar uma mentira descarada. -
5:33 - 5:37As pessoas continuam falando de apagar
conteúdo "problemático" ou "nocivo", -
5:37 - 5:40mas sem definição clara
do que querem dizer com isso, -
5:40 - 5:42como Mark Zuckerberg,
que recentemente reivindicou -
5:42 - 5:45uma regulação global
para moderar o discurso. -
5:45 - 5:47E minha preocupação
é estarmos vendo governos -
5:47 - 5:49ao redor do mundo todo
-
5:49 - 5:51lançando decisões
precipitadas de políticas -
5:51 - 5:54que podem, de fato, provocar
consequências muito mais sérias -
5:54 - 5:56quando se trata do nosso discurso.
-
5:56 - 6:00E mesmo se pudéssemos decidir
quais discursos publicar ou apagar, -
6:00 - 6:02nunca tivemos tanto discurso.
-
6:02 - 6:04A cada segundo, milhões de conteúdos
-
6:04 - 6:06são publicados por pessoas do mundo todo
-
6:06 - 6:10em diferentes idiomas, recorrendo
a milhares de contextos diferentes. -
6:10 - 6:13Nunca tivemos mecanismos eficazes
-
6:13 - 6:14para moderar discurso a essa escala,
-
6:15 - 6:17seja impulsionado por humano
ou por tecnologia. -
6:18 - 6:22E terceiro, essas empresas:
Google, Twitter, Facebook, WhatsApp; -
6:22 - 6:25são parte de um ecossistema
de informação mais amplo. -
6:25 - 6:28Gostamos de pôr toda a culpa nelas,
-
6:28 - 6:29mas os meios de comunicação
-
6:29 - 6:32e os representantes eleitos
podem ter um papel equivalente -
6:32 - 6:36para amplificar boatos
e conspirações se quiserem. -
6:36 - 6:39Assim como nós, quando
compartilhamos cegamente -
6:39 - 6:42conteúdo polêmico
ou enganoso sem querer. -
6:42 - 6:44Estamos criando mais poluição.
-
6:45 - 6:48Sei que todos buscamos uma solução fácil.
-
6:48 - 6:50Mas não há nenhuma.
-
6:50 - 6:54Qualquer solução teria que ser lançada
numa escala massiva, escala de Internet, -
6:54 - 6:58e sim, as plataformas estão acostumadas
a operar nesse nível. -
6:58 - 7:01Mas será que podemos e devemos
permiti-las reparar esses problemas? -
7:02 - 7:03Certamente estão tentando,
-
7:03 - 7:07mas a maioria de nós concordaria
que não queremos multinacionais -
7:07 - 7:09como guardiãs da verdade
e da justiça on-line. -
7:09 - 7:12E também acho que
as plataformas concordariam. -
7:12 - 7:15E agora elas mesmas estão
determinando sua nota. -
7:15 - 7:19Gostam de nos dizer que as intervenções
que estão aplicando funcionam, -
7:19 - 7:21mas como elas mesmas escrevem
os relatórios de transparência, -
7:21 - 7:25não conseguimos verificar
o que está acontecendo de fato. -
7:26 - 7:29(Aplausos)
-
7:30 - 7:33E sejamos claros que a maioria
das mudanças que vemos -
7:33 - 7:36só acontecem depois
que jornalistas investigam -
7:36 - 7:37e acham evidência de parcialidade
-
7:37 - 7:41ou conteúdo que viola
suas diretrizes de comunidade. -
7:41 - 7:45Então sim, essa empresas têm que ter
um papel fundamental no processo, -
7:45 - 7:47mas elas não podem controlá-lo.
-
7:48 - 7:50E que tal os governos?
-
7:50 - 7:51Muita gente acredita
-
7:51 - 7:53que regulamentação global
é nossa última esperança -
7:53 - 7:56em termos de sanear
nosso ecossistema de informação. -
7:56 - 7:59Mas o que vejo são legisladores
que têm dificuldade de acompanhar -
7:59 - 8:01as mudanças rápidas em tecnologia.
-
8:01 - 8:03E pior, estão trabalhando no escuro,
-
8:03 - 8:05porque não têm acesso aos dados
-
8:05 - 8:08para entender o que está acontecendo
nessas plataformas. -
8:08 - 8:11E afinal, a quais governos
confiaríamos essas tarefas? -
8:11 - 8:14Precisamos de uma resposta
global, não nacional. -
8:15 - 8:18Nós somos o elemento que falta.
-
8:18 - 8:21São aquelas pessoas que usam
essas tecnologias todo dia. -
8:21 - 8:26Será que podemos criar uma infraestrutura
que reforce a qualidade da informação? -
8:26 - 8:27Bem, acho que sim,
-
8:27 - 8:31E tenho algumas ideias
do que podemos conseguir fazer. -
8:31 - 8:34Primeiro, se quisermos mesmo
envolver o público, -
8:34 - 8:37será que conseguimos
nos inspirar na Wikipedia? -
8:37 - 8:38Eles nos mostraram o que é possível.
-
8:38 - 8:39Sim, não é perfeito,
-
8:39 - 8:42mas demonstraram que,
com as estruturas corretas, -
8:42 - 8:44com uma perspectiva global
e muita transparência, -
8:44 - 8:48dá para construir algo que
mereça a confiança de muita gente. -
8:48 - 8:51Porque é preciso achar um jeito
de explorar o conhecimento coletivo -
8:51 - 8:53e a experiência de todos os usuários.
-
8:54 - 8:56Esse é o caso particularmente
para mulheres, negros -
8:56 - 8:58e grupos sub-representados.
-
8:58 - 8:59E adivinhem por quê?
-
8:59 - 9:01Eles são especialistas
em ódio e desinformação, -
9:01 - 9:05pois já foram o alvo
dessas campanhas por muito tempo. -
9:05 - 9:07E ao longo dos anos, eles vêm alertando
-
9:07 - 9:09e nunca foram escutados.
-
9:09 - 9:10Isso tem que mudar.
-
9:11 - 9:15Será que podemos criar
uma Wikipedia da credibilidade? -
9:15 - 9:19Será que podemos encontrar um jeito
dos usuários darem ideias? -
9:19 - 9:23Podem dar ideias sobre decisões difíceis
de moderação de conteúdo. -
9:23 - 9:25Podem fornecer feedback
-
9:25 - 9:28quando as plataformas decidirem
que querem aplicar novas mudanças. -
9:28 - 9:32Segundo, a experiência das pessoas
com informação é personalizada. -
9:32 - 9:35Minha linha do tempo no Facebook
é bem diferente da sua. -
9:35 - 9:38Suas recomendações no YouTube
são bem diferentes das minhas. -
9:38 - 9:40Isso impossibilita que analisemos
-
9:40 - 9:43quais informações as pessoas estão vendo.
-
9:43 - 9:44Será que podemos imaginar
-
9:44 - 9:48o desenvolvimento de um tipo
de repositório aberto e centralizado -
9:48 - 9:49para dados anonimizados,
-
9:49 - 9:52com questões éticas
e de privacidade integradas? -
9:52 - 9:54Pois imaginem o que descobriríamos
-
9:54 - 9:57se construíssemos uma rede global
de cidadãos interessados -
9:57 - 10:01que quisessem doar
dados sociais para a ciência. -
10:01 - 10:03Porque sabemos mesmo muito pouco
-
10:03 - 10:06sobre as consequências de longo prazo
do ódio e da desinformação -
10:06 - 10:08nas atitudes e comportamento das pessoas.
-
10:08 - 10:09E o que de fato sabemos,
-
10:09 - 10:12quase tudo foi elaborado nos EUA,
-
10:12 - 10:14apesar de esse ser um problema global.
-
10:14 - 10:16Temos que trabalhar nisso também.
-
10:16 - 10:20E terceiro, será que encontramos
um jeito de ligar os pontos? -
10:20 - 10:23Nenhum setor, especialmente
o não-lucrativo, start-ups ou governos, -
10:23 - 10:25vai resolver isso sozinho.
-
10:25 - 10:27Mas há pessoas muito inteligentes
no mundo todo todo -
10:27 - 10:29trabalhando nesses desafios,
-
10:29 - 10:32de salas de imprensa, sociedade civil,
meio acadêmico, grupos ativistas. -
10:32 - 10:34E podem ver alguns aqui.
-
10:34 - 10:37Alguns estão criando indicadores
de credibilidade de conteúdo. -
10:37 - 10:40Outros verificam fatos, para que
declarações, vídeo e imagens falsas -
10:40 - 10:42sejam ofuscados pelas plataformas.
-
10:42 - 10:44Uma não-lucrativa
que ajudei a fundar, a First Draft, -
10:44 - 10:47está trabalhando com salas
de imprensa em todo o mundo -
10:47 - 10:51para ajudar a construir programas
investigativos e colaborativos. -
10:51 - 10:53E Danny Hills, um arquiteto de software,
-
10:53 - 10:56está projetando um novo sistema
chamado "The Underlay", -
10:56 - 10:59que será um arquivo
de todas as constatações públicas -
10:59 - 11:00conectadas às suas fontes,
-
11:00 - 11:04para que as pessoas e os algoritmos
possam julgar melhor o que é confiável. -
11:05 - 11:08E educadores de todo o mundo
estão testando técnicas diferentes -
11:08 - 11:12de fazer com que as pessoas sejam
mais críticas do conteúdo que consomem. -
11:13 - 11:16Todo esse trabalho é maravilhoso,
mas estão trabalhando isoladamente -
11:16 - 11:18e muitos não têm financiamento suficiente.
-
11:18 - 11:20Há também centenas
de pessoas muito inteligentes -
11:20 - 11:22trabalhando nessas empresas,
-
11:22 - 11:25mas esses esforços parecem desconexos,
-
11:25 - 11:26porque estão desenvolvendo
-
11:26 - 11:29soluções diferentes para o mesmo problema.
-
11:29 - 11:32Como podemos encontrar um jeito
de aproximar as pessoas -
11:32 - 11:35em um local físico por dias ou semanas,
-
11:35 - 11:37para que possam abordar
esses problemas em conjunto, -
11:37 - 11:39mas de diferentes perspectivas?
-
11:39 - 11:40Então, será que conseguimos?
-
11:40 - 11:44Conseguimos criar uma resposta
coordenada e ambiciosa, -
11:44 - 11:47que se adeque à escala
e à complexidade do problema? -
11:48 - 11:49Eu acho mesmo que sim.
-
11:49 - 11:52Juntos vamos reconstruir
nosso acervo de informações. -
11:53 - 11:54Obrigada.
-
11:54 - 11:57(Aplausos)
- Title:
- Como você pode ajudar a transformar a Internet em um lugar confiável
- Speaker:
- Claire Wardle
- Description:
-
Como podemos acabar com a disseminação de conteúdo enganoso, eventualmente perigoso, enquanto mantemos uma Internet com a liberdade de expressão em foco? A especialista em desinformação Claire Wardle explora o novo desafio do nosso ambiente on-line poluído e mapeia um plano para transformar a Internet em um lugar confiável, com a ajuda dos usuários comuns. "Juntos vamos reconstruir nosso acervo de informações", diz ela.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Gustavo Rocha approved Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Gustavo Rocha edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre accepted Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust | ||
Carolina Aguirre edited Portuguese, Brazilian subtitles for How you can help transform the internet into a place of trust |