Como podemos ajudar a transformar a Internet num lugar de confiança
-
0:02 - 0:04Quem quer que sejam
ou onde quer que morem, -
0:04 - 0:06aposto que vocês têm,
pelo menos um parente -
0:06 - 0:09que gosta de encaminhar aqueles "e-mails"
-
0:09 - 0:11— vocês sabem de quais estou a falar —
-
0:11 - 0:14aqueles com afirmações duvidosas
ou vídeos sobre conspirações. -
0:14 - 0:17Vocês provavelmente
já os calaram no Facebook, -
0:17 - 0:19por partilharem "posts" sociais como este:
-
0:19 - 0:21É a imagem de uma banana
-
0:21 - 0:23com uma estranha cruz vermelha
passando pelo centro. -
0:24 - 0:26O texto está a avisar as pessoas
-
0:26 - 0:28para não comerem frutas
parecidas com aquela, -
0:28 - 0:30sugerindo que lhes injetaram sangue
-
0:30 - 0:32contaminado com VIH.
-
0:32 - 0:35A mensagem, por cima, diz simplesmente:
-
0:35 - 0:37"Por favor, encaminhe para salvar vidas."
-
0:38 - 0:41Os verificadores de factos
vêm desmistificando isto há anos. -
0:41 - 0:44Mas este é um daqueles rumores
que não morrem. -
0:44 - 0:45Um rumor sobre zombies.
-
0:46 - 0:48E, claro, é inteiramente falso.
-
0:48 - 0:51Pode ser tentador rir de um exemplo
como este, e dizer: -
0:51 - 0:53"Bom, afinal quem acredita nisto?"
-
0:53 - 0:55Mas é um rumor sobre zombies
-
0:55 - 0:59que atinge o medo mais profundo
das pessoas, sobre a sua segurança -
0:59 - 1:01e a das pessoas que amam.
-
1:02 - 1:05Se vocês gastam tanto tempo como eu
a procurar informações falsas, -
1:05 - 1:08sabem que este é apenas
um exemplo entre muitos -
1:08 - 1:11que atingem o medo mais profundo
e a vulnerabilidade das pessoas. -
1:11 - 1:16Todos os dias, no mundo inteiro,
vemos novos memes no Instagram, -
1:16 - 1:19a encorajar os pais
a não vacinarem os filhos. -
1:19 - 1:23Vemos novos vídeos no YouTube a explicar
que a alteração climática é uma fraude. -
1:23 - 1:26Em todas as plataformas,
vemos inúmeros "posts" -
1:26 - 1:28concebidos para demonizar outras pessoas
-
1:28 - 1:31segundo a sua etnia, a sua religião
ou a sua sexualidade. -
1:32 - 1:35Bem-vindos a um dos problemas
centrais do nosso tempo. -
1:36 - 1:40Como conseguiremos manter
uma Internet com liberdade de expressão -
1:40 - 1:43enquanto também asseguramos
que o conteúdo disseminado -
1:43 - 1:47não cause irreversíveis danos nas nossas
democracias, nas nossas comunidades -
1:47 - 1:49e no nosso bem-estar físico e mental?
-
1:50 - 1:52Porque vivemos na era da informação,
-
1:52 - 1:56Porém, a moeda central de que
todos dependemos — a informação — -
1:56 - 1:58já não é considerada totalmente fiável.
-
1:58 - 2:01E, às vezes, pode ser
francamente perigosa. -
2:01 - 2:05Isto é graças, em parte, ao crescimento
das plataformas de partilha social -
2:05 - 2:06que podemos percorrer,
-
2:06 - 2:09onde mentiras e factos estão lado a lado,
-
2:09 - 2:12mas sem nenhum dos tradicionais
sinais de credibilidade. -
2:12 - 2:16E bem... a nossa linguagem em volta disto
é horrivelmente confusa. -
2:16 - 2:19As pessoas continuam obcecadas
pela expressão "fake news", -
2:19 - 2:22apesar do facto de ela ser
extraordinariamente inútil -
2:22 - 2:25e de ser usada para descrever
coisas que são muito diferentes: -
2:25 - 2:29Mentiras, boatos, fraudes,
conspirações, propaganda. -
2:29 - 2:32Eu espero que nós possamos
deixar de usar uma expressão -
2:32 - 2:35que foi adotada por políticos
do mundo inteiro, -
2:35 - 2:36da esquerda até à direita,
-
2:36 - 2:40tem sido usada como arma para atacar
uma imprensa livre e independente, -
2:40 - 2:43(Aplausos)
-
2:45 - 2:48Precisamos dos "media" profissionais
agora mais do que nunca. -
2:49 - 2:52Além disso, na maioria, estes conteúdos
nem vêm mascarados como notícias. -
2:52 - 2:55São memes, vídeos, "posts" sociais.
-
2:55 - 2:58A maioria deles não são falsos,
são enganadores. -
2:58 - 3:01Nós tendemos a fixar-nos
no que é verdadeiro ou falso. -
3:01 - 3:06Mas a maior preocupação
é fazer do contexto uma arma. -
3:07 - 3:09Porque a desinformação mais eficaz
-
3:09 - 3:12sempre foi aquela que contém
uma parte de verdade. -
3:12 - 3:15Vamos ver este exemplo, de Londres,
de março de 2017. -
3:15 - 3:17Um "tweet" que circulou amplamente
-
3:17 - 3:21na sequência de um incidente
terrorista na ponte de Westminster. -
3:21 - 3:23Esta é uma imagem real, não é falsa.
-
3:23 - 3:26A mulher que aparece na fotografia
foi entrevistada depois -
3:26 - 3:29e explicou que estava totalmente
traumatizada. -
3:29 - 3:31Estava a falar ao telemóvel
com um ente querido -
3:31 - 3:33e não estava a olhar
para a vítima, por respeito. -
3:33 - 3:37Mesmo assim, circulou amplamente
retratado como islamofobia, -
3:37 - 3:40com múltiplas "hashtags",
incluindo: #BanIslam. -
3:40 - 3:43Se vocês trabalhassem no Twitter,
o que é que fariam? -
3:43 - 3:46Eliminavam-no ou deixavam-no?
-
3:47 - 3:50A minha reação intuitiva,
emocional, é eliminar. -
3:50 - 3:52Odeio o enquadramento desta imagem.
-
3:53 - 3:55Mas a liberdade de expressão
é um direito dos homens, -
3:55 - 3:58E se começarmos a eliminar discursos
que nos deixam desconfortáveis, -
3:58 - 3:59vamos arranjar problemas.
-
4:00 - 4:02Este pode parecer um caso claro,
-
4:02 - 4:04mas a maioria não é assim.
-
4:04 - 4:06Estas linhas são extremamente
difíceis de traçar. -
4:06 - 4:08O que é uma decisão
bem intencionada de uma pessoa -
4:08 - 4:11é pura censura para outra.
-
4:11 - 4:14Sabemos agora que esta conta,
Texas Lone Star, -
4:14 - 4:17fez parte de uma ampla campanha
de desinformação russa, -
4:17 - 4:19uma que, a partir daí, foi eliminada.
-
4:19 - 4:21Isso mudaria a vossa opinião?
-
4:21 - 4:22Mudou a minha,
-
4:23 - 4:25Porque agora é um caso
de uma campanha coordenada -
4:25 - 4:26para semear a discórdia.
-
4:26 - 4:28Para quem goste de pensar
-
4:28 - 4:31que a inteligência artificial
vai resolver os nossos problemas, -
4:31 - 4:33eu acho que podemos concordar
que estamos muito longe -
4:33 - 4:36de uma IA que consiga
interpretar "posts" como este. -
4:37 - 4:39Gostava de explicar
três problemas interligados -
4:39 - 4:42que tornam isto muito complexo
-
4:42 - 4:45e depois pensar nalgumas formas
de considerar esses problemas. -
4:45 - 4:49Primeiro, não temos
uma relação racional com a informação, -
4:49 - 4:51temos uma relação emocional.
-
4:51 - 4:55Não é verdade que mais factos
façam tudo ficar Ok, -
4:55 - 4:58porque os algoritmos que determinam
os conteúdos que vemos -
4:58 - 5:01são concebidos para recompensar
as nossas reações emocionais. -
5:01 - 5:02Quando estamos com medo,
-
5:02 - 5:05as narrativas simplificadas,
as explicações conspiratórias -
5:05 - 5:09e uma linguagem que demoniza
outras pessoas são muito mais eficazes. -
5:10 - 5:11Além disso, em muitas destas empresas,
-
5:11 - 5:14os modelos de negócios
estão ligados à atenção. -
5:14 - 5:18Ou seja, estes algoritmos
serão sempre virados para as emoções. -
5:18 - 5:23Segundo, a maioria dos discursos
de que estou a falar, é legal. -
5:23 - 5:24Seria uma questão diferente
-
5:24 - 5:27se falasse de imagens
de abuso sexual infantil -
5:27 - 5:29ou de conteúdos que incitam à violência.
-
5:29 - 5:32É perfeitamente legal publicar
uma mentira descarada. -
5:33 - 5:37Mas continuamos a falar de eliminar
conteúdos problemáticos ou prejudiciais, -
5:37 - 5:40sem uma clara definição
do que queremos dizer com isso, -
5:40 - 5:41incluindo Mark Zuckerberg
-
5:41 - 5:45que pediu uma regulamentação
mundial para moderar o discurso. -
5:45 - 5:47A minha preocupação é que vemos governos
-
5:47 - 5:48pelo mundo inteiro
-
5:48 - 5:51a tomar decisões políticas precipitadas
-
5:51 - 5:54que podem desencadear
consequências muito mais graves -
5:54 - 5:56quando se trata do nosso discurso.
-
5:56 - 6:00E mesmo que pudéssemos decidir
qual o discurso a manter ou a eliminar, -
6:00 - 6:02nunca tivemos tantos discursos.
-
6:02 - 6:04A cada segundo, milhões
de peças de conteúdos -
6:04 - 6:07são descarregadas no mundo inteiro,
em idiomas diferentes, -
6:07 - 6:10com milhares de diferentes
contextos culturais. -
6:10 - 6:13Nós nunca tivemos
mecanismos eficazes -
6:13 - 6:15para moderar discursos a esta escala,
-
6:15 - 6:18sejam feitos por seres humanos
ou por tecnologia. -
6:18 - 6:22E terceiro, essas empresas — a Google,
o Twitter, o Facebook, o Whatsapp — -
6:22 - 6:25fazem parte de um ecossistema
mais amplo de informações. -
6:25 - 6:28Nós gostamos de lhes atribuir
todas as culpas, -
6:28 - 6:31mas os "media" de massas
e os funcionários eleitos -
6:31 - 6:35também ampliam rumores
e conspirações, quando querem. -
6:36 - 6:39Tal como nós, quando encaminhamos,
sem pensar, -
6:39 - 6:41conteúdos facciosos ou enganadores,
-
6:41 - 6:42sem os testarmos.
-
6:42 - 6:45Estamos a contribuir para a poluição.
-
6:45 - 6:48Eu sei que todos procuramos
um remédio fácil. -
6:48 - 6:50Mas não há nenhum.
-
6:50 - 6:54Qualquer solução terá de ser desenvolvida
a uma escala enorme, à escala da Internet, -
6:54 - 6:58E sim, as plataformas estão acostumadas
a trabalhar a esse nível. -
6:58 - 7:01Mas podemos ou devemos deixar
que elas resolvam estes problemas? -
7:02 - 7:03Certamente estão a tentar
-
7:03 - 7:07mas muitos de nós concordará
que não queremos empresas globais -
7:07 - 7:09que sejam guardiãs
da verdade e da justiça "online". -
7:09 - 7:12Também acho que as plataformas
concordarão com isso. -
7:12 - 7:15Neste momento, elas estão
a fazer o seu trabalho. -
7:15 - 7:16Elas gostam de nos dizer
-
7:16 - 7:19que as intervenções que implementam,
estão a funcionar -
7:19 - 7:21mas, como são eles que escrevem
os seus relatórios, -
7:21 - 7:25não há maneira de verificarmos,
independentemente, o que acontece. -
7:26 - 7:29(Aplausos)
-
7:30 - 7:33E sejamos claros, a maioria
das mudanças que vemos -
7:33 - 7:36somente acontece depois
de os jornalistas investigarem -
7:36 - 7:37e encontrarem provas de preconceitos
-
7:37 - 7:40ou conteúdos que violam
as orientações da comunidade. -
7:41 - 7:45Estas empresas têm de desempenhar
um papel importante neste processo -
7:45 - 7:47mas não podem controlá-lo.
-
7:48 - 7:50Então e os governos?
-
7:50 - 7:53Muitos acreditam que a regulamentação
global é a nossa última esperança -
7:53 - 7:56em termos de limpar o nosso
ecossistema de informações. -
7:56 - 7:59Mas só vejo legisladores
a lutar para se manterem atualizados -
7:59 - 8:01com as rápidas mudanças na tecnologia.
-
8:01 - 8:03E pior, estão a trabalhar no escuro,
-
8:03 - 8:05porque não têm acesso aos dados
-
8:05 - 8:08para perceberem o que está a acontecer
nessas plataformas. -
8:08 - 8:11De qualquer modo, em que governos
confiaríamos para fazer isso? -
8:11 - 8:14Precisamos de uma resposta mundial,
não uma resposta nacional. -
8:15 - 8:18Portanto, a ligação em falta somos nós.
-
8:18 - 8:21são as pessoas que usam as tecnologias
todos os dias. -
8:21 - 8:26Podemos conceber uma nova infraestrutura
para suportar informações de qualidade? -
8:26 - 8:28Eu acredito que sim
-
8:28 - 8:31e tenho algumas ideias
sobre o que podemos fazer. -
8:31 - 8:34Primeiro, se quisermos mesmo
que o público participe nisto, -
8:34 - 8:37podemos tirar alguma inspiração
da Wikipedia? -
8:37 - 8:38Eles mostraram-nos o que é possível.
-
8:38 - 8:40Sim, não é perfeito,
-
8:40 - 8:42Mas demonstraram
que, com as estruturas certas, -
8:42 - 8:45com uma perspetiva global,
e muito mais transparência, -
8:45 - 8:48podemos construir algo
que ganhe a confiança da maioria. -
8:48 - 8:51Porque temos de achar uma forma
de explorar a sabedoria coletiva -
8:51 - 8:53e a experiência de todos os utilizadores.
-
8:54 - 8:56Isso é especialmente o caso
das mulheres, -
8:56 - 8:58das pessoas de cor,
dos grupos mal representados. -
8:58 - 8:59Sabem que mais?
-
8:59 - 9:02Eles são especialistas quando
se fala de ódio e desinformação, -
9:02 - 9:05porque têm sido o alvo
dessas campanhas há muito tempo. -
9:05 - 9:07Ao longo dos anos,
ergueram as suas bandeiras -
9:07 - 9:09mas não têm sido escutados.
-
9:09 - 9:11Isto tem de mudar.
-
9:11 - 9:15Então podemos construir
uma Wikipedia para a confiança? -
9:15 - 9:19Haverá uma forma de os utilizadores
contribuírem com ideias? -
9:19 - 9:23Podem contribuir com ideias sobre difíceis
decisões para moderação de conteúdos. -
9:23 - 9:25Podem fornecer "feedback"
-
9:25 - 9:28quando as plataformas decidirem
querer lançar novas mudanças. -
9:28 - 9:32Segundo, as experiências das pessoas
com a informação são personalizadas. -
9:32 - 9:35O meu "feed" de notícias do Facebook
é diferente do vosso. -
9:35 - 9:38As vossas recomendações do YouTube
são diferentes das minhas. -
9:38 - 9:40Isso impossibilita-nos de examinar
-
9:40 - 9:43que informações é que
as pessoas estão a ver. -
9:43 - 9:44Então, podemos imaginar
-
9:44 - 9:49desenvolver algum tipo de repositório
aberto centralizado para dados anónimos, -
9:49 - 9:52com privacidade e preocupações éticas
nele incluídas? -
9:52 - 9:54Porque imaginem o que aprenderíamos
-
9:54 - 9:57se construíssemos uma rede global
de cidadãos preocupados -
9:57 - 10:01que quisessem doar os seus dados
sociais para a ciência. -
10:01 - 10:03Porque nós sabemos muito pouco
-
10:03 - 10:06sobre as consequências a longo prazo
do ódio e da desinformação -
10:06 - 10:08nas atitudes e comportamentos das pessoas.
-
10:08 - 10:10E a maior parte do que sabemos,
-
10:10 - 10:12tem sido realizada nos EUA,
-
10:12 - 10:14apesar do facto de ser
um problema mundial. -
10:14 - 10:16Precisamos de trabalhar nisto também.
-
10:16 - 10:19E terceiro, podemos achar
uma forma de juntar os pontos? -
10:20 - 10:23Nenhum setor, muito menos o não-lucrativo,
as "startups" ou os governos, -
10:23 - 10:25vão solucionar isto.
-
10:25 - 10:27Mas há pessoas muito inteligentes
em todo o mundo -
10:27 - 10:29a trabalhar nestes problemas,
nas salas de imprensa, -
10:30 - 10:32na sociedade civil, na academia,
em grupos de ativistas. -
10:32 - 10:34Podemos ver alguns deles aqui.
-
10:34 - 10:37Alguns estão a criar indicadores
de credibilidade de conteúdos. -
10:37 - 10:40Outros, verificam factos,
para retirar das plataformas -
10:40 - 10:42as afirmações, os vídeos
e as imagens falsas. -
10:42 - 10:45A First Draft, uma organização
sem fins lucrativos, -
10:45 - 10:47está a trabalhar com redações
competitivas do mundo inteiro, -
10:47 - 10:51para as ajudar a criar programas
investigativos e colaborativos. -
10:51 - 10:53Danny Hills, uma arquiteta de "software"
-
10:53 - 10:56está a conceber um novo sistema,
chamado The Underlay -
10:56 - 10:59que vai ser um registo
das declarações públicas de factos -
10:59 - 11:00relacionados com as suas fontes,
-
11:00 - 11:04para as pessoas e os algoritmos
avaliarem melhor o que é credível. -
11:05 - 11:08Educadores do mundo inteiro
estão a testar diferentes técnicas -
11:08 - 11:10para encontrar maneiras
de ensinar as pessoas -
11:10 - 11:13a serem críticas
dos conteúdos que consomem. -
11:13 - 11:16Todos estes esforços são ótimos,
mas estão a trabalhar isoladamente. -
11:16 - 11:18Muitos deles, infelizmente,
têm falta de fundos. -
11:18 - 11:21Também há centenas de pessoas
muito inteligentes -
11:21 - 11:22a trabalhar nestas empresas,
-
11:22 - 11:25mas, de novo, estes esforços
podem parecer desligados, -
11:25 - 11:29pois estão a desenvolver diferentes
soluções para os mesmos problemas. -
11:29 - 11:31Como podemos achar uma forma
de reunir as pessoas -
11:31 - 11:35num local físico, durante dias
ou semanas, ao mesmo tempo, -
11:35 - 11:37para eles poderem abordar
estes problemas juntos -
11:37 - 11:39mas segundo as suas diferentes
perspetivas? -
11:39 - 11:41Então, podemos fazer isto?
-
11:41 - 11:44Podemos construir uma resposta
coordenada e ambiciosa? -
11:44 - 11:47Uma resposta que iguale a escala
e a complexidade do problema? -
11:48 - 11:49Acho que podemos.
-
11:49 - 11:52Juntos, vamos reconstruir
as nossas informações comuns. -
11:53 - 11:54Obrigada.
-
11:54 - 11:57(Aplausos)
- Title:
- Como podemos ajudar a transformar a Internet num lugar de confiança
- Speaker:
- Claire Wardle
- Description:
-
Como podemos deixar de disseminar conteúdos enganadores e, às vezes, perigosos, enquanto mantemos uma Internet com liberdade de expressão no seu centro?
A especialista em Desinformação, Claire Wardle, explora os novos desafios do nosso poluído ambiente "online" e traça um plano para transformar a Internet num lugar de confiança — com a ajuda dos utilizadores do dia a dia. "Juntos, vamos reconstruir as nossas informações comuns." diz ela. - Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
![]() |
Margarida Ferreira approved Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Margarida Ferreira accepted Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Shoji Ohashi edited Portuguese subtitles for How you can help transform the internet into a place of trust | |
![]() |
Shoji Ohashi edited Portuguese subtitles for How you can help transform the internet into a place of trust |