Return to Video

Como você pode ajudar a transformar a Internet em um lugar confiável

  • 0:02 - 0:04
    Não importa quem seja ou onde more,
  • 0:04 - 0:06
    eu chutaria que você tem
    pelo menos um parente
  • 0:06 - 0:09
    que gosta de encaminhar aqueles e-mails.
  • 0:09 - 0:11
    Sabem do que estou falando,
  • 0:11 - 0:14
    aqueles com alegações duvidosas
    ou vídeos conspiratórios.
  • 0:14 - 0:17
    E vocês provavelmente já
    não os seguem mais no Facebook
  • 0:17 - 0:19
    por compartilhar publicações como esta.
  • 0:19 - 0:21
    É uma imagem de uma banana
  • 0:21 - 0:23
    com uma estranha cruz vermelha
    passando pelo centro.
  • 0:23 - 0:25
    E o texto advertindo as pessoas
  • 0:26 - 0:28
    a não comerem frutas
    que tenham essa aparência,
  • 0:28 - 0:29
    sugerindo que foram injetadas
  • 0:29 - 0:32
    com sangue contaminado com HIV.
  • 0:32 - 0:35
    E a mensagem compartilhada só diz:
  • 0:35 - 0:37
    "Compartilhe para salvar vidas."
  • 0:38 - 0:41
    Verificadores de fatos
    já desmentem essa há anos,
  • 0:41 - 0:44
    mas é um daqueles boatos
    que simplesmente não acabam.
  • 0:44 - 0:45
    Um boato zumbi.
  • 0:46 - 0:48
    E, óbvio, é completamente falso.
  • 0:48 - 0:50
    Pode ser tentador rir
    de um exemplo desses,
  • 0:50 - 0:53
    dizer: "Bem, quem acreditaria nisso?"
  • 0:53 - 0:55
    Mas a razão para ser um boato zumbi
  • 0:55 - 0:59
    é que explora nossos medos
    mais profundos sobre a própria segurança
  • 0:59 - 1:01
    e a das pessoas que amamos.
  • 1:02 - 1:05
    E quando se passa tanto tempo
    quanto eu vendo desinformação,
  • 1:05 - 1:08
    você sabe que esse
    é só um exemplo de muitos
  • 1:08 - 1:11
    que exploram nossos medos
    e vulnerabilidades mais profundos.
  • 1:11 - 1:16
    Todo dia, ao redor do mundo,
    vemos muitos novos memes no Instagram
  • 1:16 - 1:19
    incentivando os pais
    a não vacinarem os filhos.
  • 1:19 - 1:21
    Vemos novos vídeos no YouTube
  • 1:21 - 1:23
    explicando que a mudança
    climática é uma farsa.
  • 1:23 - 1:25
    E em todas as plataformas,
  • 1:25 - 1:28
    vemos inúmeras publicações
    feitas para demonizar pessoas
  • 1:28 - 1:31
    baseado em raça, religião ou sexualidade.
  • 1:32 - 1:35
    Bem-vindos a um dos principais
    desafios do nosso tempo.
  • 1:36 - 1:40
    Como podemos manter uma Internet
    com liberdade de expressão em foco,
  • 1:40 - 1:43
    e ao mesmo tempo garantir
    que o conteúdo sendo disseminado
  • 1:43 - 1:47
    não cause danos irreparáveis
    às nossas democracias, comunidades
  • 1:47 - 1:49
    e nosso bem-estar físico e mental?
  • 1:50 - 1:52
    Porque vivemos na era da informação,
  • 1:52 - 1:56
    porém, a moeda central de que
    todos dependemos, informação,
  • 1:56 - 1:58
    já não é mais considerada
    totalmente confiável
  • 1:58 - 2:00
    e às vezes pode parecer
    completamente perigosa.
  • 2:01 - 2:02
    Isso se dá em parte graças
  • 2:02 - 2:05
    ao crescimento desenfreado
    de plataformas de compartilhamento
  • 2:05 - 2:07
    que nos permitem ir rolando,
  • 2:07 - 2:09
    onde mentiras e fatos estão lado a lado,
  • 2:09 - 2:12
    mas sem nenhum dos sinais
    tradicionais de credibilidade.
  • 2:12 - 2:16
    E puxa vida! Nossa linguagem disso
    é horrivelmente atrapalhada.
  • 2:16 - 2:19
    As pessoas ainda estão obcecadas
    com o termo "fake news",
  • 2:19 - 2:22
    apesar do fato de ser
    extremamente desnecessário
  • 2:22 - 2:25
    e usado para descrever muitas coisas
    que são, na verdade, bem diferentes:
  • 2:25 - 2:28
    mentiras, boatos, farsas,
    conspirações, campanhas.
  • 2:29 - 2:32
    Queria que parássemos de usar um termo
  • 2:32 - 2:35
    que foi adotado por políticos
    de todo o mundo,
  • 2:35 - 2:36
    de esquerda e de direita,
  • 2:36 - 2:40
    usado como arma para atacar
    uma imprensa livre e independente.
  • 2:41 - 2:44
    (Aplausos)
  • 2:45 - 2:47
    Pois precisamos dos nossos
    noticiários profissionais
  • 2:47 - 2:49
    agora mais do que nunca.
  • 2:49 - 2:52
    E além disso, a maioria desse conteúdo
    nem disfarça ser notícia.
  • 2:52 - 2:55
    São memes, vídeos, publicações.
  • 2:55 - 2:58
    E a maior parte não é falsa; é enganosa.
  • 2:58 - 3:01
    Temos a tendência de focar
    o que é verdadeiro ou falso.
  • 3:01 - 3:05
    Mas a maior preocupação
    é o contexto usado como arma.
  • 3:07 - 3:08
    Porque a desinformação mais eficaz
  • 3:08 - 3:12
    sempre foi aquela que tem
    uma pitada de verdade.
  • 3:12 - 3:15
    Usemos esse exemplo de Londres,
    de março de 2017,
  • 3:15 - 3:17
    Um tuíte que circulou bastante
  • 3:17 - 3:21
    na sequência de um incidente terrorista
    na Ponte de Westminster.
  • 3:21 - 3:23
    Essa imagem é genuína, não falsa.
  • 3:23 - 3:26
    A mulher que aparece na foto
    foi entrevistada em seguida
  • 3:26 - 3:29
    e explicou que ficou
    profundamente traumatizada.
  • 3:29 - 3:31
    Ela estava no telefone com um ente querido
  • 3:31 - 3:33
    e não olhava para a vítima por respeito.
  • 3:33 - 3:37
    Mas ainda assim circulou abertamente
    com um enquadramento islamofóbico,
  • 3:37 - 3:40
    com diversas hashtags,
    incluindo: #BanIslam.
  • 3:40 - 3:43
    E se você trabalhasse
    no Twitter, o que faria?
  • 3:43 - 3:45
    Você o apagaria ou deixaria lá?
  • 3:47 - 3:50
    Meu instinto, minha reação
    emocional, seria de apagar.
  • 3:50 - 3:52
    Eu detesto o enquadramento dessa imagem.
  • 3:53 - 3:55
    Mas liberdade de expressão
    é um direito humano
  • 3:55 - 3:58
    e se começarmos a apagar discursos
    que nos deixam desconfortáveis,
  • 3:58 - 3:59
    aí teremos problemas.
  • 4:00 - 4:02
    E esse pode parecer um caso nítido,
  • 4:02 - 4:04
    mas a maioria dos discursos não é.
  • 4:04 - 4:06
    Essa linha é incrivelmente
    difícil de definir.
  • 4:06 - 4:08
    O que é uma decisão
    bem-intencionada de uma pessoa
  • 4:08 - 4:11
    é censura indiscutível para a outra.
  • 4:11 - 4:14
    O que sabemos agora
    é que essa conta, Texas Lone Star,
  • 4:14 - 4:17
    foi parte de uma campanha russa
    mais ampla de desinformação,
  • 4:17 - 4:19
    uma que já foi derrubada.
  • 4:19 - 4:21
    Será que isso mudaria sua opinião?
  • 4:21 - 4:22
    A minha sim,
  • 4:22 - 4:24
    porque agora é o caso
    de uma campanha coordenada
  • 4:24 - 4:26
    para semear discórdia.
  • 4:26 - 4:28
    E para vocês que gostariam de pensar
  • 4:28 - 4:31
    que a inteligência artificial resolverá
    todos os nossos problemas,
  • 4:31 - 4:33
    concordemos que estamos bem longe
  • 4:33 - 4:36
    de IA que consiga entender
    publicações como esta.
  • 4:37 - 4:39
    Então eu gostaria de explicar
    três questões interligadas
  • 4:39 - 4:42
    que complicam muito essa questão
  • 4:42 - 4:45
    e pensar em algumas maneiras
    para considerar esses desafios.
  • 4:45 - 4:49
    Primeiro, não temos um relacionamento
    racional com a informação,
  • 4:49 - 4:51
    e sim um emocional.
  • 4:51 - 4:55
    Não é verdade que mais fatos
    farão tudo ficar bem,
  • 4:55 - 4:58
    porque os algoritmos que determinam
    que conteúdo nós vemos
  • 4:58 - 5:01
    são projetados para recompensar
    nossa resposta emocional.
  • 5:01 - 5:02
    E quando temos medo,
  • 5:02 - 5:05
    narrativas simplistas,
    explicações conspiratórias
  • 5:05 - 5:09
    e linguagem que demoniza os outros
    são muito mais eficazes.
  • 5:10 - 5:11
    E além disso, muitas dessas empresas
  • 5:11 - 5:14
    têm um modelo de negócios
    vinculado à atenção,
  • 5:14 - 5:18
    o que significa que esses algoritmos serão
    sempre enviesados para o lado emocional.
  • 5:18 - 5:23
    Segundo, grande parte do discurso
    de que estou falando aqui é legal.
  • 5:23 - 5:24
    Seria um problema diferente
  • 5:24 - 5:26
    se eu falasse de imagens
    de abuso sexual infantil
  • 5:26 - 5:29
    ou conteúdo que incite violência.
  • 5:29 - 5:32
    Pode ser perfeitamente legal
    postar uma mentira descarada.
  • 5:33 - 5:37
    As pessoas continuam falando de apagar
    conteúdo "problemático" ou "nocivo",
  • 5:37 - 5:40
    mas sem definição clara
    do que querem dizer com isso,
  • 5:40 - 5:42
    como Mark Zuckerberg,
    que recentemente reivindicou
  • 5:42 - 5:45
    uma regulação global
    para moderar o discurso.
  • 5:45 - 5:47
    E minha preocupação
    é estarmos vendo governos
  • 5:47 - 5:49
    ao redor do mundo todo
  • 5:49 - 5:51
    lançando decisões
    precipitadas de políticas
  • 5:51 - 5:54
    que podem, de fato, provocar
    consequências muito mais sérias
  • 5:54 - 5:56
    quando se trata do nosso discurso.
  • 5:56 - 6:00
    E mesmo se pudéssemos decidir
    quais discursos publicar ou apagar,
  • 6:00 - 6:02
    nunca tivemos tanto discurso.
  • 6:02 - 6:04
    A cada segundo, milhões de conteúdos
  • 6:04 - 6:06
    são publicados por pessoas do mundo todo
  • 6:06 - 6:10
    em diferentes idiomas, recorrendo
    a milhares de contextos diferentes.
  • 6:10 - 6:13
    Nunca tivemos mecanismos eficazes
  • 6:13 - 6:14
    para moderar discurso a essa escala,
  • 6:15 - 6:17
    seja impulsionado por humano
    ou por tecnologia.
  • 6:18 - 6:22
    E terceiro, essas empresas:
    Google, Twitter, Facebook, WhatsApp;
  • 6:22 - 6:25
    são parte de um ecossistema
    de informação mais amplo.
  • 6:25 - 6:28
    Gostamos de pôr toda a culpa nelas,
  • 6:28 - 6:29
    mas os meios de comunicação
  • 6:29 - 6:32
    e os representantes eleitos
    podem ter um papel equivalente
  • 6:32 - 6:36
    para amplificar boatos
    e conspirações se quiserem.
  • 6:36 - 6:39
    Assim como nós, quando
    compartilhamos cegamente
  • 6:39 - 6:42
    conteúdo polêmico
    ou enganoso sem querer.
  • 6:42 - 6:44
    Estamos criando mais poluição.
  • 6:45 - 6:48
    Sei que todos buscamos uma solução fácil.
  • 6:48 - 6:50
    Mas não há nenhuma.
  • 6:50 - 6:54
    Qualquer solução teria que ser lançada
    numa escala massiva, escala de Internet,
  • 6:54 - 6:58
    e sim, as plataformas estão acostumadas
    a operar nesse nível.
  • 6:58 - 7:01
    Mas será que podemos e devemos
    permiti-las reparar esses problemas?
  • 7:02 - 7:03
    Certamente estão tentando,
  • 7:03 - 7:07
    mas a maioria de nós concordaria
    que não queremos multinacionais
  • 7:07 - 7:09
    como guardiãs da verdade
    e da justiça on-line.
  • 7:09 - 7:12
    E também acho que
    as plataformas concordariam.
  • 7:12 - 7:15
    E agora elas mesmas estão
    determinando sua nota.
  • 7:15 - 7:19
    Gostam de nos dizer que as intervenções
    que estão aplicando funcionam,
  • 7:19 - 7:21
    mas como elas mesmas escrevem
    os relatórios de transparência,
  • 7:21 - 7:25
    não conseguimos verificar
    o que está acontecendo de fato.
  • 7:26 - 7:29
    (Aplausos)
  • 7:30 - 7:33
    E sejamos claros que a maioria
    das mudanças que vemos
  • 7:33 - 7:36
    só acontecem depois
    que jornalistas investigam
  • 7:36 - 7:37
    e acham evidência de parcialidade
  • 7:37 - 7:41
    ou conteúdo que viola
    suas diretrizes de comunidade.
  • 7:41 - 7:45
    Então sim, essa empresas têm que ter
    um papel fundamental no processo,
  • 7:45 - 7:47
    mas elas não podem controlá-lo.
  • 7:48 - 7:50
    E que tal os governos?
  • 7:50 - 7:51
    Muita gente acredita
  • 7:51 - 7:53
    que regulamentação global
    é nossa última esperança
  • 7:53 - 7:56
    em termos de sanear
    nosso ecossistema de informação.
  • 7:56 - 7:59
    Mas o que vejo são legisladores
    que têm dificuldade de acompanhar
  • 7:59 - 8:01
    as mudanças rápidas em tecnologia.
  • 8:01 - 8:03
    E pior, estão trabalhando no escuro,
  • 8:03 - 8:05
    porque não têm acesso aos dados
  • 8:05 - 8:08
    para entender o que está acontecendo
    nessas plataformas.
  • 8:08 - 8:11
    E afinal, a quais governos
    confiaríamos essas tarefas?
  • 8:11 - 8:14
    Precisamos de uma resposta
    global, não nacional.
  • 8:15 - 8:18
    Nós somos o elemento que falta.
  • 8:18 - 8:21
    São aquelas pessoas que usam
    essas tecnologias todo dia.
  • 8:21 - 8:26
    Será que podemos criar uma infraestrutura
    que reforce a qualidade da informação?
  • 8:26 - 8:27
    Bem, acho que sim,
  • 8:27 - 8:31
    E tenho algumas ideias
    do que podemos conseguir fazer.
  • 8:31 - 8:34
    Primeiro, se quisermos mesmo
    envolver o público,
  • 8:34 - 8:37
    será que conseguimos
    nos inspirar na Wikipedia?
  • 8:37 - 8:38
    Eles nos mostraram o que é possível.
  • 8:38 - 8:39
    Sim, não é perfeito,
  • 8:39 - 8:42
    mas demonstraram que,
    com as estruturas corretas,
  • 8:42 - 8:44
    com uma perspectiva global
    e muita transparência,
  • 8:44 - 8:48
    dá para construir algo que
    mereça a confiança de muita gente.
  • 8:48 - 8:51
    Porque é preciso achar um jeito
    de explorar o conhecimento coletivo
  • 8:51 - 8:53
    e a experiência de todos os usuários.
  • 8:54 - 8:56
    Esse é o caso particularmente
    para mulheres, negros
  • 8:56 - 8:58
    e grupos sub-representados.
  • 8:58 - 8:59
    E adivinhem por quê?
  • 8:59 - 9:01
    Eles são especialistas
    em ódio e desinformação,
  • 9:01 - 9:05
    pois já foram o alvo
    dessas campanhas por muito tempo.
  • 9:05 - 9:07
    E ao longo dos anos, eles vêm alertando
  • 9:07 - 9:09
    e nunca foram escutados.
  • 9:09 - 9:10
    Isso tem que mudar.
  • 9:11 - 9:15
    Será que podemos criar
    uma Wikipedia da credibilidade?
  • 9:15 - 9:19
    Será que podemos encontrar um jeito
    dos usuários darem ideias?
  • 9:19 - 9:23
    Podem dar ideias sobre decisões difíceis
    de moderação de conteúdo.
  • 9:23 - 9:25
    Podem fornecer feedback
  • 9:25 - 9:28
    quando as plataformas decidirem
    que querem aplicar novas mudanças.
  • 9:28 - 9:32
    Segundo, a experiência das pessoas
    com informação é personalizada.
  • 9:32 - 9:35
    Minha linha do tempo no Facebook
    é bem diferente da sua.
  • 9:35 - 9:38
    Suas recomendações no YouTube
    são bem diferentes das minhas.
  • 9:38 - 9:40
    Isso impossibilita que analisemos
  • 9:40 - 9:43
    quais informações as pessoas estão vendo.
  • 9:43 - 9:44
    Será que podemos imaginar
  • 9:44 - 9:48
    o desenvolvimento de um tipo
    de repositório aberto e centralizado
  • 9:48 - 9:49
    para dados anonimizados,
  • 9:49 - 9:52
    com questões éticas
    e de privacidade integradas?
  • 9:52 - 9:54
    Pois imaginem o que descobriríamos
  • 9:54 - 9:57
    se construíssemos uma rede global
    de cidadãos interessados
  • 9:57 - 10:01
    que quisessem doar
    dados sociais para a ciência.
  • 10:01 - 10:03
    Porque sabemos mesmo muito pouco
  • 10:03 - 10:06
    sobre as consequências de longo prazo
    do ódio e da desinformação
  • 10:06 - 10:08
    nas atitudes e comportamento das pessoas.
  • 10:08 - 10:09
    E o que de fato sabemos,
  • 10:09 - 10:12
    quase tudo foi elaborado nos EUA,
  • 10:12 - 10:14
    apesar de esse ser um problema global.
  • 10:14 - 10:16
    Temos que trabalhar nisso também.
  • 10:16 - 10:20
    E terceiro, será que encontramos
    um jeito de ligar os pontos?
  • 10:20 - 10:23
    Nenhum setor, especialmente
    o não-lucrativo, start-ups ou governos,
  • 10:23 - 10:25
    vai resolver isso sozinho.
  • 10:25 - 10:27
    Mas há pessoas muito inteligentes
    no mundo todo todo
  • 10:27 - 10:29
    trabalhando nesses desafios,
  • 10:29 - 10:32
    de salas de imprensa, sociedade civil,
    meio acadêmico, grupos ativistas.
  • 10:32 - 10:34
    E podem ver alguns aqui.
  • 10:34 - 10:37
    Alguns estão criando indicadores
    de credibilidade de conteúdo.
  • 10:37 - 10:40
    Outros verificam fatos, para que
    declarações, vídeo e imagens falsas
  • 10:40 - 10:42
    sejam ofuscados pelas plataformas.
  • 10:42 - 10:44
    Uma não-lucrativa
    que ajudei a fundar, a First Draft,
  • 10:44 - 10:47
    está trabalhando com salas
    de imprensa em todo o mundo
  • 10:47 - 10:51
    para ajudar a construir programas
    investigativos e colaborativos.
  • 10:51 - 10:53
    E Danny Hills, um arquiteto de software,
  • 10:53 - 10:56
    está projetando um novo sistema
    chamado "The Underlay",
  • 10:56 - 10:59
    que será um arquivo
    de todas as constatações públicas
  • 10:59 - 11:00
    conectadas às suas fontes,
  • 11:00 - 11:04
    para que as pessoas e os algoritmos
    possam julgar melhor o que é confiável.
  • 11:05 - 11:08
    E educadores de todo o mundo
    estão testando técnicas diferentes
  • 11:08 - 11:12
    de fazer com que as pessoas sejam
    mais críticas do conteúdo que consomem.
  • 11:13 - 11:16
    Todo esse trabalho é maravilhoso,
    mas estão trabalhando isoladamente
  • 11:16 - 11:18
    e muitos não têm financiamento suficiente.
  • 11:18 - 11:20
    Há também centenas
    de pessoas muito inteligentes
  • 11:20 - 11:22
    trabalhando nessas empresas,
  • 11:22 - 11:25
    mas esses esforços parecem desconexos,
  • 11:25 - 11:26
    porque estão desenvolvendo
  • 11:26 - 11:29
    soluções diferentes para o mesmo problema.
  • 11:29 - 11:32
    Como podemos encontrar um jeito
    de aproximar as pessoas
  • 11:32 - 11:35
    em um local físico por dias ou semanas,
  • 11:35 - 11:37
    para que possam abordar
    esses problemas em conjunto,
  • 11:37 - 11:39
    mas de diferentes perspectivas?
  • 11:39 - 11:40
    Então, será que conseguimos?
  • 11:40 - 11:44
    Conseguimos criar uma resposta
    coordenada e ambiciosa,
  • 11:44 - 11:47
    que se adeque à escala
    e à complexidade do problema?
  • 11:48 - 11:49
    Eu acho mesmo que sim.
  • 11:49 - 11:52
    Juntos vamos reconstruir
    nosso acervo de informações.
  • 11:53 - 11:54
    Obrigada.
  • 11:54 - 11:57
    (Aplausos)
Title:
Como você pode ajudar a transformar a Internet em um lugar confiável
Speaker:
Claire Wardle
Description:

Como podemos acabar com a disseminação de conteúdo enganoso, eventualmente perigoso, enquanto mantemos uma Internet com a liberdade de expressão em foco? A especialista em desinformação Claire Wardle explora o novo desafio do nosso ambiente on-line poluído e mapeia um plano para transformar a Internet em um lugar confiável, com a ajuda dos usuários comuns. "Juntos vamos reconstruir nosso acervo de informações", diz ela.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Portuguese, Brazilian subtitles

Revisions