< Return to Video

Como podemos ajudar a transformar a Internet num lugar de confiança

  • 0:02 - 0:04
    Quem quer que sejam
    ou onde quer que morem,
  • 0:04 - 0:06
    aposto que vocês têm,
    pelo menos um parente
  • 0:06 - 0:09
    que gosta de encaminhar aqueles "e-mails"
  • 0:09 - 0:11
    — vocês sabem de quais estou a falar —
  • 0:11 - 0:14
    aqueles com afirmações duvidosas
    ou vídeos sobre conspirações.
  • 0:14 - 0:17
    Vocês provavelmente
    já os calaram no Facebook,
  • 0:17 - 0:19
    por partilharem "posts" sociais como este:
  • 0:19 - 0:21
    É a imagem de uma banana
  • 0:21 - 0:23
    com uma estranha cruz vermelha
    passando pelo centro.
  • 0:24 - 0:26
    O texto está a avisar as pessoas
  • 0:26 - 0:28
    para não comerem frutas
    parecidas com aquela,
  • 0:28 - 0:30
    sugerindo que lhes injetaram sangue
  • 0:30 - 0:32
    contaminado com VIH.
  • 0:32 - 0:35
    A mensagem, por cima, diz simplesmente:
  • 0:35 - 0:37
    "Por favor, encaminhe para salvar vidas."
  • 0:38 - 0:41
    Os verificadores de factos
    vêm desmistificando isto há anos.
  • 0:41 - 0:44
    Mas este é um daqueles rumores
    que não morrem.
  • 0:44 - 0:45
    Um rumor sobre zombies.
  • 0:46 - 0:48
    E, claro, é inteiramente falso.
  • 0:48 - 0:51
    Pode ser tentador rir de um exemplo
    como este, e dizer:
  • 0:51 - 0:53
    "Bom, afinal quem acredita nisto?"
  • 0:53 - 0:55
    Mas é um rumor sobre zombies
  • 0:55 - 0:59
    que atinge o medo mais profundo
    das pessoas, sobre a sua segurança
  • 0:59 - 1:01
    e a das pessoas que amam.
  • 1:02 - 1:05
    Se vocês gastam tanto tempo como eu
    a procurar informações falsas,
  • 1:05 - 1:08
    sabem que este é apenas
    um exemplo entre muitos
  • 1:08 - 1:11
    que atingem o medo mais profundo
    e a vulnerabilidade das pessoas.
  • 1:11 - 1:16
    Todos os dias, no mundo inteiro,
    vemos novos memes no Instagram,
  • 1:16 - 1:19
    a encorajar os pais
    a não vacinarem os filhos.
  • 1:19 - 1:23
    Vemos novos vídeos no YouTube a explicar
    que a alteração climática é uma fraude.
  • 1:23 - 1:26
    Em todas as plataformas,
    vemos inúmeros "posts"
  • 1:26 - 1:28
    concebidos para demonizar outras pessoas
  • 1:28 - 1:31
    segundo a sua etnia, a sua religião
    ou a sua sexualidade.
  • 1:32 - 1:35
    Bem-vindos a um dos problemas
    centrais do nosso tempo.
  • 1:36 - 1:40
    Como conseguiremos manter
    uma Internet com liberdade de expressão
  • 1:40 - 1:43
    enquanto também asseguramos
    que o conteúdo disseminado
  • 1:43 - 1:47
    não cause irreversíveis danos nas nossas
    democracias, nas nossas comunidades
  • 1:47 - 1:49
    e no nosso bem-estar físico e mental?
  • 1:50 - 1:52
    Porque vivemos na era da informação,
  • 1:52 - 1:56
    Porém, a moeda central de que
    todos dependemos — a informação —
  • 1:56 - 1:58
    já não é considerada totalmente fiável.
  • 1:58 - 2:01
    E, às vezes, pode ser
    francamente perigosa.
  • 2:01 - 2:05
    Isto é graças, em parte, ao crescimento
    das plataformas de partilha social
  • 2:05 - 2:06
    que podemos percorrer,
  • 2:06 - 2:09
    onde mentiras e factos estão lado a lado,
  • 2:09 - 2:12
    mas sem nenhum dos tradicionais
    sinais de credibilidade.
  • 2:12 - 2:16
    E bem... a nossa linguagem em volta disto
    é horrivelmente confusa.
  • 2:16 - 2:19
    As pessoas continuam obcecadas
    pela expressão "fake news",
  • 2:19 - 2:22
    apesar do facto de ela ser
    extraordinariamente inútil
  • 2:22 - 2:25
    e de ser usada para descrever
    coisas que são muito diferentes:
  • 2:25 - 2:29
    Mentiras, boatos, fraudes,
    conspirações, propaganda.
  • 2:29 - 2:32
    Eu espero que nós possamos
    deixar de usar uma expressão
  • 2:32 - 2:35
    que foi adotada por políticos
    do mundo inteiro,
  • 2:35 - 2:36
    da esquerda até à direita,
  • 2:36 - 2:40
    tem sido usada como arma para atacar
    uma imprensa livre e independente,
  • 2:40 - 2:43
    (Aplausos)
  • 2:45 - 2:48
    Precisamos dos "media" profissionais
    agora mais do que nunca.
  • 2:49 - 2:52
    Além disso, na maioria, estes conteúdos
    nem vêm mascarados como notícias.
  • 2:52 - 2:55
    São memes, vídeos, "posts" sociais.
  • 2:55 - 2:58
    A maioria deles não são falsos,
    são enganadores.
  • 2:58 - 3:01
    Nós tendemos a fixar-nos
    no que é verdadeiro ou falso.
  • 3:01 - 3:06
    Mas a maior preocupação
    é fazer do contexto uma arma.
  • 3:07 - 3:09
    Porque a desinformação mais eficaz
  • 3:09 - 3:12
    sempre foi aquela que contém
    uma parte de verdade.
  • 3:12 - 3:15
    Vamos ver este exemplo, de Londres,
    de março de 2017.
  • 3:15 - 3:17
    Um "tweet" que circulou amplamente
  • 3:17 - 3:21
    na sequência de um incidente
    terrorista na ponte de Westminster.
  • 3:21 - 3:23
    Esta é uma imagem real, não é falsa.
  • 3:23 - 3:26
    A mulher que aparece na fotografia
    foi entrevistada depois
  • 3:26 - 3:29
    e explicou que estava totalmente
    traumatizada.
  • 3:29 - 3:31
    Estava a falar ao telemóvel
    com um ente querido
  • 3:31 - 3:33
    e não estava a olhar
    para a vítima, por respeito.
  • 3:33 - 3:37
    Mesmo assim, circulou amplamente
    retratado como islamofobia,
  • 3:37 - 3:40
    com múltiplas "hashtags",
    incluindo: #BanIslam.
  • 3:40 - 3:43
    Se vocês trabalhassem no Twitter,
    o que é que fariam?
  • 3:43 - 3:46
    Eliminavam-no ou deixavam-no?
  • 3:47 - 3:50
    A minha reação intuitiva,
    emocional, é eliminar.
  • 3:50 - 3:52
    Odeio o enquadramento desta imagem.
  • 3:53 - 3:55
    Mas a liberdade de expressão
    é um direito dos homens,
  • 3:55 - 3:58
    E se começarmos a eliminar discursos
    que nos deixam desconfortáveis,
  • 3:58 - 3:59
    vamos arranjar problemas.
  • 4:00 - 4:02
    Este pode parecer um caso claro,
  • 4:02 - 4:04
    mas a maioria não é assim.
  • 4:04 - 4:06
    Estas linhas são extremamente
    difíceis de traçar.
  • 4:06 - 4:08
    O que é uma decisão
    bem intencionada de uma pessoa
  • 4:08 - 4:11
    é pura censura para outra.
  • 4:11 - 4:14
    Sabemos agora que esta conta,
    Texas Lone Star,
  • 4:14 - 4:17
    fez parte de uma ampla campanha
    de desinformação russa,
  • 4:17 - 4:19
    uma que, a partir daí, foi eliminada.
  • 4:19 - 4:21
    Isso mudaria a vossa opinião?
  • 4:21 - 4:22
    Mudou a minha,
  • 4:23 - 4:25
    Porque agora é um caso
    de uma campanha coordenada
  • 4:25 - 4:26
    para semear a discórdia.
  • 4:26 - 4:28
    Para quem goste de pensar
  • 4:28 - 4:31
    que a inteligência artificial
    vai resolver os nossos problemas,
  • 4:31 - 4:33
    eu acho que podemos concordar
    que estamos muito longe
  • 4:33 - 4:36
    de uma IA que consiga
    interpretar "posts" como este.
  • 4:37 - 4:39
    Gostava de explicar
    três problemas interligados
  • 4:39 - 4:42
    que tornam isto muito complexo
  • 4:42 - 4:45
    e depois pensar nalgumas formas
    de considerar esses problemas.
  • 4:45 - 4:49
    Primeiro, não temos
    uma relação racional com a informação,
  • 4:49 - 4:51
    temos uma relação emocional.
  • 4:51 - 4:55
    Não é verdade que mais factos
    façam tudo ficar Ok,
  • 4:55 - 4:58
    porque os algoritmos que determinam
    os conteúdos que vemos
  • 4:58 - 5:01
    são concebidos para recompensar
    as nossas reações emocionais.
  • 5:01 - 5:02
    Quando estamos com medo,
  • 5:02 - 5:05
    as narrativas simplificadas,
    as explicações conspiratórias
  • 5:05 - 5:09
    e uma linguagem que demoniza
    outras pessoas são muito mais eficazes.
  • 5:10 - 5:11
    Além disso, em muitas destas empresas,
  • 5:11 - 5:14
    os modelos de negócios
    estão ligados à atenção.
  • 5:14 - 5:18
    Ou seja, estes algoritmos
    serão sempre virados para as emoções.
  • 5:18 - 5:23
    Segundo, a maioria dos discursos
    de que estou a falar, é legal.
  • 5:23 - 5:24
    Seria uma questão diferente
  • 5:24 - 5:27
    se falasse de imagens
    de abuso sexual infantil
  • 5:27 - 5:29
    ou de conteúdos que incitam à violência.
  • 5:29 - 5:32
    É perfeitamente legal publicar
    uma mentira descarada.
  • 5:33 - 5:37
    Mas continuamos a falar de eliminar
    conteúdos problemáticos ou prejudiciais,
  • 5:37 - 5:40
    sem uma clara definição
    do que queremos dizer com isso,
  • 5:40 - 5:41
    incluindo Mark Zuckerberg
  • 5:41 - 5:45
    que pediu uma regulamentação
    mundial para moderar o discurso.
  • 5:45 - 5:47
    A minha preocupação é que vemos governos
  • 5:47 - 5:48
    pelo mundo inteiro
  • 5:48 - 5:51
    a tomar decisões políticas precipitadas
  • 5:51 - 5:54
    que podem desencadear
    consequências muito mais graves
  • 5:54 - 5:56
    quando se trata do nosso discurso.
  • 5:56 - 6:00
    E mesmo que pudéssemos decidir
    qual o discurso a manter ou a eliminar,
  • 6:00 - 6:02
    nunca tivemos tantos discursos.
  • 6:02 - 6:04
    A cada segundo, milhões
    de peças de conteúdos
  • 6:04 - 6:07
    são descarregadas no mundo inteiro,
    em idiomas diferentes,
  • 6:07 - 6:10
    com milhares de diferentes
    contextos culturais.
  • 6:10 - 6:13
    Nós nunca tivemos
    mecanismos eficazes
  • 6:13 - 6:15
    para moderar discursos a esta escala,
  • 6:15 - 6:18
    sejam feitos por seres humanos
    ou por tecnologia.
  • 6:18 - 6:22
    E terceiro, essas empresas — a Google,
    o Twitter, o Facebook, o Whatsapp —
  • 6:22 - 6:25
    fazem parte de um ecossistema
    mais amplo de informações.
  • 6:25 - 6:28
    Nós gostamos de lhes atribuir
    todas as culpas,
  • 6:28 - 6:31
    mas os "media" de massas
    e os funcionários eleitos
  • 6:31 - 6:35
    também ampliam rumores
    e conspirações, quando querem.
  • 6:36 - 6:39
    Tal como nós, quando encaminhamos,
    sem pensar,
  • 6:39 - 6:41
    conteúdos facciosos ou enganadores,
  • 6:41 - 6:42
    sem os testarmos.
  • 6:42 - 6:45
    Estamos a contribuir para a poluição.
  • 6:45 - 6:48
    Eu sei que todos procuramos
    um remédio fácil.
  • 6:48 - 6:50
    Mas não há nenhum.
  • 6:50 - 6:54
    Qualquer solução terá de ser desenvolvida
    a uma escala enorme, à escala da Internet,
  • 6:54 - 6:58
    E sim, as plataformas estão acostumadas
    a trabalhar a esse nível.
  • 6:58 - 7:01
    Mas podemos ou devemos deixar
    que elas resolvam estes problemas?
  • 7:02 - 7:03
    Certamente estão a tentar
  • 7:03 - 7:07
    mas muitos de nós concordará
    que não queremos empresas globais
  • 7:07 - 7:09
    que sejam guardiãs
    da verdade e da justiça "online".
  • 7:09 - 7:12
    Também acho que as plataformas
    concordarão com isso.
  • 7:12 - 7:15
    Neste momento, elas estão
    a fazer o seu trabalho.
  • 7:15 - 7:16
    Elas gostam de nos dizer
  • 7:16 - 7:19
    que as intervenções que implementam,
    estão a funcionar
  • 7:19 - 7:21
    mas, como são eles que escrevem
    os seus relatórios,
  • 7:21 - 7:25
    não há maneira de verificarmos,
    independentemente, o que acontece.
  • 7:26 - 7:29
    (Aplausos)
  • 7:30 - 7:33
    E sejamos claros, a maioria
    das mudanças que vemos
  • 7:33 - 7:36
    somente acontece depois
    de os jornalistas investigarem
  • 7:36 - 7:37
    e encontrarem provas de preconceitos
  • 7:37 - 7:40
    ou conteúdos que violam
    as orientações da comunidade.
  • 7:41 - 7:45
    Estas empresas têm de desempenhar
    um papel importante neste processo
  • 7:45 - 7:47
    mas não podem controlá-lo.
  • 7:48 - 7:50
    Então e os governos?
  • 7:50 - 7:53
    Muitos acreditam que a regulamentação
    global é a nossa última esperança
  • 7:53 - 7:56
    em termos de limpar o nosso
    ecossistema de informações.
  • 7:56 - 7:59
    Mas só vejo legisladores
    a lutar para se manterem atualizados
  • 7:59 - 8:01
    com as rápidas mudanças na tecnologia.
  • 8:01 - 8:03
    E pior, estão a trabalhar no escuro,
  • 8:03 - 8:05
    porque não têm acesso aos dados
  • 8:05 - 8:08
    para perceberem o que está a acontecer
    nessas plataformas.
  • 8:08 - 8:11
    De qualquer modo, em que governos
    confiaríamos para fazer isso?
  • 8:11 - 8:14
    Precisamos de uma resposta mundial,
    não uma resposta nacional.
  • 8:15 - 8:18
    Portanto, a ligação em falta somos nós.
  • 8:18 - 8:21
    são as pessoas que usam as tecnologias
    todos os dias.
  • 8:21 - 8:26
    Podemos conceber uma nova infraestrutura
    para suportar informações de qualidade?
  • 8:26 - 8:28
    Eu acredito que sim
  • 8:28 - 8:31
    e tenho algumas ideias
    sobre o que podemos fazer.
  • 8:31 - 8:34
    Primeiro, se quisermos mesmo
    que o público participe nisto,
  • 8:34 - 8:37
    podemos tirar alguma inspiração
    da Wikipedia?
  • 8:37 - 8:38
    Eles mostraram-nos o que é possível.
  • 8:38 - 8:40
    Sim, não é perfeito,
  • 8:40 - 8:42
    Mas demonstraram
    que, com as estruturas certas,
  • 8:42 - 8:45
    com uma perspetiva global,
    e muito mais transparência,
  • 8:45 - 8:48
    podemos construir algo
    que ganhe a confiança da maioria.
  • 8:48 - 8:51
    Porque temos de achar uma forma
    de explorar a sabedoria coletiva
  • 8:51 - 8:53
    e a experiência de todos os utilizadores.
  • 8:54 - 8:56
    Isso é especialmente o caso
    das mulheres,
  • 8:56 - 8:58
    das pessoas de cor,
    dos grupos mal representados.
  • 8:58 - 8:59
    Sabem que mais?
  • 8:59 - 9:02
    Eles são especialistas quando
    se fala de ódio e desinformação,
  • 9:02 - 9:05
    porque têm sido o alvo
    dessas campanhas há muito tempo.
  • 9:05 - 9:07
    Ao longo dos anos,
    ergueram as suas bandeiras
  • 9:07 - 9:09
    mas não têm sido escutados.
  • 9:09 - 9:11
    Isto tem de mudar.
  • 9:11 - 9:15
    Então podemos construir
    uma Wikipedia para a confiança?
  • 9:15 - 9:19
    Haverá uma forma de os utilizadores
    contribuírem com ideias?
  • 9:19 - 9:23
    Podem contribuir com ideias sobre difíceis
    decisões para moderação de conteúdos.
  • 9:23 - 9:25
    Podem fornecer "feedback"
  • 9:25 - 9:28
    quando as plataformas decidirem
    querer lançar novas mudanças.
  • 9:28 - 9:32
    Segundo, as experiências das pessoas
    com a informação são personalizadas.
  • 9:32 - 9:35
    O meu "feed" de notícias do Facebook
    é diferente do vosso.
  • 9:35 - 9:38
    As vossas recomendações do YouTube
    são diferentes das minhas.
  • 9:38 - 9:40
    Isso impossibilita-nos de examinar
  • 9:40 - 9:43
    que informações é que
    as pessoas estão a ver.
  • 9:43 - 9:44
    Então, podemos imaginar
  • 9:44 - 9:49
    desenvolver algum tipo de repositório
    aberto centralizado para dados anónimos,
  • 9:49 - 9:52
    com privacidade e preocupações éticas
    nele incluídas?
  • 9:52 - 9:54
    Porque imaginem o que aprenderíamos
  • 9:54 - 9:57
    se construíssemos uma rede global
    de cidadãos preocupados
  • 9:57 - 10:01
    que quisessem doar os seus dados
    sociais para a ciência.
  • 10:01 - 10:03
    Porque nós sabemos muito pouco
  • 10:03 - 10:06
    sobre as consequências a longo prazo
    do ódio e da desinformação
  • 10:06 - 10:08
    nas atitudes e comportamentos das pessoas.
  • 10:08 - 10:10
    E a maior parte do que sabemos,
  • 10:10 - 10:12
    tem sido realizada nos EUA,
  • 10:12 - 10:14
    apesar do facto de ser
    um problema mundial.
  • 10:14 - 10:16
    Precisamos de trabalhar nisto também.
  • 10:16 - 10:19
    E terceiro, podemos achar
    uma forma de juntar os pontos?
  • 10:20 - 10:23
    Nenhum setor, muito menos o não-lucrativo,
    as "startups" ou os governos,
  • 10:23 - 10:25
    vão solucionar isto.
  • 10:25 - 10:27
    Mas há pessoas muito inteligentes
    em todo o mundo
  • 10:27 - 10:29
    a trabalhar nestes problemas,
    nas salas de imprensa,
  • 10:30 - 10:32
    na sociedade civil, na academia,
    em grupos de ativistas.
  • 10:32 - 10:34
    Podemos ver alguns deles aqui.
  • 10:34 - 10:37
    Alguns estão a criar indicadores
    de credibilidade de conteúdos.
  • 10:37 - 10:40
    Outros, verificam factos,
    para retirar das plataformas
  • 10:40 - 10:42
    as afirmações, os vídeos
    e as imagens falsas.
  • 10:42 - 10:45
    A First Draft, uma organização
    sem fins lucrativos,
  • 10:45 - 10:47
    está a trabalhar com redações
    competitivas do mundo inteiro,
  • 10:47 - 10:51
    para as ajudar a criar programas
    investigativos e colaborativos.
  • 10:51 - 10:53
    Danny Hills, uma arquiteta de "software"
  • 10:53 - 10:56
    está a conceber um novo sistema,
    chamado The Underlay
  • 10:56 - 10:59
    que vai ser um registo
    das declarações públicas de factos
  • 10:59 - 11:00
    relacionados com as suas fontes,
  • 11:00 - 11:04
    para as pessoas e os algoritmos
    avaliarem melhor o que é credível.
  • 11:05 - 11:08
    Educadores do mundo inteiro
    estão a testar diferentes técnicas
  • 11:08 - 11:10
    para encontrar maneiras
    de ensinar as pessoas
  • 11:10 - 11:13
    a serem críticas
    dos conteúdos que consomem.
  • 11:13 - 11:16
    Todos estes esforços são ótimos,
    mas estão a trabalhar isoladamente.
  • 11:16 - 11:18
    Muitos deles, infelizmente,
    têm falta de fundos.
  • 11:18 - 11:21
    Também há centenas de pessoas
    muito inteligentes
  • 11:21 - 11:22
    a trabalhar nestas empresas,
  • 11:22 - 11:25
    mas, de novo, estes esforços
    podem parecer desligados,
  • 11:25 - 11:29
    pois estão a desenvolver diferentes
    soluções para os mesmos problemas.
  • 11:29 - 11:31
    Como podemos achar uma forma
    de reunir as pessoas
  • 11:31 - 11:35
    num local físico, durante dias
    ou semanas, ao mesmo tempo,
  • 11:35 - 11:37
    para eles poderem abordar
    estes problemas juntos
  • 11:37 - 11:39
    mas segundo as suas diferentes
    perspetivas?
  • 11:39 - 11:41
    Então, podemos fazer isto?
  • 11:41 - 11:44
    Podemos construir uma resposta
    coordenada e ambiciosa?
  • 11:44 - 11:47
    Uma resposta que iguale a escala
    e a complexidade do problema?
  • 11:48 - 11:49
    Acho que podemos.
  • 11:49 - 11:52
    Juntos, vamos reconstruir
    as nossas informações comuns.
  • 11:53 - 11:54
    Obrigada.
  • 11:54 - 11:57
    (Aplausos)
Title:
Como podemos ajudar a transformar a Internet num lugar de confiança
Speaker:
Claire Wardle
Description:

Como podemos deixar de disseminar conteúdos enganadores e, às vezes, perigosos, enquanto mantemos uma Internet com liberdade de expressão no seu centro?
A especialista em Desinformação, Claire Wardle, explora os novos desafios do nosso poluído ambiente "online" e traça um plano para transformar a Internet num lugar de confiança — com a ajuda dos utilizadores do dia a dia. "Juntos, vamos reconstruir as nossas informações comuns." diz ela.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Portuguese subtitles

Revisions