Return to Video

Querido Facebook, é assim que dás cabo da democracia

  • 0:01 - 0:03
    Há uns cinco anos,
  • 0:03 - 0:06
    percebi que estava a perder a capacidade
  • 0:06 - 0:09
    de dialogar com pessoas
    que não pensam como eu.
  • 0:09 - 0:13
    A ideia de discutir questões controversas
    com os meus colegas americanos
  • 0:13 - 0:15
    estava a começar a dar-me mais azia
  • 0:15 - 0:19
    do que na época em que eu dialogava
    com estrangeiros suspeitos de extremismo.
  • 0:20 - 0:23
    Estava a começar a sentir-me
    mais amarga e mais frustrada.
  • 0:23 - 0:25
    E então, de repente,
  • 0:25 - 0:29
    mudei completamente o foco,
    das ameaças à segurança nacional global
  • 0:29 - 0:31
    passei para a tentativa de entender
  • 0:31 - 0:35
    o que estava a causar
    esta polarização extrema no meu país.
  • 0:36 - 0:38
    Como antiga agente da CIA e diplomata,
  • 0:38 - 0:41
    que passou anos a trabalhar
    com questões contra o extremismo,
  • 0:41 - 0:43
    comecei a recear que a coisa
    passasse a ser
  • 0:43 - 0:45
    uma ameaça muito maior para a democracia
  • 0:45 - 0:48
    do que qualquer adversário estrangeiro.
  • 0:48 - 0:51
    Então, comecei a escavar,
    e comecei a falar alto,
  • 0:51 - 0:54
    o que acabou por me levar
    a ser contratada pelo Facebook
  • 0:54 - 0:57
    e finalmente me trouxe aqui hoje
  • 0:57 - 1:00
    para continuar a alertar-vos
    para o facto de essas plataformas
  • 1:00 - 1:03
    estarem a manipular
    e a radicalizar tanta gente,
  • 1:04 - 1:07
    e para dizer como se pode recuperar
    a nossa praça pública.
  • 1:08 - 1:11
    Fui funcionária do serviço
    de relações exteriores no Quénia
  • 1:11 - 1:13
    poucos anos depois dos ataques
    do 11 de Setembro
  • 1:13 - 1:15
    e chefiei as campanhas
    de "corações e espíritos"
  • 1:15 - 1:17
    na fronteira da Somália.
  • 1:17 - 1:19
    Uma grande parte do meu trabalho
  • 1:19 - 1:21
    era criar laços de confiança
    com as comunidades
  • 1:21 - 1:24
    consideradas mais suscetíveis
    a mensagens extremistas.
  • 1:24 - 1:28
    Eu passava horas a tomar chá
    com clérigos abertamente anti-ocidente
  • 1:28 - 1:31
    e até dialoguei com supostos terroristas.
  • 1:32 - 1:35
    Embora muitos destes encontros
    tenham começado com suspeitas mútuas,
  • 1:35 - 1:39
    não me lembro de nenhum deles
    ter acabado aos gritos ou insultos,
  • 1:39 - 1:43
    e, nalguns casos, até trabalhámos juntos
    em áreas de interesse mútuo.
  • 1:44 - 1:46
    As ferramentas mais poderosas
    que nós tínhamos
  • 1:46 - 1:50
    eram simplesmente ouvir,
    aprender e criar empatia.
  • 1:50 - 1:53
    Essa é a essência do trabalho
    da conquista de corações e espíritos,
  • 1:53 - 1:57
    porque o que eu descobri repetidas vezes
    é que a maioria das pessoas queriam
  • 1:57 - 2:00
    sentir-se ouvidas,
    reconhecidas e respeitadas.
  • 2:00 - 2:02
    E acredito que isso é
    o que muitos de nós querem.
  • 2:03 - 2:07
    Mas o que eu vejo acontecer hoje "online",
    é especialmente entristecedor
  • 2:07 - 2:09
    e um problema muito mais difícil de lidar.
  • 2:09 - 2:13
    Nós estamos a ser manipulados
    pelo atual ecossistema de informação
  • 2:13 - 2:16
    que barrica muitos de nós
    tão profundamente no absolutismo
  • 2:17 - 2:19
    que o compromisso passou a ser
    uma palavra ofensiva.
  • 2:20 - 2:21
    Porque atualmente,
  • 2:21 - 2:23
    as empresas de redes sociais
    como o Facebook,
  • 2:23 - 2:27
    lucram com a segmentação e alimentam-nos
    com a personalização de conteúdos
  • 2:27 - 2:30
    o que valida e explora
    os nossos preconceitos.
  • 2:31 - 2:34
    O resultado final depende
    de provocarem uma emoção forte
  • 2:34 - 2:36
    para nos manterem envolvidos,
  • 2:36 - 2:40
    incentivando as vozes
    mais incendiárias e polarizadoras
  • 2:40 - 2:44
    até ao ponto em que encontrar
    pontos comuns deixa de parecer possível.
  • 2:45 - 2:49
    Apesar do crescente coro de pessoas
    que reclamam uma mudança nas plataformas,
  • 2:49 - 2:52
    está claro que elas não vão fazer
    o suficiente por si mesmas.
  • 2:52 - 2:55
    Então, os governos devem
    definir a responsabilidade
  • 2:55 - 2:59
    pelos danos concretos causados
    por estes modelos de negócio
  • 2:59 - 3:02
    e impor custos concretos
    sobre os efeitos prejudiciais
  • 3:02 - 3:07
    que estão a ter na saúde pública,
    no espaço público e na democracia.
  • 3:07 - 3:12
    Infelizmente, isso não vai acontecer
    a tempo para as eleições presidenciais,
  • 3:12 - 3:15
    e, por isso, eu continuo
    a fazer soar este alarme
  • 3:15 - 3:18
    porque, mesmo que um dia
    venhamos a adotar regras fortes,
  • 3:18 - 3:21
    todos nós seremos precisos
    para consertar isto.
  • 3:21 - 3:24
    Quando eu comecei a mudar
    o meu foco das ameaças exteriores
  • 3:24 - 3:26
    para o colapso no discurso civil
    do meu país,
  • 3:27 - 3:30
    pensei se poderíamos reaproveitar
    as campanhas de corações e espíritos
  • 3:30 - 3:32
    para curar as nossas divergências.
  • 3:33 - 3:36
    A nossa experiência de mais de 200 anos
    com a democracia
  • 3:36 - 3:40
    funciona, em grande medida,
    porque conseguimos debater ideias
  • 3:40 - 3:43
    aberta e apaixonadamente
    para chegar às melhores soluções.
  • 3:43 - 3:45
    Mas, embora ainda acredite profundamente
  • 3:45 - 3:47
    no poder do discurso civil cara a cara,
  • 3:47 - 3:49
    não podemos competir hoje
  • 3:49 - 3:52
    com os efeitos polarizadores
    e a dimensão das redes socais.
  • 3:53 - 3:56
    As pessoas sugadas para estas ratoeiras
    de indignação das redes sociais
  • 3:56 - 4:00
    normalmente sentem ser mais difícil
    superar as suas mentalidades ideológicas
  • 4:00 - 4:03
    do que as comunidades vulneráveis
    com que eu trabalhei.
  • 4:04 - 4:06
    Então, quando o Facebook
    me ligou, em 2018,
  • 4:06 - 4:08
    e me ofereceu a função
    de chefiar as operações
  • 4:08 - 4:11
    de integridade eleitoral
    para a propaganda política,
  • 4:11 - 4:13
    eu senti que devia aceitar.
  • 4:13 - 4:16
    Eu não tinha ilusões
    quanto a solucionar tudo,
  • 4:16 - 4:18
    mas quando me ofereceram a oportunidade
  • 4:18 - 4:20
    de ajudar a guiar o barco
    numa direção melhor,
  • 4:20 - 4:22
    pelo menos, eu tinha de tentar.
  • 4:23 - 4:25
    Eu não trabalhei diretamente
    sobre a polarização,
  • 4:25 - 4:29
    mas pude ver quais eram as questões
    mais fraturantes da nossa sociedade
  • 4:29 - 4:33
    e, portanto, mais exploráveis
    pelos esforços de interferência eleitoral,
  • 4:33 - 4:36
    que foi a tática russa em 2016.
  • 4:37 - 4:39
    Então, comecei a fazer perguntas.
  • 4:39 - 4:42
    Eu queria entender
    as questões sistémicas subjacentes
  • 4:42 - 4:44
    que permitiam que isso acontecesse,
  • 4:44 - 4:47
    para entender como reparar isso.
  • 4:48 - 4:50
    Eu ainda acredito no poder da Internet
  • 4:50 - 4:52
    de fazer ouvir mais vozes
  • 4:53 - 4:56
    mas, apesar do objetivo declarado
    de criar comunidades,
  • 4:56 - 4:59
    as maiores empresas de redes sociais,
    tal como estão organizadas atualmente,
  • 4:59 - 5:03
    opõem-se ao conceito de discurso racional.
  • 5:03 - 5:05
    Não há nenhuma forma de premiar o ouvir,
  • 5:05 - 5:07
    de encorajar o debate civil
  • 5:07 - 5:11
    e de proteger as pessoas que sinceramente
    querem fazer perguntas
  • 5:11 - 5:13
    num negócio em que
    a otimização do envolvimento
  • 5:13 - 5:14
    e o aumento de utilizadores
  • 5:14 - 5:17
    são as duas coisas mais importantes
    para a métrica do êxito.
  • 5:17 - 5:21
    Não há nenhum incentivo para ajudar
    as pessoas a abrandar,
  • 5:21 - 5:24
    para criar fricção suficiente
    para forçar as pessoas a parar,
  • 5:24 - 5:27
    a reconhecer a sua reação emotiva
    a qualquer coisa,
  • 5:27 - 5:30
    e a questionar as suas premissas
    antes de se envolverem.
  • 5:31 - 5:33
    A infeliz realidade é que as mentiras
  • 5:33 - 5:36
    são mais atraentes "online"
    do que a verdade
  • 5:36 - 5:39
    e o obsceno supera o raciocínio
    com base em factos, mas instável,
  • 5:39 - 5:43
    num mundo otimizado
    para uma viralidade sem atrito.
  • 5:43 - 5:47
    Enquanto o objetivo dos algoritmos
    for manter-nos envolvidos,
  • 5:47 - 5:49
    eles vão continuar a alimentar-nos
  • 5:49 - 5:51
    com o veneno que brinca
    com os nossos piores instintos
  • 5:51 - 5:53
    e fraquezas humanas.
  • 5:53 - 5:56
    A raiva, a desconfiança,
  • 5:56 - 5:58
    a cultura do medo, o ódio,
  • 5:58 - 6:01
    nada disso é novo nos EUA..
  • 6:01 - 6:04
    Mas ultimamente, as redes sociais
    têm dominado isso tudo
  • 6:04 - 6:08
    e, a meu ver, desequilibraram
    drasticamente a balança.
  • 6:08 - 6:10
    O Facebook sabe isso.
  • 6:10 - 6:12
    Um artigo recente do "Wall Street Journal"
  • 6:12 - 6:16
    revelou uma apresentação interna
    do Facebook, de 2018,
  • 6:16 - 6:20
    que aponta especificamente para o papel
    dos algoritmos da companhia
  • 6:20 - 6:23
    no crescimento de grupos
    extremistas na sua plataforma
  • 6:23 - 6:26
    e na polarização dos utilizadores.
  • 6:27 - 6:30
    Mas é mantendo-nos envolvidos
    que eles ganham dinheiro.
  • 6:30 - 6:32
    O ambiente moderno da informação
  • 6:32 - 6:35
    está cristalizado em torno
    da avaliação dos nossos perfis
  • 6:35 - 6:38
    e da segmentação em categorias
    cada vez mais estreitas
  • 6:38 - 6:41
    para aperfeiçoar este processo
    de personalização.
  • 6:41 - 6:45
    Somos bombardeados com informações
    que confirmam as nossas opiniões,
  • 6:45 - 6:47
    reforçam os nossos preconceitos
  • 6:47 - 6:50
    e fazem-nos sentir
    que pertencemos a qualquer coisa.
  • 6:50 - 6:54
    São as mesmas táticas que os recrutas
    de organizações terroristas
  • 6:54 - 6:56
    usam com os jovens vulneráveis,
  • 6:56 - 6:58
    embora de um modo
    mais reduzido e mais localizado
  • 6:58 - 7:00
    antes das redes sociais,
  • 7:00 - 7:03
    com o objetivo final de influenciar
    o comportamento deles.
  • 7:03 - 7:08
    Infelizmente, o Facebook nunca me deu
    poder para ter um impacto real.
  • 7:08 - 7:10
    De facto, logo no segundo dia,
  • 7:10 - 7:12
    o meu título
    e a descrição laboral foram alterados
  • 7:13 - 7:15
    e fui excluída das reuniões
    de tomadas de decisão.
  • 7:15 - 7:18
    Os meus maiores esforços,
    a tentativa de criar planos
  • 7:18 - 7:20
    para combater a desinformação
  • 7:20 - 7:22
    e a supressão do voto
    em propaganda política,
  • 7:22 - 7:23
    foram rejeitados.
  • 7:23 - 7:26
    Assim, vim-me embora
    antes de completar seis meses.
  • 7:26 - 7:30
    Esta é a maior conclusão
    que eu tirei do tempo que ali passei:
  • 7:30 - 7:32
    há milhares de pessoas no Facebook
  • 7:32 - 7:35
    que trabalham apaixonadamente num produto
  • 7:35 - 7:38
    que realmente acreditam
    que faz do mundo um lugar melhor,
  • 7:38 - 7:42
    mas, enquanto a companhia continuar
    a mexer apenas nas margens
  • 7:42 - 7:44
    do policiamento e moderação de conteúdos,
  • 7:44 - 7:46
    em vez de considerar
  • 7:46 - 7:49
    como é que todo o maquinismo
    é concebido e rentabilizado,
  • 7:49 - 7:52
    nunca irão verdadeiramente avaliar
    como a plataforma está a contribuir
  • 7:52 - 7:56
    para o ódio, para a divisão
    e para a radicalização.
  • 7:57 - 8:01
    Esta é uma conversa que eu nunca ouvi
    durante o tempo que por lá andei
  • 8:01 - 8:04
    porque isso requeria aceitar,
    fundamentalmente,
  • 8:04 - 8:08
    que aquilo que se construiu podia não ser
    a melhor coisa para a sociedade,
  • 8:08 - 8:12
    e concordar alterar todo o produto
    e o modelo de lucro.
  • 8:12 - 8:15
    Então, o que é que podemos fazer?
  • 8:15 - 8:19
    Eu não estou a dizer que as redes sociais
    têm toda a responsabilidade
  • 8:19 - 8:21
    pelo estado em que estamos hoje.
  • 8:21 - 8:26
    Claramente, temos profundas
    questões sociais a resolver.
  • 8:26 - 8:30
    Mas a resposta do Facebook,
    que é apenas um reflexo da sociedade,
  • 8:30 - 8:34
    é uma tentativa conveniente
    de desviar quaisquer responsabilidades
  • 8:34 - 8:38
    quanto à maneira como a plataforma
    está a amplificar um conteúdo prejudicial
  • 8:38 - 8:41
    e a levar alguns utilizadores
    ao extremismo.
  • 8:42 - 8:44
    E o Facebook, se quisesse,
  • 8:44 - 8:46
    podia concertar alguma coisa.
  • 8:46 - 8:50
    Podiam deixar de amplificar
    e recomendar os teóricos da conspiração,
  • 8:50 - 8:53
    os grupos de ódio,
    os fornecedores de desinformação
  • 8:53 - 8:57
    e, nalguns casos, até o nosso presidente.
  • 8:57 - 9:00
    Podiam deixar de usar,
    para divulgar retórica política,
  • 9:00 - 9:04
    as mesmas técnicas de personalização
    que usam para vender sapatos.
  • 9:04 - 9:06
    Podiam refazer os seus algoritmos
  • 9:06 - 9:09
    para terem como foco uma métrica
    que não fosse o envolvimento
  • 9:09 - 9:13
    e podiam criar proteções para impedir
    que certos conteúdos se tornassem virais
  • 9:13 - 9:15
    antes de serem revistos.
  • 9:15 - 9:17
    Podiam fazer tudo isso
  • 9:17 - 9:21
    sem se tornarem naquilo a que chamam
    os "árbitrios da verdade".
  • 9:21 - 9:24
    Mas já deixaram claro
    que não irão tão longe
  • 9:24 - 9:27
    para fazer o que está certo,
    sem serem forçados,
  • 9:27 - 9:30
    e, para ser franca,
    porque é que haviam de ir?
  • 9:30 - 9:34
    Os mercados recompensam-nos,
    e eles não estão a violar nenhuma lei.
  • 9:34 - 9:35
    Porque, atualmente,
  • 9:36 - 9:40
    não há leis nos EUA para obrigar
    o Facebook, ou qualquer outra rede social,
  • 9:40 - 9:42
    a proteger a nossa praça pública,
  • 9:42 - 9:44
    a nossa democracia,
  • 9:44 - 9:46
    ou mesmo as nossas eleições.
  • 9:46 - 9:50
    Abdicámos da tomada de decisões
    quanto às regras a escrever e a impor
  • 9:50 - 9:53
    aos diretores de empresas de Internet
    com fins lucrativos.
  • 9:54 - 9:56
    É isso que nós queremos?
  • 9:56 - 9:59
    Um mundo de pós-verdades
    onde a toxicidade e o tribalismo
  • 9:59 - 10:02
    superam a construção de pontes
    e a procura de consensos?
  • 10:03 - 10:07
    Eu sou otimista e creio que temos
    mais em comum uns com os outros
  • 10:07 - 10:10
    do que o ambiente "online"
    e os "media" retratam,
  • 10:10 - 10:14
    e acredito que ter uma maior área
    para perspetiva
  • 10:14 - 10:17
    cria uma democracia
    mais robusta e inclusiva.
  • 10:17 - 10:20
    Mas não da forma que está hoje a ocorrer.
  • 10:20 - 10:24
    Vale a pena sublinhar que eu não quero
    fechar essas empresas.
  • 10:24 - 10:28
    Só quero que tenham
    um certo nível de responsabilização,
  • 10:28 - 10:30
    tal como o resto da sociedade.
  • 10:31 - 10:35
    É altura de os nossos governos
    agirem e fazerem o seu trabalho
  • 10:35 - 10:37
    de proteger os cidadãos.
  • 10:37 - 10:40
    Enquanto não houver uma lei mágica
  • 10:40 - 10:41
    que resolva tudo isto,
  • 10:41 - 10:46
    creio que os governos podem
    e devem encontrar o equilíbrio
  • 10:46 - 10:48
    entre proteger a liberdade de expressão
  • 10:48 - 10:52
    e responsabilizar essas plataformas
    pelos seus efeitos na sociedade.
  • 10:52 - 10:57
    Podiam fazer isso, em parte,
    ao insistir na verdadeira transparência
  • 10:57 - 11:00
    sobre como funcionam
    os mecanismos de recomendação,
  • 11:00 - 11:04
    sobre como a curadoria, a amplificação
    e o direcionamento estão a ocorrer.
  • 11:05 - 11:07
    Eu quero que essas companhias
    sejam responsabilizadas
  • 11:07 - 11:10
    não pelas publicações
    de desinformação individuais
  • 11:10 - 11:12
    ou de retórica extrema,
  • 11:12 - 11:15
    mas pela forma como o mecanismo
    de recomendação as distribui,
  • 11:16 - 11:19
    e como o algoritmo guia
    as pessoas nessa direção,
  • 11:19 - 11:23
    e como essas ferramentas são usadas
    para visar as pessoas.
  • 11:23 - 11:27
    Tentei fazer mudanças
    no interior do Facebook e falhei,
  • 11:27 - 11:30
    e portanto passei a usar novamente
    a minha voz nos últimos anos
  • 11:30 - 11:33
    para continuar a fazer soar o alarme.
  • 11:33 - 11:37
    Espero inspirar mais pessoas
    a exigir essa responsabilidade.
  • 11:37 - 11:40
    A minha mensagem para vocês é simples:
  • 11:40 - 11:43
    pressionem os vossos representantes
    no governo para agir
  • 11:43 - 11:47
    e para deixar de ceder a praça pública
    aos interesses do lucro.
  • 11:48 - 11:50
    Ajudem a educar amigos e familiares
  • 11:50 - 11:52
    sobre como estão a ser
    manipulados "online".
  • 11:52 - 11:54
    Esforcem-se por se envolverem com pessoas
  • 11:54 - 11:57
    que não tenham
    a mesma mentalidade que vocês.
  • 11:57 - 11:59
    Façam desta questão uma prioridade.
  • 11:59 - 12:02
    Precisamos de uma abordagem
    de toda a sociedade para consertar isto.
  • 12:03 - 12:08
    A minha mensagem para os líderes
    do meu antigo patrão, o Facebook, é esta:
  • 12:09 - 12:12
    Neste momento, as pessoas
    estão a usar as vossas ferramentas
  • 12:12 - 12:15
    exatamente da maneira
    como elas foram concebidas
  • 12:15 - 12:18
    para semear o ódio,
    a divisão e a desconfiança,
  • 12:18 - 12:21
    e vocês não só estão a permiti-lo,
    como estão a criar condições para isso.
  • 12:21 - 12:24
    Há muitas histórias ótimas
  • 12:24 - 12:28
    sobre coisas positivas que acontecem
    na vossa plataforma em todo o mundo,
  • 12:28 - 12:31
    mas isso não faz nada daquilo OK.
  • 12:31 - 12:34
    E só vai piorando à medida
    que nos aproximamos das eleições,
  • 12:34 - 12:36
    e, ainda mais preocupante,
  • 12:36 - 12:39
    encaramos o que é potencialmente
    a nossa maior crise,
  • 12:39 - 12:42
    se os resultados não forem fiáveis,
    e se o resultado for a violência.
  • 12:42 - 12:47
    Em 2021, quando disserem novamente:
    "Nós sabemos que temos de melhorar",
  • 12:47 - 12:50
    quero que se lembrem deste momento,
  • 12:50 - 12:53
    porque já não são apenas
    algumas vozes desgarradas.
  • 12:53 - 12:57
    Líderes a favor dos direitos civis,
    académicos, jornalistas,
  • 12:57 - 12:59
    anunciantes, os vossos empregados,
  • 12:59 - 13:01
    estão a gritar do topo dos prédios
  • 13:01 - 13:04
    que as vossas políticas
    e as vossas práticas de negócio
  • 13:04 - 13:07
    estão a prejudicar
    as pessoas e a democracia.
  • 13:07 - 13:09
    Vocês têm direito às vossas decisões,
  • 13:09 - 13:11
    mas já não podem dizer
  • 13:11 - 13:14
    que não perceberam
    que isso podia acontecer.
  • 13:14 - 13:16
    Obrigada.
Title:
Querido Facebook, é assim que dás cabo da democracia
Speaker:
Yaël Eisenstat
Description:

“As mentiras são mais envolventes "online" do que a verdade”, diz Yaël Eisenstat, antiga analista da CIA e diplomata. "Enquanto os objetivos dos algoritmos [das redes sociais] nos mantiverem envolvidos, alimentar-nos-ão com o veneno que ataca os nossos piores instintos e fraquezas humanas." Nesta palestra ousada, Eisenstat explora como as empresas de redes sociais, como o Facebook, incentivam conteúdos incendiários, contribuindo para uma cultura de polarização política e de desconfiança — e exorta os governos a responsabilizarem essas plataformas para proteger o discurso civil e a democracia.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Portuguese subtitles

Revisions Compare revisions