< Return to Video

Querido Facebook, é assim que vocês estão destruindo a democracia

  • 0:01 - 0:03
    Cerca de cinco anos atrás,
  • 0:03 - 0:05
    percebi que estava perdendo a habilidade
  • 0:05 - 0:08
    de me envolver com pessoas
    que não pensam como eu.
  • 0:09 - 0:13
    A ideia de discutir questões polêmicas
    com meus colegas americanos
  • 0:13 - 0:15
    estava começando a me dar mais azia
  • 0:15 - 0:19
    do que as vezes que me envolvi
    com suspeitos de extremismo no exterior.
  • 0:20 - 0:23
    Estava começando a ficar
    mais amarga e frustrada.
  • 0:23 - 0:25
    E assim,
  • 0:25 - 0:29
    mudei todo o meu foco de ameaças
    à segurança nacional global
  • 0:29 - 0:32
    para tentar entender o que estava
    causando esse impulso
  • 0:32 - 0:36
    rumo à polarização extrema nos EUA.
  • 0:36 - 0:38
    Como ex-oficial da CIA e diplomata
  • 0:38 - 0:41
    que passou anos trabalhando
    em questões de contraextremismo,
  • 0:41 - 0:45
    comecei a temer que isso estivesse virando
    uma ameaça muito maior à nossa democracia
  • 0:45 - 0:48
    do que qualquer adversário estrangeiro.
  • 0:48 - 0:51
    Comecei a me aprofundar
    e a me manifestar sobre isso,
  • 0:51 - 0:54
    o que acabou me levando
    a ser contratada pelo Facebook
  • 0:54 - 0:57
    e finalmente me trouxe aqui hoje
  • 0:57 - 1:00
    para continuar alertando você
    sobre como essas plataformas
  • 1:00 - 1:04
    estão manipulando
    e radicalizando muitos de nós,
  • 1:04 - 1:07
    e para falar sobre como recuperar
    as praças públicas digitais.
  • 1:08 - 1:10
    Eu fui oficial do serviço
    estrangeiro no Quênia
  • 1:10 - 1:13
    apenas alguns anos após
    os ataques do 11 de setembro,
  • 1:13 - 1:15
    e conduzi as chamadas
    campanhas "Hearts and Minds"
  • 1:15 - 1:17
    ao longo da fronteira com a Somália.
  • 1:17 - 1:21
    Grande parte do meu trabalho era
    construir a confiança das comunidades
  • 1:21 - 1:23
    consideradas mais suscetíveis
    a mensagens extremistas.
  • 1:24 - 1:28
    Passava horas bebendo chá
    com clérigos antiocidentais declarados
  • 1:28 - 1:32
    e até dialogava com alguns
    suspeitos de terrorismo,
  • 1:32 - 1:35
    e, embora muitos desses encontros
    começassem com suspeita mútua,
  • 1:35 - 1:39
    não me lembro de nenhum deles
    resultando em gritos ou insultos,
  • 1:39 - 1:43
    e, em alguns casos, até trabalhamos juntos
    em áreas de interesse mútuo.
  • 1:44 - 1:48
    As ferramentas mais poderosas que tínhamos
    eram simplesmente escutar, aprender
  • 1:48 - 1:50
    e cultivar empatia.
  • 1:50 - 1:53
    Esta é a essência do trabalho
    da Hearts and Minds,
  • 1:53 - 1:56
    porque vi repetidamente
    que a maioria das pessoas queria
  • 1:56 - 2:00
    se sentir ouvida, validada e respeitada.
  • 2:00 - 2:03
    E acredito que é isso
    que a maioria de nós deseja.
  • 2:03 - 2:06
    Então, o que vejo acontecendo
    on-line hoje é especialmente triste
  • 2:06 - 2:08
    e muito mais difícil de resolver.
  • 2:09 - 2:13
    Estamos sendo manipulados
    pelo atual ecossistema de informações,
  • 2:13 - 2:19
    enraizando tantos de nós no absolutismo,
    que "meio-termo" se tornou um palavrão.
  • 2:20 - 2:23
    Porque agora, empresas
    de rede social como o Facebook
  • 2:23 - 2:27
    lucram nos segmentando
    e fornecendo conteúdo personalizado
  • 2:27 - 2:31
    que valida e explora nossos preconceitos.
  • 2:31 - 2:34
    O resultado final depende
    de provocar um sentimento forte
  • 2:34 - 2:36
    para nos manter engajados,
  • 2:36 - 2:40
    frequentemente incentivando as vozes
    mais inflamatórias e polarizadoras,
  • 2:40 - 2:45
    ao ponto de não parecer mais possível
    chegarmos a um consenso.
  • 2:45 - 2:49
    E apesar de um coro crescente de pessoas
    clamando pela mudança das plataformas,
  • 2:49 - 2:52
    está claro que elas não farão
    o suficiente por conta própria.
  • 2:52 - 2:55
    Portanto, os governos devem
    determinar a responsabilidade
  • 2:55 - 2:59
    para os danos do mundo real causados
    por esses modelos de negócios
  • 2:59 - 3:02
    e impor custos reais
    sobre os efeitos prejudiciais
  • 3:02 - 3:07
    que estão causando na nossa saúde pública,
    nossa praça pública e nossa democracia.
  • 3:07 - 3:12
    Mas, infelizmente, isso não vai acontecer
    a tempo da eleição presidencial nos EUA,
  • 3:12 - 3:15
    então continuo a dar esse alerta,
  • 3:15 - 3:18
    porque mesmo se um dia
    tivermos regras fortes em vigor,
  • 3:18 - 3:20
    todos teremos que agir pra consertar isso.
  • 3:21 - 3:24
    Quando comecei a mudar meu foco
    de ameaças no exterior
  • 3:24 - 3:26
    para o colapso do discurso civil nos EUA,
  • 3:26 - 3:30
    me perguntei se podíamos redirecionar
    algumas campanhas Hearts and Minds
  • 3:30 - 3:32
    para ajudar a curar nossas diferenças.
  • 3:32 - 3:36
    Nossa experiência de mais de 200 anos
    com a democracia funciona
  • 3:36 - 3:40
    em grande parte porque podemos
    debater de forma aberta e apaixonada
  • 3:40 - 3:43
    nossas ideias para as melhores soluções.
  • 3:43 - 3:47
    Mas embora ainda acredite profundamente
    no poder do discurso civil "olho no olho",
  • 3:47 - 3:49
    ele não consegue competir
  • 3:49 - 3:53
    com os efeitos polarizadores
    e a dimensão das redes sociais no momento.
  • 3:53 - 3:56
    As pessoas sugadas por essas armadilhas
    de indignação nas redes sociais
  • 3:56 - 4:00
    muitas vezes parecem mais difíceis
    de romper com as mentalidades ideológicas
  • 4:00 - 4:03
    do que as comunidades vulneráveis
    com as quais trabalhei.
  • 4:04 - 4:06
    Então, quando me ligaram
    do Facebook em 2018
  • 4:06 - 4:07
    e me ofereceram esta função
  • 4:07 - 4:11
    de liderar operações de integridade
    eleitoral para publicidade política,
  • 4:11 - 4:13
    senti que tinha que aceitar.
  • 4:13 - 4:16
    Eu não tinha ilusões
    de que iria consertar tudo,
  • 4:16 - 4:20
    mas quando ofereceram a oportunidade
    de ajudar a conduzir melhor as coisas,
  • 4:20 - 4:22
    eu tinha pelo menos que tentar.
  • 4:23 - 4:25
    Não trabalhava diretamente na polarização,
  • 4:25 - 4:29
    mas eu analisava quais questões eram
    as mais polêmicas em nossa sociedade
  • 4:29 - 4:33
    e, portanto, as mais exploráveis
    nos esforços de interferência eleitoral,
  • 4:33 - 4:36
    que era a tática da Rússia antes de 2016.
  • 4:37 - 4:39
    Então comecei fazendo perguntas.
  • 4:39 - 4:42
    Eu queria entender
    os problemas sistêmicos subjacentes
  • 4:42 - 4:44
    que estavam permitindo tudo isso,
  • 4:44 - 4:46
    para descobrir como corrigi-los.
  • 4:48 - 4:52
    Ainda acredito no poder da internet
    para fazer mais vozes serem ouvidas,
  • 4:53 - 4:56
    mas apesar do objetivo declarado
    de construir uma comunidade,
  • 4:56 - 4:59
    as maiores empresas de rede social atuais
  • 4:59 - 5:03
    são antitéticas no conceito
    de discurso racional.
  • 5:03 - 5:05
    Não há como recompensar o ato de escutar,
  • 5:05 - 5:07
    como encorajar o debate civil
  • 5:07 - 5:11
    e como proteger as pessoas
    que desejam sinceramente fazer perguntas
  • 5:11 - 5:14
    em uma indústria na qual otimizar
    o engajamento e o crescimento do usuário
  • 5:14 - 5:17
    são as duas métricas
    mais importantes para o sucesso.
  • 5:17 - 5:21
    Não há incentivo para ajudar
    as pessoas a irem mais devagar,
  • 5:21 - 5:24
    para criar conflito suficiente
    para que as pessoas parem,
  • 5:24 - 5:27
    identifiquem a reação emocional a algo
  • 5:27 - 5:29
    e questionem as próprias suposições
    antes de se envolverem.
  • 5:31 - 5:33
    A triste realidade é:
  • 5:33 - 5:36
    mentiras são mais envolventes
    on-line do que verdades,
  • 5:36 - 5:39
    e a obscenidade vence
    o raciocínio baseado em fatos
  • 5:39 - 5:42
    em um mundo otimizado
    para viralidade sem atrito.
  • 5:43 - 5:47
    Enquanto o objetivo dos algoritmos
    for nos manter engajados,
  • 5:47 - 5:51
    continuarão a nos alimentar com o veneno
    que ataca nossos piores instintos
  • 5:51 - 5:52
    e fraquezas humanas.
  • 5:53 - 5:58
    E sim, raiva, desconfiança,
    a cultura do medo, ódio:
  • 5:58 - 6:01
    nada disso é novo nos Estados Unidos.
  • 6:01 - 6:04
    Mas, nos últimos anos,
    a rede social explorou isso
  • 6:04 - 6:08
    e, a meu ver, desequilibrou
    dramaticamente a balança.
  • 6:08 - 6:10
    E o Facebook sabe disso.
  • 6:10 - 6:12
    Um artigo recente do "Wall Street Journal"
  • 6:12 - 6:16
    expôs uma apresentação interna
    do Facebook em 2018
  • 6:16 - 6:20
    que aponta especificamente
    os próprios algoritmos das empresas
  • 6:20 - 6:23
    para aumentar a presença
    de grupos extremistas em sua plataforma
  • 6:23 - 6:26
    e polarizar os usuários.
  • 6:27 - 6:30
    Mas eles ganham dinheiro
    nos mantendo engajados.
  • 6:30 - 6:35
    O ambiente de informação moderno
    é formado fazendo nossos perfis
  • 6:35 - 6:38
    e depois nos segmentando
    em categorias cada vez mais restritas
  • 6:38 - 6:41
    para aperfeiçoar este processo
    de personalização.
  • 6:41 - 6:45
    Somos bombardeados com informações
    que confirmam nossas opiniões,
  • 6:45 - 6:50
    reforçando nossos preconceitos
    e nos fazendo sentir incluídos.
  • 6:50 - 6:54
    São as mesmas táticas que víamos
    recrutadores de terroristas
  • 6:54 - 6:56
    usando em jovens vulneráveis,
  • 6:56 - 7:00
    embora de formas menos pronunciadas
    e mais localizadas antes da rede social,
  • 7:00 - 7:03
    com o objetivo final
    de persuadir comportamentos.
  • 7:03 - 7:08
    Infelizmente, nunca tive o poder
    no Facebook de causar um impacto real.
  • 7:08 - 7:12
    Na verdade, no meu segundo dia, meu título
    e descrição de funções foram alterados
  • 7:12 - 7:15
    e fui cortada das reuniões
    de tomada de decisão.
  • 7:15 - 7:16
    Meus maiores esforços,
  • 7:16 - 7:20
    tentando criar planos para combater
    a desinformação e repressão eleitoral
  • 7:20 - 7:23
    em anúncios políticos, foram rejeitados.
  • 7:23 - 7:26
    Fiquei lá por pouco menos de seis meses.
  • 7:26 - 7:30
    Mas eis a minha maior
    lição do meu tempo lá.
  • 7:30 - 7:34
    Existem milhares de pessoas no Facebook
    trabalhando apaixonadamente em um produto
  • 7:34 - 7:38
    que eles realmente acreditam
    que torna o mundo um lugar melhor,
  • 7:38 - 7:42
    mas enquanto a empresa continuar
    a apenas mexer nos limites
  • 7:42 - 7:44
    da política de conteúdo e moderação,
  • 7:44 - 7:49
    ao invés de considerar como a máquina
    é projetada e monetizada,
  • 7:49 - 7:52
    eles nunca irão realmente abordar
    como a plataforma está contribuindo
  • 7:52 - 7:57
    para o ódio, divisão e radicalização.
  • 7:57 - 8:01
    Essa é a única conversa que nunca
    escutei durante meu tempo lá,
  • 8:01 - 8:04
    porque exigiria fundamentalmente aceitar
  • 8:04 - 8:08
    que o que criaram pode não ser
    o melhor para a sociedade,
  • 8:08 - 8:11
    e concordar em alterar
    todo o modelo de produto e lucro.
  • 8:12 - 8:14
    Então, o que podemos fazer sobre isso?
  • 8:15 - 8:19
    Não estou dizendo que a rede social
    seja a única responsável
  • 8:19 - 8:21
    para a situação em que estamos hoje.
  • 8:21 - 8:26
    Claramente, temos questões sociais
    profundas que precisamos resolver.
  • 8:26 - 8:30
    Mas a resposta do Facebook,
    de que ele é só um espelho da sociedade,
  • 8:30 - 8:33
    é uma tentativa conveniente
    de desviar qualquer responsabilidade
  • 8:34 - 8:38
    na maneira como a plataforma deles
    está amplificando conteúdo prejudicial
  • 8:38 - 8:41
    e levando alguns usuários
    a opiniões extremas.
  • 8:42 - 8:44
    E o Facebook poderia, se eles quisessem,
  • 8:44 - 8:46
    consertar algumas dessas coisas.
  • 8:46 - 8:50
    Eles poderiam parar de destacar
    e sugerir teóricos da conspiração,
  • 8:50 - 8:53
    grupos de ódio,
    fornecedores de desinformação
  • 8:53 - 8:57
    e, sim, em alguns casos,
    até o presidente dos EUA.
  • 8:57 - 9:00
    Eles poderiam parar de usar
    as mesmas técnicas de personalização
  • 9:00 - 9:04
    que usam para nos vender tênis
    para apresentar retórica política.
  • 9:04 - 9:06
    Eles poderiam refazer os algoritmos
  • 9:06 - 9:08
    para focar uma métrica
    diferente de engajamento,
  • 9:08 - 9:13
    e criar formas de proteção para impedir
    que determinado conteúdo se torne viral
  • 9:13 - 9:15
    antes de ser revisado.
  • 9:15 - 9:17
    E eles poderiam fazer tudo isso
  • 9:17 - 9:21
    sem se tornar o que chamam
    de "árbitros da verdade".
  • 9:21 - 9:27
    Mas deixaram claro que não farão a coisa
    certa se não forem forçados a isso.
  • 9:27 - 9:30
    E, sinceramente, por que fariam?
  • 9:30 - 9:34
    Os mercados continuam recompensando-os
    e eles não estão infringindo a lei.
  • 9:34 - 9:35
    Porque, atualmente,
  • 9:35 - 9:40
    não há leis nos EUA que forcem o Facebook
    ou qualquer empresa de rede social
  • 9:40 - 9:42
    a proteger nossa praça pública digital,
  • 9:42 - 9:45
    nossa democracia
    e até mesmo nossas eleições.
  • 9:46 - 9:50
    Cedemos a tomada de decisão sobre quais
    regras escrever e o que fazer para cumprir
  • 9:50 - 9:53
    para os CEOs de empresas
    de internet com fins lucrativos.
  • 9:54 - 9:56
    É isso que nós queremos?
  • 9:56 - 9:59
    Um mundo pós-verdade
    no qual a toxicidade e o tribalismo
  • 9:59 - 10:02
    superam o diálogo e a busca de consenso?
  • 10:03 - 10:07
    Continuo otimista de que ainda
    temos mais em comum
  • 10:07 - 10:10
    do que a mídia atual
    e o ambiente on-line retratam,
  • 10:10 - 10:14
    e acredito que ter mais perspectiva
  • 10:14 - 10:17
    contribui para uma democracia
    mais robusta e inclusiva.
  • 10:17 - 10:20
    Mas não do jeito que está agora.
  • 10:20 - 10:24
    E vale a pena enfatizar:
    não quero acabar com essas empresas.
  • 10:24 - 10:28
    Eu só quero que tenham
    um certo nível de responsabilidade,
  • 10:28 - 10:30
    assim como o resto da sociedade.
  • 10:31 - 10:35
    É hora das autoridades se posicionarem
    e cumprirem sua função
  • 10:35 - 10:37
    de proteger os cidadãos.
  • 10:37 - 10:41
    E enquanto não há uma legislação mágica
    para consertar tudo isso,
  • 10:41 - 10:46
    acredito que os governos podem
    e devem encontrar o equilíbrio
  • 10:46 - 10:48
    entre proteger a liberdade de expressão
  • 10:48 - 10:52
    e responsabilizar essas plataformas
    por seus efeitos na sociedade.
  • 10:52 - 10:57
    E poderiam fazer isso em parte
    insistindo na transparência real
  • 10:57 - 11:00
    em torno de como esses mecanismos
    de recomendação estão funcionando;
  • 11:00 - 11:05
    e como a curadoria, amplificação
    e segmentação estão acontecendo.
  • 11:05 - 11:07
    Quero que essas empresas
    sejam responsabilizadas
  • 11:07 - 11:10
    não quando um indivíduo
    postar informações incorretas
  • 11:10 - 11:12
    ou retórica extrema,
  • 11:12 - 11:15
    mas quando os mecanismos deles
    de recomendação as espalharem,
  • 11:16 - 11:19
    seus algoritmos direcionarem
    as pessoas para isso,
  • 11:19 - 11:22
    e suas ferramentas forem usadas
    para atingir as pessoas com ele.
  • 11:23 - 11:27
    Tentei fazer mudanças
    dentro do Facebook e falhei,
  • 11:27 - 11:30
    mas tenho usado minha voz
    novamente nos últimos anos
  • 11:30 - 11:33
    para continuar soando este alarme
  • 11:33 - 11:37
    e, quem sabe, inspirar mais pessoas
    a exigir essa responsabilização.
  • 11:37 - 11:40
    Minha mensagem para você é simples:
  • 11:40 - 11:42
    pressione seus representantes no governo
  • 11:42 - 11:45
    a se posicionarem e pararem
    de ceder nossa praça pública
  • 11:45 - 11:47
    para interesses com fins lucrativos.
  • 11:47 - 11:49
    Ajude a educar amigos e familiares
  • 11:49 - 11:52
    sobre como eles estão sendo
    manipulados on-line.
  • 11:52 - 11:56
    Esforce-se para interagir com pessoas
    que não têm os mesmos interesses.
  • 11:56 - 11:59
    Faça deste assunto uma prioridade.
  • 11:59 - 12:02
    Precisamos de uma abordagem
    de toda a sociedade para consertar isso.
  • 12:03 - 12:09
    E minha mensagem para os líderes
    do meu ex-empregador Facebook é esta:
  • 12:09 - 12:15
    as pessoas estão usando suas ferramentas
    exatamente como foram projetadas
  • 12:15 - 12:17
    para semear ódio, divisão e desconfiança,
  • 12:17 - 12:21
    e vocês não só estão permitindo,
    mas possibilitando isso.
  • 12:21 - 12:24
    E sim, há muitas histórias ótimas
  • 12:24 - 12:28
    de coisas positivas acontecendo
    em sua plataforma ao redor do mundo,
  • 12:28 - 12:31
    mas isso não torna nada disso certo.
  • 12:31 - 12:34
    Só está piorando à medida
    em que as eleições se aproximam,
  • 12:34 - 12:36
    e ainda mais preocupante,
  • 12:36 - 12:38
    enfrentaremos nossa maior
    crise potencial até agora,
  • 12:38 - 12:42
    se os resultados não forem confiáveis
    e se houver violência.
  • 12:42 - 12:47
    E quando em 2021 vocês disserem de novo:
    "Sabemos que temos que fazer melhor",
  • 12:47 - 12:50
    quero que se lembrem deste momento,
  • 12:50 - 12:53
    porque não são mais apenas
    algumas vozes esparsas.
  • 12:53 - 12:56
    Líderes dos direitos civis, acadêmicos,
  • 12:56 - 12:59
    jornalistas, anunciantes,
    seus próprios funcionários
  • 12:59 - 13:01
    estão gritando para todos escutarem
  • 13:01 - 13:06
    que suas políticas e práticas de negócios
    prejudicam as pessoas e a democracia.
  • 13:07 - 13:09
    Vocês podem agir como quiserem,
  • 13:09 - 13:13
    mas não podem mais dizer
    que por essa vocês não esperavam.
  • 13:14 - 13:15
    Obrigada.
Title:
Querido Facebook, é assim que vocês estão destruindo a democracia
Speaker:
Yaël Eisenstat
Description:

“As mentiras on-line envolvem mais do que a verdade”, diz a ex-analista e diplomata da CIA Yaël Eisenstat. "Enquanto os objetivos dos algoritmos [de rede social] forem nos manter engajados, eles nos alimentarão com o veneno que ataca nossos piores instintos e fraquezas humanas." Nesta palestra ousada, Eisenstat explora como empresas de rede social como o Facebook incentivam conteúdo inflamatório, contribuindo para uma cultura de polarização política e desconfiança, e apela aos governos para responsabilizar essas plataformas para proteger o discurso civil e a democracia.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Portuguese, Brazilian subtitles

Revisions