Querido Facebook, é assim que vocês estão destruindo a democracia
-
0:01 - 0:03Cerca de cinco anos atrás,
-
0:03 - 0:05percebi que estava perdendo a habilidade
-
0:05 - 0:08de me envolver com pessoas
que não pensam como eu. -
0:09 - 0:13A ideia de discutir questões polêmicas
com meus colegas americanos -
0:13 - 0:15estava começando a me dar mais azia
-
0:15 - 0:19do que as vezes que me envolvi
com suspeitos de extremismo no exterior. -
0:20 - 0:23Estava começando a ficar
mais amarga e frustrada. -
0:23 - 0:25E assim,
-
0:25 - 0:29mudei todo o meu foco de ameaças
à segurança nacional global -
0:29 - 0:32para tentar entender o que estava
causando esse impulso -
0:32 - 0:36rumo à polarização extrema nos EUA.
-
0:36 - 0:38Como ex-oficial da CIA e diplomata
-
0:38 - 0:41que passou anos trabalhando
em questões de contraextremismo, -
0:41 - 0:45comecei a temer que isso estivesse virando
uma ameaça muito maior à nossa democracia -
0:45 - 0:48do que qualquer adversário estrangeiro.
-
0:48 - 0:51Comecei a me aprofundar
e a me manifestar sobre isso, -
0:51 - 0:54o que acabou me levando
a ser contratada pelo Facebook -
0:54 - 0:57e finalmente me trouxe aqui hoje
-
0:57 - 1:00para continuar alertando você
sobre como essas plataformas -
1:00 - 1:04estão manipulando
e radicalizando muitos de nós, -
1:04 - 1:07e para falar sobre como recuperar
as praças públicas digitais. -
1:08 - 1:10Eu fui oficial do serviço
estrangeiro no Quênia -
1:10 - 1:13apenas alguns anos após
os ataques do 11 de setembro, -
1:13 - 1:15e conduzi as chamadas
campanhas "Hearts and Minds" -
1:15 - 1:17ao longo da fronteira com a Somália.
-
1:17 - 1:21Grande parte do meu trabalho era
construir a confiança das comunidades -
1:21 - 1:23consideradas mais suscetíveis
a mensagens extremistas. -
1:24 - 1:28Passava horas bebendo chá
com clérigos antiocidentais declarados -
1:28 - 1:32e até dialogava com alguns
suspeitos de terrorismo, -
1:32 - 1:35e, embora muitos desses encontros
começassem com suspeita mútua, -
1:35 - 1:39não me lembro de nenhum deles
resultando em gritos ou insultos, -
1:39 - 1:43e, em alguns casos, até trabalhamos juntos
em áreas de interesse mútuo. -
1:44 - 1:48As ferramentas mais poderosas que tínhamos
eram simplesmente escutar, aprender -
1:48 - 1:50e cultivar empatia.
-
1:50 - 1:53Esta é a essência do trabalho
da Hearts and Minds, -
1:53 - 1:56porque vi repetidamente
que a maioria das pessoas queria -
1:56 - 2:00se sentir ouvida, validada e respeitada.
-
2:00 - 2:03E acredito que é isso
que a maioria de nós deseja. -
2:03 - 2:06Então, o que vejo acontecendo
on-line hoje é especialmente triste -
2:06 - 2:08e muito mais difícil de resolver.
-
2:09 - 2:13Estamos sendo manipulados
pelo atual ecossistema de informações, -
2:13 - 2:19enraizando tantos de nós no absolutismo,
que "meio-termo" se tornou um palavrão. -
2:20 - 2:23Porque agora, empresas
de rede social como o Facebook -
2:23 - 2:27lucram nos segmentando
e fornecendo conteúdo personalizado -
2:27 - 2:31que valida e explora nossos preconceitos.
-
2:31 - 2:34O resultado final depende
de provocar um sentimento forte -
2:34 - 2:36para nos manter engajados,
-
2:36 - 2:40frequentemente incentivando as vozes
mais inflamatórias e polarizadoras, -
2:40 - 2:45ao ponto de não parecer mais possível
chegarmos a um consenso. -
2:45 - 2:49E apesar de um coro crescente de pessoas
clamando pela mudança das plataformas, -
2:49 - 2:52está claro que elas não farão
o suficiente por conta própria. -
2:52 - 2:55Portanto, os governos devem
determinar a responsabilidade -
2:55 - 2:59para os danos do mundo real causados
por esses modelos de negócios -
2:59 - 3:02e impor custos reais
sobre os efeitos prejudiciais -
3:02 - 3:07que estão causando na nossa saúde pública,
nossa praça pública e nossa democracia. -
3:07 - 3:12Mas, infelizmente, isso não vai acontecer
a tempo da eleição presidencial nos EUA, -
3:12 - 3:15então continuo a dar esse alerta,
-
3:15 - 3:18porque mesmo se um dia
tivermos regras fortes em vigor, -
3:18 - 3:20todos teremos que agir pra consertar isso.
-
3:21 - 3:24Quando comecei a mudar meu foco
de ameaças no exterior -
3:24 - 3:26para o colapso do discurso civil nos EUA,
-
3:26 - 3:30me perguntei se podíamos redirecionar
algumas campanhas Hearts and Minds -
3:30 - 3:32para ajudar a curar nossas diferenças.
-
3:32 - 3:36Nossa experiência de mais de 200 anos
com a democracia funciona -
3:36 - 3:40em grande parte porque podemos
debater de forma aberta e apaixonada -
3:40 - 3:43nossas ideias para as melhores soluções.
-
3:43 - 3:47Mas embora ainda acredite profundamente
no poder do discurso civil "olho no olho", -
3:47 - 3:49ele não consegue competir
-
3:49 - 3:53com os efeitos polarizadores
e a dimensão das redes sociais no momento. -
3:53 - 3:56As pessoas sugadas por essas armadilhas
de indignação nas redes sociais -
3:56 - 4:00muitas vezes parecem mais difíceis
de romper com as mentalidades ideológicas -
4:00 - 4:03do que as comunidades vulneráveis
com as quais trabalhei. -
4:04 - 4:06Então, quando me ligaram
do Facebook em 2018 -
4:06 - 4:07e me ofereceram esta função
-
4:07 - 4:11de liderar operações de integridade
eleitoral para publicidade política, -
4:11 - 4:13senti que tinha que aceitar.
-
4:13 - 4:16Eu não tinha ilusões
de que iria consertar tudo, -
4:16 - 4:20mas quando ofereceram a oportunidade
de ajudar a conduzir melhor as coisas, -
4:20 - 4:22eu tinha pelo menos que tentar.
-
4:23 - 4:25Não trabalhava diretamente na polarização,
-
4:25 - 4:29mas eu analisava quais questões eram
as mais polêmicas em nossa sociedade -
4:29 - 4:33e, portanto, as mais exploráveis
nos esforços de interferência eleitoral, -
4:33 - 4:36que era a tática da Rússia antes de 2016.
-
4:37 - 4:39Então comecei fazendo perguntas.
-
4:39 - 4:42Eu queria entender
os problemas sistêmicos subjacentes -
4:42 - 4:44que estavam permitindo tudo isso,
-
4:44 - 4:46para descobrir como corrigi-los.
-
4:48 - 4:52Ainda acredito no poder da internet
para fazer mais vozes serem ouvidas, -
4:53 - 4:56mas apesar do objetivo declarado
de construir uma comunidade, -
4:56 - 4:59as maiores empresas de rede social atuais
-
4:59 - 5:03são antitéticas no conceito
de discurso racional. -
5:03 - 5:05Não há como recompensar o ato de escutar,
-
5:05 - 5:07como encorajar o debate civil
-
5:07 - 5:11e como proteger as pessoas
que desejam sinceramente fazer perguntas -
5:11 - 5:14em uma indústria na qual otimizar
o engajamento e o crescimento do usuário -
5:14 - 5:17são as duas métricas
mais importantes para o sucesso. -
5:17 - 5:21Não há incentivo para ajudar
as pessoas a irem mais devagar, -
5:21 - 5:24para criar conflito suficiente
para que as pessoas parem, -
5:24 - 5:27identifiquem a reação emocional a algo
-
5:27 - 5:29e questionem as próprias suposições
antes de se envolverem. -
5:31 - 5:33A triste realidade é:
-
5:33 - 5:36mentiras são mais envolventes
on-line do que verdades, -
5:36 - 5:39e a obscenidade vence
o raciocínio baseado em fatos -
5:39 - 5:42em um mundo otimizado
para viralidade sem atrito. -
5:43 - 5:47Enquanto o objetivo dos algoritmos
for nos manter engajados, -
5:47 - 5:51continuarão a nos alimentar com o veneno
que ataca nossos piores instintos -
5:51 - 5:52e fraquezas humanas.
-
5:53 - 5:58E sim, raiva, desconfiança,
a cultura do medo, ódio: -
5:58 - 6:01nada disso é novo nos Estados Unidos.
-
6:01 - 6:04Mas, nos últimos anos,
a rede social explorou isso -
6:04 - 6:08e, a meu ver, desequilibrou
dramaticamente a balança. -
6:08 - 6:10E o Facebook sabe disso.
-
6:10 - 6:12Um artigo recente do "Wall Street Journal"
-
6:12 - 6:16expôs uma apresentação interna
do Facebook em 2018 -
6:16 - 6:20que aponta especificamente
os próprios algoritmos das empresas -
6:20 - 6:23para aumentar a presença
de grupos extremistas em sua plataforma -
6:23 - 6:26e polarizar os usuários.
-
6:27 - 6:30Mas eles ganham dinheiro
nos mantendo engajados. -
6:30 - 6:35O ambiente de informação moderno
é formado fazendo nossos perfis -
6:35 - 6:38e depois nos segmentando
em categorias cada vez mais restritas -
6:38 - 6:41para aperfeiçoar este processo
de personalização. -
6:41 - 6:45Somos bombardeados com informações
que confirmam nossas opiniões, -
6:45 - 6:50reforçando nossos preconceitos
e nos fazendo sentir incluídos. -
6:50 - 6:54São as mesmas táticas que víamos
recrutadores de terroristas -
6:54 - 6:56usando em jovens vulneráveis,
-
6:56 - 7:00embora de formas menos pronunciadas
e mais localizadas antes da rede social, -
7:00 - 7:03com o objetivo final
de persuadir comportamentos. -
7:03 - 7:08Infelizmente, nunca tive o poder
no Facebook de causar um impacto real. -
7:08 - 7:12Na verdade, no meu segundo dia, meu título
e descrição de funções foram alterados -
7:12 - 7:15e fui cortada das reuniões
de tomada de decisão. -
7:15 - 7:16Meus maiores esforços,
-
7:16 - 7:20tentando criar planos para combater
a desinformação e repressão eleitoral -
7:20 - 7:23em anúncios políticos, foram rejeitados.
-
7:23 - 7:26Fiquei lá por pouco menos de seis meses.
-
7:26 - 7:30Mas eis a minha maior
lição do meu tempo lá. -
7:30 - 7:34Existem milhares de pessoas no Facebook
trabalhando apaixonadamente em um produto -
7:34 - 7:38que eles realmente acreditam
que torna o mundo um lugar melhor, -
7:38 - 7:42mas enquanto a empresa continuar
a apenas mexer nos limites -
7:42 - 7:44da política de conteúdo e moderação,
-
7:44 - 7:49ao invés de considerar como a máquina
é projetada e monetizada, -
7:49 - 7:52eles nunca irão realmente abordar
como a plataforma está contribuindo -
7:52 - 7:57para o ódio, divisão e radicalização.
-
7:57 - 8:01Essa é a única conversa que nunca
escutei durante meu tempo lá, -
8:01 - 8:04porque exigiria fundamentalmente aceitar
-
8:04 - 8:08que o que criaram pode não ser
o melhor para a sociedade, -
8:08 - 8:11e concordar em alterar
todo o modelo de produto e lucro. -
8:12 - 8:14Então, o que podemos fazer sobre isso?
-
8:15 - 8:19Não estou dizendo que a rede social
seja a única responsável -
8:19 - 8:21para a situação em que estamos hoje.
-
8:21 - 8:26Claramente, temos questões sociais
profundas que precisamos resolver. -
8:26 - 8:30Mas a resposta do Facebook,
de que ele é só um espelho da sociedade, -
8:30 - 8:33é uma tentativa conveniente
de desviar qualquer responsabilidade -
8:34 - 8:38na maneira como a plataforma deles
está amplificando conteúdo prejudicial -
8:38 - 8:41e levando alguns usuários
a opiniões extremas. -
8:42 - 8:44E o Facebook poderia, se eles quisessem,
-
8:44 - 8:46consertar algumas dessas coisas.
-
8:46 - 8:50Eles poderiam parar de destacar
e sugerir teóricos da conspiração, -
8:50 - 8:53grupos de ódio,
fornecedores de desinformação -
8:53 - 8:57e, sim, em alguns casos,
até o presidente dos EUA. -
8:57 - 9:00Eles poderiam parar de usar
as mesmas técnicas de personalização -
9:00 - 9:04que usam para nos vender tênis
para apresentar retórica política. -
9:04 - 9:06Eles poderiam refazer os algoritmos
-
9:06 - 9:08para focar uma métrica
diferente de engajamento, -
9:08 - 9:13e criar formas de proteção para impedir
que determinado conteúdo se torne viral -
9:13 - 9:15antes de ser revisado.
-
9:15 - 9:17E eles poderiam fazer tudo isso
-
9:17 - 9:21sem se tornar o que chamam
de "árbitros da verdade". -
9:21 - 9:27Mas deixaram claro que não farão a coisa
certa se não forem forçados a isso. -
9:27 - 9:30E, sinceramente, por que fariam?
-
9:30 - 9:34Os mercados continuam recompensando-os
e eles não estão infringindo a lei. -
9:34 - 9:35Porque, atualmente,
-
9:35 - 9:40não há leis nos EUA que forcem o Facebook
ou qualquer empresa de rede social -
9:40 - 9:42a proteger nossa praça pública digital,
-
9:42 - 9:45nossa democracia
e até mesmo nossas eleições. -
9:46 - 9:50Cedemos a tomada de decisão sobre quais
regras escrever e o que fazer para cumprir -
9:50 - 9:53para os CEOs de empresas
de internet com fins lucrativos. -
9:54 - 9:56É isso que nós queremos?
-
9:56 - 9:59Um mundo pós-verdade
no qual a toxicidade e o tribalismo -
9:59 - 10:02superam o diálogo e a busca de consenso?
-
10:03 - 10:07Continuo otimista de que ainda
temos mais em comum -
10:07 - 10:10do que a mídia atual
e o ambiente on-line retratam, -
10:10 - 10:14e acredito que ter mais perspectiva
-
10:14 - 10:17contribui para uma democracia
mais robusta e inclusiva. -
10:17 - 10:20Mas não do jeito que está agora.
-
10:20 - 10:24E vale a pena enfatizar:
não quero acabar com essas empresas. -
10:24 - 10:28Eu só quero que tenham
um certo nível de responsabilidade, -
10:28 - 10:30assim como o resto da sociedade.
-
10:31 - 10:35É hora das autoridades se posicionarem
e cumprirem sua função -
10:35 - 10:37de proteger os cidadãos.
-
10:37 - 10:41E enquanto não há uma legislação mágica
para consertar tudo isso, -
10:41 - 10:46acredito que os governos podem
e devem encontrar o equilíbrio -
10:46 - 10:48entre proteger a liberdade de expressão
-
10:48 - 10:52e responsabilizar essas plataformas
por seus efeitos na sociedade. -
10:52 - 10:57E poderiam fazer isso em parte
insistindo na transparência real -
10:57 - 11:00em torno de como esses mecanismos
de recomendação estão funcionando; -
11:00 - 11:05e como a curadoria, amplificação
e segmentação estão acontecendo. -
11:05 - 11:07Quero que essas empresas
sejam responsabilizadas -
11:07 - 11:10não quando um indivíduo
postar informações incorretas -
11:10 - 11:12ou retórica extrema,
-
11:12 - 11:15mas quando os mecanismos deles
de recomendação as espalharem, -
11:16 - 11:19seus algoritmos direcionarem
as pessoas para isso, -
11:19 - 11:22e suas ferramentas forem usadas
para atingir as pessoas com ele. -
11:23 - 11:27Tentei fazer mudanças
dentro do Facebook e falhei, -
11:27 - 11:30mas tenho usado minha voz
novamente nos últimos anos -
11:30 - 11:33para continuar soando este alarme
-
11:33 - 11:37e, quem sabe, inspirar mais pessoas
a exigir essa responsabilização. -
11:37 - 11:40Minha mensagem para você é simples:
-
11:40 - 11:42pressione seus representantes no governo
-
11:42 - 11:45a se posicionarem e pararem
de ceder nossa praça pública -
11:45 - 11:47para interesses com fins lucrativos.
-
11:47 - 11:49Ajude a educar amigos e familiares
-
11:49 - 11:52sobre como eles estão sendo
manipulados on-line. -
11:52 - 11:56Esforce-se para interagir com pessoas
que não têm os mesmos interesses. -
11:56 - 11:59Faça deste assunto uma prioridade.
-
11:59 - 12:02Precisamos de uma abordagem
de toda a sociedade para consertar isso. -
12:03 - 12:09E minha mensagem para os líderes
do meu ex-empregador Facebook é esta: -
12:09 - 12:15as pessoas estão usando suas ferramentas
exatamente como foram projetadas -
12:15 - 12:17para semear ódio, divisão e desconfiança,
-
12:17 - 12:21e vocês não só estão permitindo,
mas possibilitando isso. -
12:21 - 12:24E sim, há muitas histórias ótimas
-
12:24 - 12:28de coisas positivas acontecendo
em sua plataforma ao redor do mundo, -
12:28 - 12:31mas isso não torna nada disso certo.
-
12:31 - 12:34Só está piorando à medida
em que as eleições se aproximam, -
12:34 - 12:36e ainda mais preocupante,
-
12:36 - 12:38enfrentaremos nossa maior
crise potencial até agora, -
12:38 - 12:42se os resultados não forem confiáveis
e se houver violência. -
12:42 - 12:47E quando em 2021 vocês disserem de novo:
"Sabemos que temos que fazer melhor", -
12:47 - 12:50quero que se lembrem deste momento,
-
12:50 - 12:53porque não são mais apenas
algumas vozes esparsas. -
12:53 - 12:56Líderes dos direitos civis, acadêmicos,
-
12:56 - 12:59jornalistas, anunciantes,
seus próprios funcionários -
12:59 - 13:01estão gritando para todos escutarem
-
13:01 - 13:06que suas políticas e práticas de negócios
prejudicam as pessoas e a democracia. -
13:07 - 13:09Vocês podem agir como quiserem,
-
13:09 - 13:13mas não podem mais dizer
que por essa vocês não esperavam. -
13:14 - 13:15Obrigada.
- Title:
- Querido Facebook, é assim que vocês estão destruindo a democracia
- Speaker:
- Yaël Eisenstat
- Description:
-
“As mentiras on-line envolvem mais do que a verdade”, diz a ex-analista e diplomata da CIA Yaël Eisenstat. "Enquanto os objetivos dos algoritmos [de rede social] forem nos manter engajados, eles nos alimentarão com o veneno que ataca nossos piores instintos e fraquezas humanas." Nesta palestra ousada, Eisenstat explora como empresas de rede social como o Facebook incentivam conteúdo inflamatório, contribuindo para uma cultura de polarização política e desconfiança, e apela aos governos para responsabilizar essas plataformas para proteger o discurso civil e a democracia.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
![]() |
Maricene Crus approved Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus accepted Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for Dear Facebook, this is how you're breaking democracy |