Querido Facebook, é assim que dás cabo da democracia
-
0:01 - 0:03Há uns cinco anos,
-
0:03 - 0:06percebi que estava a perder a capacidade
-
0:06 - 0:09de dialogar com pessoas
que não pensam como eu. -
0:09 - 0:13A ideia de discutir questões controversas
com os meus colegas americanos -
0:13 - 0:15estava a começar a dar-me mais azia
-
0:15 - 0:19do que na época em que eu dialogava
com estrangeiros suspeitos de extremismo. -
0:20 - 0:23Estava a começar a sentir-me
mais amarga e mais frustrada. -
0:23 - 0:25E então, de repente,
-
0:25 - 0:29mudei completamente o foco,
das ameaças à segurança nacional global -
0:29 - 0:31passei para a tentativa de entender
-
0:31 - 0:35o que estava a causar
esta polarização extrema no meu país. -
0:36 - 0:38Como antiga agente da CIA e diplomata,
-
0:38 - 0:41que passou anos a trabalhar
com questões contra o extremismo, -
0:41 - 0:43comecei a recear que a coisa
passasse a ser -
0:43 - 0:45uma ameaça muito maior para a democracia
-
0:45 - 0:48do que qualquer adversário estrangeiro.
-
0:48 - 0:51Então, comecei a escavar,
e comecei a falar alto, -
0:51 - 0:54o que acabou por me levar
a ser contratada pelo Facebook -
0:54 - 0:57e finalmente me trouxe aqui hoje
-
0:57 - 1:00para continuar a alertar-vos
para o facto de essas plataformas -
1:00 - 1:03estarem a manipular
e a radicalizar tanta gente, -
1:04 - 1:07e para dizer como se pode recuperar
a nossa praça pública. -
1:08 - 1:11Fui funcionária do serviço
de relações exteriores no Quénia -
1:11 - 1:13poucos anos depois dos ataques
do 11 de Setembro -
1:13 - 1:15e chefiei as campanhas
de "corações e espíritos" -
1:15 - 1:17na fronteira da Somália.
-
1:17 - 1:19Uma grande parte do meu trabalho
-
1:19 - 1:21era criar laços de confiança
com as comunidades -
1:21 - 1:24consideradas mais suscetíveis
a mensagens extremistas. -
1:24 - 1:28Eu passava horas a tomar chá
com clérigos abertamente anti-ocidente -
1:28 - 1:31e até dialoguei com supostos terroristas.
-
1:32 - 1:35Embora muitos destes encontros
tenham começado com suspeitas mútuas, -
1:35 - 1:39não me lembro de nenhum deles
ter acabado aos gritos ou insultos, -
1:39 - 1:43e, nalguns casos, até trabalhámos juntos
em áreas de interesse mútuo. -
1:44 - 1:46As ferramentas mais poderosas
que nós tínhamos -
1:46 - 1:50eram simplesmente ouvir,
aprender e criar empatia. -
1:50 - 1:53Essa é a essência do trabalho
da conquista de corações e espíritos, -
1:53 - 1:57porque o que eu descobri repetidas vezes
é que a maioria das pessoas queriam -
1:57 - 2:00sentir-se ouvidas,
reconhecidas e respeitadas. -
2:00 - 2:02E acredito que isso é
o que muitos de nós querem. -
2:03 - 2:07Mas o que eu vejo acontecer hoje "online",
é especialmente entristecedor -
2:07 - 2:09e um problema muito mais difícil de lidar.
-
2:09 - 2:13Nós estamos a ser manipulados
pelo atual ecossistema de informação -
2:13 - 2:16que barrica muitos de nós
tão profundamente no absolutismo -
2:17 - 2:19que o compromisso passou a ser
uma palavra ofensiva. -
2:20 - 2:21Porque atualmente,
-
2:21 - 2:23as empresas de redes sociais
como o Facebook, -
2:23 - 2:27lucram com a segmentação e alimentam-nos
com a personalização de conteúdos -
2:27 - 2:30o que valida e explora
os nossos preconceitos. -
2:31 - 2:34O resultado final depende
de provocarem uma emoção forte -
2:34 - 2:36para nos manterem envolvidos,
-
2:36 - 2:40incentivando as vozes
mais incendiárias e polarizadoras -
2:40 - 2:44até ao ponto em que encontrar
pontos comuns deixa de parecer possível. -
2:45 - 2:49Apesar do crescente coro de pessoas
que reclamam uma mudança nas plataformas, -
2:49 - 2:52está claro que elas não vão fazer
o suficiente por si mesmas. -
2:52 - 2:55Então, os governos devem
definir a responsabilidade -
2:55 - 2:59pelos danos concretos causados
por estes modelos de negócio -
2:59 - 3:02e impor custos concretos
sobre os efeitos prejudiciais -
3:02 - 3:07que estão a ter na saúde pública,
no espaço público e na democracia. -
3:07 - 3:12Infelizmente, isso não vai acontecer
a tempo para as eleições presidenciais, -
3:12 - 3:15e, por isso, eu continuo
a fazer soar este alarme -
3:15 - 3:18porque, mesmo que um dia
venhamos a adotar regras fortes, -
3:18 - 3:21todos nós seremos precisos
para consertar isto. -
3:21 - 3:24Quando eu comecei a mudar
o meu foco das ameaças exteriores -
3:24 - 3:26para o colapso no discurso civil
do meu país, -
3:27 - 3:30pensei se poderíamos reaproveitar
as campanhas de corações e espíritos -
3:30 - 3:32para curar as nossas divergências.
-
3:33 - 3:36A nossa experiência de mais de 200 anos
com a democracia -
3:36 - 3:40funciona, em grande medida,
porque conseguimos debater ideias -
3:40 - 3:43aberta e apaixonadamente
para chegar às melhores soluções. -
3:43 - 3:45Mas, embora ainda acredite profundamente
-
3:45 - 3:47no poder do discurso civil cara a cara,
-
3:47 - 3:49não podemos competir hoje
-
3:49 - 3:52com os efeitos polarizadores
e a dimensão das redes socais. -
3:53 - 3:56As pessoas sugadas para estas ratoeiras
de indignação das redes sociais -
3:56 - 4:00normalmente sentem ser mais difícil
superar as suas mentalidades ideológicas -
4:00 - 4:03do que as comunidades vulneráveis
com que eu trabalhei. -
4:04 - 4:06Então, quando o Facebook
me ligou, em 2018, -
4:06 - 4:08e me ofereceu a função
de chefiar as operações -
4:08 - 4:11de integridade eleitoral
para a propaganda política, -
4:11 - 4:13eu senti que devia aceitar.
-
4:13 - 4:16Eu não tinha ilusões
quanto a solucionar tudo, -
4:16 - 4:18mas quando me ofereceram a oportunidade
-
4:18 - 4:20de ajudar a guiar o barco
numa direção melhor, -
4:20 - 4:22pelo menos, eu tinha de tentar.
-
4:23 - 4:25Eu não trabalhei diretamente
sobre a polarização, -
4:25 - 4:29mas pude ver quais eram as questões
mais fraturantes da nossa sociedade -
4:29 - 4:33e, portanto, mais exploráveis
pelos esforços de interferência eleitoral, -
4:33 - 4:36que foi a tática russa em 2016.
-
4:37 - 4:39Então, comecei a fazer perguntas.
-
4:39 - 4:42Eu queria entender
as questões sistémicas subjacentes -
4:42 - 4:44que permitiam que isso acontecesse,
-
4:44 - 4:47para entender como reparar isso.
-
4:48 - 4:50Eu ainda acredito no poder da Internet
-
4:50 - 4:52de fazer ouvir mais vozes
-
4:53 - 4:56mas, apesar do objetivo declarado
de criar comunidades, -
4:56 - 4:59as maiores empresas de redes sociais,
tal como estão organizadas atualmente, -
4:59 - 5:03opõem-se ao conceito de discurso racional.
-
5:03 - 5:05Não há nenhuma forma de premiar o ouvir,
-
5:05 - 5:07de encorajar o debate civil
-
5:07 - 5:11e de proteger as pessoas que sinceramente
querem fazer perguntas -
5:11 - 5:13num negócio em que
a otimização do envolvimento -
5:13 - 5:14e o aumento de utilizadores
-
5:14 - 5:17são as duas coisas mais importantes
para a métrica do êxito. -
5:17 - 5:21Não há nenhum incentivo para ajudar
as pessoas a abrandar, -
5:21 - 5:24para criar fricção suficiente
para forçar as pessoas a parar, -
5:24 - 5:27a reconhecer a sua reação emotiva
a qualquer coisa, -
5:27 - 5:30e a questionar as suas premissas
antes de se envolverem. -
5:31 - 5:33A infeliz realidade é que as mentiras
-
5:33 - 5:36são mais atraentes "online"
do que a verdade -
5:36 - 5:39e o obsceno supera o raciocínio
com base em factos, mas instável, -
5:39 - 5:43num mundo otimizado
para uma viralidade sem atrito. -
5:43 - 5:47Enquanto o objetivo dos algoritmos
for manter-nos envolvidos, -
5:47 - 5:49eles vão continuar a alimentar-nos
-
5:49 - 5:51com o veneno que brinca
com os nossos piores instintos -
5:51 - 5:53e fraquezas humanas.
-
5:53 - 5:56A raiva, a desconfiança,
-
5:56 - 5:58a cultura do medo, o ódio,
-
5:58 - 6:01nada disso é novo nos EUA..
-
6:01 - 6:04Mas ultimamente, as redes sociais
têm dominado isso tudo -
6:04 - 6:08e, a meu ver, desequilibraram
drasticamente a balança. -
6:08 - 6:10O Facebook sabe isso.
-
6:10 - 6:12Um artigo recente do "Wall Street Journal"
-
6:12 - 6:16revelou uma apresentação interna
do Facebook, de 2018, -
6:16 - 6:20que aponta especificamente para o papel
dos algoritmos da companhia -
6:20 - 6:23no crescimento de grupos
extremistas na sua plataforma -
6:23 - 6:26e na polarização dos utilizadores.
-
6:27 - 6:30Mas é mantendo-nos envolvidos
que eles ganham dinheiro. -
6:30 - 6:32O ambiente moderno da informação
-
6:32 - 6:35está cristalizado em torno
da avaliação dos nossos perfis -
6:35 - 6:38e da segmentação em categorias
cada vez mais estreitas -
6:38 - 6:41para aperfeiçoar este processo
de personalização. -
6:41 - 6:45Somos bombardeados com informações
que confirmam as nossas opiniões, -
6:45 - 6:47reforçam os nossos preconceitos
-
6:47 - 6:50e fazem-nos sentir
que pertencemos a qualquer coisa. -
6:50 - 6:54São as mesmas táticas que os recrutas
de organizações terroristas -
6:54 - 6:56usam com os jovens vulneráveis,
-
6:56 - 6:58embora de um modo
mais reduzido e mais localizado -
6:58 - 7:00antes das redes sociais,
-
7:00 - 7:03com o objetivo final de influenciar
o comportamento deles. -
7:03 - 7:08Infelizmente, o Facebook nunca me deu
poder para ter um impacto real. -
7:08 - 7:10De facto, logo no segundo dia,
-
7:10 - 7:12o meu título
e a descrição laboral foram alterados -
7:13 - 7:15e fui excluída das reuniões
de tomadas de decisão. -
7:15 - 7:18Os meus maiores esforços,
a tentativa de criar planos -
7:18 - 7:20para combater a desinformação
-
7:20 - 7:22e a supressão do voto
em propaganda política, -
7:22 - 7:23foram rejeitados.
-
7:23 - 7:26Assim, vim-me embora
antes de completar seis meses. -
7:26 - 7:30Esta é a maior conclusão
que eu tirei do tempo que ali passei: -
7:30 - 7:32há milhares de pessoas no Facebook
-
7:32 - 7:35que trabalham apaixonadamente num produto
-
7:35 - 7:38que realmente acreditam
que faz do mundo um lugar melhor, -
7:38 - 7:42mas, enquanto a companhia continuar
a mexer apenas nas margens -
7:42 - 7:44do policiamento e moderação de conteúdos,
-
7:44 - 7:46em vez de considerar
-
7:46 - 7:49como é que todo o maquinismo
é concebido e rentabilizado, -
7:49 - 7:52nunca irão verdadeiramente avaliar
como a plataforma está a contribuir -
7:52 - 7:56para o ódio, para a divisão
e para a radicalização. -
7:57 - 8:01Esta é uma conversa que eu nunca ouvi
durante o tempo que por lá andei -
8:01 - 8:04porque isso requeria aceitar,
fundamentalmente, -
8:04 - 8:08que aquilo que se construiu podia não ser
a melhor coisa para a sociedade, -
8:08 - 8:12e concordar alterar todo o produto
e o modelo de lucro. -
8:12 - 8:15Então, o que é que podemos fazer?
-
8:15 - 8:19Eu não estou a dizer que as redes sociais
têm toda a responsabilidade -
8:19 - 8:21pelo estado em que estamos hoje.
-
8:21 - 8:26Claramente, temos profundas
questões sociais a resolver. -
8:26 - 8:30Mas a resposta do Facebook,
que é apenas um reflexo da sociedade, -
8:30 - 8:34é uma tentativa conveniente
de desviar quaisquer responsabilidades -
8:34 - 8:38quanto à maneira como a plataforma
está a amplificar um conteúdo prejudicial -
8:38 - 8:41e a levar alguns utilizadores
ao extremismo. -
8:42 - 8:44E o Facebook, se quisesse,
-
8:44 - 8:46podia concertar alguma coisa.
-
8:46 - 8:50Podiam deixar de amplificar
e recomendar os teóricos da conspiração, -
8:50 - 8:53os grupos de ódio,
os fornecedores de desinformação -
8:53 - 8:57e, nalguns casos, até o nosso presidente.
-
8:57 - 9:00Podiam deixar de usar,
para divulgar retórica política, -
9:00 - 9:04as mesmas técnicas de personalização
que usam para vender sapatos. -
9:04 - 9:06Podiam refazer os seus algoritmos
-
9:06 - 9:09para terem como foco uma métrica
que não fosse o envolvimento -
9:09 - 9:13e podiam criar proteções para impedir
que certos conteúdos se tornassem virais -
9:13 - 9:15antes de serem revistos.
-
9:15 - 9:17Podiam fazer tudo isso
-
9:17 - 9:21sem se tornarem naquilo a que chamam
os "árbitrios da verdade". -
9:21 - 9:24Mas já deixaram claro
que não irão tão longe -
9:24 - 9:27para fazer o que está certo,
sem serem forçados, -
9:27 - 9:30e, para ser franca,
porque é que haviam de ir? -
9:30 - 9:34Os mercados recompensam-nos,
e eles não estão a violar nenhuma lei. -
9:34 - 9:35Porque, atualmente,
-
9:36 - 9:40não há leis nos EUA para obrigar
o Facebook, ou qualquer outra rede social, -
9:40 - 9:42a proteger a nossa praça pública,
-
9:42 - 9:44a nossa democracia,
-
9:44 - 9:46ou mesmo as nossas eleições.
-
9:46 - 9:50Abdicámos da tomada de decisões
quanto às regras a escrever e a impor -
9:50 - 9:53aos diretores de empresas de Internet
com fins lucrativos. -
9:54 - 9:56É isso que nós queremos?
-
9:56 - 9:59Um mundo de pós-verdades
onde a toxicidade e o tribalismo -
9:59 - 10:02superam a construção de pontes
e a procura de consensos? -
10:03 - 10:07Eu sou otimista e creio que temos
mais em comum uns com os outros -
10:07 - 10:10do que o ambiente "online"
e os "media" retratam, -
10:10 - 10:14e acredito que ter uma maior área
para perspetiva -
10:14 - 10:17cria uma democracia
mais robusta e inclusiva. -
10:17 - 10:20Mas não da forma que está hoje a ocorrer.
-
10:20 - 10:24Vale a pena sublinhar que eu não quero
fechar essas empresas. -
10:24 - 10:28Só quero que tenham
um certo nível de responsabilização, -
10:28 - 10:30tal como o resto da sociedade.
-
10:31 - 10:35É altura de os nossos governos
agirem e fazerem o seu trabalho -
10:35 - 10:37de proteger os cidadãos.
-
10:37 - 10:40Enquanto não houver uma lei mágica
-
10:40 - 10:41que resolva tudo isto,
-
10:41 - 10:46creio que os governos podem
e devem encontrar o equilíbrio -
10:46 - 10:48entre proteger a liberdade de expressão
-
10:48 - 10:52e responsabilizar essas plataformas
pelos seus efeitos na sociedade. -
10:52 - 10:57Podiam fazer isso, em parte,
ao insistir na verdadeira transparência -
10:57 - 11:00sobre como funcionam
os mecanismos de recomendação, -
11:00 - 11:04sobre como a curadoria, a amplificação
e o direcionamento estão a ocorrer. -
11:05 - 11:07Eu quero que essas companhias
sejam responsabilizadas -
11:07 - 11:10não pelas publicações
de desinformação individuais -
11:10 - 11:12ou de retórica extrema,
-
11:12 - 11:15mas pela forma como o mecanismo
de recomendação as distribui, -
11:16 - 11:19e como o algoritmo guia
as pessoas nessa direção, -
11:19 - 11:23e como essas ferramentas são usadas
para visar as pessoas. -
11:23 - 11:27Tentei fazer mudanças
no interior do Facebook e falhei, -
11:27 - 11:30e portanto passei a usar novamente
a minha voz nos últimos anos -
11:30 - 11:33para continuar a fazer soar o alarme.
-
11:33 - 11:37Espero inspirar mais pessoas
a exigir essa responsabilidade. -
11:37 - 11:40A minha mensagem para vocês é simples:
-
11:40 - 11:43pressionem os vossos representantes
no governo para agir -
11:43 - 11:47e para deixar de ceder a praça pública
aos interesses do lucro. -
11:48 - 11:50Ajudem a educar amigos e familiares
-
11:50 - 11:52sobre como estão a ser
manipulados "online". -
11:52 - 11:54Esforcem-se por se envolverem com pessoas
-
11:54 - 11:57que não tenham
a mesma mentalidade que vocês. -
11:57 - 11:59Façam desta questão uma prioridade.
-
11:59 - 12:02Precisamos de uma abordagem
de toda a sociedade para consertar isto. -
12:03 - 12:08A minha mensagem para os líderes
do meu antigo patrão, o Facebook, é esta: -
12:09 - 12:12Neste momento, as pessoas
estão a usar as vossas ferramentas -
12:12 - 12:15exatamente da maneira
como elas foram concebidas -
12:15 - 12:18para semear o ódio,
a divisão e a desconfiança, -
12:18 - 12:21e vocês não só estão a permiti-lo,
como estão a criar condições para isso. -
12:21 - 12:24Há muitas histórias ótimas
-
12:24 - 12:28sobre coisas positivas que acontecem
na vossa plataforma em todo o mundo, -
12:28 - 12:31mas isso não faz nada daquilo OK.
-
12:31 - 12:34E só vai piorando à medida
que nos aproximamos das eleições, -
12:34 - 12:36e, ainda mais preocupante,
-
12:36 - 12:39encaramos o que é potencialmente
a nossa maior crise, -
12:39 - 12:42se os resultados não forem fiáveis,
e se o resultado for a violência. -
12:42 - 12:47Em 2021, quando disserem novamente:
"Nós sabemos que temos de melhorar", -
12:47 - 12:50quero que se lembrem deste momento,
-
12:50 - 12:53porque já não são apenas
algumas vozes desgarradas. -
12:53 - 12:57Líderes a favor dos direitos civis,
académicos, jornalistas, -
12:57 - 12:59anunciantes, os vossos empregados,
-
12:59 - 13:01estão a gritar do topo dos prédios
-
13:01 - 13:04que as vossas políticas
e as vossas práticas de negócio -
13:04 - 13:07estão a prejudicar
as pessoas e a democracia. -
13:07 - 13:09Vocês têm direito às vossas decisões,
-
13:09 - 13:11mas já não podem dizer
-
13:11 - 13:14que não perceberam
que isso podia acontecer. -
13:14 - 13:16Obrigada.
- Title:
- Querido Facebook, é assim que dás cabo da democracia
- Speaker:
- Yaël Eisenstat
- Description:
-
“As mentiras são mais envolventes "online" do que a verdade”, diz Yaël Eisenstat, antiga analista da CIA e diplomata. "Enquanto os objetivos dos algoritmos [das redes sociais] nos mantiverem envolvidos, alimentar-nos-ão com o veneno que ataca os nossos piores instintos e fraquezas humanas." Nesta palestra ousada, Eisenstat explora como as empresas de redes sociais, como o Facebook, incentivam conteúdos incendiários, contribuindo para uma cultura de polarização política e de desconfiança — e exorta os governos a responsabilizarem essas plataformas para proteger o discurso civil e a democracia.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
Margarida Ferreira edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira approved Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira accepted Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Margarida Ferreira edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy | ||
Larissa Soares edited Portuguese subtitles for Dear Facebook, this is how you're breaking democracy |