1 00:00:01,000 --> 00:00:03,018 Cerca de cinco anos atrás, 2 00:00:03,042 --> 00:00:05,434 percebi que estava perdendo a habilidade 3 00:00:05,458 --> 00:00:07,958 de me envolver com pessoas que não pensam como eu. 4 00:00:08,917 --> 00:00:12,559 A ideia de discutir questões polêmicas com meus colegas americanos 5 00:00:12,583 --> 00:00:14,976 estava começando a me dar mais azia 6 00:00:15,000 --> 00:00:19,455 do que as vezes que me envolvi com suspeitos de extremismo no exterior. 7 00:00:19,750 --> 00:00:23,351 Estava começando a ficar mais amarga e frustrada. 8 00:00:23,375 --> 00:00:24,809 E assim, 9 00:00:24,833 --> 00:00:29,125 mudei todo o meu foco de ameaças à segurança nacional global 10 00:00:29,125 --> 00:00:32,351 para tentar entender o que estava causando esse impulso 11 00:00:32,375 --> 00:00:35,601 rumo à polarização extrema nos EUA. 12 00:00:35,625 --> 00:00:37,976 Como ex-oficial da CIA e diplomata 13 00:00:38,000 --> 00:00:41,374 que passou anos trabalhando em questões de contraextremismo, 14 00:00:41,374 --> 00:00:45,333 comecei a temer que isso estivesse virando uma ameaça muito maior à nossa democracia 15 00:00:45,333 --> 00:00:47,851 do que qualquer adversário estrangeiro. 16 00:00:47,875 --> 00:00:51,250 Comecei a me aprofundar e a me manifestar sobre isso, 17 00:00:51,250 --> 00:00:54,059 o que acabou me levando a ser contratada pelo Facebook 18 00:00:54,083 --> 00:00:56,768 e finalmente me trouxe aqui hoje 19 00:00:56,792 --> 00:00:59,601 para continuar alertando você sobre como essas plataformas 20 00:00:59,625 --> 00:01:03,643 estão manipulando e radicalizando muitos de nós, 21 00:01:03,667 --> 00:01:06,625 e para falar sobre como recuperar as praças públicas digitais. 22 00:01:07,515 --> 00:01:09,705 Eu fui oficial do serviço estrangeiro no Quênia 23 00:01:09,705 --> 00:01:12,684 apenas alguns anos após os ataques do 11 de setembro, 24 00:01:12,684 --> 00:01:15,068 e conduzi as chamadas campanhas "Hearts and Minds" 25 00:01:15,068 --> 00:01:17,226 ao longo da fronteira com a Somália. 26 00:01:17,250 --> 00:01:20,559 Grande parte do meu trabalho era construir a confiança das comunidades 27 00:01:20,583 --> 00:01:23,292 consideradas mais suscetíveis a mensagens extremistas. 28 00:01:24,125 --> 00:01:28,309 Passava horas bebendo chá com clérigos antiocidentais declarados 29 00:01:28,333 --> 00:01:31,559 e até dialogava com alguns suspeitos de terrorismo, 30 00:01:31,583 --> 00:01:34,976 e, embora muitos desses encontros começassem com suspeita mútua, 31 00:01:35,000 --> 00:01:38,809 não me lembro de nenhum deles resultando em gritos ou insultos, 32 00:01:38,833 --> 00:01:42,917 e, em alguns casos, até trabalhamos juntos em áreas de interesse mútuo. 33 00:01:44,000 --> 00:01:48,143 As ferramentas mais poderosas que tínhamos eram simplesmente escutar, aprender 34 00:01:48,167 --> 00:01:49,893 e cultivar empatia. 35 00:01:49,917 --> 00:01:52,976 Esta é a essência do trabalho da Hearts and Minds, 36 00:01:53,000 --> 00:01:56,268 porque vi repetidamente que a maioria das pessoas queria 37 00:01:56,292 --> 00:02:00,059 se sentir ouvida, validada e respeitada. 38 00:02:00,083 --> 00:02:02,726 E acredito que é isso que a maioria de nós deseja. 39 00:02:02,750 --> 00:02:06,059 Então, o que vejo acontecendo on-line hoje é especialmente triste 40 00:02:06,083 --> 00:02:08,167 e muito mais difícil de resolver. 41 00:02:08,917 --> 00:02:12,684 Estamos sendo manipulados pelo atual ecossistema de informações, 42 00:02:12,708 --> 00:02:19,116 enraizando tantos de nós no absolutismo, que "meio-termo" se tornou um palavrão. 43 00:02:19,500 --> 00:02:23,000 Porque agora, empresas de rede social como o Facebook 44 00:02:23,000 --> 00:02:26,851 lucram nos segmentando e fornecendo conteúdo personalizado 45 00:02:26,875 --> 00:02:30,726 que valida e explora nossos preconceitos. 46 00:02:30,750 --> 00:02:34,184 O resultado final depende de provocar um sentimento forte 47 00:02:34,208 --> 00:02:35,893 para nos manter engajados, 48 00:02:35,917 --> 00:02:40,184 frequentemente incentivando as vozes mais inflamatórias e polarizadoras, 49 00:02:40,208 --> 00:02:44,643 ao ponto de não parecer mais possível chegarmos a um consenso. 50 00:02:44,667 --> 00:02:48,893 E apesar de um coro crescente de pessoas clamando pela mudança das plataformas, 51 00:02:48,917 --> 00:02:52,226 está claro que elas não farão o suficiente por conta própria. 52 00:02:52,250 --> 00:02:55,143 Portanto, os governos devem determinar a responsabilidade 53 00:02:55,167 --> 00:02:58,976 para os danos do mundo real causados por esses modelos de negócios 54 00:02:59,000 --> 00:03:01,768 e impor custos reais sobre os efeitos prejudiciais 55 00:03:01,792 --> 00:03:07,101 que estão causando na nossa saúde pública, nossa praça pública e nossa democracia. 56 00:03:07,125 --> 00:03:11,768 Mas, infelizmente, isso não vai acontecer a tempo da eleição presidencial nos EUA, 57 00:03:11,792 --> 00:03:14,559 então continuo a dar esse alerta, 58 00:03:14,583 --> 00:03:17,643 porque mesmo se um dia tivermos regras fortes em vigor, 59 00:03:17,667 --> 00:03:20,417 todos teremos que agir pra consertar isso. 60 00:03:21,417 --> 00:03:24,018 Quando comecei a mudar meu foco de ameaças no exterior 61 00:03:24,042 --> 00:03:26,184 para o colapso do discurso civil nos EUA, 62 00:03:26,208 --> 00:03:30,268 me perguntei se podíamos redirecionar algumas campanhas Hearts and Minds 63 00:03:30,292 --> 00:03:32,393 para ajudar a curar nossas diferenças. 64 00:03:32,417 --> 00:03:36,226 Nossa experiência de mais de 200 anos com a democracia funciona 65 00:03:36,250 --> 00:03:40,143 em grande parte porque podemos debater de forma aberta e apaixonada 66 00:03:40,167 --> 00:03:42,976 nossas ideias para as melhores soluções. 67 00:03:42,976 --> 00:03:47,125 Mas embora ainda acredite profundamente no poder do discurso civil "olho no olho", 68 00:03:47,125 --> 00:03:48,768 ele não consegue competir 69 00:03:48,792 --> 00:03:52,601 com os efeitos polarizadores e a dimensão das redes sociais no momento. 70 00:03:52,625 --> 00:03:56,333 As pessoas sugadas por essas armadilhas de indignação nas redes sociais 71 00:03:56,333 --> 00:04:00,000 muitas vezes parecem mais difíceis de romper com as mentalidades ideológicas 72 00:04:00,000 --> 00:04:03,476 do que as comunidades vulneráveis com as quais trabalhei. 73 00:04:03,500 --> 00:04:05,809 Então, quando me ligaram do Facebook em 2018 74 00:04:05,833 --> 00:04:07,143 e me ofereceram esta função 75 00:04:07,167 --> 00:04:11,143 de liderar operações de integridade eleitoral para publicidade política, 76 00:04:11,167 --> 00:04:13,184 senti que tinha que aceitar. 77 00:04:13,208 --> 00:04:15,874 Eu não tinha ilusões de que iria consertar tudo, 78 00:04:15,874 --> 00:04:19,833 mas quando ofereceram a oportunidade de ajudar a conduzir melhor as coisas, 79 00:04:19,833 --> 00:04:22,146 eu tinha pelo menos que tentar. 80 00:04:22,667 --> 00:04:24,934 Não trabalhava diretamente na polarização, 81 00:04:24,958 --> 00:04:29,393 mas eu analisava quais questões eram as mais polêmicas em nossa sociedade 82 00:04:29,417 --> 00:04:33,226 e, portanto, as mais exploráveis nos esforços de interferência eleitoral, 83 00:04:33,250 --> 00:04:35,833 que era a tática da Rússia antes de 2016. 84 00:04:36,583 --> 00:04:38,934 Então comecei fazendo perguntas. 85 00:04:38,958 --> 00:04:41,851 Eu queria entender os problemas sistêmicos subjacentes 86 00:04:41,875 --> 00:04:44,309 que estavam permitindo tudo isso, 87 00:04:44,333 --> 00:04:46,417 para descobrir como corrigi-los. 88 00:04:47,625 --> 00:04:52,274 Ainda acredito no poder da internet para fazer mais vozes serem ouvidas, 89 00:04:52,750 --> 00:04:55,851 mas apesar do objetivo declarado de construir uma comunidade, 90 00:04:55,875 --> 00:04:59,184 as maiores empresas de rede social atuais 91 00:04:59,208 --> 00:05:02,809 são antitéticas no conceito de discurso racional. 92 00:05:02,833 --> 00:05:05,351 Não há como recompensar o ato de escutar, 93 00:05:05,375 --> 00:05:06,976 como encorajar o debate civil 94 00:05:07,000 --> 00:05:10,563 e como proteger as pessoas que desejam sinceramente fazer perguntas 95 00:05:10,563 --> 00:05:14,042 em uma indústria na qual otimizar o engajamento e o crescimento do usuário 96 00:05:14,042 --> 00:05:17,268 são as duas métricas mais importantes para o sucesso. 97 00:05:17,292 --> 00:05:20,726 Não há incentivo para ajudar as pessoas a irem mais devagar, 98 00:05:20,750 --> 00:05:23,976 para criar conflito suficiente para que as pessoas parem, 99 00:05:24,000 --> 00:05:26,601 identifiquem a reação emocional a algo 100 00:05:26,601 --> 00:05:29,382 e questionem as próprias suposições antes de se envolverem. 101 00:05:30,625 --> 00:05:32,601 A triste realidade é: 102 00:05:32,625 --> 00:05:35,518 mentiras são mais envolventes on-line do que verdades, 103 00:05:35,542 --> 00:05:39,268 e a obscenidade vence o raciocínio baseado em fatos 104 00:05:39,292 --> 00:05:42,333 em um mundo otimizado para viralidade sem atrito. 105 00:05:43,167 --> 00:05:46,601 Enquanto o objetivo dos algoritmos for nos manter engajados, 106 00:05:46,625 --> 00:05:50,684 continuarão a nos alimentar com o veneno que ataca nossos piores instintos 107 00:05:50,708 --> 00:05:52,167 e fraquezas humanas. 108 00:05:52,958 --> 00:05:57,750 E sim, raiva, desconfiança, a cultura do medo, ódio: 109 00:05:57,750 --> 00:06:00,601 nada disso é novo nos Estados Unidos. 110 00:06:00,625 --> 00:06:03,976 Mas, nos últimos anos, a rede social explorou isso 111 00:06:04,000 --> 00:06:07,601 e, a meu ver, desequilibrou dramaticamente a balança. 112 00:06:07,625 --> 00:06:09,938 E o Facebook sabe disso. 113 00:06:09,938 --> 00:06:11,958 Um artigo recente do "Wall Street Journal" 114 00:06:11,958 --> 00:06:16,101 expôs uma apresentação interna do Facebook em 2018 115 00:06:16,125 --> 00:06:19,893 que aponta especificamente os próprios algoritmos das empresas 116 00:06:19,917 --> 00:06:23,434 para aumentar a presença de grupos extremistas em sua plataforma 117 00:06:23,458 --> 00:06:25,625 e polarizar os usuários. 118 00:06:26,708 --> 00:06:30,393 Mas eles ganham dinheiro nos mantendo engajados. 119 00:06:30,417 --> 00:06:34,643 O ambiente de informação moderno é formado fazendo nossos perfis 120 00:06:34,667 --> 00:06:37,643 e depois nos segmentando em categorias cada vez mais restritas 121 00:06:37,667 --> 00:06:40,976 para aperfeiçoar este processo de personalização. 122 00:06:41,000 --> 00:06:44,809 Somos bombardeados com informações que confirmam nossas opiniões, 123 00:06:44,833 --> 00:06:49,614 reforçando nossos preconceitos e nos fazendo sentir incluídos. 124 00:06:50,250 --> 00:06:53,643 São as mesmas táticas que víamos recrutadores de terroristas 125 00:06:53,667 --> 00:06:55,851 usando em jovens vulneráveis, 126 00:06:55,875 --> 00:06:59,726 embora de formas menos pronunciadas e mais localizadas antes da rede social, 127 00:06:59,750 --> 00:07:03,018 com o objetivo final de persuadir comportamentos. 128 00:07:03,042 --> 00:07:08,309 Infelizmente, nunca tive o poder no Facebook de causar um impacto real. 129 00:07:08,309 --> 00:07:12,125 Na verdade, no meu segundo dia, meu título e descrição de funções foram alterados 130 00:07:12,125 --> 00:07:14,971 e fui cortada das reuniões de tomada de decisão. 131 00:07:14,971 --> 00:07:16,375 Meus maiores esforços, 132 00:07:16,375 --> 00:07:20,286 tentando criar planos para combater a desinformação e repressão eleitoral 133 00:07:20,286 --> 00:07:23,059 em anúncios políticos, foram rejeitados. 134 00:07:23,083 --> 00:07:25,753 Fiquei lá por pouco menos de seis meses. 135 00:07:26,125 --> 00:07:29,726 Mas eis a minha maior lição do meu tempo lá. 136 00:07:29,750 --> 00:07:34,292 Existem milhares de pessoas no Facebook trabalhando apaixonadamente em um produto 137 00:07:34,292 --> 00:07:37,976 que eles realmente acreditam que torna o mundo um lugar melhor, 138 00:07:38,000 --> 00:07:41,684 mas enquanto a empresa continuar a apenas mexer nos limites 139 00:07:41,708 --> 00:07:44,434 da política de conteúdo e moderação, 140 00:07:44,434 --> 00:07:49,042 ao invés de considerar como a máquina é projetada e monetizada, 141 00:07:49,042 --> 00:07:52,393 eles nunca irão realmente abordar como a plataforma está contribuindo 142 00:07:52,417 --> 00:07:56,601 para o ódio, divisão e radicalização. 143 00:07:56,625 --> 00:08:00,893 Essa é a única conversa que nunca escutei durante meu tempo lá, 144 00:08:00,917 --> 00:08:03,976 porque exigiria fundamentalmente aceitar 145 00:08:04,000 --> 00:08:08,143 que o que criaram pode não ser o melhor para a sociedade, 146 00:08:08,167 --> 00:08:11,292 e concordar em alterar todo o modelo de produto e lucro. 147 00:08:12,500 --> 00:08:14,333 Então, o que podemos fazer sobre isso? 148 00:08:15,042 --> 00:08:18,643 Não estou dizendo que a rede social seja a única responsável 149 00:08:18,667 --> 00:08:20,809 para a situação em que estamos hoje. 150 00:08:20,833 --> 00:08:26,268 Claramente, temos questões sociais profundas que precisamos resolver. 151 00:08:26,292 --> 00:08:30,434 Mas a resposta do Facebook, de que ele é só um espelho da sociedade, 152 00:08:30,458 --> 00:08:33,476 é uma tentativa conveniente de desviar qualquer responsabilidade 153 00:08:33,500 --> 00:08:37,768 na maneira como a plataforma deles está amplificando conteúdo prejudicial 154 00:08:37,792 --> 00:08:40,833 e levando alguns usuários a opiniões extremas. 155 00:08:41,583 --> 00:08:44,434 E o Facebook poderia, se eles quisessem, 156 00:08:44,458 --> 00:08:46,309 consertar algumas dessas coisas. 157 00:08:46,333 --> 00:08:50,184 Eles poderiam parar de destacar e sugerir teóricos da conspiração, 158 00:08:50,208 --> 00:08:52,893 grupos de ódio, fornecedores de desinformação 159 00:08:52,917 --> 00:08:56,768 e, sim, em alguns casos, até o presidente dos EUA. 160 00:08:56,792 --> 00:09:00,184 Eles poderiam parar de usar as mesmas técnicas de personalização 161 00:09:00,208 --> 00:09:04,434 que usam para nos vender tênis para apresentar retórica política. 162 00:09:04,458 --> 00:09:06,184 Eles poderiam refazer os algoritmos 163 00:09:06,184 --> 00:09:08,417 para focar uma métrica diferente de engajamento, 164 00:09:08,417 --> 00:09:12,726 e criar formas de proteção para impedir que determinado conteúdo se torne viral 165 00:09:12,750 --> 00:09:14,647 antes de ser revisado. 166 00:09:14,875 --> 00:09:17,143 E eles poderiam fazer tudo isso 167 00:09:17,167 --> 00:09:21,351 sem se tornar o que chamam de "árbitros da verdade". 168 00:09:21,375 --> 00:09:26,724 Mas deixaram claro que não farão a coisa certa se não forem forçados a isso. 169 00:09:27,042 --> 00:09:29,976 E, sinceramente, por que fariam? 170 00:09:30,000 --> 00:09:33,934 Os mercados continuam recompensando-os e eles não estão infringindo a lei. 171 00:09:33,958 --> 00:09:35,268 Porque, atualmente, 172 00:09:35,292 --> 00:09:40,124 não há leis nos EUA que forcem o Facebook ou qualquer empresa de rede social 173 00:09:40,124 --> 00:09:42,000 a proteger nossa praça pública digital, 174 00:09:42,000 --> 00:09:45,439 nossa democracia e até mesmo nossas eleições. 175 00:09:45,792 --> 00:09:49,893 Cedemos a tomada de decisão sobre quais regras escrever e o que fazer para cumprir 176 00:09:49,917 --> 00:09:53,000 para os CEOs de empresas de internet com fins lucrativos. 177 00:09:53,750 --> 00:09:55,768 É isso que nós queremos? 178 00:09:55,792 --> 00:09:59,018 Um mundo pós-verdade no qual a toxicidade e o tribalismo 179 00:09:59,042 --> 00:10:02,027 superam o diálogo e a busca de consenso? 180 00:10:02,667 --> 00:10:06,768 Continuo otimista de que ainda temos mais em comum 181 00:10:06,792 --> 00:10:10,434 do que a mídia atual e o ambiente on-line retratam, 182 00:10:10,458 --> 00:10:13,559 e acredito que ter mais perspectiva 183 00:10:13,583 --> 00:10:17,184 contribui para uma democracia mais robusta e inclusiva. 184 00:10:17,208 --> 00:10:20,018 Mas não do jeito que está agora. 185 00:10:20,042 --> 00:10:24,268 E vale a pena enfatizar: não quero acabar com essas empresas. 186 00:10:24,292 --> 00:10:27,518 Eu só quero que tenham um certo nível de responsabilidade, 187 00:10:27,542 --> 00:10:29,988 assim como o resto da sociedade. 188 00:10:30,542 --> 00:10:34,893 É hora das autoridades se posicionarem e cumprirem sua função 189 00:10:34,917 --> 00:10:36,559 de proteger os cidadãos. 190 00:10:36,583 --> 00:10:41,167 E enquanto não há uma legislação mágica para consertar tudo isso, 191 00:10:41,167 --> 00:10:45,851 acredito que os governos podem e devem encontrar o equilíbrio 192 00:10:45,875 --> 00:10:48,018 entre proteger a liberdade de expressão 193 00:10:48,042 --> 00:10:52,351 e responsabilizar essas plataformas por seus efeitos na sociedade. 194 00:10:52,375 --> 00:10:56,684 E poderiam fazer isso em parte insistindo na transparência real 195 00:10:56,684 --> 00:10:59,875 em torno de como esses mecanismos de recomendação estão funcionando; 196 00:10:59,875 --> 00:11:04,518 e como a curadoria, amplificação e segmentação estão acontecendo. 197 00:11:04,542 --> 00:11:06,976 Quero que essas empresas sejam responsabilizadas 198 00:11:07,000 --> 00:11:10,101 não quando um indivíduo postar informações incorretas 199 00:11:10,125 --> 00:11:11,601 ou retórica extrema, 200 00:11:11,625 --> 00:11:15,476 mas quando os mecanismos deles de recomendação as espalharem, 201 00:11:15,500 --> 00:11:18,726 seus algoritmos direcionarem as pessoas para isso, 202 00:11:18,750 --> 00:11:22,042 e suas ferramentas forem usadas para atingir as pessoas com ele. 203 00:11:23,417 --> 00:11:27,101 Tentei fazer mudanças dentro do Facebook e falhei, 204 00:11:27,125 --> 00:11:30,268 mas tenho usado minha voz novamente nos últimos anos 205 00:11:30,292 --> 00:11:32,518 para continuar soando este alarme 206 00:11:32,542 --> 00:11:36,934 e, quem sabe, inspirar mais pessoas a exigir essa responsabilização. 207 00:11:36,958 --> 00:11:39,601 Minha mensagem para você é simples: 208 00:11:39,625 --> 00:11:41,809 pressione seus representantes no governo 209 00:11:41,833 --> 00:11:45,172 a se posicionarem e pararem de ceder nossa praça pública 210 00:11:45,172 --> 00:11:47,292 para interesses com fins lucrativos. 211 00:11:47,292 --> 00:11:49,143 Ajude a educar amigos e familiares 212 00:11:49,167 --> 00:11:52,309 sobre como eles estão sendo manipulados on-line. 213 00:11:52,333 --> 00:11:55,851 Esforce-se para interagir com pessoas que não têm os mesmos interesses. 214 00:11:55,875 --> 00:11:58,518 Faça deste assunto uma prioridade. 215 00:11:58,542 --> 00:12:01,958 Precisamos de uma abordagem de toda a sociedade para consertar isso. 216 00:12:03,250 --> 00:12:08,809 E minha mensagem para os líderes do meu ex-empregador Facebook é esta: 217 00:12:08,833 --> 00:12:14,643 as pessoas estão usando suas ferramentas exatamente como foram projetadas 218 00:12:14,667 --> 00:12:17,268 para semear ódio, divisão e desconfiança, 219 00:12:17,292 --> 00:12:21,434 e vocês não só estão permitindo, mas possibilitando isso. 220 00:12:21,458 --> 00:12:23,934 E sim, há muitas histórias ótimas 221 00:12:23,958 --> 00:12:27,643 de coisas positivas acontecendo em sua plataforma ao redor do mundo, 222 00:12:27,667 --> 00:12:30,893 mas isso não torna nada disso certo. 223 00:12:30,917 --> 00:12:33,893 Só está piorando à medida em que as eleições se aproximam, 224 00:12:33,917 --> 00:12:35,684 e ainda mais preocupante, 225 00:12:35,708 --> 00:12:38,184 enfrentaremos nossa maior crise potencial até agora, 226 00:12:38,208 --> 00:12:42,351 se os resultados não forem confiáveis e se houver violência. 227 00:12:42,375 --> 00:12:47,393 E quando em 2021 vocês disserem de novo: "Sabemos que temos que fazer melhor", 228 00:12:47,417 --> 00:12:50,101 quero que se lembrem deste momento, 229 00:12:50,125 --> 00:12:53,351 porque não são mais apenas algumas vozes esparsas. 230 00:12:53,375 --> 00:12:55,643 Líderes dos direitos civis, acadêmicos, 231 00:12:55,667 --> 00:12:58,643 jornalistas, anunciantes, seus próprios funcionários 232 00:12:58,667 --> 00:13:00,726 estão gritando para todos escutarem 233 00:13:00,750 --> 00:13:06,031 que suas políticas e práticas de negócios prejudicam as pessoas e a democracia. 234 00:13:06,875 --> 00:13:09,226 Vocês podem agir como quiserem, 235 00:13:09,250 --> 00:13:12,917 mas não podem mais dizer que por essa vocês não esperavam. 236 00:13:14,167 --> 00:13:15,417 Obrigada.