WEBVTT 00:00:01.548 --> 00:00:04.064 Não importa quem seja ou onde more, 00:00:04.088 --> 00:00:06.444 eu chutaria que você tem pelo menos um parente 00:00:06.468 --> 00:00:08.802 que gosta de encaminhar aqueles e-mails. 00:00:09.206 --> 00:00:10.520 Sabem do que estou falando, 00:00:10.520 --> 00:00:14.294 aqueles com alegações duvidosas ou vídeos conspiratórios. 00:00:14.315 --> 00:00:17.073 E vocês provavelmente já não os seguem mais no Facebook 00:00:17.073 --> 00:00:19.355 por compartilhar publicações como esta. NOTE Paragraph 00:00:19.379 --> 00:00:20.783 É uma imagem de uma banana 00:00:20.807 --> 00:00:23.474 com uma estranha cruz vermelha passando pelo centro. 00:00:23.498 --> 00:00:25.401 E o texto advertindo as pessoas 00:00:25.551 --> 00:00:27.759 a não comerem frutas que tenham essa aparência, 00:00:27.759 --> 00:00:29.185 sugerindo que foram injetadas 00:00:29.185 --> 00:00:32.025 com sangue contaminado com HIV. 00:00:32.049 --> 00:00:34.652 E a mensagem compartilhada só diz: 00:00:34.676 --> 00:00:36.857 "Compartilhe para salvar vidas." 00:00:37.672 --> 00:00:40.966 Verificadores de fatos já desmentem essa há anos, 00:00:40.990 --> 00:00:43.799 mas é um daqueles boatos que simplesmente não acabam. 00:00:43.823 --> 00:00:45.094 Um boato zumbi. 00:00:45.513 --> 00:00:47.606 E, óbvio, é completamente falso. NOTE Paragraph 00:00:48.180 --> 00:00:50.393 Pode ser tentador rir de um exemplo desses, 00:00:50.393 --> 00:00:53.147 dizer: "Bem, quem acreditaria nisso?" 00:00:53.209 --> 00:00:54.939 Mas a razão para ser um boato zumbi 00:00:54.939 --> 00:00:58.978 é que explora nossos medos mais profundos sobre a própria segurança 00:00:58.978 --> 00:01:01.297 e a das pessoas que amamos. 00:01:01.783 --> 00:01:05.056 E quando se passa tanto tempo quanto eu vendo desinformação, 00:01:05.080 --> 00:01:07.500 você sabe que esse é só um exemplo de muitos 00:01:07.524 --> 00:01:10.571 que exploram nossos medos e vulnerabilidades mais profundos. NOTE Paragraph 00:01:11.214 --> 00:01:15.583 Todo dia, ao redor do mundo, vemos muitos novos memes no Instagram 00:01:15.607 --> 00:01:18.646 incentivando os pais a não vacinarem os filhos. 00:01:18.670 --> 00:01:20.646 Vemos novos vídeos no YouTube 00:01:20.646 --> 00:01:23.226 explicando que a mudança climática é uma farsa. 00:01:23.226 --> 00:01:24.542 E em todas as plataformas, 00:01:24.542 --> 00:01:27.532 vemos inúmeras publicações feitas para demonizar pessoas 00:01:27.532 --> 00:01:31.053 baseado em raça, religião ou sexualidade. NOTE Paragraph 00:01:32.314 --> 00:01:35.344 Bem-vindos a um dos principais desafios do nosso tempo. 00:01:35.647 --> 00:01:39.672 Como podemos manter uma Internet com liberdade de expressão em foco, 00:01:39.696 --> 00:01:42.999 e ao mesmo tempo garantir que o conteúdo sendo disseminado 00:01:43.023 --> 00:01:46.909 não cause danos irreparáveis às nossas democracias, comunidades 00:01:46.933 --> 00:01:49.171 e nosso bem-estar físico e mental? 00:01:49.998 --> 00:01:52.085 Porque vivemos na era da informação, 00:01:52.109 --> 00:01:55.656 porém, a moeda central de que todos dependemos, informação, 00:01:55.680 --> 00:01:58.037 já não é mais considerada totalmente confiável 00:01:58.061 --> 00:02:00.409 e às vezes pode parecer completamente perigosa. 00:02:00.731 --> 00:02:02.112 Isso se dá em parte graças 00:02:02.112 --> 00:02:05.022 ao crescimento desenfreado de plataformas de compartilhamento 00:02:05.022 --> 00:02:06.524 que nos permitem ir rolando, 00:02:06.524 --> 00:02:08.660 onde mentiras e fatos estão lado a lado, 00:02:08.684 --> 00:02:11.755 mas sem nenhum dos sinais tradicionais de credibilidade. NOTE Paragraph 00:02:12.268 --> 00:02:15.887 E puxa vida! Nossa linguagem disso é horrivelmente atrapalhada. 00:02:15.911 --> 00:02:19.014 As pessoas ainda estão obcecadas com o termo "fake news", 00:02:19.038 --> 00:02:21.569 apesar do fato de ser extremamente desnecessário 00:02:21.593 --> 00:02:25.053 e usado para descrever muitas coisas que são, na verdade, bem diferentes: 00:02:25.077 --> 00:02:28.463 mentiras, boatos, farsas, conspirações, campanhas. 00:02:28.911 --> 00:02:31.823 Queria que parássemos de usar um termo 00:02:31.847 --> 00:02:34.709 que foi adotado por políticos de todo o mundo, 00:02:34.733 --> 00:02:36.204 de esquerda e de direita, 00:02:36.228 --> 00:02:40.060 usado como arma para atacar uma imprensa livre e independente. NOTE Paragraph 00:02:40.867 --> 00:02:43.803 (Aplausos) 00:02:45.043 --> 00:02:47.483 Pois precisamos dos nossos noticiários profissionais NOTE Paragraph 00:02:47.483 --> 00:02:48.885 agora mais do que nunca. 00:02:48.885 --> 00:02:52.255 E além disso, a maioria desse conteúdo nem disfarça ser notícia. 00:02:52.279 --> 00:02:54.921 São memes, vídeos, publicações. 00:02:54.945 --> 00:02:58.398 E a maior parte não é falsa; é enganosa. 00:02:58.422 --> 00:03:01.437 Temos a tendência de focar o que é verdadeiro ou falso. 00:03:01.461 --> 00:03:05.493 Mas a maior preocupação é o contexto usado como arma. 00:03:06.855 --> 00:03:08.497 Porque a desinformação mais eficaz 00:03:08.497 --> 00:03:11.895 sempre foi aquela que tem uma pitada de verdade. NOTE Paragraph 00:03:11.919 --> 00:03:15.395 Usemos esse exemplo de Londres, de março de 2017, 00:03:15.419 --> 00:03:16.959 Um tuíte que circulou bastante 00:03:16.983 --> 00:03:20.570 na sequência de um incidente terrorista na Ponte de Westminster. 00:03:20.594 --> 00:03:23.022 Essa imagem é genuína, não falsa. 00:03:23.046 --> 00:03:25.729 A mulher que aparece na foto foi entrevistada em seguida 00:03:25.729 --> 00:03:28.648 e explicou que ficou profundamente traumatizada. 00:03:28.672 --> 00:03:30.690 Ela estava no telefone com um ente querido 00:03:30.690 --> 00:03:33.052 e não olhava para a vítima por respeito. 00:03:33.076 --> 00:03:37.036 Mas ainda assim circulou abertamente com um enquadramento islamofóbico, 00:03:37.060 --> 00:03:40.106 com diversas hashtags, incluindo: #BanIslam. 00:03:40.425 --> 00:03:42.823 E se você trabalhasse no Twitter, o que faria? 00:03:42.847 --> 00:03:45.409 Você o apagaria ou deixaria lá? 00:03:46.553 --> 00:03:49.982 Meu instinto, minha reação emocional, seria de apagar. 00:03:50.006 --> 00:03:52.148 Eu detesto o enquadramento dessa imagem. 00:03:52.585 --> 00:03:54.973 Mas liberdade de expressão é um direito humano 00:03:54.997 --> 00:03:58.222 e se começarmos a apagar discursos que nos deixam desconfortáveis, 00:03:58.246 --> 00:03:59.476 aí teremos problemas. NOTE Paragraph 00:03:59.500 --> 00:04:01.794 E esse pode parecer um caso nítido, 00:04:01.818 --> 00:04:03.516 mas a maioria dos discursos não é. 00:04:03.540 --> 00:04:05.976 Essa linha é incrivelmente difícil de definir. 00:04:05.990 --> 00:04:08.325 O que é uma decisão bem-intencionada de uma pessoa 00:04:08.325 --> 00:04:10.762 é censura indiscutível para a outra. 00:04:10.762 --> 00:04:13.688 O que sabemos agora é que essa conta, Texas Lone Star, 00:04:13.712 --> 00:04:16.942 foi parte de uma campanha russa mais ampla de desinformação, 00:04:16.966 --> 00:04:19.117 uma que já foi derrubada. 00:04:19.141 --> 00:04:21.124 Será que isso mudaria sua opinião? 00:04:21.132 --> 00:04:22.135 A minha sim, 00:04:22.135 --> 00:04:24.420 porque agora é o caso de uma campanha coordenada 00:04:24.420 --> 00:04:26.045 para semear discórdia. 00:04:26.069 --> 00:04:27.794 E para vocês que gostariam de pensar 00:04:27.794 --> 00:04:30.935 que a inteligência artificial resolverá todos os nossos problemas, 00:04:30.935 --> 00:04:32.528 concordemos que estamos bem longe 00:04:32.528 --> 00:04:35.896 de IA que consiga entender publicações como esta. NOTE Paragraph 00:04:36.746 --> 00:04:39.363 Então eu gostaria de explicar três questões interligadas 00:04:39.387 --> 00:04:41.760 que complicam muito essa questão 00:04:41.784 --> 00:04:44.916 e pensar em algumas maneiras para considerar esses desafios. 00:04:45.348 --> 00:04:49.238 Primeiro, não temos um relacionamento racional com a informação, 00:04:49.262 --> 00:04:50.730 e sim um emocional. 00:04:50.754 --> 00:04:54.548 Não é verdade que mais fatos farão tudo ficar bem, 00:04:54.572 --> 00:04:57.672 porque os algoritmos que determinam que conteúdo nós vemos 00:04:57.696 --> 00:05:00.823 são projetados para recompensar nossa resposta emocional. 00:05:00.847 --> 00:05:02.228 E quando temos medo, 00:05:02.252 --> 00:05:05.426 narrativas simplistas, explicações conspiratórias 00:05:05.450 --> 00:05:08.868 e linguagem que demoniza os outros são muito mais eficazes. 00:05:09.538 --> 00:05:11.412 E além disso, muitas dessas empresas 00:05:11.436 --> 00:05:13.892 têm um modelo de negócios vinculado à atenção, 00:05:13.892 --> 00:05:17.941 o que significa que esses algoritmos serão sempre enviesados para o lado emocional. NOTE Paragraph 00:05:18.371 --> 00:05:22.661 Segundo, grande parte do discurso de que estou falando aqui é legal. 00:05:22.821 --> 00:05:24.121 Seria um problema diferente 00:05:24.121 --> 00:05:26.432 se eu falasse de imagens de abuso sexual infantil 00:05:26.432 --> 00:05:28.843 ou conteúdo que incite violência. 00:05:28.867 --> 00:05:32.447 Pode ser perfeitamente legal postar uma mentira descarada. 00:05:33.100 --> 00:05:37.208 As pessoas continuam falando de apagar conteúdo "problemático" ou "nocivo", 00:05:37.208 --> 00:05:39.741 mas sem definição clara do que querem dizer com isso, 00:05:39.741 --> 00:05:42.125 como Mark Zuckerberg, que recentemente reivindicou 00:05:42.125 --> 00:05:44.870 uma regulação global para moderar o discurso. 00:05:44.870 --> 00:05:46.995 E minha preocupação é estarmos vendo governos 00:05:46.995 --> 00:05:48.601 ao redor do mundo todo 00:05:48.601 --> 00:05:51.101 lançando decisões precipitadas de políticas 00:05:51.125 --> 00:05:53.985 que podem, de fato, provocar consequências muito mais sérias 00:05:53.985 --> 00:05:56.009 quando se trata do nosso discurso. 00:05:56.009 --> 00:05:59.712 E mesmo se pudéssemos decidir quais discursos publicar ou apagar, 00:05:59.736 --> 00:06:01.910 nunca tivemos tanto discurso. 00:06:01.934 --> 00:06:04.065 A cada segundo, milhões de conteúdos 00:06:04.089 --> 00:06:06.120 são publicados por pessoas do mundo todo 00:06:06.120 --> 00:06:09.652 em diferentes idiomas, recorrendo a milhares de contextos diferentes. 00:06:10.204 --> 00:06:12.736 Nunca tivemos mecanismos eficazes 00:06:12.760 --> 00:06:14.498 para moderar discurso a essa escala, 00:06:14.522 --> 00:06:17.323 seja impulsionado por humano ou por tecnologia. NOTE Paragraph 00:06:18.284 --> 00:06:22.228 E terceiro, essas empresas: Google, Twitter, Facebook, WhatsApp; 00:06:22.252 --> 00:06:25.093 são parte de um ecossistema de informação mais amplo. 00:06:25.117 --> 00:06:27.673 Gostamos de pôr toda a culpa nelas, 00:06:27.673 --> 00:06:29.053 mas os meios de comunicação 00:06:29.053 --> 00:06:32.423 e os representantes eleitos podem ter um papel equivalente 00:06:32.423 --> 00:06:35.790 para amplificar boatos e conspirações se quiserem. 00:06:35.800 --> 00:06:39.138 Assim como nós, quando compartilhamos cegamente 00:06:39.138 --> 00:06:42.053 conteúdo polêmico ou enganoso sem querer. 00:06:42.077 --> 00:06:43.877 Estamos criando mais poluição. NOTE Paragraph 00:06:45.236 --> 00:06:47.854 Sei que todos buscamos uma solução fácil. 00:06:47.878 --> 00:06:49.545 Mas não há nenhuma. 00:06:49.950 --> 00:06:54.395 Qualquer solução teria que ser lançada numa escala massiva, escala de Internet, 00:06:54.419 --> 00:06:57.680 e sim, as plataformas estão acostumadas a operar nesse nível. 00:06:57.704 --> 00:07:01.446 Mas será que podemos e devemos permiti-las reparar esses problemas? 00:07:01.648 --> 00:07:02.900 Certamente estão tentando, 00:07:02.924 --> 00:07:07.010 mas a maioria de nós concordaria que não queremos multinacionais 00:07:07.034 --> 00:07:09.366 como guardiãs da verdade e da justiça on-line. 00:07:09.390 --> 00:07:11.967 E também acho que as plataformas concordariam. 00:07:12.257 --> 00:07:15.138 E agora elas mesmas estão determinando sua nota. 00:07:15.162 --> 00:07:18.527 Gostam de nos dizer que as intervenções que estão aplicando funcionam, 00:07:18.527 --> 00:07:21.397 mas como elas mesmas escrevem os relatórios de transparência, 00:07:21.397 --> 00:07:25.169 não conseguimos verificar o que está acontecendo de fato. NOTE Paragraph 00:07:26.431 --> 00:07:29.303 (Aplausos) NOTE Paragraph 00:07:29.797 --> 00:07:32.749 E sejamos claros que a maioria das mudanças que vemos 00:07:32.773 --> 00:07:35.767 só acontecem depois que jornalistas investigam 00:07:35.791 --> 00:07:37.366 e acham evidência de parcialidade 00:07:37.366 --> 00:07:40.505 ou conteúdo que viola suas diretrizes de comunidade. 00:07:40.815 --> 00:07:45.410 Então sim, essa empresas têm que ter um papel fundamental no processo, 00:07:45.434 --> 00:07:47.394 mas elas não podem controlá-lo. NOTE Paragraph 00:07:47.855 --> 00:07:49.583 E que tal os governos? 00:07:49.803 --> 00:07:50.763 Muita gente acredita 00:07:50.773 --> 00:07:53.113 que regulamentação global é nossa última esperança 00:07:53.113 --> 00:07:55.863 em termos de sanear nosso ecossistema de informação. 00:07:55.887 --> 00:07:59.153 Mas o que vejo são legisladores que têm dificuldade de acompanhar 00:07:59.153 --> 00:08:01.418 as mudanças rápidas em tecnologia. 00:08:01.442 --> 00:08:03.200 E pior, estão trabalhando no escuro, 00:08:03.200 --> 00:08:05.191 porque não têm acesso aos dados 00:08:05.215 --> 00:08:07.865 para entender o que está acontecendo nessas plataformas. 00:08:08.260 --> 00:08:11.331 E afinal, a quais governos confiaríamos essas tarefas? 00:08:11.355 --> 00:08:14.125 Precisamos de uma resposta global, não nacional. NOTE Paragraph 00:08:15.419 --> 00:08:17.696 Nós somos o elemento que falta. 00:08:17.720 --> 00:08:20.843 São aquelas pessoas que usam essas tecnologias todo dia. 00:08:21.260 --> 00:08:26.231 Será que podemos criar uma infraestrutura que reforce a qualidade da informação? 00:08:26.241 --> 00:08:27.235 Bem, acho que sim, 00:08:27.235 --> 00:08:30.982 E tenho algumas ideias do que podemos conseguir fazer. 00:08:31.006 --> 00:08:34.109 Primeiro, se quisermos mesmo envolver o público, 00:08:34.133 --> 00:08:36.514 será que conseguimos nos inspirar na Wikipedia? 00:08:36.538 --> 00:08:38.362 Eles nos mostraram o que é possível. 00:08:38.386 --> 00:08:39.361 Sim, não é perfeito, 00:08:39.361 --> 00:08:41.659 mas demonstraram que, com as estruturas corretas, 00:08:41.659 --> 00:08:44.388 com uma perspectiva global e muita transparência, 00:08:44.388 --> 00:08:47.974 dá para construir algo que mereça a confiança de muita gente. 00:08:47.998 --> 00:08:51.170 Porque é preciso achar um jeito de explorar o conhecimento coletivo 00:08:51.170 --> 00:08:53.493 e a experiência de todos os usuários. 00:08:53.517 --> 00:08:56.163 Esse é o caso particularmente para mulheres, negros 00:08:56.187 --> 00:08:57.533 e grupos sub-representados. 00:08:57.557 --> 00:08:58.547 E adivinhem por quê? 00:08:58.547 --> 00:09:01.306 Eles são especialistas em ódio e desinformação, 00:09:01.306 --> 00:09:05.022 pois já foram o alvo dessas campanhas por muito tempo. 00:09:05.046 --> 00:09:07.396 E ao longo dos anos, eles vêm alertando 00:09:07.420 --> 00:09:08.919 e nunca foram escutados. 00:09:08.919 --> 00:09:10.389 Isso tem que mudar. 00:09:10.807 --> 00:09:15.133 Será que podemos criar uma Wikipedia da credibilidade? 00:09:15.157 --> 00:09:19.346 Será que podemos encontrar um jeito dos usuários darem ideias? 00:09:19.370 --> 00:09:23.067 Podem dar ideias sobre decisões difíceis de moderação de conteúdo. 00:09:23.091 --> 00:09:24.554 Podem fornecer feedback 00:09:24.578 --> 00:09:28.229 quando as plataformas decidirem que querem aplicar novas mudanças. NOTE Paragraph 00:09:28.241 --> 00:09:32.023 Segundo, a experiência das pessoas com informação é personalizada. 00:09:32.253 --> 00:09:34.866 Minha linha do tempo no Facebook é bem diferente da sua. 00:09:35.014 --> 00:09:37.839 Suas recomendações no YouTube são bem diferentes das minhas. 00:09:37.863 --> 00:09:40.355 Isso impossibilita que analisemos 00:09:40.379 --> 00:09:42.625 quais informações as pessoas estão vendo. 00:09:42.625 --> 00:09:44.264 Será que podemos imaginar 00:09:44.264 --> 00:09:47.604 o desenvolvimento de um tipo de repositório aberto e centralizado 00:09:47.604 --> 00:09:49.006 para dados anonimizados, 00:09:49.030 --> 00:09:51.964 com questões éticas e de privacidade integradas? 00:09:52.230 --> 00:09:53.998 Pois imaginem o que descobriríamos 00:09:54.022 --> 00:09:57.283 se construíssemos uma rede global de cidadãos interessados 00:09:57.307 --> 00:10:00.621 que quisessem doar dados sociais para a ciência. 00:10:00.981 --> 00:10:02.767 Porque sabemos mesmo muito pouco 00:10:02.767 --> 00:10:05.768 sobre as consequências de longo prazo do ódio e da desinformação 00:10:05.792 --> 00:10:08.066 nas atitudes e comportamento das pessoas. 00:10:08.066 --> 00:10:09.403 E o que de fato sabemos, 00:10:09.427 --> 00:10:11.620 quase tudo foi elaborado nos EUA, 00:10:11.644 --> 00:10:14.025 apesar de esse ser um problema global. 00:10:14.049 --> 00:10:16.174 Temos que trabalhar nisso também. NOTE Paragraph 00:10:16.192 --> 00:10:19.682 E terceiro, será que encontramos um jeito de ligar os pontos? 00:10:19.702 --> 00:10:23.138 Nenhum setor, especialmente o não-lucrativo, start-ups ou governos, 00:10:23.162 --> 00:10:24.584 vai resolver isso sozinho. 00:10:24.608 --> 00:10:27.066 Mas há pessoas muito inteligentes no mundo todo todo 00:10:27.066 --> 00:10:28.577 trabalhando nesses desafios, 00:10:28.601 --> 00:10:32.177 de salas de imprensa, sociedade civil, meio acadêmico, grupos ativistas. 00:10:32.201 --> 00:10:33.769 E podem ver alguns aqui. 00:10:33.899 --> 00:10:36.834 Alguns estão criando indicadores de credibilidade de conteúdo. 00:10:36.844 --> 00:10:40.044 Outros verificam fatos, para que declarações, vídeo e imagens falsas 00:10:40.044 --> 00:10:41.829 sejam ofuscados pelas plataformas. NOTE Paragraph 00:10:41.829 --> 00:10:44.312 Uma não-lucrativa que ajudei a fundar, a First Draft, 00:10:44.312 --> 00:10:46.894 está trabalhando com salas de imprensa em todo o mundo 00:10:46.894 --> 00:10:50.691 para ajudar a construir programas investigativos e colaborativos. 00:10:51.211 --> 00:10:53.384 E Danny Hills, um arquiteto de software, 00:10:53.384 --> 00:10:55.945 está projetando um novo sistema chamado "The Underlay", 00:10:55.969 --> 00:10:58.744 que será um arquivo de todas as constatações públicas 00:10:58.768 --> 00:11:00.097 conectadas às suas fontes, 00:11:00.121 --> 00:11:04.235 para que as pessoas e os algoritmos possam julgar melhor o que é confiável. 00:11:04.800 --> 00:11:08.156 E educadores de todo o mundo estão testando técnicas diferentes 00:11:08.180 --> 00:11:12.204 de fazer com que as pessoas sejam mais críticas do conteúdo que consomem. 00:11:12.534 --> 00:11:15.774 Todo esse trabalho é maravilhoso, mas estão trabalhando isoladamente 00:11:15.798 --> 00:11:18.242 e muitos não têm financiamento suficiente. NOTE Paragraph 00:11:18.242 --> 00:11:20.485 Há também centenas de pessoas muito inteligentes 00:11:20.485 --> 00:11:22.231 trabalhando nessas empresas, 00:11:22.255 --> 00:11:24.580 mas esses esforços parecem desconexos, 00:11:24.604 --> 00:11:26.225 porque estão desenvolvendo 00:11:26.225 --> 00:11:28.975 soluções diferentes para o mesmo problema. 00:11:28.975 --> 00:11:31.574 Como podemos encontrar um jeito de aproximar as pessoas 00:11:31.574 --> 00:11:34.770 em um local físico por dias ou semanas, 00:11:34.770 --> 00:11:37.196 para que possam abordar esses problemas em conjunto, 00:11:37.220 --> 00:11:39.038 mas de diferentes perspectivas? 00:11:39.062 --> 00:11:40.422 Então, será que conseguimos? 00:11:40.422 --> 00:11:43.665 Conseguimos criar uma resposta coordenada e ambiciosa, 00:11:43.689 --> 00:11:47.398 que se adeque à escala e à complexidade do problema? 00:11:47.819 --> 00:11:49.192 Eu acho mesmo que sim. 00:11:49.216 --> 00:11:52.175 Juntos vamos reconstruir nosso acervo de informações. NOTE Paragraph 00:11:52.819 --> 00:11:54.009 Obrigada. NOTE Paragraph 00:11:54.033 --> 00:11:56.861 (Aplausos)