[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:01.47,0:00:06.69,Default,,0000,0000,0000,,Em 23 de abril de 2013, Dialogue: 0,0:00:06.71,0:00:12.23,Default,,0000,0000,0000,,a Associated Press fez\Na seguinte publicação no Twitter: Dialogue: 0,0:00:12.25,0:00:14.65,Default,,0000,0000,0000,,"Notícia de última hora: Dialogue: 0,0:00:14.67,0:00:17.24,Default,,0000,0000,0000,,duas explosões na Casa Branca, Dialogue: 0,0:00:17.27,0:00:19.60,Default,,0000,0000,0000,,e Barack Obama foi ferido". Dialogue: 0,0:00:20.21,0:00:25.64,Default,,0000,0000,0000,,Essa publicação foi repassada 4 mil vezes\Nem menos de cinco minutos Dialogue: 0,0:00:25.66,0:00:28.04,Default,,0000,0000,0000,,e viralizou a partir de então. Dialogue: 0,0:00:28.76,0:00:33.11,Default,,0000,0000,0000,,A publicação não era uma notícia real\Ndivulgada pela Associated Press. Dialogue: 0,0:00:33.13,0:00:36.47,Default,,0000,0000,0000,,Na realidade, era\Numa notícia falsa, ou "fake news", Dialogue: 0,0:00:36.49,0:00:39.32,Default,,0000,0000,0000,,espalhada por hackers sírios Dialogue: 0,0:00:39.34,0:00:44.03,Default,,0000,0000,0000,,que se infiltraram no perfil\Nda Associated Press no Twitter. Dialogue: 0,0:00:44.41,0:00:48.30,Default,,0000,0000,0000,,O objetivo era perturbar a sociedade,\Nmas eles foram além. Dialogue: 0,0:00:48.32,0:00:50.80,Default,,0000,0000,0000,,Os algoritmos de troca automatizada Dialogue: 0,0:00:50.82,0:00:54.18,Default,,0000,0000,0000,,apoderaram-se imediatamente\Nda emoção dessa publicação Dialogue: 0,0:00:54.20,0:00:57.17,Default,,0000,0000,0000,,e começaram a funcionar\Ncom base na possibilidade Dialogue: 0,0:00:57.20,0:01:01.80,Default,,0000,0000,0000,,de o presidente dos Estados Unidos\Nter sido ferido ou morto nessa explosão. Dialogue: 0,0:01:02.19,0:01:04.18,Default,,0000,0000,0000,,Quando começaram a publicar, Dialogue: 0,0:01:04.20,0:01:07.55,Default,,0000,0000,0000,,levaram imediatamente\No mercado acionário a um colapso, Dialogue: 0,0:01:07.58,0:01:12.74,Default,,0000,0000,0000,,zerando US$ 140 bilhões\Nem valor patrimonial em um único dia. Dialogue: 0,0:01:13.06,0:01:17.54,Default,,0000,0000,0000,,Robert Mueller, promotor de justiça\Nespecial dos Estados Unidos, Dialogue: 0,0:01:17.56,0:01:21.45,Default,,0000,0000,0000,,fez acusações contra 3 empresas russas Dialogue: 0,0:01:21.48,0:01:24.10,Default,,0000,0000,0000,,e 13 indivíduos russos Dialogue: 0,0:01:24.12,0:01:27.29,Default,,0000,0000,0000,,em uma conspiração\Npara fraudar os Estados Unidos, Dialogue: 0,0:01:27.31,0:01:31.18,Default,,0000,0000,0000,,interferindo na eleição\Npresidencial de 2016. Dialogue: 0,0:01:31.86,0:01:35.42,Default,,0000,0000,0000,,Essa acusação Dialogue: 0,0:01:35.44,0:01:38.58,Default,,0000,0000,0000,,conta a história da Agência\Nde Pesquisa da Internet, Dialogue: 0,0:01:38.61,0:01:42.07,Default,,0000,0000,0000,,a divisão sombria do Kremlin\Nnas mídias sociais. Dialogue: 0,0:01:42.82,0:01:45.59,Default,,0000,0000,0000,,Somente durante a eleição presidencial, Dialogue: 0,0:01:45.62,0:01:47.50,Default,,0000,0000,0000,,os esforços da Agência da Internet Dialogue: 0,0:01:47.53,0:01:52.70,Default,,0000,0000,0000,,alcançaram 126 milhões de pessoas\Nno Facebook nos Estados Unidos, Dialogue: 0,0:01:52.72,0:01:55.100,Default,,0000,0000,0000,,fizeram 3 milhões de publicações\Nindividuais no Tweeter Dialogue: 0,0:01:56.02,0:01:59.86,Default,,0000,0000,0000,,e o equivalente a 43 horas\Nde conteúdo do YouTube. Dialogue: 0,0:01:59.89,0:02:01.54,Default,,0000,0000,0000,,Tudo isso era falso, Dialogue: 0,0:02:01.56,0:02:07.89,Default,,0000,0000,0000,,notícias falsas para semear discórdia\Nna eleição presidencial dos EUA. Dialogue: 0,0:02:08.100,0:02:11.65,Default,,0000,0000,0000,,Um estudo recente da Universidade Oxford Dialogue: 0,0:02:11.67,0:02:14.94,Default,,0000,0000,0000,,mostrou que, nas eleições suecas recentes, Dialogue: 0,0:02:14.96,0:02:19.34,Default,,0000,0000,0000,,um terço de todas as notícias\Ndivulgadas nas mídias sociais Dialogue: 0,0:02:19.36,0:02:20.56,Default,,0000,0000,0000,,sobre a eleição Dialogue: 0,0:02:20.58,0:02:22.67,Default,,0000,0000,0000,,eram falsas ou incorretas. Dialogue: 0,0:02:23.04,0:02:28.12,Default,,0000,0000,0000,,Além disso, esses tipos de campanhas\Nde notícias falsas nas mídias sociais Dialogue: 0,0:02:28.14,0:02:32.29,Default,,0000,0000,0000,,podem espalhar o que foi chamado\Nde "propaganda genocida", Dialogue: 0,0:02:32.31,0:02:35.42,Default,,0000,0000,0000,,por exemplo, contra\No povo rohingya na Birmânia, Dialogue: 0,0:02:35.45,0:02:37.75,Default,,0000,0000,0000,,provocando assassinatos em massa na Índia. Dialogue: 0,0:02:37.78,0:02:39.27,Default,,0000,0000,0000,,Estudamos notícias falsas Dialogue: 0,0:02:39.29,0:02:42.51,Default,,0000,0000,0000,,e começamos antes\Nde essa expressão ficar conhecida. Dialogue: 0,0:02:43.03,0:02:48.07,Default,,0000,0000,0000,,Recentemente, publicamos o estudo\Nmais extenso de todos os tempos Dialogue: 0,0:02:48.09,0:02:50.38,Default,,0000,0000,0000,,sobre a disseminação\Nde notícias falsas on-line Dialogue: 0,0:02:50.40,0:02:53.61,Default,,0000,0000,0000,,na capa da "Science" de março deste ano. Dialogue: 0,0:02:54.52,0:02:58.68,Default,,0000,0000,0000,,Estudamos todas as notícias falsas\Ne verdadeiras verificadas Dialogue: 0,0:02:58.71,0:03:00.46,Default,,0000,0000,0000,,já divulgadas no Twitter, Dialogue: 0,0:03:00.48,0:03:04.30,Default,,0000,0000,0000,,desde o início em 2006 até 2017. Dialogue: 0,0:03:04.61,0:03:06.93,Default,,0000,0000,0000,,Quando estudamos essas notícias, Dialogue: 0,0:03:06.95,0:03:09.83,Default,,0000,0000,0000,,estudamos notícias verificadas Dialogue: 0,0:03:09.85,0:03:13.77,Default,,0000,0000,0000,,por seis organizações independentes\Nde verificação de fatos. Dialogue: 0,0:03:13.79,0:03:16.55,Default,,0000,0000,0000,,Sabíamos quais histórias eram verdadeiras Dialogue: 0,0:03:16.58,0:03:18.70,Default,,0000,0000,0000,,e quais eram falsas. Dialogue: 0,0:03:18.73,0:03:20.60,Default,,0000,0000,0000,,Conseguimos medir a disseminação delas, Dialogue: 0,0:03:20.62,0:03:22.28,Default,,0000,0000,0000,,a velocidade de disseminação, Dialogue: 0,0:03:22.30,0:03:24.40,Default,,0000,0000,0000,,a profundidade e a amplitude\Nde disseminação, Dialogue: 0,0:03:24.42,0:03:28.56,Default,,0000,0000,0000,,quantas pessoas se envolvem nessa cascata\Nde notícias e assim por diante. Dialogue: 0,0:03:28.94,0:03:30.43,Default,,0000,0000,0000,,Nesse artigo, Dialogue: 0,0:03:30.45,0:03:34.32,Default,,0000,0000,0000,,comparamos a disseminação de notícias\Nverdadeiras com a de notícias falsas. Dialogue: 0,0:03:34.34,0:03:36.02,Default,,0000,0000,0000,,Eis o que descobrimos: Dialogue: 0,0:03:36.05,0:03:40.02,Default,,0000,0000,0000,,notícias falsas se espalham mais,\Nmais rápido, mais profundamente Dialogue: 0,0:03:40.05,0:03:41.86,Default,,0000,0000,0000,,e mais amplamente do que a verdade Dialogue: 0,0:03:41.88,0:03:44.88,Default,,0000,0000,0000,,em todas as categorias\Nde notícias que estudamos, Dialogue: 0,0:03:44.91,0:03:47.52,Default,,0000,0000,0000,,às vezes por ordem de grandeza. Dialogue: 0,0:03:47.84,0:03:51.37,Default,,0000,0000,0000,,De fato, notícias políticas falsas\Nviralizaram mais. Dialogue: 0,0:03:51.39,0:03:54.54,Default,,0000,0000,0000,,Espalharam-se mais, mais rápido,\Nmais profundamente e amplamente Dialogue: 0,0:03:54.56,0:03:57.36,Default,,0000,0000,0000,,do que qualquer outro tipo\Nde notícia falsa. Dialogue: 0,0:03:57.39,0:03:58.68,Default,,0000,0000,0000,,Quando vimos isso, Dialogue: 0,0:03:58.70,0:04:01.54,Default,,0000,0000,0000,,ficamos imediatamente preocupados,\Nmas também curiosos. Dialogue: 0,0:04:01.57,0:04:02.57,Default,,0000,0000,0000,,Por quê? Dialogue: 0,0:04:02.59,0:04:06.22,Default,,0000,0000,0000,,Por que notícias falsas viajam muito mais,\Nmais rápido, mais profundamente Dialogue: 0,0:04:06.24,0:04:08.00,Default,,0000,0000,0000,,e mais amplamente do que a verdade? Dialogue: 0,0:04:08.34,0:04:11.30,Default,,0000,0000,0000,,A primeira hipótese que sugerimos foi: Dialogue: 0,0:04:11.32,0:04:16.12,Default,,0000,0000,0000,,"Talvez quem espalha notícias falsas\Ntenha mais seguidores, siga mais pessoas, Dialogue: 0,0:04:16.14,0:04:17.70,Default,,0000,0000,0000,,publique com mais frequência, Dialogue: 0,0:04:17.72,0:04:21.85,Default,,0000,0000,0000,,ou talvez seja usuário 'verificado'\Ndo Twitter, com mais credibilidade, Dialogue: 0,0:04:21.87,0:04:24.05,Default,,0000,0000,0000,,ou talvez esteja no Twitter\Nhá mais tempo". Dialogue: 0,0:04:24.08,0:04:26.66,Default,,0000,0000,0000,,Verificamos cada uma dessas opções Dialogue: 0,0:04:26.69,0:04:29.61,Default,,0000,0000,0000,,e descobrimos exatamente o oposto. Dialogue: 0,0:04:29.64,0:04:32.07,Default,,0000,0000,0000,,Quem espalha notícias falsas\Ntinha menos seguidores, Dialogue: 0,0:04:32.10,0:04:34.35,Default,,0000,0000,0000,,seguia menos pessoas, era menos ativo, Dialogue: 0,0:04:34.37,0:04:35.83,Default,,0000,0000,0000,,menos "verificado" Dialogue: 0,0:04:35.86,0:04:38.82,Default,,0000,0000,0000,,e estava no Twitter há menos tempo. Dialogue: 0,0:04:38.84,0:04:39.84,Default,,0000,0000,0000,,No entanto, Dialogue: 0,0:04:39.86,0:04:45.09,Default,,0000,0000,0000,,notícias falsas tinham 70% mais chances\Nde serem repassadas do que a verdade, Dialogue: 0,0:04:45.11,0:04:48.47,Default,,0000,0000,0000,,sendo controladas por todos esses\Ne muitos outros fatores. Dialogue: 0,0:04:48.50,0:04:51.19,Default,,0000,0000,0000,,Tivemos que propor outras explicações. Dialogue: 0,0:04:51.21,0:04:54.73,Default,,0000,0000,0000,,Criamos o que chamamos\Nde "hipótese da novidade". Dialogue: 0,0:04:55.04,0:04:56.100,Default,,0000,0000,0000,,Se você lê a literatura, Dialogue: 0,0:04:57.02,0:05:00.78,Default,,0000,0000,0000,,sabe que a atenção humana\Né atraída por novidades, Dialogue: 0,0:05:00.80,0:05:03.32,Default,,0000,0000,0000,,coisas novas no ambiente. Dialogue: 0,0:05:03.34,0:05:05.33,Default,,0000,0000,0000,,Se você lê a literatura sobre sociologia, Dialogue: 0,0:05:05.35,0:05:09.65,Default,,0000,0000,0000,,sabe que gostamos de compartilhar\Nnovas informações. Dialogue: 0,0:05:09.68,0:05:13.51,Default,,0000,0000,0000,,Isso nos faz parecer que temos acesso\Na informações privilegiadas Dialogue: 0,0:05:13.54,0:05:17.55,Default,,0000,0000,0000,,e ganhamos status ao espalhar\Nesse tipo de informação. Dialogue: 0,0:05:17.79,0:05:24.24,Default,,0000,0000,0000,,Medimos a novidade de uma publicação\Nverdadeira ou falsa que chega no Twitter Dialogue: 0,0:05:24.27,0:05:28.32,Default,,0000,0000,0000,,e comparamos às publicações\Nque aquele indivíduo havia visto Dialogue: 0,0:05:28.35,0:05:31.30,Default,,0000,0000,0000,,nos 60 dias anteriores no Twitter. Dialogue: 0,0:05:31.32,0:05:33.98,Default,,0000,0000,0000,,Mas isso não foi suficiente,\Nporque pensamos: Dialogue: 0,0:05:34.01,0:05:38.21,Default,,0000,0000,0000,,"Talvez notícias falsas sejam mais novas\Nem um sentido teórico da informação, Dialogue: 0,0:05:38.24,0:05:41.50,Default,,0000,0000,0000,,mas talvez as pessoas\Nnão as percebam como mais novas". Dialogue: 0,0:05:41.85,0:05:45.78,Default,,0000,0000,0000,,Para entender a percepção das pessoas\Nsobre notícias falsas, Dialogue: 0,0:05:45.80,0:05:49.49,Default,,0000,0000,0000,,analisamos a informação e o sentimento Dialogue: 0,0:05:49.51,0:05:54.00,Default,,0000,0000,0000,,contidos nas respostas a publicações\Nverdadeiras e falsas no Twitter. Dialogue: 0,0:05:54.02,0:05:59.47,Default,,0000,0000,0000,,Descobrimos que, em várias\Nmedidas diferentes de sentimento - Dialogue: 0,0:05:59.49,0:06:02.79,Default,,0000,0000,0000,,surpresa, repulsa, medo, tristeza, Dialogue: 0,0:06:02.82,0:06:05.30,Default,,0000,0000,0000,,expectativa, alegria e confiança - Dialogue: 0,0:06:05.32,0:06:11.18,Default,,0000,0000,0000,,notícias falsas demonstravam\Nsignificativamente mais surpresa e repulsa Dialogue: 0,0:06:11.20,0:06:14.37,Default,,0000,0000,0000,,nas respostas a publicações falsas. Dialogue: 0,0:06:14.39,0:06:18.18,Default,,0000,0000,0000,,E notícias verdadeiras demonstravam\Nsignificativamente mais expectativa, Dialogue: 0,0:06:18.20,0:06:19.75,Default,,0000,0000,0000,,alegria e confiança Dialogue: 0,0:06:19.78,0:06:22.32,Default,,0000,0000,0000,,em resposta a publicações verdadeiras. Dialogue: 0,0:06:22.35,0:06:26.13,Default,,0000,0000,0000,,A surpresa confirma\Nnossa hipótese de novidade. Dialogue: 0,0:06:26.16,0:06:30.58,Default,,0000,0000,0000,,Isso é novo e surpreendente e, portanto,\Ntemos mais chances de compartilhar. Dialogue: 0,0:06:31.09,0:06:34.02,Default,,0000,0000,0000,,Ao mesmo tempo,\Nhouve testemunhos do congresso Dialogue: 0,0:06:34.04,0:06:37.08,Default,,0000,0000,0000,,em frente às duas casas do Congresso\Nnos Estados Unidos, Dialogue: 0,0:06:37.10,0:06:40.84,Default,,0000,0000,0000,,que analisaram o papel de robôs\Nna disseminação de notícias falsas. Dialogue: 0,0:06:40.86,0:06:42.22,Default,,0000,0000,0000,,Também analisamos isso. Dialogue: 0,0:06:42.24,0:06:45.84,Default,,0000,0000,0000,,Usamos vários algoritmos sofisticados\Nde detecção de robôs Dialogue: 0,0:06:45.86,0:06:49.33,Default,,0000,0000,0000,,para encontrar os robôs\Nem nossos dados e retirá-los. Dialogue: 0,0:06:49.35,0:06:52.01,Default,,0000,0000,0000,,Nós os retiramos, os colocamos de volta Dialogue: 0,0:06:52.03,0:06:55.15,Default,,0000,0000,0000,,e comparamos o que acontece\Ncom nossa medição. Dialogue: 0,0:06:55.17,0:06:57.47,Default,,0000,0000,0000,,Descobrimos que, de fato, Dialogue: 0,0:06:57.49,0:07:01.17,Default,,0000,0000,0000,,robôs aceleravam a disseminação\Nde notícias falsas na internet, Dialogue: 0,0:07:01.20,0:07:03.85,Default,,0000,0000,0000,,mas aceleravam a disseminação\Nde notícias verdadeiras Dialogue: 0,0:07:03.87,0:07:06.28,Default,,0000,0000,0000,,aproximadamente na mesma velocidade, Dialogue: 0,0:07:06.30,0:07:09.16,Default,,0000,0000,0000,,o que significa que os robôs\Nnão são responsáveis Dialogue: 0,0:07:09.18,0:07:13.90,Default,,0000,0000,0000,,pela disseminação diferenciada\Nda verdade e da falsidade na internet. Dialogue: 0,0:07:13.92,0:07:16.77,Default,,0000,0000,0000,,Não podemos abdicar\Ndessa responsabilidade, Dialogue: 0,0:07:16.79,0:07:21.05,Default,,0000,0000,0000,,porque nós, seres humanos, somos\Nresponsáveis por essa disseminação. Dialogue: 0,0:07:22.47,0:07:25.81,Default,,0000,0000,0000,,Tudo o que falei até agora, Dialogue: 0,0:07:25.83,0:07:27.58,Default,,0000,0000,0000,,infelizmente para todos nós, Dialogue: 0,0:07:27.61,0:07:29.02,Default,,0000,0000,0000,,são as boas notícias. Dialogue: 0,0:07:30.67,0:07:35.10,Default,,0000,0000,0000,,O motivo é que está prestes\Na ficar muito pior. Dialogue: 0,0:07:35.85,0:07:39.59,Default,,0000,0000,0000,,Duas tecnologias específicas\Nvão piorar as coisas. Dialogue: 0,0:07:40.21,0:07:45.38,Default,,0000,0000,0000,,Veremos o aumento de uma onda\Nenorme de mídia sintética, Dialogue: 0,0:07:45.40,0:07:51.43,Default,,0000,0000,0000,,vídeos e áudios falsos\Nmuito convincentes para o olho humano. Dialogue: 0,0:07:51.46,0:07:54.21,Default,,0000,0000,0000,,Isso será alimentado por duas tecnologias. Dialogue: 0,0:07:54.24,0:07:58.07,Default,,0000,0000,0000,,A primeira delas é conhecida\Ncomo "redes adversárias generativas". Dialogue: 0,0:07:58.09,0:08:00.66,Default,,0000,0000,0000,,É um modelo de aprendizado\Nde máquina com duas redes: Dialogue: 0,0:08:00.68,0:08:02.23,Default,,0000,0000,0000,,um discriminador, Dialogue: 0,0:08:02.25,0:08:06.45,Default,,0000,0000,0000,,cuja tarefa é determinar\Nse algo é verdadeiro ou falso, Dialogue: 0,0:08:06.48,0:08:07.64,Default,,0000,0000,0000,,e um gerador, Dialogue: 0,0:08:07.67,0:08:10.82,Default,,0000,0000,0000,,cuja tarefa é gerar mídia sintética. Dialogue: 0,0:08:10.84,0:08:15.94,Default,,0000,0000,0000,,O gerador sintético\Ngera vídeo ou áudio sintéticos, Dialogue: 0,0:08:15.97,0:08:20.64,Default,,0000,0000,0000,,e o discriminador tenta dizer:\N"Isso é real ou falso?" Dialogue: 0,0:08:20.66,0:08:23.54,Default,,0000,0000,0000,,De fato, é a tarefa do gerador Dialogue: 0,0:08:23.56,0:08:27.100,Default,,0000,0000,0000,,maximizar a probabilidade\Nde enganar o discriminador Dialogue: 0,0:08:28.02,0:08:31.61,Default,,0000,0000,0000,,para ele achar que o vídeo\Ne o áudio sintéticos que está criando Dialogue: 0,0:08:31.63,0:08:33.36,Default,,0000,0000,0000,,são realmente verdadeiros. Dialogue: 0,0:08:33.39,0:08:35.76,Default,,0000,0000,0000,,Imaginem uma máquina em um superciclo, Dialogue: 0,0:08:35.78,0:08:38.72,Default,,0000,0000,0000,,tentando ficar cada vez melhor\Nem nos enganar. Dialogue: 0,0:08:39.11,0:08:41.61,Default,,0000,0000,0000,,Isso, combinado com a segunda tecnologia, Dialogue: 0,0:08:41.64,0:08:47.36,Default,,0000,0000,0000,,que é basicamente a democratização\Nda inteligência artificial às pessoas, Dialogue: 0,0:08:47.38,0:08:49.57,Default,,0000,0000,0000,,a capacidade de qualquer pessoa Dialogue: 0,0:08:49.60,0:08:53.63,Default,,0000,0000,0000,,sem formação em inteligência artificial\Nou aprendizado de máquina Dialogue: 0,0:08:53.66,0:08:57.76,Default,,0000,0000,0000,,implantar esses tipos de algoritmos\Npara gerar mídia sintética, Dialogue: 0,0:08:57.78,0:09:02.33,Default,,0000,0000,0000,,torna, no final,\Nmuito mais fácil criar vídeos. Dialogue: 0,0:09:02.36,0:09:06.78,Default,,0000,0000,0000,,A Casa Branca divulgou\Num vídeo falso adulterado Dialogue: 0,0:09:06.80,0:09:09.22,Default,,0000,0000,0000,,de um jornalista\Ninteragindo com uma estagiária Dialogue: 0,0:09:09.24,0:09:11.07,Default,,0000,0000,0000,,que tentava pegar seu microfone. Dialogue: 0,0:09:11.43,0:09:13.43,Default,,0000,0000,0000,,Eles removeram quadros desse vídeo Dialogue: 0,0:09:13.45,0:09:17.13,Default,,0000,0000,0000,,para fazer com que suas ações\Nparecessem mais agressivas. Dialogue: 0,0:09:17.16,0:09:20.54,Default,,0000,0000,0000,,Quando cinegrafistas, dublês e mulheres Dialogue: 0,0:09:20.57,0:09:22.99,Default,,0000,0000,0000,,foram entrevistados\Nsobre esse tipo de técnica, Dialogue: 0,0:09:23.02,0:09:26.84,Default,,0000,0000,0000,,eles disseram: "Sim, usamos isso\Nnos filmes o tempo todo Dialogue: 0,0:09:26.87,0:09:31.82,Default,,0000,0000,0000,,para fazer com que nossos socos e chutes\Npareçam mais duros e agressivos". Dialogue: 0,0:09:32.27,0:09:34.14,Default,,0000,0000,0000,,Esse vídeo foi publicado Dialogue: 0,0:09:34.16,0:09:36.66,Default,,0000,0000,0000,,e parcialmente usado como justificativa Dialogue: 0,0:09:36.68,0:09:40.68,Default,,0000,0000,0000,,para cancelar o passe de imprensa\Ndo repórter Jim Acosta Dialogue: 0,0:09:40.71,0:09:42.04,Default,,0000,0000,0000,,para a Casa Branca. Dialogue: 0,0:09:42.07,0:09:47.03,Default,,0000,0000,0000,,E a CNN teve que processar\Npara reaver esse passe. Dialogue: 0,0:09:48.54,0:09:54.14,Default,,0000,0000,0000,,Posso pensar em cerca de cinco caminhos\Ndiferentes que podemos seguir Dialogue: 0,0:09:54.16,0:09:58.08,Default,,0000,0000,0000,,para tentar resolver alguns\Ndesses problemas muito difíceis hoje. Dialogue: 0,0:09:58.38,0:10:00.19,Default,,0000,0000,0000,,Cada um deles tem promessas, Dialogue: 0,0:10:00.21,0:10:03.21,Default,,0000,0000,0000,,mas também seus próprios desafios. Dialogue: 0,0:10:03.24,0:10:05.24,Default,,0000,0000,0000,,O primeiro são os rótulos. Dialogue: 0,0:10:05.27,0:10:06.62,Default,,0000,0000,0000,,Pensem da seguinte maneira: Dialogue: 0,0:10:06.65,0:10:10.26,Default,,0000,0000,0000,,quando vamos ao supermercado\Ncomprar alimentos para consumo, Dialogue: 0,0:10:10.28,0:10:12.19,Default,,0000,0000,0000,,eles estão amplamente rotulados. Dialogue: 0,0:10:12.21,0:10:14.20,Default,,0000,0000,0000,,Sabemos quantas calorias têm, Dialogue: 0,0:10:14.23,0:10:16.03,Default,,0000,0000,0000,,quanta gordura contêm. Dialogue: 0,0:10:16.05,0:10:20.33,Default,,0000,0000,0000,,Porém, quando consumimos notícias,\Nnão temos rótulo algum. Dialogue: 0,0:10:20.36,0:10:22.28,Default,,0000,0000,0000,,O que está contido nessas notícias? Dialogue: 0,0:10:22.31,0:10:23.76,Default,,0000,0000,0000,,A fonte é confiável? Dialogue: 0,0:10:23.78,0:10:26.10,Default,,0000,0000,0000,,De onde veio a notícia? Dialogue: 0,0:10:26.12,0:10:27.95,Default,,0000,0000,0000,,Não temos nenhum desses dados Dialogue: 0,0:10:27.97,0:10:30.08,Default,,0000,0000,0000,,quando consumimos notícias. Dialogue: 0,0:10:30.10,0:10:33.34,Default,,0000,0000,0000,,Essa é uma abordagem possível,\Nmas vem com seus desafios. Dialogue: 0,0:10:33.36,0:10:39.81,Default,,0000,0000,0000,,Por exemplo, quem decide, na sociedade,\No que é verdade e o que é falso? Dialogue: 0,0:10:40.39,0:10:42.03,Default,,0000,0000,0000,,São os governos? Dialogue: 0,0:10:42.05,0:10:43.36,Default,,0000,0000,0000,,É o Facebook? Dialogue: 0,0:10:43.60,0:10:47.36,Default,,0000,0000,0000,,É um consórcio independente\Nde verificadores de fatos? Dialogue: 0,0:10:47.39,0:10:50.00,Default,,0000,0000,0000,,E quem verifica os verificadores de fatos? Dialogue: 0,0:10:50.43,0:10:53.51,Default,,0000,0000,0000,,Outra abordagem possível são incentivos. Dialogue: 0,0:10:53.54,0:10:56.17,Default,,0000,0000,0000,,Sabemos que, durante a eleição\Npresidencial dos EUA, Dialogue: 0,0:10:56.19,0:10:59.88,Default,,0000,0000,0000,,houve uma onda de notícias falsas\Nvinda da Macedônia Dialogue: 0,0:10:59.91,0:11:02.24,Default,,0000,0000,0000,,que não tinha nenhum motivo político, Dialogue: 0,0:11:02.27,0:11:04.73,Default,,0000,0000,0000,,mas sim um motivo econômico. Dialogue: 0,0:11:04.75,0:11:06.90,Default,,0000,0000,0000,,E esse motivo econômico existia Dialogue: 0,0:11:06.92,0:11:10.45,Default,,0000,0000,0000,,porque notícias falsas\Nviajam muito mais longe, mais rápido Dialogue: 0,0:11:10.47,0:11:12.48,Default,,0000,0000,0000,,e mais profundamente do que a verdade, Dialogue: 0,0:11:12.51,0:11:17.47,Default,,0000,0000,0000,,e pode-se ganhar dólares em publicidade\Nenquanto se acumula usuários e atenção Dialogue: 0,0:11:17.49,0:11:19.45,Default,,0000,0000,0000,,com esse tipo de notícia. Dialogue: 0,0:11:19.47,0:11:23.31,Default,,0000,0000,0000,,Mas, se pudermos diminuir\Na disseminação dessas notícias, Dialogue: 0,0:11:23.33,0:11:26.23,Default,,0000,0000,0000,,talvez isso reduza o incentivo econômico Dialogue: 0,0:11:26.25,0:11:28.94,Default,,0000,0000,0000,,para produzi-las de qualquer modo,\Nem primeiro lugar. Dialogue: 0,0:11:28.97,0:11:31.47,Default,,0000,0000,0000,,Terceiro, podemos pensar em regulamentação Dialogue: 0,0:11:31.49,0:11:33.82,Default,,0000,0000,0000,,e, certamente, devemos pensar nessa opção. Dialogue: 0,0:11:33.84,0:11:35.45,Default,,0000,0000,0000,,Nos Estados Unidos, atualmente, Dialogue: 0,0:11:35.47,0:11:40.32,Default,,0000,0000,0000,,estamos explorando o que pode acontecer\Nse Facebook e outros forem regulamentados. Dialogue: 0,0:11:40.35,0:11:44.15,Default,,0000,0000,0000,,Embora devamos considerar coisas\Ncomo controlar o discurso político, Dialogue: 0,0:11:44.17,0:11:46.68,Default,,0000,0000,0000,,rotular o fato de ser discurso político, Dialogue: 0,0:11:46.70,0:11:50.52,Default,,0000,0000,0000,,garantir que participantes estrangeiros\Nnão possam financiar discursos políticos, Dialogue: 0,0:11:50.55,0:11:53.09,Default,,0000,0000,0000,,isso também tem seus próprios perigos. Dialogue: 0,0:11:53.52,0:11:58.40,Default,,0000,0000,0000,,Por exemplo, a Malásia acabou de instituir\Numa sentença de seis anos de prisão Dialogue: 0,0:11:58.42,0:12:01.16,Default,,0000,0000,0000,,para quem for encontrado\Nespalhando notícias falsas. Dialogue: 0,0:12:01.70,0:12:03.78,Default,,0000,0000,0000,,Em regimes autoritários, Dialogue: 0,0:12:03.80,0:12:08.46,Default,,0000,0000,0000,,esses tipos de políticas podem ser usados\Npara reprimir opiniões de minorias Dialogue: 0,0:12:08.49,0:12:11.100,Default,,0000,0000,0000,,e continuar a aumentar a repressão. Dialogue: 0,0:12:12.68,0:12:16.36,Default,,0000,0000,0000,,A quarta opção possível é a transparência. Dialogue: 0,0:12:16.84,0:12:20.56,Default,,0000,0000,0000,,Queremos saber como funcionam\Nos algoritmos do Facebook, Dialogue: 0,0:12:20.58,0:12:23.46,Default,,0000,0000,0000,,como os dados se combinam\Ncom os algoritmos Dialogue: 0,0:12:23.48,0:12:26.32,Default,,0000,0000,0000,,para produzir os resultados que vemos. Dialogue: 0,0:12:26.35,0:12:28.70,Default,,0000,0000,0000,,Queremos que abram o jogo Dialogue: 0,0:12:28.72,0:12:32.93,Default,,0000,0000,0000,,e nos mostrem exatamente\No funcionamento interno do Facebook. Dialogue: 0,0:12:32.96,0:12:35.74,Default,,0000,0000,0000,,Se queremos saber o efeito\Ndas mídias sociais na sociedade, Dialogue: 0,0:12:35.76,0:12:37.85,Default,,0000,0000,0000,,precisamos que cientistas, pesquisadores Dialogue: 0,0:12:37.87,0:12:41.01,Default,,0000,0000,0000,,e outros tenham acesso\Na esse tipo de informação. Dialogue: 0,0:12:41.04,0:12:42.58,Default,,0000,0000,0000,,Mas, ao mesmo tempo, Dialogue: 0,0:12:42.61,0:12:46.41,Default,,0000,0000,0000,,pedimos para o Facebook bloquear tudo, Dialogue: 0,0:12:46.43,0:12:48.61,Default,,0000,0000,0000,,para manter todos os dados seguros. Dialogue: 0,0:12:48.63,0:12:51.79,Default,,0000,0000,0000,,O Facebook e as outras\Nplataformas de mídia social Dialogue: 0,0:12:51.81,0:12:55.24,Default,,0000,0000,0000,,estão enfrentando o que chamo\Nde paradoxo da transparência. Dialogue: 0,0:12:55.27,0:12:57.94,Default,,0000,0000,0000,,Pedimos que, ao mesmo tempo, Dialogue: 0,0:12:57.96,0:13:02.77,Default,,0000,0000,0000,,sejam abertos, transparentes e seguros. Dialogue: 0,0:13:02.80,0:13:05.49,Default,,0000,0000,0000,,É muito difícil tratar desse assunto, Dialogue: 0,0:13:05.51,0:13:07.42,Default,,0000,0000,0000,,mas eles precisarão fazer isso Dialogue: 0,0:13:07.45,0:13:11.24,Default,,0000,0000,0000,,se quisermos cumprir a promessa\Ndas tecnologias sociais Dialogue: 0,0:13:11.26,0:13:12.90,Default,,0000,0000,0000,,enquanto evitamos seus perigos. Dialogue: 0,0:13:12.93,0:13:17.62,Default,,0000,0000,0000,,A última coisa que poderíamos pensar\Né em algoritmos e aprendizado de máquina. Dialogue: 0,0:13:17.64,0:13:21.90,Default,,0000,0000,0000,,A tecnologia foi criada para erradicar\Ne entender as notícias falsas, Dialogue: 0,0:13:21.92,0:13:22.92,Default,,0000,0000,0000,,como elas se espalham Dialogue: 0,0:13:22.94,0:13:25.44,Default,,0000,0000,0000,,e para tentar diminuir seu fluxo. Dialogue: 0,0:13:25.72,0:13:28.72,Default,,0000,0000,0000,,Os seres humanos tem que estar\Ninformados sobre essa tecnologia, Dialogue: 0,0:13:28.74,0:13:31.02,Default,,0000,0000,0000,,porque nunca podemos escapar do fato Dialogue: 0,0:13:31.05,0:13:35.08,Default,,0000,0000,0000,,de que, subjacente a qualquer solução\Nou abordagem tecnológica, Dialogue: 0,0:13:35.11,0:13:39.16,Default,,0000,0000,0000,,está uma questão ética\Ne filosófica fundamental Dialogue: 0,0:13:39.18,0:13:42.45,Default,,0000,0000,0000,,sobre como definimos verdade e falsidade, Dialogue: 0,0:13:42.47,0:13:45.65,Default,,0000,0000,0000,,a quem damos o poder\Nde definir verdade e falsidade Dialogue: 0,0:13:45.68,0:13:48.14,Default,,0000,0000,0000,,e quais opiniões são legítimas, Dialogue: 0,0:13:48.16,0:13:51.87,Default,,0000,0000,0000,,que tipo de discurso\Ndeve ser permitido e assim por diante. Dialogue: 0,0:13:51.89,0:13:54.22,Default,,0000,0000,0000,,A tecnologia não é uma solução para isso. Dialogue: 0,0:13:54.24,0:13:58.04,Default,,0000,0000,0000,,Ética e filosofia\Nsão uma solução para isso. Dialogue: 0,0:13:58.95,0:14:02.27,Default,,0000,0000,0000,,Quase toda teoria\Nde tomada de decisão humana, Dialogue: 0,0:14:02.29,0:14:05.05,Default,,0000,0000,0000,,cooperação e coordenação humanas Dialogue: 0,0:14:05.08,0:14:08.65,Default,,0000,0000,0000,,tem algum sentido da verdade em seu cerne. Dialogue: 0,0:14:09.35,0:14:11.40,Default,,0000,0000,0000,,Mas, com o aumento de notícias falsas, Dialogue: 0,0:14:11.43,0:14:12.87,Default,,0000,0000,0000,,o aumento de vídeos falsos, Dialogue: 0,0:14:12.89,0:14:14.78,Default,,0000,0000,0000,,o aumento de áudios falsos, Dialogue: 0,0:14:14.80,0:14:18.72,Default,,0000,0000,0000,,balançamos à beira do fim da realidade, Dialogue: 0,0:14:18.75,0:14:22.64,Default,,0000,0000,0000,,quando não podemos distinguir\No que é real do que é falso. Dialogue: 0,0:14:22.66,0:14:25.70,Default,,0000,0000,0000,,Isso é potencial e incrivelmente perigoso. Dialogue: 0,0:14:26.93,0:14:30.88,Default,,0000,0000,0000,,Temos que ficar alertas\Nna defesa da verdade Dialogue: 0,0:14:30.90,0:14:32.62,Default,,0000,0000,0000,,contra as notícias falsas. Dialogue: 0,0:14:32.92,0:14:36.36,Default,,0000,0000,0000,,Com nossas tecnologias, nossas políticas Dialogue: 0,0:14:36.38,0:14:38.30,Default,,0000,0000,0000,,e, talvez o mais importante, Dialogue: 0,0:14:38.32,0:14:41.54,Default,,0000,0000,0000,,com nossas próprias responsabilidades, Dialogue: 0,0:14:41.56,0:14:45.26,Default,,0000,0000,0000,,decisões, comportamentos\Ne ações individuais. Dialogue: 0,0:14:45.55,0:14:46.99,Default,,0000,0000,0000,,Muito obrigado. Dialogue: 0,0:14:47.01,0:14:49.01,Default,,0000,0000,0000,,(Aplausos)