Return to Video

Dentro do mundo bizarro dos trols e propagandistas da internet

  • 0:01 - 0:02
    Eu passei os últimos três anos
  • 0:02 - 0:05
    conversando com algumas
    das piores pessoas na internet.
  • 0:06 - 0:09
    Se você esteve on-line recentemente,
  • 0:09 - 0:12
    deve ter notado que há
    uma pilha de lixo tóxico por aí:
  • 0:12 - 0:17
    memes racistas, propaganda misógina,
    informações falsas que viralizam.
  • 0:17 - 0:19
    Eu queria saber quem fazia isso.
  • 0:19 - 0:22
    Eu queria entender como isso se espalhava.
  • 0:22 - 0:26
    Por fim, eu queria saber que tipo
    de impacto isso causa na nossa sociedade.
  • 0:26 - 0:30
    Em 2016, comecei a rastrear alguns
    desses memes até suas fontes originais,
  • 0:30 - 0:33
    até as pessoas que os criavam
    ou os faziam viralizar.
  • 0:33 - 0:34
    Eu dizia a elas:
  • 0:34 - 0:37
    "Sou um jornalista,
    posso ir ver o que você faz?".
  • 0:37 - 0:39
    Na maioria das vezes a resposta era:
  • 0:39 - 0:42
    "Por que diabos eu falaria
    com um viadinho,
  • 0:42 - 0:46
    judeu chifrudo globalista do Brooklyn
    que conspira com o Partido Democrático?".
  • 0:46 - 0:47
    (Risos)
  • 0:47 - 0:51
    A minha resposta era: "Cara,
    isso é apenas 57% verdade".
  • 0:51 - 0:52
    (Risos)
  • 0:53 - 0:54
    Mas também me respondiam:
  • 0:54 - 0:56
    "Tudo bem, pode vir".
  • 0:57 - 0:58
    Foi assim que fui parar na sala
  • 0:58 - 1:02
    de um propagandista de mídias sociais
    no sul da Califórnia.
  • 1:02 - 1:05
    Ele era um cara branco,
    casado, na casa dos 30.
  • 1:05 - 1:08
    Ele tinha uma mesa
    com uma caneca com café,
  • 1:08 - 1:10
    um notebook para tuitar,
  • 1:10 - 1:11
    um celular para mandar mensagens
  • 1:11 - 1:15
    e um iPad para fazer transmissões
    ao vivo no Periscope e no YouTube.
  • 1:15 - 1:16
    Era só isso.
  • 1:17 - 1:18
    E ainda assim,
  • 1:18 - 1:22
    ele era capaz de estimular
    assuntos periféricos e tóxicos
  • 1:22 - 1:24
    no coração da conversa norte-americana.
  • 1:25 - 1:27
    Certo dia em que eu estava lá,
  • 1:27 - 1:30
    uma bomba explodiu em Nova York,
  • 1:30 - 1:34
    e o cara acusado de plantar a bomba
    tinha um nome que soava muçulmano.
  • 1:34 - 1:38
    Para o propagandista na Califórnia,
    isso soou como uma oportunidade,
  • 1:38 - 1:42
    porque ele queria que os Estados Unidos
    acabassem com quase toda imigração,
  • 1:42 - 1:45
    especialmente de países
    de maioria muçulmana.
  • 1:45 - 1:47
    Então, ele começou
    uma transmissão ao vivo,
  • 1:47 - 1:50
    fazendo seus seguidores
    falarem alboroçados
  • 1:50 - 1:53
    sobre como a política de portas abertas
    mataria todo mundo,
  • 1:53 - 1:54
    pedindo que tuitassem sobre isso
  • 1:54 - 1:58
    com hashtags específicas para entrarem
    nos assuntos mais comentados.
  • 1:58 - 1:59
    E eles tuitavam;
  • 1:59 - 2:01
    centenas e centenas de tuítes,
  • 2:01 - 2:03
    muitos tinham imagens como esta aqui.
  • 2:03 - 2:04
    Esse é George Soros.
  • 2:04 - 2:08
    Ele é um bilionário e filantropo húngaro,
  • 2:08 - 2:10
    e na mente de alguns
    conspiradores on-line,
  • 2:10 - 2:13
    George Soros é um bicho-papão globalista,
  • 2:13 - 2:17
    alguém da pequena elite que está
    secretamente manipulando o mundo.
  • 2:17 - 2:21
    Vamos fazer uma pequena pausa:
    se essa ideia lhe soa familiar,
  • 2:21 - 2:23
    que existe uma pequena elite
    controlando o mundo
  • 2:23 - 2:26
    e muitos deles são judeus ricos,
  • 2:26 - 2:29
    é porque essa é uma das mensagens
    mais antissemitas que existe.
  • 2:30 - 2:34
    Eu também deveria mencionar que o cara
    em Nova York que plantou a bomba
  • 2:34 - 2:35
    era um cidadão norte-americano.
  • 2:36 - 2:38
    Seja lá o que estivesse acontecendo lá,
  • 2:38 - 2:40
    a imigração não era o problema central.
  • 2:41 - 2:44
    E o propagandista na Califórnia,
    ele entendia tudo isso.
  • 2:44 - 2:45
    Ele era instruído.
  • 2:45 - 2:47
    Era um advogado.
  • 2:47 - 2:48
    Ele conhecia os fatos subjacentes,
  • 2:48 - 2:52
    mas também sabia que fatos
    não iniciam conversas on-line.
  • 2:52 - 2:53
    O que inicia uma conversa on-line
  • 2:53 - 2:55
    é a emoção.
  • 2:55 - 2:59
    A premissa original das mídias sociais
    é que elas iriam nos unir
  • 2:59 - 3:02
    e fazer do mundo um lugar
    mais aberto, tolerante e justo.
  • 3:02 - 3:03
    Um pouco disso aconteceu.
  • 3:05 - 3:07
    Mas os algoritmos das mídias
    sociais não foram feitos
  • 3:07 - 3:10
    para diferenciar o verdadeiro do falso,
  • 3:10 - 3:14
    o que é bom ou mau para a sociedade,
    o que é pró-social e o que é antissocial.
  • 3:14 - 3:16
    Não é isso que os algoritmos fazem.
  • 3:16 - 3:19
    Muito do que eles fazem
    é medir o engajamento:
  • 3:19 - 3:22
    cliques, comentários, compartilhamentos,
    retuítes, esse tipo de coisas.
  • 3:22 - 3:25
    E se você quer que seu conteúdo
    crie engajamento,
  • 3:25 - 3:26
    ele precisa despertar emoção,
  • 3:26 - 3:30
    especificamente, o que os cientistas
    chamam de "alta excitação de emoção".
  • 3:30 - 3:33
    "Alta excitação" não é apenas sexual,
  • 3:33 - 3:36
    mas como é a internet,
    obviamente isso acontece.
  • 3:36 - 3:40
    Significa que qualquer coisa, positiva
    ou negativa, provoca um sentimento.
  • 3:40 - 3:42
    Então, eu me sentava com propagandistas,
  • 3:42 - 3:44
    não só com esse cara,
    mas com dezenas deles,
  • 3:44 - 3:48
    e eu observava como eles faziam isso,
    uma e outra vez, e com sucesso,
  • 3:48 - 3:51
    não porque eram hackers russos,
    não porque eram prodígios,
  • 3:51 - 3:54
    não porque tinham visões políticas únicas,
  • 3:54 - 3:56
    mas porque entendiam
    como as mídias sociais funcionam,
  • 3:56 - 3:58
    e exploravam isso a favor deles.
  • 3:58 - 4:01
    À primeira vista, pensei que isso
    era um fenômeno isolado,
  • 4:01 - 4:04
    algo relegado à internet.
  • 4:04 - 4:09
    Mas não existe mais separação
    entre a internet e qualquer outra coisa.
  • 4:09 - 4:11
    Esta é uma propaganda de televisão
  • 4:11 - 4:14
    durante as eleições do congresso em 2018,
  • 4:14 - 4:16
    alegando, quase sem provas,
    que um dos candidatos
  • 4:16 - 4:19
    estava sob o controle do manipulador
    internacional George Soros,
  • 4:19 - 4:23
    cuja foto foi editada
    com pilhas de dinheiro.
  • 4:23 - 4:26
    Este é um tuíte do presidente
    dos Estados Unidos,
  • 4:26 - 4:27
    alegando, também sem provas,
  • 4:27 - 4:31
    que a política norte-americana
    está sendo manipulada por George Soros.
  • 4:31 - 4:35
    Essas coisas que pareciam ser chocantes,
    marginais e até insignificantes,
  • 4:35 - 4:38
    estão agora tão normalizadas
    que quase nem notamos.
  • 4:38 - 4:40
    Eu passei cerca de três anos nesse mundo.
  • 4:40 - 4:42
    Conversei com várias pessoas.
  • 4:42 - 4:44
    Algumas pareciam não ter
    nenhuma crença básica.
  • 4:44 - 4:47
    Elas pareciam apenas estar
    apostando, racionalmente,
  • 4:47 - 4:50
    que, para ganhar dinheiro
    ou chamar a atenção on-line,
  • 4:50 - 4:53
    elas só precisavam ser
    as mais escandalosas possíveis.
  • 4:53 - 4:55
    Mas também conversei
    com verdadeiras ideologias.
  • 4:56 - 5:00
    E, para ser claro, a ideologia delas
    não era o conservadorismo tradicional.
  • 5:00 - 5:03
    Elas queriam acabar
    com o sufrágio feminino.
  • 5:03 - 5:06
    Elas queriam retornar à segregação racial.
  • 5:06 - 5:09
    Algumas queriam abolir a democracia.
  • 5:09 - 5:12
    Mas elas não nasceram acreditando nisso.
  • 5:12 - 5:15
    Elas não aprenderam isso na escola.
  • 5:15 - 5:17
    Antes de caírem no buraco
    sem fim da internet,
  • 5:17 - 5:20
    muitas delas eram
    libertárias ou socialistas,
  • 5:20 - 5:22
    ou qualquer outra coisa.
  • 5:22 - 5:24
    Então, o que está acontecendo?
  • 5:25 - 5:29
    Não posso generalizar todos os casos,
    mas muitas pessoas com quem conversei
  • 5:29 - 5:33
    pareciam ter uma combinação
    de alto QI com baixo QE.
  • 5:33 - 5:36
    Elas se consolavam em espaços
    anônimos e on-line
  • 5:36 - 5:38
    em vez de se conectarem com o mundo real.
  • 5:39 - 5:42
    Muitas vezes, elas se isolavam
    em fóruns ou em subreddits,
  • 5:42 - 5:45
    onde seus piores impulsos
    eram magnificados.
  • 5:45 - 5:48
    Elas podem começar com uma piada doentia,
  • 5:48 - 5:51
    e, então, ganham tanto reforço
    positivo por essa piada,
  • 5:51 - 5:54
    "acumulam pontuação", como elas dizem,
  • 5:54 - 5:57
    que começam a acreditar na própria piada.
  • 5:58 - 6:01
    Conversei bastante com uma jovem
    que cresceu em Nova Jersey
  • 6:01 - 6:03
    e depois do ensino médio
    foi morar em outro lugar
  • 6:03 - 6:06
    e, do nada, ela se sentiu
    alienada e rejeitada
  • 6:06 - 6:08
    e começou a se isolar com seu celular.
  • 6:09 - 6:10
    Ela encontrou espaços na internet
  • 6:10 - 6:14
    onde as pessoas postavam
    coisas chocantes e abomináveis.
  • 6:14 - 6:16
    Ela achou essas coisas bem desagradáveis,
  • 6:16 - 6:18
    mas meio que cativantes também,
  • 6:19 - 6:21
    meio que difíceis de ignorar.
  • 6:21 - 6:24
    Ela interagia com essas pessoas,
  • 6:24 - 6:26
    e elas a faziam se sentir
    esperta e a aprovavam.
  • 6:26 - 6:28
    Ela começou a ter
    uma sensação de comunidade,
  • 6:28 - 6:30
    começou a se perguntar
    se esses memes chocantes
  • 6:30 - 6:34
    poderiam conter um fundo de verdade.
  • 6:34 - 6:37
    Alguns meses depois, ela estava
    num carro com amigos virtuais
  • 6:37 - 6:39
    indo para Charlottesville, Virginia,
  • 6:39 - 6:42
    para marchar com tochas
    em nome da raça branca.
  • 6:43 - 6:45
    Em poucos meses, ela passou
    de defensora do Obama
  • 6:45 - 6:48
    para supremacista branca
    completamente radicalizada.
  • 6:49 - 6:51
    No seu caso em particular,
  • 6:51 - 6:56
    ela conseguiu sair do culto
    da supremacia branca.
  • 6:56 - 6:58
    Muitos com quem conversei, não saíram.
  • 6:59 - 7:00
    E para ser claro:
  • 7:00 - 7:03
    nunca me senti convencido
    de que precisava entrar em consenso
  • 7:03 - 7:05
    com cada pessoa que conversei
  • 7:05 - 7:06
    a ponto de dizer:
  • 7:06 - 7:10
    "Quer saber, cara, você é
    um propagandista fascista e eu não,
  • 7:10 - 7:13
    não importa, vamos nos abraçar
    e nossas diferenças vão desaparecer".
  • 7:13 - 7:15
    Não, absolutamente não.
  • 7:16 - 7:20
    Mas fiquei convencido
    que não podemos ignorar essas coisas.
  • 7:20 - 7:23
    Precisamos tentar entendê-las,
    porque apenas se a entendermos
  • 7:23 - 7:26
    podemos pensar em começar
    a nos vacinar contra isso.
  • 7:27 - 7:31
    Durante três anos nesse mundo,
    recebi algumas ligações desagradáveis,
  • 7:31 - 7:32
    até algumas ameaças,
  • 7:32 - 7:36
    mas isso não é nem uma fração
    do que acontece com jornalistas mulheres.
  • 7:37 - 7:38
    E sim, eu sou judeu,
  • 7:38 - 7:42
    apesar de que, muito estranho,
    muitos nazistas não diziam que eu era um,
  • 7:42 - 7:45
    o que, francamente, me deixou
    um pouco desapontado.
  • 7:45 - 7:47
    (Risos)
  • 7:47 - 7:51
    Sério, o seu trabalho é ser
    um antissemita profissional.
  • 7:51 - 7:54
    Não há nenhuma pista em mim?
  • 7:54 - 7:55
    Nenhuma?
  • 7:55 - 7:57
    (Risos)
  • 7:58 - 7:59
    Isso não é segredo.
  • 7:59 - 8:02
    Meu nome é Andrew Marantz,
    escrevo para o The New Yorker,
  • 8:02 - 8:04
    meu tipo de personalidade
    é um episódio de Seinfeld
  • 8:04 - 8:06
    gravado no Park Slope Food Coop.
  • 8:06 - 8:07
    Nenhuma?
  • 8:08 - 8:10
    (Risos)
  • 8:13 - 8:15
    De qualquer forma, enfim, seria legal
  • 8:15 - 8:17
    se existisse uma fórmula simples:
  • 8:17 - 8:21
    celular mais criança alienada
    igual 12% de chance de ser nazista.
  • 8:22 - 8:24
    Obviamente não é simples assim.
  • 8:24 - 8:25
    E, quando escrevo,
  • 8:25 - 8:29
    fico mais à vontade sendo
    descritivo do que prescritivo.
  • 8:29 - 8:32
    Mas estamos no TED,
  • 8:32 - 8:34
    então, vamos ser práticos.
  • 8:34 - 8:35
    Vou compartilhar algumas sugestões
  • 8:35 - 8:39
    de coisas que cidadãos
    da internet, como eu e você,
  • 8:39 - 8:42
    podem fazer para deixar
    as coisas menos tóxicas.
  • 8:43 - 8:45
    A primeira é: seja um cético inteligente.
  • 8:46 - 8:48
    Acho que existem dois tipos de ceticismo.
  • 8:48 - 8:52
    Não quero mergulhar vocês
    em informações técnicas epistemológicas,
  • 8:52 - 8:55
    mas eu os chamo de ceticismo
    inteligente e burro.
  • 8:56 - 8:59
    O ceticismo inteligente:
  • 8:59 - 9:00
    pensar por você mesmo,
  • 9:00 - 9:01
    questionar as afirmações,
  • 9:01 - 9:03
    exigir evidências,
  • 9:03 - 9:05
    maravilha, esse é
    o verdadeiro ceticismo.
  • 9:05 - 9:08
    Ceticismo burro: parece ceticismo,
  • 9:08 - 9:11
    mas, na verdade,
    é uma negação automática.
  • 9:12 - 9:15
    Todo mundo diz que a Terra
    é redonda, você diz que é plana.
  • 9:15 - 9:19
    Todo mundo diz que o racismo é ruim,
    você diz: "Sei lá, sou meio cético".
  • 9:20 - 9:25
    Já perdi a conta com quantos jovens
    brancos conversei que disseram:
  • 9:25 - 9:28
    "A mídia, meus professores,
    todos estão tentando me doutrinar
  • 9:28 - 9:30
    sobre o privilégio masculino e branco,
  • 9:30 - 9:33
    mas eu não tenho certeza,
    acho que não é assim".
  • 9:33 - 9:37
    Jovens brancos da negação automática,
  • 9:37 - 9:39
    vejam bem:
  • 9:39 - 9:42
    se você é cético quanto à Terra
    ser redonda, ao privilégio masculino
  • 9:42 - 9:45
    e ao racismo ser ruim,
  • 9:45 - 9:47
    você não é cético, você é um babaca.
  • 9:47 - 9:48
    (Risos)
  • 9:48 - 9:51
    (Aplausos)
  • 9:52 - 9:56
    É maravilhoso ter uma mente independente,
    todos deveriam ser assim,
  • 9:56 - 9:57
    mas seja inteligente.
  • 9:58 - 10:00
    O próximo é a liberdade de expressão.
  • 10:00 - 10:04
    Pessoas inteligentes e realizadas dirão:
    "Eu apoio a liberdade de expressão".
  • 10:04 - 10:07
    E dizem isso como se estivessem
    encerrando um debate,
  • 10:07 - 10:11
    quando, na verdade, esse é começo
    de qualquer conversa significativa.
  • 10:12 - 10:14
    Todas as coisas interessantes
    acontecem depois disso.
  • 10:14 - 10:16
    Você apoia isso, mas o que isso significa?
  • 10:16 - 10:18
    Significa que David Duke e Richard Spencer
  • 10:18 - 10:21
    precisam ter contas ativas no Twitter?
  • 10:21 - 10:24
    Significa que qualquer um
    pode assediar alguém on-line
  • 10:24 - 10:25
    por qualquer razão?
  • 10:25 - 10:28
    Olhei toda a lista deste ano
    dos palestrantes do TED.
  • 10:28 - 10:30
    Não encontrei nenhum
    cético da Terra redonda.
  • 10:30 - 10:33
    Isso é uma violação das normas
    da liberdade de expressão?
  • 10:33 - 10:35
    Todos nós apoiamos
    a liberdade de expressão,
  • 10:35 - 10:37
    isso é maravilhoso,
  • 10:37 - 10:39
    mas se você só sabe repetir isso,
  • 10:39 - 10:42
    você está ficando no caminho
    de uma conversa mais produtiva.
  • 10:44 - 10:47
    Fazer a decência ser
    legal de novo, então...
  • 10:47 - 10:48
    Maravilha!
  • 10:48 - 10:50
    (Aplausos)
  • 10:50 - 10:52
    Eu nem preciso explicar.
  • 10:52 - 10:56
    Então, na minha pesquisa, eu acessava
    o Reddit, o YouTube ou o Facebook,
  • 10:56 - 10:58
    e procurava por "Xaria"
  • 10:58 - 11:00
    ou procurava por "Holocausto",
  • 11:01 - 11:04
    e você pode adivinhar
    o que os algoritmos me mostravam, certo?
  • 11:04 - 11:07
    "Estaria a Xaria se espalhando
    pelos Estados Unidos?".
  • 11:07 - 11:09
    "O Holocausto realmente aconteceu?".
  • 11:10 - 11:12
    Ceticismo burro.
  • 11:13 - 11:15
    Chegamos a essa dinâmica on-line bizarra,
  • 11:15 - 11:17
    onde propagandas fanáticas são vistas
  • 11:17 - 11:20
    como algo ousado ou algo perigoso e legal,
  • 11:20 - 11:23
    e a verdade básica e a decência humana
    são vistas como algo chocante,
  • 11:23 - 11:26
    um sinal de virtude ou apenas entediante.
  • 11:26 - 11:30
    E os algoritmos das mídias sociais,
    intencionalmente ou não,
  • 11:30 - 11:32
    estão incentivando isso,
  • 11:32 - 11:35
    porque propagandas fanáticas
    são boas para engajamento.
  • 11:35 - 11:37
    Todo mundo clica, todo mundo comenta,
  • 11:37 - 11:39
    quer tenha amado ou odiado.
  • 11:39 - 11:42
    Então, a primeira coisa
    que precisa acontecer
  • 11:42 - 11:45
    é que as redes sociais precisam
    consertar suas plataformas.
  • 11:45 - 11:49
    (Aplausos)
  • 11:50 - 11:53
    Se você está me ouvindo e trabalha
    na empresa de uma mídia social,
  • 11:53 - 11:56
    ou investe em uma, ou é dono de uma,
  • 11:57 - 11:58
    essa dica é para você.
  • 11:58 - 12:02
    Caso você esteja otimizando
    para engajamento emocional máximo,
  • 12:02 - 12:06
    que está ativamente
    causando danos no mundo,
  • 12:06 - 12:09
    é hora de otimizar para outra coisa.
  • 12:09 - 12:12
    (Aplausos)
  • 12:15 - 12:18
    Mas, além de colocar pressão neles,
  • 12:18 - 12:21
    querer e esperar que eles façam isso,
  • 12:21 - 12:24
    há algo que o resto de nós
    também pode fazer.
  • 12:24 - 12:28
    Podemos criar caminhos melhores
    ou sugerir caminhos melhores
  • 12:28 - 12:30
    para os adolescentes angustiados seguirem.
  • 12:30 - 12:34
    Se você vê algo que acha bem criativo
    e inspirador e quer compartilhar,
  • 12:34 - 12:35
    compartilhe isso,
  • 12:35 - 12:38
    mesmo que isso não o esteja inundado
    com alta excitação de emoção.
  • 12:38 - 12:41
    Esse é um passo bem pequeno, eu sei,
  • 12:41 - 12:43
    mas, no todo, essas coisas
    realmente importam,
  • 12:43 - 12:45
    porque esses algoritmos poderosos
  • 12:45 - 12:48
    estão retirando suas dicas
    comportamentais de nós.
  • 12:50 - 12:51
    Então, permita-me deixar isto.
  • 12:52 - 12:54
    Há alguns anos, estava na moda
  • 12:54 - 12:56
    dizer que a internet era revolucionária
  • 12:56 - 12:58
    que iria nos unir.
  • 12:59 - 13:00
    Agora, a moda é dizer
  • 13:00 - 13:04
    que a internet é uma grande lixeira
    irrecuperável pegando fogo.
  • 13:05 - 13:06
    Nenhuma caricatura é verdadeira.
  • 13:06 - 13:09
    Sabemos que a internet
    é muito vasta e complexa
  • 13:09 - 13:11
    para ser só boa ou só má.
  • 13:11 - 13:13
    E o perigo de ter
    esse tipo de pensamentos,
  • 13:13 - 13:16
    quer sejam visões utópicas
    de que a internet nos salvará
  • 13:16 - 13:20
    quer sejam visões distópicas
    de que ela nos destruirá,
  • 13:20 - 13:22
    seja como for, estamos
    escapando da responsabilidade.
  • 13:24 - 13:26
    Não há nada inevitável
    sobre o nosso futuro.
  • 13:27 - 13:29
    A internet é feita de pessoas.
  • 13:29 - 13:32
    As pessoas tomam decisões
    nas empresas de mídias sociais.
  • 13:32 - 13:35
    As pessoas fazem as hashtags
    serem o assunto do momento.
  • 13:35 - 13:38
    As pessoas fazem a sociedade
    progredir ou regredir.
  • 13:39 - 13:41
    Ao internalizarmos esse fato,
  • 13:41 - 13:44
    podemos parar de esperar
    pela chegada do futuro inevitável
  • 13:44 - 13:45
    e fazer alguma coisa a respeito.
  • 13:47 - 13:50
    Todos nós aprendemos
    que o arco do universo moral é longo
  • 13:50 - 13:52
    mas se curva em direção à justiça.
  • 13:54 - 13:56
    Talvez.
  • 13:57 - 13:58
    Talvez ele se curve.
  • 13:59 - 14:01
    Mas isso sempre foi uma aspiração.
  • 14:01 - 14:03
    Isso não é uma garantia.
  • 14:04 - 14:06
    O arco não se curva sozinho.
  • 14:06 - 14:10
    Ele não é inevitavelmente curvado
    por uma força misteriosa.
  • 14:10 - 14:11
    A verdade real,
  • 14:11 - 14:14
    que é mais assustadora e mais libertadora,
  • 14:15 - 14:16
    é que nós o curvamos.
  • 14:17 - 14:18
    Obrigado.
  • 14:18 - 14:21
    (Aplausos)
Title:
Dentro do mundo bizarro dos trols e propagandistas da internet
Speaker:
Andrew Marantz
Description:

O jornalista Andrew Marantz passou três anos dentro do mundo dos trols da internet e propagandistas das redes sociais, procurando por pessoas que são capazes de estimular assuntos periféricos no coração de conversas on-line, e tentando entender como elas espalham suas ideias. Caia no buraco sem fim das propagandas on-line e informações falsas, e aprenda como podemos deixar a internet menos tóxica.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Portuguese, Brazilian subtitles

Revisions