Return to Video

O interior do mundo bizarro dos "trolls" e dos propagandistas da Internet

  • 0:01 - 0:02
    Passei os últimos três anos
  • 0:02 - 0:06
    a falar com as piores pessoas
    da Internet.
  • 0:06 - 0:09
    Quem anda por lá, ultimamente,
  • 0:09 - 0:12
    deve ter reparado que existe
    imenso lixo tóxico.
  • 0:13 - 0:17
    'Memes' racistas, propaganda misógina,
    desinformações virais.
  • 0:17 - 0:20
    E eu queria saber
    quem fazia estas coisas.
  • 0:20 - 0:22
    Queria entender
    como se espalhavam.
  • 0:22 - 0:24
    Por fim, queria saber
  • 0:24 - 0:26
    que tipo de impacto poderiam ter
    na nossa sociedade.
  • 0:26 - 0:30
    Em 2016, comecei a seguir
    estes 'memes' até à sua origem,
  • 0:30 - 0:33
    até aos seus criadores
    ou a quem os tornasse virais.
  • 0:33 - 0:35
    Contactava as pessoas e dizia:
  • 0:35 - 0:37
    "Viva, sou jornalista.
    Posso ver o que fazes?"
  • 0:38 - 0:39
    Normalmente levava com:
  • 0:39 - 0:42
    "Por que raio quereria eu falar
  • 0:42 - 0:44
    "com um mariquinhas
    judeu de Brooklyn
  • 0:44 - 0:46
    "que anda metido no
    Partido Democrático?"
  • 0:46 - 0:47
    (Risos)
  • 0:47 - 0:51
    E eu respondia:
    "Pá, só tens razão em 57%.
  • 0:51 - 0:52
    (Risos)
  • 0:53 - 0:54
    Mas também recebia
    outras respostas.
  • 0:55 - 0:56
    "Claro, passa por aqui".
  • 0:57 - 0:59
    E foi assim que cheguei
    à sala de estar
  • 0:59 - 1:02
    de um propagandista das redes sociais
    da Califórnia do Sul.
  • 1:02 - 1:05
    Ele era um caucasiano casado,
    na casa dos trinta.
  • 1:05 - 1:08
    Tinha uma mesinha à sua frente
    com uma chávena de café,
  • 1:08 - 1:10
    um portátil de onde 'tweetava',
  • 1:10 - 1:12
    um telemóvel para SMS
  • 1:12 - 1:15
    e um iPad para fazer diretos
    para o Periscope e o YouTube.
  • 1:15 - 1:17
    Mais nada.
  • 1:17 - 1:18
    E só com aquilo
  • 1:18 - 1:22
    ele era capaz de incutir
    as suas opiniões nocivas e marginais
  • 1:22 - 1:25
    numa típica conversa americana.
  • 1:25 - 1:27
    Por exemplo,
    num dos dias que lá estive,
  • 1:27 - 1:30
    uma bomba explodira em Nova Iorque
  • 1:30 - 1:34
    e a pessoa que fora acusada
    tinha um nome que parecia muçulmano.
  • 1:34 - 1:38
    Parecia uma oportunidade
    para o propagandista da Califórnia
  • 1:38 - 1:40
    porque uma das coisas que ele queria
  • 1:40 - 1:42
    era que os EUA impedissem
    quase toda a imigração,
  • 1:42 - 1:45
    especialmente de países muçulmanos.
  • 1:45 - 1:47
    Então, ele começou um direto.
  • 1:48 - 1:50
    Fez com que os seus seguidores
    fizessem um tumulto
  • 1:50 - 1:53
    sobre como o plano das fronteiras
    abertas nos iria matar
  • 1:53 - 1:54
    e pediu-lhes que 'tweetassem'
  • 1:54 - 1:56
    e usassem certas 'hashtags'
  • 1:56 - 1:58
    para que elas ficassem no topo.
  • 1:58 - 1:59
    E lá 'tweetaram'...
  • 1:59 - 2:01
    Centenas e centenas de 'tweets'.
  • 2:01 - 2:03
    Muitos deles com imagens como esta.
  • 2:03 - 2:05
    Este é George Soros.
  • 2:05 - 2:08
    É um multimilionário
    e filantropo húngaro,
  • 2:08 - 2:10
    que, na ideia
    de alguns conspiradores 'online',
  • 2:10 - 2:13
    Soros é como se fosse
    um papão globalista
  • 2:13 - 2:17
    que secretamente manipula
    todos os assuntos mundiais.
  • 2:18 - 2:21
    Antes de mais,
    se isto vos soa familiar,
  • 2:21 - 2:23
    esta ideia de algumas elites
    controlarem o mundo
  • 2:23 - 2:26
    e de muitas delas
    serem judeus ricos,
  • 2:26 - 2:30
    é porque é uma das generalizações
    mais antissemitas que existem.
  • 2:30 - 2:34
    Também devo dizer que quem
    colocou a bomba em Nova Iorque
  • 2:34 - 2:36
    foi um cidadão americano.
  • 2:36 - 2:38
    De tudo o que lá acontecia,
  • 2:38 - 2:40
    a imigração não era
    o principal problema.
  • 2:41 - 2:44
    E o propagandista da Califórnia
    percebia perfeitamente.
  • 2:44 - 2:47
    Ele tinha cultura.
    Aliás, era advogado.
  • 2:47 - 2:49
    Ele conhecia os factos essenciais,
  • 2:49 - 2:52
    mas também sabia quais
    os que não criavam uma conversa 'online'.
  • 2:52 - 2:55
    O que cria conversas 'online'
    é a emoção.
  • 2:55 - 2:59
    O objetivo inicial das redes sociais
    era o de juntar as pessoas,
  • 2:59 - 3:02
    tornar o mundo num lugar
    mais tolerante e justo...
  • 3:02 - 3:04
    E isso aconteceu em parte.
  • 3:05 - 3:07
    Mas os algoritmos das redes sociais
    não foram construídos
  • 3:07 - 3:10
    para distinguir a verdade da mentira,
  • 3:10 - 3:14
    o que é bom ou mau para a sociedade
    e distinguir o pró-social do antissocial.
  • 3:14 - 3:16
    Não é isso que os algoritmos fazem.
  • 3:16 - 3:19
    O que costumam fazer
    é medir as interações:
  • 3:19 - 3:22
    cliques, comentários, partilhas,
    'retweets' e coisas do género.
  • 3:22 - 3:24
    E se quisermos que o nosso conteúdo
    seja interativo,
  • 3:25 - 3:27
    então temos de incentivar a emoção.
  • 3:27 - 3:30
    Mais concretamente
    a chamada "excitação emocional".
  • 3:30 - 3:33
    "Excitação" não tem apenas
    uma conotação sexual,
  • 3:33 - 3:36
    mas, como estamos na Internet,
    dá para tudo.
  • 3:36 - 3:40
    É algo, positivo ou negativo,
    que deixa as pessoas entusiasmadas.
  • 3:40 - 3:42
    Eu sentava-me com os propagandistas.
  • 3:42 - 3:44
    Não era só o da Califórnia,
    eram umas dezenas deles,
  • 3:44 - 3:48
    e eu via-os a ter um sucesso
    repetido no que faziam.
  • 3:48 - 3:51
    Não era por serem 'hackers' russos,
    ou peritos em computadores,
  • 3:51 - 3:54
    ou por terem opiniões políticas
    particulares.
  • 3:54 - 3:56
    Era por saberem
    como funcionam as redes sociais
  • 3:56 - 3:59
    e terem vontade
    de tirarem proveito disso.
  • 3:59 - 4:02
    Primeiro, pensei que fosse
    um fenómeno específico,
  • 4:02 - 4:04
    algo que estava circunscrito à Internet.
  • 4:04 - 4:08
    Mas já não há uma linha a separar
    a Internet de tudo o resto.
  • 4:09 - 4:11
    Este anúncio passou
    em vários canais de TV,
  • 4:11 - 4:14
    durante as eleições
    para o Congresso de 2018,
  • 4:14 - 4:16
    e alegava, com poucas provas,
    que um dos candidatos
  • 4:16 - 4:19
    era controlado pelo manipulador
    internacional George Soros,
  • 4:19 - 4:23
    numa péssima fotomontagem
    ao pé de maços de notas.
  • 4:23 - 4:26
    Este é um 'tweet' do presidente dos EUA
  • 4:26 - 4:28
    que alegava, sem qualquer prova,
  • 4:28 - 4:31
    que os políticos americanos
    eram manipulados por George Soros.
  • 4:31 - 4:35
    Algo que outrora era chocante,
    insignificante e ignorável,
  • 4:35 - 4:38
    é agora tão sistematizado
    que quase não reparamos.
  • 4:38 - 4:40
    Por isso mesmo,
    passei três anos neste mundo.
  • 4:40 - 4:42
    Falei com imensa gente.
  • 4:42 - 4:44
    Alguns nem sequer tinham
    crenças principais de todo.
  • 4:44 - 4:47
    Apenas apostavam,
    de forma racional
  • 4:47 - 4:51
    que, se quisessem ganhar dinheiro
    ou obter atenção 'online',
  • 4:51 - 4:53
    deveriam ser o mais
    escandalosos possível.
  • 4:53 - 4:56
    Mas também falei com
    verdadeiros ideólogos.
  • 4:56 - 5:00
    E antes de mais,
    não eram os típicos conservadores.
  • 5:00 - 5:03
    Eram pessoas que queriam
    acabar com o sufrágio feminino.
  • 5:03 - 5:06
    Que queriam voltar
    aos tempos da segregação racial.
  • 5:06 - 5:09
    Alguns até queriam abolir a democracia.
  • 5:09 - 5:12
    É óbvio que estas pessoas
    não nasceram com estas crenças.
  • 5:12 - 5:15
    Não as aprenderam na escola primária.
  • 5:15 - 5:18
    Muitos deles,
    antes de entrarem na Internet,
  • 5:18 - 5:20
    eram libertários, eram socialistas,
  • 5:20 - 5:22
    eram qualquer outra coisa.
  • 5:22 - 5:24
    Mas então o que se passava?
  • 5:25 - 5:27
    Eu não posso generalizar
    todos os casos,
  • 5:27 - 5:29
    mas muita da gente com quem falei
  • 5:29 - 5:33
    parecia ter um QI elevado
    e baixa inteligência emocional.
  • 5:33 - 5:36
    Parecia que sentiam mais conforto
    em espaços 'online' anónimos,
  • 5:36 - 5:38
    do que na vida real.
  • 5:39 - 5:42
    Refugiavam-se em fóruns,
    ou em 'subreddits',
  • 5:42 - 5:45
    onde os seus piores impulsos
    eram amplificados.
  • 5:45 - 5:48
    Podiam começar por uma
    simples piada de mau gosto,
  • 5:48 - 5:51
    mas como recebiam
    imensa validação pela piada,
  • 5:51 - 5:54
    ou "pontos da Internet" inúteis,
    como lhe chamavam,
  • 5:54 - 5:57
    começavam a acreditar
    na sua própria piada.
  • 5:58 - 6:02
    Falei imenso com uma jovem
    que cresceu em Nova Jérsia.
  • 6:02 - 6:04
    Depois do secundário,
    mudou de cidade
  • 6:04 - 6:06
    e começou a sentir-se
    alienada e ignorada
  • 6:06 - 6:09
    e começou a refugiar-se no telemóvel.
  • 6:09 - 6:11
    Ela encontrou alguns espaços
    na Internet,
  • 6:11 - 6:14
    onde as pessoas publicavam
    as coisas mais execráveis.
  • 6:14 - 6:16
    E ela achava essas coisas
    desconcertantes,
  • 6:16 - 6:18
    mas também intrigantes,
  • 6:19 - 6:21
    como se não pudesse
    parar de as ver.
  • 6:21 - 6:24
    Começou a interagir
    com pessoas destes espaços,
  • 6:24 - 6:27
    e elas fizeram-na sentir-se
    inteligente e validada.
  • 6:27 - 6:29
    Começou a sentir-se numa comunidade
  • 6:29 - 6:31
    e a perguntar-se se alguns
    daqueles 'memes' polémicos
  • 6:31 - 6:33
    tinham um pingo de verdade.
  • 6:34 - 6:37
    Meses depois, ela ia de carro
    com amigos da Internet
  • 6:37 - 6:39
    a caminho de Charlottesville,
    na Virgínia,
  • 6:39 - 6:42
    para marchar de tocha em punho
    em nome da raça branca.
  • 6:43 - 6:45
    Em poucos meses, ela passou
    de apoiante do Obama
  • 6:45 - 6:48
    a defensora da supremacia branca,
    completamente radicalizada.
  • 6:50 - 6:51
    No caso dela,
  • 6:51 - 6:55
    ela conseguiu sair
    desse culto da supremacia branca.
  • 6:56 - 6:59
    Mas muitos com quem falei
    não conseguiram.
  • 6:59 - 7:00
    Só para esclarecer:
  • 7:00 - 7:03
    Eu nunca estive convencido
    de ter de encontrar um terreno comum
  • 7:03 - 7:05
    com toda a gente com quem falava,
  • 7:05 - 7:07
    ao ponto de estar disposto a dizer:
  • 7:07 - 7:10
    "Pá, sabes que mais?
    És um propagandista fascista. Eu não.
  • 7:10 - 7:13
    "Vamos mas é dar um abraço
    e esquecer as nossas diferenças."
  • 7:13 - 7:15
    É claro que não.
  • 7:16 - 7:19
    Mas fiquei convencido de que
    não podemos ignorar estas coisas.
  • 7:20 - 7:23
    Temos de tentar compreendê-las
    porque, só por aí,
  • 7:23 - 7:26
    é que nos conseguimos vacinar contra isso.
  • 7:27 - 7:31
    Nos três anos que estive neste mundo
    recebi chamadas horríveis,
  • 7:31 - 7:32
    algumas ameaças,
  • 7:32 - 7:36
    mas não foi nada, em comparação
    com o que as jornalistas aguentam.
  • 7:37 - 7:38
    E sim, sou judeu.
  • 7:38 - 7:42
    Mas, por mais estranho que pareça,
    muitos nazis não repararam nisso,
  • 7:42 - 7:45
    o que me deixou desapontado.
  • 7:45 - 7:47
    (Risos)
  • 7:47 - 7:51
    Francamente, se a tua profissão
    é ser um antissemita profissional,
  • 7:51 - 7:53
    não vês nada de estranho?
  • 7:54 - 7:55
    Nadinha, mesmo?
  • 7:55 - 7:57
    (Risos)
  • 7:58 - 7:59
    Isto não é segredo.
  • 7:59 - 8:02
    Chamo-me Andrew Marantz,
    escrevo para o "The New Yorker",
  • 8:02 - 8:05
    a minha personalidade
    é a de um episódio do "Seinfeld"
  • 8:05 - 8:06
    gravado no Park Slope Food Coop.
  • 8:06 - 8:08
    Não notas nada?
  • 8:08 - 8:10
    (Risos)
  • 8:13 - 8:15
    Em última instância,
    seria ótimo
  • 8:15 - 8:17
    se houvesse uma fórmula simples.
  • 8:17 - 8:22
    Telemóvel mais puto alienado
    dá 12% de hipótese de ser nazi.
  • 8:22 - 8:24
    Mas é óbvio que não é tão simples.
  • 8:24 - 8:26
    Aliás, nos meus artigos,
  • 8:26 - 8:29
    gosto mais de ser descritivo
    do que normativo.
  • 8:29 - 8:32
    Mas como estamos na TED,
  • 8:32 - 8:34
    vamos ser práticos.
  • 8:34 - 8:35
    Gostaria de vos partilhar sugestões
  • 8:35 - 8:39
    de coisas que cidadãos
    da Internet como nós todos
  • 8:39 - 8:42
    podem fazer para tornar
    o ambiente menos tóxico.
  • 8:43 - 8:45
    A primeira é a de ser-se
    um cético sagaz.
  • 8:46 - 8:48
    Para mim há dois tipos de ceticismo.
  • 8:48 - 8:53
    E para não vos encher de
    informações epistemológicas,
  • 8:53 - 8:56
    vou chamar-lhes
    ceticismo sagaz e ceticismo parvo.
  • 8:56 - 8:58
    Ceticismo sagaz:
  • 8:59 - 9:01
    É pensar por si mesmo,
    questionar todas as alegações,
  • 9:01 - 9:03
    exigir provas...
  • 9:03 - 9:05
    Isso é que é ceticismo a sério.
  • 9:05 - 9:08
    Ceticismo parvo:
    soa a ceticismo,
  • 9:08 - 9:11
    mas parece que é
    para ser só do contra.
  • 9:12 - 9:13
    Todos dizem que a Terra é redonda;
  • 9:14 - 9:15
    alguém diz que é plana.
  • 9:15 - 9:17
    Todos dizem que o racismo é mau;
  • 9:17 - 9:19
    alguém diz: "Pá, sei lá, duvido muito."
  • 9:20 - 9:23
    Nem vos passa pela cabeça
    o número de rapazes brancos
  • 9:23 - 9:25
    que me disseram, nos últimos anos:
  • 9:25 - 9:28
    "É que sabes, os 'media', os professores
    querem fazer-me acreditar"
  • 9:28 - 9:31
    "no privilégio masculino e caucasiano,"
  • 9:31 - 9:33
    "mas eu sei lá, meu, não me parece."
  • 9:33 - 9:36
    Atenção, homens e adolescentes
    brancos do contra,
  • 9:37 - 9:38
    escutem:
  • 9:39 - 9:42
    Se vão duvidar da forma da Terra,
    dos privilégios masculinos,
  • 9:42 - 9:45
    e de o racismo ser mau,
  • 9:45 - 9:47
    vocês não estão a ser céticos,
    estão a ser parvos.
  • 9:47 - 9:51
    (Aplausos)
  • 9:52 - 9:54
    É ótimo ter um espírito independente.
  • 9:54 - 9:56
    Devíamos todos ter
    espíritos independentes,
  • 9:56 - 9:58
    mas sejamos racionais.
  • 9:58 - 10:00
    A próxima é sobre
    liberdade de expressão.
  • 10:00 - 10:04
    Ouvimos pessoas inteligentes
    dizer que são a favor disso,
  • 10:04 - 10:07
    e dizem-no como se estivessem
    a apaziguar um debate,
  • 10:07 - 10:11
    quando, na verdade, é apenas
    o início de uma conversa profunda.
  • 10:12 - 10:14
    Tudo o que é interessante
    acontece depois disso.
  • 10:14 - 10:16
    "És a favor da liberdade de expressão
    Mas o que é isso?"
  • 10:17 - 10:19
    Quer dizer que o David Duke
    e o Richard Spencer
  • 10:19 - 10:21
    têm de ser ativos no Twitter?
  • 10:21 - 10:24
    Quer dizer que todos podem
    assediar todos 'online',
  • 10:24 - 10:25
    sem razão aparente?
  • 10:25 - 10:28
    Sabem, fui ver a lista
    de oradores da TED deste ano.
  • 10:28 - 10:30
    Não achei ninguém
    que duvidasse da forma da Terra.
  • 10:30 - 10:33
    Isso viola as normas
    da liberdade de expressão?
  • 10:33 - 10:36
    É ótimo ser-se a favor
    da liberdade de expressão
  • 10:36 - 10:39
    mas, se só sabemos dizer isso,
    e o repetimos vezes sem conta,
  • 10:39 - 10:42
    estamos a bloquear
    uma conversa produtiva.
  • 10:44 - 10:47
    Pôr a decência na moda
    outra vez...
  • 10:47 - 10:48
    Fantástico!
  • 10:48 - 10:50
    (Aplausos)
  • 10:50 - 10:52
    Nem tenho de explicar.
  • 10:52 - 10:56
    Durante a minha pesquisa,
    ia ao Reddit, ao YouTube ou ao Facebook
  • 10:56 - 10:58
    e pesquisava "lei da Sharia",
  • 10:58 - 11:00
    ou pesquisava "holocausto".
  • 11:01 - 11:04
    Adivinham o que os algoritmos
    me mostravam?
  • 11:04 - 11:07
    "A lei da Sharia está
    a espalhar-se pelos EUA?"
  • 11:07 - 11:10
    "Será que o holocausto aconteceu?"
  • 11:10 - 11:12
    Ceticismo parvo.
  • 11:13 - 11:15
    Acabámos nesta
    dinâmica 'online' bizarra,
  • 11:15 - 11:17
    onde algumas pessoas veem
    propaganda fanática
  • 11:17 - 11:20
    como sendo radical,
    perigosa e fixe,
  • 11:20 - 11:23
    e outras pessoas veem a verdade
    e a decência humana
  • 11:23 - 11:26
    como algo hipócrita,
    ou simplesmente enfadonho.
  • 11:26 - 11:30
    E os algoritmos das redes sociais,
    sejam intencionais ou não,
  • 11:30 - 11:32
    incentivaram a isto,
  • 11:32 - 11:35
    porque a propaganda fanática
    é ótima para a interação.
  • 11:35 - 11:37
    Todos clicam, todos comentam,
  • 11:37 - 11:39
    quer gostem ou não.
  • 11:39 - 11:42
    Por isso a principal coisa
    que tem de acontecer
  • 11:42 - 11:45
    é as redes sociais
    corrigirem as suas plataformas.
  • 11:45 - 11:48
    (Aplausos)
  • 11:50 - 11:53
    A todos que ouvirem isto e trabalharem
    numa empresa duma rede social,
  • 11:53 - 11:56
    ou investiram numa,
    ou sejam donos de uma:
  • 11:57 - 11:58
    esta dica é para vocês.
  • 11:58 - 12:02
    Se andaram a melhorar
    em prol de interações emocionais
  • 12:02 - 12:06
    e isso acabou por prejudicar o mundo,
  • 12:06 - 12:09
    então está na altura
    de melhorar outra coisa qualquer.
  • 12:09 - 12:12
    (Aplausos)
  • 12:15 - 12:19
    Mas para além de os pressionar a melhorar
  • 12:19 - 12:21
    e esperar que, de facto,
    eles façam alguma coisa,
  • 12:21 - 12:24
    nós também podemos fazer
    outras coisas.
  • 12:25 - 12:28
    Podemos criar ou sugerir
    melhores caminhos
  • 12:28 - 12:30
    que os jovens temperamentais
    possam percorrer.
  • 12:30 - 12:33
    Se virem algo que achem
    que seja criativo ou atencioso
  • 12:33 - 12:36
    e querem partilhá-lo,
    podem fazê-lo,
  • 12:36 - 12:38
    mesmo que não vos encha
    de excitação emocional.
  • 12:38 - 12:41
    É um passo pequeno, eu sei,
  • 12:41 - 12:43
    mas no cômputo geral
    estas coisas são importantes,
  • 12:43 - 12:46
    porque estes algoritmos,
    por mais poderosos que sejam,
  • 12:46 - 12:48
    são influenciados por nós.
  • 12:50 - 12:51
    Deixo-vos com o seguinte:
  • 12:52 - 12:54
    Há uns anos estava na moda dizer
  • 12:54 - 12:57
    que a Internet era
    uma ferramenta revolucionária
  • 12:57 - 12:59
    que nos iria juntar a todos.
  • 12:59 - 13:01
    Agora está na moda dizer
  • 13:01 - 13:04
    que a Internet não passa
    de uma lixeira irrecuperável.
  • 13:05 - 13:07
    Ambas as caricaturas são falsas.
  • 13:07 - 13:09
    Sabemos bem que a Internet
    é tão grande e complexa
  • 13:09 - 13:11
    que não pode ser
    só boa ou só má.
  • 13:11 - 13:13
    O perigo destas formas de pensar,
  • 13:13 - 13:16
    quer seja a visão utópica
    de que nos vai salvar, inevitavelmente
  • 13:16 - 13:20
    ou a visão distópica
    de que nos vai destruir, inevitavelmente
  • 13:20 - 13:22
    deixa-nos sair impunes, na mesma.
  • 13:24 - 13:27
    Não há nada inevitável
    no nosso futuro.
  • 13:27 - 13:29
    A Internet é constituída por pessoas.
  • 13:29 - 13:32
    As pessoas tomam decisões
    nas empresas de redes sociais.
  • 13:32 - 13:35
    As pessoas definem as tendências
    das 'hashtags'.
  • 13:35 - 13:38
    As pessoas decidem se a sociedade
    progride ou regride.
  • 13:39 - 13:41
    Quando tomarmos consciência disso
  • 13:41 - 13:44
    podemos deixar de esperar
    que chegue algum futuro inevitável,
  • 13:44 - 13:46
    e começar a funcionar.
  • 13:47 - 13:50
    Fomos todos ensinados que
    o arco do universo moral é amplo
  • 13:50 - 13:52
    mas inclina-se para o lado da justiça.
  • 13:54 - 13:56
    Talvez.
  • 13:57 - 13:58
    Talvez se incline.
  • 13:59 - 14:01
    Mas isso foi sempre uma ambição.
  • 14:01 - 14:03
    Não é um dado adquirido.
  • 14:04 - 14:06
    O arco não se inclina sozinho.
  • 14:06 - 14:10
    Não é uma força misteriosa
    que o inclina.
  • 14:10 - 14:11
    A verdade,
  • 14:11 - 14:14
    que é mais assustadora,
    mas também mais libertadora,
  • 14:15 - 14:17
    é que somos nós que o inclinamos.
  • 14:17 - 14:18
    Muito obrigado.
  • 14:18 - 14:21
    (Aplausos)
Title:
O interior do mundo bizarro dos "trolls" e dos propagandistas da Internet
Speaker:
Andrew Marantz
Description:

O jornalista Andrew Marantz passou três anos no mundo dos "trolls" da Internet e dos propagandistas das redes sociais à procura das pessoas que incutem opiniões nocivas numa típica conversa 'online', e a tentar perceber como espalham as suas ideias. Aventurem-se no mundo da propaganda 'online' e da desinformação, e fiquem a saber que podemos tornar a Internet num lugar menos tóxico.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Portuguese subtitles

Revisions