Return to Video

Dentro allo strano mondo dei troll di internet e dei propagandisti

  • 0:01 - 0:02
    Ho passato gli ultimi tre anni
  • 0:02 - 0:05
    a parlare con le peggiori persone
    che ci siano in internet.
  • 0:06 - 0:09
    Se siete stati online di recente,
  • 0:09 - 0:12
    avrete notato che
    lì ci sono molti rifiuti tossici
  • 0:12 - 0:17
    meme razzisti, propaganda misogina,
    disinformazione virale.
  • 0:17 - 0:20
    Volevo scoprire chi faceva questa roba.
  • 0:20 - 0:22
    Volevo capire in che modo la diffondevano.
  • 0:22 - 0:23
    E infine volevo sapere
  • 0:23 - 0:26
    quale fosse l'impatto
    sulla nostra società.
  • 0:26 - 0:30
    Così nel 2016 ho iniziato
    a risalire alle fonti di questi meme,
  • 0:30 - 0:33
    a chi li creava o chi li rendeva virali.
  • 0:33 - 0:35
    Ho contattato queste persone dicendo:
  • 0:35 - 0:38
    "Ciao, sono un giornalista.
    Posso venire a vedere quel che fai?"
  • 0:38 - 0:39
    Spesso la risposta era:
  • 0:39 - 0:41
    "Perché diavolo dovrei parlare con
  • 0:41 - 0:44
    uno smidollato senza testosterone,
    globalista di Brooklyn
  • 0:44 - 0:46
    e ebreo senza palle
    che è in combutta coi Democratici?
  • 0:46 - 0:47
    (Risate)
  • 0:47 - 0:51
    A cui rispondevo:
    "Senti, bello, è vero solo al 57 percento"
  • 0:51 - 0:52
    (Risate)
  • 0:53 - 0:54
    Ma spesso ricevevo la risposta opposta.
  • 0:54 - 0:56
    "Certo, vieni pure".
  • 0:57 - 0:59
    Ed è così che sono finito nel salotto
  • 0:59 - 1:02
    di un propagandista da social media
    nella California del sud.
  • 1:02 - 1:05
    Era un ragazzo bianco, sposato
    quasi sui quarant'anni.
  • 1:05 - 1:08
    Davanti a sé aveva un tavolo
    e una tazza di caffè
  • 1:08 - 1:10
    un portatile per twittare
  • 1:10 - 1:11
    un telefono per chattare
  • 1:11 - 1:15
    e un iPad per lo streaming
    su Periscope e YouTube.
  • 1:15 - 1:16
    Tutto lì.
  • 1:17 - 1:18
    Tuttavia, con quegli strumenti,
  • 1:18 - 1:22
    riusciva a portare
    le sue idee radicali e nocive
  • 1:22 - 1:24
    nel cuore della conversazione americana.
  • 1:25 - 1:27
    Ad esempio,
    uno degli ultimi giorni che ero lì,
  • 1:27 - 1:30
    a New York era appena scoppiata una bomba,
  • 1:30 - 1:34
    il tipo accusato di aver piazzato la bomba
    aveva un nome che sembrava musulmano.
  • 1:34 - 1:38
    Ora, al propagandista della California
    questa sembrava un'occasione
  • 1:38 - 1:40
    perché una delle cose che voleva
  • 1:40 - 1:42
    era che gli USA tagliassero l'immigrazione
  • 1:42 - 1:45
    specialmente dai paesi
    a maggioranza musulmana.
  • 1:45 - 1:47
    Quindi ha iniziato a trasmettere live
  • 1:48 - 1:50
    aizzando i suoi followers in questa follia
  • 1:50 - 1:53
    su come i confini aperti
    ci avrebbero uccisi tutti
  • 1:53 - 1:54
    chiedendo di twittare
    questo argomento
  • 1:54 - 1:56
    usando hashtags specifici,
  • 1:56 - 1:58
    cercando di farli diventare trend.
  • 1:58 - 1:59
    E hanno twittato davvero,
  • 1:59 - 2:01
    centinaia e centinaia di tweet,
  • 2:01 - 2:03
    molti di loro con immagini tipo questa.
  • 2:03 - 2:05
    Questo è George Soros.
  • 2:05 - 2:08
    É un ungherese milionario e filantropo,
  • 2:08 - 2:10
    e nella testa
    di alcuni cospirazionisti online
  • 2:10 - 2:13
    George Soros è lo spauracchio globalista,
  • 2:13 - 2:17
    uno dell'élite che in segreto
    sta manipolando tutti gli affari globali.
  • 2:17 - 2:21
    Fermiamoci un attimo:
    se questa idea vi suona familiare,
  • 2:21 - 2:23
    che c'è un'élite che controlla il mondo
  • 2:23 - 2:26
    composta principalmente da ebrei ricchi,
  • 2:26 - 2:29
    è perché è uno degli argomenti fondanti
    dell'antisemitismo.
  • 2:30 - 2:34
    Dovrei anche dirvi che il ragazzo
    che ha piazzato la bomba a New York
  • 2:34 - 2:35
    era un cittadino americano.
  • 2:36 - 2:38
    Quindi, di qualunque cosa si trattasse,
  • 2:38 - 2:40
    l'immigrazione
    non era il fattore principale.
  • 2:41 - 2:44
    E il propagandista della California
    lo sapeva bene.
  • 2:44 - 2:47
    Era un ragazzo istruito.
    Era un avvocato.
  • 2:47 - 2:48
    Conosceva i fatti reali,
  • 2:48 - 2:52
    ma sapeva che i fatti
    non alimentano la conversazione online.
  • 2:52 - 2:55
    Ciò che alimenta la conversazione online
    sono le emozioni.
  • 2:55 - 2:57
    Lo scopo originario dei social media
  • 2:57 - 2:59
    era di renderci più vicini,
  • 2:59 - 3:02
    rendendo il mondo più aperto,
    tollerante e giusto...
  • 3:02 - 3:03
    E qualcosa l'hanno fatto.
  • 3:05 - 3:07
    Ma gli algoritmi dei social media
    non sono stati fatti
  • 3:07 - 3:10
    per distinguere
    tra ciò che è vero o falso,
  • 3:10 - 3:14
    cosa è giusto o nocivo per la società,
    o cosa è pro-social o anti-social.
  • 3:14 - 3:16
    Gli algoritmi non fanno questo.
  • 3:16 - 3:19
    Molto di quel che fanno
    è misurare il coinvolgimento:
  • 3:19 - 3:22
    click, commenti, condivisioni,
    ritweet, quel genere di cose.
  • 3:22 - 3:25
    E se volete che il vostro contenuto
    venga considerato,
  • 3:25 - 3:26
    deve trasudare emozioni,
  • 3:26 - 3:30
    ciò che gli scienziati comportamentali
    chiamano "suscitare emozioni forti".
  • 3:30 - 3:33
    "Suscitare emozioni forti"
    non solo a livello sessuale
  • 3:33 - 3:36
    anche se parliamo di internet,
    e ovviamente funziona.
  • 3:36 - 3:40
    Significa qualunque emozione, positiva
    o negativa, che faccia battere il cuore.
  • 3:40 - 3:42
    Quindi ero seduto con questi propagandisti
  • 3:42 - 3:44
    non solo il tizio in California,
    ma dozzine di loro,
  • 3:44 - 3:48
    e li guardavo mentre portavano a termine
    questo schema, con successo,
  • 3:48 - 3:51
    non perché erano hacker russi,
    non perché erano geni del computer,
  • 3:51 - 3:54
    non perché avevano
    visioni politiche acute,
  • 3:54 - 3:56
    ma solo perché avevano capito
    come funzionavano i social,
  • 3:56 - 3:59
    e volevano sfruttarli a loro vantaggio.
  • 3:59 - 4:02
    All'inizio mi dicevo
    che era un fenomeno marginale,
  • 4:02 - 4:04
    qualcosa confinato alla rete.
  • 4:04 - 4:08
    Ma non esiste più una vera separazione
    tra internet e tutto il resto.
  • 4:09 - 4:11
    Questa è una pubblicità
    messa in onda su diversi canali
  • 4:11 - 4:14
    nelle elezioni del Congresso del 2018
  • 4:14 - 4:16
    che dichiara, senza prove,
    che uno dei candidati
  • 4:16 - 4:19
    era un uomo del manipolatore
    internazionale George Soros,
  • 4:19 - 4:23
    che qui è evidentemente photoshoppato
    con un mucchio di soldi.
  • 4:23 - 4:26
    Questo è un tweet
    del Presidente degli Stati Uniti
  • 4:26 - 4:28
    che dichiara, sempre senza prove,
  • 4:28 - 4:31
    che la politica americana
    viene manipolata da George Soros.
  • 4:31 - 4:35
    Ciò che prima sembrava così scioccante,
    marginale e non degno di nota,
  • 4:35 - 4:38
    adesso si è normalizzato
    e quasi non lo notiamo più.
  • 4:38 - 4:40
    Ho passato circa tre anni in questo mondo.
  • 4:40 - 4:42
    Ho parlato con molte persone.
  • 4:42 - 4:44
    Alcuni sono completamente senza principi.
  • 4:44 - 4:47
    Scommettono in maniera
    perfettamente razionale
  • 4:47 - 4:49
    che se vogliono
    fare un po' di soldi online
  • 4:49 - 4:50
    o ricevere attenzione online,
  • 4:50 - 4:53
    devono essere più offensivi possibili.
  • 4:53 - 4:55
    Ma ho anche parlato con gente
    con vere ideologie.
  • 4:56 - 5:00
    E per essere chiari, la loro ideologia
    non era il classico tradizionalismo.
  • 5:00 - 5:03
    Questa gente vuole abolire
    il suffragio femminile.
  • 5:03 - 5:06
    Questa gente vuole tornare
    alla segregazione razziale.
  • 5:06 - 5:09
    Alcuni volevano eliminare
    la democrazia, di colpo.
  • 5:09 - 5:12
    Ovviamente queste persone non sono nate
    con queste idee in testa.
  • 5:12 - 5:15
    Non le hanno sviluppate
    durante le elementari.
  • 5:15 - 5:18
    Molti, prima di finire
    nella tana del bianconiglio di internet,
  • 5:18 - 5:20
    avevano idee liberali,
    o erano dei socialisti
  • 5:20 - 5:23
    o qualcosa di completamente diverso.
  • 5:23 - 5:24
    Quindi cosa succedeva?
  • 5:25 - 5:27
    Non posso generalizzare ogni singolo caso,
  • 5:27 - 5:29
    ma molte persone con cui ho parlato,
  • 5:29 - 5:33
    sembrano avere una combinazione
    di alto IQ e basso EQ.
  • 5:33 - 5:36
    Sembrano a loro agio
    nello spazio online anonimo
  • 5:36 - 5:38
    piuttosto che nel mondo reale.
  • 5:39 - 5:41
    Quindi spesso si rifugiano
    in questi forum,
  • 5:41 - 5:42
    o questi subreddit,
  • 5:42 - 5:45
    dove i loro istinti peggiori
    vengono amplificati.
  • 5:45 - 5:48
    Potrebbero iniziare
    con una battuta infelice
  • 5:48 - 5:51
    per poi ricevere così tanta approvazione
    per quella battuta
  • 5:51 - 5:54
    così tanti "punti internet",
    li chiamano così,
  • 5:54 - 5:56
    che finiranno per crederci,
    a quella battuta.
  • 5:58 - 6:01
    Ho parlato molto con una ragazza,
    cresciuta in New Jersey,
  • 6:02 - 6:04
    che dopo il liceo si è trasferita
    in una nuova città
  • 6:04 - 6:06
    e all'improvviso
    si è ritrovata sola e isolata
  • 6:06 - 6:09
    e ha iniziato a rifugiarsi
    nel suo telefono.
  • 6:09 - 6:11
    Ha trovato alcuni spazi su internet
  • 6:11 - 6:14
    in cui le persone postavano
    le cose più scioccanti e brutali.
  • 6:14 - 6:16
    Per lei era davvero sgradevole
  • 6:16 - 6:18
    ma in qualche modo la attirava,
  • 6:19 - 6:21
    non riusciva a fare a meno di guardare.
  • 6:21 - 6:24
    Ha iniziato a interagire
    con queste persone,
  • 6:24 - 6:26
    e l'hanno fatta sentire
    intelligente e accettata.
  • 6:26 - 6:28
    Ha cominciato
    a sentirsi parte della community
  • 6:28 - 6:31
    domandandosi se forse
    quei meme scioccanti
  • 6:31 - 6:33
    potessero davvero contenere
    una briciola di verità.
  • 6:34 - 6:38
    Dopo alcuni mesi, si trovava in macchina
    con i suoi nuovi amici di internet
  • 6:38 - 6:40
    diretta a Charlottesville in Virginia,
  • 6:40 - 6:42
    per marciare con fiaccole
    inneggiando alla razza bianca.
  • 6:43 - 6:45
    In pochi mesi era passata
    da sostenitrice di Obama
  • 6:45 - 6:48
    a una radicalizzata
    suprematista della razza bianca.
  • 6:49 - 6:51
    In questo caso specifico,
  • 6:51 - 6:55
    è riuscita è trovare la via per uscire
    dal culto della razza bianca.
  • 6:56 - 6:59
    Ma molti di quelli con cui ho parlato
    non ce l'hanno fatta.
  • 6:59 - 7:00
    Per essere chiari:
  • 7:00 - 7:03
    non ho mai avuto la pretesa
    di avere argomenti comuni
  • 7:03 - 7:05
    con chiunque parlassi
  • 7:05 - 7:07
    che mi facesse dire:
  • 7:07 - 7:10
    "Sai che c'è,
    sei un propagandista fascista, io no
  • 7:10 - 7:13
    ma non importa, abbracciamoci
    e le nostre differenze spariranno".
  • 7:13 - 7:15
    Assolutamente no.
  • 7:16 - 7:20
    Ma mi sono reso conto che non possiamo
    voltare lo sguardo davanti a ciò.
  • 7:20 - 7:23
    Dobbiamo cercare di comprenderlo
    perché solo se lo capiamo
  • 7:23 - 7:26
    potremmo trovare l'antidoto.
  • 7:27 - 7:31
    Durante i tre anni in questo mondo,
    ho ricevuto telefonate spiacevoli
  • 7:31 - 7:32
    persino qualche minaccia,
  • 7:32 - 7:36
    ma non era nemmeno una minima parte
    di quel che subiscono le giornaliste.
  • 7:37 - 7:38
    E sì, sono ebreo,
  • 7:38 - 7:42
    anche se, stranamente, molti Nazi
    non si sono accorti che fossi ebreo
  • 7:42 - 7:45
    e francamente ne sono rimasto deluso.
  • 7:45 - 7:47
    (Risate)
  • 7:47 - 7:51
    Davvero, il tuo unico scopo è essere
    un antisemita professionista.
  • 7:51 - 7:54
    E non ti viene nemmeno un dubbio su di me?
  • 7:54 - 7:55
    Nemmeno uno?
  • 7:55 - 7:57
    (Risate)
  • 7:58 - 7:59
    Non è un segreto.
  • 7:59 - 8:02
    Mi chiamo Andrew Marantz,
    scrivo per il "The New Yorker"
  • 8:02 - 8:05
    la mia personalità corrisponde
    a un episodio di Seinfeld
  • 8:05 - 8:06
    girato in un negozio new age vegano.
  • 8:06 - 8:07
    Niente?
  • 8:08 - 8:10
    (Risate)
  • 8:13 - 8:15
    Comunque, sarebbe davvero bello
  • 8:15 - 8:17
    se ci fosse una formula semplice:
  • 8:17 - 8:21
    smartphone più ragazzo alienato
    uguale 12 percento di possibilità Nazi.
  • 8:22 - 8:24
    Ma ovviamente non è così semplice.
  • 8:24 - 8:25
    Quando scrivo
  • 8:25 - 8:29
    preferisco essere
    descrittivo e non prescrittivo.
  • 8:29 - 8:32
    Ma siamo a TED
  • 8:32 - 8:34
    quindi siamo pratici.
  • 8:34 - 8:36
    Voglio condividere alcuni suggerimenti
  • 8:36 - 8:39
    su cose che gli abitanti di internet
    come voi e me
  • 8:39 - 8:42
    possono fare per rendere le cose
    un po' meno tossiche.
  • 8:43 - 8:45
    La prima è essere
    degli scettici intelligenti.
  • 8:46 - 8:48
    Credo ci siano due tipi di scetticismo.
  • 8:48 - 8:52
    Non voglio infarcirvi di informazioni
    tecniche di epistemologia qui,
  • 8:52 - 8:55
    ma li chiamerò
    scetticismo intelligente e stupido.
  • 8:56 - 8:58
    Scetticismo intelligente:
  • 8:58 - 9:02
    pensare con la vostra testa,
    mettere in discussione le dichiarazioni,
  • 9:02 - 9:03
    chiedere prove,
  • 9:03 - 9:05
    perfetto,
    questo è il vero scetticismo.
  • 9:05 - 9:08
    Scetticismo stupido: sembra scetticismo
  • 9:08 - 9:11
    ma è più un istintivo
    andar contro a tutto.
  • 9:12 - 9:13
    Tutti dicono che la terra è tonda,
  • 9:13 - 9:15
    voi dite che è piatta.
  • 9:15 - 9:17
    Tutti dicono che il razzismo è sbagliato
  • 9:17 - 9:19
    voi dite: "Non saprei,
    sono scettico a riguardo"
  • 9:20 - 9:24
    Non so dirvi quanti uomini bianchi
    con cui ho parlato negli ultimi anni
  • 9:24 - 9:28
    hanno detto: "I media, i miei professori
    cercano di indottrinarmi
  • 9:28 - 9:31
    e farmi credere che il maschio bianco
    goda di più privilegi,
  • 9:31 - 9:33
    ma non so, non credo sia così".
  • 9:33 - 9:37
    Ragazzi, bastian contrari
    bianchi nel mondo,
  • 9:37 - 9:38
    guardate:
  • 9:39 - 9:42
    se siete scettici sulla terra rotonda,
    sui privilegi maschili
  • 9:42 - 9:45
    e sul razzismo
  • 9:45 - 9:47
    non siete scettici, siete solo idioti.
  • 9:47 - 9:51
    (Applausi)
  • 9:52 - 9:56
    È grandioso ragionare con la propria testa
    dovremmo farlo tutti,
  • 9:56 - 9:57
    ma fatelo con intelligenza.
  • 9:58 - 10:00
    La prossima è la libertà di parola.
  • 10:00 - 10:04
    Sentirete persone in gamba, affermate dire
    "Sono a favore della libertà di parola"
  • 10:04 - 10:07
    e dicendo così
    è come se concludessero un dibattito,
  • 10:07 - 10:11
    quando in realtà quello è solo l'inizio
    di ogni discussione importante.
  • 10:12 - 10:14
    Tutta la roba interessante
    accade dopo quel momento.
  • 10:14 - 10:16
    OK, sei a favore
    della libertà di parola. Cioè?
  • 10:16 - 10:19
    Significa che David Duke e Richard Spencer
  • 10:19 - 10:21
    devono avere account di Twitter attivi?
  • 10:21 - 10:24
    Significa che ognuno
    può attaccare chiunque online
  • 10:24 - 10:25
    per qualsiasi motivo?
  • 10:25 - 10:28
    Ho guardato l'intera lista
    degli speaker di TED di quest'anno.
  • 10:28 - 10:30
    Non ho trovato nessun scettico
    sulla terra rotonda.
  • 10:30 - 10:33
    Questo vìola le norme
    della libertà di parola?
  • 10:33 - 10:37
    Siamo tutti a favore della libertà
    di parola, è meraviglioso esserlo,
  • 10:37 - 10:39
    ma se è l'unica cosa che sapete dire,
  • 10:39 - 10:43
    state solo intralciando una conversazione
    che sarebbe più produttiva.
  • 10:44 - 10:47
    Far diventare l'educazione di moda,
  • 10:47 - 10:48
    grandioso!
  • 10:48 - 10:50
    (Applausi)
  • 10:50 - 10:52
    Non c'è nemmeno bisogno di spiegazioni.
  • 10:52 - 10:56
    Nella mia ricerca andavo su Reddit
    o YouTube o Facebook
  • 10:56 - 10:58
    e cercavo "legge della sharia"
  • 10:58 - 11:00
    oppure "Olocausto",
  • 11:01 - 11:04
    riuscite a indovinare
    cosa gli algoritmi mi mostravano?
  • 11:04 - 11:07
    "La legge della sharia
    si sta diffondendo negli Stati Uniti?"
  • 11:07 - 11:09
    "L'Olocausto è accaduto davvero?"
  • 11:10 - 11:12
    Scetticismo stupido.
  • 11:13 - 11:15
    Siamo finiti
    in questa bizzarra dinamica online
  • 11:15 - 11:17
    in cui la gente considera
    la propaganda bigotta
  • 11:17 - 11:20
    come qualcosa di audace, impudente e figo
  • 11:20 - 11:23
    la gente vede la verità e l'educazione
    come buonismo
  • 11:23 - 11:26
    o esibizionismo di virtù,
    o solo come cose noiose.
  • 11:26 - 11:30
    Gli algoritmi dei social media,
    intenzionalmente o meno,
  • 11:30 - 11:32
    hanno incentivato questo pensiero,
  • 11:32 - 11:35
    perché la propaganda bigotta
    è favolosa per coinvolgere.
  • 11:35 - 11:37
    Tutti cliccano, tutti commentano,
  • 11:37 - 11:39
    sia che la amino o la odino.
  • 11:39 - 11:42
    Quindi il punto numero uno su cui agire
  • 11:42 - 11:45
    è che i social network devono
    aggiustare le loro piattaforme.
  • 11:45 - 11:49
    (Applausi)
  • 11:50 - 11:53
    Quindi se mi state ascoltando
    e lavorate presso un social media
  • 11:53 - 11:56
    o ne siete investitori,
    o ne siete i proprietari,
  • 11:57 - 11:58
    questo consiglio è per voi.
  • 11:58 - 12:02
    Se state sfruttando il massimo
    livello di coinvolgimento emotivo
  • 12:02 - 12:06
    e questo si rivela essere
    un'arma che sta distruggendo il mondo
  • 12:06 - 12:09
    è arrivato il momento
    di sfruttare qualcosa d'altro.
  • 12:09 - 12:12
    (Applauso)
  • 12:15 - 12:18
    Ma oltre a fare pressione
    affinché lo facciano
  • 12:18 - 12:21
    oltre ad aspettare
    e sperare che lo facciano,
  • 12:21 - 12:24
    c'è qualcosa che noi tutti possiamo fare.
  • 12:24 - 12:28
    Possiamo creare percorsi migliori,
    o suggerire percorsi migliori
  • 12:28 - 12:30
    agli adolescenti angosciati.
  • 12:30 - 12:33
    Se vedete qualcosa di creativo e profondo
  • 12:33 - 12:35
    e volete condividerlo, potete farlo,
  • 12:35 - 12:39
    anche se non vi inonda
    di sensazioni forti.
  • 12:39 - 12:41
    É un piccolo passo, lo so,
  • 12:41 - 12:43
    ma nel gruppo,
    questa roba fa la differenza
  • 12:43 - 12:45
    perché questi algoritmi,
    potenti come sono,
  • 12:45 - 12:48
    prendono i segnali
    di comportamento da noi.
  • 12:50 - 12:51
    Vi lascio con questo pensiero.
  • 12:52 - 12:54
    Qualche anno fa andava di moda
  • 12:54 - 12:57
    dire che internet
    era uno strumento rivoluzionario
  • 12:57 - 12:59
    che ci avrebbe uniti tutti.
  • 12:59 - 13:01
    Ora va più di moda dire
  • 13:01 - 13:04
    che internet è un disastro irrimediabile.
  • 13:05 - 13:07
    Nessuna definizione
    è completamente esatta.
  • 13:07 - 13:09
    Sappiamo che internet
    è troppo vasto e complesso
  • 13:09 - 13:11
    per essere solo positivo o negativo.
  • 13:11 - 13:13
    E il pericolo di pensarla così,
  • 13:13 - 13:16
    sia che si tratti dell'idea utopica
    che internet ci salverà tutti
  • 13:16 - 13:20
    o la visione distopica che
    ci distruggerà tutti,
  • 13:20 - 13:22
    in ogni caso,
    ce ne stiamo lavando le mani.
  • 13:24 - 13:26
    Il nostro futuro non è già scritto.
  • 13:27 - 13:29
    Internet è fatto di persone.
  • 13:29 - 13:32
    Persone che prendono decisioni
    nelle compagnie di social media.
  • 13:32 - 13:35
    Persone che rendono gli hashtag
    trend oppure no.
  • 13:35 - 13:38
    Persone che fanno progredire
    o regredire la società.
  • 13:39 - 13:41
    Quando capiremo a fondo
  • 13:41 - 13:44
    che possiamo smettere
    di attendere l'inevitabile futuro
  • 13:44 - 13:45
    e fare qualcosa adesso.
  • 13:47 - 13:50
    Ci hanno insegnato che
    l'arco morale dell'universo è lungo
  • 13:50 - 13:52
    ma tende verso la giustizia.
  • 13:54 - 13:56
    Forse.
  • 13:57 - 13:58
    Forse sarà così.
  • 13:59 - 14:01
    Ma quello è sempre stato un desiderio.
  • 14:01 - 14:03
    Non una garanzia.
  • 14:04 - 14:06
    L'arco non si tende da solo.
  • 14:06 - 14:10
    E non è teso nemmeno
    da una misteriosa forza.
  • 14:10 - 14:11
    La verità
  • 14:11 - 14:14
    che fa molta più paura
    ma è anche liberatoria
  • 14:15 - 14:16
    è che siamo noi a tenderlo.
  • 14:17 - 14:18
    Grazie.
  • 14:18 - 14:21
    (Applausi)
Title:
Dentro allo strano mondo dei troll di internet e dei propagandisti
Speaker:
Andrew Marantz
Description:

Il giornalista Andrew Marantz ha passato tre anni immerso nel mondo dei troll di internet e dei propagandisti dei social media cercando quelle persone che diffondono idee estremiste e le portano nel cuore delle conversazioni online, e ha provato a coprendere come quelle idee riescano a diffondersi. Entrate nella tana del bianconiglio della propaganda e della disinformazione online per scoprire come tutti noi possiamo rendere internet meno nocivo.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Italian subtitles

Revisions