Return to Video

Caro Facebook, questo è il modo in cui stai distruggendo la democrazia

  • 0:01 - 0:03
    Circa cinque anni fa,
  • 0:03 - 0:05
    ho notato che stavo perdendo la capacità
  • 0:05 - 0:09
    di interagire con le persone
    che la pensavano in modo diverso.
  • 0:09 - 0:12
    L'idea di discutere su questioni scottanti
    con i miei concittadini americani
  • 0:12 - 0:15
    iniziava a darmi più bruciori di stomaco
  • 0:15 - 0:19
    delle volte in cui avevo avuto a che fare
    con sospetti estremisti all'estero.
  • 0:20 - 0:23
    Stava iniziando a farmi sentire
    più amareggiata e frustrata.
  • 0:23 - 0:25
    E così,
  • 0:25 - 0:26
    ho spostato tutta la mia attenzione
  • 0:26 - 0:29
    dalle minacce globali
    alla sicurezza nazionale
  • 0:29 - 0:32
    al cercare di capire
    cosa stesse causando questa spinta
  • 0:32 - 0:36
    verso un'estrema
    polarizzazione nel mio Paese.
  • 0:36 - 0:38
    Come ex agente della CIA e diplomatica
  • 0:38 - 0:41
    che ha passato anni a lavorare
    su problematiche anti-estremiste,
  • 0:41 - 0:44
    ho iniziato a temere
    che questa stesse diventando
  • 0:44 - 0:46
    una minaccia assai più grande
    per la nostra democrazia
  • 0:46 - 0:48
    di qualsiasi nemico straniero.
  • 0:48 - 0:50
    Perciò ho iniziato a fare ricerche
  • 0:50 - 0:51
    e a parlarne apertamente,
  • 0:51 - 0:54
    cosa che mi ha portata
    a essere assunta da Facebook
  • 0:54 - 0:57
    e, infine, a essere qui oggi
  • 0:57 - 1:00
    per continuare a mettervi in guardia
    su come queste piattaforme
  • 1:00 - 1:04
    stiano manipolando
    e radicalizzando così tanti di noi,
  • 1:04 - 1:07
    e per parlare di come riappropriarci
    della nostra piazza pubblica.
  • 1:08 - 1:10
    Sono stata un funzionario estero in Kenya
  • 1:10 - 1:13
    qualche anno dopo
    l'attacco dell'11 settembre,
  • 1:13 - 1:16
    e ho guidato quelle che alcuni chiamano
    campagne "dei cuori e delle menti"
  • 1:16 - 1:17
    lungo il confine somalo.
  • 1:17 - 1:21
    Gran parte del mio lavoro consisteva
    nel costruire un rapporto di fiducia
  • 1:21 - 1:24
    con le comunità ritenute più sensibili
    ai messaggi estremisti.
  • 1:24 - 1:28
    Ho passato ore a bere tè
    con dichiarati esponenti antioccidentali.
  • 1:28 - 1:31
    Mi sono anche confrontata
    con dei sospetti terroristi.
  • 1:31 - 1:35
    Sebbene molte di queste interazioni
    siano iniziate con sospetto reciproco,
  • 1:35 - 1:39
    non ricordo che nessuna di esse
    sia mai sfociata in urla o insulti.
  • 1:39 - 1:41
    In alcuni casi, abbiamo
    addirittura lavorato insieme
  • 1:41 - 1:43
    su aree di comune interesse.
  • 1:44 - 1:46
    L'arma più potente che avevamo
  • 1:46 - 1:50
    era semplicemente ascoltare,
    imparare e creare empatia.
  • 1:50 - 1:53
    Questa è l'essenza del lavoro
    dei cuori e delle menti,
  • 1:53 - 1:55
    perché quello che
    ho riscontrato di continuo
  • 1:55 - 1:57
    è che ciò che la maggior parte
    delle persone voleva
  • 1:57 - 2:00
    era sentirsi ascoltata,
    approvata e rispettata.
  • 2:00 - 2:03
    E credo che sia anche ciò
    che molti di noi vogliono.
  • 2:03 - 2:06
    Quello che vedo accadere
    oggi online è straziante
  • 2:06 - 2:09
    ed è un problema molto
    più difficile da affrontare.
  • 2:09 - 2:13
    Veniamo manipolati dall'attuale
    ecosistema dell'informazione,
  • 2:13 - 2:16
    il quale sta facendo trincerare
    molti di noi nell'assolutismo,
  • 2:16 - 2:19
    al punto che "compromesso"
    è diventata una parolaccia.
  • 2:19 - 2:20
    Perché, ora come ora,
  • 2:20 - 2:25
    compagnie di social media come Facebook
    traggono profitto dal segmentarci,
  • 2:25 - 2:27
    per poi fornirci
    dei contenuti personalizzati
  • 2:27 - 2:31
    che confermano e allo stesso tempo
    sfruttano i nostri preconcetti.
  • 2:31 - 2:34
    L'obiettivo principale è quello
    di provocare forti emozioni
  • 2:34 - 2:36
    per tenerci impegnati,
  • 2:36 - 2:40
    spesso incentivando le voci
    più provocatorie e polarizzanti
  • 2:40 - 2:44
    fino al punto in cui trovare
    un punto d'incontro sembra impossibile.
  • 2:45 - 2:49
    E nonostante un coro crescente di persone
    chieda alle piattaforme un cambiamento,
  • 2:49 - 2:52
    è evidente che queste persone
    da sole non riusciranno a fare molto.
  • 2:52 - 2:55
    Quindi i governi devono
    definire le responsabilità
  • 2:55 - 2:59
    per i danni reali che vengono causati
    da questi modelli di business
  • 2:59 - 3:02
    e imporre dei costi reali
    sugli effetti dannosi che stanno avendo
  • 3:02 - 3:05
    sulla nostra sanità pubblica,
    sulla nostra piazza pubblica
  • 3:05 - 3:07
    e sulla nostra democrazia.
  • 3:07 - 3:12
    Purtroppo questo non avverrà in tempo
    per le elezioni presidenziali degli USA,
  • 3:12 - 3:14
    perciò continuerò
    a lanciare questo allarme,
  • 3:14 - 3:18
    perché anche se un giorno
    dovessimo avere forti norme in vigore,
  • 3:18 - 3:21
    ci sarà comunque bisogno dell'aiuto
    di tutti noi per sistemare le cose.
  • 3:21 - 3:24
    Quando ho iniziato a spostare
    la mia attenzione dalle minacce estere
  • 3:24 - 3:27
    alla disgregazione
    del dibattito civile nel mio Paese,
  • 3:27 - 3:29
    mi sono chiesta
    se avessimo potuto riproporre
  • 3:29 - 3:31
    alcune di quelle campagne
    dei cuori e delle menti
  • 3:31 - 3:33
    per risanare le nostre divergenze.
  • 3:33 - 3:36
    Il nostro esperimento di oltre 200 anni
    con la democrazia funziona
  • 3:36 - 3:40
    in buona parte perché siamo in grado
    di mettere in discussione le nostre idee,
  • 3:40 - 3:43
    apertamente e con passione,
    per trovare le soluzioni migliori.
  • 3:43 - 3:45
    Sebbene io creda profondamente
  • 3:45 - 3:47
    nel potere del dibattito civile
    faccia a faccia,
  • 3:47 - 3:49
    non può competere
  • 3:49 - 3:52
    con gli effetti polarizzanti
    e con la portata dei social media attuali.
  • 3:52 - 3:54
    Le persone che vengono risucchiate
  • 3:54 - 3:56
    da questo vortice di indignazione
    sui social media
  • 3:56 - 4:00
    spesso sono più difficili da separare
    dalle loro mentalità ideologiche
  • 4:00 - 4:03
    di quanto lo siano mai state quelle
    comunità vulnerabili con cui ho lavorato.
  • 4:03 - 4:06
    Perciò quando Facebook
    mi ha chiamata nel 2018
  • 4:06 - 4:07
    e mi ha offerto l'incarico
  • 4:07 - 4:11
    di capo delle operazioni di integrità
    elettorale per la propaganda politica,
  • 4:11 - 4:13
    ho sentito che dovevo dire di sì.
  • 4:13 - 4:16
    Sapevo che non sarei riuscita
    a sistemare tutto,
  • 4:16 - 4:18
    ma quando ti viene data la possibilità
  • 4:18 - 4:21
    di contribuire a guidare la nave
    verso una direzione migliore,
  • 4:21 - 4:22
    devi almeno provarci.
  • 4:22 - 4:25
    Non ho lavorato direttamente
    sulla polarizzazione,
  • 4:25 - 4:26
    ma ho esaminato
  • 4:26 - 4:29
    quali sono stati i temi che hanno creato
    più divisione nella nostra società
  • 4:29 - 4:33
    e quindi i più sfruttabili
    nei tentativi di interferenza elettorale,
  • 4:33 - 4:36
    ovvero la tattica della Russia
    in vista del 2016.
  • 4:36 - 4:39
    Ho iniziato facendo delle domande.
  • 4:39 - 4:42
    Volevo capire quale fosse
    il problema sistemico di fondo
  • 4:42 - 4:44
    che stava permettendo
    a tutto ciò di accadere,
  • 4:44 - 4:47
    in modo da pensare
    a come poterlo risolvere.
  • 4:48 - 4:50
    Io credo ancora nel potere di internet,
  • 4:50 - 4:53
    nella sua capacità
    di dare spazio a più voci,
  • 4:53 - 4:56
    ma nonostante l'obiettivo dichiarato
    di costruire una comunità,
  • 4:56 - 4:59
    le più grandi compagnie di social media,
    per come sono fatte adesso,
  • 4:59 - 5:03
    sono inconciliabili con il concetto
    di discorso ragionato.
  • 5:03 - 5:05
    Non c'è modo di premiare l'ascolto,
  • 5:05 - 5:07
    di incoraggiare un dibattito civile
  • 5:07 - 5:10
    e di proteggere le persone che vogliono
    fare delle domande in modo sincero
  • 5:10 - 5:11
    in un business
  • 5:11 - 5:14
    in cui ottimizzare il coinvolgimento
    e la crescita degli utenti
  • 5:14 - 5:17
    sono i due parametri
    più importanti per il successo.
  • 5:17 - 5:21
    Non c'è nessun incentivo
    ad aiutare le persone a rallentare,
  • 5:21 - 5:24
    a creare un attrito sufficiente
    a far sì che le persone si fermino,
  • 5:24 - 5:26
    riconoscano la loro reazione
    emotiva a qualcosa
  • 5:26 - 5:30
    e mettano in discussione le loro
    stesse ipotesi prima di partecipare.
  • 5:30 - 5:32
    La triste realtà è
  • 5:32 - 5:35
    che le bugie dette online
    attraggono di più della verità
  • 5:35 - 5:39
    e l'oscenità batte il traballante
    ragionamento basato sui fatti
  • 5:39 - 5:43
    in un mondo ottimizzato
    per una viralità che non trova dissenso.
  • 5:43 - 5:46
    Finché gli algoritmi avranno lo scopo
    di attirare la nostra attenzione,
  • 5:46 - 5:49
    continueranno a nutrirci del veleno
  • 5:49 - 5:53
    che risveglia i nostri peggiori istinti
    e le debolezze umane.
  • 5:53 - 5:56
    E sì, la rabbia, la diffidenza,
  • 5:56 - 5:58
    la cultura della paura, il disprezzo...
  • 5:58 - 6:00
    niente di tutto questo è nuovo in America.
  • 6:00 - 6:04
    Ma negli ultimi anni, i social media
    hanno sfruttato tutto questo
  • 6:04 - 6:07
    e, per come la vedo io, hanno fatto
    inclinare la bilancia drasticamente.
  • 6:07 - 6:10
    E Facebook lo sa.
  • 6:10 - 6:12
    Un recente articolo
    del "Wall Street Journal"
  • 6:12 - 6:16
    ha denunciato una presentazione interna
    di Facebook del 2018
  • 6:16 - 6:20
    che evidenzia in modo particolare il ruolo
    degli algoritmi delle società stesse
  • 6:20 - 6:23
    nella crescente presenza di gruppi
    estremisti sulla loro piattaforma
  • 6:23 - 6:26
    e nella polarizzazione dei loro utenti.
  • 6:27 - 6:30
    Ma tenerci impegnati
    è il loro modo di guadagnare.
  • 6:30 - 6:32
    L'ambiente dell'informazione moderno
  • 6:32 - 6:34
    è cristallizzato intorno
    alla nostra profilazione
  • 6:34 - 6:36
    e alla nostra segmentazione
  • 6:36 - 6:38
    in un numero sempre maggiore
    di categorie più piccole
  • 6:38 - 6:41
    per perfezionare il processo
    di personalizzazione.
  • 6:41 - 6:43
    Dopodiché, veniamo bombardati
    di informazioni
  • 6:43 - 6:47
    che confermano il nostro punto di vista,
    consolidano i nostri pregiudizi
  • 6:47 - 6:50
    e ci fanno sentire
    come se appartenessimo a qualcosa.
  • 6:50 - 6:52
    Queste sono le stesse tattiche
    che venivano usate
  • 6:52 - 6:56
    dai reclutatori di terroristi
    su giovani ragazzi vulnerabili,
  • 6:56 - 6:58
    anche se in modo più piccolo
    e più localizzato,
  • 6:58 - 7:00
    prima dei social media,
  • 7:00 - 7:03
    con l'obiettivo finale
    di persuadere il loro comportamento.
  • 7:03 - 7:08
    Purtroppo non sono stata mai autorizzata
    da Facebook ad avere un impatto reale.
  • 7:08 - 7:12
    Di fatto, il secondo giorno, il mio titolo
    e le mie mansioni sono stati cambiati
  • 7:12 - 7:15
    e sono stata tagliata fuori
    dalle riunioni decisionali.
  • 7:15 - 7:18
    Tutti i miei sforzi
    per cercare di sviluppare piani
  • 7:18 - 7:21
    per combattere la disinformazione
    e la soppressione degli elettori
  • 7:21 - 7:22
    nelle inserzioni politiche
  • 7:22 - 7:23
    sono stati rigettati.
  • 7:23 - 7:26
    Sono durata poco meno di sei mesi.
  • 7:26 - 7:30
    Ma ecco cosa ho imparato
    durante il tempo trascorso lì:
  • 7:30 - 7:32
    ci sono migliaia di persone in Facebook
  • 7:32 - 7:34
    che stanno lavorando
    con passione su un prodotto
  • 7:34 - 7:38
    che credono fermamente possa rendere
    il mondo un posto migliore,
  • 7:38 - 7:42
    ma fino a quando le società
    si limiteranno a rimanere sul vago
  • 7:42 - 7:44
    riguardo alla politica dei contenuti
    e alla moderazione
  • 7:44 - 7:49
    invece di considerare com'è progettata
    e monetizzata l'intera macchina,
  • 7:49 - 7:52
    non affronteranno mai il problema
    di come la piattaforma stia contribuendo
  • 7:52 - 7:56
    all'odio, alla divisione
    e alla radicalizzazione.
  • 7:56 - 8:01
    E questo è il tipo di conversazione
    che non è mai avvenuta mentre ero lì,
  • 8:01 - 8:04
    perché ciò richiederebbe
    fondamentalmente accettare
  • 8:04 - 8:06
    che le cose che hanno creato
  • 8:06 - 8:08
    potrebbero non essere
    la scelta migliore per la società,
  • 8:08 - 8:12
    e anche accettare di modificare l'intero
    modello di prodotto e di profitto.
  • 8:12 - 8:15
    Quindi cosa possiamo fare a riguardo?
  • 8:15 - 8:18
    Non sto dicendo che i social media
    sono gli unici responsabili
  • 8:18 - 8:21
    dello stato in cui ci troviamo oggi.
  • 8:21 - 8:26
    Ci sono chiaramente questioni sociali
    radicate che dobbiamo risolvere.
  • 8:26 - 8:30
    Ma la risposta di Facebook,
    che è solo uno specchio della società,
  • 8:30 - 8:33
    è un tentativo conveniente
    di sviare ogni responsabilità
  • 8:33 - 8:38
    dal modo in cui la loro piattaforma
    amplifica i contenuti dannosi
  • 8:38 - 8:41
    e spinge alcuni utenti
    verso posizioni estreme.
  • 8:41 - 8:44
    E Facebook potrebbe, se solo volesse,
  • 8:44 - 8:46
    sistemare qualcosa.
  • 8:46 - 8:50
    Potrebbe smetterla di amplificare
    e raccomandare teorici della cospirazione,
  • 8:50 - 8:53
    gruppi d'odio, chi causa disinformazione
  • 8:53 - 8:57
    e sì, in alcuni casi
    anche il nostro Presidente.
  • 8:57 - 9:00
    Potrebbe smetterla di utilizzare
    le stesse tecniche di personalizzazione
  • 9:00 - 9:02
    per trasmettere
    la stessa retorica politica
  • 9:02 - 9:04
    usata per venderci
    le scarpe da ginnastica.
  • 9:04 - 9:06
    Potrebbero riconvertire i loro algoritmi
  • 9:06 - 9:09
    per concentrarsi su un parametro
    diverso dal tenerci impegnati,
  • 9:09 - 9:11
    e potrebbero costruire delle barriere
  • 9:11 - 9:13
    per impedire che certi contenuti
    diventino virali
  • 9:13 - 9:15
    prima di venire revisionati.
  • 9:15 - 9:17
    E potrebbero fare tutto questo
  • 9:17 - 9:21
    senza diventare quelli che loro
    chiamano "gli arbitri della verità".
  • 9:21 - 9:24
    Ma hanno già chiarito
    che non si spingeranno
  • 9:24 - 9:27
    al punto da fare la cosa giusta
    senza essere costretti a farlo,
  • 9:27 - 9:30
    e, a essere sinceri, perché dovrebbero?
  • 9:30 - 9:34
    I mercati continuano a premiarli
    e non stanno infrangendo la legge.
  • 9:34 - 9:35
    Perché allo stato attuale,
  • 9:35 - 9:38
    non ci sono leggi statunitensi
    che obblighino Facebook
  • 9:38 - 9:42
    o qualsiasi altra società di social media
    a proteggere la nostra piazza pubblica,
  • 9:42 - 9:43
    la nostra democrazia
  • 9:43 - 9:46
    e perfino le nostre elezioni.
  • 9:46 - 9:50
    Abbiamo ceduto il potere decisionale
    su quali norme scrivere e quali applicare
  • 9:50 - 9:54
    agli amministratori delegati
    delle società internet a scopo di lucro.
  • 9:54 - 9:56
    È questo che vogliamo?
  • 9:56 - 9:59
    Un mondo post-verità
    dove la tossicità e il tribalismo
  • 9:59 - 10:02
    prevalgono sulla costruzione di ponti
    e sulla ricerca del consenso?
  • 10:03 - 10:06
    Rimango ottimista sul fatto che abbiamo
    ancora più cose in comune l'un l'altro
  • 10:06 - 10:10
    rispetto a ciò che viene ritratto
    dai media e dall'ambiente online,
  • 10:10 - 10:13
    e credo che avere un'ottica più ampia
  • 10:13 - 10:17
    renda la democrazia
    più solida e inclusiva,
  • 10:17 - 10:20
    ma non nel modo in cui sta accadendo ora.
  • 10:20 - 10:24
    E va sottolineato che non voglio
    distruggere queste società.
  • 10:24 - 10:28
    Voglio solo che sia riconosciuto loro
    un certo livello di responsabilità,
  • 10:28 - 10:30
    proprio come al resto della società.
  • 10:30 - 10:33
    È tempo che i nostri governi
    si facciano avanti
  • 10:33 - 10:37
    e svolgano il loro lavoro
    per proteggere i propri cittadini.
  • 10:37 - 10:41
    E anche se non esiste una magica legge
    in grado di risolvere tutto questo,
  • 10:41 - 10:46
    credo che i governi possano
    e debbano trovare l'equilibrio
  • 10:46 - 10:48
    tra la tutela della libertà di parola
  • 10:48 - 10:50
    e il ritenere queste
    piattaforme responsabili
  • 10:50 - 10:52
    per i loro effetti sulla società.
  • 10:52 - 10:57
    E potrebbero farlo in parte
    insistendo su un'effettiva trasparenza
  • 10:57 - 11:00
    sul modo in cui funzionano
    questi motori di raccomandazione,
  • 11:00 - 11:04
    su come avvengono la curation,
    l'amplificazione e il targeting.
  • 11:04 - 11:07
    Vedete, voglio che queste società
    siano ritenute responsabili
  • 11:07 - 11:11
    non per i post di disinformazione
    o la retorica estrema di un individuo,
  • 11:11 - 11:15
    ma per come i loro motori
    di raccomandazione li diffondono,
  • 11:15 - 11:19
    per come i loro algoritmi
    orientano le persone verso di essi
  • 11:19 - 11:23
    e per come i loro strumenti li usano
    per bersagliare le persone.
  • 11:23 - 11:27
    Ho provato a cambiare Facebook
    dall'interno e non ci sono riuscita.
  • 11:27 - 11:30
    Così, negli ultimi anni,
    ho usato di nuovo la mia voce
  • 11:30 - 11:32
    per continuare a diffondere
    questo messaggio
  • 11:32 - 11:37
    nella speranza di ispirare più persone
    a esigere questa responsabilità.
  • 11:37 - 11:39
    Il mio messaggio per voi è semplice:
  • 11:39 - 11:42
    fate pressione sui vostri
    rappresentanti governativi
  • 11:42 - 11:43
    affinché si facciano avanti
  • 11:43 - 11:47
    e smettano di cedere la nostra
    piazza pubblica a interessi di lucro.
  • 11:47 - 11:50
    Aiutate la vostra famiglia
    e i vostri amici a informarsi
  • 11:50 - 11:52
    riguardo a come vengono manipolati online.
  • 11:52 - 11:56
    Sforzatevi di interagire con persone
    che non la pensano come voi.
  • 11:56 - 11:58
    Fate di questo problema una priorità.
  • 11:58 - 12:02
    Abbiamo bisogno dell'intera società
    per risolvere questo problema.
  • 12:03 - 12:09
    E il mio messaggio ai dirigenti del mio
    ex datore di lavoro Facebook è questo:
  • 12:09 - 12:12
    in questo momento, le persone
    stanno usando i vostri strumenti
  • 12:12 - 12:14
    esattamente come sono stati progettati
  • 12:14 - 12:17
    per seminare odio, divisione e diffidenza,
  • 12:17 - 12:21
    e voi non lo state solo permettendo,
    state fornendo i mezzi.
  • 12:21 - 12:25
    E sì, ci sono un sacco
    di storie positive di cose
  • 12:25 - 12:28
    che accadono sulla vostra
    piattaforma in tutto il mondo,
  • 12:28 - 12:31
    ma questo non rende
    nulla di tutto ciò accettabile.
  • 12:31 - 12:35
    E la situazione non fa che peggiorare
    man mano che ci avviciniamo alle elezioni,
  • 12:35 - 12:36
    e, cosa ancora più preoccupante,
  • 12:36 - 12:39
    affrontiamo la nostra più grande
    potenziale crisi finora,
  • 12:39 - 12:42
    se i risultati non sono attendibili
    e se scoppia la violenza.
  • 12:42 - 12:45
    Così, quando nel 2021
    direte ancora una volta:
  • 12:45 - 12:47
    "Sappiamo che dobbiamo fare di meglio",
  • 12:47 - 12:50
    voglio che ricordiate questo momento,
  • 12:50 - 12:53
    perché non si tratta più solo
    di qualche voce solitaria.
  • 12:53 - 12:56
    Leader dei diritti civili, accademici,
  • 12:56 - 12:58
    giornalisti, pubblicitari,
    i vostri stessi dipendenti
  • 12:58 - 13:01
    stanno gridando a tutto il mondo
  • 13:01 - 13:03
    che le vostre politiche
    e le vostre pratiche commerciali
  • 13:03 - 13:07
    stanno danneggiando
    le persone e la democrazia.
  • 13:07 - 13:09
    Siete voi a decidere,
  • 13:09 - 13:14
    ma non potrete più dire
    che non potevate prevederlo.
  • 13:14 - 13:15
    Grazie.
Title:
Caro Facebook, questo è il modo in cui stai distruggendo la democrazia
Speaker:
Yaël Eisenstat
Description:

"Le bugie dette online attraggono più della verità", afferma l'ex analista e diplomatica della CIA, nonché ex impiegata di Facebook Yaël Eisenstat. "Finché gli algoritmi [dei social media] avranno lo scopo di attirare la nostra attenzione, continueranno a nutrirci del veleno che risveglia i nostri peggiori istinti e le debolezze umane". In questo discorso audace, Yaël Eisenstat analizza il modo in cui le compagnie di social media come Facebook incentivino contenuti provocatori, contribuendo a creare una cultura di polarizzazione politica e di sfiducia - e invita i governi a ritenere queste piattaforme responsabili allo scopo di proteggere il dibattito civile e la democrazia.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Italian subtitles

Revisions