Return to Video

Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo

  • 0:10 - 0:11
    2019:
  • 0:12 - 0:14
    sono passati poco più di dieci anni
  • 0:14 - 0:18
    da quando i social network
    sono arrivati nella nostra società,
  • 0:18 - 0:20
    e sono diventati parte
    della nostra quotidianità.
  • 0:20 - 0:23
    Dieci anni in cui è cambiato
    praticamente tutto.
  • 0:24 - 0:26
    Quando parliamo di Internet, oggi,
  • 0:26 - 0:30
    ci chiediamo spesso se la rete
    ci stia rendendo più odiatori,
  • 0:30 - 0:33
    più isolati, più disinformati,
    più polarizzati.
  • 0:34 - 0:36
    Ogni giorno, le notizie che leggiamo
  • 0:36 - 0:40
    ci raccontano di un mondo
    in cui sui social si litiga:
  • 0:40 - 0:44
    le persone non sono più capaci
    di parlarsi senza insultarsi.
  • 0:44 - 0:48
    E così, noi non capiamo bene
    che cosa sta succedendo.
  • 0:49 - 0:50
    Ma è davvero così?
  • 0:51 - 0:55
    Ci chiediamo spesso, appunto,
    se Internet ci stia rendendo più odiatori:
  • 0:55 - 0:59
    però forse dovremmo cominciare a cambiare
    i focus delle domande,
  • 0:59 - 1:02
    per capire davvero che cosa
    sta succedendo con le piattaforme.
  • 1:02 - 1:06
    E se davvero le piattaforme,
    che erano state create per unirci,
  • 1:06 - 1:09
    oggi siano responsabili
    di una profonda frammentazione sociale.
  • 1:10 - 1:11
    Come facciamo a capirne i motivi?
  • 1:11 - 1:13
    Vi voglio lanciare una provocazione:
  • 1:14 - 1:15
    se invece di chiederci
  • 1:15 - 1:20
    se i social ci stanno rendendo
    solo più odiatori o più disinformati,
  • 1:20 - 1:24
    cominciassimo a chiederci
    se ci stanno rendendo più diseguali?
  • 1:26 - 1:29
    Cambiando questa prospettiva,
    e parlando di disuguaglianza,
  • 1:29 - 1:31
    forse appunto troveremmo
    delle risposte nuove.
  • 1:33 - 1:36
    Parlare di disuguaglianza,
    quando parliamo di Internet,
  • 1:36 - 1:38
    vuol dire prima di tutto
  • 1:38 - 1:42
    parlare non solo di odio online
    e non solo di disinformazione,
  • 1:42 - 1:47
    ma parlare di una cosa di cui sentiamo
    molto poco parlare, ovvero i dati.
  • 1:48 - 1:51
    I dati che sono il nucleo,
    della società digitale.
  • 1:52 - 1:59
    Ecco: i dati sono responsabili,
    in qualche modo,
  • 1:59 - 2:02
    del funzionamento della nostra società.
  • 2:02 - 2:04
    E quando parliamo di dati
    e di disuguaglianza,
  • 2:04 - 2:09
    questo ci serve per chiederci
    chi possiede questi dati,
  • 2:09 - 2:11
    e soprattutto con quali obiettivi.
  • 2:13 - 2:15
    Una delle prime cose
    a cui dobbiamo pensare,
  • 2:15 - 2:16
    quando parliamo di dati,
  • 2:16 - 2:20
    è quindi appunto chi li possiede;
  • 2:21 - 2:23
    e cercare di sfatare
    dei miti, anche, sui dati.
  • 2:25 - 2:30
    A noi viene spontaneo pensare che i dati
    siano rappresentativi delle persone,
  • 2:30 - 2:34
    e fin da quando siamo piccoli ci insegnano
    che la matematica non è un'opinione.
  • 2:34 - 2:37
    E quindi, automaticamente,
    ci viene da pensare
  • 2:37 - 2:41
    che ciò che poi fa funzionare
    questi dati, e li aggrega,
  • 2:41 - 2:44
    ovvero gli algoritmi,
    che sono quello che dà il funzionamento
  • 2:44 - 2:47
    a tutte le applicazioni che usiamo,
    a tutte le piattaforme che usiamo,
  • 2:47 - 2:49
    siano qualcosa di neutrale.
  • 2:50 - 2:54
    Ma non è così: la tecnologia
    non è neutrale,
  • 2:54 - 2:57
    e questa è una cosa
    che dobbiamo tenere davvero a mente.
  • 2:57 - 3:00
    Perché la tecnologia è un prodotto umano:
  • 3:00 - 3:03
    dietro ad ogni algoritmo,
    dietro ogni applicazione,
  • 3:03 - 3:05
    dietro ogni piattaforma
    c'è un essere umano,
  • 3:05 - 3:06
    con una propria visione del mondo,
  • 3:06 - 3:09
    con delle proprie idee
    e con dei propri obiettivi.
  • 3:10 - 3:13
    Ed è proprio questo
    il primo passo per cominciare
  • 3:13 - 3:15
    ad adottare un pensiero critico
  • 3:15 - 3:18
    verso tutte le piattaforme
    che utilizziamo.
  • 3:20 - 3:23
    Alzi la mano chi non ha mai
    sentito la frase:
  • 3:23 - 3:25
    "Se il servizio è gratis,
    il prodotto sei tu".
  • 3:26 - 3:28
    È infatti piuttosto risaputo
  • 3:28 - 3:32
    che le piattaforme della Silicon Valley
    sono dei grossi monopoli privati
  • 3:32 - 3:35
    che possiedono i nostri dati
  • 3:35 - 3:37
    e possiedono gli strumenti
    per analizzarli.
  • 3:39 - 3:41
    E fanno questo a fine di lucro,
  • 3:41 - 3:45
    per creare delle pubblicità
    sempre più personalizzate.
  • 3:45 - 3:49
    Ormai, le piattaforme sono parte
    dell'infrastruttura sociale:
  • 3:49 - 3:53
    noi le usiamo per qualsiasi cosa,
    da prenotare una macchina o un ristorante,
  • 3:53 - 3:55
    a tenere sotto controllo la nostra salute,
  • 3:55 - 3:56
    trovare un partner;
  • 3:57 - 4:02
    però facciamo ancora fatica a capire
    come questi algoritmi funzionino;
  • 4:04 - 4:05
    e soprattutto, poi,
  • 4:05 - 4:08
    questi dati dove vadano,
    con chi vengano condivisi.
  • 4:11 - 4:13
    Quando parlo di queste cose -
  • 4:13 - 4:16
    e lo faccio spesso,
    infatti ormai i miei amici mi odiano -
  • 4:16 - 4:21
    una delle cose che mi viene chiesta è:
    ma perché me ne dovrei occupare?
  • 4:21 - 4:23
    Cioè, alla fine a me
  • 4:23 - 4:25
    le pubblicità personalizzate
    non danno fastidio.
  • 4:25 - 4:27
    Cioè io so cosa comprare,
  • 4:28 - 4:31
    o comunque della mia privacy
    mi importa relativamente,
  • 4:31 - 4:33
    perché non ho niente da nascondere.
  • 4:35 - 4:37
    Quando parliamo di privacy,
    prima di tutto,
  • 4:37 - 4:40
    dobbiamo pensare alla privacy
    come un diritto umano.
  • 4:40 - 4:43
    E quindi la privacy
    non ha mai avuto a che vedere
  • 4:43 - 4:45
    con l'idea di non avere
    niente da nascondere,
  • 4:45 - 4:48
    ma piuttosto con la nostra libertà
    di ricavarci uno spazio autonomo
  • 4:48 - 4:53
    e libero da interferenze esterne,
    tanto private quanto pubbliche;
  • 4:55 - 4:56
    ma soprattutto, io credo
  • 4:56 - 4:59
    che quando parliamo
    di privacy oggi, nel 2019,
  • 4:59 - 5:00
    dobbiamo pensare alla privacy
  • 5:00 - 5:04
    come un diritto collettivo,
    non solo individuale.
  • 5:05 - 5:07
    Vi faccio un esempio.
  • 5:08 - 5:10
    Siccome quello che fanno gli algoritmi
  • 5:10 - 5:14
    non è aggregare tanto i dati di individui
    ma piuttosto i dati di gruppi,
  • 5:14 - 5:17
    quello che succede è che poi gli algoritmi
  • 5:17 - 5:21
    molto spesso sono in grado, anche,
    di conoscere le nostre debolezze -
  • 5:21 - 5:24
    e utilizzarle, a scopo
    di lucro per l'appunto.
  • 5:25 - 5:27
    Gli algoritmi oggi vengono già utilizzati
  • 5:27 - 5:29
    per prendere delle decisioni
    anche sociali.
  • 5:29 - 5:30
    Ad esempio,
  • 5:30 - 5:33
    negli Stati Uniti o in Australia
    già si utilizzano gli algoritmi
  • 5:33 - 5:36
    per decidere se una persona
    merita un lavoro,
  • 5:36 - 5:40
    o se una persona è più o meno
    un potenziale criminale,
  • 5:40 - 5:41
    se merita un mutuo.
  • 5:44 - 5:46
    Ecco, questi sono degli esempi
  • 5:47 - 5:52
    che ci insegnano che, come abbiamo detto,
    gli algoritmi non sono neutrali.
  • 5:52 - 5:54
    Perché se l'algoritmo non è neutrale,
  • 5:54 - 6:01
    quello che farà è utilizzare,
    o comunque vedere,
  • 6:01 - 6:04
    i pregiudizi che ci sono
    dentro alla società,
  • 6:04 - 6:06
    e riprodurli ed espanderli.
  • 6:07 - 6:10
    Quindi sono diventati molto famosi
  • 6:10 - 6:13
    casi in cui, per esempio,
    come quello che vedete alle mie spalle,
  • 6:13 - 6:15
    un algoritmo negli Stati Uniti
  • 6:15 - 6:18
    decideva se una persona
    fosse più o meno potenziale criminale,
  • 6:18 - 6:20
    e risultava discriminante verso i neri;
  • 6:20 - 6:22
    oppure l'algoritmo di Amazon
  • 6:22 - 6:25
    che a un certo punto,
    tramite Intelligenza Artificiale,
  • 6:25 - 6:26
    decideva se una persona
  • 6:26 - 6:29
    fosse più o meno valida
    per fare parte dell'azienda,
  • 6:29 - 6:31
    e risultava discriminante verso le donne.
  • 6:32 - 6:34
    Perché se la nostra società ci dice
  • 6:34 - 6:36
    che i neri sono criminali
    più probabili dei bianchi,
  • 6:36 - 6:38
    l'algoritmo dirà la stessa cosa;
  • 6:38 - 6:40
    e se la società ci dice
  • 6:40 - 6:44
    che le donne sono meno valide degli uomini
    per fare lavori di leadership,
  • 6:44 - 6:45
    l'algoritmo dirà la stessa cosa.
  • 6:46 - 6:48
    Ecco perché è un problema collettivo:
  • 6:48 - 6:51
    perché l'algoritmo riproduce
    la cultura dominante.
  • 6:52 - 6:54
    Ma vi voglio fare un altro esempio:
  • 6:55 - 6:56
    ci sono casi,
  • 6:56 - 6:59
    come Cambridge Analytica
    o il caso Snowden,
  • 6:59 - 7:00
    che ci hanno insegnato
  • 7:00 - 7:05
    che più spesso di quello che pensiamo
    le piattaforme utilizzano i nostri dati
  • 7:05 - 7:07
    e li condividono
    non solo con altre aziende,
  • 7:07 - 7:09
    ma anche con gli Stati, con i governi,
  • 7:09 - 7:11
    che li utilizzano per conoscere
  • 7:11 - 7:14
    i nostri movimenti,
    le nostre conversazioni - per spiarci.
  • 7:17 - 7:20
    Questo, ovviamente, è molto problematico.
  • 7:20 - 7:24
    E vi faccio un esempio:
    io sono un'attivista, e per gli attivisti,
  • 7:24 - 7:26
    che sono coloro che, per definizione,
  • 7:26 - 7:30
    mettono in discussione il potere
    e cercano cambiamento sociale,
  • 7:30 - 7:33
    la sorveglianza significa controllo.
  • 7:35 - 7:39
    Questo è già successo in Francia,
    non tanto distante da noi,
  • 7:39 - 7:40
    quando nel 2015,
  • 7:40 - 7:43
    in seguito alla dichiarazione
    dello stato di emergenza
  • 7:43 - 7:44
    dopo gli attentati terroristici,
  • 7:44 - 7:50
    il governo francese comincia a seguire
    e spiare gli attivisti ecologisti
  • 7:50 - 7:51
    per evitare che manifestassero.
  • 7:52 - 7:56
    In questo senso, il diritto alla privacy
    è quello che si lega ad altri diritti,
  • 7:56 - 8:01
    come il diritto a manifestare,
    il diritto di organizzazione,
  • 8:01 - 8:02
    la libertà di espressione.
  • 8:04 - 8:07
    Sono tutti diritti che hanno
    a che vedere con "noi":
  • 8:07 - 8:10
    non stiamo parlando solo dei miei dati,
    stiamo parlando dei nostri dati.
  • 8:11 - 8:14
    Quindi, quando parliamo
    di società digitale
  • 8:15 - 8:17
    io credo che sia molto importante
  • 8:17 - 8:20
    che ricominciamo a vederci
    come parte di una comunità,
  • 8:21 - 8:24
    e cominciamo a pensare ai nostri dati
    come un bene comune.
  • 8:25 - 8:26
    Oltre a questo,
  • 8:26 - 8:30
    dobbiamo cominciare anche
    ad adottare uno sguardo critico
  • 8:30 - 8:34
    in cui cominciamo a chiedere noi,
  • 8:34 - 8:36
    di decidere che cosa è privato
    che cosa è pubblico.
  • 8:37 - 8:39
    Cominciamo a mettere in discussione
  • 8:39 - 8:41
    questo nostro ruolo
    di cittadini/consumatori,
  • 8:41 - 8:45
    in cui non ci è dato scegliere -
    e sono dei privati, a scegliere -
  • 8:45 - 8:49
    i termini e le condizioni
    della nostra partecipazione sociale,
  • 8:49 - 8:53
    e della nostra visibilità online
    dei contenuti che consumiamo,
  • 8:53 - 8:56
    che contribuiscono a creare
    la nostra visione del mondo.
  • 8:58 - 8:59
    Dobbiamo, veramente,
  • 8:59 - 9:01
    riaprire un dibattito completamente nuovo,
  • 9:02 - 9:05
    e dobbiamo cominciare
    a fissare dei limiti etici.
  • 9:05 - 9:08
    In questo senso,
    dobbiamo imparare dal passato,
  • 9:08 - 9:11
    perché se pensiamo,
    per esempio, al petrolio,
  • 9:11 - 9:13
    il petrolio è stata una risorsa
  • 9:13 - 9:17
    che ci ha permesso di svilupparci,
    come società, in una maniera incredibile.
  • 9:19 - 9:20
    Però, forse, sarebbe stato meglio
  • 9:20 - 9:25
    renderci conto prima
    che dovevamo regolamentare le aziende
  • 9:26 - 9:29
    prima di svegliarci
    nel mezzo del cambiamento climatico.
  • 9:29 - 9:32
    Ecco: non possiamo lasciare
    che con Internet succeda la stessa cosa.
  • 9:32 - 9:33
    Dobbiamo fissare dei limiti.
  • 9:36 - 9:38
    Dopo avervi terrorizzati,
  • 9:38 - 9:42
    vorrei però provare a lasciarvi
    anche un po' di speranza,
  • 9:42 - 9:45
    raccontando anche
    la mia esperienza di attivista.
  • 9:45 - 9:49
    Io, appunto, di questi temi
    mi sono sempre interessata:
  • 9:49 - 9:50
    ho cominciato studiandoli,
  • 9:50 - 9:53
    e poi a un certo punto
    ho cercato di capire
  • 9:53 - 9:55
    come li potevo portare
    fuori dall'università.
  • 9:57 - 10:00
    E la prima cosa che ho capito è stata che,
  • 10:00 - 10:02
    per capire come risolvere
    i problemi su Internet,
  • 10:02 - 10:04
    dobbiamo sempre parlare dall'intersezione
  • 10:04 - 10:09
    tra società, tecnologia,
    politica, economia.
  • 10:09 - 10:11
    Non possiamo fidarci
  • 10:11 - 10:14
    di coloro che ci offrono soluzioni
    solo tecniche, o solo giuridiche.
  • 10:17 - 10:21
    Circa un anno fa, sono diventata
    il volto di questa campagna
  • 10:21 - 10:23
    che si chiama "Intimità Violata":
  • 10:24 - 10:26
    ancora oggi sono emozionata a dirlo,
  • 10:26 - 10:29
    perché nel giro di pochissimi mesi
  • 10:29 - 10:33
    da una petizione su change.org
    siamo passati ad avere una legge.
  • 10:34 - 10:37
    E come è stato fatto questo?
  • 10:37 - 10:41
    È stata creata, prima di tutto,
    una rete amplissima di esperti -
  • 10:41 - 10:45
    che è una cosa che oggi facciamo
    sempre meno, consultare gli esperti.
  • 10:45 - 10:48
    Per Intimità Violata,
    e per il "revenge porn" -
  • 10:48 - 10:51
    la condivisione non consensuale
    di materiale intimo -
  • 10:52 - 10:55
    abbiamo avuto bisogno di consultare
    non solo giuristi, non solo politici,
  • 10:55 - 10:58
    ma anche informatici,
    psicologi, sociologi.
  • 10:59 - 11:02
    Insomma, abbiamo veramente creato
    una rete dal basso
  • 11:02 - 11:05
    per fare in modo di approcciarci
    a questi problemi nel modo giusto.
  • 11:08 - 11:11
    E questo è stato molto importante
    perché nel nostro percorso
  • 11:11 - 11:15
    c'è stato chi proponeva
    delle soluzioni alternative alle nostre,
  • 11:15 - 11:17
    per esempio,
  • 11:17 - 11:22
    c'era chi proponeva
    di vietare il "sexting",
  • 11:22 - 11:26
    ovvero lo scambio
    di video/foto intime tra partner,
  • 11:27 - 11:30
    andando di fatto a censurare
    la libertà di espressione dei cittadini;
  • 11:31 - 11:34
    oppure c'è chi proponeva
    solo soluzioni tecniche,
  • 11:34 - 11:38
    dicendo: "Implementiamo
    il fingerprinting, l'impronta digitale:
  • 11:38 - 11:40
    creiamo dei grossi archivi on line
  • 11:40 - 11:42
    in cui tutte le foto
    che sono sulle piattaforme
  • 11:42 - 11:45
    sono schedate insieme,
  • 11:45 - 11:49
    e in questo modo rimuoveremo
    il materiale più rapidamente"
  • 11:49 - 11:53
    andando a creare di fatto problemi
    per la sorveglianza dei cittadini.
  • 11:53 - 11:55
    Ecco: questo è un esempio per dire
  • 11:55 - 11:59
    che quando parliamo
    di Internet, di problemi,
  • 11:59 - 12:03
    dobbiamo veramente adottare
    uno sguardo sociale e culturale,
  • 12:03 - 12:04
    cioè renderci conto
  • 12:04 - 12:07
    che come il revenge porn, per esempio,
    non nasce da Internet,
  • 12:07 - 12:10
    ma nasce da una violenza
    che è già presente nella società -
  • 12:10 - 12:11
    quella contro le donne.
  • 12:12 - 12:17
    Allo stesso modo,
    l'odio online non lo risolveremo
  • 12:17 - 12:22
    solo parlando di far iscrivere i cittadini
    sulle piattaforme con un documento;
  • 12:23 - 12:25
    o il problema dei monopoli su Internet
  • 12:25 - 12:29
    non lo risolveremo utilizzando
    tecnologie nuove come la blockchain,
  • 12:30 - 12:34
    perché non esiste la causa e l'effetto
    dell'utilizzo di una tecnologia,
  • 12:34 - 12:37
    dobbiamo pensare in una maniera
    completamente nuova.
  • 12:38 - 12:42
    Per fare questo, ci sono
    due cose che possiamo fare.
  • 12:42 - 12:44
    La prima è educarci.
  • 12:44 - 12:47
    Dobbiamo conoscere i nostri diritti,
    per poterli difendere.
  • 12:47 - 12:51
    Dobbiamo parlare del problema
    dell'accentramento di poteri su Internet
  • 12:51 - 12:52
    con i monopoli;
  • 12:52 - 12:55
    dobbiamo parlare di come
    funzionano le piattaforme;
  • 12:55 - 12:58
    dobbiamo cominciare a chiedere noi,
    che cosa vogliamo.
  • 12:59 - 13:01
    E dobbiamo parlare di cos'è privato
    e di cos'è pubblico.
  • 13:03 - 13:07
    L'altra cosa è unirsi, fare attivismo.
  • 13:07 - 13:10
    A me piace molto, in questo caso,
    citare Greta Thumberg,
  • 13:10 - 13:13
    che dice "Activism Works":
    l'attivismo funziona.
  • 13:14 - 13:15
    Ed è davvero così!
  • 13:15 - 13:21
    Forse noi, ancora dentro
    al nostro sguardo un po' individualista
  • 13:21 - 13:23
    che ci siamo abituati ad adottare,
  • 13:23 - 13:25
    ci siamo dimenticati della potenza
  • 13:25 - 13:29
    di tante persone che si mettono insieme
    per portare avanti qualcosa.
  • 13:30 - 13:34
    Però la verità è che,
    se vogliamo cambiamento sociale,
  • 13:34 - 13:36
    dobbiamo ricominciare a guardarci.
  • 13:36 - 13:39
    Perché qui, quando parliamo
    di diritti digitali,
  • 13:39 - 13:42
    parliamo del futuro
    della nostra democrazia.
  • 13:43 - 13:46
    Parliamo del fatto che dobbiamo chiederci
  • 13:46 - 13:50
    come fare a risolvere
    l'immensa forbice sociale
  • 13:50 - 13:51
    che le piattaforme stanno creando,
  • 13:51 - 13:54
    e come risolvere veramente l'odio online.
  • 13:57 - 14:01
    Questo, appunto,
    sarà un processo molto lungo,
  • 14:02 - 14:07
    però credo che sarà l'unica cosa
    che possiamo davvero fare.
  • 14:08 - 14:11
    Anche perché dobbiamo parlare
    di quello che Internet può fare,
  • 14:11 - 14:12
    non solo dei problemi che causa.
  • 14:12 - 14:16
    Nel senso che Internet,
    non solo nel mio caso ma nel mondo,
  • 14:16 - 14:21
    è stato responsabile
    dell'espansione dei movimenti sociali,
  • 14:22 - 14:25
    da #metoo a #FridayForFuture.
  • 14:25 - 14:27
    È diventato uno strumento
  • 14:27 - 14:30
    per fare in modo che le persone
    si potessero unire sulla rete,
  • 14:30 - 14:31
    e allo stesso tempo
  • 14:31 - 14:35
    può creare anche degli spazi sicuri
    per le persone per parlarsi,
  • 14:35 - 14:37
    per le comunità discriminate.
  • 14:37 - 14:40
    Quindi, crediamoci nel fatto
    che Internet ci possa aiutare:
  • 14:40 - 14:43
    però, prima, chiediamoci
    dove stiamo andando.
  • 14:43 - 14:45
    Siamo in un momento cruciale della Storia,
  • 14:45 - 14:50
    e dobbiamo veramente,
    veramente cominciare a lavorare insieme.
  • 14:50 - 14:52
    Una delle cose che ho imparato quest'anno
  • 14:52 - 14:56
    è che le persone ti diranno sempre
    che non cambia mai niente,
  • 14:56 - 14:58
    che non possiamo fare niente,
    che le cose sono così.
  • 14:59 - 15:03
    Però, quello che io oggi
    spero di potervi lasciare
  • 15:03 - 15:04
    è che non è vero.
  • 15:04 - 15:08
    Non è vero perché io ho cominciato
    da zero, e oggi sono qui.
  • 15:09 - 15:11
    Ed è stato solo perché ci ho creduto.
  • 15:11 - 15:14
    Quindi, crediamo nei nostri diritti,
  • 15:14 - 15:18
    crediamo nelle nostre libertà
    e crediamo nel cambiamento.
  • 15:18 - 15:19
    Grazie.
  • 15:19 - 15:20
    (Applausi)
Title:
Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo
Description:

A TEDxLakeComo, l'esperta di data justice e diritti digitali Silvia Semenzin ci ricorda la forza dei movimenti collettivi nel generare cambiamento. Un cambiamento che non può però affidarsi solamente alla tecnologia, ma deve fondarsi sull'evoluzione della cultura.

Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.

Per maggiori informazioni, visita il sito http://ted.com/tedx

more » « less
Video Language:
Italian
Team:
closed TED
Project:
TEDxTalks
Duration:
15:31

Italian subtitles

Revisions