Return to Video

Come si può aiutare a trasformare internet in un luogo di fiducia

  • 0:02 - 0:04
    Non importa chi siete o dove vivete,
  • 0:04 - 0:06
    credo che voi abbiate almeno un parente
  • 0:06 - 0:09
    a cui piace inoltrare quelle email.
  • 0:09 - 0:11
    Sapete di quali mail sto parlando,
  • 0:11 - 0:14
    quelle con dichiarazioni dubbie
    o video di complotti.
  • 0:14 - 0:17
    Probabilmente li avete
    già silenziati su Facebook
  • 0:17 - 0:19
    proprio perché condividono
    post \come questo.
  • 0:19 - 0:21
    È l'immagine di una banana
  • 0:21 - 0:23
    con una strana croce rossa
    che attraversa il centro.
  • 0:23 - 0:26
    E il testo che l'accompagna
    avverte la gente
  • 0:26 - 0:28
    di non mangiare la frutta
    con quell'aspetto,
  • 0:28 - 0:30
    insinuando che vi abbiano
    iniettato del sangue
  • 0:30 - 0:32
    contaminato con il virus dell'HIV.
  • 0:32 - 0:35
    Il messaggio da condividere
    sopra la foto dice solamente:
  • 0:35 - 0:37
    "Per favore, inoltratelo
    per salvare delle vite."
  • 0:38 - 0:41
    Ora, chi effettua le verifiche
    l'ha smentito per anni,
  • 0:41 - 0:44
    ma è una di quelle dicerie
    che non vogliono proprio morire.
  • 0:44 - 0:45
    La diceria zombi.
  • 0:46 - 0:48
    E naturalmente, è assolutamente falsa.
  • 0:48 - 0:51
    Potremmo essere tentati di ridere
    per una cosa come questa e dire:
  • 0:51 - 0:53
    "Ma comunque, chi ci crederebbe?"
  • 0:53 - 0:55
    Ma la ragione per cui è una diceria zombi
  • 0:55 - 0:59
    è che tocca le paure più profonde
    della gente sulla propria sicurezza
  • 0:59 - 1:01
    e la sicurezza di quelli che amano.
  • 1:02 - 1:05
    Se passate tanto tempo come me
    a guardare la cattiva informazione,
  • 1:05 - 1:08
    sapete che questo
    è solo uno dei molti esempi
  • 1:08 - 1:11
    che toccano le paure e le fragilità
    più profonde delle persone.
  • 1:11 - 1:16
    Ogni giorno in tutto il mondo,
    vediamo un sacco di meme su Instagram
  • 1:16 - 1:18
    che incoraggiano i genitori
    a non vaccinare i loro bambini.
  • 1:18 - 1:23
    Sempre nuovi video su YouTube spiegano
    che il cambiamento climatico è una bufala.
  • 1:23 - 1:28
    Su tutte le piattaforme vediamo
    fiumi di post che demonizzano gli altri
  • 1:28 - 1:31
    sulla base della loro razza,
    religione o sessualità.
  • 1:32 - 1:35
    Benvenuti in una delle sfide
    fondamentali dei nostri tempi.
  • 1:36 - 1:40
    Come possiamo avere una rete
    con al centro la libertà di espressione,
  • 1:40 - 1:43
    e assicurare allo stesso tempo
    che il contenuto che viene diffuso
  • 1:43 - 1:47
    non causerà danni irreparabili
    alle nostre democrazie, alle comunità
  • 1:47 - 1:49
    e al nostro benessere fisico e mentale?
  • 1:50 - 1:52
    Perché viviamo nell'era dell'informazione,
  • 1:52 - 1:56
    ma la valuta fondamentale
    da cui tutti dipendiamo, l'informazione,
  • 1:56 - 1:58
    non è più ritenuta sempre affidabile
  • 1:58 - 2:00
    e, alle volte, può essere
    veramente pericolosa.
  • 2:01 - 2:05
    In parte lo si deve alla rapida crescita
    di piattaforme di condivisione
  • 2:05 - 2:06
    dove possiamo leggere velocemente,
  • 2:06 - 2:09
    e dove bugie e fatti
    stanno fianco a fianco,
  • 2:09 - 2:12
    ma senza nessuno dei tradizionali
    segnali di attendibilità.
  • 2:12 - 2:16
    E mamma mia, la nostra lingua
    su questo è orribilmente confusa.
  • 2:16 - 2:19
    La gente è ancora ossessionata
    dall'espressione "fake news",
  • 2:19 - 2:22
    nonostante il fatto
    che sia incredibilmente inutile
  • 2:22 - 2:25
    e usata per descrivere cose
    che in realtà sono molto diverse:
  • 2:25 - 2:28
    bugie, dicerie, bufale,
    complotti, propaganda.
  • 2:29 - 2:32
    Vorrei davvero che la smettessimo
    di usare un'espressione
  • 2:32 - 2:35
    che è stata cooptata
    dai politici di tutto il mondo,
  • 2:35 - 2:36
    sia di destra che di sinistra,
  • 2:36 - 2:39
    usata come un'arma per attaccare
    la stampa libera e indipendente.
  • 2:40 - 2:45
    (Applausi)
  • 2:45 - 2:48
    Perché abbiamo bisogno dei nostri
    mezzi d'informazione, ora più che mai.
  • 2:49 - 2:52
    Oltretutto, molti di questi contenuti
    non si travestono nemmeno da notizie.
  • 2:52 - 2:55
    Sono meme, video, post sui social.
  • 2:55 - 2:58
    E la maggior parte non sono falsi;
    sono fuorvianti.
  • 2:58 - 3:01
    Tendiamo a fissarci
    su ciò che è vero o falso.
  • 3:01 - 3:05
    Ma la più grande preoccupazione
    è che il contesto si usa come un'arma.
  • 3:07 - 3:09
    Perché la disinformazione più efficace
  • 3:09 - 3:12
    è sempre stata quella
    che contiene un nucleo di verità.
  • 3:12 - 3:15
    Prendiamo come esempio Londra
    nel marzo del 2017,
  • 3:15 - 3:17
    un tweet che è circolato molto
  • 3:17 - 3:21
    dopo il disastroso attacco terroristico
    sul Westminster Bridge.
  • 3:21 - 3:23
    Quest'immagine è vera, non è un falso.
  • 3:23 - 3:26
    La donna che appare nella foto
    è stata intervistata subito dopo
  • 3:26 - 3:29
    e ha spiegato che era
    assolutamente traumatizzata.
  • 3:29 - 3:30
    Era al telefono con una persona cara,
  • 3:30 - 3:33
    e non stava guardando la vittima
    per un senso di rispetto.
  • 3:33 - 3:37
    Ma continuava a circolare diffusamente
    con questa didascalia islamofobica,
  • 3:37 - 3:40
    con vari hashtag, incluso: #BanIslam.
  • 3:40 - 3:43
    Ora, se voi lavoraste
    per Twitter, cosa fareste?
  • 3:43 - 3:45
    La cancellereste o la lascereste?
  • 3:47 - 3:50
    La mia reazione istintiva, una reazione
    emotiva, sarebbe di cancellarla.
  • 3:50 - 3:52
    Odio la didascalia di quest'immagine.
  • 3:53 - 3:55
    Ma la libertà di espressione
    è un diritto umano,
  • 3:55 - 3:58
    e se iniziamo a eliminare discorsi
    che ci fanno sentire a disagio,
  • 3:58 - 3:59
    siamo nei guai.
  • 3:59 - 4:02
    Questo potrebbe sembrare un caso evidente,
  • 4:02 - 4:04
    ma molti discorsi non lo sono.
  • 4:04 - 4:06
    Lo spartiacque è
    molto difficile da individuare.
  • 4:06 - 4:08
    Una decisione con buone
    intenzioni per una persona
  • 4:08 - 4:10
    è una censura assoluta per un'altra.
  • 4:11 - 4:14
    Ora sappiamo che questo account,
    Texas Lone Star,
  • 4:14 - 4:17
    fa parte di una campagna russa
    di disinformazione più ampia,
  • 4:17 - 4:19
    una campagna che da allora è stata chiusa.
  • 4:19 - 4:21
    Questo vi farebbe cambiare idea?
  • 4:21 - 4:22
    A me si,
  • 4:22 - 4:25
    perché qui si tratta
    di una campagna concertata
  • 4:25 - 4:26
    per seminare discordia.
  • 4:26 - 4:28
    E per tutti quelli
    a cui piacerebbe pensare
  • 4:28 - 4:31
    che l'intelligenza artificiale
    risolverà tutti i problemi,
  • 4:31 - 4:33
    penso siate d'accordo
    nel ritenere che siamo lontani
  • 4:33 - 4:37
    da un'intelligenza artificiale
    capace di analizzare un post come questo.
  • 4:37 - 4:39
    Vorrei spiegarvi
    tre problematiche interconnesse
  • 4:39 - 4:42
    che rendono il tutto molto complesso,
  • 4:42 - 4:45
    e poi cercare dei modi
    per affrontare queste sfide.
  • 4:45 - 4:49
    Primo, noi semplicemente non abbiamo
    un rapporto razionale con l'informazione,
  • 4:49 - 4:51
    ne abbiamo uno emotivo.
  • 4:51 - 4:55
    Semplicemente non è vero che più fatti
    metterebbero tutto a posto,
  • 4:55 - 4:58
    perché gli algoritmi che determinano
    i contenuti che noi vediamo
  • 4:58 - 5:01
    sono concepiti per premiare
    le nostre risposte emotive.
  • 5:01 - 5:02
    E quando abbiamo paura,
  • 5:02 - 5:05
    una narrativa semplificata,
    la cospirazione come spiegazione,
  • 5:05 - 5:09
    e un linguaggio che demonizza gli altri
    sono molto più efficaci.
  • 5:10 - 5:11
    Inoltre, molte di queste compagnie,
  • 5:11 - 5:14
    il loro modello imprenditoriale
    richiede attenzione,
  • 5:14 - 5:18
    il che significa che questi logaritmi
    saranno sempre deviati verso l'emozione.
  • 5:18 - 5:23
    Secondo, la maggior parte di quello
    di cui sto parlando ora è legale.
  • 5:23 - 5:24
    Sarebbe tutta un'altra cosa
  • 5:24 - 5:27
    se parlassi di immagini
    di violenza su minori
  • 5:27 - 5:29
    o di contenuti che incitano alla violenza.
  • 5:29 - 5:32
    Può essere perfettamente legale
    pubblicare una palese bugia.
  • 5:33 - 5:37
    Ma si continua a parlare di oscurare
    i contenuti "problematici" o "dannosi",
  • 5:37 - 5:40
    senza una chiara definizione
    di ciò che si intende,
  • 5:40 - 5:41
    incluso Mark Zuckerberg,
  • 5:41 - 5:45
    che di recente ha chiesto delle regole
    per la moderazione globale del linguaggio.
  • 5:45 - 5:48
    La mia preoccupazione è che stiamo vedendo
    governi di tutto il mondo
  • 5:48 - 5:51
    presentare decisioni politiche frettolose
  • 5:51 - 5:54
    che potrebbero innescare
    delle conseguenze molto più serie
  • 5:54 - 5:56
    relativamente al nostro discorso.
  • 5:56 - 6:00
    Anche se noi potessimo decidere
    quale discorso lasciare e quale oscurare,
  • 6:00 - 6:02
    non ci sono mai stati così tanti messaggi.
  • 6:02 - 6:06
    Ogni secondo, milioni di contenuti
    vengono caricati nel mondo
  • 6:06 - 6:07
    in diverse lingue,
  • 6:07 - 6:10
    e si riferiscono a migliaia
    di contesti culturali diversi.
  • 6:10 - 6:13
    Non abbiamo mai avuto
    dei meccanismi efficaci
  • 6:13 - 6:15
    per moderare interventi su questa scala,
  • 6:15 - 6:17
    che siano alimentati
    dagli umani o dalla tecnologia.
  • 6:18 - 6:22
    E terzo, queste compagnie,
    Google, Twitter, Facebook, WhatsApp,
  • 6:22 - 6:25
    sono parte di un ecosistema più ampio.
  • 6:25 - 6:28
    Ci piace dare tutta la colpa a loro,
    ma la verità è che
  • 6:28 - 6:32
    i mass media e i politici possono giocare
    un ruolo ugualmente importante
  • 6:32 - 6:35
    nell'amplificare le dicerie
    e i complotti quando lo vogliono.
  • 6:36 - 6:39
    Come possiamo farlo noi,
    quando senza pensarci
  • 6:39 - 6:42
    inoltriamo messaggi divisivi
    o fuorvianti senza verificare.
  • 6:42 - 6:44
    Stiamo aumentando l'inquinamento.
  • 6:45 - 6:48
    So che stiamo cercando tutti
    una facile soluzione.
  • 6:48 - 6:50
    Ma semplicemente non ce n'è una.
  • 6:50 - 6:54
    Qualsiasi soluzione dovrà essere lanciata
    su scala enorme, su scala internet,
  • 6:54 - 6:58
    e certo, le piattaforme sono abituate
    a operare a quei livelli.
  • 6:58 - 7:01
    Ma possiamo e dovremmo permettere
    che loro risolvano questi problemi?
  • 7:02 - 7:03
    Sicuramente stanno provando.
  • 7:03 - 7:07
    Ma molti di noi in realtà direbbero
    che non vogliono le corporazioni globali
  • 7:07 - 7:10
    a salvaguardia della verità
    e della correttezza in rete.
  • 7:10 - 7:12
    Penso che anche le piattaforme
    sarebbero d'accordo.
  • 7:12 - 7:15
    Al momento, loro stanno facendo
    i loro compiti per casa.
  • 7:15 - 7:16
    Amano dirci
  • 7:16 - 7:19
    che gli interventi che operano
    stanno funzionando,
  • 7:19 - 7:21
    ma dato che scrivono loro
    le relazioni sulla trasparenza,
  • 7:21 - 7:25
    non c'è modo di verificare in modo
    indipendente cosa sta realmente accadendo.
  • 7:26 - 7:30
    (Applausi)
  • 7:30 - 7:33
    E chiariamo che molti
    dei cambiamenti che vediamo
  • 7:33 - 7:36
    avvengono solo dopo che
    un indagine giornalistica
  • 7:36 - 7:37
    trova le prove di faziosità
  • 7:37 - 7:40
    o di contenuti che vanno contro
    le linee guida della comunità.
  • 7:41 - 7:45
    Quindi sì, queste compagnie devono giocare
    un ruolo importante in questo processo,
  • 7:45 - 7:47
    ma non possono controllarlo.
  • 7:48 - 7:49
    E che dire dei governi?
  • 7:50 - 7:53
    Molte persone credono che delle regole
    globali siano l'ultima speranza
  • 7:53 - 7:56
    di pulire il nostro ecosistema
    dell'informazione.
  • 7:56 - 7:59
    Ma quello che vedo sono legislatori
    che faticano a tenersi al passo
  • 7:59 - 8:01
    con la rapida evoluzione tecnologica.
  • 8:01 - 8:03
    Ancor peggio, stanno lavorando al buio,
  • 8:03 - 8:05
    perché non hanno accesso ai dati
  • 8:05 - 8:08
    per capire cosa sta accadendo
    su queste piattaforme.
  • 8:08 - 8:11
    E comunque, di quale governo ci fideremmo?
  • 8:11 - 8:14
    C'è bisogno di una risposta globale,
    non nazionale.
  • 8:15 - 8:18
    Quindi, l'anello mancante siamo noi.
  • 8:18 - 8:21
    È la gente che usa
    questa tecnologia ogni giorno.
  • 8:21 - 8:24
    Possiamo progettare
    una nuova infrastruttura
  • 8:24 - 8:27
    per sostenere l'informazione di qualità?
  • 8:27 - 8:28
    Io penso di si,
  • 8:28 - 8:31
    e ho delle idee su cosa
    potremmo veramente fare.
  • 8:31 - 8:34
    Per prima cosa, abbiamo intenzione
    di coinvolgere il pubblico,
  • 8:34 - 8:37
    possiamo farci ispirare da Wikipedia?
  • 8:37 - 8:38
    Ci hanno dimostrato che è possibile.
  • 8:38 - 8:40
    Certo, non è perfetta,
  • 8:40 - 8:42
    ma ci hanno dimostrato
    che con la struttura giusta,
  • 8:42 - 8:44
    una prospettiva globale
    e moltissima trasparenza,
  • 8:44 - 8:47
    si può costruire qualcosa
    che si guadagni la fiducia della gente.
  • 8:48 - 8:51
    Perché dobbiamo trovare il modo
    di attingere alla saggezza collettiva
  • 8:51 - 8:53
    e all'esperienza di tutti gli utenti.
  • 8:53 - 8:56
    E in modo particolare per le donne,
    la gente di colore
  • 8:56 - 8:58
    e i gruppi poco rappresentati.
  • 8:58 - 8:59
    Perché sapete una cosa?
  • 8:59 - 9:01
    Loro sono esperti
    di odio e disinformazione,
  • 9:01 - 9:05
    perché sono stati per molto tempo
    il bersaglio di queste campagne.
  • 9:05 - 9:07
    Negli anni hanno lanciato l'allarme
  • 9:07 - 9:09
    e non stati ascoltati.
  • 9:09 - 9:10
    Questo deve cambiare.
  • 9:11 - 9:15
    Potremmo quindi costruire
    una Wikipedia per la fiducia?
  • 9:15 - 9:19
    Potremmo trovare un modo in cui gli utenti
    possono fornire informazioni utili?
  • 9:19 - 9:23
    Potrebbero dare opinioni sulle difficili
    decisioni sulla moderazione del contenuto.
  • 9:23 - 9:25
    Potrebbero offrire un riscontro
  • 9:25 - 9:28
    quando le piattaforme decidono
    di approntare dei cambiamenti.
  • 9:28 - 9:32
    Secondo, l'esperienza della gente
    con l'informazione è personalizzata.
  • 9:32 - 9:35
    Le notizie che mi arrivano su Facebook
    sono diverse dalle vostre.
  • 9:35 - 9:38
    I vostri video consigliati su YouTube
    sono diversi dei miei.
  • 9:38 - 9:41
    Questo ci rende veramente
    impossibile controllare
  • 9:41 - 9:42
    che informazioni la gente vede.
  • 9:43 - 9:44
    Quindi potremmo immaginare
  • 9:44 - 9:49
    di sviluppare una sorta di deposito aperto
    e centralizzato di dati resi anonimi,
  • 9:49 - 9:52
    con attenzione alla privacy e all'etica.
  • 9:52 - 9:54
    Perché immaginate
    cosa potremmo imparare
  • 9:54 - 9:57
    se costruissimo una rete globale
    di cittadini preoccupati
  • 9:57 - 10:01
    che vogliono donare
    i loro dati social alla scienza.
  • 10:01 - 10:03
    Perché sappiamo veramente molto poco
  • 10:03 - 10:06
    delle conseguenze a lungo termine
    di odio e disinformazione
  • 10:06 - 10:08
    sulla mentalità
    e l'atteggiamento della gente.
  • 10:08 - 10:09
    E quello che sappiamo
  • 10:09 - 10:12
    viene quasi tutto dagli Stati Uniti,
  • 10:12 - 10:14
    anche se questo è un problema globale.
  • 10:14 - 10:16
    Dobbiamo lavorare anche su questo.
  • 10:16 - 10:17
    E terzo,
  • 10:17 - 10:20
    possiamo trovare un modo
    di collegare i puntini?
  • 10:20 - 10:23
    Nessun settore, men che meno
    nonprofit, start-up o un governo,
  • 10:23 - 10:25
    risolverà questo problema.
  • 10:25 - 10:27
    Ma si sono persone
    veramente in gamba nel mondo
  • 10:27 - 10:29
    che lavorano su questi cambiamenti,
  • 10:29 - 10:32
    dalle redazioni, alla società civile,
    l'università, i gruppi di attivisti.
  • 10:32 - 10:34
    Potete vederne alcuni qui.
  • 10:34 - 10:37
    Alcuni costruiscono indicatori
    di credibilità del contenuto.
  • 10:37 - 10:38
    Altri controllano i fatti,
  • 10:38 - 10:41
    così che le false dichiarazioni,
    video e immagini
  • 10:41 - 10:42
    siano declassate dalle piattaforme.
  • 10:42 - 10:45
    Una non profit che ho aiutato
    a fondare, First Draft,
  • 10:45 - 10:47
    lavora con redazioni
    competitive in tutto il mondo
  • 10:47 - 10:51
    per aiutarle a costruire dei programmi
    investigativi e collaborativi.
  • 10:51 - 10:53
    Danny Hillis, un architetto del software,
  • 10:53 - 10:56
    sta programmando un nuovo sistema
    chiamato The Underlay,
  • 10:56 - 10:59
    che sarà un registro
    di tutte le dichiarazioni
  • 10:59 - 11:00
    connesse alla loro fonte,
  • 11:00 - 11:04
    così che la gente e gli algoritmi possano
    giudicare meglio ciò che è credibile.
  • 11:05 - 11:08
    Gli educatori nel mondo
    stanno verificando diverse tecniche
  • 11:08 - 11:12
    per trovare dei modi per rendere la gente
    critica verso ciò che consumano.
  • 11:13 - 11:16
    Tutti questi sforzi sono meravigliosi,
    ma si lavora in scomparti,
  • 11:16 - 11:18
    e tristemente molti di loro
    hanno pochi fondi.
  • 11:18 - 11:21
    Inoltre, ci sono centinaia
    di persone in gamba
  • 11:21 - 11:22
    che lavorano in queste compagnie,
  • 11:22 - 11:25
    ma anche questi sforzi
    sembrano scollegati,
  • 11:25 - 11:29
    perché stanno sviluppando
    diverse soluzioni per lo stesso problema.
  • 11:29 - 11:32
    Come si può trovare il modo
    di riunire queste persone
  • 11:32 - 11:35
    in un unico luogo per giorni
    o settimane di seguito,
  • 11:35 - 11:37
    di modo che affrontino
    questi problemi assieme,
  • 11:37 - 11:39
    ma dalle loro prospettive diverse?
  • 11:39 - 11:40
    Siamo in grado di farlo?
  • 11:40 - 11:44
    Possiamo mettere insieme
    un'ambiziosa risposta coordinata,
  • 11:44 - 11:47
    che metta assieme la vastità
    e la complessità del problema?
  • 11:48 - 11:49
    Penso veramente che si possa.
  • 11:49 - 11:52
    Ricostruiranno assieme
    le basi comuni dell'informazione.
  • 11:53 - 11:54
    Grazie.
  • 11:54 - 11:58
    (Applausi)
Title:
Come si può aiutare a trasformare internet in un luogo di fiducia
Speaker:
Claire Wardle
Description:

Come possiamo fermare la diffusione di contenuti ingannevoli, qualche volta pericolosi, e allo stesso tempo mantenere un internet che abbia al centro la libertà di espressione? L'esperta di disinformazione Claire Wardle esplora le nuove sfide dell'inquinato ambiente online e configura un piano per trasformare internet in un luogo di fiducia, con l'aiuto degli utenti di tutti i giorni. Ci dice: "Assieme, ricostruiamo le basi comuni dell'informazione".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:33

Italian subtitles

Revisions