Come si può aiutare a trasformare internet in un luogo di fiducia
-
0:02 - 0:04Non importa chi siete o dove vivete,
-
0:04 - 0:06credo che voi abbiate almeno un parente
-
0:06 - 0:09a cui piace inoltrare quelle email.
-
0:09 - 0:11Sapete di quali mail sto parlando,
-
0:11 - 0:14quelle con dichiarazioni dubbie
o video di complotti. -
0:14 - 0:17Probabilmente li avete
già silenziati su Facebook -
0:17 - 0:19proprio perché condividono
post \come questo. -
0:19 - 0:21È l'immagine di una banana
-
0:21 - 0:23con una strana croce rossa
che attraversa il centro. -
0:23 - 0:26E il testo che l'accompagna
avverte la gente -
0:26 - 0:28di non mangiare la frutta
con quell'aspetto, -
0:28 - 0:30insinuando che vi abbiano
iniettato del sangue -
0:30 - 0:32contaminato con il virus dell'HIV.
-
0:32 - 0:35Il messaggio da condividere
sopra la foto dice solamente: -
0:35 - 0:37"Per favore, inoltratelo
per salvare delle vite." -
0:38 - 0:41Ora, chi effettua le verifiche
l'ha smentito per anni, -
0:41 - 0:44ma è una di quelle dicerie
che non vogliono proprio morire. -
0:44 - 0:45La diceria zombi.
-
0:46 - 0:48E naturalmente, è assolutamente falsa.
-
0:48 - 0:51Potremmo essere tentati di ridere
per una cosa come questa e dire: -
0:51 - 0:53"Ma comunque, chi ci crederebbe?"
-
0:53 - 0:55Ma la ragione per cui è una diceria zombi
-
0:55 - 0:59è che tocca le paure più profonde
della gente sulla propria sicurezza -
0:59 - 1:01e la sicurezza di quelli che amano.
-
1:02 - 1:05Se passate tanto tempo come me
a guardare la cattiva informazione, -
1:05 - 1:08sapete che questo
è solo uno dei molti esempi -
1:08 - 1:11che toccano le paure e le fragilità
più profonde delle persone. -
1:11 - 1:16Ogni giorno in tutto il mondo,
vediamo un sacco di meme su Instagram -
1:16 - 1:18che incoraggiano i genitori
a non vaccinare i loro bambini. -
1:18 - 1:23Sempre nuovi video su YouTube spiegano
che il cambiamento climatico è una bufala. -
1:23 - 1:28Su tutte le piattaforme vediamo
fiumi di post che demonizzano gli altri -
1:28 - 1:31sulla base della loro razza,
religione o sessualità. -
1:32 - 1:35Benvenuti in una delle sfide
fondamentali dei nostri tempi. -
1:36 - 1:40Come possiamo avere una rete
con al centro la libertà di espressione, -
1:40 - 1:43e assicurare allo stesso tempo
che il contenuto che viene diffuso -
1:43 - 1:47non causerà danni irreparabili
alle nostre democrazie, alle comunità -
1:47 - 1:49e al nostro benessere fisico e mentale?
-
1:50 - 1:52Perché viviamo nell'era dell'informazione,
-
1:52 - 1:56ma la valuta fondamentale
da cui tutti dipendiamo, l'informazione, -
1:56 - 1:58non è più ritenuta sempre affidabile
-
1:58 - 2:00e, alle volte, può essere
veramente pericolosa. -
2:01 - 2:05In parte lo si deve alla rapida crescita
di piattaforme di condivisione -
2:05 - 2:06dove possiamo leggere velocemente,
-
2:06 - 2:09e dove bugie e fatti
stanno fianco a fianco, -
2:09 - 2:12ma senza nessuno dei tradizionali
segnali di attendibilità. -
2:12 - 2:16E mamma mia, la nostra lingua
su questo è orribilmente confusa. -
2:16 - 2:19La gente è ancora ossessionata
dall'espressione "fake news", -
2:19 - 2:22nonostante il fatto
che sia incredibilmente inutile -
2:22 - 2:25e usata per descrivere cose
che in realtà sono molto diverse: -
2:25 - 2:28bugie, dicerie, bufale,
complotti, propaganda. -
2:29 - 2:32Vorrei davvero che la smettessimo
di usare un'espressione -
2:32 - 2:35che è stata cooptata
dai politici di tutto il mondo, -
2:35 - 2:36sia di destra che di sinistra,
-
2:36 - 2:39usata come un'arma per attaccare
la stampa libera e indipendente. -
2:40 - 2:45(Applausi)
-
2:45 - 2:48Perché abbiamo bisogno dei nostri
mezzi d'informazione, ora più che mai. -
2:49 - 2:52Oltretutto, molti di questi contenuti
non si travestono nemmeno da notizie. -
2:52 - 2:55Sono meme, video, post sui social.
-
2:55 - 2:58E la maggior parte non sono falsi;
sono fuorvianti. -
2:58 - 3:01Tendiamo a fissarci
su ciò che è vero o falso. -
3:01 - 3:05Ma la più grande preoccupazione
è che il contesto si usa come un'arma. -
3:07 - 3:09Perché la disinformazione più efficace
-
3:09 - 3:12è sempre stata quella
che contiene un nucleo di verità. -
3:12 - 3:15Prendiamo come esempio Londra
nel marzo del 2017, -
3:15 - 3:17un tweet che è circolato molto
-
3:17 - 3:21dopo il disastroso attacco terroristico
sul Westminster Bridge. -
3:21 - 3:23Quest'immagine è vera, non è un falso.
-
3:23 - 3:26La donna che appare nella foto
è stata intervistata subito dopo -
3:26 - 3:29e ha spiegato che era
assolutamente traumatizzata. -
3:29 - 3:30Era al telefono con una persona cara,
-
3:30 - 3:33e non stava guardando la vittima
per un senso di rispetto. -
3:33 - 3:37Ma continuava a circolare diffusamente
con questa didascalia islamofobica, -
3:37 - 3:40con vari hashtag, incluso: #BanIslam.
-
3:40 - 3:43Ora, se voi lavoraste
per Twitter, cosa fareste? -
3:43 - 3:45La cancellereste o la lascereste?
-
3:47 - 3:50La mia reazione istintiva, una reazione
emotiva, sarebbe di cancellarla. -
3:50 - 3:52Odio la didascalia di quest'immagine.
-
3:53 - 3:55Ma la libertà di espressione
è un diritto umano, -
3:55 - 3:58e se iniziamo a eliminare discorsi
che ci fanno sentire a disagio, -
3:58 - 3:59siamo nei guai.
-
3:59 - 4:02Questo potrebbe sembrare un caso evidente,
-
4:02 - 4:04ma molti discorsi non lo sono.
-
4:04 - 4:06Lo spartiacque è
molto difficile da individuare. -
4:06 - 4:08Una decisione con buone
intenzioni per una persona -
4:08 - 4:10è una censura assoluta per un'altra.
-
4:11 - 4:14Ora sappiamo che questo account,
Texas Lone Star, -
4:14 - 4:17fa parte di una campagna russa
di disinformazione più ampia, -
4:17 - 4:19una campagna che da allora è stata chiusa.
-
4:19 - 4:21Questo vi farebbe cambiare idea?
-
4:21 - 4:22A me si,
-
4:22 - 4:25perché qui si tratta
di una campagna concertata -
4:25 - 4:26per seminare discordia.
-
4:26 - 4:28E per tutti quelli
a cui piacerebbe pensare -
4:28 - 4:31che l'intelligenza artificiale
risolverà tutti i problemi, -
4:31 - 4:33penso siate d'accordo
nel ritenere che siamo lontani -
4:33 - 4:37da un'intelligenza artificiale
capace di analizzare un post come questo. -
4:37 - 4:39Vorrei spiegarvi
tre problematiche interconnesse -
4:39 - 4:42che rendono il tutto molto complesso,
-
4:42 - 4:45e poi cercare dei modi
per affrontare queste sfide. -
4:45 - 4:49Primo, noi semplicemente non abbiamo
un rapporto razionale con l'informazione, -
4:49 - 4:51ne abbiamo uno emotivo.
-
4:51 - 4:55Semplicemente non è vero che più fatti
metterebbero tutto a posto, -
4:55 - 4:58perché gli algoritmi che determinano
i contenuti che noi vediamo -
4:58 - 5:01sono concepiti per premiare
le nostre risposte emotive. -
5:01 - 5:02E quando abbiamo paura,
-
5:02 - 5:05una narrativa semplificata,
la cospirazione come spiegazione, -
5:05 - 5:09e un linguaggio che demonizza gli altri
sono molto più efficaci. -
5:10 - 5:11Inoltre, molte di queste compagnie,
-
5:11 - 5:14il loro modello imprenditoriale
richiede attenzione, -
5:14 - 5:18il che significa che questi logaritmi
saranno sempre deviati verso l'emozione. -
5:18 - 5:23Secondo, la maggior parte di quello
di cui sto parlando ora è legale. -
5:23 - 5:24Sarebbe tutta un'altra cosa
-
5:24 - 5:27se parlassi di immagini
di violenza su minori -
5:27 - 5:29o di contenuti che incitano alla violenza.
-
5:29 - 5:32Può essere perfettamente legale
pubblicare una palese bugia. -
5:33 - 5:37Ma si continua a parlare di oscurare
i contenuti "problematici" o "dannosi", -
5:37 - 5:40senza una chiara definizione
di ciò che si intende, -
5:40 - 5:41incluso Mark Zuckerberg,
-
5:41 - 5:45che di recente ha chiesto delle regole
per la moderazione globale del linguaggio. -
5:45 - 5:48La mia preoccupazione è che stiamo vedendo
governi di tutto il mondo -
5:48 - 5:51presentare decisioni politiche frettolose
-
5:51 - 5:54che potrebbero innescare
delle conseguenze molto più serie -
5:54 - 5:56relativamente al nostro discorso.
-
5:56 - 6:00Anche se noi potessimo decidere
quale discorso lasciare e quale oscurare, -
6:00 - 6:02non ci sono mai stati così tanti messaggi.
-
6:02 - 6:06Ogni secondo, milioni di contenuti
vengono caricati nel mondo -
6:06 - 6:07in diverse lingue,
-
6:07 - 6:10e si riferiscono a migliaia
di contesti culturali diversi. -
6:10 - 6:13Non abbiamo mai avuto
dei meccanismi efficaci -
6:13 - 6:15per moderare interventi su questa scala,
-
6:15 - 6:17che siano alimentati
dagli umani o dalla tecnologia. -
6:18 - 6:22E terzo, queste compagnie,
Google, Twitter, Facebook, WhatsApp, -
6:22 - 6:25sono parte di un ecosistema più ampio.
-
6:25 - 6:28Ci piace dare tutta la colpa a loro,
ma la verità è che -
6:28 - 6:32i mass media e i politici possono giocare
un ruolo ugualmente importante -
6:32 - 6:35nell'amplificare le dicerie
e i complotti quando lo vogliono. -
6:36 - 6:39Come possiamo farlo noi,
quando senza pensarci -
6:39 - 6:42inoltriamo messaggi divisivi
o fuorvianti senza verificare. -
6:42 - 6:44Stiamo aumentando l'inquinamento.
-
6:45 - 6:48So che stiamo cercando tutti
una facile soluzione. -
6:48 - 6:50Ma semplicemente non ce n'è una.
-
6:50 - 6:54Qualsiasi soluzione dovrà essere lanciata
su scala enorme, su scala internet, -
6:54 - 6:58e certo, le piattaforme sono abituate
a operare a quei livelli. -
6:58 - 7:01Ma possiamo e dovremmo permettere
che loro risolvano questi problemi? -
7:02 - 7:03Sicuramente stanno provando.
-
7:03 - 7:07Ma molti di noi in realtà direbbero
che non vogliono le corporazioni globali -
7:07 - 7:10a salvaguardia della verità
e della correttezza in rete. -
7:10 - 7:12Penso che anche le piattaforme
sarebbero d'accordo. -
7:12 - 7:15Al momento, loro stanno facendo
i loro compiti per casa. -
7:15 - 7:16Amano dirci
-
7:16 - 7:19che gli interventi che operano
stanno funzionando, -
7:19 - 7:21ma dato che scrivono loro
le relazioni sulla trasparenza, -
7:21 - 7:25non c'è modo di verificare in modo
indipendente cosa sta realmente accadendo. -
7:26 - 7:30(Applausi)
-
7:30 - 7:33E chiariamo che molti
dei cambiamenti che vediamo -
7:33 - 7:36avvengono solo dopo che
un indagine giornalistica -
7:36 - 7:37trova le prove di faziosità
-
7:37 - 7:40o di contenuti che vanno contro
le linee guida della comunità. -
7:41 - 7:45Quindi sì, queste compagnie devono giocare
un ruolo importante in questo processo, -
7:45 - 7:47ma non possono controllarlo.
-
7:48 - 7:49E che dire dei governi?
-
7:50 - 7:53Molte persone credono che delle regole
globali siano l'ultima speranza -
7:53 - 7:56di pulire il nostro ecosistema
dell'informazione. -
7:56 - 7:59Ma quello che vedo sono legislatori
che faticano a tenersi al passo -
7:59 - 8:01con la rapida evoluzione tecnologica.
-
8:01 - 8:03Ancor peggio, stanno lavorando al buio,
-
8:03 - 8:05perché non hanno accesso ai dati
-
8:05 - 8:08per capire cosa sta accadendo
su queste piattaforme. -
8:08 - 8:11E comunque, di quale governo ci fideremmo?
-
8:11 - 8:14C'è bisogno di una risposta globale,
non nazionale. -
8:15 - 8:18Quindi, l'anello mancante siamo noi.
-
8:18 - 8:21È la gente che usa
questa tecnologia ogni giorno. -
8:21 - 8:24Possiamo progettare
una nuova infrastruttura -
8:24 - 8:27per sostenere l'informazione di qualità?
-
8:27 - 8:28Io penso di si,
-
8:28 - 8:31e ho delle idee su cosa
potremmo veramente fare. -
8:31 - 8:34Per prima cosa, abbiamo intenzione
di coinvolgere il pubblico, -
8:34 - 8:37possiamo farci ispirare da Wikipedia?
-
8:37 - 8:38Ci hanno dimostrato che è possibile.
-
8:38 - 8:40Certo, non è perfetta,
-
8:40 - 8:42ma ci hanno dimostrato
che con la struttura giusta, -
8:42 - 8:44una prospettiva globale
e moltissima trasparenza, -
8:44 - 8:47si può costruire qualcosa
che si guadagni la fiducia della gente. -
8:48 - 8:51Perché dobbiamo trovare il modo
di attingere alla saggezza collettiva -
8:51 - 8:53e all'esperienza di tutti gli utenti.
-
8:53 - 8:56E in modo particolare per le donne,
la gente di colore -
8:56 - 8:58e i gruppi poco rappresentati.
-
8:58 - 8:59Perché sapete una cosa?
-
8:59 - 9:01Loro sono esperti
di odio e disinformazione, -
9:01 - 9:05perché sono stati per molto tempo
il bersaglio di queste campagne. -
9:05 - 9:07Negli anni hanno lanciato l'allarme
-
9:07 - 9:09e non stati ascoltati.
-
9:09 - 9:10Questo deve cambiare.
-
9:11 - 9:15Potremmo quindi costruire
una Wikipedia per la fiducia? -
9:15 - 9:19Potremmo trovare un modo in cui gli utenti
possono fornire informazioni utili? -
9:19 - 9:23Potrebbero dare opinioni sulle difficili
decisioni sulla moderazione del contenuto. -
9:23 - 9:25Potrebbero offrire un riscontro
-
9:25 - 9:28quando le piattaforme decidono
di approntare dei cambiamenti. -
9:28 - 9:32Secondo, l'esperienza della gente
con l'informazione è personalizzata. -
9:32 - 9:35Le notizie che mi arrivano su Facebook
sono diverse dalle vostre. -
9:35 - 9:38I vostri video consigliati su YouTube
sono diversi dei miei. -
9:38 - 9:41Questo ci rende veramente
impossibile controllare -
9:41 - 9:42che informazioni la gente vede.
-
9:43 - 9:44Quindi potremmo immaginare
-
9:44 - 9:49di sviluppare una sorta di deposito aperto
e centralizzato di dati resi anonimi, -
9:49 - 9:52con attenzione alla privacy e all'etica.
-
9:52 - 9:54Perché immaginate
cosa potremmo imparare -
9:54 - 9:57se costruissimo una rete globale
di cittadini preoccupati -
9:57 - 10:01che vogliono donare
i loro dati social alla scienza. -
10:01 - 10:03Perché sappiamo veramente molto poco
-
10:03 - 10:06delle conseguenze a lungo termine
di odio e disinformazione -
10:06 - 10:08sulla mentalità
e l'atteggiamento della gente. -
10:08 - 10:09E quello che sappiamo
-
10:09 - 10:12viene quasi tutto dagli Stati Uniti,
-
10:12 - 10:14anche se questo è un problema globale.
-
10:14 - 10:16Dobbiamo lavorare anche su questo.
-
10:16 - 10:17E terzo,
-
10:17 - 10:20possiamo trovare un modo
di collegare i puntini? -
10:20 - 10:23Nessun settore, men che meno
nonprofit, start-up o un governo, -
10:23 - 10:25risolverà questo problema.
-
10:25 - 10:27Ma si sono persone
veramente in gamba nel mondo -
10:27 - 10:29che lavorano su questi cambiamenti,
-
10:29 - 10:32dalle redazioni, alla società civile,
l'università, i gruppi di attivisti. -
10:32 - 10:34Potete vederne alcuni qui.
-
10:34 - 10:37Alcuni costruiscono indicatori
di credibilità del contenuto. -
10:37 - 10:38Altri controllano i fatti,
-
10:38 - 10:41così che le false dichiarazioni,
video e immagini -
10:41 - 10:42siano declassate dalle piattaforme.
-
10:42 - 10:45Una non profit che ho aiutato
a fondare, First Draft, -
10:45 - 10:47lavora con redazioni
competitive in tutto il mondo -
10:47 - 10:51per aiutarle a costruire dei programmi
investigativi e collaborativi. -
10:51 - 10:53Danny Hillis, un architetto del software,
-
10:53 - 10:56sta programmando un nuovo sistema
chiamato The Underlay, -
10:56 - 10:59che sarà un registro
di tutte le dichiarazioni -
10:59 - 11:00connesse alla loro fonte,
-
11:00 - 11:04così che la gente e gli algoritmi possano
giudicare meglio ciò che è credibile. -
11:05 - 11:08Gli educatori nel mondo
stanno verificando diverse tecniche -
11:08 - 11:12per trovare dei modi per rendere la gente
critica verso ciò che consumano. -
11:13 - 11:16Tutti questi sforzi sono meravigliosi,
ma si lavora in scomparti, -
11:16 - 11:18e tristemente molti di loro
hanno pochi fondi. -
11:18 - 11:21Inoltre, ci sono centinaia
di persone in gamba -
11:21 - 11:22che lavorano in queste compagnie,
-
11:22 - 11:25ma anche questi sforzi
sembrano scollegati, -
11:25 - 11:29perché stanno sviluppando
diverse soluzioni per lo stesso problema. -
11:29 - 11:32Come si può trovare il modo
di riunire queste persone -
11:32 - 11:35in un unico luogo per giorni
o settimane di seguito, -
11:35 - 11:37di modo che affrontino
questi problemi assieme, -
11:37 - 11:39ma dalle loro prospettive diverse?
-
11:39 - 11:40Siamo in grado di farlo?
-
11:40 - 11:44Possiamo mettere insieme
un'ambiziosa risposta coordinata, -
11:44 - 11:47che metta assieme la vastità
e la complessità del problema? -
11:48 - 11:49Penso veramente che si possa.
-
11:49 - 11:52Ricostruiranno assieme
le basi comuni dell'informazione. -
11:53 - 11:54Grazie.
-
11:54 - 11:58(Applausi)
- Title:
- Come si può aiutare a trasformare internet in un luogo di fiducia
- Speaker:
- Claire Wardle
- Description:
-
Come possiamo fermare la diffusione di contenuti ingannevoli, qualche volta pericolosi, e allo stesso tempo mantenere un internet che abbia al centro la libertà di espressione? L'esperta di disinformazione Claire Wardle esplora le nuove sfide dell'inquinato ambiente online e configura un piano per trasformare internet in un luogo di fiducia, con l'aiuto degli utenti di tutti i giorni. Ci dice: "Assieme, ricostruiamo le basi comuni dell'informazione".
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
TED Translators admin approved Italian subtitles for How you can help transform the internet into a place of trust | ||
SILVIA ALLONE accepted Italian subtitles for How you can help transform the internet into a place of trust | ||
SILVIA ALLONE edited Italian subtitles for How you can help transform the internet into a place of trust | ||
SILVIA ALLONE edited Italian subtitles for How you can help transform the internet into a place of trust | ||
SILVIA ALLONE edited Italian subtitles for How you can help transform the internet into a place of trust | ||
Silvia Fornasiero edited Italian subtitles for How you can help transform the internet into a place of trust | ||
Silvia Fornasiero edited Italian subtitles for How you can help transform the internet into a place of trust | ||
Silvia Fornasiero edited Italian subtitles for How you can help transform the internet into a place of trust |