Caro Facebook, questo è il modo in cui stai distruggendo la democrazia
-
0:01 - 0:03Circa cinque anni fa,
-
0:03 - 0:05ho notato che stavo perdendo la capacità
-
0:05 - 0:09di interagire con le persone
che la pensavano in modo diverso. -
0:09 - 0:12L'idea di discutere su questioni scottanti
con i miei concittadini americani -
0:12 - 0:15iniziava a darmi più bruciori di stomaco
-
0:15 - 0:19delle volte in cui avevo avuto a che fare
con sospetti estremisti all'estero. -
0:20 - 0:23Stava iniziando a farmi sentire
più amareggiata e frustrata. -
0:23 - 0:25E così,
-
0:25 - 0:26ho spostato tutta la mia attenzione
-
0:26 - 0:29dalle minacce globali
alla sicurezza nazionale -
0:29 - 0:32al cercare di capire
cosa stesse causando questa spinta -
0:32 - 0:36verso un'estrema
polarizzazione nel mio Paese. -
0:36 - 0:38Come ex agente della CIA e diplomatica
-
0:38 - 0:41che ha passato anni a lavorare
su problematiche anti-estremiste, -
0:41 - 0:44ho iniziato a temere
che questa stesse diventando -
0:44 - 0:46una minaccia assai più grande
per la nostra democrazia -
0:46 - 0:48di qualsiasi nemico straniero.
-
0:48 - 0:50Perciò ho iniziato a fare ricerche
-
0:50 - 0:51e a parlarne apertamente,
-
0:51 - 0:54cosa che mi ha portata
a essere assunta da Facebook -
0:54 - 0:57e, infine, a essere qui oggi
-
0:57 - 1:00per continuare a mettervi in guardia
su come queste piattaforme -
1:00 - 1:04stiano manipolando
e radicalizzando così tanti di noi, -
1:04 - 1:07e per parlare di come riappropriarci
della nostra piazza pubblica. -
1:08 - 1:10Sono stata un funzionario estero in Kenya
-
1:10 - 1:13qualche anno dopo
l'attacco dell'11 settembre, -
1:13 - 1:16e ho guidato quelle che alcuni chiamano
campagne "dei cuori e delle menti" -
1:16 - 1:17lungo il confine somalo.
-
1:17 - 1:21Gran parte del mio lavoro consisteva
nel costruire un rapporto di fiducia -
1:21 - 1:24con le comunità ritenute più sensibili
ai messaggi estremisti. -
1:24 - 1:28Ho passato ore a bere tè
con dichiarati esponenti antioccidentali. -
1:28 - 1:31Mi sono anche confrontata
con dei sospetti terroristi. -
1:31 - 1:35Sebbene molte di queste interazioni
siano iniziate con sospetto reciproco, -
1:35 - 1:39non ricordo che nessuna di esse
sia mai sfociata in urla o insulti. -
1:39 - 1:41In alcuni casi, abbiamo
addirittura lavorato insieme -
1:41 - 1:43su aree di comune interesse.
-
1:44 - 1:46L'arma più potente che avevamo
-
1:46 - 1:50era semplicemente ascoltare,
imparare e creare empatia. -
1:50 - 1:53Questa è l'essenza del lavoro
dei cuori e delle menti, -
1:53 - 1:55perché quello che
ho riscontrato di continuo -
1:55 - 1:57è che ciò che la maggior parte
delle persone voleva -
1:57 - 2:00era sentirsi ascoltata,
approvata e rispettata. -
2:00 - 2:03E credo che sia anche ciò
che molti di noi vogliono. -
2:03 - 2:06Quello che vedo accadere
oggi online è straziante -
2:06 - 2:09ed è un problema molto
più difficile da affrontare. -
2:09 - 2:13Veniamo manipolati dall'attuale
ecosistema dell'informazione, -
2:13 - 2:16il quale sta facendo trincerare
molti di noi nell'assolutismo, -
2:16 - 2:19al punto che "compromesso"
è diventata una parolaccia. -
2:19 - 2:20Perché, ora come ora,
-
2:20 - 2:25compagnie di social media come Facebook
traggono profitto dal segmentarci, -
2:25 - 2:27per poi fornirci
dei contenuti personalizzati -
2:27 - 2:31che confermano e allo stesso tempo
sfruttano i nostri preconcetti. -
2:31 - 2:34L'obiettivo principale è quello
di provocare forti emozioni -
2:34 - 2:36per tenerci impegnati,
-
2:36 - 2:40spesso incentivando le voci
più provocatorie e polarizzanti -
2:40 - 2:44fino al punto in cui trovare
un punto d'incontro sembra impossibile. -
2:45 - 2:49E nonostante un coro crescente di persone
chieda alle piattaforme un cambiamento, -
2:49 - 2:52è evidente che queste persone
da sole non riusciranno a fare molto. -
2:52 - 2:55Quindi i governi devono
definire le responsabilità -
2:55 - 2:59per i danni reali che vengono causati
da questi modelli di business -
2:59 - 3:02e imporre dei costi reali
sugli effetti dannosi che stanno avendo -
3:02 - 3:05sulla nostra sanità pubblica,
sulla nostra piazza pubblica -
3:05 - 3:07e sulla nostra democrazia.
-
3:07 - 3:12Purtroppo questo non avverrà in tempo
per le elezioni presidenziali degli USA, -
3:12 - 3:14perciò continuerò
a lanciare questo allarme, -
3:14 - 3:18perché anche se un giorno
dovessimo avere forti norme in vigore, -
3:18 - 3:21ci sarà comunque bisogno dell'aiuto
di tutti noi per sistemare le cose. -
3:21 - 3:24Quando ho iniziato a spostare
la mia attenzione dalle minacce estere -
3:24 - 3:27alla disgregazione
del dibattito civile nel mio Paese, -
3:27 - 3:29mi sono chiesta
se avessimo potuto riproporre -
3:29 - 3:31alcune di quelle campagne
dei cuori e delle menti -
3:31 - 3:33per risanare le nostre divergenze.
-
3:33 - 3:36Il nostro esperimento di oltre 200 anni
con la democrazia funziona -
3:36 - 3:40in buona parte perché siamo in grado
di mettere in discussione le nostre idee, -
3:40 - 3:43apertamente e con passione,
per trovare le soluzioni migliori. -
3:43 - 3:45Sebbene io creda profondamente
-
3:45 - 3:47nel potere del dibattito civile
faccia a faccia, -
3:47 - 3:49non può competere
-
3:49 - 3:52con gli effetti polarizzanti
e con la portata dei social media attuali. -
3:52 - 3:54Le persone che vengono risucchiate
-
3:54 - 3:56da questo vortice di indignazione
sui social media -
3:56 - 4:00spesso sono più difficili da separare
dalle loro mentalità ideologiche -
4:00 - 4:03di quanto lo siano mai state quelle
comunità vulnerabili con cui ho lavorato. -
4:03 - 4:06Perciò quando Facebook
mi ha chiamata nel 2018 -
4:06 - 4:07e mi ha offerto l'incarico
-
4:07 - 4:11di capo delle operazioni di integrità
elettorale per la propaganda politica, -
4:11 - 4:13ho sentito che dovevo dire di sì.
-
4:13 - 4:16Sapevo che non sarei riuscita
a sistemare tutto, -
4:16 - 4:18ma quando ti viene data la possibilità
-
4:18 - 4:21di contribuire a guidare la nave
verso una direzione migliore, -
4:21 - 4:22devi almeno provarci.
-
4:22 - 4:25Non ho lavorato direttamente
sulla polarizzazione, -
4:25 - 4:26ma ho esaminato
-
4:26 - 4:29quali sono stati i temi che hanno creato
più divisione nella nostra società -
4:29 - 4:33e quindi i più sfruttabili
nei tentativi di interferenza elettorale, -
4:33 - 4:36ovvero la tattica della Russia
in vista del 2016. -
4:36 - 4:39Ho iniziato facendo delle domande.
-
4:39 - 4:42Volevo capire quale fosse
il problema sistemico di fondo -
4:42 - 4:44che stava permettendo
a tutto ciò di accadere, -
4:44 - 4:47in modo da pensare
a come poterlo risolvere. -
4:48 - 4:50Io credo ancora nel potere di internet,
-
4:50 - 4:53nella sua capacità
di dare spazio a più voci, -
4:53 - 4:56ma nonostante l'obiettivo dichiarato
di costruire una comunità, -
4:56 - 4:59le più grandi compagnie di social media,
per come sono fatte adesso, -
4:59 - 5:03sono inconciliabili con il concetto
di discorso ragionato. -
5:03 - 5:05Non c'è modo di premiare l'ascolto,
-
5:05 - 5:07di incoraggiare un dibattito civile
-
5:07 - 5:10e di proteggere le persone che vogliono
fare delle domande in modo sincero -
5:10 - 5:11in un business
-
5:11 - 5:14in cui ottimizzare il coinvolgimento
e la crescita degli utenti -
5:14 - 5:17sono i due parametri
più importanti per il successo. -
5:17 - 5:21Non c'è nessun incentivo
ad aiutare le persone a rallentare, -
5:21 - 5:24a creare un attrito sufficiente
a far sì che le persone si fermino, -
5:24 - 5:26riconoscano la loro reazione
emotiva a qualcosa -
5:26 - 5:30e mettano in discussione le loro
stesse ipotesi prima di partecipare. -
5:30 - 5:32La triste realtà è
-
5:32 - 5:35che le bugie dette online
attraggono di più della verità -
5:35 - 5:39e l'oscenità batte il traballante
ragionamento basato sui fatti -
5:39 - 5:43in un mondo ottimizzato
per una viralità che non trova dissenso. -
5:43 - 5:46Finché gli algoritmi avranno lo scopo
di attirare la nostra attenzione, -
5:46 - 5:49continueranno a nutrirci del veleno
-
5:49 - 5:53che risveglia i nostri peggiori istinti
e le debolezze umane. -
5:53 - 5:56E sì, la rabbia, la diffidenza,
-
5:56 - 5:58la cultura della paura, il disprezzo...
-
5:58 - 6:00niente di tutto questo è nuovo in America.
-
6:00 - 6:04Ma negli ultimi anni, i social media
hanno sfruttato tutto questo -
6:04 - 6:07e, per come la vedo io, hanno fatto
inclinare la bilancia drasticamente. -
6:07 - 6:10E Facebook lo sa.
-
6:10 - 6:12Un recente articolo
del "Wall Street Journal" -
6:12 - 6:16ha denunciato una presentazione interna
di Facebook del 2018 -
6:16 - 6:20che evidenzia in modo particolare il ruolo
degli algoritmi delle società stesse -
6:20 - 6:23nella crescente presenza di gruppi
estremisti sulla loro piattaforma -
6:23 - 6:26e nella polarizzazione dei loro utenti.
-
6:27 - 6:30Ma tenerci impegnati
è il loro modo di guadagnare. -
6:30 - 6:32L'ambiente dell'informazione moderno
-
6:32 - 6:34è cristallizzato intorno
alla nostra profilazione -
6:34 - 6:36e alla nostra segmentazione
-
6:36 - 6:38in un numero sempre maggiore
di categorie più piccole -
6:38 - 6:41per perfezionare il processo
di personalizzazione. -
6:41 - 6:43Dopodiché, veniamo bombardati
di informazioni -
6:43 - 6:47che confermano il nostro punto di vista,
consolidano i nostri pregiudizi -
6:47 - 6:50e ci fanno sentire
come se appartenessimo a qualcosa. -
6:50 - 6:52Queste sono le stesse tattiche
che venivano usate -
6:52 - 6:56dai reclutatori di terroristi
su giovani ragazzi vulnerabili, -
6:56 - 6:58anche se in modo più piccolo
e più localizzato, -
6:58 - 7:00prima dei social media,
-
7:00 - 7:03con l'obiettivo finale
di persuadere il loro comportamento. -
7:03 - 7:08Purtroppo non sono stata mai autorizzata
da Facebook ad avere un impatto reale. -
7:08 - 7:12Di fatto, il secondo giorno, il mio titolo
e le mie mansioni sono stati cambiati -
7:12 - 7:15e sono stata tagliata fuori
dalle riunioni decisionali. -
7:15 - 7:18Tutti i miei sforzi
per cercare di sviluppare piani -
7:18 - 7:21per combattere la disinformazione
e la soppressione degli elettori -
7:21 - 7:22nelle inserzioni politiche
-
7:22 - 7:23sono stati rigettati.
-
7:23 - 7:26Sono durata poco meno di sei mesi.
-
7:26 - 7:30Ma ecco cosa ho imparato
durante il tempo trascorso lì: -
7:30 - 7:32ci sono migliaia di persone in Facebook
-
7:32 - 7:34che stanno lavorando
con passione su un prodotto -
7:34 - 7:38che credono fermamente possa rendere
il mondo un posto migliore, -
7:38 - 7:42ma fino a quando le società
si limiteranno a rimanere sul vago -
7:42 - 7:44riguardo alla politica dei contenuti
e alla moderazione -
7:44 - 7:49invece di considerare com'è progettata
e monetizzata l'intera macchina, -
7:49 - 7:52non affronteranno mai il problema
di come la piattaforma stia contribuendo -
7:52 - 7:56all'odio, alla divisione
e alla radicalizzazione. -
7:56 - 8:01E questo è il tipo di conversazione
che non è mai avvenuta mentre ero lì, -
8:01 - 8:04perché ciò richiederebbe
fondamentalmente accettare -
8:04 - 8:06che le cose che hanno creato
-
8:06 - 8:08potrebbero non essere
la scelta migliore per la società, -
8:08 - 8:12e anche accettare di modificare l'intero
modello di prodotto e di profitto. -
8:12 - 8:15Quindi cosa possiamo fare a riguardo?
-
8:15 - 8:18Non sto dicendo che i social media
sono gli unici responsabili -
8:18 - 8:21dello stato in cui ci troviamo oggi.
-
8:21 - 8:26Ci sono chiaramente questioni sociali
radicate che dobbiamo risolvere. -
8:26 - 8:30Ma la risposta di Facebook,
che è solo uno specchio della società, -
8:30 - 8:33è un tentativo conveniente
di sviare ogni responsabilità -
8:33 - 8:38dal modo in cui la loro piattaforma
amplifica i contenuti dannosi -
8:38 - 8:41e spinge alcuni utenti
verso posizioni estreme. -
8:41 - 8:44E Facebook potrebbe, se solo volesse,
-
8:44 - 8:46sistemare qualcosa.
-
8:46 - 8:50Potrebbe smetterla di amplificare
e raccomandare teorici della cospirazione, -
8:50 - 8:53gruppi d'odio, chi causa disinformazione
-
8:53 - 8:57e sì, in alcuni casi
anche il nostro Presidente. -
8:57 - 9:00Potrebbe smetterla di utilizzare
le stesse tecniche di personalizzazione -
9:00 - 9:02per trasmettere
la stessa retorica politica -
9:02 - 9:04usata per venderci
le scarpe da ginnastica. -
9:04 - 9:06Potrebbero riconvertire i loro algoritmi
-
9:06 - 9:09per concentrarsi su un parametro
diverso dal tenerci impegnati, -
9:09 - 9:11e potrebbero costruire delle barriere
-
9:11 - 9:13per impedire che certi contenuti
diventino virali -
9:13 - 9:15prima di venire revisionati.
-
9:15 - 9:17E potrebbero fare tutto questo
-
9:17 - 9:21senza diventare quelli che loro
chiamano "gli arbitri della verità". -
9:21 - 9:24Ma hanno già chiarito
che non si spingeranno -
9:24 - 9:27al punto da fare la cosa giusta
senza essere costretti a farlo, -
9:27 - 9:30e, a essere sinceri, perché dovrebbero?
-
9:30 - 9:34I mercati continuano a premiarli
e non stanno infrangendo la legge. -
9:34 - 9:35Perché allo stato attuale,
-
9:35 - 9:38non ci sono leggi statunitensi
che obblighino Facebook -
9:38 - 9:42o qualsiasi altra società di social media
a proteggere la nostra piazza pubblica, -
9:42 - 9:43la nostra democrazia
-
9:43 - 9:46e perfino le nostre elezioni.
-
9:46 - 9:50Abbiamo ceduto il potere decisionale
su quali norme scrivere e quali applicare -
9:50 - 9:54agli amministratori delegati
delle società internet a scopo di lucro. -
9:54 - 9:56È questo che vogliamo?
-
9:56 - 9:59Un mondo post-verità
dove la tossicità e il tribalismo -
9:59 - 10:02prevalgono sulla costruzione di ponti
e sulla ricerca del consenso? -
10:03 - 10:06Rimango ottimista sul fatto che abbiamo
ancora più cose in comune l'un l'altro -
10:06 - 10:10rispetto a ciò che viene ritratto
dai media e dall'ambiente online, -
10:10 - 10:13e credo che avere un'ottica più ampia
-
10:13 - 10:17renda la democrazia
più solida e inclusiva, -
10:17 - 10:20ma non nel modo in cui sta accadendo ora.
-
10:20 - 10:24E va sottolineato che non voglio
distruggere queste società. -
10:24 - 10:28Voglio solo che sia riconosciuto loro
un certo livello di responsabilità, -
10:28 - 10:30proprio come al resto della società.
-
10:30 - 10:33È tempo che i nostri governi
si facciano avanti -
10:33 - 10:37e svolgano il loro lavoro
per proteggere i propri cittadini. -
10:37 - 10:41E anche se non esiste una magica legge
in grado di risolvere tutto questo, -
10:41 - 10:46credo che i governi possano
e debbano trovare l'equilibrio -
10:46 - 10:48tra la tutela della libertà di parola
-
10:48 - 10:50e il ritenere queste
piattaforme responsabili -
10:50 - 10:52per i loro effetti sulla società.
-
10:52 - 10:57E potrebbero farlo in parte
insistendo su un'effettiva trasparenza -
10:57 - 11:00sul modo in cui funzionano
questi motori di raccomandazione, -
11:00 - 11:04su come avvengono la curation,
l'amplificazione e il targeting. -
11:04 - 11:07Vedete, voglio che queste società
siano ritenute responsabili -
11:07 - 11:11non per i post di disinformazione
o la retorica estrema di un individuo, -
11:11 - 11:15ma per come i loro motori
di raccomandazione li diffondono, -
11:15 - 11:19per come i loro algoritmi
orientano le persone verso di essi -
11:19 - 11:23e per come i loro strumenti li usano
per bersagliare le persone. -
11:23 - 11:27Ho provato a cambiare Facebook
dall'interno e non ci sono riuscita. -
11:27 - 11:30Così, negli ultimi anni,
ho usato di nuovo la mia voce -
11:30 - 11:32per continuare a diffondere
questo messaggio -
11:32 - 11:37nella speranza di ispirare più persone
a esigere questa responsabilità. -
11:37 - 11:39Il mio messaggio per voi è semplice:
-
11:39 - 11:42fate pressione sui vostri
rappresentanti governativi -
11:42 - 11:43affinché si facciano avanti
-
11:43 - 11:47e smettano di cedere la nostra
piazza pubblica a interessi di lucro. -
11:47 - 11:50Aiutate la vostra famiglia
e i vostri amici a informarsi -
11:50 - 11:52riguardo a come vengono manipolati online.
-
11:52 - 11:56Sforzatevi di interagire con persone
che non la pensano come voi. -
11:56 - 11:58Fate di questo problema una priorità.
-
11:58 - 12:02Abbiamo bisogno dell'intera società
per risolvere questo problema. -
12:03 - 12:09E il mio messaggio ai dirigenti del mio
ex datore di lavoro Facebook è questo: -
12:09 - 12:12in questo momento, le persone
stanno usando i vostri strumenti -
12:12 - 12:14esattamente come sono stati progettati
-
12:14 - 12:17per seminare odio, divisione e diffidenza,
-
12:17 - 12:21e voi non lo state solo permettendo,
state fornendo i mezzi. -
12:21 - 12:25E sì, ci sono un sacco
di storie positive di cose -
12:25 - 12:28che accadono sulla vostra
piattaforma in tutto il mondo, -
12:28 - 12:31ma questo non rende
nulla di tutto ciò accettabile. -
12:31 - 12:35E la situazione non fa che peggiorare
man mano che ci avviciniamo alle elezioni, -
12:35 - 12:36e, cosa ancora più preoccupante,
-
12:36 - 12:39affrontiamo la nostra più grande
potenziale crisi finora, -
12:39 - 12:42se i risultati non sono attendibili
e se scoppia la violenza. -
12:42 - 12:45Così, quando nel 2021
direte ancora una volta: -
12:45 - 12:47"Sappiamo che dobbiamo fare di meglio",
-
12:47 - 12:50voglio che ricordiate questo momento,
-
12:50 - 12:53perché non si tratta più solo
di qualche voce solitaria. -
12:53 - 12:56Leader dei diritti civili, accademici,
-
12:56 - 12:58giornalisti, pubblicitari,
i vostri stessi dipendenti -
12:58 - 13:01stanno gridando a tutto il mondo
-
13:01 - 13:03che le vostre politiche
e le vostre pratiche commerciali -
13:03 - 13:07stanno danneggiando
le persone e la democrazia. -
13:07 - 13:09Siete voi a decidere,
-
13:09 - 13:14ma non potrete più dire
che non potevate prevederlo. -
13:14 - 13:15Grazie.
- Title:
- Caro Facebook, questo è il modo in cui stai distruggendo la democrazia
- Speaker:
- Yaël Eisenstat
- Description:
-
"Le bugie dette online attraggono più della verità", afferma l'ex analista e diplomatica della CIA, nonché ex impiegata di Facebook Yaël Eisenstat. "Finché gli algoritmi [dei social media] avranno lo scopo di attirare la nostra attenzione, continueranno a nutrirci del veleno che risveglia i nostri peggiori istinti e le debolezze umane". In questo discorso audace, Yaël Eisenstat analizza il modo in cui le compagnie di social media come Facebook incentivino contenuti provocatori, contribuendo a creare una cultura di polarizzazione politica e di sfiducia - e invita i governi a ritenere queste piattaforme responsabili allo scopo di proteggere il dibattito civile e la democrazia.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
SILVIA ALLONE approved Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
SILVIA ALLONE edited Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
SILVIA ALLONE edited Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Silvia Monti accepted Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Silvia Monti edited Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Silvia Monti edited Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Silvia Monti edited Italian subtitles for Dear Facebook, this is how you're breaking democracy | ||
Silvia Monti edited Italian subtitles for Dear Facebook, this is how you're breaking democracy |