Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo
-
0:10 - 0:112019:
-
0:12 - 0:14sono passati poco più di dieci anni
-
0:14 - 0:18da quando i social network
sono arrivati nella nostra società, -
0:18 - 0:20e sono diventati parte
della nostra quotidianità. -
0:20 - 0:23Dieci anni in cui è cambiato
praticamente tutto. -
0:24 - 0:26Quando parliamo di Internet, oggi,
-
0:26 - 0:30ci chiediamo spesso se la rete
ci stia rendendo più odiatori, -
0:30 - 0:33più isolati, più disinformati,
più polarizzati. -
0:34 - 0:36Ogni giorno, le notizie che leggiamo
-
0:36 - 0:40ci raccontano di un mondo
in cui sui social si litiga: -
0:40 - 0:44le persone non sono più capaci
di parlarsi senza insultarsi. -
0:44 - 0:48E così, noi non capiamo bene
che cosa sta succedendo. -
0:49 - 0:50Ma è davvero così?
-
0:51 - 0:55Ci chiediamo spesso, appunto,
se Internet ci stia rendendo più odiatori: -
0:55 - 0:59però forse dovremmo cominciare a cambiare
i focus delle domande, -
0:59 - 1:02per capire davvero che cosa
sta succedendo con le piattaforme. -
1:02 - 1:06E se davvero le piattaforme,
che erano state create per unirci, -
1:06 - 1:09oggi siano responsabili
di una profonda frammentazione sociale. -
1:10 - 1:11Come facciamo a capirne i motivi?
-
1:11 - 1:13Vi voglio lanciare una provocazione:
-
1:14 - 1:15se invece di chiederci
-
1:15 - 1:20se i social ci stanno rendendo
solo più odiatori o più disinformati, -
1:20 - 1:24cominciassimo a chiederci
se ci stanno rendendo più diseguali? -
1:26 - 1:29Cambiando questa prospettiva,
e parlando di disuguaglianza, -
1:29 - 1:31forse appunto troveremmo
delle risposte nuove. -
1:33 - 1:36Parlare di disuguaglianza,
quando parliamo di Internet, -
1:36 - 1:38vuol dire prima di tutto
-
1:38 - 1:42parlare non solo di odio online
e non solo di disinformazione, -
1:42 - 1:47ma parlare di una cosa di cui sentiamo
molto poco parlare, ovvero i dati. -
1:48 - 1:51I dati che sono il nucleo,
della società digitale. -
1:52 - 1:59Ecco: i dati sono responsabili,
in qualche modo, -
1:59 - 2:02del funzionamento della nostra società.
-
2:02 - 2:04E quando parliamo di dati
e di disuguaglianza, -
2:04 - 2:09questo ci serve per chiederci
chi possiede questi dati, -
2:09 - 2:11e soprattutto con quali obiettivi.
-
2:13 - 2:15Una delle prime cose
a cui dobbiamo pensare, -
2:15 - 2:16quando parliamo di dati,
-
2:16 - 2:20è quindi appunto chi li possiede;
-
2:21 - 2:23e cercare di sfatare
dei miti, anche, sui dati. -
2:25 - 2:30A noi viene spontaneo pensare che i dati
siano rappresentativi delle persone, -
2:30 - 2:34e fin da quando siamo piccoli ci insegnano
che la matematica non è un'opinione. -
2:34 - 2:37E quindi, automaticamente,
ci viene da pensare -
2:37 - 2:41che ciò che poi fa funzionare
questi dati, e li aggrega, -
2:41 - 2:44ovvero gli algoritmi,
che sono quello che dà il funzionamento -
2:44 - 2:47a tutte le applicazioni che usiamo,
a tutte le piattaforme che usiamo, -
2:47 - 2:49siano qualcosa di neutrale.
-
2:50 - 2:54Ma non è così: la tecnologia
non è neutrale, -
2:54 - 2:57e questa è una cosa
che dobbiamo tenere davvero a mente. -
2:57 - 3:00Perché la tecnologia è un prodotto umano:
-
3:00 - 3:03dietro ad ogni algoritmo,
dietro ogni applicazione, -
3:03 - 3:05dietro ogni piattaforma
c'è un essere umano, -
3:05 - 3:06con una propria visione del mondo,
-
3:06 - 3:09con delle proprie idee
e con dei propri obiettivi. -
3:10 - 3:13Ed è proprio questo
il primo passo per cominciare -
3:13 - 3:15ad adottare un pensiero critico
-
3:15 - 3:18verso tutte le piattaforme
che utilizziamo. -
3:20 - 3:23Alzi la mano chi non ha mai
sentito la frase: -
3:23 - 3:25"Se il servizio è gratis,
il prodotto sei tu". -
3:26 - 3:28È infatti piuttosto risaputo
-
3:28 - 3:32che le piattaforme della Silicon Valley
sono dei grossi monopoli privati -
3:32 - 3:35che possiedono i nostri dati
-
3:35 - 3:37e possiedono gli strumenti
per analizzarli. -
3:39 - 3:41E fanno questo a fine di lucro,
-
3:41 - 3:45per creare delle pubblicità
sempre più personalizzate. -
3:45 - 3:49Ormai, le piattaforme sono parte
dell'infrastruttura sociale: -
3:49 - 3:53noi le usiamo per qualsiasi cosa,
da prenotare una macchina o un ristorante, -
3:53 - 3:55a tenere sotto controllo la nostra salute,
-
3:55 - 3:56trovare un partner;
-
3:57 - 4:02però facciamo ancora fatica a capire
come questi algoritmi funzionino; -
4:04 - 4:05e soprattutto, poi,
-
4:05 - 4:08questi dati dove vadano,
con chi vengano condivisi. -
4:11 - 4:13Quando parlo di queste cose -
-
4:13 - 4:16e lo faccio spesso,
infatti ormai i miei amici mi odiano - -
4:16 - 4:21una delle cose che mi viene chiesta è:
ma perché me ne dovrei occupare? -
4:21 - 4:23Cioè, alla fine a me
-
4:23 - 4:25le pubblicità personalizzate
non danno fastidio. -
4:25 - 4:27Cioè io so cosa comprare,
-
4:28 - 4:31o comunque della mia privacy
mi importa relativamente, -
4:31 - 4:33perché non ho niente da nascondere.
-
4:35 - 4:37Quando parliamo di privacy,
prima di tutto, -
4:37 - 4:40dobbiamo pensare alla privacy
come un diritto umano. -
4:40 - 4:43E quindi la privacy
non ha mai avuto a che vedere -
4:43 - 4:45con l'idea di non avere
niente da nascondere, -
4:45 - 4:48ma piuttosto con la nostra libertà
di ricavarci uno spazio autonomo -
4:48 - 4:53e libero da interferenze esterne,
tanto private quanto pubbliche; -
4:55 - 4:56ma soprattutto, io credo
-
4:56 - 4:59che quando parliamo
di privacy oggi, nel 2019, -
4:59 - 5:00dobbiamo pensare alla privacy
-
5:00 - 5:04come un diritto collettivo,
non solo individuale. -
5:05 - 5:07Vi faccio un esempio.
-
5:08 - 5:10Siccome quello che fanno gli algoritmi
-
5:10 - 5:14non è aggregare tanto i dati di individui
ma piuttosto i dati di gruppi, -
5:14 - 5:17quello che succede è che poi gli algoritmi
-
5:17 - 5:21molto spesso sono in grado, anche,
di conoscere le nostre debolezze - -
5:21 - 5:24e utilizzarle, a scopo
di lucro per l'appunto. -
5:25 - 5:27Gli algoritmi oggi vengono già utilizzati
-
5:27 - 5:29per prendere delle decisioni
anche sociali. -
5:29 - 5:30Ad esempio,
-
5:30 - 5:33negli Stati Uniti o in Australia
già si utilizzano gli algoritmi -
5:33 - 5:36per decidere se una persona
merita un lavoro, -
5:36 - 5:40o se una persona è più o meno
un potenziale criminale, -
5:40 - 5:41se merita un mutuo.
-
5:44 - 5:46Ecco, questi sono degli esempi
-
5:47 - 5:52che ci insegnano che, come abbiamo detto,
gli algoritmi non sono neutrali. -
5:52 - 5:54Perché se l'algoritmo non è neutrale,
-
5:54 - 6:01quello che farà è utilizzare,
o comunque vedere, -
6:01 - 6:04i pregiudizi che ci sono
dentro alla società, -
6:04 - 6:06e riprodurli ed espanderli.
-
6:07 - 6:10Quindi sono diventati molto famosi
-
6:10 - 6:13casi in cui, per esempio,
come quello che vedete alle mie spalle, -
6:13 - 6:15un algoritmo negli Stati Uniti
-
6:15 - 6:18decideva se una persona
fosse più o meno potenziale criminale, -
6:18 - 6:20e risultava discriminante verso i neri;
-
6:20 - 6:22oppure l'algoritmo di Amazon
-
6:22 - 6:25che a un certo punto,
tramite Intelligenza Artificiale, -
6:25 - 6:26decideva se una persona
-
6:26 - 6:29fosse più o meno valida
per fare parte dell'azienda, -
6:29 - 6:31e risultava discriminante verso le donne.
-
6:32 - 6:34Perché se la nostra società ci dice
-
6:34 - 6:36che i neri sono criminali
più probabili dei bianchi, -
6:36 - 6:38l'algoritmo dirà la stessa cosa;
-
6:38 - 6:40e se la società ci dice
-
6:40 - 6:44che le donne sono meno valide degli uomini
per fare lavori di leadership, -
6:44 - 6:45l'algoritmo dirà la stessa cosa.
-
6:46 - 6:48Ecco perché è un problema collettivo:
-
6:48 - 6:51perché l'algoritmo riproduce
la cultura dominante. -
6:52 - 6:54Ma vi voglio fare un altro esempio:
-
6:55 - 6:56ci sono casi,
-
6:56 - 6:59come Cambridge Analytica
o il caso Snowden, -
6:59 - 7:00che ci hanno insegnato
-
7:00 - 7:05che più spesso di quello che pensiamo
le piattaforme utilizzano i nostri dati -
7:05 - 7:07e li condividono
non solo con altre aziende, -
7:07 - 7:09ma anche con gli Stati, con i governi,
-
7:09 - 7:11che li utilizzano per conoscere
-
7:11 - 7:14i nostri movimenti,
le nostre conversazioni - per spiarci. -
7:17 - 7:20Questo, ovviamente, è molto problematico.
-
7:20 - 7:24E vi faccio un esempio:
io sono un'attivista, e per gli attivisti, -
7:24 - 7:26che sono coloro che, per definizione,
-
7:26 - 7:30mettono in discussione il potere
e cercano cambiamento sociale, -
7:30 - 7:33la sorveglianza significa controllo.
-
7:35 - 7:39Questo è già successo in Francia,
non tanto distante da noi, -
7:39 - 7:40quando nel 2015,
-
7:40 - 7:43in seguito alla dichiarazione
dello stato di emergenza -
7:43 - 7:44dopo gli attentati terroristici,
-
7:44 - 7:50il governo francese comincia a seguire
e spiare gli attivisti ecologisti -
7:50 - 7:51per evitare che manifestassero.
-
7:52 - 7:56In questo senso, il diritto alla privacy
è quello che si lega ad altri diritti, -
7:56 - 8:01come il diritto a manifestare,
il diritto di organizzazione, -
8:01 - 8:02la libertà di espressione.
-
8:04 - 8:07Sono tutti diritti che hanno
a che vedere con "noi": -
8:07 - 8:10non stiamo parlando solo dei miei dati,
stiamo parlando dei nostri dati. -
8:11 - 8:14Quindi, quando parliamo
di società digitale -
8:15 - 8:17io credo che sia molto importante
-
8:17 - 8:20che ricominciamo a vederci
come parte di una comunità, -
8:21 - 8:24e cominciamo a pensare ai nostri dati
come un bene comune. -
8:25 - 8:26Oltre a questo,
-
8:26 - 8:30dobbiamo cominciare anche
ad adottare uno sguardo critico -
8:30 - 8:34in cui cominciamo a chiedere noi,
-
8:34 - 8:36di decidere che cosa è privato
che cosa è pubblico. -
8:37 - 8:39Cominciamo a mettere in discussione
-
8:39 - 8:41questo nostro ruolo
di cittadini/consumatori, -
8:41 - 8:45in cui non ci è dato scegliere -
e sono dei privati, a scegliere - -
8:45 - 8:49i termini e le condizioni
della nostra partecipazione sociale, -
8:49 - 8:53e della nostra visibilità online
dei contenuti che consumiamo, -
8:53 - 8:56che contribuiscono a creare
la nostra visione del mondo. -
8:58 - 8:59Dobbiamo, veramente,
-
8:59 - 9:01riaprire un dibattito completamente nuovo,
-
9:02 - 9:05e dobbiamo cominciare
a fissare dei limiti etici. -
9:05 - 9:08In questo senso,
dobbiamo imparare dal passato, -
9:08 - 9:11perché se pensiamo,
per esempio, al petrolio, -
9:11 - 9:13il petrolio è stata una risorsa
-
9:13 - 9:17che ci ha permesso di svilupparci,
come società, in una maniera incredibile. -
9:19 - 9:20Però, forse, sarebbe stato meglio
-
9:20 - 9:25renderci conto prima
che dovevamo regolamentare le aziende -
9:26 - 9:29prima di svegliarci
nel mezzo del cambiamento climatico. -
9:29 - 9:32Ecco: non possiamo lasciare
che con Internet succeda la stessa cosa. -
9:32 - 9:33Dobbiamo fissare dei limiti.
-
9:36 - 9:38Dopo avervi terrorizzati,
-
9:38 - 9:42vorrei però provare a lasciarvi
anche un po' di speranza, -
9:42 - 9:45raccontando anche
la mia esperienza di attivista. -
9:45 - 9:49Io, appunto, di questi temi
mi sono sempre interessata: -
9:49 - 9:50ho cominciato studiandoli,
-
9:50 - 9:53e poi a un certo punto
ho cercato di capire -
9:53 - 9:55come li potevo portare
fuori dall'università. -
9:57 - 10:00E la prima cosa che ho capito è stata che,
-
10:00 - 10:02per capire come risolvere
i problemi su Internet, -
10:02 - 10:04dobbiamo sempre parlare dall'intersezione
-
10:04 - 10:09tra società, tecnologia,
politica, economia. -
10:09 - 10:11Non possiamo fidarci
-
10:11 - 10:14di coloro che ci offrono soluzioni
solo tecniche, o solo giuridiche. -
10:17 - 10:21Circa un anno fa, sono diventata
il volto di questa campagna -
10:21 - 10:23che si chiama "Intimità Violata":
-
10:24 - 10:26ancora oggi sono emozionata a dirlo,
-
10:26 - 10:29perché nel giro di pochissimi mesi
-
10:29 - 10:33da una petizione su change.org
siamo passati ad avere una legge. -
10:34 - 10:37E come è stato fatto questo?
-
10:37 - 10:41È stata creata, prima di tutto,
una rete amplissima di esperti - -
10:41 - 10:45che è una cosa che oggi facciamo
sempre meno, consultare gli esperti. -
10:45 - 10:48Per Intimità Violata,
e per il "revenge porn" - -
10:48 - 10:51la condivisione non consensuale
di materiale intimo - -
10:52 - 10:55abbiamo avuto bisogno di consultare
non solo giuristi, non solo politici, -
10:55 - 10:58ma anche informatici,
psicologi, sociologi. -
10:59 - 11:02Insomma, abbiamo veramente creato
una rete dal basso -
11:02 - 11:05per fare in modo di approcciarci
a questi problemi nel modo giusto. -
11:08 - 11:11E questo è stato molto importante
perché nel nostro percorso -
11:11 - 11:15c'è stato chi proponeva
delle soluzioni alternative alle nostre, -
11:15 - 11:17per esempio,
-
11:17 - 11:22c'era chi proponeva
di vietare il "sexting", -
11:22 - 11:26ovvero lo scambio
di video/foto intime tra partner, -
11:27 - 11:30andando di fatto a censurare
la libertà di espressione dei cittadini; -
11:31 - 11:34oppure c'è chi proponeva
solo soluzioni tecniche, -
11:34 - 11:38dicendo: "Implementiamo
il fingerprinting, l'impronta digitale: -
11:38 - 11:40creiamo dei grossi archivi on line
-
11:40 - 11:42in cui tutte le foto
che sono sulle piattaforme -
11:42 - 11:45sono schedate insieme,
-
11:45 - 11:49e in questo modo rimuoveremo
il materiale più rapidamente" -
11:49 - 11:53andando a creare di fatto problemi
per la sorveglianza dei cittadini. -
11:53 - 11:55Ecco: questo è un esempio per dire
-
11:55 - 11:59che quando parliamo
di Internet, di problemi, -
11:59 - 12:03dobbiamo veramente adottare
uno sguardo sociale e culturale, -
12:03 - 12:04cioè renderci conto
-
12:04 - 12:07che come il revenge porn, per esempio,
non nasce da Internet, -
12:07 - 12:10ma nasce da una violenza
che è già presente nella società - -
12:10 - 12:11quella contro le donne.
-
12:12 - 12:17Allo stesso modo,
l'odio online non lo risolveremo -
12:17 - 12:22solo parlando di far iscrivere i cittadini
sulle piattaforme con un documento; -
12:23 - 12:25o il problema dei monopoli su Internet
-
12:25 - 12:29non lo risolveremo utilizzando
tecnologie nuove come la blockchain, -
12:30 - 12:34perché non esiste la causa e l'effetto
dell'utilizzo di una tecnologia, -
12:34 - 12:37dobbiamo pensare in una maniera
completamente nuova. -
12:38 - 12:42Per fare questo, ci sono
due cose che possiamo fare. -
12:42 - 12:44La prima è educarci.
-
12:44 - 12:47Dobbiamo conoscere i nostri diritti,
per poterli difendere. -
12:47 - 12:51Dobbiamo parlare del problema
dell'accentramento di poteri su Internet -
12:51 - 12:52con i monopoli;
-
12:52 - 12:55dobbiamo parlare di come
funzionano le piattaforme; -
12:55 - 12:58dobbiamo cominciare a chiedere noi,
che cosa vogliamo. -
12:59 - 13:01E dobbiamo parlare di cos'è privato
e di cos'è pubblico. -
13:03 - 13:07L'altra cosa è unirsi, fare attivismo.
-
13:07 - 13:10A me piace molto, in questo caso,
citare Greta Thumberg, -
13:10 - 13:13che dice "Activism Works":
l'attivismo funziona. -
13:14 - 13:15Ed è davvero così!
-
13:15 - 13:21Forse noi, ancora dentro
al nostro sguardo un po' individualista -
13:21 - 13:23che ci siamo abituati ad adottare,
-
13:23 - 13:25ci siamo dimenticati della potenza
-
13:25 - 13:29di tante persone che si mettono insieme
per portare avanti qualcosa. -
13:30 - 13:34Però la verità è che,
se vogliamo cambiamento sociale, -
13:34 - 13:36dobbiamo ricominciare a guardarci.
-
13:36 - 13:39Perché qui, quando parliamo
di diritti digitali, -
13:39 - 13:42parliamo del futuro
della nostra democrazia. -
13:43 - 13:46Parliamo del fatto che dobbiamo chiederci
-
13:46 - 13:50come fare a risolvere
l'immensa forbice sociale -
13:50 - 13:51che le piattaforme stanno creando,
-
13:51 - 13:54e come risolvere veramente l'odio online.
-
13:57 - 14:01Questo, appunto,
sarà un processo molto lungo, -
14:02 - 14:07però credo che sarà l'unica cosa
che possiamo davvero fare. -
14:08 - 14:11Anche perché dobbiamo parlare
di quello che Internet può fare, -
14:11 - 14:12non solo dei problemi che causa.
-
14:12 - 14:16Nel senso che Internet,
non solo nel mio caso ma nel mondo, -
14:16 - 14:21è stato responsabile
dell'espansione dei movimenti sociali, -
14:22 - 14:25da #metoo a #FridayForFuture.
-
14:25 - 14:27È diventato uno strumento
-
14:27 - 14:30per fare in modo che le persone
si potessero unire sulla rete, -
14:30 - 14:31e allo stesso tempo
-
14:31 - 14:35può creare anche degli spazi sicuri
per le persone per parlarsi, -
14:35 - 14:37per le comunità discriminate.
-
14:37 - 14:40Quindi, crediamoci nel fatto
che Internet ci possa aiutare: -
14:40 - 14:43però, prima, chiediamoci
dove stiamo andando. -
14:43 - 14:45Siamo in un momento cruciale della Storia,
-
14:45 - 14:50e dobbiamo veramente,
veramente cominciare a lavorare insieme. -
14:50 - 14:52Una delle cose che ho imparato quest'anno
-
14:52 - 14:56è che le persone ti diranno sempre
che non cambia mai niente, -
14:56 - 14:58che non possiamo fare niente,
che le cose sono così. -
14:59 - 15:03Però, quello che io oggi
spero di potervi lasciare -
15:03 - 15:04è che non è vero.
-
15:04 - 15:08Non è vero perché io ho cominciato
da zero, e oggi sono qui. -
15:09 - 15:11Ed è stato solo perché ci ho creduto.
-
15:11 - 15:14Quindi, crediamo nei nostri diritti,
-
15:14 - 15:18crediamo nelle nostre libertà
e crediamo nel cambiamento. -
15:18 - 15:19Grazie.
-
15:19 - 15:20(Applausi)
- Title:
- Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo
- Description:
-
A TEDxLakeComo, l'esperta di data justice e diritti digitali Silvia Semenzin ci ricorda la forza dei movimenti collettivi nel generare cambiamento. Un cambiamento che non può però affidarsi solamente alla tecnologia, ma deve fondarsi sull'evoluzione della cultura.
Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.
Per maggiori informazioni, visita il sito http://ted.com/tedx
- Video Language:
- Italian
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 15:31
Michele Gianella approved Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Michele Gianella edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Michele Gianella edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Michele Gianella edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Michele Gianella edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Nicoletta Pedrana accepted Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Nicoletta Pedrana edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo | ||
Nicoletta Pedrana edited Italian subtitles for Tecnologia vs. Umanità | Silvia Semenzin | TEDxLakeComo |