1 00:00:00,780 --> 00:00:03,500 In un tempo in cui l'ingiustizia sta aumentando, 2 00:00:03,500 --> 00:00:06,060 populismo e razzismo sono in crescita - 3 00:00:06,060 --> 00:00:08,160 e, allo stesso tempo, stiamo cercando di 4 00:00:08,160 --> 00:00:11,800 opporci alle discriminazioni basate sull'aspetto o sulle origini, 5 00:00:11,800 --> 00:00:14,720 l'UE supporta la ricerca e l'utilizzo 6 00:00:14,720 --> 00:00:18,100 di tecnologie che intensificano ulteriormente questi problemi: 7 00:00:18,100 --> 00:00:21,540 Sistemi per la sorveglianza biometrica di massa. 8 00:00:21,540 --> 00:00:24,780 La speranza associata a questi sistemi è: 9 00:00:24,780 --> 00:00:27,020 Più sicurezza, più efficienza - 10 00:00:27,020 --> 00:00:29,020 meno criminalità! 11 00:00:29,020 --> 00:00:32,300 Ma da un punto di vista scientifico, ciò non è giustificato: 12 00:00:32,300 --> 00:00:37,080 ogni "intelligenza artificiale" deve essere addestrata con dati selezionati in precedenza 13 00:00:37,080 --> 00:00:41,000 Quindi imparerà sempre i pregiudizi inconsci dei suoi programmatori. 14 00:00:41,000 --> 00:00:43,540 In pratica questi pregiudizi si rafforzano da soli - 15 00:00:43,540 --> 00:00:46,600 in un modo completamente automatizzato e incredibilmente veloce: 16 00:00:46,600 --> 00:00:49,460 "Queste persone molto spesso causano problemi. 17 00:00:49,460 --> 00:00:51,800 Devono essere sorvegliate con più attenzione. 18 00:00:51,800 --> 00:00:53,800 Queste persone molto spesso causano problemi. 19 00:00:53,800 --> 00:00:55,160 Devono essere sorvegliate con più attenzione..." 20 00:01:00,780 --> 00:01:02,100 E se ora pensi: 21 00:01:02,100 --> 00:01:05,280 "Be, questa cosa non mi riguarda - non ho niente da nascondere..." 22 00:01:05,280 --> 00:01:08,500 vale la pena dare un'occhiata a come evolvono di solito queste situazioni: 23 00:01:08,500 --> 00:01:10,500 Persino sistemi dall'aspetto innocuo, 24 00:01:10,500 --> 00:01:14,680 che inizialmente erano destinati solo ad un'identificazione selettiva, 25 00:01:14,680 --> 00:01:18,360 sono poi usati anche per una sorveglianza su larga scala. 26 00:01:18,360 --> 00:01:20,720 Insomma, "Se la tecnologia esiste, 27 00:01:20,720 --> 00:01:22,220 era costosa da ottenere 28 00:01:22,220 --> 00:01:24,440 e può riconoscere i sospetti..." 29 00:01:24,440 --> 00:01:29,000 Quindi fino ad ora ogni sistema che teoricamente permette la sorveglianza, 30 00:01:29,000 --> 00:01:31,760 prima o poi è usato con quello scopo. 31 00:01:31,760 --> 00:01:35,140 E con i dati biometrici la situazione si fa particolarmente pericolosa: 32 00:01:35,140 --> 00:01:38,220 Ad esempio, il tuo volto - senza che tu te ne accorga - può 33 00:01:38,220 --> 00:01:39,780 finire in diversi database, 34 00:01:39,780 --> 00:01:44,700 e può renderti sempre identificabile in modo completamente automatizzato. 35 00:01:44,700 --> 00:01:48,780 Se i tuoi dati vengono poi trasmessi, venduti e collegati ad altri dati, 36 00:01:48,780 --> 00:01:52,320 potrebbero avere un impatto devastante sulla tua vita. 37 00:01:52,320 --> 00:01:55,920 Il tuo accesso al credito, ad esempio, potrebbe essere ristretto. 38 00:01:55,920 --> 00:01:58,160 Potresti perdere la tua libertà di viaggiare.... 39 00:01:58,160 --> 00:02:00,820 o tutte le tue libertà. 40 00:02:00,820 --> 00:02:03,060 Ma anche se fosse stato un sistema perfetto, 41 00:02:03,060 --> 00:02:07,920 sicuro, giusto e potesse esistere un sistema di sorveglianza completamente neutrale: 42 00:02:07,920 --> 00:02:10,140 Ci sarebbero sempre comunque effetti collatereali. 43 00:02:10,140 --> 00:02:12,860 Il cosiddetto "chilling effect", ad esempio: 44 00:02:12,860 --> 00:02:15,840 Secondo questa definizione, le persone che sanno di essere monitorate cambiano il proprio comportamento, 45 00:02:15,840 --> 00:02:17,840 seguono automaticamente un comportamento più conformista, 46 00:02:17,840 --> 00:02:19,840 E questo perché vogliono evitare di dare nell'occhio. 47 00:02:19,840 --> 00:02:22,300 La possibilità di resistere alle ingiustizie 48 00:02:22,300 --> 00:02:25,880 e la solidarietà all'interno della società sono affette da questi sistemi. 49 00:02:25,880 --> 00:02:27,880 Tutto ciò ha conseguenze gravi e di vasta portata. 50 00:02:28,580 --> 00:02:33,200 L'UE ha l'opportunità di fermare tutto ciò ora. 51 00:02:33,200 --> 00:02:37,300 Aiutaci e riappropriamoci insieme dei nostri spazi pubblici. 52 00:02:37,300 --> 00:02:38,940 Fai valere i tuoi diritti: 53 00:02:38,940 --> 00:02:42,080 Il diritto alla privacy, alla libertà di espressione, 54 00:02:42,080 --> 00:02:45,800 Il diritto di manifestare, e la libertà da ogni tipo di discriminazione. 55 00:02:45,800 --> 00:02:49,480 Quello di cui abbiamo bisogno ora sono sistemi giusti, che non discriminano 56 00:02:49,480 --> 00:02:51,940 Che agiscano sulla base di ragionamenti umani e del buon senso. 57 00:02:51,940 --> 00:02:53,620 Questo crea lavoro 58 00:02:53,620 --> 00:02:56,160 e libera risorse urgenti necessarie: 59 00:02:56,160 --> 00:02:59,080 perché i più grandi problemi che affliggono la nostra sicurezza 60 00:02:59,080 --> 00:03:01,400 non possono essere risolti con la sorveglianza biometrica, 61 00:03:01,400 --> 00:03:06,140 Con la profilazione, e attraverso una dubbia predizione del futuro. 62 00:03:06,140 --> 00:03:07,200 Al contrario: 63 00:03:07,200 --> 00:03:10,520 Questi sistemi sono un ulteriore pericolo per il nostro stato di diritto 64 00:03:10,520 --> 00:03:12,980 e per i nostri diritti fondamentali più importanti. 65 00:03:12,980 --> 00:03:18,820 Perciò firma l'Iniziativa dei Cittadini Europei per una nuova legge: 66 00:03:20,740 --> 00:03:23,000 Il divieto alla sorveglianza biometrica di massa! 67 00:03:23,000 --> 00:03:26,840 Vai su reclaimyourface.eu