Return to Video

Reclaim Your Face

  • 0:01 - 0:04
    In un tempo in cui l'ingiustizia sta aumentando,
  • 0:04 - 0:06
    populismo e razzismo sono in crescita -
  • 0:06 - 0:08
    e, allo stesso tempo, stiamo cercando di
  • 0:08 - 0:12
    opporci alle discriminazioni basate sull'aspetto o sulle origini,
  • 0:12 - 0:15
    l'UE supporta la ricerca e l'utilizzo
  • 0:15 - 0:18
    di tecnologie che intensificano ulteriormente questi problemi:
  • 0:18 - 0:22
    Sistemi per la sorveglianza biometrica di massa.
  • 0:22 - 0:25
    La speranza associata a questi sistemi è:
  • 0:25 - 0:27
    Più sicurezza, più efficienza -
  • 0:27 - 0:29
    meno criminalità!
  • 0:29 - 0:32
    Ma da un punto di vista scientifico, ciò non è giustificato:
  • 0:32 - 0:37
    ogni "intelligenza artificiale" deve essere addestrata con dati selezionati in precedenza
  • 0:37 - 0:41
    Quindi imparerà sempre i pregiudizi inconsci dei suoi programmatori.
  • 0:41 - 0:44
    In pratica questi pregiudizi si rafforzano da soli -
  • 0:44 - 0:47
    in un modo completamente automatizzato e incredibilmente veloce:
  • 0:47 - 0:49
    "Queste persone molto spesso causano problemi.
  • 0:49 - 0:52
    Devono essere sorvegliate con più attenzione.
  • 0:52 - 0:54
    Queste persone molto spesso causano problemi.
  • 0:54 - 0:55
    Devono essere sorvegliate con più attenzione..."
  • 1:01 - 1:02
    E se ora pensi:
  • 1:02 - 1:05
    "Be, questa cosa non mi riguarda - non ho niente da nascondere..."
  • 1:05 - 1:08
    vale la pena dare un'occhiata a come evolvono di solito queste situazioni:
  • 1:08 - 1:10
    Persino sistemi dall'aspetto innocuo,
  • 1:10 - 1:15
    che inizialmente erano destinati solo ad un'identificazione selettiva,
  • 1:15 - 1:18
    sono poi usati anche per una sorveglianza su larga scala.
  • 1:18 - 1:21
    Insomma, "Se la tecnologia esiste,
  • 1:21 - 1:22
    era costosa da ottenere
  • 1:22 - 1:24
    e può riconoscere i sospetti..."
  • 1:24 - 1:29
    Quindi fino ad ora ogni sistema che teoricamente permette la sorveglianza,
  • 1:29 - 1:32
    prima o poi è usato con quello scopo.
  • 1:32 - 1:35
    E con i dati biometrici la situazione si fa particolarmente pericolosa:
  • 1:35 - 1:38
    Ad esempio, il tuo volto - senza che tu te ne accorga - può
  • 1:38 - 1:40
    finire in diversi database,
  • 1:40 - 1:45
    e può renderti sempre identificabile in modo completamente automatizzato.
  • 1:45 - 1:49
    Se i tuoi dati vengono poi trasmessi, venduti e collegati ad altri dati,
  • 1:49 - 1:52
    potrebbero avere un impatto devastante sulla tua vita.
  • 1:52 - 1:56
    Il tuo accesso al credito, ad esempio, potrebbe essere ristretto.
  • 1:56 - 1:58
    Potresti perdere la tua libertà di viaggiare....
  • 1:58 - 2:01
    o tutte le tue libertà.
  • 2:01 - 2:03
    Ma anche se fosse stato un sistema perfetto,
  • 2:03 - 2:08
    sicuro, giusto e potesse esistere un sistema di sorveglianza completamente neutrale:
  • 2:08 - 2:10
    Ci sarebbero sempre comunque effetti collatereali.
  • 2:10 - 2:13
    Il cosiddetto "chilling effect", ad esempio:
  • 2:13 - 2:16
    Secondo questa definizione, le persone che sanno di essere monitorate cambiano il proprio comportamento,
  • 2:16 - 2:18
    seguono automaticamente un comportamento più conformista,
  • 2:18 - 2:20
    E questo perché vogliono evitare di dare nell'occhio.
  • 2:20 - 2:22
    La possibilità di resistere alle ingiustizie
  • 2:22 - 2:26
    e la solidarietà all'interno della società sono affette da questi sistemi.
  • 2:26 - 2:28
    Tutto ciò ha conseguenze gravi e di vasta portata.
  • 2:29 - 2:33
    L'UE ha l'opportunità di fermare tutto ciò ora.
  • 2:33 - 2:37
    Aiutaci e riappropriamoci insieme dei nostri spazi pubblici.
  • 2:37 - 2:39
    Fai valere i tuoi diritti:
  • 2:39 - 2:42
    Il diritto alla privacy, alla libertà di espressione,
  • 2:42 - 2:46
    Il diritto di manifestare, e la libertà da ogni tipo di discriminazione.
  • 2:46 - 2:49
    Quello di cui abbiamo bisogno ora sono sistemi giusti, che non discriminano
  • 2:49 - 2:52
    Che agiscano sulla base di ragionamenti umani e del buon senso.
  • 2:52 - 2:54
    Questo crea lavoro
  • 2:54 - 2:56
    e libera risorse urgenti necessarie:
  • 2:56 - 2:59
    perché i più grandi problemi che affliggono la nostra sicurezza
  • 2:59 - 3:01
    non possono essere risolti con la sorveglianza biometrica,
  • 3:01 - 3:06
    Con la profilazione, e attraverso una dubbia predizione del futuro.
  • 3:06 - 3:07
    Al contrario:
  • 3:07 - 3:11
    Questi sistemi sono un ulteriore pericolo per il nostro stato di diritto
  • 3:11 - 3:13
    e per i nostri diritti fondamentali più importanti.
  • 3:13 - 3:19
    Perciò firma l'Iniziativa dei Cittadini Europei per una nuova legge:
  • 3:21 - 3:23
    Il divieto alla sorveglianza biometrica di massa!
  • 3:23 - 3:27
    Vai su reclaimyourface.eu
Title:
Reclaim Your Face
Description:

more » « less
Video Language:
English
Duration:
03:37
Maximilian Marx edited Italian subtitles for Reclaim Your Face

Italian subtitles

Revisions