< Return to Video

https:/.../rc3-2021-import-1980-deu-Reclaim_Your_Face.mp4

  • 0:01 - 0:04
    À une époque où l'injustice grandit,
  • 0:04 - 0:06
    les populistes et les racistes gagnent du terrain -
  • 0:06 - 0:08
    mais où nous essayons en même temps,
  • 0:08 - 0:12
    lutter contre la discrimination fondée sur l'apparence et l'origine,
  • 0:12 - 0:15
    l'UE soutient la recherche et l'utilisation
  • 0:15 - 0:18
    de technologies qui ne font que renforcer ces problèmes:
  • 0:18 - 0:22
    les systèmes de surveillance biométrique de masse.
  • 0:22 - 0:25
    L'espoir qui y est associé est compréhensible:
  • 0:25 - 0:27
    Plus de sécurité, plus d'efficacité -
  • 0:27 - 0:29
    moins de criminalité !
  • 0:29 - 0:32
    Mais d'un point de vue scientifique, elle n'est pas justifiée :
  • 0:32 - 0:37
    Car toute "intelligence artificielle" doit être entraînée avec des données sélectionnées.
  • 0:37 - 0:41
    Ainsi, elle apprend toujours les préjugés inconscients de ses programmeurs.
  • 0:41 - 0:44
    Dans la pratique, elles se renforcent elles-mêmes -
  • 0:44 - 0:47
    de manière entièrement automatique et à une vitesse fulgurante :
  • 0:47 - 0:49
    "Ces personnes causent souvent des problèmes.
  • 0:49 - 0:52
    Il faut les surveiller de plus près.
  • 0:52 - 0:54
    Ces personnes posent souvent des problèmes.
  • 0:54 - 0:55
    Il faut les surveiller de plus près..."
  • 1:01 - 1:02
    Et si tu penses :
  • 1:02 - 1:05
    "Oh, cela ne me concerne pas - je n'ai rien à cacher...".
  • 1:05 - 1:08
    il vaut la peine de jeter un coup d'œil sur le développement typique :
  • 1:08 - 1:10
    Même les systèmes d'apparence inoffensive,
  • 1:10 - 1:15
    qui, au départ, n'était conçu que pour une identification sélective pratique,
  • 1:15 - 1:18
    sont ensuite utilisés pour une surveillance à grande échelle.
  • 1:18 - 1:21
    Logique : "Si la technique existe,
  • 1:21 - 1:22
    son acquisition a été coûteuse
  • 1:22 - 1:24
    et qu'elle peut détecter des suspects ..."
  • 1:24 - 1:29
    Ainsi, jusqu'à présent, presque tous les systèmes qui permettent théoriquement la surveillance,
  • 1:29 - 1:32
    est tôt ou tard utilisé dans la pratique.
  • 1:32 - 1:35
    Et avec les données biométriques, cela devient particulièrement dangereux:
  • 1:35 - 1:38
    Ton visage peut par exemple - même sans que tu t'en rendes compte - être utilisé pour des tâches administratives.
  • 1:38 - 1:40
    se retrouver dans des bases de données,
  • 1:40 - 1:45
    ce qui peut te rendre identifiable à tout moment et partout de manière entièrement automatique.
  • 1:45 - 1:49
    Tes données sont ensuite transmises ou vendues et reliées à d'autres données,
  • 1:49 - 1:52
    cela pourrait avoir un effet dévastateur sur ta vie.
  • 1:52 - 1:56
    Par exemple, ta solvabilité pourrait être réduite.
  • 1:56 - 1:58
    Tu peux seulement perdre ta liberté de voyager ...
  • 1:58 - 2:01
    ou même toute ta liberté.
  • 2:01 - 2:03
    Mais même si c'est le parfait,
  • 2:03 - 2:08
    un système de surveillance sûr, équitable et totalement neutre :
  • 2:08 - 2:10
    Il y aurait toujours un effet secondaire.
  • 2:10 - 2:13
    Le fameux "chilling effect" :
  • 2:13 - 2:16
    Selon cet effet, les personnes qui se sentent observées se comportent,
  • 2:16 - 2:18
    s'adaptent automatiquement mieux,
  • 2:18 - 2:20
    parce qu'elles veulent éviter de se faire remarquer.
  • 2:20 - 2:22
    La résistance à l'injustice
  • 2:22 - 2:26
    et la solidarité au sein de la société diminue.
  • 2:26 - 2:28
    Avec des conséquences importantes.
  • 2:29 - 2:33
    Mais l'UE a la possibilité de mettre un terme à cette évolution.
  • 2:33 - 2:37
    Aidez-nous et revendiquez notre espace public.
  • 2:37 - 2:39
    Revendiquez vos droits :
  • 2:39 - 2:42
    à la vie privée, à la liberté d'expression,
  • 2:42 - 2:46
    à la protestation et à la non-discrimination.
  • 2:46 - 2:49
    Ce qu'il nous faut maintenant, ce sont des systèmes équitables et non discriminatoires.
  • 2:49 - 2:52
    avec un sens de la mesure et de la raison.
  • 2:52 - 2:54
    Cela crée des emplois
  • 2:54 - 2:56
    et libère des ressources indispensables :
  • 2:56 - 2:59
    Car les problèmes principaux qui menacent notre sécurité,
  • 2:59 - 3:01
    ne peuvent pas être résolus par la surveillance biométrique,
  • 3:01 - 3:06
    le profilage et le blanchiment d'argent qui y est associé.
  • 3:06 - 3:07
    Au contraire :
  • 3:07 - 3:11
    C'est une menace supplémentaire pour notre État de droit
  • 3:11 - 3:13
    et nos principaux droits fondamentaux.
  • 3:13 - 3:19
    Alors signez l'initiative citoyenne européenne pour une nouvelle loi :
  • 3:21 - 3:23
    Pour une interdiction de la surveillance biométrique de masse !
  • 3:23 - 3:27
    reclaimyourface.eu
Title:
https:/.../rc3-2021-import-1980-deu-Reclaim_Your_Face.mp4
Video Language:
German
Duration:
03:36

French subtitles

Revisions