1 00:00:00,780 --> 00:00:03,500 I en tid, hvor uretfærdigheden vokser, 2 00:00:03,500 --> 00:00:06,060 er populister og racister i fremmarch - 3 00:00:06,060 --> 00:00:08,160 og samtidig forsøger vi at 4 00:00:08,160 --> 00:00:11,800 bekæmpe diskrimination på baggrund af udseende og oprindelse, 5 00:00:11,800 --> 00:00:14,720 EU støtter forskning og anvendelse 6 00:00:14,720 --> 00:00:18,100 af teknologi, der yderligere forstærker disse problemer: 7 00:00:18,100 --> 00:00:21,540 Biometriske masseovervågningssystemer. 8 00:00:21,540 --> 00:00:24,780 Det håb, der er forbundet med det, er forståeligt: 9 00:00:24,780 --> 00:00:27,020 Mere sikkerhed, mere effektivitet - 10 00:00:27,020 --> 00:00:29,020 mindre kriminalitet! 11 00:00:29,020 --> 00:00:32,300 Men ud fra et videnskabeligt synspunkt er det ubegrundet: 12 00:00:32,300 --> 00:00:37,080 For enhver "kunstig intelligens" skal trænes med udvalgte data. 13 00:00:37,080 --> 00:00:41,000 Så den lærer altid sine programmørers ubevidste fordomme. 14 00:00:41,000 --> 00:00:43,540 I praksis forstærker de sig selv - 15 00:00:43,540 --> 00:00:46,600 fuldt automatiseret og utrolig hurtigt: 16 00:00:46,600 --> 00:00:49,460 "Disse mennesker skaber ofte problemer. 17 00:00:49,460 --> 00:00:51,800 De skal overvåges nøjere. 18 00:00:51,800 --> 00:00:53,800 Disse mennesker skaber ofte problemer. 19 00:00:53,800 --> 00:00:55,160 De skal overvåges nøjere..." 20 00:01:00,780 --> 00:01:02,100 Og hvis nu du tænker: 21 00:01:05,280 --> 00:01:08,500 er det værd at tage et kig på den typiske udvikling: 22 00:01:08,500 --> 00:01:10,500 Selv harmløst udseende systemer, 23 00:01:10,500 --> 00:01:14,680 som oprindelig kun var beregnet til praktisk selektiv identifikation, 24 00:01:14,680 --> 00:01:18,360 anvendes også senere til overvågning i stor skala. 25 00:01:18,360 --> 00:01:20,720 Det er klart, at "Hvis teknologien findes, 26 00:01:20,720 --> 00:01:22,220 og den var dyr at få fat i, 27 00:01:22,220 --> 00:01:24,440 og den kan genkende mistænkte..." 28 00:01:24,440 --> 00:01:29,000 Så stort set alle systemer, der teoretisk set tillader overvågning, er før eller siden indtil nu 29 00:01:29,000 --> 00:01:31,760 også blevet brugt til det i praksis 30 00:01:31,760 --> 00:01:35,140 og med biometriske data bliver det særligt farligt: 31 00:01:35,140 --> 00:01:38,220 For eksempel kan dit ansigt - selv uden at du bemærker det - 32 00:01:38,220 --> 00:01:39,780 ende i databaser, 33 00:01:39,780 --> 00:01:44,700 hvilket til enhver tid kan gøre dig identificerbar helt af sig selv. 34 00:01:44,700 --> 00:01:48,780 Bliver dine data så videregivet eller -solgt og sammenkoblet med andre data, 35 00:01:48,780 --> 00:01:52,320 kan det have ødelæggende indflydelse på dit liv. 36 00:01:52,320 --> 00:01:55,920 Din kreditvurdering kan f.eks. blive begrænset. 37 00:01:55,920 --> 00:01:58,160 Du kan miste din frihed til at rejse.... 38 00:01:58,160 --> 00:02:00,820 eller hele din frihed. 39 00:02:00,820 --> 00:02:03,060 Men selv hvis et helt perfekt, 40 00:02:03,060 --> 00:02:07,920 sikkert, retfærdigt og fuldstændig neutralt overvågningssystem fandtes: 41 00:02:07,920 --> 00:02:10,140 Ville der altid være en bivirkning. 42 00:02:10,140 --> 00:02:12,860 Den såkaldte "chilling effect": 43 00:02:12,860 --> 00:02:15,840 Ifølge denne effekt opfører folk sig på en bestemt måde, når de føler sig overvåget, 44 00:02:15,840 --> 00:02:17,840 de opfører sig automatisk mere konformt, 45 00:02:17,840 --> 00:02:19,840 fordi de ønsker at undgå at være iøjnefaldende. 46 00:02:19,840 --> 00:02:22,300 Modstanden mod uretfærdighed 47 00:02:22,300 --> 00:02:25,880 og solidariteten i samfundet falder som følge heraf. 48 00:02:25,880 --> 00:02:27,880 Med vidtrækkende konsekvenser. 49 00:02:28,580 --> 00:02:33,200 Men EU har mulighed for at stoppe denne udvikling nu. 50 00:02:33,200 --> 00:02:37,300 Hjælp os med at generobre vores offentlige rum. 51 00:02:37,300 --> 00:02:38,940 Kræv dine rettigheder: 52 00:02:38,940 --> 00:02:42,080 Til privatlivets fred, til ytringsfrihed, 53 00:02:42,080 --> 00:02:45,800 til at protestere og til frihed fra diskrimination. 54 00:02:45,800 --> 00:02:49,480 Det, vi har brug for nu, er retfærdige, ikke-diskriminerende systemer 55 00:02:49,480 --> 00:02:51,940 med menneskelig dømmekraft og fornuft. 56 00:02:51,940 --> 00:02:53,620 Det skaber arbejdspladser 57 00:02:53,620 --> 00:02:56,160 og frigør hårdt tiltrængte ressourcer: 58 00:02:56,160 --> 00:02:59,080 Fordi de største problemer, der truer vores sikkerhed, 59 00:02:59,080 --> 00:03:01,400 ikke kan løses med biometrisk overvågning, 60 00:03:01,400 --> 00:03:06,140 profilering og tilhørende tvivlsom spådom. 61 00:03:06,140 --> 00:03:07,200 Tværtimod: 62 00:03:07,200 --> 00:03:10,520 De udgør en yderligere fare for vores retsstat 63 00:03:10,520 --> 00:03:12,980 og vores vigtigste grundlæggende rettigheder. 64 00:03:12,980 --> 00:03:18,820 Så skriv under på det europæiske borgerinitiativ for en ny lov: 65 00:03:20,740 --> 00:03:23,000 For et forbud mod biometrisk masseovervågning! 66 00:03:23,000 --> 00:03:26,840 reclaimyourface.eu