0:00:00.000,0:00:19.189 36c3 Vorspannmusik 0:00:19.189,0:00:22.980 Herald Engel: Unser nächster Vortrag hat[br]den Titel „Weichenstellung“. In welcher 0:00:22.980,0:00:29.679 digitalen Welt werden wir leben? Der Herr[br]Kelber wird darin aufzeigen, welche Folgen 0:00:29.679,0:00:33.509 die aktuellen politischen Entscheidungen[br]oder deren Ausbleiben auf unsere Zukunft 0:00:33.509,0:00:38.468 als Gesellschaft haben. Insbesondere bei[br]den Themen digitale überwachung durch 0:00:38.468,0:00:44.139 private und öffentliche Stellen. Ulrich[br]Kelber ist seit Januar diesen Jahres der 0:00:44.139,0:00:48.449 Bundesdatenschutzbeauftragte, ist[br]studierter Diplominformatiker, hat 20 0:00:48.449,0:00:54.670 Jahre im Bundestag als Bundestagsabgeordneter[br]gearbeitet und war vorher Staatssekretär 0:00:54.670,0:00:58.359 im Justizministerium. Bitte begrüßt ihn[br]mit einem kräftigen Applaus. 0:00:58.359,0:01:07.780 Applaus 0:01:07.780,0:01:11.140 Ulrich Kelber: Ja, schönen guten Tag, auch[br]von meiner Seite, hab mich sehr über die 0:01:11.140,0:01:16.420 Einladung gefreut. Ich bin natürlich etwas[br]beschämt, dass ich das erste Mal dabei bin, 0:01:16.420,0:01:21.250 nämlich in den 20 Jahren, wo ich[br]tatsächlich Abgeordneter war, hat meine 0:01:21.250,0:01:25.530 Familie gestreikt: neben den Wochenenden,[br]die immer dazugehören zur Arbeit, mir dann 0:01:25.530,0:01:32.670 auch noch die Tage über Weihnachten für[br]digitale Themen frei zu geben. Aber 0:01:32.670,0:01:36.270 nachdem ich ja im Januar in den Job[br]wechseln konnte, wo ich noch schön an 0:01:36.270,0:01:41.479 einem Thema tief arbeiten kann, aber die[br]Wochenenden jetzt freier zur Verfügung 0:01:41.479,0:01:46.189 habe, durfte ich mir zumindest mal einen[br]Tag dafür nehmen. Und ich hoffe, im 0:01:46.189,0:01:49.409 nächsten Jahr vielleicht auch mal mit[br]Übernachtung ein bisschen mehr 0:01:49.409,0:01:59.990 reinschnuppern auch in das, was andere zu[br]sagen und zu zeigen haben. — Applaus 0:01:59.990,0:02:06.369 Ich habe in der Tat jetzt knapp ein Jahr in[br]der neuen Funktion zubringen können, 0:02:06.369,0:02:11.820 versuchen, das Thema in der Breite[br]aufzunehmen, Schwerpunkte zu setzen, 0:02:11.820,0:02:16.830 insbesondere bei den Aufgaben, die wir in[br]den letzten Jahren auch hinzubekommen 0:02:16.830,0:02:21.010 haben: die Durchsetzung der europäischen[br]Datenschutzgrundverordnung, die 0:02:21.010,0:02:25.100 Durchsetzung der ja erst noch in[br]nationales Recht umzusetzenden Joint 0:02:25.100,0:02:30.270 Implementation Richtlinie, die Regulierung[br]von Scoring und Profiling, bereich- 0:02:30.270,0:02:36.330 spezifische Gesetzgebung, die ja fast im[br]Wochenrhythmus erfolgt, insbesondere im 0:02:36.330,0:02:41.870 Sicherheitsbereich und natürlich jetzt[br]auch drei Jahre oder dreieinhalb Jahre 0:02:41.870,0:02:48.101 nach Inkrafttreten, anderthalb Jahre nach[br]der vollen Wirksamkeit. Auch die 0:02:48.101,0:02:52.819 Überlegungen zur Weiterentwicklung[br]europäischen Datenschutzrechts. Und alles 0:02:52.819,0:02:58.459 vor dem Hintergrund einer Entwicklung, wo[br]im Augenblick Weichenstellungen in der 0:02:58.459,0:03:04.489 Frage von Regulierung, Nichtregulierung,[br]technische Entwicklung, Einführung von IT- 0:03:04.489,0:03:09.129 Systemen gesetzt werden, die massive[br]Auswirkungen auch auf unsere 0:03:09.129,0:03:13.129 Gesellschaftsordnung haben. Mich[br]interessieren die Debatten um digitale 0:03:13.129,0:03:18.700 Überwachung, sei es durch private oder[br]staatliche Stellen und insbesondere 0:03:18.700,0:03:23.129 natürlich auch der regelrechte hysterische[br]Wettlauf um immer neue 0:03:23.129,0:03:30.240 Eingriffesbefugnisse von[br]Sicherheitsbehörden. — Applaus — 0:03:30.240,0:03:34.260 Ich bin überzeugt, dass wir[br]schon die Weichenstellungen so vornehmen 0:03:34.260,0:03:38.690 können, dass auch die digitale[br]Gesellschaft eine freiheitliche, liberale 0:03:38.690,0:03:45.909 und diverse Gesellschaft bleibt. Aber[br]ausgemacht ist das noch keineswegs. Wir 0:03:45.909,0:03:50.420 sehen immer wieder, dass die technischen[br]und ökonomischen Aspekte dieser Debatte in 0:03:50.420,0:03:54.540 den Vordergrund gestellt werden und dass[br]es schwierig ist, durchzudringen mit 0:03:54.540,0:03:59.139 gesellschaftspolitischen und[br]datenschutzrechtlichen Fragestellungen. 0:03:59.139,0:04:05.450 Und wenn es eine Debatte gibt über diese[br]Weichenstellung in einer digitalpolitischen 0:04:05.450,0:04:10.069 europäischen Debatte, dann werden eben vor[br]allem diese technischen und okönomischen 0:04:10.069,0:04:15.000 Aspekte herangezogen. Es wird verwiesen[br]auf den Stand von ja durchaus 0:04:15.000,0:04:20.740 durchaus weiterentwickelten Digital-[br]Ökonomien in den USA und China, deren 0:04:20.740,0:04:25.650 Vorsprung im Bereich von dem, was immer[br]unscharf als „künstliche Intelligenz“ 0:04:25.650,0:04:31.849 bezeichnet wird. Dass dieser Vorsprung[br]uneinholbar geworden sei und wohlstands- 0:04:31.849,0:04:36.240 gefährdend ist. Das wird durchaus als[br]Druckmittel verwendet, um dann bei 0:04:36.240,0:04:42.970 einzelnen Debatten festzulegen, in welcher[br]Form darf es zu Datenverwertung mittels 0:04:42.970,0:04:47.870 künstlicher Intelligenz, algorithmischer[br]Systeme oder auch der Nutzung von 0:04:47.870,0:04:52.750 Datenbanken an der Stelle kommen? Und wenn[br]man etwas genauer hinschaut, dann ist es 0:04:52.750,0:04:59.040 in der Tat natürlich so, dass in den USA[br]und China in manchen Sektoren bereits eine 0:04:59.040,0:05:03.889 andere Phase der technologischen[br]Entwicklung eingetreten ist. Dort wird 0:05:03.889,0:05:08.220 über deutlich höhere private und[br]staatliche Mittel in dem Bereich 0:05:08.220,0:05:16.650 investiert. Aber man merkt auch, dass[br]beide Wirtschaftssysteme einen bestimmten 0:05:16.650,0:05:21.680 Weg eingeschlagen haben für die Nutzung[br]von IT-System. In China entsteht ein 0:05:21.680,0:05:27.510 Überwachungssystem, das den Polizeistaat[br]erst zur vollen Blüte bringen kann. Wer 0:05:27.510,0:05:31.569 sich jetzt in den letzten Monaten ist das[br]mal zum Thema geworden mit dem, was im 0:05:31.569,0:05:35.759 Westen des Landes bei den Uiguren[br]passiert. Aber ein System, wo das 0:05:35.759,0:05:41.360 Verhalten aller Bürger digital überprüft[br]wird, was manche ja – außerhalb dieser 0:05:41.360,0:05:46.540 Halle natürlich – nicht verstehen, ist, wie[br]analoges und digitales Leben heute so 0:05:46.540,0:05:50.860 verschränkt sind, dass sie einander[br]beeinflussen. Dass deswegen eben auch auf 0:05:50.860,0:05:57.840 das Verhalten außerhalb der unmittelbaren[br]digitalen Welt ein Verhaltensdruck 0:05:57.840,0:06:03.850 ausgeübt wird. Wer sich im Sinne des[br]Systems verhält, dem winken Prämien, 0:06:03.850,0:06:10.430 Belohnungen, Vorteile. Wer das nicht tut,[br]riskiert für sich und Angehörige 0:06:10.430,0:06:18.039 Lebensmöglichkeiten vom Bildungssystem bis[br]hin zur Mobilität. Und es ist spannend, 0:06:18.039,0:06:24.360 wer diese Standards setzt. Es ist[br]spannend, wie diese Standards sich ändern 0:06:24.360,0:06:30.199 und vor allem, dass ein Gefühl entsteht,[br]dass ich gar nicht mehr abschätzen kann: 0:06:30.199,0:06:35.320 Wann werde ich eigentlich beobachtet, mein[br]Verhalten interpretiert, gespeichert, 0:06:35.320,0:06:42.150 bewertet von anderen. Und dies ist ein[br]Gefühl, dass es keine Bereiche mehr der 0:06:42.150,0:06:45.910 Möglichkeit gibt, sich ins Private[br]zurückzuziehen, etwas zu tun, was 0:06:45.910,0:06:52.039 vielleicht noch nicht von allen anderen so[br]vorgelebt wurde, verändert auch das eigene 0:06:52.039,0:06:55.850 Verhalten. Das ist eine Entwicklung, die[br]sicherlich in Europa nur eine absolute 0:06:55.850,0:07:00.900 Minderheit will, auch unter all denen,[br]die politische Positionen haben oder in 0:07:00.900,0:07:04.459 der Wirtschaft an entscheidenden[br]Stellen kommt. Es gibt allerdings 0:07:04.459,0:07:09.620 interessanterweise Studien, die unter[br]jüngeren Menschen schon eine größere 0:07:09.620,0:07:17.210 Zustimmung zu einem solchen System zum[br]Ausdruck bringt, wo bestimmte 0:07:17.210,0:07:22.530 Verhaltensweisen, die als durchaus … man[br]fängt ja an, mit welchen, die tatsächlich 0:07:22.530,0:07:26.306 vielleicht gesellschaftspolitisch von der[br]großen Mehrheit nicht gewünscht sind, 0:07:26.306,0:07:30.130 sanktionieren kann. Aber wie gesagt, die[br]große Mehrheit will das nicht, und zwar 0:07:30.130,0:07:34.490 weder vom Staat noch von privaten Konzernen.[br]Also weder das chinesische Modell, noch 0:07:34.490,0:07:40.240 das US-amerikanische Modell, die sich[br]ja durchaus auch beide teilweise mit 0:07:40.240,0:07:47.360 Aspekten des anderen – die USA im[br]Sicherheitsbereich, die chinesische Seite 0:07:47.360,0:07:51.940 mit dem Zusammenwirken zwischen Staat und[br]privaten Konzernen – beginnt. Und auch wenn 0:07:51.940,0:07:56.590 das keiner in Europa will, glaube ich,[br]dass dieses Überwachungsgift durchaus in 0:07:56.590,0:08:03.180 unser System träufelt von Tag zu Tag. Und[br]zwar, dass man Überwachung durchführen 0:08:03.180,0:08:07.582 will, weil man sie durchführen kann. Dass[br]man Datensammlungen betreibt, wenn man 0:08:07.582,0:08:12.569 diese Daten sammeln kann, weil Sensoren,[br]Speicher und Verarbeitungsmöglichkeiten 0:08:12.569,0:08:17.539 immer kleiner, schneller, besser und[br]billiger werden. Und dass Dinge, die man 0:08:17.539,0:08:22.229 vorher nicht gemacht hat, weil einfach der[br]Aufwand zu groß war, jetzt praktisch im 0:08:22.229,0:08:29.419 Vorbeigehen mitlaufen lässt. Und wo kann[br]man dieses Gift schon spüren? Das spürt 0:08:29.419,0:08:34.310 man, wenn die Geschäftsmodelle von[br]Verlagen in den politischen Debatten 0:08:34.310,0:08:39.770 Vorrang bekommen sollen vor der[br]Unverletzlichkeit der Privatsphäre von 0:08:39.770,0:08:44.920 Bürgerin und Bürger, wenn die Komfort[br]gegen Daten getauscht wird, auch im 0:08:44.920,0:08:51.440 Individualverhalten. Und wenn Sicherheit[br]vor Freiheit gesetzt wird bei der Debatte: 0:08:51.440,0:08:55.800 Was kann ich mit einem zusätzlichen[br]Durchgriffsrecht, Eingriffsrecht von 0:08:55.800,0:09:02.439 Sicherheitsbehörden erreichen? Dann[br]erleben wir, dass die Bewertung von 0:09:02.439,0:09:08.209 Verhalten und das Bewerten von Gesinnung,[br]wenn sie in die Auswertung mancher Daten 0:09:08.209,0:09:12.129 schauen und auch in die ein oder anderen[br]Gesetzentwurf, wo jetzt auf einmal wieder 0:09:12.129,0:09:17.840 aufgebracht wird, wer etwas unterstützt[br]oder befürwortet, dass das ebenfalls 0:09:17.840,0:09:22.949 Einfluss nimmt, damit Normmodelle setzt,[br]die dann in der Verarbeitung von Daten 0:09:22.949,0:09:28.100 überprüft werden durch Staat und durch[br]private Stellen auch in der Europäischen 0:09:28.100,0:09:33.670 Union. Und wie wir das ausgestalten, wie[br]wir zum Beispiel über eine E-Privacy 0:09:33.670,0:09:36.760 Verordnung in der Frage von Tracking[br]sprechen, das ist eine dieser 0:09:36.760,0:09:42.429 Weichenstellungen, die ich meinte mit dem[br]Titel des Vortrags. Im Zentrum dieser 0:09:42.429,0:09:46.159 Debatten steht tatsächlich das, was immer[br]mit dem großen Schlagwort „Künstliche 0:09:46.159,0:09:50.930 Intelligenz“ genommen wird. Sind genügend[br]im Saal, mit denen man sich 2 Stunden darüber 0:09:50.930,0:09:55.000 unterhalten könnte, was dieses Schlagwort[br]wirklich meint und wo es nicht meint. Aber 0:09:55.000,0:09:59.319 das lasse ich mal außen vor. Ich spreche[br]über KI und algorithmische Systeme, mal 0:09:59.319,0:10:06.940 als Bandbreite. Wir Datenschutzbeauftragten[br]haben für uns erkannt, dass es unsere 0:10:06.940,0:10:11.220 Arbeit verändert. Dass es aber eben[br]auch eine große Auswirkung auf 0:10:11.220,0:10:16.920 die Frage von Regulierung haben. Haben[br]deswegen in diesem Jahr, im Frühjahr und 0:10:16.920,0:10:21.850 dann ausgearbeitet noch bis in den Herbst[br]bei der Tagung in Trier im Frühjahr die 0:10:21.850,0:10:26.400 Hambacher Erklärung herausgegeben, auf[br]Schloss Hambach. Wir haben dieses Symbol 0:10:26.400,0:10:33.390 tatsächlich gewählt. Das Hambacher[br]Freiheitsfest von 1832, wo die 0:10:33.390,0:10:37.350 Grundrechte, die Bürgerrechte, auch in den[br]Vordergrund gestellt wurden. Übrigens ein 0:10:37.350,0:10:41.300 internationales Fest, weil es immer manche[br]Deutschtümeler versuchen, für sich zu 0:10:41.300,0:10:47.220 gewinnen. Es waren Franzosen und Polen und[br]andere Delegierte dort. Und haben 0:10:47.220,0:10:51.880 versucht, Grundprinzipien bei diesem[br]Einsatz zu definieren. Menschen nicht zum 0:10:51.880,0:10:55.809 bloßen Objekt einer solchen[br]Datenverarbeitung zu machen, das 0:10:55.809,0:11:00.920 Zweckbindungsgebot nicht fallen zu[br]lassen. Nicht so einfach auch in der 0:11:00.920,0:11:04.790 Entwicklung solcher Systeme. Die[br]Transparenz, die Nachvollziehbarkeit und 0:11:04.790,0:11:10.780 die Erklärbarkeit von KI-Systemen, die[br]Verhinderung von Diskriminierung und den 0:11:10.780,0:11:14.130 Grundsatz der Datenminimierung. Die[br]letzten drei sind übrigens sehr 0:11:14.130,0:11:18.659 interessant in der gesamten Debatte mit[br]Techis, weil mir das selbst bei Leuten, die 0:11:18.659,0:11:24.860 absolut liberal in ihren Grundsätzen sind,[br]immer wieder auffällt, dass sie ablehnen 0:11:24.860,0:11:31.010 diese Verantwortung in der Entwicklung von[br]Systemen mit zu übernehmen. Uns wird dann 0:11:31.010,0:11:34.829 entgegen geschleudert, das wäre ein[br]Generalverdacht. Wir würden zusätzlichen 0:11:34.829,0:11:39.370 Aufwand berücksichtigen. Aber ich glaube,[br]wer solche Macht ausübt mit solchen 0:11:39.370,0:11:43.870 Systemen in der Öffentlichkeit, der muss[br]zumindest selber überlegen: Kann der 0:11:43.870,0:11:49.321 Bereich, in dem ich gerade arbeite,[br]Auswirkungen auf Menschen und Ihre Rechte 0:11:49.321,0:11:52.760 haben? Und was muss ich dann[br]berücksichtigen in der Entwicklung dieser 0:11:52.760,0:11:56.890 Technologie? Wir haben natürlich auch über[br]Verantwortlichkeit gesprochen. Jedes 0:11:56.890,0:12:01.790 System muss auch jemand haben, den ich.[br]Ansprechen kann auf Fehlverhalten, auf 0:12:01.790,0:12:06.990 Diskriminierungspotenziale und ähnliches.[br]Das kann nicht verwischen in einem 0:12:06.990,0:12:18.900 komplexen Netzwerk unterschiedlicher[br]Systeme. Und wenn man … — Applaus Und wenn 0:12:18.900,0:12:23.110 man dann wirtschaftspolitisch an das Ganze[br]herangeht, ist es regelrecht absurd, dass 0:12:23.110,0:12:28.950 hier in Deutschland und in Europa, wo wir[br]eigentlich Erfahrung mit Datenschutz und 0:12:28.950,0:12:33.520 ich hoffe auch mit IT-Sicherheit haben, wo[br]wir Gesetze haben, die uns dazu 0:12:33.520,0:12:38.669 verpflichten, in diesem Bereich höhere[br]Qualität anzubieten als in anderen 0:12:38.669,0:12:42.990 Weltregionen. Dass in dieser Weltregion[br]die Wirtschaftsverbände und die 0:12:42.990,0:12:49.179 Unternehmen unterwegs sind, über diese[br]Regulierungen jammern und in anderen 0:12:49.179,0:12:53.510 Weltregionen mehr oder minder glaubhaft[br]wie z. B. in den USA die ersten Unternehmen 0:12:53.510,0:12:57.920 unterwegs sind und sagen: Wir wollen darüber[br]werben für unsere Produkte, für unsere 0:12:57.920,0:13:02.770 Dienstleistungen, dass wir über die[br]gesetzlichen Vorgaben hinausgehen. Dass 0:13:02.770,0:13:08.220 wir das von Anfang an mit rein nehmen.[br]Hätten wir das auch bei Autos, Maschinen 0:13:08.220,0:13:11.970 und anderen Produkten gemacht, wäre[br]Deutschland ein armseliger Standort. Ich 0:13:11.970,0:13:16.089 verstehe nicht, warum wir in der Digital-[br]Ökonomie auf den niedrigsten Standard einen 0:13:16.089,0:13:19.890 Wettlauf nach unten machen wollen, nach[br]Meinung der Wirtschaftsverbände, anstatt 0:13:19.890,0:13:23.689 mit Qualität und Unique Selling Points[br]auch weltweit zu punkten. Das wäre im 0:13:23.689,0:13:27.090 Datenschutz, in der IT-Security,[br]wirklich möglich. 0:13:27.090,0:13:35.380 Applaus[br]Wir begegnen natürlich immer einem 0:13:35.380,0:13:39.799 logischen Wunsch. Das ist wirklich bei[br]Wirtschaft, Techies und großen Teilen der 0:13:39.799,0:13:46.570 Politik gleich: Wir brauchen für die[br]Optimierung von Prozesssteuerung, so die 0:13:46.570,0:13:51.230 Argumentation, die deutliche Erhöhung der[br]Menge an nutzbaren, qualitativ 0:13:51.230,0:13:56.650 hochwertigen Daten. Ich will mich dem[br]übrigens keineswegs verschließen, weil ich 0:13:56.650,0:14:01.150 durchaus der Meinung bin, selber eine[br]ganze Reihe von Prozessen zu sehen, wo ich 0:14:01.150,0:14:06.040 mit dem richtigen Zugriff auf[br]verantwortlich zur Verfügung stellbare 0:14:06.040,0:14:10.770 Daten, deutliche Verbesserungs-,[br]Optimierungs- und Fortschritts-Potenziale 0:14:10.770,0:14:15.060 sehe. Aber es geht doch darum,[br]den Prozess so zu organisieren, dass 0:14:15.060,0:14:21.000 Persönlichkeitsrechte, das Recht auf[br]informationelle Selbstbestimmung und 0:14:21.000,0:14:26.490 andere Grundrechte nicht eingeschränkt[br]werden, nicht verletzt werden, sondern 0:14:26.490,0:14:30.120 dass wir die neuen technischen[br]Möglichkeiten sogar nutzen, um 0:14:30.120,0:14:33.670 informationelle Selbstbestimmung an[br]Stellen zu schaffen, wo ich sie in der 0:14:33.670,0:14:38.380 Vergangenheit gar nicht hatte, weil sie[br]mir nicht zur Verfügung gestanden hat. Und 0:14:38.380,0:14:42.640 diese Debatte zu führen und anders auf den[br]Markt zu treten, das ist der Vorschlag, 0:14:42.640,0:14:46.850 den die deutschen Datenschutzbehörden mit[br]der Hambacher Erklärung und anderen 0:14:46.850,0:14:52.110 Beschlüssen gefasst haben. Und auch der[br]Europäische Datenschutz-Ausschuss ist uns 0:14:52.110,0:14:57.080 dort vor kurzem gefolgt. Ich glaube, dass[br]die Regulierung von künstlicher 0:14:57.080,0:15:01.100 Intelligenz, von algorithmischen Systemen,[br]da eintreten muss, wo Gefahr für diese 0:15:01.100,0:15:05.839 Rechtsgüter besteht – des Einzelnen oder[br]der Allgemeinheit. Sie haben vielleicht 0:15:05.839,0:15:10.959 zum Teil mitverfolgt, dass es manche gibt:[br]Der Datenschutz übernähme sich, sagen die, 0:15:10.959,0:15:15.010 wenn er nicht nur den Schutz des Einzelnen,[br]sondern einen gesellschaftspolitischen 0:15:15.010,0:15:20.500 Zweck verfolgt. Aber natürlich habe ich[br]viele Stellen, wo die Frage des Schutz des 0:15:20.500,0:15:24.860 Einzelnen ohne eine Beantwortung der[br]Rechte in der Gemeinschaft gar nicht zu 0:15:24.860,0:15:29.900 leisten ist. Vom simpelsten Beispiel an:[br]wenn ich zulasse, dass bestimmte Daten 0:15:29.900,0:15:33.930 erhoben werden können, freiwillig, dann[br]ist derjenige, der nicht bereit ist, 0:15:33.930,0:15:37.880 freiwillig sie zur Verfügung zu stellen,[br]natürlich am Ende der*die Gekniffene, wenn 0:15:37.880,0:15:42.001 die anderen diese Daten zur Verfügung gestellt[br]haben. Deswegen ist es richtig, an einem 0:15:42.001,0:15:45.970 solchen Beispiel, wo es um besonders[br]sensible Daten geht, natürlich ein 0:15:45.970,0:15:50.250 Erhebungs- und Verwertungsverbot allgemein[br]auszusprechen und es nicht mehr auf die 0:15:50.250,0:15:58.949 Freiwilligkeit zurückfallen zu lassen.[br]— Applaus — Und diese Idee, auch 0:15:58.949,0:16:04.040 technologische Entwicklungen und deren[br]Einsatz regulieren zu wollen, ist aber 0:16:04.040,0:16:09.440 auch gar nichts Neues. Das haben wir doch[br]immer so gemacht. In den letzten zwei, 0:16:09.440,0:16:13.750 dreihundert Jahren, seit wir eine[br]einigermaßen entwickelte Zivilgesellschaft 0:16:13.750,0:16:19.180 und politische Debatte haben. Wir haben es[br]bei Dampfkesseln gemacht, wir haben es bei 0:16:19.180,0:16:23.420 medizinischen Geräten, Autos und Handys[br]gemacht. Was sollte uns davon abhalten, 0:16:23.420,0:16:30.310 diese Debatte zielgerichtet und[br]praktikabel auch im Bereich von Software 0:16:30.310,0:16:36.030 und von Hybrid-Systemen einzuführen? Ein[br]Beispiel dafür; das war ja etwas, was die 0:16:36.030,0:16:40.490 Datenethikkommissionen genannt hatte, als[br]sie gesagt hat, es muss auch die 0:16:40.490,0:16:44.910 Möglichkeit des Verbots – um jetzt mal die[br]weitestgehende Möglichkeit zu benennen – 0:16:44.910,0:16:50.850 von Algorithmen mit unvertretbarem[br]Schädigungspotenzial geben. Schon diese – 0:16:50.850,0:16:56.699 eigentlich selbstverständliche – Forderung[br]„unvertretbares Schädigungspotenzial“ hat 0:16:56.699,0:17:00.581 zu Widerspruch bei einigen[br]Wirtschaftsverbänden geführt. Also was das 0:17:00.581,0:17:05.310 für ein Verständnis der Rolle von Staat[br]als Zusammenschluss der Gesellschaft gibt: 0:17:05.310,0:17:09.100 „Es gibt bestimmte Dinge, die ich nicht[br]zulasse. Bestimmte medizinische Geräte 0:17:09.100,0:17:14.949 sind nicht zugelassen. Der Verkauf von[br]Organen ist nicht zugelassen. Kinderarbeit 0:17:14.949,0:17:19.309 ist nicht zugelassen.“ Und warum soll ich[br]nicht die Erlaubnis haben, bestimmte 0:17:19.309,0:17:24.150 Software-Einsätze zu regulieren bis hin zu[br]einem Verbot? Wir unterhalten uns ja über 0:17:24.150,0:17:30.711 eine kleine Spitze in einem unglaublich[br]innovativen Markt, wo 99,99% aller 0:17:30.711,0:17:34.590 algorithmischen Systeme, die in Umlauf[br]kommen, nie mit einer Aufsicht oder einer 0:17:34.590,0:17:39.141 Kontrolle zu tun haben werden. Aber um[br]diese Spitze müssen wir uns kümmern. Ich 0:17:39.141,0:17:44.320 will jetzt nicht das ohnehin gestresste[br]Beispiel von automatischen Waffensystemen 0:17:44.320,0:17:49.580 oder Hochfrequenzhandel heranbringen. Aber[br]schon im Bereich der Bildung, von 0:17:49.580,0:17:53.450 persönlichen Profilen und der Frage, wem[br]sie zur Verfügung gestellt werden dürfen 0:17:53.450,0:17:57.520 oder nicht, kann es solche unvertretbaren[br]Schädigungspotenziale geben und damit 0:17:57.520,0:18:07.620 die Möglichkeit auch des Verbots in der[br]Regulierung. — Applaus — Und in der Tat 0:18:07.620,0:18:13.550 kämpfen wir darum, dass das Prinzip der[br]Datenminimierung – so heißt es jetzt in der 0:18:13.550,0:18:17.500 deutschen Version des europäischen[br]Datenschutzgrundverordnung. Früher hieß es 0:18:17.500,0:18:21.990 mal Datensparsamkeit –, dass dieses Prinzip[br]nicht über den Haufen geworfen wird. Es 0:18:21.990,0:18:29.460 wird angegriffen von allen Ecken: aus[br]dem technischen Umfeld, aus den 0:18:29.460,0:18:34.030 Wirtschaftsverbänden, aus der Politik bis[br]hoch zu den Reden von Wirtschaftsministern 0:18:34.030,0:18:38.733 und Bundeskanzlerin. Ich glaube teilweise[br]auch aus dem Unverständnis heraus, was 0:18:38.733,0:18:42.630 der Begriff eigentlich bedeutet. Er heißt[br]ja nicht „Schmeiße alle Daten weg, die du 0:18:42.630,0:18:48.420 hast“, also Datenarmut. Sondern er sagt[br]„Ja, du hast nicht das Recht, Daten zu 0:18:48.420,0:18:52.390 erheben, die du nicht benötigst für die[br]Erbringung der Dienstleistung oder des 0:18:52.390,0:18:57.920 Produkts. Weil diese Daten dich nichts[br]angehen von einer Bürgerin oder einem 0:18:57.920,0:19:03.122 Bürger. Und an bestimmter Stelle darfst du[br]Daten auch nur weiterverwenden – und bitte 0:19:03.122,0:19:07.080 jetzt kein Aufheulen, weil ich jetzt auch[br]hier einen holzschnittartigen Pulk mache – 0:19:07.080,0:19:11.340 wenn du Anonymisierung oder Pseudonymisierung[br]verwendet hast. Ich weiß auch, dass es 0:19:11.340,0:19:15.143 keine absolute Anonymisierung gibt. Den[br]Einschub mache ich mal kurz. Aber es gibt 0:19:15.143,0:19:18.660 natürlich situationsgerechte[br]Anonymisierung. Wenn ich für einen 0:19:18.660,0:19:23.970 Bruchteil der Sekunde für eine Steuerung[br]Daten brauche, dann ist das natürlich eine 0:19:23.970,0:19:28.060 andere Form des Aufwands, um in dem[br]Augenblick an Daten zu kommen, wenn sie 0:19:28.060,0:19:32.750 danach gelöscht werden, als wenn ich z. B.[br]biologische Daten für 30 Jahre ablege und 0:19:32.750,0:19:36.580 überhaupt nicht weiß, mit welchen[br]Technologien oder anderen Datenbanken, die 0:19:36.580,0:19:41.020 in Zukunft begegnet werden können, zu[br]einer Repersonalisierung. Wir glauben aber 0:19:41.020,0:19:44.860 auch, dass technologische Entwicklungen[br]wie dezentrales Lernen oder datenschutz- 0:19:44.860,0:19:49.300 konforme Data Spaces die Möglichkeit[br]geben, mit vielen Daten im Bereich der 0:19:49.300,0:19:53.500 künstlichen Intelligenz die[br]Prozesssteuerung zu optimieren. Aber wir 0:19:53.500,0:19:57.870 wollen eben auch eine solche[br]Herangehensweise haben und nicht die Idee, 0:19:57.870,0:20:03.120 große Data Lakes zu bilden, mit denen ich[br]dann später mal reinschaue: Was ist 0:20:03.120,0:20:07.210 möglich? Und dann, allerhöchstens wenn es[br]schon einen Missbrauch von Daten gegeben 0:20:07.210,0:20:12.420 hat, zu gucken: Entdecke ich diesen[br]Missbrauch, kann ich ihn ahnden? Und finde 0:20:12.420,0:20:16.270 ich dann als Aufsichtsbehörde auch noch[br]ein Gericht, das am Ende, wenn ich gesagt 0:20:16.270,0:20:20.290 habe „Das will ich bestrafen“, mir dann auch[br]noch Recht gibt. Denn ich muss ja jedes 0:20:20.290,0:20:24.130 Mal, wenn ich eine Entscheidung treffe,[br]eine Behörde oder ein Unternehmen mit 0:20:24.130,0:20:28.290 einer Sanktion zu belegen – beim[br]Unternehmen das Bußgeld durchaus, bei 0:20:28.290,0:20:31.981 einer Behörde vielleicht die Untersagung –[br]damit rechnen, dass ich vor Gericht so 0:20:31.981,0:20:37.150 etwas auch verlieren kann. Dementsprechend[br]kann es länger dauern. Und es liegt ja 0:20:37.150,0:20:41.440 nicht nur in meiner Hand, wie am Ende die[br]Praxis aussehen wird. Deswegen brauchen 0:20:41.440,0:20:46.230 wir eine ganz klare Regelung zu diesem[br]Bereich. Das ist eben kein Bremsschuh 0:20:46.230,0:20:51.330 für Innovationen, wenn man es von Anfang[br]an mitdenkt. Und wenn ich bei 0:20:51.330,0:20:55.730 Wirtschaftsverbänden spreche, stelle ich[br]einfach immer frech die Frage: Glauben Sie 0:20:55.730,0:21:01.760 denn, dass Sie als Silicon Valley-2 oder[br]als China-2 wirtschaftlichen Erfolg haben 0:21:01.760,0:21:05.690 werden? Oder sind Sie dann der billige[br]Abklatsch? Wäre es nicht besser, unsere 0:21:05.690,0:21:13.280 eigenen Werte einer IT-, einem KI-Verständnis[br]mit europäischen Werten abzubilden und 0:21:13.280,0:21:18.560 dafür im Wettbewerb nach Unterstützung zu[br]suchen? Und zwar in Europa, aber auch bei 0:21:18.560,0:21:23.890 den Menschen in der Welt, die gerne andere[br]Werte in ihren Sicherheitssystemen in 0:21:23.890,0:21:27.430 ihrem privaten Datennutzung verankert[br]hätten, als sie das in ihren Ländern 0:21:27.430,0:21:32.160 haben. Das war die Idee hinter der[br]Datenschutzgrundverordnung ohne Rücksicht 0:21:32.160,0:21:36.520 auf den Standort eines Unternehmens[br]Europäerinnen und Europäer zu schützen und 0:21:36.520,0:21:40.080 auch die Idee, dieses Recht zu[br]exportieren. Und im Augenblick sehen wir 0:21:40.080,0:21:43.790 die ersten Erfolge, dass andere Länder[br]Datenschutzrechte auf Grundlage der 0:21:43.790,0:21:48.220 Datenschutzgrundverordnung entwickeln. Wir[br]sind also hier an einer Stelle in einen 0:21:48.220,0:21:52.790 Wettbewerb eingetreten, mit amerikanischem[br]Recht, mit den Überlegungen in China. Ich 0:21:52.790,0:22:04.190 glaube, Europa sollte selbstbewusst sein,[br]diesen Wettbewerb anzunehmen. — Applaus 0:22:04.190,0:22:09.640 Wir erleben, dass nach wie vor die großen[br]Internetkonzerne – und ich bedauere jeden 0:22:09.640,0:22:17.370 Tag, dass wir zu keinem der großen[br]Entscheidungen schon eine entsprechend … 0:22:17.370,0:22:22.350 oder der großen offensichtlichen Datenschutz-[br]Verstöße durch große Internetkonzerne 0:22:22.350,0:22:26.490 schon eine Entscheidung auf europäischer[br]Ebene getroffen haben. Ich dringe bei 0:22:26.490,0:22:30.040 jedem Treffen des Europäischen[br]Datenschutzausschuss darauf, dass von den 0:22:30.040,0:22:33.930 vor allem federführenden Behörden in[br]Irland und Luxemburg diese Entscheidungen 0:22:33.930,0:22:37.360 jetzt vorgelegt werden. Sie werden[br]übrigens nachher mit Mehrheit im 0:22:37.360,0:22:40.820 Europäischen Datenschutzausschuss[br]beschlossen. Also man kann sich nicht 0:22:40.820,0:22:45.100 hinter einer nationalen Behörde[br]verstecken, weil nach wie vor unter den 0:22:45.100,0:22:51.780 Standardeinstellungen der großen Anbieter[br]– sei es die aus den USA, aber auch die 0:22:51.780,0:22:55.490 zunehmend in den Markt dringenden, vor[br]allem auch aus China und aus Russland; 0:22:55.490,0:23:01.640 andere werden kommen –, dass schon unter den[br]Standardeinstellungen weiterhin ungehemmt 0:23:01.640,0:23:07.120 persönliche Daten abgegriffen werden. Man[br]ist formal datenschutzkonform, aber 0:23:07.120,0:23:12.730 sammelt diese Daten ein und es bräuchte in[br]der Tat technische Kenntnisse, die hier im 0:23:12.730,0:23:16.970 Saal vorhanden sein werden, aber nicht im[br]ganzen Land vorhanden sind, nie vorhanden 0:23:16.970,0:23:21.430 sein werden und nicht auch nicht vorhanden[br]sein müssen, weil man auch durchs Leben 0:23:21.430,0:23:27.340 gehen muss, ohne Expertin oder Experte zu[br]sein. Wenn man diese Kerneinstellungen 0:23:27.340,0:23:32.360 nicht kennt, verliert man bei diesen[br]Anwendungen, bei diesen Systemen Daten. 0:23:32.360,0:23:40.080 Und selbst die, die versuchen, diese Daten-[br]Sammler zu meiden, gehen dort auf den 0:23:40.080,0:23:47.220 Leim, verlieren dort ihre Daten, wenn über[br]Tracking Tools, über Plug-Ins und Source 0:23:47.220,0:23:53.530 Code Development Kits diese Daten auch bei[br]Dritten gesammelt werden. Und auch in 0:23:53.530,0:23:57.340 diesen Fragen ist bisher leider außer[br]einem Versuch des Bundeskartellamts, das 0:23:57.340,0:24:02.330 nicht an die gleichen Regeln gebunden ist[br]wie ich als Bundesdatenschutzbeauftragter, 0:24:02.330,0:24:08.920 kein Versuch unternommen worden, das zu[br]stoppen. Ich habe bis heute die 0:24:08.920,0:24:13.230 Entscheidung des Düsseldorfer Gerichts –[br]soviel darf ich ja, wo ich jetzt kein 0:24:13.230,0:24:17.750 Staatssekretär im Justizministerium bin,[br]ja mal sagen – nicht nachvollziehen können. 0:24:17.750,0:24:21.150 Ich glaube, da war etwas zu wenig[br]Berücksichtigung von 0:24:21.150,0:24:25.670 Datenschutzgrundverordnung und verändertem[br]Wettbewerbsrecht seit 2016 in der 0:24:25.670,0:24:30.530 Betrachtung enthalten. Also wir brauchen[br]die Durchsetzung des bestehenden Rechts. 0:24:30.530,0:24:34.120 Wir brauchen Zertifizierung und[br]Labeling, damit man bestimmte Produkte 0:24:34.120,0:24:37.990 nehmen kann, sicher weiß, das Produkt für[br]sich hält die Regeln ein. Jetzt kann ich 0:24:37.990,0:24:42.350 darauf meine nächste Dienstleistung[br]optimieren. Und natürlich brauchen wir 0:24:42.350,0:24:46.280 auch Digital Literacy in der Bevölkerung[br]bis zu einem bestimmten Grad. Ich muss 0:24:46.280,0:24:50.320 wenigstens ungefähr verstehen, auf was ich[br]mich in einer digitalen Gesellschaft 0:24:50.320,0:24:54.171 einlasse. Ich persönlich würde mir[br]wünschen, dass wir die Möglichkeiten des 0:24:54.171,0:25:01.040 Schutz der Privatsphäre durch Technik[br]stärker ausarbeiten, also PIMs und PMTs fände 0:25:01.040,0:25:05.559 ich wichtig, in einer Form einzuführen,[br]auf die man sich verlassen kann. Eins 0:25:05.559,0:25:10.731 gilt: wenn große Konzerne Standards, die[br]mal eingeführt wurden, um sich zu schützen 0:25:10.731,0:25:15.310 wie den Do-not-Track-Standard, einfach[br]ignorieren, dann ist das nichts anderes 0:25:15.310,0:25:20.170 als ein Betteln um staatliche Regulierung.[br]Wer sich nicht an Standards hält, der 0:25:20.170,0:25:26.190 möchte Regulierung vom Staat bekommen. Und[br]aus meiner Sicht sollten sie die mit der 0:25:26.190,0:25:34.340 E-Privacy Verordnung auch bekommen.[br]Applaus — Normalerweise müsste ich als 0:25:34.340,0:25:40.680 Leiter einer Datenschutzbehörde aufschreien[br]bei Ideen wie Interoperabilität, weil 0:25:40.680,0:25:46.520 Interoperabilität Datenaustausch auch[br]bedeutet. Aber ich sehe heute einen Markt, 0:25:46.520,0:25:51.260 der sich oligopolisert. Und wenn ich die[br]Markteintrittsbarrieren für neue 0:25:51.260,0:25:54.930 Anbieterinnen/Anbieter senken will, dann[br]muss ich eine datenschutzfreundliche 0:25:54.930,0:25:59.520 Interoperabilität für die Anwendungen, die[br]so wichtig geworden sind auf dem Markt, 0:25:59.520,0:26:04.210 dass sie andere Dienste ersetzen, in denen[br]die Interoperabilität seit Jahren und 0:26:04.210,0:26:09.240 Jahrzehnten gilt, auch vorschreiben. Ich[br]meine zum Beispiel im Bereich von Social 0:26:09.240,0:26:17.591 Media und von Messenger Systemen. Dort[br]könnte man mit solchen Schritten durchaus 0:26:17.591,0:26:21.890 auch europäische Alternativen, am besten[br]natürlich auf Open-Source Basis 0:26:21.890,0:26:25.930 vorstellen. Ich würde mich freuen, wenn es[br]die deutsche Verwaltung der französischen 0:26:25.930,0:26:30.220 nachtun würde, vielleicht sogar mit den[br]Franzosen gemeinsam ein System entwickeln, 0:26:30.220,0:26:33.470 das dann schon mal 10 Millionen[br]Grundnutzerinnen und Grundnutzer in 0:26:33.470,0:26:37.650 Zentraleuropa hätte. Das wäre ein Anfang,[br]mit dem man mit ganz anderer Schlagkraft 0:26:37.650,0:26:42.650 eine solche Open-Source Messenger[br]Plattform in Europa etablieren könnte. 0:26:42.650,0:26:50.130 Applaus — Wir wollen für alle Formen von[br]Datenverwertung die gleichen Regeln haben. 0:26:50.130,0:26:54.600 Das gilt auch für die Sicherheitsbehörden,[br]die ja, wenn es Bundessicherheitsbehörden 0:26:54.600,0:27:02.060 sind, auch meiner Aufsicht unterliegen.[br]Seit 2001, seit dem 11. September, sind in 0:27:02.060,0:27:05.070 einer Geschwindigkeit neue[br]Sicherheitsgesetze in Deutschland 0:27:05.070,0:27:11.070 dazugekommen, die es schwierig machen,[br]noch nachzuvollziehen, was tatsächlich der 0:27:11.070,0:27:15.341 Stand des Datensammelns ist. Es hat nie[br]eine Evaluierung der Gesetze gegeben, ob 0:27:15.341,0:27:20.760 sie erfolgreich waren oder nicht. Wir[br]erleben dass teilweise neue Datenschutz- 0:27:20.760,0:27:24.140 Befugnisse gar nicht in der Breite[br]verwendet werden. Die Daten werden 0:27:24.140,0:27:28.420 gesammelt, aber nicht ausgewertet, weil[br]natürlich längst das Personal fehlt. Wir 0:27:28.420,0:27:33.790 haben problematische Datensammlungen, die[br]selbst von den Praktikerinnen und Praktikern 0:27:33.790,0:27:39.440 in den Sicherheitsbehörden als überflüssig[br]eingestuft werden. Gleichzeitig gibt es 0:27:39.440,0:27:44.460 aber natürlich auch immer wieder unbefugte[br]Zugriffe auf solche Daten. Wenn Sie den 0:27:44.460,0:27:48.260 Tagen zum Beispiel nochmal von der[br]Berliner Polizei das gelesen haben, wo die 0:27:48.260,0:27:53.710 Löschmoratorien dazu führen, dass seit[br]2013 keine Daten mehr aus den 0:27:53.710,0:27:57.630 polizeilichen Informationssystem genommen[br]werden, selbst wenn sie nur Opfer oder 0:27:57.630,0:28:03.790 Zeuge einer Straftat waren. Und die Daten[br]aber nicht etwa eine Zugriffsbefugnis zum 0:28:03.790,0:28:08.440 Beispiel für einen Untersuchungsausschuss[br]bekommen – Anis Amri oder NSU –, sondern 0:28:08.440,0:28:13.850 weiterhin für alle Polizistinnen und[br]Polizisten zugreifbar bleiben. Zu einem 0:28:13.850,0:28:17.760 Protokollierung stattfindet, man aber[br]nicht einmal begründen muss, warum man 0:28:17.760,0:28:21.600 darauf zugegriffen hat, und man sich dann[br]wundert, dass auf die Daten bestimmter 0:28:21.600,0:28:26.430 Prominenter besonders häufig zugegriffen[br]wird, auf die Daten von Kolleginnen und 0:28:26.430,0:28:32.540 Kollegen oder auch auf Nachbarn von[br]Menschen, die Zugriffsbefugnisse haben. 0:28:32.540,0:28:37.420 Und solange das der Stand ist, wäre das[br]natürlich nicht wichtig, Löschmoratorien 0:28:37.420,0:28:41.810 zu haben, sondern ein Sicherheitsgesetz-[br]Moratorium in diesem Land einzulegen und 0:28:41.810,0:28:46.410 erst mal zu prüfen: Wo sind wir eigentlich[br]übers Ziel hinausgeschossen? Wo gibt es 0:28:46.410,0:28:50.690 andere Mängel zu beseitigen, als laufend[br]Bürgerrechte einzuschränken? Mit der 0:28:50.690,0:28:53.990 Sammlung zusätzlicher Daten über die[br]Bürgerinnen und Bürgern. Das täte 0:28:53.990,0:29:05.290 Bürgerrechten und Sicherheit besser als[br]das nächste Gesetz. — Applaus —Stattdessen 0:29:05.290,0:29:09.081 sollten wir beim Datenschutz nachschärfen[br]Die Datenschutzgrundverordnung ist ein 0:29:09.081,0:29:12.840 großer Wurf, sie hat auch international[br]Strahlkraft, aber sie hat natürlich auch 0:29:12.840,0:29:17.480 ihre Grenzen, wo wir heute schon merken,[br]dass sie technologischen Entwicklungen 0:29:17.480,0:29:22.420 nicht ausreichend gefolgt ist, wo es[br]damals keinen Kompromiss gab und sie immer 0:29:22.420,0:29:26.530 noch auf dem Stand von 1995 ist. Wenn ich[br]jetzt fragen würde, wer 1995 noch gar 0:29:26.530,0:29:30.850 nicht geboren war, würden wahrscheinlich[br]einige Finger hochgehen. Sie können sich 0:29:30.850,0:29:35.420 aber überlegen, was das für ein Stein-[br]zeitalter aus technologischer Sicht ist. 0:29:35.420,0:29:39.340 Wir müssen es auch deswegen machen, weil[br]wir auch Vertrauen in Digitalisierung 0:29:39.340,0:29:44.240 gewinnen müssen. Ich glaube nämlich nicht,[br]dass Daten der Rohstoff des 21. 0:29:44.240,0:29:49.040 Jahrhunderts ist, sondern Vertrauen! In[br]einer so komplexen Welt, wo ich gar nicht 0:29:49.040,0:29:53.550 mehr weiß – Wo werden Daten erhoben, wer[br]verwendet sie und ähnliches mehr? – kann ich 0:29:53.550,0:29:57.210 nicht mir jedes einzelne Produkt, jede[br]einzelne Verbindung überprüfen, sondern 0:29:57.210,0:30:02.841 ich muss ein System haben, in dem ich der[br]Anbieterin oder Anbieter, sei es staatlich 0:30:02.841,0:30:06.827 oder privat, ein Grundvertrauen[br]entgegenbringen kann, weil sie bewiesen 0:30:06.827,0:30:11.100 haben, dass sie bestimmte Standards jedes[br]Mal einhalten, wenn sie hereingehen, weil 0:30:11.100,0:30:16.760 sie unabhängig überprüft werden können und[br]weil sie schwer bestraft werden, wenn sie 0:30:16.760,0:30:21.030 sich an diese Standards dann bei einem[br]Produkt nicht gehalten haben. Wenn wir 0:30:21.030,0:30:25.760 dies nicht machen, wenn wir das nicht[br]machen, hat es zwei Folgen. Es wird sich 0:30:25.760,0:30:31.840 gewehrt werden gegen Digitalisierung, da,[br]wo es möglich ist. Andere werden gar nicht 0:30:31.840,0:30:35.861 hineingehen. Wir wollen weder einen[br]Fatalismus nach dem Motto „Da kannst du 0:30:35.861,0:30:40.080 nichts machen, ich stimme allen zu“. Und[br]auch keine digitale Askese haben. Wir 0:30:40.080,0:30:43.679 möchten, dass Digitalisierung[br]gesellschaftliche Innovation und nicht nur 0:30:43.679,0:30:52.707 technologische Innovation ist. — Applaus[br]Deswegen sind wir unterwegs und möchten in 0:30:52.707,0:30:57.090 den Bereichen von Scoring und Profiling –[br]das sind ja die Schwestern des Trackings; 0:30:57.090,0:31:02.320 Ich versuche, Leute einzuordnen, zu[br]kategorisieren, statistisch in Gruppen 0:31:02.320,0:31:07.870 einzuteilen –; Da brauchen wir klare[br]Nachschärfungen. Und wir wollen natürlich 0:31:07.870,0:31:13.450 gerade den kleinen Unternehmern und den[br]Start-Ups und den Einzel-EntwicklerInnen 0:31:13.450,0:31:17.387 und -Entwicklern Erleichterungen im[br]Bereich der Informations- und 0:31:17.387,0:31:21.380 Dokumentationspflichten verschaffen. Da[br]glaube ich durchaus, kann man an einigen 0:31:21.380,0:31:25.770 Stellen zurückdrehen, wenn man dafür an[br]anderen Stellen das Datenschutzniveau 0:31:25.770,0:31:32.610 durchaus höher wertet. Wir versuchen zu[br]helfen, über Guidelines und Auslegungs- 0:31:32.610,0:31:38.020 Papiere, die wir heranziehen. Wir würden[br]aber gerne eins machen. Derzeit ist immer 0:31:38.020,0:31:42.810 Verantwortlicher im Sinne des[br]Datenschutzrechts die Person, die ein 0:31:42.810,0:31:48.390 System gegenüber Bürgerinnen und Bürgern,[br]Kundinnen und Kunden zum Einsatz bringt. 0:31:48.390,0:31:53.690 Ich glaube, dass wir die Herstellerinnen[br]und Hersteller von Systemen stärker in die 0:31:53.690,0:31:57.460 Verantwortung nehmen müssen und nicht nur[br]wegen Debatten, die Sie hier auf ihrem 0:31:57.460,0:32:01.799 Kongress selber in den letzten Tagen ja[br]geführt haben, und interessanten 0:32:01.799,0:32:06.990 investigativen Dokumenten, die Sie[br]veröffentlicht haben, sondern nur dann ist 0:32:06.990,0:32:10.630 das möglich. Ich habe hier nur kurz[br]gestanden und bin wieder auf die üblichen 0:32:10.630,0:32:16.320 Probleme angesprochen worden. Wie ist es[br]mit dem Einsatz von Windows 10 in meiner 0:32:16.320,0:32:20.549 Rechtsanwaltskanzlei, in meiner Behörde in[br]ähnlichem mehr? Und dann immer zu sagen, 0:32:20.549,0:32:23.660 „Ja derjenige der es einsetzt ist der[br]Verantwortliche im Sinne des 0:32:23.660,0:32:27.380 Datenschutzrechts“ ist, glaube ich bei[br]immer komplexer werdenden Systemen, bei 0:32:27.380,0:32:32.580 der Verabschiedung von der On-Premise-World[br]einfach zu kurz gesprungen und muss sich 0:32:32.580,0:32:36.440 technisch an der Stelle durchaus weiter[br]bewegen. Es gibt also eine ganze Menge zu 0:32:36.440,0:32:42.110 tun. Der Deutsche Bundestag hat uns[br]freundlicherweise eine deutliche 0:32:42.110,0:32:46.370 Aufstockung an Stellen gegeben. Vielen[br]Dank an die anwesenden 0:32:46.370,0:32:50.140 Bundestagsabgeordneten, damit wir ein[br]Stück noch mehr machen können. Sehr viel 0:32:50.140,0:32:54.800 werden wir in der Tat in den[br]Sicherheitsbereich investieren. Wir 0:32:54.800,0:32:59.980 stellen übrigens auch ein und deswegen an[br]alle, die im Saal sind: Wir brauchen Sie 0:32:59.980,0:33:04.730 als Unterstützerin und Unterstützer in der[br]Sache. Wir brauchen Sie als konstruktive 0:33:04.730,0:33:10.730 KritikerInnen und Kritiker. Wir brauchen[br]Sie als Beispielgeber und Beispielgeberinnen 0:33:10.730,0:33:16.840 für datenschutzfreundliche, innovative[br]Technologien. Und wir würden auch gerne 0:33:16.840,0:33:21.390 viele von Ihnen als Mitarbeiterinnen und[br]Mitarbeiter gewinnen. Es ist schön auf der 0:33:21.390,0:33:25.910 hellen Seite der Macht – kommen Sie zum[br]BfDI! Vielen Dank für das Interesse bis zu 0:33:25.910,0:33:28.650 dem Zeitpunkt. Ich freue mich[br]noch auf die Diskussion. 0:33:28.650,0:33:38.960 Applaus 0:33:38.960,0:33:51.580 Herald: So, wenn ihr Fragen habt, dann[br]stellt euch bitte an die Mikrofone hier im 0:33:51.580,0:33:56.260 Saal und versucht eure Fragen kurz zu[br]formulieren. Frage Nummer 1 geht an den 0:33:56.260,0:33:59.630 Signalangel.[br]Signalengel: Hier eine Frage von 0:33:59.630,0:34:04.760 Mastodon: Nach dir hält auch Arne[br]Semsrott von Frag den Staat seinen Talk. 0:34:04.760,0:34:09.850 Du bist ja auch[br]Informationsfreiheitbeauftragter. Hast du 0:34:09.850,0:34:14.540 eine Erklärung, warum Ministerien und[br]Behörden, die selber immer mehr Befugnisse 0:34:14.540,0:34:20.770 fordern, so unwillig sind, selber diese[br]öffentliche Daten auch preiszugeben? 0:34:20.770,0:34:28.070 Kelber : Nein. — Lachen, vereinzelt Applaus[br]Und selbst dann, wenn sie gute Beispiele 0:34:28.070,0:34:31.869 haben. Als wir damals im Justizministerium[br]2013 als neue Mannschaft angefangen 0:34:31.869,0:34:37.020 hatten, haben wir uns nach ein paar Wochen[br]entschieden, dass wir alle Stellungnahmen, 0:34:37.020,0:34:40.760 die im Rahmen zu Gesetzentwürfen ans[br]Ministerium geschickt werden – ist ja Teil 0:34:40.760,0:34:45.149 der Gesetzgebung, dass man dann sagt,[br]jetzt hätten wir gerne Kommentierungen von 0:34:45.149,0:34:50.780 Verbänden, Organisationen und anderen –[br]dass die alle öffentlich gemacht werden. 0:34:50.780,0:34:58.460 Es ist keine einzige weniger reingekommen,[br]aber jeder kann nachprüfen: Von wem sind 0:34:58.460,0:35:02.600 welche Anregungen zwischen Gesetzentwurf[br]und endgültigem Gesetz eingeflossen oder 0:35:02.600,0:35:06.300 nicht. Das ist das, was ich als[br]Vertrauensbildung meine. Es haben 0:35:06.300,0:35:10.120 teilweise einige übernommen, nachdem sie[br]vor Gericht dazu gezwungen wurden, haben 0:35:10.120,0:35:13.880 das wieder eingestellt. Jetzt machen Sie[br]es wieder. In der Tat kann 0:35:13.880,0:35:18.430 Informationsfreiheit für eine[br]Behördenleitung auch extrem ätzend sein. 0:35:18.430,0:35:22.290 Und zwar nicht, weil irgendwas[br]Unangenehmes nachher veröffentlich wird. 0:35:22.290,0:35:27.630 Dann muss man halt aufpassen, dass man[br]in den Kommentaren, die man auf 0:35:27.630,0:35:31.830 was drauf schreibt in der Wortwahl[br]gemäßigt bleibt. Also schreibe ich nicht 0:35:31.830,0:35:36.970 drauf. „Der Idiot“ oder so, sondern schreibe[br]ich „Ich bin nicht dieser Meinung“. Aber es 0:35:36.970,0:35:42.260 kann natürlich unglaublich viel Arbeit[br]sein. Ich ärgere mich auch; ich bekomm irgendeine 0:35:42.260,0:35:47.020 Beschwerde ins Haus. Nach zwei Wochen[br]stellt einer einen Informationsfreiheitsantrag 0:35:47.020,0:35:50.750 alle E-Mails, die zu der Beschwerde in[br]unserem Haus geflossen sind, zu sehen. 0:35:50.750,0:35:54.870 Dann schreiben wir ihm als Zwischengeschichte[br]auch noch zusätzlich zurück. Jetzt haben 0:35:54.870,0:35:58.140 wir die Stelle um Stellungnahme gebeten.[br]Dann kriegen wir sofort 0:35:58.140,0:36:02.020 Informationsfreiheitantrag, den gesamten[br]E-Mail-Verkehr mit der Stelle zu bekommen 0:36:02.020,0:36:05.869 und am Ende anstatt 10 Beschwerden[br]bearbeiten zu können, sind wir mit einer 0:36:05.869,0:36:10.370 Person beschäftigt. Das ärgert einen. Wir[br]sind natürlich die Guten. Da wir die 0:36:10.370,0:36:14.440 Informationsfreiheit haben, machen wir[br]natürlich gerne mit Freude. Aber wenn ich 0:36:14.440,0:36:18.420 zu ’ner Ministerin oder Minister gehe, die[br]kennen alle nur wieviele Leute werden 0:36:18.420,0:36:23.630 abgezogen, um auch seltsame[br]Informationsfreiheitsgeschichten zu 0:36:23.630,0:36:29.280 machen? Ich stoße dort auf wenige Fans. Zu[br]glauben, dass wir in absehbarer Zukunft 0:36:29.280,0:36:31.750 auf Bundesebene eine deutliche[br]Verbesserung des 0:36:31.750,0:36:35.050 Informationsfreiheitsgesetz sehen,[br]bezweifle ich. Da ist noch viel 0:36:35.050,0:36:39.230 Überzeugungsarbeit zu leisten.[br]Herald: Mikrofon Nr. 4. Deine Frage 0:36:39.230,0:36:42.360 bitte.[br]Frage: Herr Kelber, es ist Ihre Aufgabe, 0:36:42.360,0:36:46.260 die Geheimdienste und Sicherheitsbehörden[br]zu kontrollieren und den Datenschutz auch 0:36:46.260,0:36:50.710 dort. Sind Sie der Meinung, dass Sie das[br]effektiv tun können und ausreichend 0:36:50.710,0:36:54.180 Fähigkeiten und Befugnisse haben?[br]Und wenn nein, was fehlt? 0:36:54.180,0:37:00.730 Kelber: Die Kontrolle im Bereich der[br]Erhebung und Verarbeitung von Daten in dem 0:37:00.730,0:37:05.340 gesamten restlichen Bereich? Ich glaube,[br]mit den zusätzlichen Stellen, wenn wir sie 0:37:05.340,0:37:09.740 besetzt haben, haben wir durchaus erst[br]einmal Ressourcen, um auch die 0:37:09.740,0:37:15.122 Kontrolldichte hochzuhalten. Wir werden[br]selber arbeiten müssen bei der Überlegung, 0:37:15.122,0:37:19.130 wie technologische Veränderungen und auch[br]Veränderungen in den Informationssystemen 0:37:19.130,0:37:23.741 der Dienste unsere Kontrolltätigkeit[br]gegenüber früher verändern. Aber das ist 0:37:23.741,0:37:28.740 natürlich ganz was anderes. Ist Zugriff auf[br]eine sequentielle Datenbank mit einem 0:37:28.740,0:37:35.080 Gothemsystem vom Palantier, wenn es zum[br]Einsatz käme, was in der Kontrolle in dem 0:37:35.080,0:37:41.000 Unterschied ist, in der Zusammenarbeit der[br]Dienste untereinander mit dem Ausland, 0:37:41.000,0:37:45.960 gibt es aus meiner Sicht durchaus[br]Kontrolllücken. Da versuchen wir auch, mit 0:37:45.960,0:37:52.290 den anderen Aufsichtsgremien wie der[br]G-10-Kommission und der unabhängigen 0:37:52.290,0:37:58.530 Gruppe im Kontakt zu sein. Und ich hätte[br]gerne natürlich … also in der Joint Implementation 0:37:58.530,0:38:03.400 Richtlinie, die ich vorhin erwähnt hatte,[br]ja, für den Staatsbereich gilt. Die ist ja 0:38:03.400,0:38:07.120 in Deutschland auch nach 3 Jahren noch[br]nicht vollständig umgesetzt. Im Bereich 0:38:07.120,0:38:11.690 des BKA haben wir Untersagungsrechte.[br]Die müssten wir im 0:38:11.690,0:38:15.410 Bereich der Bundespolizei auch haben. Die[br]hat man noch nicht eingerichtet als 0:38:15.410,0:38:20.470 Gesetzgeber. Das ist ein Verstoß gegen[br]Europarecht in Deutschland. Wo es nicht 0:38:20.470,0:38:23.780 vorgeschrieben wird durch Europarecht,[br]aber sinnvoll wäre, wäre diese 0:38:23.780,0:38:27.490 Untersagungsrechte auch für die Dienste zu[br]haben. Das würde dann nicht nach dem 0:38:27.490,0:38:31.360 Motto, Ich sage dann „aber die waren jetzt[br]ganz gemein, haben sich nicht ans Recht 0:38:31.360,0:38:35.170 gehalten“, sondern ich könnte dann in[br]einem besonderen Fall in Zukunft 0:38:35.170,0:38:39.960 untersagen die Nutzung von Daten oder die[br]Löschung anweisen. Und der Dienst müsste 0:38:39.960,0:38:46.340 vor Gericht gehen und müsste vor Gericht[br]meine Anweisung widerrufen lassen. Ich 0:38:46.340,0:38:50.200 glaube, das wäre der bessere Weg für die[br]Aufsicht und würde auch mehr Verständnis 0:38:50.200,0:38:54.600 für die Arbeit der Dienste wecken. Aber[br]auch dafür gibt es noch keine Mehrheit 0:38:54.600,0:38:59.290 beim Gesetzgeber.[br]Herald: Mikrofon Nr. 2. Deine Frage 0:38:59.290,0:39:02.900 bitte.[br]Frage: Sie haben gesagt, dass wir ein 0:39:02.900,0:39:07.290 gewisses Maß an Digital Literacy brauchen,[br]um der Probleme Herr werden zu können. Ich 0:39:07.290,0:39:10.670 sehe gerade das Problem, dass wir[br]politisch eher in die entgegengesetzte 0:39:10.670,0:39:15.280 Richtung steuern, primär weil kommunal[br]z. B. Meldedaten verkauft werden und die 0:39:15.280,0:39:18.820 Bundesregierung auch eher rhetorisch[br]so eine … ökonomisch orientierte Linie 0:39:18.820,0:39:24.910 fährt. Wie werden wir dieser Sache Herr?[br]Kelber: Ich meinte ja mit dem Begriff 0:39:24.910,0:39:31.050 Digital Literacy, dass die Leute ein[br]Grundverständnis für digitale Vorgänge 0:39:31.050,0:39:35.570 haben. Was passiert? Was passiert mit[br]Daten? Wie funktionieren IT-Systeme? 0:39:35.570,0:39:39.720 Algorithmische Systeme? Das wird[br]übrigens—der Teil ist sicherlich auch 0:39:39.720,0:39:44.470 eine Aufgabe von Schulen und[br]Bildungsinstitutionen. Da aber 80 Prozent 0:39:44.470,0:39:49.119 der Bevölkerung die Schulzeit hinter sich[br]haben und mehr, werden wir sie auch über 0:39:49.119,0:39:54.970 andere Wege erreichen müssen. Dazu gehören[br]übrigens auch in den Informationspflichten 0:39:54.970,0:39:58.590 in der Datenverarbeitung nicht mehr „Ich[br]mache eine super lange Information“, 0:39:58.590,0:40:03.650 sondern ich muss an einer Stelle, wo etwas[br]passiert, eine leichte Erläuterung des 0:40:03.650,0:40:07.490 Vorgangs haben, damit die Menschen[br]tatsächlich mit dem Vorgang, den sie 0:40:07.490,0:40:11.799 machen, ein Verständnis entwickeln können.[br]Was Sie meinen, ist ja die Frage, wie ist 0:40:11.799,0:40:15.761 eigentlich die Souveränität? Wie kann ich[br]wenigstens wissen, was passiert? Was darf 0:40:15.761,0:40:20.970 der Staat machen? Schaffen die gesetzliche[br]Grundlage für die Weitergabe von Daten 0:40:20.970,0:40:24.420 einfach nur, weil sie davon ausgehen, dass[br]sie nicht genügend freiwillige 0:40:24.420,0:40:28.460 Einverständnisses bekommen. Da muss sich[br]der Gesetzgeber zurückhalten. Er sollte bei 0:40:28.460,0:40:32.832 den gesetzlichen Grundlagen trotzdem ’ne[br]Verhältnismäßigkeit bewahren. Ist übrigens 0:40:32.832,0:40:36.660 auch etwas, was wir natürlich in unseren[br]Stellungnahmen immer mitprüfen und was 0:40:36.660,0:40:41.510 auch vor Gericht angegriffen wird von[br]Nichtregierungsorganisationen. Das zweite 0:40:41.510,0:40:45.270 ist, das war das, was ich vorhin meinte[br]technische Maßnahmen, die den Bürger auf 0:40:45.270,0:40:48.230 einen höheren Stand nehmen.[br]Wenn wir jetzt wirklich mal an eine 0:40:48.230,0:40:51.870 Registermodernisierung in Deutschland[br]herantreten, bitte bitte nicht – weil es 0:40:51.870,0:40:56.150 aus meiner Sicht verfassungswidrig ist –[br]mit einem einheitlichen Identifier. Kann man 0:40:56.150,0:41:00.190 auch anders machen. Aber dann wäre[br]wirklich mal ein Datencockpit, wo 0:41:00.190,0:41:04.140 Bürgerinnen und Bürger sehen, zumindest[br]mal vielleicht außerhalb der unmittelbaren 0:41:04.140,0:41:08.190 Sicherheitsdienste schon mal sehen können:[br]Wer hat welche Daten, wer hat sie 0:41:08.190,0:41:12.990 abgerufen und mit wem geteilt? Von allen[br]staatlichen Registerstellen. Das kann man 0:41:12.990,0:41:18.690 heute technisch herstellen, und das wäre[br]dann auch ein Gebot, dass der Bürgerinnen 0:41:18.690,0:41:22.640 und Bürger etwas davon haben, wenn der[br]Staat seine IT-Systeme modernisiert. 0:41:22.640,0:41:29.360 Applaus[br]Herald: Mikrofon Nummer 8 Deine Frage 0:41:29.360,0:41:31.641 bitte.[br]Frage: Sie haben ja vorhin gesagt, dass 0:41:31.641,0:41:37.510 ein möglicher Weg zu sichereren oder[br]datenschutzfreundlicheren IT-Produkten 0:41:37.510,0:41:44.619 die Standardisierung und Zertifizierung[br]sein könnte. Was konkret ist denn da schon 0:41:44.619,0:41:50.390 in der Entwicklung? Auf was können wir uns[br]einrichten? Es gibt ja die ISO 27001, 0:41:50.390,0:41:55.600 aber da ist der Datenschutz eher ein[br]optionales Randthema. Und, genau, 0:41:55.600,0:41:58.880 was kommt jetzt konkret?[br]Kelber: Bei der Standardisierung sind wir 0:41:58.880,0:42:03.320 glaube ich noch nicht sehr weit. Aber wir[br]werden für die Entwicklungsmodelle gerade 0:42:03.320,0:42:07.710 im Bereich algorithmischer Systeme und KI-[br]Systeme, denke ich, nochmal für erweiterte 0:42:07.710,0:42:11.440 Standardisierung brauchen, mit der ich[br]wenigstens Modelle habe, wie ich in der 0:42:11.440,0:42:14.700 Entwicklung bestimmte Dinge[br]berücksichtige. Wann mache ich welche 0:42:14.700,0:42:18.580 Folgenabschätzungen? Wie steht die[br]Zurverfügungstellung von Daten aus? Wie 0:42:18.580,0:42:23.380 sieht die Kontrolle von Datenqualität aus,[br]und und und. Bei der Zertifizierung sind 0:42:23.380,0:42:27.700 wir ein Stückchen weiter. Ich spreche jetzt[br]bewusst nicht von Siegeln wie in dieser 0:42:27.700,0:42:31.530 Debatte über das IT-Siegel, das ja dann[br]logischerweise, wenn es ein Siegel sein 0:42:31.530,0:42:38.040 soll, auch weit über gesetzliche Vorgaben[br]hinausgehen müsste, sondern dass wir 0:42:38.040,0:42:42.790 ermöglichen, dass man, wenn man ein[br]Produkt hat, sich durch eine 0:42:42.790,0:42:47.340 Zertifizierungsstelle, die beliehen ist,[br]zertifizieren lassen kann, dass man damit 0:42:47.340,0:42:51.690 die Anforderungen des Gesetzes eingehalten[br]hat. Das heißt, der nächste, der es 0:42:51.690,0:42:55.869 einsetzt, bekommt das Siegel. Wenn ich das[br]wie vorgeschrieben einsetze, dann ist 0:42:55.869,0:43:00.620 dieser Bestandteil DSGVO-konform, und[br]ich muss mir bei dem, was ich add-on mache, 0:43:00.620,0:43:04.790 bin ich dann der Verantwortliche. Da sind[br]wir jetzt so weit, dass der Europäische 0:43:04.790,0:43:09.110 Datenschutzausschuss seine Guideline[br]verabschiedet hat. Danach haben Sie 0:43:09.110,0:43:12.790 erlaubt, dass die Nationalstaaten ihre[br]einbringen. Das haben wir im nächsten 0:43:12.790,0:43:16.245 Monat gemacht. Ich hoffe, dass wir[br]spätestens im Februar die Genehmigung 0:43:16.245,0:43:19.180 durch den europäischen[br]Datenschutzausschuss für die deutsche 0:43:19.180,0:43:23.820 Variante bekommen. Dann dürften in diesem[br]Jahr noch die ersten Akkreditierungen, 0:43:23.820,0:43:28.540 ersten Zertifizierer, durch die deutsche[br]Akkreditierungsstelle zugelassen werden. 0:43:28.540,0:43:35.170 Ich erwarte, dass zum Beispiel im[br]Bereich der Cloud-Dienste ein solcher 0:43:35.170,0:43:39.810 Zertifizierer an den Start geht.[br]Herald: Mikrofon Nummer 1, 0:43:39.810,0:43:43.360 deine Frage bitte.[br]Frage: Vielen Dank für den Vortrag, auch 0:43:43.360,0:43:47.709 dass Sie hier auf dem Kongress sind. Ja,[br]ich bin seit einiger Zeit verantwortlich 0:43:47.709,0:43:50.310 in IT-Management-Positionen …[br]Herald: Bitte die Frage! 0:43:50.310,0:43:54.420 Frage: … und auch da[br]implementierte ich natürlich sehr viele 0:43:54.420,0:43:58.580 Datenschutzmaßnahmen. Sie haben es kurz[br]angesprochen. Mich würde interessieren, 0:43:58.580,0:44:03.070 wann wir auch mal Ergebnisse sehen im[br]Bereich der großen Internetkonzerne – 0:44:03.070,0:44:07.530 Google, Facebook, Amazon und so weiter,[br]ob dann auch mal vielleicht Bußgelder etc. 0:44:07.530,0:44:12.370 auch an diese großen[br]Unternehmen zugeteilt werden. 0:44:12.370,0:44:17.200 Kelber: Der Druck natürlich auf die Ba…[br]Ich habe ja vor allem zwei nationale 0:44:17.200,0:44:22.950 Datenschutzbehörden genannt, die die[br]Zuständigkeit haben für besonders viele 0:44:22.950,0:44:28.210 der großen Internetkonzerne. Ganz kurzer[br]Exkurs europäisches Datenschutzrecht, 0:44:28.210,0:44:32.560 sogenannter One-Stop-Shop. Die nationale[br]Behörde, in der der Hauptsitz innerhalb 0:44:32.560,0:44:37.630 der Europäischen Union ist, ist zuständig.[br]Das heißt, bei den Großen wie Google und 0:44:37.630,0:44:45.000 Facebook und Microsoft und Apple ist das[br]z. B. Irland. Bei Amazon ist es Luxemburg 0:44:45.000,0:44:50.830 als ein Beispiel. Und das sind[br]natürlich erstens relativ kleine 0:44:50.830,0:44:56.740 Datenschutzbehörden. Sie haben einen[br]besonders wirtschaftsfreundliches 0:44:56.740,0:45:01.260 Verwaltungsrecht,—vereinzelt Applaus—[br]… Ja, es sind besonders hohe 0:45:01.260,0:45:05.650 Vorgaben dran, was man alles tun muss,[br]bevor man überhaupt einen Bescheid 0:45:05.650,0:45:10.500 herausgeben darf. Wenn meine irische[br]Kollegin so über Fälle sprechen würde, wie 0:45:10.500,0:45:14.220 ich das in Deutschland mache, würde sie[br]sofort vor Gericht scheitern. Weil dann 0:45:14.220,0:45:17.270 würde der Richter sagen „Sie waren[br]voreingenommen in der gesamten 0:45:17.270,0:45:21.139 Betrachtung“, völlig egal, ob sie selber[br]die Untersuchung gemacht hat oder jemand 0:45:21.139,0:45:25.720 anderes. Trotzdem haben wir gesagt, es[br]sind jetzt über 600 Tage, und wir wollen 0:45:25.720,0:45:29.290 zu sehr offensichtlichen Datenschutz-[br]Verstößen jetzt den Vorschlag der Iren 0:45:29.290,0:45:33.140 und der Luxemburger auf den Tisch kriegen.[br]Und dann schauen wir anderen uns an, ob 0:45:33.140,0:45:36.950 wir der gleichen Meinung sind. Und wenn[br]wir nicht der gleichen Meinung sind, dann 0:45:36.950,0:45:40.460 wird mit Mehrheit im Europäischen[br]Datenschutzausschuss darüber abgestimmt, 0:45:40.460,0:45:45.470 wie die Sicht der europäischen[br]Datenschutzbehörden sind. Und das ist dann 0:45:45.470,0:45:51.340 der erlassene Bescheid. Das heißt, die[br]Gefahr, dass wie in Deutschland das 0:45:51.340,0:45:55.860 Kraftfahrzeugbundesamt einfach alleine[br]entscheidet, entsteht am Ende im 0:45:55.860,0:45:59.240 Datenschutz nicht. Da können dann die[br]anderen Kraftfahrzeugsbehörden das 0:45:59.240,0:46:02.951 Kraftfahrzeugbundesamt bei Dieselgate[br]überstimmen. Das wäre doch schön, wenn es 0:46:02.951,0:46:06.870 da auch gegeben hätte. Aber es dauert[br]halt. Ich habe jetzt den Iren angeboten, dass 0:46:06.870,0:46:11.740 sie uns mal einen Fall abtreten dürfen.[br]Wir haben auch Fälle vorgeschlagen. Bisher 0:46:11.740,0:46:17.459 ist das noch nicht beantwortet worden. Der[br]irische Staat hat nur einen minimalen 0:46:17.459,0:46:20.980 Aufwuchs in diesem Jahr wiedergegeben[br]der Datenschutzbehörde. Die ist schon 0:46:20.980,0:46:24.420 gewachsen in den letzten Jahren nur ein[br]Viertel von dem, was die Kollegin 0:46:24.420,0:46:28.890 beantragt hatte. Und das ist ein Staat …[br]es ging um 5 Millionen Euro im Jahr. Der 0:46:28.890,0:46:33.140 gleiche Staat, der im Augenblick vor[br]Gerichten, versucht zu verhindern, dass 0:46:33.140,0:46:37.420 Apple ihm 14 Milliarden Euro Steuern bezahlen[br]muss. Da merken Sie, was der Gedanke 0:46:37.420,0:46:41.350 dahinter ist. Ich habe bewusst Dieselgate[br]verwendet, um deutlich zu machen: Das ist 0:46:41.350,0:46:44.690 ja auch den Nationalstaaten in der[br]Europäischen Union nicht fremd, sich 0:46:44.690,0:46:48.450 schützend vor einen Wirtschaftszweig zu[br]stellen. Aber das dürfen wir ihm einfach 0:46:48.450,0:46:52.360 nicht durchgehen lassen. Aber wann es[br]soweit ist, kann ich Ihnen noch nicht sagen. 0:46:52.360,0:46:56.840 Applaus[br]Herald: Signal-Angel, die nächste Frage 0:46:56.840,0:47:01.180 aus dem Internet bitte.[br]Frage: Woran scheitert es, dass 0:47:01.180,0:47:05.480 Datensparsamkeit so wenig Gehör in der[br]Politik stößt? Und wie können wir Hacker 0:47:05.480,0:47:10.020 dabei helfen, abseits davon[br]für Sie zu arbeiten? —vereinzelt Lachen 0:47:10.020,0:47:16.710 Kelber: Ich glaube, erst einmal hat es[br]eine erfolgreiche Lobbyarbeit darin 0:47:16.710,0:47:23.060 gegeben, Menschen an führenden Stellen[br]in der Politik zu verstehen zu geben, 0:47:23.060,0:47:28.820 Datensparsamkeit sei Datenarmut. Man müsse[br]wichtige Daten wegschmeißen. Damit würden 0:47:28.820,0:47:33.130 wir mit USA und China nie mehr[br]gleichziehen können. Dieser einfache 0:47:33.130,0:47:37.950 Dreisatz ist denen in die Köpfe implementiert[br]worden. Deswegen – habe ich tatsächlich auf 0:47:37.950,0:47:41.740 dem Digitalgipfel erlebt – wie einen Monat[br]bevor europäisches Recht ist, mit den 0:47:41.740,0:47:45.810 Stimmen Deutschlands beschlossen[br]wurde, endgültig wirksam wurde: 0:47:45.810,0:47:50.210 Datenschutzgrundverordnung, die[br]Bundeskanzlerin sich hinstellt und sagt: 0:47:50.210,0:47:54.160 „Wir müssen das Prinzip der[br]Datensparsamkeit aufgeben“. Das aber später 0:47:54.160,0:47:58.000 bindendes europäisches Recht wurde, vorher[br]bindendes deutsches Recht war. Das ist 0:47:58.000,0:48:04.411 schon etwas, was man selten erlebt an dem[br]Punkt. Da werden wir ein ganzes Stück für 0:48:04.411,0:48:09.820 werben müssen, dass das einfach nicht wahr[br]ist. Wenn wir aber auch einfache Narrative 0:48:09.820,0:48:14.599 gemeinsam entwickeln müssen, die ähnlich[br]aufzuführen. Ich finde ja so ein 0:48:14.599,0:48:18.840 Narrativ wie „dich gehen Daten nichts an,[br]die nichts mit einer Dienstleistung zu tun 0:48:18.840,0:48:23.190 haben“, ist so eine einfach, weil das ist[br]eine Werteentscheidung, die ich treffe. Und 0:48:23.190,0:48:27.089 solche Werteentscheidungen haben wir oft[br]getroffen. Klar wird es für Deutschland 0:48:27.089,0:48:30.340 wirtschaftlich attraktiver,[br]Kohlekraftwerke mit Kindern zu betreiben, 0:48:30.340,0:48:34.200 weil dann könnte man die Stollen kleiner[br]machen. Dann können wir gleich wieder mit 0:48:34.200,0:48:38.150 Preisen aus Kolumbien mithalten. Haben wir[br]uns aber aus Wertegründen entschieden, es 0:48:38.150,0:48:41.930 nicht zu tun. Dasselbe sollten wir auch[br]mit Daten machen, die unsere Grundrechte 0:48:41.930,0:48:48.650 beeinflussen.[br]Applaus 0:48:48.650,0:48:51.940 Herald: Mikrofon Nummer 4,[br]deine Frage bitte. 0:48:51.940,0:48:57.140 Frage: Herr Kelber, Sie haben ja selber[br]gesagt, dass Gesetze oftmals noch nicht 0:48:57.140,0:49:01.268 reichen. Mir persönlich geht es auch so,[br]dass ich das Gefühl habe, zum Beispiel die 0:49:01.268,0:49:05.110 Datenschutzgrundverordnung ist manchmal[br]ein bisschen zahnlos, und meine Frage an 0:49:05.110,0:49:08.891 Sie ist: Welche Handlungsalternativen[br]sehen Sie da? Wie sieht es aus z. B. mit 0:49:08.891,0:49:13.358 Bereitstellung von alternativer[br]Infrastruktur? Gerade zu Cloud, großen 0:49:13.358,0:49:17.080 Cloud-Anbietern zum Beispiel. Wie sieht es[br]aus mit Förderungen für Open-Source- 0:49:17.080,0:49:21.081 Software für Projekte, die z. B. auch[br]irgendwie grün unterwegs sind, 0:49:21.081,0:49:24.910 Daten schützen, wie auch immer. Was gibt’s[br]da für Möglichkeiten in der Politik? 0:49:24.910,0:49:29.320 Kelber: Ich glaube, man sollte nicht das[br]eine lassen und das andere unterschätzen 0:49:29.320,0:49:34.070 und das dritte dann nicht machen. Ich bin[br]für die Förderung vor allem dort, wo ich 0:49:34.070,0:49:39.379 glaube, mit der Förderung – das ist ja dann[br]mein Job – Verbesserungen für die Datenschutz- 0:49:39.379,0:49:43.610 Situation herbeizuführen. Das war das Beispiel[br]mit den Messengersystemen, weil die 0:49:43.610,0:49:46.950 natürlich welche sind, wo ganz[br]besonders viele relevante sensible Daten 0:49:46.950,0:49:52.860 abgegriffen werden. Da bin ich in eine[br]Monopolsituation reingekommen, die ich 0:49:52.860,0:49:56.720 nur noch mit Krafft aufbrechen kann.[br]Das eine wäre, diese Frage der 0:49:56.720,0:50:01.790 Interoperabilität zu erzwingen, wenn[br]allein ein Drittel der Sprachnachrichten 0:50:01.790,0:50:05.910 heutzutage über Messengersysteme, nicht[br]mehr über Handy oder Festnetz geht, da 0:50:05.910,0:50:09.590 müssen sie auch die gleichen Pflichten[br]erfüllen wie die anderen. Das ist z. B. 0:50:09.590,0:50:16.080 Interoperabilität. Ich glaube aber, und[br]deswegen werbe ich dafür. Und der Chef des 0:50:16.080,0:50:19.860 Bundesamtes für die Sicherheit in der[br]Informationstechnik hat ja ähnliches schon 0:50:19.860,0:50:23.360 mal verlautbaren lassen. Ich glaube[br]tatsächlich, wir sollten ein Messenger 0:50:23.360,0:50:27.280 System als deutsche Verwaltung – am besten[br]die gesamte, aber ansonsten muss der Bund 0:50:27.280,0:50:31.440 eben anfangen – anbieten für Bürgerinnen[br]und Bürger. Aber eins, das datenschutz- 0:50:31.440,0:50:35.740 freundlich ist. Und da, glaube ich, gehe[br]das tatsächlich nur auf der Open Source 0:50:35.740,0:50:40.970 Software Basis. Und wenn unser großer[br]Nachbarstaat es auf einer solchen Basis 0:50:40.970,0:50:45.440 macht – Matrix – sich dann anzuschauen,[br]sind das die gleichen Bedingungen, die die 0:50:45.440,0:50:49.720 Franzosen haben und dann noch mehr[br]Schlagkraft reinzubringen. Ich verstehe 0:50:49.720,0:50:54.550 das ja manchmal im privaten Umfeld nicht.[br]Dass Menschen, die 15 verschiedene 0:50:54.550,0:51:03.270 Leih-Fahrräder und -Elektroscooter-[br]Anwendungen auf ihrem Gerät haben, nicht 0:51:03.270,0:51:08.990 in der Lage sein wollen, einen zweiten[br]Messenger zu installieren, mit dem sie mir 0:51:08.990,0:51:13.300 ohne Daten abgreifen, mit mir[br]kommunizieren können, da ist irgendwie 0:51:13.300,0:51:20.700 eine Denkblockade. — Applaus[br]Herald: Mikrofon Nummer 2 bitte. 0:51:20.700,0:51:25.640 Frage: Wie sensibilisiert man den[br]durchschnittlichen nicht-IT-affinen Bürger 0:51:25.640,0:51:29.680 und Politiker für sein eigenes[br]Interesse an Datenschutz? 0:51:29.680,0:51:35.320 Kelber: Ansprechen! Die wollen auch[br]angesprochen werden. Den Bürgerinnen 0:51:35.320,0:51:38.891 und Bürgern muss man es wahrscheinlich …[br]Politikerinnen und Politiker wollen 0:51:38.891,0:51:43.390 angesprochen werden, auch die nicht-[br]Netzpolitiker, nicht die Digital- 0:51:43.390,0:51:48.590 Politikerinnen und -Politiker. Bei[br]Bürgerinnen und Bürgern wird man 0:51:48.590,0:51:52.640 vielleicht auch neben dem jährlichen[br]Skandal, nachdem es mal ein kurzes 0:51:52.640,0:51:57.500 Interesse gibt, das nicht immer sich im[br]Handeln ausprägt, wird man das auf eine 0:51:57.500,0:52:01.640 Art und Weise machen müssen, dass sie[br]Bilder erkennen, dass sie in einfachen 0:52:01.640,0:52:05.520 Systemen machen. Was meistens[br]funktioniert, wenn ich in Gruppen rede, 0:52:05.520,0:52:10.859 die keine Vorbildung haben, ist ihnen zu[br]verdeutlichen, was das, was im digitalen 0:52:10.859,0:52:15.440 Bereich gerade passiert, in ihrer[br]gewohnten analogen Welt bedeuten würde. 0:52:15.440,0:52:19.370 Wenn ich denen dann erzähle mit Tracking:[br]Stell dir mal vor, du gehst in die Bonner 0:52:19.370,0:52:23.369 Fußgängerzone und in dem Augenblick, wenn[br]du sie betrittst, beginnt einer, hinter dir 0:52:23.369,0:52:26.959 herzulaufen, der schreibt auf, an[br]welchen Geschäften du stehenbleibst, mit 0:52:26.959,0:52:31.040 wem du dich unterhälst. Der bietet dir[br]irgendwann Kaffee an. Kostenlos. Wenn ihr 0:52:31.040,0:52:35.130 nach dem Becher greift, sagt er aber „Ich[br]will erstmal gucken, wer waren denn die 0:52:35.130,0:52:38.960 letzten fünf Leute, die sie getroffen[br]haben.“ Wenn es verboten würde, 0:52:38.960,0:52:43.100 Briefumschläge zu verwenden, alles nur[br]noch auf Postkarten geschrieben werden 0:52:43.100,0:52:47.970 dürfte. Wenn Sie es so übertragen in die[br]Welt, die die kennen. Dann wird der ein 0:52:47.970,0:52:58.480 oder andere auch wach. — Applaus — Als ich[br]noch Parteipolitiker war, habe ich mir 0:52:58.480,0:53:03.170 immer mal vorgenommen, einen Kaffeestand beim[br]Tag der offenen Tür vorm Innenministerium 0:53:03.170,0:53:07.740 zu machen mit umsonst Kaffee. Aber den[br]kriegen die Leute dann tatsächlich nur, 0:53:07.740,0:53:11.830 wenn ich einmal kurz ihr Handy[br]durchgucken darf. — Lachen, Applaus 0:53:11.830,0:53:15.310 Aber das kann ich jetzt nicht mehr machen,[br]das traue ich mich nicht mehr. 0:53:15.310,0:53:19.190 Herald: Mikrofon Nummer 8 bitte![br]Frage: Vielen Dank noch einmal für den 0:53:19.190,0:53:24.170 Talk. Man sieht hier auf dem Kongress[br]selbst da, wo man denkt, man hat viel 0:53:24.170,0:53:28.710 Gutes an Sicherheit gemacht, gibt es immer[br]noch Schlupflöcher. In den meisten Fällen 0:53:28.710,0:53:34.170 hat man nicht so viel Gutes gemacht. Daher[br]von mir die kurze Frage: Wie ist bei Ihnen 0:53:34.170,0:53:40.869 das Verhältnis Datenminimierung zu dem[br]Thema Datensicherheit, sprich in Form von 0:53:40.869,0:53:46.690 Sicherheitsmaßnahmen zu sehen? Wo ist die[br]Minimierung wichtiger? Und wo ist die 0:53:46.690,0:53:50.070 Sicherheit akzeptabel?[br]Kelber: Ich glaube übrigens, dass man 0:53:50.070,0:53:54.950 erstmal durch Datensicherheit eine ganze[br]Reihe von Datenschutz-Sicherheitsproblemen 0:53:54.950,0:53:58.600 ausschließen kann, aber was sie ja[br]wahrscheinlich ansprechen ist, dass ich an 0:53:58.600,0:54:02.490 manchen Stellen eventuell Daten sammeln[br]muss, um z. B. Angriffsvektoren oder 0:54:02.490,0:54:05.020 ähnliches zu erkennen. War es das,[br]was Sie meinten? 0:54:05.020,0:54:12.061 Frage: Es ging darum, dass wir überall[br]sehen: Belgacom. Da greift sich einfach ein 0:54:12.061,0:54:15.191 fremder Geheimdienst die Daten und[br]ähnliches … 0:54:15.191,0:54:21.919 Kelber: Daten. Dann ist Datenminimierung[br]ein Teil eines Datensicherheitskonzeptes. 0:54:21.919,0:54:26.620 Übrigens auch das Verteilthalten von Daten und[br]ähnliches ist eine Frage, die ich erwartet 0:54:26.620,0:54:30.310 hatte. Wie ist das im digitalen[br]Gesundheitsschutz? Es gibt ja Daten, wo 0:54:30.310,0:54:34.070 es durchaus unethisch sein könnte, sie[br]nicht einzusetzen. Aber was sind denn die 0:54:34.070,0:54:37.220 Sicherheitsmaßnahmen? Wie kann ich[br]wenigstens das Sicherheitsniveau 0:54:37.220,0:54:40.890 erreichen, das ich vorher in der analogen[br]Welt hatte, wo es ja auch eine Menge 0:54:40.890,0:54:44.170 Verstöße gab? Wo krieg ich eine[br]Verbesserung hin? Wo sind die Daten so 0:54:44.170,0:54:47.850 sensibel, dass ich mit zusätzlichen[br]Methoden dafür sorgen muss. Von daher auch 0:54:47.850,0:54:51.810 vielen Dank an den Kongress für die[br]Aufdeckung der Sicherheitsprobleme bei den 0:54:51.810,0:54:59.240 Karten. Thema Sie können sich sicher[br]sein, — Applaus — Sie können sich sicher 0:54:59.240,0:55:03.450 sein, dass das auch Thema meiner[br]Referatsleitungsrunde am 6. Januar 0:55:03.450,0:55:11.539 sein wird. — Lachen, Applaus[br]Herald: Mikrofon Nummer 1, Bitte. 0:55:11.539,0:55:19.170 Frage: Herr Kelber, schön, dass Sie hier[br]sind. Sie haben sehr ambitionierte Ziele 0:55:19.170,0:55:26.500 zu schadhaften Algorithmen geäußert und[br]auch zu, dass wir Vertrauen schaffen 0:55:26.500,0:55:31.630 müssen. Dann haben Sie eben[br]gerade noch was erzählt von den 0:55:31.630,0:55:37.180 Zertifizierungenmöglichkeiten? Da weise ich[br]mal darauf hin, dass die Diesel-Motoren 0:55:37.180,0:55:45.520 unserer Auto-Hersteller auch alle zertifiziert[br]sind. Um mal an Auguste Kerckhoff zu 0:55:45.520,0:55:50.670 erinnern: Die Sicherheit eines Algorithmus[br]kann nicht in der Geheimhaltung des 0:55:50.670,0:55:54.510 Algorithmus liegen, sondern sollte[br]möglichst vielen Experten offenstehen. 0:55:54.510,0:56:02.780 Jetzt die Frage: Sehen Sie eine andere[br]Möglichkeit als Open Source um Ihre Ziele, 0:56:02.780,0:56:08.863 Algorithmen – schadhafte Algorithmen – zu[br]verhindern oder Vertrauen zu schaffen? Ist 0:56:08.863,0:56:12.220 das mit proprietärer Software[br]überhaupt machbar? 0:56:12.220,0:56:18.210 Kelber: Thema für einen eigenen Vortrag.[br]Ich glaube, es wird Bereiche geben, wo ich 0:56:18.210,0:56:23.920 Daten, nur indem ich sie überhaupt … indem[br]ich den Algorithmus öffentlich mache, überhaupt 0:56:23.920,0:56:28.880 nur Teil einer Kritikalitätsbetrachtung[br]sein kann. Schauen Sie sich das auch mal in 0:56:28.880,0:56:33.589 Zusammenfassung der Empfehlung der Daten[br]Ethikkommission mit der Pyramide zu 0:56:33.589,0:56:37.520 algorithmischen System an. Da ist die[br]zweitoberste Stufe eine mit der 0:56:37.520,0:56:41.700 völligen Offenlage. Für mich als[br]Aufsichtsbehörde gilt aber trotzdem, dass 0:56:41.700,0:56:45.859 wir an bestimmten Stellen[br]hineingucken wollen in Systemen. 0:56:45.859,0:56:49.009 Das ist mir natürlich auch klar,[br]dass sich die sehr schnell ändern. 0:56:49.009,0:56:51.560 also dass ich nicht einmal einen[br]Punkt habe, wo ich da bin. Dem „Nein“ 0:56:51.560,0:56:57.520 dort von Unternehmen oder[br]Behörden. Das akzeptieren wir nicht. 0:56:57.520,0:57:01.300 Also wir als Aufsichtsbehörde dürfen alles[br]sehen. Ansonsten bin ich auch bereit, 0:57:01.300,0:57:08.510 Zwangsmaßnahmen einzuleiten. Der Punkt[br]wird allerdings der sein, dass natürlich, 0:57:08.510,0:57:13.302 wenn nicht zertifiziert werden kann, dass[br]etwas, was eingesetzt ist, tatsächlich die 0:57:13.302,0:57:16.930 Punkte erreicht, die man zertifiziert,[br]dann darf auch kein Zertifikat erteilt 0:57:16.930,0:57:20.710 werden. Das war eine der Erfahrungen aus[br]dem Dieselgate. Deswegen habe ich in 0:57:20.710,0:57:24.068 meiner alten Verwendung ja noch[br]Koalitionsverhandlungen geführt, 2018, 0:57:24.068,0:57:28.059 nach den Bundes-Wink-Wochen gab es echte[br]Koalitionsverhandlungen. Und da steht ein 0:57:28.059,0:57:33.720 Satz drinnen: Es muss überhaupt mal etwas[br]geschaffen werden, wo öffentliche Behörden 0:57:33.720,0:57:37.589 die Kompetenz entwickeln können, in[br]algorithmische Systeme rein zu schauen. 0:57:37.589,0:57:41.210 Und das kann auch nicht sein, dass es[br]jeder einstellt. Weil ich kann nicht 20 0:57:41.210,0:57:45.070 Expertinnen / Experten einstellen, das BSI[br]40, das Kraftfahrzeugbundesamt 10, das 0:57:45.070,0:57:50.630 BaFin 10. Das wird nicht klappen. So viele[br]gibt es gar nicht auf dem Markt die das 0:57:50.630,0:57:54.240 können. Wir werden also eine Stelle[br]beauftragen. Kann ja auch an einem 0:57:54.240,0:57:58.450 Netzwerk mit Wissenschaft und[br]Zivilgesellschaft stehen, um die 0:57:58.450,0:58:02.310 Entwicklung von so etwas anzuschauen. Und[br]dann sind wir wieder etwas näher an dem, 0:58:02.310,0:58:06.370 was Sie gesagt haben.[br]Herald: Lieber Single-Angel, die nächste 0:58:06.370,0:58:10.200 Frage aus Internet.[br]Frage: Sollte man darauf achten, IFG- 0:58:10.200,0:58:15.109 Anfragen verantwortungsvoll zu stellen und[br]auf ein Minimum zu reduzieren, um die 0:58:15.109,0:58:22.560 Akzeptanz bei Ministerien zu erhöhen?[br]Kelber: Wie bei jedem Instrument sollte 0:58:22.560,0:58:26.320 man etwas nur dann machen, wenn man es[br]selber für richtig hält. Aber das ist der 0:58:26.320,0:58:30.440 erste Maßstab, natürlich. Aber das wird ja[br]allein nicht reichen. Ich habe natürlich 0:58:30.440,0:58:34.458 auch schon Informationsfreiheitsanfragen[br]gesehen, die man im Augenblick selber gesagt 0:58:34.458,0:58:38.510 hat „Die ist nicht sinnvoll.“ Nachher kam[br]etwas raus über den kleinen Umweg, wo man 0:58:38.510,0:58:42.279 gesagt hat „Es war gut, dass da einer[br]nachgefasst hat.“ Umgekehrt habe ich bei 0:58:42.279,0:58:47.390 Sicherheitsbehörden auch schon IFG-Anträge[br]gesehen, wo man nichts anderes versucht hat, 0:58:47.390,0:58:52.329 als den Ermittlungsstand der Sicherheits-[br]behörden gegen hochkriminelle Banden 0:58:52.329,0:58:57.910 herauszubekommen. Die Bandbreite ist so[br]groß, die Entscheidung treffen Sie selbst. 0:58:57.910,0:59:02.130 Das Gesetz sagt, was Sie dürfen, was Sie[br]nicht dürfen. Was beantwortet werden muss, 0:59:02.130,0:59:07.099 was nicht beantwortet werden muss. Und bei[br]allem, was das IFG angeht, sind wir noch 0:59:07.099,0:59:11.601 in der Ombudsmann-Funktion. Das heißt,[br]wenn eine Auskunft verweigert wird, können 0:59:11.601,0:59:15.510 Sie sich an uns wenden, und wir beurteilen[br]aus unserer Sicht noch einmal die 0:59:15.510,0:59:20.500 Situation.[br]Herald: Mikrofon Nr. 4, deine Frage? 0:59:20.500,0:59:26.540 Frage: Hallo, zunächst vielen Dank, dass[br]Sie hier sind. Vielen Dank für den Vortrag 0:59:26.540,0:59:31.100 und auch herzlichen Dank, dass Sie die[br]Problematik mit WiFi für die EU auf den 0:59:31.100,0:59:36.510 europäischen Datenschutztisch gebracht[br]haben. Zu meiner Frage: Sie hatten gerade 0:59:36.510,0:59:41.090 das Beispiel angesprochen mit der[br]Notwendigkeit von Datenschutz im 0:59:41.090,0:59:45.190 öffentlichen Raum, am Beispiel des Laufens[br]durch die Fußgängerzone in beispielsweise 0:59:45.190,0:59:52.810 Bonn. Sehen Sie dass momentan Arbeit im[br]Wettbewerbsrecht besteht, um entsprechend, 0:59:52.810,0:59:56.770 ich sage mal datensammelwütige[br]Geschäftsmodelle für Kommunen auch 0:59:56.770,1:00:00.720 handhabbar zu machen. Wir haben in Aachen[br]gerade das Problem, dass im Rahmen von der 1:00:00.720,1:00:06.829 Stadtmobiliarausschreibung man ich sage[br]mal die Wertschöpfung von Daten aus dem 1:00:06.829,1:00:12.020 öffentlichen Raum, in der Ausschreibung[br]nicht berücksichtigt hat, sodass die Stadt 1:00:12.020,1:00:17.890 jetzt in der Problematik ist, dass für eine[br]Stadtmobiliarausschreibung ein Anbieter, der 1:00:17.890,1:00:23.890 Daten abschnorchelt ein nach Wettbewerbsrecht[br]zu wählendes, weil günstigeres Angebot 1:00:23.890,1:00:29.550 vorgelegt hat, als ein Anbieter, der nicht[br]Daten abschnorchelt. Konkret geht es um 1:00:29.550,1:00:35.070 ICIM-Trekker an Bushaltestellen.[br]Kelber: Ist mir im Augenblick nichts 1:00:35.070,1:00:38.479 bekannt. Müsste ich tatsächlich[br]nachhaken, ob auf meiner Fachebene schon 1:00:38.479,1:00:42.340 Debatte gegeben hat? Vielen Dank für die[br]Anregung. Ist ja einer der Gründe, warum 1:00:42.340,1:00:46.170 ich hierher gekommen bin, Anregungen[br]mitzunehmen. Nein, kann ich Ihnen leider gar 1:00:46.170,1:00:49.770 nichts zu sagen. Ich weiß, dass im[br]Augenblick die nächste GWB Novelle dran 1:00:49.770,1:00:53.980 ist, aber was dort in den Entwürfen steht[br]und ob wir schon beteiligt wurden im 1:00:53.980,1:00:58.589 Vorfeld – manche Ministerien beteiligen uns[br]ja im Vorfeld – und dann geben wir unsere 1:00:58.589,1:01:03.090 Beratungen nicht öffentlich. Weiß ich[br]nicht, aber ist zumindest nicht von meinem 1:01:03.090,1:01:07.301 Fachebene für so relevant gehalten worden,[br]dass ich darüber informiert wurde. Also 1:01:07.301,1:01:11.570 wenn ist es nur auf kleiner Ebene.[br]Herald: Vielen Dank, Herr Kelber, für das 1:01:11.570,1:01:16.390 geduldige Beantworten aller Fragen. Vielen[br]Dank für Ihren Vortrag. Es können leider 1:01:16.390,1:01:18.250 nicht mehr alle Fragen drankommen. 1:01:18.250,1:01:26.210 Applaus 1:01:26.210,1:01:31.690 36c3 Abspannmusik 1:01:31.690,1:01:43.230 Untertitel erstellt von c3subtitles.de[br]im Jahr 2020. Mach mit und hilf uns!