WEBVTT 00:00:00.000 --> 00:00:19.189 36c3 Vorspannmusik 00:00:19.189 --> 00:00:22.980 Herald Engel: Unser nächster Vortrag hat den Titel „Weichenstellung“. In welcher 00:00:22.980 --> 00:00:29.679 digitalen Welt werden wir leben? Der Herr Kelber wird darin aufzeigen, welche Folgen 00:00:29.679 --> 00:00:33.509 die aktuellen politischen Entscheidungen oder deren Ausbleiben auf unsere Zukunft 00:00:33.509 --> 00:00:38.468 als Gesellschaft haben. Insbesondere bei den Themen digitale überwachung durch 00:00:38.468 --> 00:00:44.139 private und öffentliche Stellen. Ulrich Kelber ist seit Januar diesen Jahres der 00:00:44.139 --> 00:00:48.449 Bundesdatenschutzbeauftragte, ist studierter Diplominformatiker, hat 20 00:00:48.449 --> 00:00:54.670 Jahre im Bundestag als Bundestagsabgeordneter gearbeitet und war vorher Staatssekretär 00:00:54.670 --> 00:00:58.359 im Justizministerium. Bitte begrüßt ihn mit einem kräftigen Applaus. 00:00:58.359 --> 00:01:07.780 Applaus 00:01:07.780 --> 00:01:11.140 Ulrich Kelber: Ja, schönen guten Tag, auch von meiner Seite, hab mich sehr über die 00:01:11.140 --> 00:01:16.420 Einladung gefreut. Ich bin natürlich etwas beschämt, dass ich das erste Mal dabei bin, 00:01:16.420 --> 00:01:21.250 nämlich in den 20 Jahren, wo ich tatsächlich Abgeordneter war, hat meine 00:01:21.250 --> 00:01:25.530 Familie gestreikt: neben den Wochenenden, die immer dazugehören zur Arbeit, mir dann 00:01:25.530 --> 00:01:32.670 auch noch die Tage über Weihnachten für digitale Themen frei zu geben. Aber 00:01:32.670 --> 00:01:36.270 nachdem ich ja im Januar in den Job wechseln konnte, wo ich noch schön an 00:01:36.270 --> 00:01:41.479 einem Thema tief arbeiten kann, aber die Wochenenden jetzt freier zur Verfügung 00:01:41.479 --> 00:01:46.189 habe, durfte ich mir zumindest mal einen Tag dafür nehmen. Und ich hoffe, im 00:01:46.189 --> 00:01:49.409 nächsten Jahr vielleicht auch mal mit Übernachtung ein bisschen mehr 00:01:49.409 --> 00:01:59.990 reinschnuppern auch in das, was andere zu sagen und zu zeigen haben. — Applaus 00:01:59.990 --> 00:02:06.369 Ich habe in der Tat jetzt knapp ein Jahr in der neuen Funktion zubringen können, 00:02:06.369 --> 00:02:11.820 versuchen, das Thema in der Breite aufzunehmen, Schwerpunkte zu setzen, 00:02:11.820 --> 00:02:16.830 insbesondere bei den Aufgaben, die wir in den letzten Jahren auch hinzubekommen 00:02:16.830 --> 00:02:21.010 haben: die Durchsetzung der europäischen Datenschutzgrundverordnung, die 00:02:21.010 --> 00:02:25.100 Durchsetzung der ja erst noch in nationales Recht umzusetzenden Joint 00:02:25.100 --> 00:02:30.270 Implementation Richtlinie, die Regulierung von Scoring und Profiling, bereich- 00:02:30.270 --> 00:02:36.330 spezifische Gesetzgebung, die ja fast im Wochenrhythmus erfolgt, insbesondere im 00:02:36.330 --> 00:02:41.870 Sicherheitsbereich und natürlich jetzt auch drei Jahre oder dreieinhalb Jahre 00:02:41.870 --> 00:02:48.101 nach Inkrafttreten, anderthalb Jahre nach der vollen Wirksamkeit. Auch die 00:02:48.101 --> 00:02:52.819 Überlegungen zur Weiterentwicklung europäischen Datenschutzrechts. Und alles 00:02:52.819 --> 00:02:58.459 vor dem Hintergrund einer Entwicklung, wo im Augenblick Weichenstellungen in der 00:02:58.459 --> 00:03:04.489 Frage von Regulierung, Nichtregulierung, technische Entwicklung, Einführung von IT- 00:03:04.489 --> 00:03:09.129 Systemen gesetzt werden, die massive Auswirkungen auch auf unsere 00:03:09.129 --> 00:03:13.129 Gesellschaftsordnung haben. Mich interessieren die Debatten um digitale 00:03:13.129 --> 00:03:18.700 Überwachung, sei es durch private oder staatliche Stellen und insbesondere 00:03:18.700 --> 00:03:23.129 natürlich auch der regelrechte hysterische Wettlauf um immer neue 00:03:23.129 --> 00:03:30.240 Eingriffesbefugnisse von Sicherheitsbehörden. — Applaus — 00:03:30.240 --> 00:03:34.260 Ich bin überzeugt, dass wir schon die Weichenstellungen so vornehmen 00:03:34.260 --> 00:03:38.690 können, dass auch die digitale Gesellschaft eine freiheitliche, liberale 00:03:38.690 --> 00:03:45.909 und diverse Gesellschaft bleibt. Aber ausgemacht ist das noch keineswegs. Wir 00:03:45.909 --> 00:03:50.420 sehen immer wieder, dass die technischen und ökonomischen Aspekte dieser Debatte in 00:03:50.420 --> 00:03:54.540 den Vordergrund gestellt werden und dass es schwierig ist, durchzudringen mit 00:03:54.540 --> 00:03:59.139 gesellschaftspolitischen und datenschutzrechtlichen Fragestellungen. 00:03:59.139 --> 00:04:05.450 Und wenn es eine Debatte gibt über diese Weichenstellung in einer digitalpolitischen 00:04:05.450 --> 00:04:10.069 europäischen Debatte, dann werden eben vor allem diese technischen und okönomischen 00:04:10.069 --> 00:04:15.000 Aspekte herangezogen. Es wird verwiesen auf den Stand von ja durchaus 00:04:15.000 --> 00:04:20.740 durchaus weiterentwickelten Digital- Ökonomien in den USA und China, deren 00:04:20.740 --> 00:04:25.650 Vorsprung im Bereich von dem, was immer unscharf als „künstliche Intelligenz“ 00:04:25.650 --> 00:04:31.849 bezeichnet wird. Dass dieser Vorsprung uneinholbar geworden sei und wohlstands- 00:04:31.849 --> 00:04:36.240 gefährdend ist. Das wird durchaus als Druckmittel verwendet, um dann bei 00:04:36.240 --> 00:04:42.970 einzelnen Debatten festzulegen, in welcher Form darf es zu Datenverwertung mittels 00:04:42.970 --> 00:04:47.870 künstlicher Intelligenz, algorithmischer Systeme oder auch der Nutzung von 00:04:47.870 --> 00:04:52.750 Datenbanken an der Stelle kommen? Und wenn man etwas genauer hinschaut, dann ist es 00:04:52.750 --> 00:04:59.040 in der Tat natürlich so, dass in den USA und China in manchen Sektoren bereits eine 00:04:59.040 --> 00:05:03.889 andere Phase der technologischen Entwicklung eingetreten ist. Dort wird 00:05:03.889 --> 00:05:08.220 über deutlich höhere private und staatliche Mittel in dem Bereich 00:05:08.220 --> 00:05:16.650 investiert. Aber man merkt auch, dass beide Wirtschaftssysteme einen bestimmten 00:05:16.650 --> 00:05:21.680 Weg eingeschlagen haben für die Nutzung von IT-System. In China entsteht ein 00:05:21.680 --> 00:05:27.510 Überwachungssystem, das den Polizeistaat erst zur vollen Blüte bringen kann. Wer 00:05:27.510 --> 00:05:31.569 sich jetzt in den letzten Monaten ist das mal zum Thema geworden mit dem, was im 00:05:31.569 --> 00:05:35.759 Westen des Landes bei den Uiguren passiert. Aber ein System, wo das 00:05:35.759 --> 00:05:41.360 Verhalten aller Bürger digital überprüft wird, was manche ja – außerhalb dieser 00:05:41.360 --> 00:05:46.540 Halle natürlich – nicht verstehen, ist, wie analoges und digitales Leben heute so 00:05:46.540 --> 00:05:50.860 verschränkt sind, dass sie einander beeinflussen. Dass deswegen eben auch auf 00:05:50.860 --> 00:05:57.840 das Verhalten außerhalb der unmittelbaren digitalen Welt ein Verhaltensdruck 00:05:57.840 --> 00:06:03.850 ausgeübt wird. Wer sich im Sinne des Systems verhält, dem winken Prämien, 00:06:03.850 --> 00:06:10.430 Belohnungen, Vorteile. Wer das nicht tut, riskiert für sich und Angehörige 00:06:10.430 --> 00:06:18.039 Lebensmöglichkeiten vom Bildungssystem bis hin zur Mobilität. Und es ist spannend, 00:06:18.039 --> 00:06:24.360 wer diese Standards setzt. Es ist spannend, wie diese Standards sich ändern 00:06:24.360 --> 00:06:30.199 und vor allem, dass ein Gefühl entsteht, dass ich gar nicht mehr abschätzen kann: 00:06:30.199 --> 00:06:35.320 Wann werde ich eigentlich beobachtet, mein Verhalten interpretiert, gespeichert, 00:06:35.320 --> 00:06:42.150 bewertet von anderen. Und dies ist ein Gefühl, dass es keine Bereiche mehr der 00:06:42.150 --> 00:06:45.910 Möglichkeit gibt, sich ins Private zurückzuziehen, etwas zu tun, was 00:06:45.910 --> 00:06:52.039 vielleicht noch nicht von allen anderen so vorgelebt wurde, verändert auch das eigene 00:06:52.039 --> 00:06:55.850 Verhalten. Das ist eine Entwicklung, die sicherlich in Europa nur eine absolute 00:06:55.850 --> 00:07:00.900 Minderheit will, auch unter all denen, die politische Positionen haben oder in 00:07:00.900 --> 00:07:04.459 der Wirtschaft an entscheidenden Stellen kommt. Es gibt allerdings 00:07:04.459 --> 00:07:09.620 interessanterweise Studien, die unter jüngeren Menschen schon eine größere 00:07:09.620 --> 00:07:17.210 Zustimmung zu einem solchen System zum Ausdruck bringt, wo bestimmte 00:07:17.210 --> 00:07:22.530 Verhaltensweisen, die als durchaus … man fängt ja an, mit welchen, die tatsächlich 00:07:22.530 --> 00:07:26.306 vielleicht gesellschaftspolitisch von der großen Mehrheit nicht gewünscht sind, 00:07:26.306 --> 00:07:30.130 sanktionieren kann. Aber wie gesagt, die große Mehrheit will das nicht, und zwar 00:07:30.130 --> 00:07:34.490 weder vom Staat noch von privaten Konzernen. Also weder das chinesische Modell, noch 00:07:34.490 --> 00:07:40.240 das US-amerikanische Modell, die sich ja durchaus auch beide teilweise mit 00:07:40.240 --> 00:07:47.360 Aspekten des anderen – die USA im Sicherheitsbereich, die chinesische Seite 00:07:47.360 --> 00:07:51.940 mit dem Zusammenwirken zwischen Staat und privaten Konzernen – beginnt. Und auch wenn 00:07:51.940 --> 00:07:56.590 das keiner in Europa will, glaube ich, dass dieses Überwachungsgift durchaus in 00:07:56.590 --> 00:08:03.180 unser System träufelt von Tag zu Tag. Und zwar, dass man Überwachung durchführen 00:08:03.180 --> 00:08:07.582 will, weil man sie durchführen kann. Dass man Datensammlungen betreibt, wenn man 00:08:07.582 --> 00:08:12.569 diese Daten sammeln kann, weil Sensoren, Speicher und Verarbeitungsmöglichkeiten 00:08:12.569 --> 00:08:17.539 immer kleiner, schneller, besser und billiger werden. Und dass Dinge, die man 00:08:17.539 --> 00:08:22.229 vorher nicht gemacht hat, weil einfach der Aufwand zu groß war, jetzt praktisch im 00:08:22.229 --> 00:08:29.419 Vorbeigehen mitlaufen lässt. Und wo kann man dieses Gift schon spüren? Das spürt 00:08:29.419 --> 00:08:34.310 man, wenn die Geschäftsmodelle von Verlagen in den politischen Debatten 00:08:34.310 --> 00:08:39.770 Vorrang bekommen sollen vor der Unverletzlichkeit der Privatsphäre von 00:08:39.770 --> 00:08:44.920 Bürgerin und Bürger, wenn die Komfort gegen Daten getauscht wird, auch im 00:08:44.920 --> 00:08:51.440 Individualverhalten. Und wenn Sicherheit vor Freiheit gesetzt wird bei der Debatte: 00:08:51.440 --> 00:08:55.800 Was kann ich mit einem zusätzlichen Durchgriffsrecht, Eingriffsrecht von 00:08:55.800 --> 00:09:02.439 Sicherheitsbehörden erreichen? Dann erleben wir, dass die Bewertung von 00:09:02.439 --> 00:09:08.209 Verhalten und das Bewerten von Gesinnung, wenn sie in die Auswertung mancher Daten 00:09:08.209 --> 00:09:12.129 schauen und auch in die ein oder anderen Gesetzentwurf, wo jetzt auf einmal wieder 00:09:12.129 --> 00:09:17.840 aufgebracht wird, wer etwas unterstützt oder befürwortet, dass das ebenfalls 00:09:17.840 --> 00:09:22.949 Einfluss nimmt, damit Normmodelle setzt, die dann in der Verarbeitung von Daten 00:09:22.949 --> 00:09:28.100 überprüft werden durch Staat und durch private Stellen auch in der Europäischen 00:09:28.100 --> 00:09:33.670 Union. Und wie wir das ausgestalten, wie wir zum Beispiel über eine E-Privacy 00:09:33.670 --> 00:09:36.760 Verordnung in der Frage von Tracking sprechen, das ist eine dieser 00:09:36.760 --> 00:09:42.429 Weichenstellungen, die ich meinte mit dem Titel des Vortrags. Im Zentrum dieser 00:09:42.429 --> 00:09:46.159 Debatten steht tatsächlich das, was immer mit dem großen Schlagwort „Künstliche 00:09:46.159 --> 00:09:50.930 Intelligenz“ genommen wird. Sind genügend im Saal, mit denen man sich 2 Stunden darüber 00:09:50.930 --> 00:09:55.000 unterhalten könnte, was dieses Schlagwort wirklich meint und wo es nicht meint. Aber 00:09:55.000 --> 00:09:59.319 das lasse ich mal außen vor. Ich spreche über KI und algorithmische Systeme, mal 00:09:59.319 --> 00:10:06.940 als Bandbreite. Wir Datenschutzbeauftragten haben für uns erkannt, dass es unsere 00:10:06.940 --> 00:10:11.220 Arbeit verändert. Dass es aber eben auch eine große Auswirkung auf 00:10:11.220 --> 00:10:16.920 die Frage von Regulierung haben. Haben deswegen in diesem Jahr, im Frühjahr und 00:10:16.920 --> 00:10:21.850 dann ausgearbeitet noch bis in den Herbst bei der Tagung in Trier im Frühjahr die 00:10:21.850 --> 00:10:26.400 Hambacher Erklärung herausgegeben, auf Schloss Hambach. Wir haben dieses Symbol 00:10:26.400 --> 00:10:33.390 tatsächlich gewählt. Das Hambacher Freiheitsfest von 1832, wo die 00:10:33.390 --> 00:10:37.350 Grundrechte, die Bürgerrechte, auch in den Vordergrund gestellt wurden. Übrigens ein 00:10:37.350 --> 00:10:41.300 internationales Fest, weil es immer manche Deutschtümeler versuchen, für sich zu 00:10:41.300 --> 00:10:47.220 gewinnen. Es waren Franzosen und Polen und andere Delegierte dort. Und haben 00:10:47.220 --> 00:10:51.880 versucht, Grundprinzipien bei diesem Einsatz zu definieren. Menschen nicht zum 00:10:51.880 --> 00:10:55.809 bloßen Objekt einer solchen Datenverarbeitung zu machen, das 00:10:55.809 --> 00:11:00.920 Zweckbindungsgebot nicht fallen zu lassen. Nicht so einfach auch in der 00:11:00.920 --> 00:11:04.790 Entwicklung solcher Systeme. Die Transparenz, die Nachvollziehbarkeit und 00:11:04.790 --> 00:11:10.780 die Erklärbarkeit von KI-Systemen, die Verhinderung von Diskriminierung und den 00:11:10.780 --> 00:11:14.130 Grundsatz der Datenminimierung. Die letzten drei sind übrigens sehr 00:11:14.130 --> 00:11:18.659 interessant in der gesamten Debatte mit Techis, weil mir das selbst bei Leuten, die 00:11:18.659 --> 00:11:24.860 absolut liberal in ihren Grundsätzen sind, immer wieder auffällt, dass sie ablehnen 00:11:24.860 --> 00:11:31.010 diese Verantwortung in der Entwicklung von Systemen mit zu übernehmen. Uns wird dann 00:11:31.010 --> 00:11:34.829 entgegen geschleudert, das wäre ein Generalverdacht. Wir würden zusätzlichen 00:11:34.829 --> 00:11:39.370 Aufwand berücksichtigen. Aber ich glaube, wer solche Macht ausübt mit solchen 00:11:39.370 --> 00:11:43.870 Systemen in der Öffentlichkeit, der muss zumindest selber überlegen: Kann der 00:11:43.870 --> 00:11:49.321 Bereich, in dem ich gerade arbeite, Auswirkungen auf Menschen und Ihre Rechte 00:11:49.321 --> 00:11:52.760 haben? Und was muss ich dann berücksichtigen in der Entwicklung dieser 00:11:52.760 --> 00:11:56.890 Technologie? Wir haben natürlich auch über Verantwortlichkeit gesprochen. Jedes 00:11:56.890 --> 00:12:01.790 System muss auch jemand haben, den ich. Ansprechen kann auf Fehlverhalten, auf 00:12:01.790 --> 00:12:06.990 Diskriminierungspotenziale und ähnliches. Das kann nicht verwischen in einem 00:12:06.990 --> 00:12:18.900 komplexen Netzwerk unterschiedlicher Systeme. Und wenn man … — Applaus Und wenn 00:12:18.900 --> 00:12:23.110 man dann wirtschaftspolitisch an das Ganze herangeht, ist es regelrecht absurd, dass 00:12:23.110 --> 00:12:28.950 hier in Deutschland und in Europa, wo wir eigentlich Erfahrung mit Datenschutz und 00:12:28.950 --> 00:12:33.520 ich hoffe auch mit IT-Sicherheit haben, wo wir Gesetze haben, die uns dazu 00:12:33.520 --> 00:12:38.669 verpflichten, in diesem Bereich höhere Qualität anzubieten als in anderen 00:12:38.669 --> 00:12:42.990 Weltregionen. Dass in dieser Weltregion die Wirtschaftsverbände und die 00:12:42.990 --> 00:12:49.179 Unternehmen unterwegs sind, über diese Regulierungen jammern und in anderen 00:12:49.179 --> 00:12:53.510 Weltregionen mehr oder minder glaubhaft wie z. B. in den USA die ersten Unternehmen 00:12:53.510 --> 00:12:57.920 unterwegs sind und sagen: Wir wollen darüber werben für unsere Produkte, für unsere 00:12:57.920 --> 00:13:02.770 Dienstleistungen, dass wir über die gesetzlichen Vorgaben hinausgehen. Dass 00:13:02.770 --> 00:13:08.220 wir das von Anfang an mit rein nehmen. Hätten wir das auch bei Autos, Maschinen 00:13:08.220 --> 00:13:11.970 und anderen Produkten gemacht, wäre Deutschland ein armseliger Standort. Ich 00:13:11.970 --> 00:13:16.089 verstehe nicht, warum wir in der Digital- Ökonomie auf den niedrigsten Standard einen 00:13:16.089 --> 00:13:19.890 Wettlauf nach unten machen wollen, nach Meinung der Wirtschaftsverbände, anstatt 00:13:19.890 --> 00:13:23.689 mit Qualität und Unique Selling Points auch weltweit zu punkten. Das wäre im 00:13:23.689 --> 00:13:27.090 Datenschutz, in der IT-Security, wirklich möglich. 00:13:27.090 --> 00:13:35.380 Applaus Wir begegnen natürlich immer einem 00:13:35.380 --> 00:13:39.799 logischen Wunsch. Das ist wirklich bei Wirtschaft, Techies und großen Teilen der 00:13:39.799 --> 00:13:46.570 Politik gleich: Wir brauchen für die Optimierung von Prozesssteuerung, so die 00:13:46.570 --> 00:13:51.230 Argumentation, die deutliche Erhöhung der Menge an nutzbaren, qualitativ 00:13:51.230 --> 00:13:56.650 hochwertigen Daten. Ich will mich dem übrigens keineswegs verschließen, weil ich 00:13:56.650 --> 00:14:01.150 durchaus der Meinung bin, selber eine ganze Reihe von Prozessen zu sehen, wo ich 00:14:01.150 --> 00:14:06.040 mit dem richtigen Zugriff auf verantwortlich zur Verfügung stellbare 00:14:06.040 --> 00:14:10.770 Daten, deutliche Verbesserungs-, Optimierungs- und Fortschritts-Potenziale 00:14:10.770 --> 00:14:15.060 sehe. Aber es geht doch darum, den Prozess so zu organisieren, dass 00:14:15.060 --> 00:14:21.000 Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung und 00:14:21.000 --> 00:14:26.490 andere Grundrechte nicht eingeschränkt werden, nicht verletzt werden, sondern 00:14:26.490 --> 00:14:30.120 dass wir die neuen technischen Möglichkeiten sogar nutzen, um 00:14:30.120 --> 00:14:33.670 informationelle Selbstbestimmung an Stellen zu schaffen, wo ich sie in der 00:14:33.670 --> 00:14:38.380 Vergangenheit gar nicht hatte, weil sie mir nicht zur Verfügung gestanden hat. Und 00:14:38.380 --> 00:14:42.640 diese Debatte zu führen und anders auf den Markt zu treten, das ist der Vorschlag, 00:14:42.640 --> 00:14:46.850 den die deutschen Datenschutzbehörden mit der Hambacher Erklärung und anderen 00:14:46.850 --> 00:14:52.110 Beschlüssen gefasst haben. Und auch der Europäische Datenschutz-Ausschuss ist uns 00:14:52.110 --> 00:14:57.080 dort vor kurzem gefolgt. Ich glaube, dass die Regulierung von künstlicher 00:14:57.080 --> 00:15:01.100 Intelligenz, von algorithmischen Systemen, da eintreten muss, wo Gefahr für diese 00:15:01.100 --> 00:15:05.839 Rechtsgüter besteht – des Einzelnen oder der Allgemeinheit. Sie haben vielleicht 00:15:05.839 --> 00:15:10.959 zum Teil mitverfolgt, dass es manche gibt: Der Datenschutz übernähme sich, sagen die, 00:15:10.959 --> 00:15:15.010 wenn er nicht nur den Schutz des Einzelnen, sondern einen gesellschaftspolitischen 00:15:15.010 --> 00:15:20.500 Zweck verfolgt. Aber natürlich habe ich viele Stellen, wo die Frage des Schutz des 00:15:20.500 --> 00:15:24.860 Einzelnen ohne eine Beantwortung der Rechte in der Gemeinschaft gar nicht zu 00:15:24.860 --> 00:15:29.900 leisten ist. Vom simpelsten Beispiel an: wenn ich zulasse, dass bestimmte Daten 00:15:29.900 --> 00:15:33.930 erhoben werden können, freiwillig, dann ist derjenige, der nicht bereit ist, 00:15:33.930 --> 00:15:37.880 freiwillig sie zur Verfügung zu stellen, natürlich am Ende der*die Gekniffene, wenn 00:15:37.880 --> 00:15:42.001 die anderen diese Daten zur Verfügung gestellt haben. Deswegen ist es richtig, an einem 00:15:42.001 --> 00:15:45.970 solchen Beispiel, wo es um besonders sensible Daten geht, natürlich ein 00:15:45.970 --> 00:15:50.250 Erhebungs- und Verwertungsverbot allgemein auszusprechen und es nicht mehr auf die 00:15:50.250 --> 00:15:58.949 Freiwilligkeit zurückfallen zu lassen. — Applaus — Und diese Idee, auch 00:15:58.949 --> 00:16:04.040 technologische Entwicklungen und deren Einsatz regulieren zu wollen, ist aber 00:16:04.040 --> 00:16:09.440 auch gar nichts Neues. Das haben wir doch immer so gemacht. In den letzten zwei, 00:16:09.440 --> 00:16:13.750 dreihundert Jahren, seit wir eine einigermaßen entwickelte Zivilgesellschaft 00:16:13.750 --> 00:16:19.180 und politische Debatte haben. Wir haben es bei Dampfkesseln gemacht, wir haben es bei 00:16:19.180 --> 00:16:23.420 medizinischen Geräten, Autos und Handys gemacht. Was sollte uns davon abhalten, 00:16:23.420 --> 00:16:30.310 diese Debatte zielgerichtet und praktikabel auch im Bereich von Software 00:16:30.310 --> 00:16:36.030 und von Hybrid-Systemen einzuführen? Ein Beispiel dafür; das war ja etwas, was die 00:16:36.030 --> 00:16:40.490 Datenethikkommissionen genannt hatte, als sie gesagt hat, es muss auch die 00:16:40.490 --> 00:16:44.910 Möglichkeit des Verbots – um jetzt mal die weitestgehende Möglichkeit zu benennen – 00:16:44.910 --> 00:16:50.850 von Algorithmen mit unvertretbarem Schädigungspotenzial geben. Schon diese – 00:16:50.850 --> 00:16:56.699 eigentlich selbstverständliche – Forderung „unvertretbares Schädigungspotenzial“ hat 00:16:56.699 --> 00:17:00.581 zu Widerspruch bei einigen Wirtschaftsverbänden geführt. Also was das 00:17:00.581 --> 00:17:05.310 für ein Verständnis der Rolle von Staat als Zusammenschluss der Gesellschaft gibt: 00:17:05.310 --> 00:17:09.100 „Es gibt bestimmte Dinge, die ich nicht zulasse. Bestimmte medizinische Geräte 00:17:09.100 --> 00:17:14.949 sind nicht zugelassen. Der Verkauf von Organen ist nicht zugelassen. Kinderarbeit 00:17:14.949 --> 00:17:19.309 ist nicht zugelassen.“ Und warum soll ich nicht die Erlaubnis haben, bestimmte 00:17:19.309 --> 00:17:24.150 Software-Einsätze zu regulieren bis hin zu einem Verbot? Wir unterhalten uns ja über 00:17:24.150 --> 00:17:30.711 eine kleine Spitze in einem unglaublich innovativen Markt, wo 99,99% aller 00:17:30.711 --> 00:17:34.590 algorithmischen Systeme, die in Umlauf kommen, nie mit einer Aufsicht oder einer 00:17:34.590 --> 00:17:39.141 Kontrolle zu tun haben werden. Aber um diese Spitze müssen wir uns kümmern. Ich 00:17:39.141 --> 00:17:44.320 will jetzt nicht das ohnehin gestresste Beispiel von automatischen Waffensystemen 00:17:44.320 --> 00:17:49.580 oder Hochfrequenzhandel heranbringen. Aber schon im Bereich der Bildung, von 00:17:49.580 --> 00:17:53.450 persönlichen Profilen und der Frage, wem sie zur Verfügung gestellt werden dürfen 00:17:53.450 --> 00:17:57.520 oder nicht, kann es solche unvertretbaren Schädigungspotenziale geben und damit 00:17:57.520 --> 00:18:07.620 die Möglichkeit auch des Verbots in der Regulierung. — Applaus — Und in der Tat 00:18:07.620 --> 00:18:13.550 kämpfen wir darum, dass das Prinzip der Datenminimierung – so heißt es jetzt in der 00:18:13.550 --> 00:18:17.500 deutschen Version des europäischen Datenschutzgrundverordnung. Früher hieß es 00:18:17.500 --> 00:18:21.990 mal Datensparsamkeit –, dass dieses Prinzip nicht über den Haufen geworfen wird. Es 00:18:21.990 --> 00:18:29.460 wird angegriffen von allen Ecken: aus dem technischen Umfeld, aus den 00:18:29.460 --> 00:18:34.030 Wirtschaftsverbänden, aus der Politik bis hoch zu den Reden von Wirtschaftsministern 00:18:34.030 --> 00:18:38.733 und Bundeskanzlerin. Ich glaube teilweise auch aus dem Unverständnis heraus, was 00:18:38.733 --> 00:18:42.630 der Begriff eigentlich bedeutet. Er heißt ja nicht „Schmeiße alle Daten weg, die du 00:18:42.630 --> 00:18:48.420 hast“, also Datenarmut. Sondern er sagt „Ja, du hast nicht das Recht, Daten zu 00:18:48.420 --> 00:18:52.390 erheben, die du nicht benötigst für die Erbringung der Dienstleistung oder des 00:18:52.390 --> 00:18:57.920 Produkts. Weil diese Daten dich nichts angehen von einer Bürgerin oder einem 00:18:57.920 --> 00:19:03.122 Bürger. Und an bestimmter Stelle darfst du Daten auch nur weiterverwenden – und bitte 00:19:03.122 --> 00:19:07.080 jetzt kein Aufheulen, weil ich jetzt auch hier einen holzschnittartigen Pulk mache – 00:19:07.080 --> 00:19:11.340 wenn du Anonymisierung oder Pseudonymisierung verwendet hast. Ich weiß auch, dass es 00:19:11.340 --> 00:19:15.143 keine absolute Anonymisierung gibt. Den Einschub mache ich mal kurz. Aber es gibt 00:19:15.143 --> 00:19:18.660 natürlich situationsgerechte Anonymisierung. Wenn ich für einen 00:19:18.660 --> 00:19:23.970 Bruchteil der Sekunde für eine Steuerung Daten brauche, dann ist das natürlich eine 00:19:23.970 --> 00:19:28.060 andere Form des Aufwands, um in dem Augenblick an Daten zu kommen, wenn sie 00:19:28.060 --> 00:19:32.750 danach gelöscht werden, als wenn ich z. B. biologische Daten für 30 Jahre ablege und 00:19:32.750 --> 00:19:36.580 überhaupt nicht weiß, mit welchen Technologien oder anderen Datenbanken, die 00:19:36.580 --> 00:19:41.020 in Zukunft begegnet werden können, zu einer Repersonalisierung. Wir glauben aber 00:19:41.020 --> 00:19:44.860 auch, dass technologische Entwicklungen wie dezentrales Lernen oder datenschutz- 00:19:44.860 --> 00:19:49.300 konforme Data Spaces die Möglichkeit geben, mit vielen Daten im Bereich der 00:19:49.300 --> 00:19:53.500 künstlichen Intelligenz die Prozesssteuerung zu optimieren. Aber wir 00:19:53.500 --> 00:19:57.870 wollen eben auch eine solche Herangehensweise haben und nicht die Idee, 00:19:57.870 --> 00:20:03.120 große Data Lakes zu bilden, mit denen ich dann später mal reinschaue: Was ist 00:20:03.120 --> 00:20:07.210 möglich? Und dann, allerhöchstens wenn es schon einen Missbrauch von Daten gegeben 00:20:07.210 --> 00:20:12.420 hat, zu gucken: Entdecke ich diesen Missbrauch, kann ich ihn ahnden? Und finde 00:20:12.420 --> 00:20:16.270 ich dann als Aufsichtsbehörde auch noch ein Gericht, das am Ende, wenn ich gesagt 00:20:16.270 --> 00:20:20.290 habe „Das will ich bestrafen“, mir dann auch noch Recht gibt. Denn ich muss ja jedes 00:20:20.290 --> 00:20:24.130 Mal, wenn ich eine Entscheidung treffe, eine Behörde oder ein Unternehmen mit 00:20:24.130 --> 00:20:28.290 einer Sanktion zu belegen – beim Unternehmen das Bußgeld durchaus, bei 00:20:28.290 --> 00:20:31.981 einer Behörde vielleicht die Untersagung – damit rechnen, dass ich vor Gericht so 00:20:31.981 --> 00:20:37.150 etwas auch verlieren kann. Dementsprechend kann es länger dauern. Und es liegt ja 00:20:37.150 --> 00:20:41.440 nicht nur in meiner Hand, wie am Ende die Praxis aussehen wird. Deswegen brauchen 00:20:41.440 --> 00:20:46.230 wir eine ganz klare Regelung zu diesem Bereich. Das ist eben kein Bremsschuh 00:20:46.230 --> 00:20:51.330 für Innovationen, wenn man es von Anfang an mitdenkt. Und wenn ich bei 00:20:51.330 --> 00:20:55.730 Wirtschaftsverbänden spreche, stelle ich einfach immer frech die Frage: Glauben Sie 00:20:55.730 --> 00:21:01.760 denn, dass Sie als Silicon Valley-2 oder als China-2 wirtschaftlichen Erfolg haben 00:21:01.760 --> 00:21:05.690 werden? Oder sind Sie dann der billige Abklatsch? Wäre es nicht besser, unsere 00:21:05.690 --> 00:21:13.280 eigenen Werte einer IT-, einem KI-Verständnis mit europäischen Werten abzubilden und 00:21:13.280 --> 00:21:18.560 dafür im Wettbewerb nach Unterstützung zu suchen? Und zwar in Europa, aber auch bei 00:21:18.560 --> 00:21:23.890 den Menschen in der Welt, die gerne andere Werte in ihren Sicherheitssystemen in 00:21:23.890 --> 00:21:27.430 ihrem privaten Datennutzung verankert hätten, als sie das in ihren Ländern 00:21:27.430 --> 00:21:32.160 haben. Das war die Idee hinter der Datenschutzgrundverordnung ohne Rücksicht 00:21:32.160 --> 00:21:36.520 auf den Standort eines Unternehmens Europäerinnen und Europäer zu schützen und 00:21:36.520 --> 00:21:40.080 auch die Idee, dieses Recht zu exportieren. Und im Augenblick sehen wir 00:21:40.080 --> 00:21:43.790 die ersten Erfolge, dass andere Länder Datenschutzrechte auf Grundlage der 00:21:43.790 --> 00:21:48.220 Datenschutzgrundverordnung entwickeln. Wir sind also hier an einer Stelle in einen 00:21:48.220 --> 00:21:52.790 Wettbewerb eingetreten, mit amerikanischem Recht, mit den Überlegungen in China. Ich 00:21:52.790 --> 00:22:04.190 glaube, Europa sollte selbstbewusst sein, diesen Wettbewerb anzunehmen. — Applaus 00:22:04.190 --> 00:22:09.640 Wir erleben, dass nach wie vor die großen Internetkonzerne – und ich bedauere jeden 00:22:09.640 --> 00:22:17.370 Tag, dass wir zu keinem der großen Entscheidungen schon eine entsprechend … 00:22:17.370 --> 00:22:22.350 oder der großen offensichtlichen Datenschutz- Verstöße durch große Internetkonzerne 00:22:22.350 --> 00:22:26.490 schon eine Entscheidung auf europäischer Ebene getroffen haben. Ich dringe bei 00:22:26.490 --> 00:22:30.040 jedem Treffen des Europäischen Datenschutzausschuss darauf, dass von den 00:22:30.040 --> 00:22:33.930 vor allem federführenden Behörden in Irland und Luxemburg diese Entscheidungen 00:22:33.930 --> 00:22:37.360 jetzt vorgelegt werden. Sie werden übrigens nachher mit Mehrheit im 00:22:37.360 --> 00:22:40.820 Europäischen Datenschutzausschuss beschlossen. Also man kann sich nicht 00:22:40.820 --> 00:22:45.100 hinter einer nationalen Behörde verstecken, weil nach wie vor unter den 00:22:45.100 --> 00:22:51.780 Standardeinstellungen der großen Anbieter – sei es die aus den USA, aber auch die 00:22:51.780 --> 00:22:55.490 zunehmend in den Markt dringenden, vor allem auch aus China und aus Russland; 00:22:55.490 --> 00:23:01.640 andere werden kommen –, dass schon unter den Standardeinstellungen weiterhin ungehemmt 00:23:01.640 --> 00:23:07.120 persönliche Daten abgegriffen werden. Man ist formal datenschutzkonform, aber 00:23:07.120 --> 00:23:12.730 sammelt diese Daten ein und es bräuchte in der Tat technische Kenntnisse, die hier im 00:23:12.730 --> 00:23:16.970 Saal vorhanden sein werden, aber nicht im ganzen Land vorhanden sind, nie vorhanden 00:23:16.970 --> 00:23:21.430 sein werden und nicht auch nicht vorhanden sein müssen, weil man auch durchs Leben 00:23:21.430 --> 00:23:27.340 gehen muss, ohne Expertin oder Experte zu sein. Wenn man diese Kerneinstellungen 00:23:27.340 --> 00:23:32.360 nicht kennt, verliert man bei diesen Anwendungen, bei diesen Systemen Daten. 00:23:32.360 --> 00:23:40.080 Und selbst die, die versuchen, diese Daten- Sammler zu meiden, gehen dort auf den 00:23:40.080 --> 00:23:47.220 Leim, verlieren dort ihre Daten, wenn über Tracking Tools, über Plug-Ins und Source 00:23:47.220 --> 00:23:53.530 Code Development Kits diese Daten auch bei Dritten gesammelt werden. Und auch in 00:23:53.530 --> 00:23:57.340 diesen Fragen ist bisher leider außer einem Versuch des Bundeskartellamts, das 00:23:57.340 --> 00:24:02.330 nicht an die gleichen Regeln gebunden ist wie ich als Bundesdatenschutzbeauftragter, 00:24:02.330 --> 00:24:08.920 kein Versuch unternommen worden, das zu stoppen. Ich habe bis heute die 00:24:08.920 --> 00:24:13.230 Entscheidung des Düsseldorfer Gerichts – soviel darf ich ja, wo ich jetzt kein 00:24:13.230 --> 00:24:17.750 Staatssekretär im Justizministerium bin, ja mal sagen – nicht nachvollziehen können. 00:24:17.750 --> 00:24:21.150 Ich glaube, da war etwas zu wenig Berücksichtigung von 00:24:21.150 --> 00:24:25.670 Datenschutzgrundverordnung und verändertem Wettbewerbsrecht seit 2016 in der 00:24:25.670 --> 00:24:30.530 Betrachtung enthalten. Also wir brauchen die Durchsetzung des bestehenden Rechts. 00:24:30.530 --> 00:24:34.120 Wir brauchen Zertifizierung und Labeling, damit man bestimmte Produkte 00:24:34.120 --> 00:24:37.990 nehmen kann, sicher weiß, das Produkt für sich hält die Regeln ein. Jetzt kann ich 00:24:37.990 --> 00:24:42.350 darauf meine nächste Dienstleistung optimieren. Und natürlich brauchen wir 00:24:42.350 --> 00:24:46.280 auch Digital Literacy in der Bevölkerung bis zu einem bestimmten Grad. Ich muss 00:24:46.280 --> 00:24:50.320 wenigstens ungefähr verstehen, auf was ich mich in einer digitalen Gesellschaft 00:24:50.320 --> 00:24:54.171 einlasse. Ich persönlich würde mir wünschen, dass wir die Möglichkeiten des 00:24:54.171 --> 00:25:01.040 Schutz der Privatsphäre durch Technik stärker ausarbeiten, also PIMs und PMTs fände 00:25:01.040 --> 00:25:05.559 ich wichtig, in einer Form einzuführen, auf die man sich verlassen kann. Eins 00:25:05.559 --> 00:25:10.731 gilt: wenn große Konzerne Standards, die mal eingeführt wurden, um sich zu schützen 00:25:10.731 --> 00:25:15.310 wie den Do-not-Track-Standard, einfach ignorieren, dann ist das nichts anderes 00:25:15.310 --> 00:25:20.170 als ein Betteln um staatliche Regulierung. Wer sich nicht an Standards hält, der 00:25:20.170 --> 00:25:26.190 möchte Regulierung vom Staat bekommen. Und aus meiner Sicht sollten sie die mit der 00:25:26.190 --> 00:25:34.340 E-Privacy Verordnung auch bekommen. Applaus — Normalerweise müsste ich als 00:25:34.340 --> 00:25:40.680 Leiter einer Datenschutzbehörde aufschreien bei Ideen wie Interoperabilität, weil 00:25:40.680 --> 00:25:46.520 Interoperabilität Datenaustausch auch bedeutet. Aber ich sehe heute einen Markt, 00:25:46.520 --> 00:25:51.260 der sich oligopolisert. Und wenn ich die Markteintrittsbarrieren für neue 00:25:51.260 --> 00:25:54.930 Anbieterinnen/Anbieter senken will, dann muss ich eine datenschutzfreundliche 00:25:54.930 --> 00:25:59.520 Interoperabilität für die Anwendungen, die so wichtig geworden sind auf dem Markt, 00:25:59.520 --> 00:26:04.210 dass sie andere Dienste ersetzen, in denen die Interoperabilität seit Jahren und 00:26:04.210 --> 00:26:09.240 Jahrzehnten gilt, auch vorschreiben. Ich meine zum Beispiel im Bereich von Social 00:26:09.240 --> 00:26:17.591 Media und von Messenger Systemen. Dort könnte man mit solchen Schritten durchaus 00:26:17.591 --> 00:26:21.890 auch europäische Alternativen, am besten natürlich auf Open-Source Basis 00:26:21.890 --> 00:26:25.930 vorstellen. Ich würde mich freuen, wenn es die deutsche Verwaltung der französischen 00:26:25.930 --> 00:26:30.220 nachtun würde, vielleicht sogar mit den Franzosen gemeinsam ein System entwickeln, 00:26:30.220 --> 00:26:33.470 das dann schon mal 10 Millionen Grundnutzerinnen und Grundnutzer in 00:26:33.470 --> 00:26:37.650 Zentraleuropa hätte. Das wäre ein Anfang, mit dem man mit ganz anderer Schlagkraft 00:26:37.650 --> 00:26:42.650 eine solche Open-Source Messenger Plattform in Europa etablieren könnte. 00:26:42.650 --> 00:26:50.130 Applaus — Wir wollen für alle Formen von Datenverwertung die gleichen Regeln haben. 00:26:50.130 --> 00:26:54.600 Das gilt auch für die Sicherheitsbehörden, die ja, wenn es Bundessicherheitsbehörden 00:26:54.600 --> 00:27:02.060 sind, auch meiner Aufsicht unterliegen. Seit 2001, seit dem 11. September, sind in 00:27:02.060 --> 00:27:05.070 einer Geschwindigkeit neue Sicherheitsgesetze in Deutschland 00:27:05.070 --> 00:27:11.070 dazugekommen, die es schwierig machen, noch nachzuvollziehen, was tatsächlich der 00:27:11.070 --> 00:27:15.341 Stand des Datensammelns ist. Es hat nie eine Evaluierung der Gesetze gegeben, ob 00:27:15.341 --> 00:27:20.760 sie erfolgreich waren oder nicht. Wir erleben dass teilweise neue Datenschutz- 00:27:20.760 --> 00:27:24.140 Befugnisse gar nicht in der Breite verwendet werden. Die Daten werden 00:27:24.140 --> 00:27:28.420 gesammelt, aber nicht ausgewertet, weil natürlich längst das Personal fehlt. Wir 00:27:28.420 --> 00:27:33.790 haben problematische Datensammlungen, die selbst von den Praktikerinnen und Praktikern 00:27:33.790 --> 00:27:39.440 in den Sicherheitsbehörden als überflüssig eingestuft werden. Gleichzeitig gibt es 00:27:39.440 --> 00:27:44.460 aber natürlich auch immer wieder unbefugte Zugriffe auf solche Daten. Wenn Sie den 00:27:44.460 --> 00:27:48.260 Tagen zum Beispiel nochmal von der Berliner Polizei das gelesen haben, wo die 00:27:48.260 --> 00:27:53.710 Löschmoratorien dazu führen, dass seit 2013 keine Daten mehr aus den 00:27:53.710 --> 00:27:57.630 polizeilichen Informationssystem genommen werden, selbst wenn sie nur Opfer oder 00:27:57.630 --> 00:28:03.790 Zeuge einer Straftat waren. Und die Daten aber nicht etwa eine Zugriffsbefugnis zum 00:28:03.790 --> 00:28:08.440 Beispiel für einen Untersuchungsausschuss bekommen – Anis Amri oder NSU –, sondern 00:28:08.440 --> 00:28:13.850 weiterhin für alle Polizistinnen und Polizisten zugreifbar bleiben. Zu einem 00:28:13.850 --> 00:28:17.760 Protokollierung stattfindet, man aber nicht einmal begründen muss, warum man 00:28:17.760 --> 00:28:21.600 darauf zugegriffen hat, und man sich dann wundert, dass auf die Daten bestimmter 00:28:21.600 --> 00:28:26.430 Prominenter besonders häufig zugegriffen wird, auf die Daten von Kolleginnen und 00:28:26.430 --> 00:28:32.540 Kollegen oder auch auf Nachbarn von Menschen, die Zugriffsbefugnisse haben. 00:28:32.540 --> 00:28:37.420 Und solange das der Stand ist, wäre das natürlich nicht wichtig, Löschmoratorien 00:28:37.420 --> 00:28:41.810 zu haben, sondern ein Sicherheitsgesetz- Moratorium in diesem Land einzulegen und 00:28:41.810 --> 00:28:46.410 erst mal zu prüfen: Wo sind wir eigentlich übers Ziel hinausgeschossen? Wo gibt es 00:28:46.410 --> 00:28:50.690 andere Mängel zu beseitigen, als laufend Bürgerrechte einzuschränken? Mit der 00:28:50.690 --> 00:28:53.990 Sammlung zusätzlicher Daten über die Bürgerinnen und Bürgern. Das täte 00:28:53.990 --> 00:29:05.290 Bürgerrechten und Sicherheit besser als das nächste Gesetz. — Applaus —Stattdessen 00:29:05.290 --> 00:29:09.081 sollten wir beim Datenschutz nachschärfen Die Datenschutzgrundverordnung ist ein 00:29:09.081 --> 00:29:12.840 großer Wurf, sie hat auch international Strahlkraft, aber sie hat natürlich auch 00:29:12.840 --> 00:29:17.480 ihre Grenzen, wo wir heute schon merken, dass sie technologischen Entwicklungen 00:29:17.480 --> 00:29:22.420 nicht ausreichend gefolgt ist, wo es damals keinen Kompromiss gab und sie immer 00:29:22.420 --> 00:29:26.530 noch auf dem Stand von 1995 ist. Wenn ich jetzt fragen würde, wer 1995 noch gar 00:29:26.530 --> 00:29:30.850 nicht geboren war, würden wahrscheinlich einige Finger hochgehen. Sie können sich 00:29:30.850 --> 00:29:35.420 aber überlegen, was das für ein Stein- zeitalter aus technologischer Sicht ist. 00:29:35.420 --> 00:29:39.340 Wir müssen es auch deswegen machen, weil wir auch Vertrauen in Digitalisierung 00:29:39.340 --> 00:29:44.240 gewinnen müssen. Ich glaube nämlich nicht, dass Daten der Rohstoff des 21. 00:29:44.240 --> 00:29:49.040 Jahrhunderts ist, sondern Vertrauen! In einer so komplexen Welt, wo ich gar nicht 00:29:49.040 --> 00:29:53.550 mehr weiß – Wo werden Daten erhoben, wer verwendet sie und ähnliches mehr? – kann ich 00:29:53.550 --> 00:29:57.210 nicht mir jedes einzelne Produkt, jede einzelne Verbindung überprüfen, sondern 00:29:57.210 --> 00:30:02.841 ich muss ein System haben, in dem ich der Anbieterin oder Anbieter, sei es staatlich 00:30:02.841 --> 00:30:06.827 oder privat, ein Grundvertrauen entgegenbringen kann, weil sie bewiesen 00:30:06.827 --> 00:30:11.100 haben, dass sie bestimmte Standards jedes Mal einhalten, wenn sie hereingehen, weil 00:30:11.100 --> 00:30:16.760 sie unabhängig überprüft werden können und weil sie schwer bestraft werden, wenn sie 00:30:16.760 --> 00:30:21.030 sich an diese Standards dann bei einem Produkt nicht gehalten haben. Wenn wir 00:30:21.030 --> 00:30:25.760 dies nicht machen, wenn wir das nicht machen, hat es zwei Folgen. Es wird sich 00:30:25.760 --> 00:30:31.840 gewehrt werden gegen Digitalisierung, da, wo es möglich ist. Andere werden gar nicht 00:30:31.840 --> 00:30:35.861 hineingehen. Wir wollen weder einen Fatalismus nach dem Motto „Da kannst du 00:30:35.861 --> 00:30:40.080 nichts machen, ich stimme allen zu“. Und auch keine digitale Askese haben. Wir 00:30:40.080 --> 00:30:43.679 möchten, dass Digitalisierung gesellschaftliche Innovation und nicht nur 00:30:43.679 --> 00:30:52.707 technologische Innovation ist. — Applaus Deswegen sind wir unterwegs und möchten in 00:30:52.707 --> 00:30:57.090 den Bereichen von Scoring und Profiling – das sind ja die Schwestern des Trackings; 00:30:57.090 --> 00:31:02.320 Ich versuche, Leute einzuordnen, zu kategorisieren, statistisch in Gruppen 00:31:02.320 --> 00:31:07.870 einzuteilen –; Da brauchen wir klare Nachschärfungen. Und wir wollen natürlich 00:31:07.870 --> 00:31:13.450 gerade den kleinen Unternehmern und den Start-Ups und den Einzel-EntwicklerInnen 00:31:13.450 --> 00:31:17.387 und -Entwicklern Erleichterungen im Bereich der Informations- und 00:31:17.387 --> 00:31:21.380 Dokumentationspflichten verschaffen. Da glaube ich durchaus, kann man an einigen 00:31:21.380 --> 00:31:25.770 Stellen zurückdrehen, wenn man dafür an anderen Stellen das Datenschutzniveau 00:31:25.770 --> 00:31:32.610 durchaus höher wertet. Wir versuchen zu helfen, über Guidelines und Auslegungs- 00:31:32.610 --> 00:31:38.020 Papiere, die wir heranziehen. Wir würden aber gerne eins machen. Derzeit ist immer 00:31:38.020 --> 00:31:42.810 Verantwortlicher im Sinne des Datenschutzrechts die Person, die ein 00:31:42.810 --> 00:31:48.390 System gegenüber Bürgerinnen und Bürgern, Kundinnen und Kunden zum Einsatz bringt. 00:31:48.390 --> 00:31:53.690 Ich glaube, dass wir die Herstellerinnen und Hersteller von Systemen stärker in die 00:31:53.690 --> 00:31:57.460 Verantwortung nehmen müssen und nicht nur wegen Debatten, die Sie hier auf ihrem 00:31:57.460 --> 00:32:01.799 Kongress selber in den letzten Tagen ja geführt haben, und interessanten 00:32:01.799 --> 00:32:06.990 investigativen Dokumenten, die Sie veröffentlicht haben, sondern nur dann ist 00:32:06.990 --> 00:32:10.630 das möglich. Ich habe hier nur kurz gestanden und bin wieder auf die üblichen 00:32:10.630 --> 00:32:16.320 Probleme angesprochen worden. Wie ist es mit dem Einsatz von Windows 10 in meiner 00:32:16.320 --> 00:32:20.549 Rechtsanwaltskanzlei, in meiner Behörde in ähnlichem mehr? Und dann immer zu sagen, 00:32:20.549 --> 00:32:23.660 „Ja derjenige der es einsetzt ist der Verantwortliche im Sinne des 00:32:23.660 --> 00:32:27.380 Datenschutzrechts“ ist, glaube ich bei immer komplexer werdenden Systemen, bei 00:32:27.380 --> 00:32:32.580 der Verabschiedung von der On-Premise-World einfach zu kurz gesprungen und muss sich 00:32:32.580 --> 00:32:36.440 technisch an der Stelle durchaus weiter bewegen. Es gibt also eine ganze Menge zu 00:32:36.440 --> 00:32:42.110 tun. Der Deutsche Bundestag hat uns freundlicherweise eine deutliche 00:32:42.110 --> 00:32:46.370 Aufstockung an Stellen gegeben. Vielen Dank an die anwesenden 00:32:46.370 --> 00:32:50.140 Bundestagsabgeordneten, damit wir ein Stück noch mehr machen können. Sehr viel 00:32:50.140 --> 00:32:54.800 werden wir in der Tat in den Sicherheitsbereich investieren. Wir 00:32:54.800 --> 00:32:59.980 stellen übrigens auch ein und deswegen an alle, die im Saal sind: Wir brauchen Sie 00:32:59.980 --> 00:33:04.730 als Unterstützerin und Unterstützer in der Sache. Wir brauchen Sie als konstruktive 00:33:04.730 --> 00:33:10.730 KritikerInnen und Kritiker. Wir brauchen Sie als Beispielgeber und Beispielgeberinnen 00:33:10.730 --> 00:33:16.840 für datenschutzfreundliche, innovative Technologien. Und wir würden auch gerne 00:33:16.840 --> 00:33:21.390 viele von Ihnen als Mitarbeiterinnen und Mitarbeiter gewinnen. Es ist schön auf der 00:33:21.390 --> 00:33:25.910 hellen Seite der Macht – kommen Sie zum BfDI! Vielen Dank für das Interesse bis zu 00:33:25.910 --> 00:33:28.650 dem Zeitpunkt. Ich freue mich noch auf die Diskussion. 00:33:28.650 --> 00:33:38.960 Applaus 00:33:38.960 --> 00:33:51.580 Herald: So, wenn ihr Fragen habt, dann stellt euch bitte an die Mikrofone hier im 00:33:51.580 --> 00:33:56.260 Saal und versucht eure Fragen kurz zu formulieren. Frage Nummer 1 geht an den 00:33:56.260 --> 00:33:59.630 Signalangel. Signalengel: Hier eine Frage von 00:33:59.630 --> 00:34:04.760 Mastodon: Nach dir hält auch Arne Semsrott von Frag den Staat seinen Talk. 00:34:04.760 --> 00:34:09.850 Du bist ja auch Informationsfreiheitbeauftragter. Hast du 00:34:09.850 --> 00:34:14.540 eine Erklärung, warum Ministerien und Behörden, die selber immer mehr Befugnisse 00:34:14.540 --> 00:34:20.770 fordern, so unwillig sind, selber diese öffentliche Daten auch preiszugeben? 00:34:20.770 --> 00:34:28.070 Kelber : Nein. — Lachen, vereinzelt Applaus Und selbst dann, wenn sie gute Beispiele 00:34:28.070 --> 00:34:31.869 haben. Als wir damals im Justizministerium 2013 als neue Mannschaft angefangen 00:34:31.869 --> 00:34:37.020 hatten, haben wir uns nach ein paar Wochen entschieden, dass wir alle Stellungnahmen, 00:34:37.020 --> 00:34:40.760 die im Rahmen zu Gesetzentwürfen ans Ministerium geschickt werden – ist ja Teil 00:34:40.760 --> 00:34:45.149 der Gesetzgebung, dass man dann sagt, jetzt hätten wir gerne Kommentierungen von 00:34:45.149 --> 00:34:50.780 Verbänden, Organisationen und anderen – dass die alle öffentlich gemacht werden. 00:34:50.780 --> 00:34:58.460 Es ist keine einzige weniger reingekommen, aber jeder kann nachprüfen: Von wem sind 00:34:58.460 --> 00:35:02.600 welche Anregungen zwischen Gesetzentwurf und endgültigem Gesetz eingeflossen oder 00:35:02.600 --> 00:35:06.300 nicht. Das ist das, was ich als Vertrauensbildung meine. Es haben 00:35:06.300 --> 00:35:10.120 teilweise einige übernommen, nachdem sie vor Gericht dazu gezwungen wurden, haben 00:35:10.120 --> 00:35:13.880 das wieder eingestellt. Jetzt machen Sie es wieder. In der Tat kann 00:35:13.880 --> 00:35:18.430 Informationsfreiheit für eine Behördenleitung auch extrem ätzend sein. 00:35:18.430 --> 00:35:22.290 Und zwar nicht, weil irgendwas Unangenehmes nachher veröffentlich wird. 00:35:22.290 --> 00:35:27.630 Dann muss man halt aufpassen, dass man in den Kommentaren, die man auf 00:35:27.630 --> 00:35:31.830 was drauf schreibt in der Wortwahl gemäßigt bleibt. Also schreibe ich nicht 00:35:31.830 --> 00:35:36.970 drauf. „Der Idiot“ oder so, sondern schreibe ich „Ich bin nicht dieser Meinung“. Aber es 00:35:36.970 --> 00:35:42.260 kann natürlich unglaublich viel Arbeit sein. Ich ärgere mich auch; ich bekomm irgendeine 00:35:42.260 --> 00:35:47.020 Beschwerde ins Haus. Nach zwei Wochen stellt einer einen Informationsfreiheitsantrag 00:35:47.020 --> 00:35:50.750 alle E-Mails, die zu der Beschwerde in unserem Haus geflossen sind, zu sehen. 00:35:50.750 --> 00:35:54.870 Dann schreiben wir ihm als Zwischengeschichte auch noch zusätzlich zurück. Jetzt haben 00:35:54.870 --> 00:35:58.140 wir die Stelle um Stellungnahme gebeten. Dann kriegen wir sofort 00:35:58.140 --> 00:36:02.020 Informationsfreiheitantrag, den gesamten E-Mail-Verkehr mit der Stelle zu bekommen 00:36:02.020 --> 00:36:05.869 und am Ende anstatt 10 Beschwerden bearbeiten zu können, sind wir mit einer 00:36:05.869 --> 00:36:10.370 Person beschäftigt. Das ärgert einen. Wir sind natürlich die Guten. Da wir die 00:36:10.370 --> 00:36:14.440 Informationsfreiheit haben, machen wir natürlich gerne mit Freude. Aber wenn ich 00:36:14.440 --> 00:36:18.420 zu ’ner Ministerin oder Minister gehe, die kennen alle nur wieviele Leute werden 00:36:18.420 --> 00:36:23.630 abgezogen, um auch seltsame Informationsfreiheitsgeschichten zu 00:36:23.630 --> 00:36:29.280 machen? Ich stoße dort auf wenige Fans. Zu glauben, dass wir in absehbarer Zukunft 00:36:29.280 --> 00:36:31.750 auf Bundesebene eine deutliche Verbesserung des 00:36:31.750 --> 00:36:35.050 Informationsfreiheitsgesetz sehen, bezweifle ich. Da ist noch viel 00:36:35.050 --> 00:36:39.230 Überzeugungsarbeit zu leisten. Herald: Mikrofon Nr. 4. Deine Frage 00:36:39.230 --> 00:36:42.360 bitte. Frage: Herr Kelber, es ist Ihre Aufgabe, 00:36:42.360 --> 00:36:46.260 die Geheimdienste und Sicherheitsbehörden zu kontrollieren und den Datenschutz auch 00:36:46.260 --> 00:36:50.710 dort. Sind Sie der Meinung, dass Sie das effektiv tun können und ausreichend 00:36:50.710 --> 00:36:54.180 Fähigkeiten und Befugnisse haben? Und wenn nein, was fehlt? 00:36:54.180 --> 00:37:00.730 Kelber: Die Kontrolle im Bereich der Erhebung und Verarbeitung von Daten in dem 00:37:00.730 --> 00:37:05.340 gesamten restlichen Bereich? Ich glaube, mit den zusätzlichen Stellen, wenn wir sie 00:37:05.340 --> 00:37:09.740 besetzt haben, haben wir durchaus erst einmal Ressourcen, um auch die 00:37:09.740 --> 00:37:15.122 Kontrolldichte hochzuhalten. Wir werden selber arbeiten müssen bei der Überlegung, 00:37:15.122 --> 00:37:19.130 wie technologische Veränderungen und auch Veränderungen in den Informationssystemen 00:37:19.130 --> 00:37:23.741 der Dienste unsere Kontrolltätigkeit gegenüber früher verändern. Aber das ist 00:37:23.741 --> 00:37:28.740 natürlich ganz was anderes. Ist Zugriff auf eine sequentielle Datenbank mit einem 00:37:28.740 --> 00:37:35.080 Gothemsystem vom Palantier, wenn es zum Einsatz käme, was in der Kontrolle in dem 00:37:35.080 --> 00:37:41.000 Unterschied ist, in der Zusammenarbeit der Dienste untereinander mit dem Ausland, 00:37:41.000 --> 00:37:45.960 gibt es aus meiner Sicht durchaus Kontrolllücken. Da versuchen wir auch, mit 00:37:45.960 --> 00:37:52.290 den anderen Aufsichtsgremien wie der G-10-Kommission und der unabhängigen 00:37:52.290 --> 00:37:58.530 Gruppe im Kontakt zu sein. Und ich hätte gerne natürlich … also in der Joint Implementation 00:37:58.530 --> 00:38:03.400 Richtlinie, die ich vorhin erwähnt hatte, ja, für den Staatsbereich gilt. Die ist ja 00:38:03.400 --> 00:38:07.120 in Deutschland auch nach 3 Jahren noch nicht vollständig umgesetzt. Im Bereich 00:38:07.120 --> 00:38:11.690 des BKA haben wir Untersagungsrechte. Die müssten wir im 00:38:11.690 --> 00:38:15.410 Bereich der Bundespolizei auch haben. Die hat man noch nicht eingerichtet als 00:38:15.410 --> 00:38:20.470 Gesetzgeber. Das ist ein Verstoß gegen Europarecht in Deutschland. Wo es nicht 00:38:20.470 --> 00:38:23.780 vorgeschrieben wird durch Europarecht, aber sinnvoll wäre, wäre diese 00:38:23.780 --> 00:38:27.490 Untersagungsrechte auch für die Dienste zu haben. Das würde dann nicht nach dem 00:38:27.490 --> 00:38:31.360 Motto, Ich sage dann „aber die waren jetzt ganz gemein, haben sich nicht ans Recht 00:38:31.360 --> 00:38:35.170 gehalten“, sondern ich könnte dann in einem besonderen Fall in Zukunft 00:38:35.170 --> 00:38:39.960 untersagen die Nutzung von Daten oder die Löschung anweisen. Und der Dienst müsste 00:38:39.960 --> 00:38:46.340 vor Gericht gehen und müsste vor Gericht meine Anweisung widerrufen lassen. Ich 00:38:46.340 --> 00:38:50.200 glaube, das wäre der bessere Weg für die Aufsicht und würde auch mehr Verständnis 00:38:50.200 --> 00:38:54.600 für die Arbeit der Dienste wecken. Aber auch dafür gibt es noch keine Mehrheit 00:38:54.600 --> 00:38:59.290 beim Gesetzgeber. Herald: Mikrofon Nr. 2. Deine Frage 00:38:59.290 --> 00:39:02.900 bitte. Frage: Sie haben gesagt, dass wir ein 00:39:02.900 --> 00:39:07.290 gewisses Maß an Digital Literacy brauchen, um der Probleme Herr werden zu können. Ich 00:39:07.290 --> 00:39:10.670 sehe gerade das Problem, dass wir politisch eher in die entgegengesetzte 00:39:10.670 --> 00:39:15.280 Richtung steuern, primär weil kommunal z. B. Meldedaten verkauft werden und die 00:39:15.280 --> 00:39:18.820 Bundesregierung auch eher rhetorisch so eine … ökonomisch orientierte Linie 00:39:18.820 --> 00:39:24.910 fährt. Wie werden wir dieser Sache Herr? Kelber: Ich meinte ja mit dem Begriff 00:39:24.910 --> 00:39:31.050 Digital Literacy, dass die Leute ein Grundverständnis für digitale Vorgänge 00:39:31.050 --> 00:39:35.570 haben. Was passiert? Was passiert mit Daten? Wie funktionieren IT-Systeme? 00:39:35.570 --> 00:39:39.720 Algorithmische Systeme? Das wird übrigens—der Teil ist sicherlich auch 00:39:39.720 --> 00:39:44.470 eine Aufgabe von Schulen und Bildungsinstitutionen. Da aber 80 Prozent 00:39:44.470 --> 00:39:49.119 der Bevölkerung die Schulzeit hinter sich haben und mehr, werden wir sie auch über 00:39:49.119 --> 00:39:54.970 andere Wege erreichen müssen. Dazu gehören übrigens auch in den Informationspflichten 00:39:54.970 --> 00:39:58.590 in der Datenverarbeitung nicht mehr „Ich mache eine super lange Information“, 00:39:58.590 --> 00:40:03.650 sondern ich muss an einer Stelle, wo etwas passiert, eine leichte Erläuterung des 00:40:03.650 --> 00:40:07.490 Vorgangs haben, damit die Menschen tatsächlich mit dem Vorgang, den sie 00:40:07.490 --> 00:40:11.799 machen, ein Verständnis entwickeln können. Was Sie meinen, ist ja die Frage, wie ist 00:40:11.799 --> 00:40:15.761 eigentlich die Souveränität? Wie kann ich wenigstens wissen, was passiert? Was darf 00:40:15.761 --> 00:40:20.970 der Staat machen? Schaffen die gesetzliche Grundlage für die Weitergabe von Daten 00:40:20.970 --> 00:40:24.420 einfach nur, weil sie davon ausgehen, dass sie nicht genügend freiwillige 00:40:24.420 --> 00:40:28.460 Einverständnisses bekommen. Da muss sich der Gesetzgeber zurückhalten. Er sollte bei 00:40:28.460 --> 00:40:32.832 den gesetzlichen Grundlagen trotzdem ’ne Verhältnismäßigkeit bewahren. Ist übrigens 00:40:32.832 --> 00:40:36.660 auch etwas, was wir natürlich in unseren Stellungnahmen immer mitprüfen und was 00:40:36.660 --> 00:40:41.510 auch vor Gericht angegriffen wird von Nichtregierungsorganisationen. Das zweite 00:40:41.510 --> 00:40:45.270 ist, das war das, was ich vorhin meinte technische Maßnahmen, die den Bürger auf 00:40:45.270 --> 00:40:48.230 einen höheren Stand nehmen. Wenn wir jetzt wirklich mal an eine 00:40:48.230 --> 00:40:51.870 Registermodernisierung in Deutschland herantreten, bitte bitte nicht – weil es 00:40:51.870 --> 00:40:56.150 aus meiner Sicht verfassungswidrig ist – mit einem einheitlichen Identifier. Kann man 00:40:56.150 --> 00:41:00.190 auch anders machen. Aber dann wäre wirklich mal ein Datencockpit, wo 00:41:00.190 --> 00:41:04.140 Bürgerinnen und Bürger sehen, zumindest mal vielleicht außerhalb der unmittelbaren 00:41:04.140 --> 00:41:08.190 Sicherheitsdienste schon mal sehen können: Wer hat welche Daten, wer hat sie 00:41:08.190 --> 00:41:12.990 abgerufen und mit wem geteilt? Von allen staatlichen Registerstellen. Das kann man 00:41:12.990 --> 00:41:18.690 heute technisch herstellen, und das wäre dann auch ein Gebot, dass der Bürgerinnen 00:41:18.690 --> 00:41:22.640 und Bürger etwas davon haben, wenn der Staat seine IT-Systeme modernisiert. 00:41:22.640 --> 00:41:29.360 Applaus Herald: Mikrofon Nummer 8 Deine Frage 00:41:29.360 --> 00:41:31.641 bitte. Frage: Sie haben ja vorhin gesagt, dass 00:41:31.641 --> 00:41:37.510 ein möglicher Weg zu sichereren oder datenschutzfreundlicheren IT-Produkten 00:41:37.510 --> 00:41:44.619 die Standardisierung und Zertifizierung sein könnte. Was konkret ist denn da schon 00:41:44.619 --> 00:41:50.390 in der Entwicklung? Auf was können wir uns einrichten? Es gibt ja die ISO 27001, 00:41:50.390 --> 00:41:55.600 aber da ist der Datenschutz eher ein optionales Randthema. Und, genau, 00:41:55.600 --> 00:41:58.880 was kommt jetzt konkret? Kelber: Bei der Standardisierung sind wir 00:41:58.880 --> 00:42:03.320 glaube ich noch nicht sehr weit. Aber wir werden für die Entwicklungsmodelle gerade 00:42:03.320 --> 00:42:07.710 im Bereich algorithmischer Systeme und KI- Systeme, denke ich, nochmal für erweiterte 00:42:07.710 --> 00:42:11.440 Standardisierung brauchen, mit der ich wenigstens Modelle habe, wie ich in der 00:42:11.440 --> 00:42:14.700 Entwicklung bestimmte Dinge berücksichtige. Wann mache ich welche 00:42:14.700 --> 00:42:18.580 Folgenabschätzungen? Wie steht die Zurverfügungstellung von Daten aus? Wie 00:42:18.580 --> 00:42:23.380 sieht die Kontrolle von Datenqualität aus, und und und. Bei der Zertifizierung sind 00:42:23.380 --> 00:42:27.700 wir ein Stückchen weiter. Ich spreche jetzt bewusst nicht von Siegeln wie in dieser 00:42:27.700 --> 00:42:31.530 Debatte über das IT-Siegel, das ja dann logischerweise, wenn es ein Siegel sein 00:42:31.530 --> 00:42:38.040 soll, auch weit über gesetzliche Vorgaben hinausgehen müsste, sondern dass wir 00:42:38.040 --> 00:42:42.790 ermöglichen, dass man, wenn man ein Produkt hat, sich durch eine 00:42:42.790 --> 00:42:47.340 Zertifizierungsstelle, die beliehen ist, zertifizieren lassen kann, dass man damit 00:42:47.340 --> 00:42:51.690 die Anforderungen des Gesetzes eingehalten hat. Das heißt, der nächste, der es 00:42:51.690 --> 00:42:55.869 einsetzt, bekommt das Siegel. Wenn ich das wie vorgeschrieben einsetze, dann ist 00:42:55.869 --> 00:43:00.620 dieser Bestandteil DSGVO-konform, und ich muss mir bei dem, was ich add-on mache, 00:43:00.620 --> 00:43:04.790 bin ich dann der Verantwortliche. Da sind wir jetzt so weit, dass der Europäische 00:43:04.790 --> 00:43:09.110 Datenschutzausschuss seine Guideline verabschiedet hat. Danach haben Sie 00:43:09.110 --> 00:43:12.790 erlaubt, dass die Nationalstaaten ihre einbringen. Das haben wir im nächsten 00:43:12.790 --> 00:43:16.245 Monat gemacht. Ich hoffe, dass wir spätestens im Februar die Genehmigung 00:43:16.245 --> 00:43:19.180 durch den europäischen Datenschutzausschuss für die deutsche 00:43:19.180 --> 00:43:23.820 Variante bekommen. Dann dürften in diesem Jahr noch die ersten Akkreditierungen, 00:43:23.820 --> 00:43:28.540 ersten Zertifizierer, durch die deutsche Akkreditierungsstelle zugelassen werden. 00:43:28.540 --> 00:43:35.170 Ich erwarte, dass zum Beispiel im Bereich der Cloud-Dienste ein solcher 00:43:35.170 --> 00:43:39.810 Zertifizierer an den Start geht. Herald: Mikrofon Nummer 1, 00:43:39.810 --> 00:43:43.360 deine Frage bitte. Frage: Vielen Dank für den Vortrag, auch 00:43:43.360 --> 00:43:47.709 dass Sie hier auf dem Kongress sind. Ja, ich bin seit einiger Zeit verantwortlich 00:43:47.709 --> 00:43:50.310 in IT-Management-Positionen … Herald: Bitte die Frage! 00:43:50.310 --> 00:43:54.420 Frage: … und auch da implementierte ich natürlich sehr viele 00:43:54.420 --> 00:43:58.580 Datenschutzmaßnahmen. Sie haben es kurz angesprochen. Mich würde interessieren, 00:43:58.580 --> 00:44:03.070 wann wir auch mal Ergebnisse sehen im Bereich der großen Internetkonzerne – 00:44:03.070 --> 00:44:07.530 Google, Facebook, Amazon und so weiter, ob dann auch mal vielleicht Bußgelder etc. 00:44:07.530 --> 00:44:12.370 auch an diese großen Unternehmen zugeteilt werden. 00:44:12.370 --> 00:44:17.200 Kelber: Der Druck natürlich auf die Ba… Ich habe ja vor allem zwei nationale 00:44:17.200 --> 00:44:22.950 Datenschutzbehörden genannt, die die Zuständigkeit haben für besonders viele 00:44:22.950 --> 00:44:28.210 der großen Internetkonzerne. Ganz kurzer Exkurs europäisches Datenschutzrecht, 00:44:28.210 --> 00:44:32.560 sogenannter One-Stop-Shop. Die nationale Behörde, in der der Hauptsitz innerhalb 00:44:32.560 --> 00:44:37.630 der Europäischen Union ist, ist zuständig. Das heißt, bei den Großen wie Google und 00:44:37.630 --> 00:44:45.000 Facebook und Microsoft und Apple ist das z. B. Irland. Bei Amazon ist es Luxemburg 00:44:45.000 --> 00:44:50.830 als ein Beispiel. Und das sind natürlich erstens relativ kleine 00:44:50.830 --> 00:44:56.740 Datenschutzbehörden. Sie haben einen besonders wirtschaftsfreundliches 00:44:56.740 --> 00:45:01.260 Verwaltungsrecht,—vereinzelt Applaus— … Ja, es sind besonders hohe 00:45:01.260 --> 00:45:05.650 Vorgaben dran, was man alles tun muss, bevor man überhaupt einen Bescheid 00:45:05.650 --> 00:45:10.500 herausgeben darf. Wenn meine irische Kollegin so über Fälle sprechen würde, wie 00:45:10.500 --> 00:45:14.220 ich das in Deutschland mache, würde sie sofort vor Gericht scheitern. Weil dann 00:45:14.220 --> 00:45:17.270 würde der Richter sagen „Sie waren voreingenommen in der gesamten 00:45:17.270 --> 00:45:21.139 Betrachtung“, völlig egal, ob sie selber die Untersuchung gemacht hat oder jemand 00:45:21.139 --> 00:45:25.720 anderes. Trotzdem haben wir gesagt, es sind jetzt über 600 Tage, und wir wollen 00:45:25.720 --> 00:45:29.290 zu sehr offensichtlichen Datenschutz- Verstößen jetzt den Vorschlag der Iren 00:45:29.290 --> 00:45:33.140 und der Luxemburger auf den Tisch kriegen. Und dann schauen wir anderen uns an, ob 00:45:33.140 --> 00:45:36.950 wir der gleichen Meinung sind. Und wenn wir nicht der gleichen Meinung sind, dann 00:45:36.950 --> 00:45:40.460 wird mit Mehrheit im Europäischen Datenschutzausschuss darüber abgestimmt, 00:45:40.460 --> 00:45:45.470 wie die Sicht der europäischen Datenschutzbehörden sind. Und das ist dann 00:45:45.470 --> 00:45:51.340 der erlassene Bescheid. Das heißt, die Gefahr, dass wie in Deutschland das 00:45:51.340 --> 00:45:55.860 Kraftfahrzeugbundesamt einfach alleine entscheidet, entsteht am Ende im 00:45:55.860 --> 00:45:59.240 Datenschutz nicht. Da können dann die anderen Kraftfahrzeugsbehörden das 00:45:59.240 --> 00:46:02.951 Kraftfahrzeugbundesamt bei Dieselgate überstimmen. Das wäre doch schön, wenn es 00:46:02.951 --> 00:46:06.870 da auch gegeben hätte. Aber es dauert halt. Ich habe jetzt den Iren angeboten, dass 00:46:06.870 --> 00:46:11.740 sie uns mal einen Fall abtreten dürfen. Wir haben auch Fälle vorgeschlagen. Bisher 00:46:11.740 --> 00:46:17.459 ist das noch nicht beantwortet worden. Der irische Staat hat nur einen minimalen 00:46:17.459 --> 00:46:20.980 Aufwuchs in diesem Jahr wiedergegeben der Datenschutzbehörde. Die ist schon 00:46:20.980 --> 00:46:24.420 gewachsen in den letzten Jahren nur ein Viertel von dem, was die Kollegin 00:46:24.420 --> 00:46:28.890 beantragt hatte. Und das ist ein Staat … es ging um 5 Millionen Euro im Jahr. Der 00:46:28.890 --> 00:46:33.140 gleiche Staat, der im Augenblick vor Gerichten, versucht zu verhindern, dass 00:46:33.140 --> 00:46:37.420 Apple ihm 14 Milliarden Euro Steuern bezahlen muss. Da merken Sie, was der Gedanke 00:46:37.420 --> 00:46:41.350 dahinter ist. Ich habe bewusst Dieselgate verwendet, um deutlich zu machen: Das ist 00:46:41.350 --> 00:46:44.690 ja auch den Nationalstaaten in der Europäischen Union nicht fremd, sich 00:46:44.690 --> 00:46:48.450 schützend vor einen Wirtschaftszweig zu stellen. Aber das dürfen wir ihm einfach 00:46:48.450 --> 00:46:52.360 nicht durchgehen lassen. Aber wann es soweit ist, kann ich Ihnen noch nicht sagen. 00:46:52.360 --> 00:46:56.840 Applaus Herald: Signal-Angel, die nächste Frage 00:46:56.840 --> 00:47:01.180 aus dem Internet bitte. Frage: Woran scheitert es, dass 00:47:01.180 --> 00:47:05.480 Datensparsamkeit so wenig Gehör in der Politik stößt? Und wie können wir Hacker 00:47:05.480 --> 00:47:10.020 dabei helfen, abseits davon für Sie zu arbeiten? —vereinzelt Lachen 00:47:10.020 --> 00:47:16.710 Kelber: Ich glaube, erst einmal hat es eine erfolgreiche Lobbyarbeit darin 00:47:16.710 --> 00:47:23.060 gegeben, Menschen an führenden Stellen in der Politik zu verstehen zu geben, 00:47:23.060 --> 00:47:28.820 Datensparsamkeit sei Datenarmut. Man müsse wichtige Daten wegschmeißen. Damit würden 00:47:28.820 --> 00:47:33.130 wir mit USA und China nie mehr gleichziehen können. Dieser einfache 00:47:33.130 --> 00:47:37.950 Dreisatz ist denen in die Köpfe implementiert worden. Deswegen – habe ich tatsächlich auf 00:47:37.950 --> 00:47:41.740 dem Digitalgipfel erlebt – wie einen Monat bevor europäisches Recht ist, mit den 00:47:41.740 --> 00:47:45.810 Stimmen Deutschlands beschlossen wurde, endgültig wirksam wurde: 00:47:45.810 --> 00:47:50.210 Datenschutzgrundverordnung, die Bundeskanzlerin sich hinstellt und sagt: 00:47:50.210 --> 00:47:54.160 „Wir müssen das Prinzip der Datensparsamkeit aufgeben“. Das aber später 00:47:54.160 --> 00:47:58.000 bindendes europäisches Recht wurde, vorher bindendes deutsches Recht war. Das ist 00:47:58.000 --> 00:48:04.411 schon etwas, was man selten erlebt an dem Punkt. Da werden wir ein ganzes Stück für 00:48:04.411 --> 00:48:09.820 werben müssen, dass das einfach nicht wahr ist. Wenn wir aber auch einfache Narrative 00:48:09.820 --> 00:48:14.599 gemeinsam entwickeln müssen, die ähnlich aufzuführen. Ich finde ja so ein 00:48:14.599 --> 00:48:18.840 Narrativ wie „dich gehen Daten nichts an, die nichts mit einer Dienstleistung zu tun 00:48:18.840 --> 00:48:23.190 haben“, ist so eine einfach, weil das ist eine Werteentscheidung, die ich treffe. Und 00:48:23.190 --> 00:48:27.089 solche Werteentscheidungen haben wir oft getroffen. Klar wird es für Deutschland 00:48:27.089 --> 00:48:30.340 wirtschaftlich attraktiver, Kohlekraftwerke mit Kindern zu betreiben, 00:48:30.340 --> 00:48:34.200 weil dann könnte man die Stollen kleiner machen. Dann können wir gleich wieder mit 00:48:34.200 --> 00:48:38.150 Preisen aus Kolumbien mithalten. Haben wir uns aber aus Wertegründen entschieden, es 00:48:38.150 --> 00:48:41.930 nicht zu tun. Dasselbe sollten wir auch mit Daten machen, die unsere Grundrechte 00:48:41.930 --> 00:48:48.650 beeinflussen. Applaus 00:48:48.650 --> 00:48:51.940 Herald: Mikrofon Nummer 4, deine Frage bitte. 00:48:51.940 --> 00:48:57.140 Frage: Herr Kelber, Sie haben ja selber gesagt, dass Gesetze oftmals noch nicht 00:48:57.140 --> 00:49:01.268 reichen. Mir persönlich geht es auch so, dass ich das Gefühl habe, zum Beispiel die 00:49:01.268 --> 00:49:05.110 Datenschutzgrundverordnung ist manchmal ein bisschen zahnlos, und meine Frage an 00:49:05.110 --> 00:49:08.891 Sie ist: Welche Handlungsalternativen sehen Sie da? Wie sieht es aus z. B. mit 00:49:08.891 --> 00:49:13.358 Bereitstellung von alternativer Infrastruktur? Gerade zu Cloud, großen 00:49:13.358 --> 00:49:17.080 Cloud-Anbietern zum Beispiel. Wie sieht es aus mit Förderungen für Open-Source- 00:49:17.080 --> 00:49:21.081 Software für Projekte, die z. B. auch irgendwie grün unterwegs sind, 00:49:21.081 --> 00:49:24.910 Daten schützen, wie auch immer. Was gibt’s da für Möglichkeiten in der Politik? 00:49:24.910 --> 00:49:29.320 Kelber: Ich glaube, man sollte nicht das eine lassen und das andere unterschätzen 00:49:29.320 --> 00:49:34.070 und das dritte dann nicht machen. Ich bin für die Förderung vor allem dort, wo ich 00:49:34.070 --> 00:49:39.379 glaube, mit der Förderung – das ist ja dann mein Job – Verbesserungen für die Datenschutz- 00:49:39.379 --> 00:49:43.610 Situation herbeizuführen. Das war das Beispiel mit den Messengersystemen, weil die 00:49:43.610 --> 00:49:46.950 natürlich welche sind, wo ganz besonders viele relevante sensible Daten 00:49:46.950 --> 00:49:52.860 abgegriffen werden. Da bin ich in eine Monopolsituation reingekommen, die ich 00:49:52.860 --> 00:49:56.720 nur noch mit Krafft aufbrechen kann. Das eine wäre, diese Frage der 00:49:56.720 --> 00:50:01.790 Interoperabilität zu erzwingen, wenn allein ein Drittel der Sprachnachrichten 00:50:01.790 --> 00:50:05.910 heutzutage über Messengersysteme, nicht mehr über Handy oder Festnetz geht, da 00:50:05.910 --> 00:50:09.590 müssen sie auch die gleichen Pflichten erfüllen wie die anderen. Das ist z. B. 00:50:09.590 --> 00:50:16.080 Interoperabilität. Ich glaube aber, und deswegen werbe ich dafür. Und der Chef des 00:50:16.080 --> 00:50:19.860 Bundesamtes für die Sicherheit in der Informationstechnik hat ja ähnliches schon 00:50:19.860 --> 00:50:23.360 mal verlautbaren lassen. Ich glaube tatsächlich, wir sollten ein Messenger 00:50:23.360 --> 00:50:27.280 System als deutsche Verwaltung – am besten die gesamte, aber ansonsten muss der Bund 00:50:27.280 --> 00:50:31.440 eben anfangen – anbieten für Bürgerinnen und Bürger. Aber eins, das datenschutz- 00:50:31.440 --> 00:50:35.740 freundlich ist. Und da, glaube ich, gehe das tatsächlich nur auf der Open Source 00:50:35.740 --> 00:50:40.970 Software Basis. Und wenn unser großer Nachbarstaat es auf einer solchen Basis 00:50:40.970 --> 00:50:45.440 macht – Matrix – sich dann anzuschauen, sind das die gleichen Bedingungen, die die 00:50:45.440 --> 00:50:49.720 Franzosen haben und dann noch mehr Schlagkraft reinzubringen. Ich verstehe 00:50:49.720 --> 00:50:54.550 das ja manchmal im privaten Umfeld nicht. Dass Menschen, die 15 verschiedene 00:50:54.550 --> 00:51:03.270 Leih-Fahrräder und -Elektroscooter- Anwendungen auf ihrem Gerät haben, nicht 00:51:03.270 --> 00:51:08.990 in der Lage sein wollen, einen zweiten Messenger zu installieren, mit dem sie mir 00:51:08.990 --> 00:51:13.300 ohne Daten abgreifen, mit mir kommunizieren können, da ist irgendwie 00:51:13.300 --> 00:51:20.700 eine Denkblockade. — Applaus Herald: Mikrofon Nummer 2 bitte. 00:51:20.700 --> 00:51:25.640 Frage: Wie sensibilisiert man den durchschnittlichen nicht-IT-affinen Bürger 00:51:25.640 --> 00:51:29.680 und Politiker für sein eigenes Interesse an Datenschutz? 00:51:29.680 --> 00:51:35.320 Kelber: Ansprechen! Die wollen auch angesprochen werden. Den Bürgerinnen 00:51:35.320 --> 00:51:38.891 und Bürgern muss man es wahrscheinlich … Politikerinnen und Politiker wollen 00:51:38.891 --> 00:51:43.390 angesprochen werden, auch die nicht- Netzpolitiker, nicht die Digital- 00:51:43.390 --> 00:51:48.590 Politikerinnen und -Politiker. Bei Bürgerinnen und Bürgern wird man 00:51:48.590 --> 00:51:52.640 vielleicht auch neben dem jährlichen Skandal, nachdem es mal ein kurzes 00:51:52.640 --> 00:51:57.500 Interesse gibt, das nicht immer sich im Handeln ausprägt, wird man das auf eine 00:51:57.500 --> 00:52:01.640 Art und Weise machen müssen, dass sie Bilder erkennen, dass sie in einfachen 00:52:01.640 --> 00:52:05.520 Systemen machen. Was meistens funktioniert, wenn ich in Gruppen rede, 00:52:05.520 --> 00:52:10.859 die keine Vorbildung haben, ist ihnen zu verdeutlichen, was das, was im digitalen 00:52:10.859 --> 00:52:15.440 Bereich gerade passiert, in ihrer gewohnten analogen Welt bedeuten würde. 00:52:15.440 --> 00:52:19.370 Wenn ich denen dann erzähle mit Tracking: Stell dir mal vor, du gehst in die Bonner 00:52:19.370 --> 00:52:23.369 Fußgängerzone und in dem Augenblick, wenn du sie betrittst, beginnt einer, hinter dir 00:52:23.369 --> 00:52:26.959 herzulaufen, der schreibt auf, an welchen Geschäften du stehenbleibst, mit 00:52:26.959 --> 00:52:31.040 wem du dich unterhälst. Der bietet dir irgendwann Kaffee an. Kostenlos. Wenn ihr 00:52:31.040 --> 00:52:35.130 nach dem Becher greift, sagt er aber „Ich will erstmal gucken, wer waren denn die 00:52:35.130 --> 00:52:38.960 letzten fünf Leute, die sie getroffen haben.“ Wenn es verboten würde, 00:52:38.960 --> 00:52:43.100 Briefumschläge zu verwenden, alles nur noch auf Postkarten geschrieben werden 00:52:43.100 --> 00:52:47.970 dürfte. Wenn Sie es so übertragen in die Welt, die die kennen. Dann wird der ein 00:52:47.970 --> 00:52:58.480 oder andere auch wach. — Applaus — Als ich noch Parteipolitiker war, habe ich mir 00:52:58.480 --> 00:53:03.170 immer mal vorgenommen, einen Kaffeestand beim Tag der offenen Tür vorm Innenministerium 00:53:03.170 --> 00:53:07.740 zu machen mit umsonst Kaffee. Aber den kriegen die Leute dann tatsächlich nur, 00:53:07.740 --> 00:53:11.830 wenn ich einmal kurz ihr Handy durchgucken darf. — Lachen, Applaus 00:53:11.830 --> 00:53:15.310 Aber das kann ich jetzt nicht mehr machen, das traue ich mich nicht mehr. 00:53:15.310 --> 00:53:19.190 Herald: Mikrofon Nummer 8 bitte! Frage: Vielen Dank noch einmal für den 00:53:19.190 --> 00:53:24.170 Talk. Man sieht hier auf dem Kongress selbst da, wo man denkt, man hat viel 00:53:24.170 --> 00:53:28.710 Gutes an Sicherheit gemacht, gibt es immer noch Schlupflöcher. In den meisten Fällen 00:53:28.710 --> 00:53:34.170 hat man nicht so viel Gutes gemacht. Daher von mir die kurze Frage: Wie ist bei Ihnen 00:53:34.170 --> 00:53:40.869 das Verhältnis Datenminimierung zu dem Thema Datensicherheit, sprich in Form von 00:53:40.869 --> 00:53:46.690 Sicherheitsmaßnahmen zu sehen? Wo ist die Minimierung wichtiger? Und wo ist die 00:53:46.690 --> 00:53:50.070 Sicherheit akzeptabel? Kelber: Ich glaube übrigens, dass man 00:53:50.070 --> 00:53:54.950 erstmal durch Datensicherheit eine ganze Reihe von Datenschutz-Sicherheitsproblemen 00:53:54.950 --> 00:53:58.600 ausschließen kann, aber was sie ja wahrscheinlich ansprechen ist, dass ich an 00:53:58.600 --> 00:54:02.490 manchen Stellen eventuell Daten sammeln muss, um z. B. Angriffsvektoren oder 00:54:02.490 --> 00:54:05.020 ähnliches zu erkennen. War es das, was Sie meinten? 00:54:05.020 --> 00:54:12.061 Frage: Es ging darum, dass wir überall sehen: Belgacom. Da greift sich einfach ein 00:54:12.061 --> 00:54:15.191 fremder Geheimdienst die Daten und ähnliches … 00:54:15.191 --> 00:54:21.919 Kelber: Daten. Dann ist Datenminimierung ein Teil eines Datensicherheitskonzeptes. 00:54:21.919 --> 00:54:26.620 Übrigens auch das Verteilthalten von Daten und ähnliches ist eine Frage, die ich erwartet 00:54:26.620 --> 00:54:30.310 hatte. Wie ist das im digitalen Gesundheitsschutz? Es gibt ja Daten, wo 00:54:30.310 --> 00:54:34.070 es durchaus unethisch sein könnte, sie nicht einzusetzen. Aber was sind denn die 00:54:34.070 --> 00:54:37.220 Sicherheitsmaßnahmen? Wie kann ich wenigstens das Sicherheitsniveau 00:54:37.220 --> 00:54:40.890 erreichen, das ich vorher in der analogen Welt hatte, wo es ja auch eine Menge 00:54:40.890 --> 00:54:44.170 Verstöße gab? Wo krieg ich eine Verbesserung hin? Wo sind die Daten so 00:54:44.170 --> 00:54:47.850 sensibel, dass ich mit zusätzlichen Methoden dafür sorgen muss. Von daher auch 00:54:47.850 --> 00:54:51.810 vielen Dank an den Kongress für die Aufdeckung der Sicherheitsprobleme bei den 00:54:51.810 --> 00:54:59.240 Karten. Thema Sie können sich sicher sein, — Applaus — Sie können sich sicher 00:54:59.240 --> 00:55:03.450 sein, dass das auch Thema meiner Referatsleitungsrunde am 6. Januar 00:55:03.450 --> 00:55:11.539 sein wird. — Lachen, Applaus Herald: Mikrofon Nummer 1, Bitte. 00:55:11.539 --> 00:55:19.170 Frage: Herr Kelber, schön, dass Sie hier sind. Sie haben sehr ambitionierte Ziele 00:55:19.170 --> 00:55:26.500 zu schadhaften Algorithmen geäußert und auch zu, dass wir Vertrauen schaffen 00:55:26.500 --> 00:55:31.630 müssen. Dann haben Sie eben gerade noch was erzählt von den 00:55:31.630 --> 00:55:37.180 Zertifizierungenmöglichkeiten? Da weise ich mal darauf hin, dass die Diesel-Motoren 00:55:37.180 --> 00:55:45.520 unserer Auto-Hersteller auch alle zertifiziert sind. Um mal an Auguste Kerckhoff zu 00:55:45.520 --> 00:55:50.670 erinnern: Die Sicherheit eines Algorithmus kann nicht in der Geheimhaltung des 00:55:50.670 --> 00:55:54.510 Algorithmus liegen, sondern sollte möglichst vielen Experten offenstehen. 00:55:54.510 --> 00:56:02.780 Jetzt die Frage: Sehen Sie eine andere Möglichkeit als Open Source um Ihre Ziele, 00:56:02.780 --> 00:56:08.863 Algorithmen – schadhafte Algorithmen – zu verhindern oder Vertrauen zu schaffen? Ist 00:56:08.863 --> 00:56:12.220 das mit proprietärer Software überhaupt machbar? 00:56:12.220 --> 00:56:18.210 Kelber: Thema für einen eigenen Vortrag. Ich glaube, es wird Bereiche geben, wo ich 00:56:18.210 --> 00:56:23.920 Daten, nur indem ich sie überhaupt … indem ich den Algorithmus öffentlich mache, überhaupt 00:56:23.920 --> 00:56:28.880 nur Teil einer Kritikalitätsbetrachtung sein kann. Schauen Sie sich das auch mal in 00:56:28.880 --> 00:56:33.589 Zusammenfassung der Empfehlung der Daten Ethikkommission mit der Pyramide zu 00:56:33.589 --> 00:56:37.520 algorithmischen System an. Da ist die zweitoberste Stufe eine mit der 00:56:37.520 --> 00:56:41.700 völligen Offenlage. Für mich als Aufsichtsbehörde gilt aber trotzdem, dass 00:56:41.700 --> 00:56:45.859 wir an bestimmten Stellen hineingucken wollen in Systemen. 00:56:45.859 --> 00:56:49.009 Das ist mir natürlich auch klar, dass sich die sehr schnell ändern. 00:56:49.009 --> 00:56:51.560 also dass ich nicht einmal einen Punkt habe, wo ich da bin. Dem „Nein“ 00:56:51.560 --> 00:56:57.520 dort von Unternehmen oder Behörden. Das akzeptieren wir nicht. 00:56:57.520 --> 00:57:01.300 Also wir als Aufsichtsbehörde dürfen alles sehen. Ansonsten bin ich auch bereit, 00:57:01.300 --> 00:57:08.510 Zwangsmaßnahmen einzuleiten. Der Punkt wird allerdings der sein, dass natürlich, 00:57:08.510 --> 00:57:13.302 wenn nicht zertifiziert werden kann, dass etwas, was eingesetzt ist, tatsächlich die 00:57:13.302 --> 00:57:16.930 Punkte erreicht, die man zertifiziert, dann darf auch kein Zertifikat erteilt 00:57:16.930 --> 00:57:20.710 werden. Das war eine der Erfahrungen aus dem Dieselgate. Deswegen habe ich in 00:57:20.710 --> 00:57:24.068 meiner alten Verwendung ja noch Koalitionsverhandlungen geführt, 2018, 00:57:24.068 --> 00:57:28.059 nach den Bundes-Wink-Wochen gab es echte Koalitionsverhandlungen. Und da steht ein 00:57:28.059 --> 00:57:33.720 Satz drinnen: Es muss überhaupt mal etwas geschaffen werden, wo öffentliche Behörden 00:57:33.720 --> 00:57:37.589 die Kompetenz entwickeln können, in algorithmische Systeme rein zu schauen. 00:57:37.589 --> 00:57:41.210 Und das kann auch nicht sein, dass es jeder einstellt. Weil ich kann nicht 20 00:57:41.210 --> 00:57:45.070 Expertinnen / Experten einstellen, das BSI 40, das Kraftfahrzeugbundesamt 10, das 00:57:45.070 --> 00:57:50.630 BaFin 10. Das wird nicht klappen. So viele gibt es gar nicht auf dem Markt die das 00:57:50.630 --> 00:57:54.240 können. Wir werden also eine Stelle beauftragen. Kann ja auch an einem 00:57:54.240 --> 00:57:58.450 Netzwerk mit Wissenschaft und Zivilgesellschaft stehen, um die 00:57:58.450 --> 00:58:02.310 Entwicklung von so etwas anzuschauen. Und dann sind wir wieder etwas näher an dem, 00:58:02.310 --> 00:58:06.370 was Sie gesagt haben. Herald: Lieber Single-Angel, die nächste 00:58:06.370 --> 00:58:10.200 Frage aus Internet. Frage: Sollte man darauf achten, IFG- 00:58:10.200 --> 00:58:15.109 Anfragen verantwortungsvoll zu stellen und auf ein Minimum zu reduzieren, um die 00:58:15.109 --> 00:58:22.560 Akzeptanz bei Ministerien zu erhöhen? Kelber: Wie bei jedem Instrument sollte 00:58:22.560 --> 00:58:26.320 man etwas nur dann machen, wenn man es selber für richtig hält. Aber das ist der 00:58:26.320 --> 00:58:30.440 erste Maßstab, natürlich. Aber das wird ja allein nicht reichen. Ich habe natürlich 00:58:30.440 --> 00:58:34.458 auch schon Informationsfreiheitsanfragen gesehen, die man im Augenblick selber gesagt 00:58:34.458 --> 00:58:38.510 hat „Die ist nicht sinnvoll.“ Nachher kam etwas raus über den kleinen Umweg, wo man 00:58:38.510 --> 00:58:42.279 gesagt hat „Es war gut, dass da einer nachgefasst hat.“ Umgekehrt habe ich bei 00:58:42.279 --> 00:58:47.390 Sicherheitsbehörden auch schon IFG-Anträge gesehen, wo man nichts anderes versucht hat, 00:58:47.390 --> 00:58:52.329 als den Ermittlungsstand der Sicherheits- behörden gegen hochkriminelle Banden 00:58:52.329 --> 00:58:57.910 herauszubekommen. Die Bandbreite ist so groß, die Entscheidung treffen Sie selbst. 00:58:57.910 --> 00:59:02.130 Das Gesetz sagt, was Sie dürfen, was Sie nicht dürfen. Was beantwortet werden muss, 00:59:02.130 --> 00:59:07.099 was nicht beantwortet werden muss. Und bei allem, was das IFG angeht, sind wir noch 00:59:07.099 --> 00:59:11.601 in der Ombudsmann-Funktion. Das heißt, wenn eine Auskunft verweigert wird, können 00:59:11.601 --> 00:59:15.510 Sie sich an uns wenden, und wir beurteilen aus unserer Sicht noch einmal die 00:59:15.510 --> 00:59:20.500 Situation. Herald: Mikrofon Nr. 4, deine Frage? 00:59:20.500 --> 00:59:26.540 Frage: Hallo, zunächst vielen Dank, dass Sie hier sind. Vielen Dank für den Vortrag 00:59:26.540 --> 00:59:31.100 und auch herzlichen Dank, dass Sie die Problematik mit WiFi für die EU auf den 00:59:31.100 --> 00:59:36.510 europäischen Datenschutztisch gebracht haben. Zu meiner Frage: Sie hatten gerade 00:59:36.510 --> 00:59:41.090 das Beispiel angesprochen mit der Notwendigkeit von Datenschutz im 00:59:41.090 --> 00:59:45.190 öffentlichen Raum, am Beispiel des Laufens durch die Fußgängerzone in beispielsweise 00:59:45.190 --> 00:59:52.810 Bonn. Sehen Sie dass momentan Arbeit im Wettbewerbsrecht besteht, um entsprechend, 00:59:52.810 --> 00:59:56.770 ich sage mal datensammelwütige Geschäftsmodelle für Kommunen auch 00:59:56.770 --> 01:00:00.720 handhabbar zu machen. Wir haben in Aachen gerade das Problem, dass im Rahmen von der 01:00:00.720 --> 01:00:06.829 Stadtmobiliarausschreibung man ich sage mal die Wertschöpfung von Daten aus dem 01:00:06.829 --> 01:00:12.020 öffentlichen Raum, in der Ausschreibung nicht berücksichtigt hat, sodass die Stadt 01:00:12.020 --> 01:00:17.890 jetzt in der Problematik ist, dass für eine Stadtmobiliarausschreibung ein Anbieter, der 01:00:17.890 --> 01:00:23.890 Daten abschnorchelt ein nach Wettbewerbsrecht zu wählendes, weil günstigeres Angebot 01:00:23.890 --> 01:00:29.550 vorgelegt hat, als ein Anbieter, der nicht Daten abschnorchelt. Konkret geht es um 01:00:29.550 --> 01:00:35.070 ICIM-Trekker an Bushaltestellen. Kelber: Ist mir im Augenblick nichts 01:00:35.070 --> 01:00:38.479 bekannt. Müsste ich tatsächlich nachhaken, ob auf meiner Fachebene schon 01:00:38.479 --> 01:00:42.340 Debatte gegeben hat? Vielen Dank für die Anregung. Ist ja einer der Gründe, warum 01:00:42.340 --> 01:00:46.170 ich hierher gekommen bin, Anregungen mitzunehmen. Nein, kann ich Ihnen leider gar 01:00:46.170 --> 01:00:49.770 nichts zu sagen. Ich weiß, dass im Augenblick die nächste GWB Novelle dran 01:00:49.770 --> 01:00:53.980 ist, aber was dort in den Entwürfen steht und ob wir schon beteiligt wurden im 01:00:53.980 --> 01:00:58.589 Vorfeld – manche Ministerien beteiligen uns ja im Vorfeld – und dann geben wir unsere 01:00:58.589 --> 01:01:03.090 Beratungen nicht öffentlich. Weiß ich nicht, aber ist zumindest nicht von meinem 01:01:03.090 --> 01:01:07.301 Fachebene für so relevant gehalten worden, dass ich darüber informiert wurde. Also 01:01:07.301 --> 01:01:11.570 wenn ist es nur auf kleiner Ebene. Herald: Vielen Dank, Herr Kelber, für das 01:01:11.570 --> 01:01:16.390 geduldige Beantworten aller Fragen. Vielen Dank für Ihren Vortrag. Es können leider 01:01:16.390 --> 01:01:18.250 nicht mehr alle Fragen drankommen. 01:01:18.250 --> 01:01:26.210 Applaus 01:01:26.210 --> 01:01:31.690 36c3 Abspannmusik 01:01:31.690 --> 01:01:43.230 Untertitel erstellt von c3subtitles.de im Jahr 2020. Mach mit und hilf uns!