0:00:00.000,0:00:19.189
36c3 Vorspannmusik
0:00:19.189,0:00:22.980
Herald Engel: Unser nächster Vortrag hat[br]den Titel „Weichenstellung“. In welcher
0:00:22.980,0:00:29.679
digitalen Welt werden wir leben? Der Herr[br]Kelber wird darin aufzeigen, welche Folgen
0:00:29.679,0:00:33.509
die aktuellen politischen Entscheidungen[br]oder deren Ausbleiben auf unsere Zukunft
0:00:33.509,0:00:38.468
als Gesellschaft haben. Insbesondere bei[br]den Themen digitale überwachung durch
0:00:38.468,0:00:44.139
private und öffentliche Stellen. Ulrich[br]Kelber ist seit Januar diesen Jahres der
0:00:44.139,0:00:48.449
Bundesdatenschutzbeauftragte, ist[br]studierter Diplominformatiker, hat 20
0:00:48.449,0:00:54.670
Jahre im Bundestag als Bundestagsabgeordneter[br]gearbeitet und war vorher Staatssekretär
0:00:54.670,0:00:58.359
im Justizministerium. Bitte begrüßt ihn[br]mit einem kräftigen Applaus.
0:00:58.359,0:01:07.780
Applaus
0:01:07.780,0:01:11.140
Ulrich Kelber: Ja, schönen guten Tag, auch[br]von meiner Seite, hab mich sehr über die
0:01:11.140,0:01:16.420
Einladung gefreut. Ich bin natürlich etwas[br]beschämt, dass ich das erste Mal dabei bin,
0:01:16.420,0:01:21.250
nämlich in den 20 Jahren, wo ich[br]tatsächlich Abgeordneter war, hat meine
0:01:21.250,0:01:25.530
Familie gestreikt: neben den Wochenenden,[br]die immer dazugehören zur Arbeit, mir dann
0:01:25.530,0:01:32.670
auch noch die Tage über Weihnachten für[br]digitale Themen frei zu geben. Aber
0:01:32.670,0:01:36.270
nachdem ich ja im Januar in den Job[br]wechseln konnte, wo ich noch schön an
0:01:36.270,0:01:41.479
einem Thema tief arbeiten kann, aber die[br]Wochenenden jetzt freier zur Verfügung
0:01:41.479,0:01:46.189
habe, durfte ich mir zumindest mal einen[br]Tag dafür nehmen. Und ich hoffe, im
0:01:46.189,0:01:49.409
nächsten Jahr vielleicht auch mal mit[br]Übernachtung ein bisschen mehr
0:01:49.409,0:01:59.990
reinschnuppern auch in das, was andere zu[br]sagen und zu zeigen haben. — Applaus
0:01:59.990,0:02:06.369
Ich habe in der Tat jetzt knapp ein Jahr in[br]der neuen Funktion zubringen können,
0:02:06.369,0:02:11.820
versuchen, das Thema in der Breite[br]aufzunehmen, Schwerpunkte zu setzen,
0:02:11.820,0:02:16.830
insbesondere bei den Aufgaben, die wir in[br]den letzten Jahren auch hinzubekommen
0:02:16.830,0:02:21.010
haben: die Durchsetzung der europäischen[br]Datenschutzgrundverordnung, die
0:02:21.010,0:02:25.100
Durchsetzung der ja erst noch in[br]nationales Recht umzusetzenden Joint
0:02:25.100,0:02:30.270
Implementation Richtlinie, die Regulierung[br]von Scoring und Profiling, bereich-
0:02:30.270,0:02:36.330
spezifische Gesetzgebung, die ja fast im[br]Wochenrhythmus erfolgt, insbesondere im
0:02:36.330,0:02:41.870
Sicherheitsbereich und natürlich jetzt[br]auch drei Jahre oder dreieinhalb Jahre
0:02:41.870,0:02:48.101
nach Inkrafttreten, anderthalb Jahre nach[br]der vollen Wirksamkeit. Auch die
0:02:48.101,0:02:52.819
Überlegungen zur Weiterentwicklung[br]europäischen Datenschutzrechts. Und alles
0:02:52.819,0:02:58.459
vor dem Hintergrund einer Entwicklung, wo[br]im Augenblick Weichenstellungen in der
0:02:58.459,0:03:04.489
Frage von Regulierung, Nichtregulierung,[br]technische Entwicklung, Einführung von IT-
0:03:04.489,0:03:09.129
Systemen gesetzt werden, die massive[br]Auswirkungen auch auf unsere
0:03:09.129,0:03:13.129
Gesellschaftsordnung haben. Mich[br]interessieren die Debatten um digitale
0:03:13.129,0:03:18.700
Überwachung, sei es durch private oder[br]staatliche Stellen und insbesondere
0:03:18.700,0:03:23.129
natürlich auch der regelrechte hysterische[br]Wettlauf um immer neue
0:03:23.129,0:03:30.240
Eingriffesbefugnisse von[br]Sicherheitsbehörden. — Applaus —
0:03:30.240,0:03:34.260
Ich bin überzeugt, dass wir[br]schon die Weichenstellungen so vornehmen
0:03:34.260,0:03:38.690
können, dass auch die digitale[br]Gesellschaft eine freiheitliche, liberale
0:03:38.690,0:03:45.909
und diverse Gesellschaft bleibt. Aber[br]ausgemacht ist das noch keineswegs. Wir
0:03:45.909,0:03:50.420
sehen immer wieder, dass die technischen[br]und ökonomischen Aspekte dieser Debatte in
0:03:50.420,0:03:54.540
den Vordergrund gestellt werden und dass[br]es schwierig ist, durchzudringen mit
0:03:54.540,0:03:59.139
gesellschaftspolitischen und[br]datenschutzrechtlichen Fragestellungen.
0:03:59.139,0:04:05.450
Und wenn es eine Debatte gibt über diese[br]Weichenstellung in einer digitalpolitischen
0:04:05.450,0:04:10.069
europäischen Debatte, dann werden eben vor[br]allem diese technischen und okönomischen
0:04:10.069,0:04:15.000
Aspekte herangezogen. Es wird verwiesen[br]auf den Stand von ja durchaus
0:04:15.000,0:04:20.740
durchaus weiterentwickelten Digital-[br]Ökonomien in den USA und China, deren
0:04:20.740,0:04:25.650
Vorsprung im Bereich von dem, was immer[br]unscharf als „künstliche Intelligenz“
0:04:25.650,0:04:31.849
bezeichnet wird. Dass dieser Vorsprung[br]uneinholbar geworden sei und wohlstands-
0:04:31.849,0:04:36.240
gefährdend ist. Das wird durchaus als[br]Druckmittel verwendet, um dann bei
0:04:36.240,0:04:42.970
einzelnen Debatten festzulegen, in welcher[br]Form darf es zu Datenverwertung mittels
0:04:42.970,0:04:47.870
künstlicher Intelligenz, algorithmischer[br]Systeme oder auch der Nutzung von
0:04:47.870,0:04:52.750
Datenbanken an der Stelle kommen? Und wenn[br]man etwas genauer hinschaut, dann ist es
0:04:52.750,0:04:59.040
in der Tat natürlich so, dass in den USA[br]und China in manchen Sektoren bereits eine
0:04:59.040,0:05:03.889
andere Phase der technologischen[br]Entwicklung eingetreten ist. Dort wird
0:05:03.889,0:05:08.220
über deutlich höhere private und[br]staatliche Mittel in dem Bereich
0:05:08.220,0:05:16.650
investiert. Aber man merkt auch, dass[br]beide Wirtschaftssysteme einen bestimmten
0:05:16.650,0:05:21.680
Weg eingeschlagen haben für die Nutzung[br]von IT-System. In China entsteht ein
0:05:21.680,0:05:27.510
Überwachungssystem, das den Polizeistaat[br]erst zur vollen Blüte bringen kann. Wer
0:05:27.510,0:05:31.569
sich jetzt in den letzten Monaten ist das[br]mal zum Thema geworden mit dem, was im
0:05:31.569,0:05:35.759
Westen des Landes bei den Uiguren[br]passiert. Aber ein System, wo das
0:05:35.759,0:05:41.360
Verhalten aller Bürger digital überprüft[br]wird, was manche ja – außerhalb dieser
0:05:41.360,0:05:46.540
Halle natürlich – nicht verstehen, ist, wie[br]analoges und digitales Leben heute so
0:05:46.540,0:05:50.860
verschränkt sind, dass sie einander[br]beeinflussen. Dass deswegen eben auch auf
0:05:50.860,0:05:57.840
das Verhalten außerhalb der unmittelbaren[br]digitalen Welt ein Verhaltensdruck
0:05:57.840,0:06:03.850
ausgeübt wird. Wer sich im Sinne des[br]Systems verhält, dem winken Prämien,
0:06:03.850,0:06:10.430
Belohnungen, Vorteile. Wer das nicht tut,[br]riskiert für sich und Angehörige
0:06:10.430,0:06:18.039
Lebensmöglichkeiten vom Bildungssystem bis[br]hin zur Mobilität. Und es ist spannend,
0:06:18.039,0:06:24.360
wer diese Standards setzt. Es ist[br]spannend, wie diese Standards sich ändern
0:06:24.360,0:06:30.199
und vor allem, dass ein Gefühl entsteht,[br]dass ich gar nicht mehr abschätzen kann:
0:06:30.199,0:06:35.320
Wann werde ich eigentlich beobachtet, mein[br]Verhalten interpretiert, gespeichert,
0:06:35.320,0:06:42.150
bewertet von anderen. Und dies ist ein[br]Gefühl, dass es keine Bereiche mehr der
0:06:42.150,0:06:45.910
Möglichkeit gibt, sich ins Private[br]zurückzuziehen, etwas zu tun, was
0:06:45.910,0:06:52.039
vielleicht noch nicht von allen anderen so[br]vorgelebt wurde, verändert auch das eigene
0:06:52.039,0:06:55.850
Verhalten. Das ist eine Entwicklung, die[br]sicherlich in Europa nur eine absolute
0:06:55.850,0:07:00.900
Minderheit will, auch unter all denen,[br]die politische Positionen haben oder in
0:07:00.900,0:07:04.459
der Wirtschaft an entscheidenden[br]Stellen kommt. Es gibt allerdings
0:07:04.459,0:07:09.620
interessanterweise Studien, die unter[br]jüngeren Menschen schon eine größere
0:07:09.620,0:07:17.210
Zustimmung zu einem solchen System zum[br]Ausdruck bringt, wo bestimmte
0:07:17.210,0:07:22.530
Verhaltensweisen, die als durchaus … man[br]fängt ja an, mit welchen, die tatsächlich
0:07:22.530,0:07:26.306
vielleicht gesellschaftspolitisch von der[br]großen Mehrheit nicht gewünscht sind,
0:07:26.306,0:07:30.130
sanktionieren kann. Aber wie gesagt, die[br]große Mehrheit will das nicht, und zwar
0:07:30.130,0:07:34.490
weder vom Staat noch von privaten Konzernen.[br]Also weder das chinesische Modell, noch
0:07:34.490,0:07:40.240
das US-amerikanische Modell, die sich[br]ja durchaus auch beide teilweise mit
0:07:40.240,0:07:47.360
Aspekten des anderen – die USA im[br]Sicherheitsbereich, die chinesische Seite
0:07:47.360,0:07:51.940
mit dem Zusammenwirken zwischen Staat und[br]privaten Konzernen – beginnt. Und auch wenn
0:07:51.940,0:07:56.590
das keiner in Europa will, glaube ich,[br]dass dieses Überwachungsgift durchaus in
0:07:56.590,0:08:03.180
unser System träufelt von Tag zu Tag. Und[br]zwar, dass man Überwachung durchführen
0:08:03.180,0:08:07.582
will, weil man sie durchführen kann. Dass[br]man Datensammlungen betreibt, wenn man
0:08:07.582,0:08:12.569
diese Daten sammeln kann, weil Sensoren,[br]Speicher und Verarbeitungsmöglichkeiten
0:08:12.569,0:08:17.539
immer kleiner, schneller, besser und[br]billiger werden. Und dass Dinge, die man
0:08:17.539,0:08:22.229
vorher nicht gemacht hat, weil einfach der[br]Aufwand zu groß war, jetzt praktisch im
0:08:22.229,0:08:29.419
Vorbeigehen mitlaufen lässt. Und wo kann[br]man dieses Gift schon spüren? Das spürt
0:08:29.419,0:08:34.310
man, wenn die Geschäftsmodelle von[br]Verlagen in den politischen Debatten
0:08:34.310,0:08:39.770
Vorrang bekommen sollen vor der[br]Unverletzlichkeit der Privatsphäre von
0:08:39.770,0:08:44.920
Bürgerin und Bürger, wenn die Komfort[br]gegen Daten getauscht wird, auch im
0:08:44.920,0:08:51.440
Individualverhalten. Und wenn Sicherheit[br]vor Freiheit gesetzt wird bei der Debatte:
0:08:51.440,0:08:55.800
Was kann ich mit einem zusätzlichen[br]Durchgriffsrecht, Eingriffsrecht von
0:08:55.800,0:09:02.439
Sicherheitsbehörden erreichen? Dann[br]erleben wir, dass die Bewertung von
0:09:02.439,0:09:08.209
Verhalten und das Bewerten von Gesinnung,[br]wenn sie in die Auswertung mancher Daten
0:09:08.209,0:09:12.129
schauen und auch in die ein oder anderen[br]Gesetzentwurf, wo jetzt auf einmal wieder
0:09:12.129,0:09:17.840
aufgebracht wird, wer etwas unterstützt[br]oder befürwortet, dass das ebenfalls
0:09:17.840,0:09:22.949
Einfluss nimmt, damit Normmodelle setzt,[br]die dann in der Verarbeitung von Daten
0:09:22.949,0:09:28.100
überprüft werden durch Staat und durch[br]private Stellen auch in der Europäischen
0:09:28.100,0:09:33.670
Union. Und wie wir das ausgestalten, wie[br]wir zum Beispiel über eine E-Privacy
0:09:33.670,0:09:36.760
Verordnung in der Frage von Tracking[br]sprechen, das ist eine dieser
0:09:36.760,0:09:42.429
Weichenstellungen, die ich meinte mit dem[br]Titel des Vortrags. Im Zentrum dieser
0:09:42.429,0:09:46.159
Debatten steht tatsächlich das, was immer[br]mit dem großen Schlagwort „Künstliche
0:09:46.159,0:09:50.930
Intelligenz“ genommen wird. Sind genügend[br]im Saal, mit denen man sich 2 Stunden darüber
0:09:50.930,0:09:55.000
unterhalten könnte, was dieses Schlagwort[br]wirklich meint und wo es nicht meint. Aber
0:09:55.000,0:09:59.319
das lasse ich mal außen vor. Ich spreche[br]über KI und algorithmische Systeme, mal
0:09:59.319,0:10:06.940
als Bandbreite. Wir Datenschutzbeauftragten[br]haben für uns erkannt, dass es unsere
0:10:06.940,0:10:11.220
Arbeit verändert. Dass es aber eben[br]auch eine große Auswirkung auf
0:10:11.220,0:10:16.920
die Frage von Regulierung haben. Haben[br]deswegen in diesem Jahr, im Frühjahr und
0:10:16.920,0:10:21.850
dann ausgearbeitet noch bis in den Herbst[br]bei der Tagung in Trier im Frühjahr die
0:10:21.850,0:10:26.400
Hambacher Erklärung herausgegeben, auf[br]Schloss Hambach. Wir haben dieses Symbol
0:10:26.400,0:10:33.390
tatsächlich gewählt. Das Hambacher[br]Freiheitsfest von 1832, wo die
0:10:33.390,0:10:37.350
Grundrechte, die Bürgerrechte, auch in den[br]Vordergrund gestellt wurden. Übrigens ein
0:10:37.350,0:10:41.300
internationales Fest, weil es immer manche[br]Deutschtümeler versuchen, für sich zu
0:10:41.300,0:10:47.220
gewinnen. Es waren Franzosen und Polen und[br]andere Delegierte dort. Und haben
0:10:47.220,0:10:51.880
versucht, Grundprinzipien bei diesem[br]Einsatz zu definieren. Menschen nicht zum
0:10:51.880,0:10:55.809
bloßen Objekt einer solchen[br]Datenverarbeitung zu machen, das
0:10:55.809,0:11:00.920
Zweckbindungsgebot nicht fallen zu[br]lassen. Nicht so einfach auch in der
0:11:00.920,0:11:04.790
Entwicklung solcher Systeme. Die[br]Transparenz, die Nachvollziehbarkeit und
0:11:04.790,0:11:10.780
die Erklärbarkeit von KI-Systemen, die[br]Verhinderung von Diskriminierung und den
0:11:10.780,0:11:14.130
Grundsatz der Datenminimierung. Die[br]letzten drei sind übrigens sehr
0:11:14.130,0:11:18.659
interessant in der gesamten Debatte mit[br]Techis, weil mir das selbst bei Leuten, die
0:11:18.659,0:11:24.860
absolut liberal in ihren Grundsätzen sind,[br]immer wieder auffällt, dass sie ablehnen
0:11:24.860,0:11:31.010
diese Verantwortung in der Entwicklung von[br]Systemen mit zu übernehmen. Uns wird dann
0:11:31.010,0:11:34.829
entgegen geschleudert, das wäre ein[br]Generalverdacht. Wir würden zusätzlichen
0:11:34.829,0:11:39.370
Aufwand berücksichtigen. Aber ich glaube,[br]wer solche Macht ausübt mit solchen
0:11:39.370,0:11:43.870
Systemen in der Öffentlichkeit, der muss[br]zumindest selber überlegen: Kann der
0:11:43.870,0:11:49.321
Bereich, in dem ich gerade arbeite,[br]Auswirkungen auf Menschen und Ihre Rechte
0:11:49.321,0:11:52.760
haben? Und was muss ich dann[br]berücksichtigen in der Entwicklung dieser
0:11:52.760,0:11:56.890
Technologie? Wir haben natürlich auch über[br]Verantwortlichkeit gesprochen. Jedes
0:11:56.890,0:12:01.790
System muss auch jemand haben, den ich.[br]Ansprechen kann auf Fehlverhalten, auf
0:12:01.790,0:12:06.990
Diskriminierungspotenziale und ähnliches.[br]Das kann nicht verwischen in einem
0:12:06.990,0:12:18.900
komplexen Netzwerk unterschiedlicher[br]Systeme. Und wenn man … — Applaus Und wenn
0:12:18.900,0:12:23.110
man dann wirtschaftspolitisch an das Ganze[br]herangeht, ist es regelrecht absurd, dass
0:12:23.110,0:12:28.950
hier in Deutschland und in Europa, wo wir[br]eigentlich Erfahrung mit Datenschutz und
0:12:28.950,0:12:33.520
ich hoffe auch mit IT-Sicherheit haben, wo[br]wir Gesetze haben, die uns dazu
0:12:33.520,0:12:38.669
verpflichten, in diesem Bereich höhere[br]Qualität anzubieten als in anderen
0:12:38.669,0:12:42.990
Weltregionen. Dass in dieser Weltregion[br]die Wirtschaftsverbände und die
0:12:42.990,0:12:49.179
Unternehmen unterwegs sind, über diese[br]Regulierungen jammern und in anderen
0:12:49.179,0:12:53.510
Weltregionen mehr oder minder glaubhaft[br]wie z. B. in den USA die ersten Unternehmen
0:12:53.510,0:12:57.920
unterwegs sind und sagen: Wir wollen darüber[br]werben für unsere Produkte, für unsere
0:12:57.920,0:13:02.770
Dienstleistungen, dass wir über die[br]gesetzlichen Vorgaben hinausgehen. Dass
0:13:02.770,0:13:08.220
wir das von Anfang an mit rein nehmen.[br]Hätten wir das auch bei Autos, Maschinen
0:13:08.220,0:13:11.970
und anderen Produkten gemacht, wäre[br]Deutschland ein armseliger Standort. Ich
0:13:11.970,0:13:16.089
verstehe nicht, warum wir in der Digital-[br]Ökonomie auf den niedrigsten Standard einen
0:13:16.089,0:13:19.890
Wettlauf nach unten machen wollen, nach[br]Meinung der Wirtschaftsverbände, anstatt
0:13:19.890,0:13:23.689
mit Qualität und Unique Selling Points[br]auch weltweit zu punkten. Das wäre im
0:13:23.689,0:13:27.090
Datenschutz, in der IT-Security,[br]wirklich möglich.
0:13:27.090,0:13:35.380
Applaus[br]Wir begegnen natürlich immer einem
0:13:35.380,0:13:39.799
logischen Wunsch. Das ist wirklich bei[br]Wirtschaft, Techies und großen Teilen der
0:13:39.799,0:13:46.570
Politik gleich: Wir brauchen für die[br]Optimierung von Prozesssteuerung, so die
0:13:46.570,0:13:51.230
Argumentation, die deutliche Erhöhung der[br]Menge an nutzbaren, qualitativ
0:13:51.230,0:13:56.650
hochwertigen Daten. Ich will mich dem[br]übrigens keineswegs verschließen, weil ich
0:13:56.650,0:14:01.150
durchaus der Meinung bin, selber eine[br]ganze Reihe von Prozessen zu sehen, wo ich
0:14:01.150,0:14:06.040
mit dem richtigen Zugriff auf[br]verantwortlich zur Verfügung stellbare
0:14:06.040,0:14:10.770
Daten, deutliche Verbesserungs-,[br]Optimierungs- und Fortschritts-Potenziale
0:14:10.770,0:14:15.060
sehe. Aber es geht doch darum,[br]den Prozess so zu organisieren, dass
0:14:15.060,0:14:21.000
Persönlichkeitsrechte, das Recht auf[br]informationelle Selbstbestimmung und
0:14:21.000,0:14:26.490
andere Grundrechte nicht eingeschränkt[br]werden, nicht verletzt werden, sondern
0:14:26.490,0:14:30.120
dass wir die neuen technischen[br]Möglichkeiten sogar nutzen, um
0:14:30.120,0:14:33.670
informationelle Selbstbestimmung an[br]Stellen zu schaffen, wo ich sie in der
0:14:33.670,0:14:38.380
Vergangenheit gar nicht hatte, weil sie[br]mir nicht zur Verfügung gestanden hat. Und
0:14:38.380,0:14:42.640
diese Debatte zu führen und anders auf den[br]Markt zu treten, das ist der Vorschlag,
0:14:42.640,0:14:46.850
den die deutschen Datenschutzbehörden mit[br]der Hambacher Erklärung und anderen
0:14:46.850,0:14:52.110
Beschlüssen gefasst haben. Und auch der[br]Europäische Datenschutz-Ausschuss ist uns
0:14:52.110,0:14:57.080
dort vor kurzem gefolgt. Ich glaube, dass[br]die Regulierung von künstlicher
0:14:57.080,0:15:01.100
Intelligenz, von algorithmischen Systemen,[br]da eintreten muss, wo Gefahr für diese
0:15:01.100,0:15:05.839
Rechtsgüter besteht – des Einzelnen oder[br]der Allgemeinheit. Sie haben vielleicht
0:15:05.839,0:15:10.959
zum Teil mitverfolgt, dass es manche gibt:[br]Der Datenschutz übernähme sich, sagen die,
0:15:10.959,0:15:15.010
wenn er nicht nur den Schutz des Einzelnen,[br]sondern einen gesellschaftspolitischen
0:15:15.010,0:15:20.500
Zweck verfolgt. Aber natürlich habe ich[br]viele Stellen, wo die Frage des Schutz des
0:15:20.500,0:15:24.860
Einzelnen ohne eine Beantwortung der[br]Rechte in der Gemeinschaft gar nicht zu
0:15:24.860,0:15:29.900
leisten ist. Vom simpelsten Beispiel an:[br]wenn ich zulasse, dass bestimmte Daten
0:15:29.900,0:15:33.930
erhoben werden können, freiwillig, dann[br]ist derjenige, der nicht bereit ist,
0:15:33.930,0:15:37.880
freiwillig sie zur Verfügung zu stellen,[br]natürlich am Ende der*die Gekniffene, wenn
0:15:37.880,0:15:42.001
die anderen diese Daten zur Verfügung gestellt[br]haben. Deswegen ist es richtig, an einem
0:15:42.001,0:15:45.970
solchen Beispiel, wo es um besonders[br]sensible Daten geht, natürlich ein
0:15:45.970,0:15:50.250
Erhebungs- und Verwertungsverbot allgemein[br]auszusprechen und es nicht mehr auf die
0:15:50.250,0:15:58.949
Freiwilligkeit zurückfallen zu lassen.[br]— Applaus — Und diese Idee, auch
0:15:58.949,0:16:04.040
technologische Entwicklungen und deren[br]Einsatz regulieren zu wollen, ist aber
0:16:04.040,0:16:09.440
auch gar nichts Neues. Das haben wir doch[br]immer so gemacht. In den letzten zwei,
0:16:09.440,0:16:13.750
dreihundert Jahren, seit wir eine[br]einigermaßen entwickelte Zivilgesellschaft
0:16:13.750,0:16:19.180
und politische Debatte haben. Wir haben es[br]bei Dampfkesseln gemacht, wir haben es bei
0:16:19.180,0:16:23.420
medizinischen Geräten, Autos und Handys[br]gemacht. Was sollte uns davon abhalten,
0:16:23.420,0:16:30.310
diese Debatte zielgerichtet und[br]praktikabel auch im Bereich von Software
0:16:30.310,0:16:36.030
und von Hybrid-Systemen einzuführen? Ein[br]Beispiel dafür; das war ja etwas, was die
0:16:36.030,0:16:40.490
Datenethikkommissionen genannt hatte, als[br]sie gesagt hat, es muss auch die
0:16:40.490,0:16:44.910
Möglichkeit des Verbots – um jetzt mal die[br]weitestgehende Möglichkeit zu benennen –
0:16:44.910,0:16:50.850
von Algorithmen mit unvertretbarem[br]Schädigungspotenzial geben. Schon diese –
0:16:50.850,0:16:56.699
eigentlich selbstverständliche – Forderung[br]„unvertretbares Schädigungspotenzial“ hat
0:16:56.699,0:17:00.581
zu Widerspruch bei einigen[br]Wirtschaftsverbänden geführt. Also was das
0:17:00.581,0:17:05.310
für ein Verständnis der Rolle von Staat[br]als Zusammenschluss der Gesellschaft gibt:
0:17:05.310,0:17:09.100
„Es gibt bestimmte Dinge, die ich nicht[br]zulasse. Bestimmte medizinische Geräte
0:17:09.100,0:17:14.949
sind nicht zugelassen. Der Verkauf von[br]Organen ist nicht zugelassen. Kinderarbeit
0:17:14.949,0:17:19.309
ist nicht zugelassen.“ Und warum soll ich[br]nicht die Erlaubnis haben, bestimmte
0:17:19.309,0:17:24.150
Software-Einsätze zu regulieren bis hin zu[br]einem Verbot? Wir unterhalten uns ja über
0:17:24.150,0:17:30.711
eine kleine Spitze in einem unglaublich[br]innovativen Markt, wo 99,99% aller
0:17:30.711,0:17:34.590
algorithmischen Systeme, die in Umlauf[br]kommen, nie mit einer Aufsicht oder einer
0:17:34.590,0:17:39.141
Kontrolle zu tun haben werden. Aber um[br]diese Spitze müssen wir uns kümmern. Ich
0:17:39.141,0:17:44.320
will jetzt nicht das ohnehin gestresste[br]Beispiel von automatischen Waffensystemen
0:17:44.320,0:17:49.580
oder Hochfrequenzhandel heranbringen. Aber[br]schon im Bereich der Bildung, von
0:17:49.580,0:17:53.450
persönlichen Profilen und der Frage, wem[br]sie zur Verfügung gestellt werden dürfen
0:17:53.450,0:17:57.520
oder nicht, kann es solche unvertretbaren[br]Schädigungspotenziale geben und damit
0:17:57.520,0:18:07.620
die Möglichkeit auch des Verbots in der[br]Regulierung. — Applaus — Und in der Tat
0:18:07.620,0:18:13.550
kämpfen wir darum, dass das Prinzip der[br]Datenminimierung – so heißt es jetzt in der
0:18:13.550,0:18:17.500
deutschen Version des europäischen[br]Datenschutzgrundverordnung. Früher hieß es
0:18:17.500,0:18:21.990
mal Datensparsamkeit –, dass dieses Prinzip[br]nicht über den Haufen geworfen wird. Es
0:18:21.990,0:18:29.460
wird angegriffen von allen Ecken: aus[br]dem technischen Umfeld, aus den
0:18:29.460,0:18:34.030
Wirtschaftsverbänden, aus der Politik bis[br]hoch zu den Reden von Wirtschaftsministern
0:18:34.030,0:18:38.733
und Bundeskanzlerin. Ich glaube teilweise[br]auch aus dem Unverständnis heraus, was
0:18:38.733,0:18:42.630
der Begriff eigentlich bedeutet. Er heißt[br]ja nicht „Schmeiße alle Daten weg, die du
0:18:42.630,0:18:48.420
hast“, also Datenarmut. Sondern er sagt[br]„Ja, du hast nicht das Recht, Daten zu
0:18:48.420,0:18:52.390
erheben, die du nicht benötigst für die[br]Erbringung der Dienstleistung oder des
0:18:52.390,0:18:57.920
Produkts. Weil diese Daten dich nichts[br]angehen von einer Bürgerin oder einem
0:18:57.920,0:19:03.122
Bürger. Und an bestimmter Stelle darfst du[br]Daten auch nur weiterverwenden – und bitte
0:19:03.122,0:19:07.080
jetzt kein Aufheulen, weil ich jetzt auch[br]hier einen holzschnittartigen Pulk mache –
0:19:07.080,0:19:11.340
wenn du Anonymisierung oder Pseudonymisierung[br]verwendet hast. Ich weiß auch, dass es
0:19:11.340,0:19:15.143
keine absolute Anonymisierung gibt. Den[br]Einschub mache ich mal kurz. Aber es gibt
0:19:15.143,0:19:18.660
natürlich situationsgerechte[br]Anonymisierung. Wenn ich für einen
0:19:18.660,0:19:23.970
Bruchteil der Sekunde für eine Steuerung[br]Daten brauche, dann ist das natürlich eine
0:19:23.970,0:19:28.060
andere Form des Aufwands, um in dem[br]Augenblick an Daten zu kommen, wenn sie
0:19:28.060,0:19:32.750
danach gelöscht werden, als wenn ich z. B.[br]biologische Daten für 30 Jahre ablege und
0:19:32.750,0:19:36.580
überhaupt nicht weiß, mit welchen[br]Technologien oder anderen Datenbanken, die
0:19:36.580,0:19:41.020
in Zukunft begegnet werden können, zu[br]einer Repersonalisierung. Wir glauben aber
0:19:41.020,0:19:44.860
auch, dass technologische Entwicklungen[br]wie dezentrales Lernen oder datenschutz-
0:19:44.860,0:19:49.300
konforme Data Spaces die Möglichkeit[br]geben, mit vielen Daten im Bereich der
0:19:49.300,0:19:53.500
künstlichen Intelligenz die[br]Prozesssteuerung zu optimieren. Aber wir
0:19:53.500,0:19:57.870
wollen eben auch eine solche[br]Herangehensweise haben und nicht die Idee,
0:19:57.870,0:20:03.120
große Data Lakes zu bilden, mit denen ich[br]dann später mal reinschaue: Was ist
0:20:03.120,0:20:07.210
möglich? Und dann, allerhöchstens wenn es[br]schon einen Missbrauch von Daten gegeben
0:20:07.210,0:20:12.420
hat, zu gucken: Entdecke ich diesen[br]Missbrauch, kann ich ihn ahnden? Und finde
0:20:12.420,0:20:16.270
ich dann als Aufsichtsbehörde auch noch[br]ein Gericht, das am Ende, wenn ich gesagt
0:20:16.270,0:20:20.290
habe „Das will ich bestrafen“, mir dann auch[br]noch Recht gibt. Denn ich muss ja jedes
0:20:20.290,0:20:24.130
Mal, wenn ich eine Entscheidung treffe,[br]eine Behörde oder ein Unternehmen mit
0:20:24.130,0:20:28.290
einer Sanktion zu belegen – beim[br]Unternehmen das Bußgeld durchaus, bei
0:20:28.290,0:20:31.981
einer Behörde vielleicht die Untersagung –[br]damit rechnen, dass ich vor Gericht so
0:20:31.981,0:20:37.150
etwas auch verlieren kann. Dementsprechend[br]kann es länger dauern. Und es liegt ja
0:20:37.150,0:20:41.440
nicht nur in meiner Hand, wie am Ende die[br]Praxis aussehen wird. Deswegen brauchen
0:20:41.440,0:20:46.230
wir eine ganz klare Regelung zu diesem[br]Bereich. Das ist eben kein Bremsschuh
0:20:46.230,0:20:51.330
für Innovationen, wenn man es von Anfang[br]an mitdenkt. Und wenn ich bei
0:20:51.330,0:20:55.730
Wirtschaftsverbänden spreche, stelle ich[br]einfach immer frech die Frage: Glauben Sie
0:20:55.730,0:21:01.760
denn, dass Sie als Silicon Valley-2 oder[br]als China-2 wirtschaftlichen Erfolg haben
0:21:01.760,0:21:05.690
werden? Oder sind Sie dann der billige[br]Abklatsch? Wäre es nicht besser, unsere
0:21:05.690,0:21:13.280
eigenen Werte einer IT-, einem KI-Verständnis[br]mit europäischen Werten abzubilden und
0:21:13.280,0:21:18.560
dafür im Wettbewerb nach Unterstützung zu[br]suchen? Und zwar in Europa, aber auch bei
0:21:18.560,0:21:23.890
den Menschen in der Welt, die gerne andere[br]Werte in ihren Sicherheitssystemen in
0:21:23.890,0:21:27.430
ihrem privaten Datennutzung verankert[br]hätten, als sie das in ihren Ländern
0:21:27.430,0:21:32.160
haben. Das war die Idee hinter der[br]Datenschutzgrundverordnung ohne Rücksicht
0:21:32.160,0:21:36.520
auf den Standort eines Unternehmens[br]Europäerinnen und Europäer zu schützen und
0:21:36.520,0:21:40.080
auch die Idee, dieses Recht zu[br]exportieren. Und im Augenblick sehen wir
0:21:40.080,0:21:43.790
die ersten Erfolge, dass andere Länder[br]Datenschutzrechte auf Grundlage der
0:21:43.790,0:21:48.220
Datenschutzgrundverordnung entwickeln. Wir[br]sind also hier an einer Stelle in einen
0:21:48.220,0:21:52.790
Wettbewerb eingetreten, mit amerikanischem[br]Recht, mit den Überlegungen in China. Ich
0:21:52.790,0:22:04.190
glaube, Europa sollte selbstbewusst sein,[br]diesen Wettbewerb anzunehmen. — Applaus
0:22:04.190,0:22:09.640
Wir erleben, dass nach wie vor die großen[br]Internetkonzerne – und ich bedauere jeden
0:22:09.640,0:22:17.370
Tag, dass wir zu keinem der großen[br]Entscheidungen schon eine entsprechend …
0:22:17.370,0:22:22.350
oder der großen offensichtlichen Datenschutz-[br]Verstöße durch große Internetkonzerne
0:22:22.350,0:22:26.490
schon eine Entscheidung auf europäischer[br]Ebene getroffen haben. Ich dringe bei
0:22:26.490,0:22:30.040
jedem Treffen des Europäischen[br]Datenschutzausschuss darauf, dass von den
0:22:30.040,0:22:33.930
vor allem federführenden Behörden in[br]Irland und Luxemburg diese Entscheidungen
0:22:33.930,0:22:37.360
jetzt vorgelegt werden. Sie werden[br]übrigens nachher mit Mehrheit im
0:22:37.360,0:22:40.820
Europäischen Datenschutzausschuss[br]beschlossen. Also man kann sich nicht
0:22:40.820,0:22:45.100
hinter einer nationalen Behörde[br]verstecken, weil nach wie vor unter den
0:22:45.100,0:22:51.780
Standardeinstellungen der großen Anbieter[br]– sei es die aus den USA, aber auch die
0:22:51.780,0:22:55.490
zunehmend in den Markt dringenden, vor[br]allem auch aus China und aus Russland;
0:22:55.490,0:23:01.640
andere werden kommen –, dass schon unter den[br]Standardeinstellungen weiterhin ungehemmt
0:23:01.640,0:23:07.120
persönliche Daten abgegriffen werden. Man[br]ist formal datenschutzkonform, aber
0:23:07.120,0:23:12.730
sammelt diese Daten ein und es bräuchte in[br]der Tat technische Kenntnisse, die hier im
0:23:12.730,0:23:16.970
Saal vorhanden sein werden, aber nicht im[br]ganzen Land vorhanden sind, nie vorhanden
0:23:16.970,0:23:21.430
sein werden und nicht auch nicht vorhanden[br]sein müssen, weil man auch durchs Leben
0:23:21.430,0:23:27.340
gehen muss, ohne Expertin oder Experte zu[br]sein. Wenn man diese Kerneinstellungen
0:23:27.340,0:23:32.360
nicht kennt, verliert man bei diesen[br]Anwendungen, bei diesen Systemen Daten.
0:23:32.360,0:23:40.080
Und selbst die, die versuchen, diese Daten-[br]Sammler zu meiden, gehen dort auf den
0:23:40.080,0:23:47.220
Leim, verlieren dort ihre Daten, wenn über[br]Tracking Tools, über Plug-Ins und Source
0:23:47.220,0:23:53.530
Code Development Kits diese Daten auch bei[br]Dritten gesammelt werden. Und auch in
0:23:53.530,0:23:57.340
diesen Fragen ist bisher leider außer[br]einem Versuch des Bundeskartellamts, das
0:23:57.340,0:24:02.330
nicht an die gleichen Regeln gebunden ist[br]wie ich als Bundesdatenschutzbeauftragter,
0:24:02.330,0:24:08.920
kein Versuch unternommen worden, das zu[br]stoppen. Ich habe bis heute die
0:24:08.920,0:24:13.230
Entscheidung des Düsseldorfer Gerichts –[br]soviel darf ich ja, wo ich jetzt kein
0:24:13.230,0:24:17.750
Staatssekretär im Justizministerium bin,[br]ja mal sagen – nicht nachvollziehen können.
0:24:17.750,0:24:21.150
Ich glaube, da war etwas zu wenig[br]Berücksichtigung von
0:24:21.150,0:24:25.670
Datenschutzgrundverordnung und verändertem[br]Wettbewerbsrecht seit 2016 in der
0:24:25.670,0:24:30.530
Betrachtung enthalten. Also wir brauchen[br]die Durchsetzung des bestehenden Rechts.
0:24:30.530,0:24:34.120
Wir brauchen Zertifizierung und[br]Labeling, damit man bestimmte Produkte
0:24:34.120,0:24:37.990
nehmen kann, sicher weiß, das Produkt für[br]sich hält die Regeln ein. Jetzt kann ich
0:24:37.990,0:24:42.350
darauf meine nächste Dienstleistung[br]optimieren. Und natürlich brauchen wir
0:24:42.350,0:24:46.280
auch Digital Literacy in der Bevölkerung[br]bis zu einem bestimmten Grad. Ich muss
0:24:46.280,0:24:50.320
wenigstens ungefähr verstehen, auf was ich[br]mich in einer digitalen Gesellschaft
0:24:50.320,0:24:54.171
einlasse. Ich persönlich würde mir[br]wünschen, dass wir die Möglichkeiten des
0:24:54.171,0:25:01.040
Schutz der Privatsphäre durch Technik[br]stärker ausarbeiten, also PIMs und PMTs fände
0:25:01.040,0:25:05.559
ich wichtig, in einer Form einzuführen,[br]auf die man sich verlassen kann. Eins
0:25:05.559,0:25:10.731
gilt: wenn große Konzerne Standards, die[br]mal eingeführt wurden, um sich zu schützen
0:25:10.731,0:25:15.310
wie den Do-not-Track-Standard, einfach[br]ignorieren, dann ist das nichts anderes
0:25:15.310,0:25:20.170
als ein Betteln um staatliche Regulierung.[br]Wer sich nicht an Standards hält, der
0:25:20.170,0:25:26.190
möchte Regulierung vom Staat bekommen. Und[br]aus meiner Sicht sollten sie die mit der
0:25:26.190,0:25:34.340
E-Privacy Verordnung auch bekommen.[br]Applaus — Normalerweise müsste ich als
0:25:34.340,0:25:40.680
Leiter einer Datenschutzbehörde aufschreien[br]bei Ideen wie Interoperabilität, weil
0:25:40.680,0:25:46.520
Interoperabilität Datenaustausch auch[br]bedeutet. Aber ich sehe heute einen Markt,
0:25:46.520,0:25:51.260
der sich oligopolisert. Und wenn ich die[br]Markteintrittsbarrieren für neue
0:25:51.260,0:25:54.930
Anbieterinnen/Anbieter senken will, dann[br]muss ich eine datenschutzfreundliche
0:25:54.930,0:25:59.520
Interoperabilität für die Anwendungen, die[br]so wichtig geworden sind auf dem Markt,
0:25:59.520,0:26:04.210
dass sie andere Dienste ersetzen, in denen[br]die Interoperabilität seit Jahren und
0:26:04.210,0:26:09.240
Jahrzehnten gilt, auch vorschreiben. Ich[br]meine zum Beispiel im Bereich von Social
0:26:09.240,0:26:17.591
Media und von Messenger Systemen. Dort[br]könnte man mit solchen Schritten durchaus
0:26:17.591,0:26:21.890
auch europäische Alternativen, am besten[br]natürlich auf Open-Source Basis
0:26:21.890,0:26:25.930
vorstellen. Ich würde mich freuen, wenn es[br]die deutsche Verwaltung der französischen
0:26:25.930,0:26:30.220
nachtun würde, vielleicht sogar mit den[br]Franzosen gemeinsam ein System entwickeln,
0:26:30.220,0:26:33.470
das dann schon mal 10 Millionen[br]Grundnutzerinnen und Grundnutzer in
0:26:33.470,0:26:37.650
Zentraleuropa hätte. Das wäre ein Anfang,[br]mit dem man mit ganz anderer Schlagkraft
0:26:37.650,0:26:42.650
eine solche Open-Source Messenger[br]Plattform in Europa etablieren könnte.
0:26:42.650,0:26:50.130
Applaus — Wir wollen für alle Formen von[br]Datenverwertung die gleichen Regeln haben.
0:26:50.130,0:26:54.600
Das gilt auch für die Sicherheitsbehörden,[br]die ja, wenn es Bundessicherheitsbehörden
0:26:54.600,0:27:02.060
sind, auch meiner Aufsicht unterliegen.[br]Seit 2001, seit dem 11. September, sind in
0:27:02.060,0:27:05.070
einer Geschwindigkeit neue[br]Sicherheitsgesetze in Deutschland
0:27:05.070,0:27:11.070
dazugekommen, die es schwierig machen,[br]noch nachzuvollziehen, was tatsächlich der
0:27:11.070,0:27:15.341
Stand des Datensammelns ist. Es hat nie[br]eine Evaluierung der Gesetze gegeben, ob
0:27:15.341,0:27:20.760
sie erfolgreich waren oder nicht. Wir[br]erleben dass teilweise neue Datenschutz-
0:27:20.760,0:27:24.140
Befugnisse gar nicht in der Breite[br]verwendet werden. Die Daten werden
0:27:24.140,0:27:28.420
gesammelt, aber nicht ausgewertet, weil[br]natürlich längst das Personal fehlt. Wir
0:27:28.420,0:27:33.790
haben problematische Datensammlungen, die[br]selbst von den Praktikerinnen und Praktikern
0:27:33.790,0:27:39.440
in den Sicherheitsbehörden als überflüssig[br]eingestuft werden. Gleichzeitig gibt es
0:27:39.440,0:27:44.460
aber natürlich auch immer wieder unbefugte[br]Zugriffe auf solche Daten. Wenn Sie den
0:27:44.460,0:27:48.260
Tagen zum Beispiel nochmal von der[br]Berliner Polizei das gelesen haben, wo die
0:27:48.260,0:27:53.710
Löschmoratorien dazu führen, dass seit[br]2013 keine Daten mehr aus den
0:27:53.710,0:27:57.630
polizeilichen Informationssystem genommen[br]werden, selbst wenn sie nur Opfer oder
0:27:57.630,0:28:03.790
Zeuge einer Straftat waren. Und die Daten[br]aber nicht etwa eine Zugriffsbefugnis zum
0:28:03.790,0:28:08.440
Beispiel für einen Untersuchungsausschuss[br]bekommen – Anis Amri oder NSU –, sondern
0:28:08.440,0:28:13.850
weiterhin für alle Polizistinnen und[br]Polizisten zugreifbar bleiben. Zu einem
0:28:13.850,0:28:17.760
Protokollierung stattfindet, man aber[br]nicht einmal begründen muss, warum man
0:28:17.760,0:28:21.600
darauf zugegriffen hat, und man sich dann[br]wundert, dass auf die Daten bestimmter
0:28:21.600,0:28:26.430
Prominenter besonders häufig zugegriffen[br]wird, auf die Daten von Kolleginnen und
0:28:26.430,0:28:32.540
Kollegen oder auch auf Nachbarn von[br]Menschen, die Zugriffsbefugnisse haben.
0:28:32.540,0:28:37.420
Und solange das der Stand ist, wäre das[br]natürlich nicht wichtig, Löschmoratorien
0:28:37.420,0:28:41.810
zu haben, sondern ein Sicherheitsgesetz-[br]Moratorium in diesem Land einzulegen und
0:28:41.810,0:28:46.410
erst mal zu prüfen: Wo sind wir eigentlich[br]übers Ziel hinausgeschossen? Wo gibt es
0:28:46.410,0:28:50.690
andere Mängel zu beseitigen, als laufend[br]Bürgerrechte einzuschränken? Mit der
0:28:50.690,0:28:53.990
Sammlung zusätzlicher Daten über die[br]Bürgerinnen und Bürgern. Das täte
0:28:53.990,0:29:05.290
Bürgerrechten und Sicherheit besser als[br]das nächste Gesetz. — Applaus —Stattdessen
0:29:05.290,0:29:09.081
sollten wir beim Datenschutz nachschärfen[br]Die Datenschutzgrundverordnung ist ein
0:29:09.081,0:29:12.840
großer Wurf, sie hat auch international[br]Strahlkraft, aber sie hat natürlich auch
0:29:12.840,0:29:17.480
ihre Grenzen, wo wir heute schon merken,[br]dass sie technologischen Entwicklungen
0:29:17.480,0:29:22.420
nicht ausreichend gefolgt ist, wo es[br]damals keinen Kompromiss gab und sie immer
0:29:22.420,0:29:26.530
noch auf dem Stand von 1995 ist. Wenn ich[br]jetzt fragen würde, wer 1995 noch gar
0:29:26.530,0:29:30.850
nicht geboren war, würden wahrscheinlich[br]einige Finger hochgehen. Sie können sich
0:29:30.850,0:29:35.420
aber überlegen, was das für ein Stein-[br]zeitalter aus technologischer Sicht ist.
0:29:35.420,0:29:39.340
Wir müssen es auch deswegen machen, weil[br]wir auch Vertrauen in Digitalisierung
0:29:39.340,0:29:44.240
gewinnen müssen. Ich glaube nämlich nicht,[br]dass Daten der Rohstoff des 21.
0:29:44.240,0:29:49.040
Jahrhunderts ist, sondern Vertrauen! In[br]einer so komplexen Welt, wo ich gar nicht
0:29:49.040,0:29:53.550
mehr weiß – Wo werden Daten erhoben, wer[br]verwendet sie und ähnliches mehr? – kann ich
0:29:53.550,0:29:57.210
nicht mir jedes einzelne Produkt, jede[br]einzelne Verbindung überprüfen, sondern
0:29:57.210,0:30:02.841
ich muss ein System haben, in dem ich der[br]Anbieterin oder Anbieter, sei es staatlich
0:30:02.841,0:30:06.827
oder privat, ein Grundvertrauen[br]entgegenbringen kann, weil sie bewiesen
0:30:06.827,0:30:11.100
haben, dass sie bestimmte Standards jedes[br]Mal einhalten, wenn sie hereingehen, weil
0:30:11.100,0:30:16.760
sie unabhängig überprüft werden können und[br]weil sie schwer bestraft werden, wenn sie
0:30:16.760,0:30:21.030
sich an diese Standards dann bei einem[br]Produkt nicht gehalten haben. Wenn wir
0:30:21.030,0:30:25.760
dies nicht machen, wenn wir das nicht[br]machen, hat es zwei Folgen. Es wird sich
0:30:25.760,0:30:31.840
gewehrt werden gegen Digitalisierung, da,[br]wo es möglich ist. Andere werden gar nicht
0:30:31.840,0:30:35.861
hineingehen. Wir wollen weder einen[br]Fatalismus nach dem Motto „Da kannst du
0:30:35.861,0:30:40.080
nichts machen, ich stimme allen zu“. Und[br]auch keine digitale Askese haben. Wir
0:30:40.080,0:30:43.679
möchten, dass Digitalisierung[br]gesellschaftliche Innovation und nicht nur
0:30:43.679,0:30:52.707
technologische Innovation ist. — Applaus[br]Deswegen sind wir unterwegs und möchten in
0:30:52.707,0:30:57.090
den Bereichen von Scoring und Profiling –[br]das sind ja die Schwestern des Trackings;
0:30:57.090,0:31:02.320
Ich versuche, Leute einzuordnen, zu[br]kategorisieren, statistisch in Gruppen
0:31:02.320,0:31:07.870
einzuteilen –; Da brauchen wir klare[br]Nachschärfungen. Und wir wollen natürlich
0:31:07.870,0:31:13.450
gerade den kleinen Unternehmern und den[br]Start-Ups und den Einzel-EntwicklerInnen
0:31:13.450,0:31:17.387
und -Entwicklern Erleichterungen im[br]Bereich der Informations- und
0:31:17.387,0:31:21.380
Dokumentationspflichten verschaffen. Da[br]glaube ich durchaus, kann man an einigen
0:31:21.380,0:31:25.770
Stellen zurückdrehen, wenn man dafür an[br]anderen Stellen das Datenschutzniveau
0:31:25.770,0:31:32.610
durchaus höher wertet. Wir versuchen zu[br]helfen, über Guidelines und Auslegungs-
0:31:32.610,0:31:38.020
Papiere, die wir heranziehen. Wir würden[br]aber gerne eins machen. Derzeit ist immer
0:31:38.020,0:31:42.810
Verantwortlicher im Sinne des[br]Datenschutzrechts die Person, die ein
0:31:42.810,0:31:48.390
System gegenüber Bürgerinnen und Bürgern,[br]Kundinnen und Kunden zum Einsatz bringt.
0:31:48.390,0:31:53.690
Ich glaube, dass wir die Herstellerinnen[br]und Hersteller von Systemen stärker in die
0:31:53.690,0:31:57.460
Verantwortung nehmen müssen und nicht nur[br]wegen Debatten, die Sie hier auf ihrem
0:31:57.460,0:32:01.799
Kongress selber in den letzten Tagen ja[br]geführt haben, und interessanten
0:32:01.799,0:32:06.990
investigativen Dokumenten, die Sie[br]veröffentlicht haben, sondern nur dann ist
0:32:06.990,0:32:10.630
das möglich. Ich habe hier nur kurz[br]gestanden und bin wieder auf die üblichen
0:32:10.630,0:32:16.320
Probleme angesprochen worden. Wie ist es[br]mit dem Einsatz von Windows 10 in meiner
0:32:16.320,0:32:20.549
Rechtsanwaltskanzlei, in meiner Behörde in[br]ähnlichem mehr? Und dann immer zu sagen,
0:32:20.549,0:32:23.660
„Ja derjenige der es einsetzt ist der[br]Verantwortliche im Sinne des
0:32:23.660,0:32:27.380
Datenschutzrechts“ ist, glaube ich bei[br]immer komplexer werdenden Systemen, bei
0:32:27.380,0:32:32.580
der Verabschiedung von der On-Premise-World[br]einfach zu kurz gesprungen und muss sich
0:32:32.580,0:32:36.440
technisch an der Stelle durchaus weiter[br]bewegen. Es gibt also eine ganze Menge zu
0:32:36.440,0:32:42.110
tun. Der Deutsche Bundestag hat uns[br]freundlicherweise eine deutliche
0:32:42.110,0:32:46.370
Aufstockung an Stellen gegeben. Vielen[br]Dank an die anwesenden
0:32:46.370,0:32:50.140
Bundestagsabgeordneten, damit wir ein[br]Stück noch mehr machen können. Sehr viel
0:32:50.140,0:32:54.800
werden wir in der Tat in den[br]Sicherheitsbereich investieren. Wir
0:32:54.800,0:32:59.980
stellen übrigens auch ein und deswegen an[br]alle, die im Saal sind: Wir brauchen Sie
0:32:59.980,0:33:04.730
als Unterstützerin und Unterstützer in der[br]Sache. Wir brauchen Sie als konstruktive
0:33:04.730,0:33:10.730
KritikerInnen und Kritiker. Wir brauchen[br]Sie als Beispielgeber und Beispielgeberinnen
0:33:10.730,0:33:16.840
für datenschutzfreundliche, innovative[br]Technologien. Und wir würden auch gerne
0:33:16.840,0:33:21.390
viele von Ihnen als Mitarbeiterinnen und[br]Mitarbeiter gewinnen. Es ist schön auf der
0:33:21.390,0:33:25.910
hellen Seite der Macht – kommen Sie zum[br]BfDI! Vielen Dank für das Interesse bis zu
0:33:25.910,0:33:28.650
dem Zeitpunkt. Ich freue mich[br]noch auf die Diskussion.
0:33:28.650,0:33:38.960
Applaus
0:33:38.960,0:33:51.580
Herald: So, wenn ihr Fragen habt, dann[br]stellt euch bitte an die Mikrofone hier im
0:33:51.580,0:33:56.260
Saal und versucht eure Fragen kurz zu[br]formulieren. Frage Nummer 1 geht an den
0:33:56.260,0:33:59.630
Signalangel.[br]Signalengel: Hier eine Frage von
0:33:59.630,0:34:04.760
Mastodon: Nach dir hält auch Arne[br]Semsrott von Frag den Staat seinen Talk.
0:34:04.760,0:34:09.850
Du bist ja auch[br]Informationsfreiheitbeauftragter. Hast du
0:34:09.850,0:34:14.540
eine Erklärung, warum Ministerien und[br]Behörden, die selber immer mehr Befugnisse
0:34:14.540,0:34:20.770
fordern, so unwillig sind, selber diese[br]öffentliche Daten auch preiszugeben?
0:34:20.770,0:34:28.070
Kelber : Nein. — Lachen, vereinzelt Applaus[br]Und selbst dann, wenn sie gute Beispiele
0:34:28.070,0:34:31.869
haben. Als wir damals im Justizministerium[br]2013 als neue Mannschaft angefangen
0:34:31.869,0:34:37.020
hatten, haben wir uns nach ein paar Wochen[br]entschieden, dass wir alle Stellungnahmen,
0:34:37.020,0:34:40.760
die im Rahmen zu Gesetzentwürfen ans[br]Ministerium geschickt werden – ist ja Teil
0:34:40.760,0:34:45.149
der Gesetzgebung, dass man dann sagt,[br]jetzt hätten wir gerne Kommentierungen von
0:34:45.149,0:34:50.780
Verbänden, Organisationen und anderen –[br]dass die alle öffentlich gemacht werden.
0:34:50.780,0:34:58.460
Es ist keine einzige weniger reingekommen,[br]aber jeder kann nachprüfen: Von wem sind
0:34:58.460,0:35:02.600
welche Anregungen zwischen Gesetzentwurf[br]und endgültigem Gesetz eingeflossen oder
0:35:02.600,0:35:06.300
nicht. Das ist das, was ich als[br]Vertrauensbildung meine. Es haben
0:35:06.300,0:35:10.120
teilweise einige übernommen, nachdem sie[br]vor Gericht dazu gezwungen wurden, haben
0:35:10.120,0:35:13.880
das wieder eingestellt. Jetzt machen Sie[br]es wieder. In der Tat kann
0:35:13.880,0:35:18.430
Informationsfreiheit für eine[br]Behördenleitung auch extrem ätzend sein.
0:35:18.430,0:35:22.290
Und zwar nicht, weil irgendwas[br]Unangenehmes nachher veröffentlich wird.
0:35:22.290,0:35:27.630
Dann muss man halt aufpassen, dass man[br]in den Kommentaren, die man auf
0:35:27.630,0:35:31.830
was drauf schreibt in der Wortwahl[br]gemäßigt bleibt. Also schreibe ich nicht
0:35:31.830,0:35:36.970
drauf. „Der Idiot“ oder so, sondern schreibe[br]ich „Ich bin nicht dieser Meinung“. Aber es
0:35:36.970,0:35:42.260
kann natürlich unglaublich viel Arbeit[br]sein. Ich ärgere mich auch; ich bekomm irgendeine
0:35:42.260,0:35:47.020
Beschwerde ins Haus. Nach zwei Wochen[br]stellt einer einen Informationsfreiheitsantrag
0:35:47.020,0:35:50.750
alle E-Mails, die zu der Beschwerde in[br]unserem Haus geflossen sind, zu sehen.
0:35:50.750,0:35:54.870
Dann schreiben wir ihm als Zwischengeschichte[br]auch noch zusätzlich zurück. Jetzt haben
0:35:54.870,0:35:58.140
wir die Stelle um Stellungnahme gebeten.[br]Dann kriegen wir sofort
0:35:58.140,0:36:02.020
Informationsfreiheitantrag, den gesamten[br]E-Mail-Verkehr mit der Stelle zu bekommen
0:36:02.020,0:36:05.869
und am Ende anstatt 10 Beschwerden[br]bearbeiten zu können, sind wir mit einer
0:36:05.869,0:36:10.370
Person beschäftigt. Das ärgert einen. Wir[br]sind natürlich die Guten. Da wir die
0:36:10.370,0:36:14.440
Informationsfreiheit haben, machen wir[br]natürlich gerne mit Freude. Aber wenn ich
0:36:14.440,0:36:18.420
zu ’ner Ministerin oder Minister gehe, die[br]kennen alle nur wieviele Leute werden
0:36:18.420,0:36:23.630
abgezogen, um auch seltsame[br]Informationsfreiheitsgeschichten zu
0:36:23.630,0:36:29.280
machen? Ich stoße dort auf wenige Fans. Zu[br]glauben, dass wir in absehbarer Zukunft
0:36:29.280,0:36:31.750
auf Bundesebene eine deutliche[br]Verbesserung des
0:36:31.750,0:36:35.050
Informationsfreiheitsgesetz sehen,[br]bezweifle ich. Da ist noch viel
0:36:35.050,0:36:39.230
Überzeugungsarbeit zu leisten.[br]Herald: Mikrofon Nr. 4. Deine Frage
0:36:39.230,0:36:42.360
bitte.[br]Frage: Herr Kelber, es ist Ihre Aufgabe,
0:36:42.360,0:36:46.260
die Geheimdienste und Sicherheitsbehörden[br]zu kontrollieren und den Datenschutz auch
0:36:46.260,0:36:50.710
dort. Sind Sie der Meinung, dass Sie das[br]effektiv tun können und ausreichend
0:36:50.710,0:36:54.180
Fähigkeiten und Befugnisse haben?[br]Und wenn nein, was fehlt?
0:36:54.180,0:37:00.730
Kelber: Die Kontrolle im Bereich der[br]Erhebung und Verarbeitung von Daten in dem
0:37:00.730,0:37:05.340
gesamten restlichen Bereich? Ich glaube,[br]mit den zusätzlichen Stellen, wenn wir sie
0:37:05.340,0:37:09.740
besetzt haben, haben wir durchaus erst[br]einmal Ressourcen, um auch die
0:37:09.740,0:37:15.122
Kontrolldichte hochzuhalten. Wir werden[br]selber arbeiten müssen bei der Überlegung,
0:37:15.122,0:37:19.130
wie technologische Veränderungen und auch[br]Veränderungen in den Informationssystemen
0:37:19.130,0:37:23.741
der Dienste unsere Kontrolltätigkeit[br]gegenüber früher verändern. Aber das ist
0:37:23.741,0:37:28.740
natürlich ganz was anderes. Ist Zugriff auf[br]eine sequentielle Datenbank mit einem
0:37:28.740,0:37:35.080
Gothemsystem vom Palantier, wenn es zum[br]Einsatz käme, was in der Kontrolle in dem
0:37:35.080,0:37:41.000
Unterschied ist, in der Zusammenarbeit der[br]Dienste untereinander mit dem Ausland,
0:37:41.000,0:37:45.960
gibt es aus meiner Sicht durchaus[br]Kontrolllücken. Da versuchen wir auch, mit
0:37:45.960,0:37:52.290
den anderen Aufsichtsgremien wie der[br]G-10-Kommission und der unabhängigen
0:37:52.290,0:37:58.530
Gruppe im Kontakt zu sein. Und ich hätte[br]gerne natürlich … also in der Joint Implementation
0:37:58.530,0:38:03.400
Richtlinie, die ich vorhin erwähnt hatte,[br]ja, für den Staatsbereich gilt. Die ist ja
0:38:03.400,0:38:07.120
in Deutschland auch nach 3 Jahren noch[br]nicht vollständig umgesetzt. Im Bereich
0:38:07.120,0:38:11.690
des BKA haben wir Untersagungsrechte.[br]Die müssten wir im
0:38:11.690,0:38:15.410
Bereich der Bundespolizei auch haben. Die[br]hat man noch nicht eingerichtet als
0:38:15.410,0:38:20.470
Gesetzgeber. Das ist ein Verstoß gegen[br]Europarecht in Deutschland. Wo es nicht
0:38:20.470,0:38:23.780
vorgeschrieben wird durch Europarecht,[br]aber sinnvoll wäre, wäre diese
0:38:23.780,0:38:27.490
Untersagungsrechte auch für die Dienste zu[br]haben. Das würde dann nicht nach dem
0:38:27.490,0:38:31.360
Motto, Ich sage dann „aber die waren jetzt[br]ganz gemein, haben sich nicht ans Recht
0:38:31.360,0:38:35.170
gehalten“, sondern ich könnte dann in[br]einem besonderen Fall in Zukunft
0:38:35.170,0:38:39.960
untersagen die Nutzung von Daten oder die[br]Löschung anweisen. Und der Dienst müsste
0:38:39.960,0:38:46.340
vor Gericht gehen und müsste vor Gericht[br]meine Anweisung widerrufen lassen. Ich
0:38:46.340,0:38:50.200
glaube, das wäre der bessere Weg für die[br]Aufsicht und würde auch mehr Verständnis
0:38:50.200,0:38:54.600
für die Arbeit der Dienste wecken. Aber[br]auch dafür gibt es noch keine Mehrheit
0:38:54.600,0:38:59.290
beim Gesetzgeber.[br]Herald: Mikrofon Nr. 2. Deine Frage
0:38:59.290,0:39:02.900
bitte.[br]Frage: Sie haben gesagt, dass wir ein
0:39:02.900,0:39:07.290
gewisses Maß an Digital Literacy brauchen,[br]um der Probleme Herr werden zu können. Ich
0:39:07.290,0:39:10.670
sehe gerade das Problem, dass wir[br]politisch eher in die entgegengesetzte
0:39:10.670,0:39:15.280
Richtung steuern, primär weil kommunal[br]z. B. Meldedaten verkauft werden und die
0:39:15.280,0:39:18.820
Bundesregierung auch eher rhetorisch[br]so eine … ökonomisch orientierte Linie
0:39:18.820,0:39:24.910
fährt. Wie werden wir dieser Sache Herr?[br]Kelber: Ich meinte ja mit dem Begriff
0:39:24.910,0:39:31.050
Digital Literacy, dass die Leute ein[br]Grundverständnis für digitale Vorgänge
0:39:31.050,0:39:35.570
haben. Was passiert? Was passiert mit[br]Daten? Wie funktionieren IT-Systeme?
0:39:35.570,0:39:39.720
Algorithmische Systeme? Das wird[br]übrigens—der Teil ist sicherlich auch
0:39:39.720,0:39:44.470
eine Aufgabe von Schulen und[br]Bildungsinstitutionen. Da aber 80 Prozent
0:39:44.470,0:39:49.119
der Bevölkerung die Schulzeit hinter sich[br]haben und mehr, werden wir sie auch über
0:39:49.119,0:39:54.970
andere Wege erreichen müssen. Dazu gehören[br]übrigens auch in den Informationspflichten
0:39:54.970,0:39:58.590
in der Datenverarbeitung nicht mehr „Ich[br]mache eine super lange Information“,
0:39:58.590,0:40:03.650
sondern ich muss an einer Stelle, wo etwas[br]passiert, eine leichte Erläuterung des
0:40:03.650,0:40:07.490
Vorgangs haben, damit die Menschen[br]tatsächlich mit dem Vorgang, den sie
0:40:07.490,0:40:11.799
machen, ein Verständnis entwickeln können.[br]Was Sie meinen, ist ja die Frage, wie ist
0:40:11.799,0:40:15.761
eigentlich die Souveränität? Wie kann ich[br]wenigstens wissen, was passiert? Was darf
0:40:15.761,0:40:20.970
der Staat machen? Schaffen die gesetzliche[br]Grundlage für die Weitergabe von Daten
0:40:20.970,0:40:24.420
einfach nur, weil sie davon ausgehen, dass[br]sie nicht genügend freiwillige
0:40:24.420,0:40:28.460
Einverständnisses bekommen. Da muss sich[br]der Gesetzgeber zurückhalten. Er sollte bei
0:40:28.460,0:40:32.832
den gesetzlichen Grundlagen trotzdem ’ne[br]Verhältnismäßigkeit bewahren. Ist übrigens
0:40:32.832,0:40:36.660
auch etwas, was wir natürlich in unseren[br]Stellungnahmen immer mitprüfen und was
0:40:36.660,0:40:41.510
auch vor Gericht angegriffen wird von[br]Nichtregierungsorganisationen. Das zweite
0:40:41.510,0:40:45.270
ist, das war das, was ich vorhin meinte[br]technische Maßnahmen, die den Bürger auf
0:40:45.270,0:40:48.230
einen höheren Stand nehmen.[br]Wenn wir jetzt wirklich mal an eine
0:40:48.230,0:40:51.870
Registermodernisierung in Deutschland[br]herantreten, bitte bitte nicht – weil es
0:40:51.870,0:40:56.150
aus meiner Sicht verfassungswidrig ist –[br]mit einem einheitlichen Identifier. Kann man
0:40:56.150,0:41:00.190
auch anders machen. Aber dann wäre[br]wirklich mal ein Datencockpit, wo
0:41:00.190,0:41:04.140
Bürgerinnen und Bürger sehen, zumindest[br]mal vielleicht außerhalb der unmittelbaren
0:41:04.140,0:41:08.190
Sicherheitsdienste schon mal sehen können:[br]Wer hat welche Daten, wer hat sie
0:41:08.190,0:41:12.990
abgerufen und mit wem geteilt? Von allen[br]staatlichen Registerstellen. Das kann man
0:41:12.990,0:41:18.690
heute technisch herstellen, und das wäre[br]dann auch ein Gebot, dass der Bürgerinnen
0:41:18.690,0:41:22.640
und Bürger etwas davon haben, wenn der[br]Staat seine IT-Systeme modernisiert.
0:41:22.640,0:41:29.360
Applaus[br]Herald: Mikrofon Nummer 8 Deine Frage
0:41:29.360,0:41:31.641
bitte.[br]Frage: Sie haben ja vorhin gesagt, dass
0:41:31.641,0:41:37.510
ein möglicher Weg zu sichereren oder[br]datenschutzfreundlicheren IT-Produkten
0:41:37.510,0:41:44.619
die Standardisierung und Zertifizierung[br]sein könnte. Was konkret ist denn da schon
0:41:44.619,0:41:50.390
in der Entwicklung? Auf was können wir uns[br]einrichten? Es gibt ja die ISO 27001,
0:41:50.390,0:41:55.600
aber da ist der Datenschutz eher ein[br]optionales Randthema. Und, genau,
0:41:55.600,0:41:58.880
was kommt jetzt konkret?[br]Kelber: Bei der Standardisierung sind wir
0:41:58.880,0:42:03.320
glaube ich noch nicht sehr weit. Aber wir[br]werden für die Entwicklungsmodelle gerade
0:42:03.320,0:42:07.710
im Bereich algorithmischer Systeme und KI-[br]Systeme, denke ich, nochmal für erweiterte
0:42:07.710,0:42:11.440
Standardisierung brauchen, mit der ich[br]wenigstens Modelle habe, wie ich in der
0:42:11.440,0:42:14.700
Entwicklung bestimmte Dinge[br]berücksichtige. Wann mache ich welche
0:42:14.700,0:42:18.580
Folgenabschätzungen? Wie steht die[br]Zurverfügungstellung von Daten aus? Wie
0:42:18.580,0:42:23.380
sieht die Kontrolle von Datenqualität aus,[br]und und und. Bei der Zertifizierung sind
0:42:23.380,0:42:27.700
wir ein Stückchen weiter. Ich spreche jetzt[br]bewusst nicht von Siegeln wie in dieser
0:42:27.700,0:42:31.530
Debatte über das IT-Siegel, das ja dann[br]logischerweise, wenn es ein Siegel sein
0:42:31.530,0:42:38.040
soll, auch weit über gesetzliche Vorgaben[br]hinausgehen müsste, sondern dass wir
0:42:38.040,0:42:42.790
ermöglichen, dass man, wenn man ein[br]Produkt hat, sich durch eine
0:42:42.790,0:42:47.340
Zertifizierungsstelle, die beliehen ist,[br]zertifizieren lassen kann, dass man damit
0:42:47.340,0:42:51.690
die Anforderungen des Gesetzes eingehalten[br]hat. Das heißt, der nächste, der es
0:42:51.690,0:42:55.869
einsetzt, bekommt das Siegel. Wenn ich das[br]wie vorgeschrieben einsetze, dann ist
0:42:55.869,0:43:00.620
dieser Bestandteil DSGVO-konform, und[br]ich muss mir bei dem, was ich add-on mache,
0:43:00.620,0:43:04.790
bin ich dann der Verantwortliche. Da sind[br]wir jetzt so weit, dass der Europäische
0:43:04.790,0:43:09.110
Datenschutzausschuss seine Guideline[br]verabschiedet hat. Danach haben Sie
0:43:09.110,0:43:12.790
erlaubt, dass die Nationalstaaten ihre[br]einbringen. Das haben wir im nächsten
0:43:12.790,0:43:16.245
Monat gemacht. Ich hoffe, dass wir[br]spätestens im Februar die Genehmigung
0:43:16.245,0:43:19.180
durch den europäischen[br]Datenschutzausschuss für die deutsche
0:43:19.180,0:43:23.820
Variante bekommen. Dann dürften in diesem[br]Jahr noch die ersten Akkreditierungen,
0:43:23.820,0:43:28.540
ersten Zertifizierer, durch die deutsche[br]Akkreditierungsstelle zugelassen werden.
0:43:28.540,0:43:35.170
Ich erwarte, dass zum Beispiel im[br]Bereich der Cloud-Dienste ein solcher
0:43:35.170,0:43:39.810
Zertifizierer an den Start geht.[br]Herald: Mikrofon Nummer 1,
0:43:39.810,0:43:43.360
deine Frage bitte.[br]Frage: Vielen Dank für den Vortrag, auch
0:43:43.360,0:43:47.709
dass Sie hier auf dem Kongress sind. Ja,[br]ich bin seit einiger Zeit verantwortlich
0:43:47.709,0:43:50.310
in IT-Management-Positionen …[br]Herald: Bitte die Frage!
0:43:50.310,0:43:54.420
Frage: … und auch da[br]implementierte ich natürlich sehr viele
0:43:54.420,0:43:58.580
Datenschutzmaßnahmen. Sie haben es kurz[br]angesprochen. Mich würde interessieren,
0:43:58.580,0:44:03.070
wann wir auch mal Ergebnisse sehen im[br]Bereich der großen Internetkonzerne –
0:44:03.070,0:44:07.530
Google, Facebook, Amazon und so weiter,[br]ob dann auch mal vielleicht Bußgelder etc.
0:44:07.530,0:44:12.370
auch an diese großen[br]Unternehmen zugeteilt werden.
0:44:12.370,0:44:17.200
Kelber: Der Druck natürlich auf die Ba…[br]Ich habe ja vor allem zwei nationale
0:44:17.200,0:44:22.950
Datenschutzbehörden genannt, die die[br]Zuständigkeit haben für besonders viele
0:44:22.950,0:44:28.210
der großen Internetkonzerne. Ganz kurzer[br]Exkurs europäisches Datenschutzrecht,
0:44:28.210,0:44:32.560
sogenannter One-Stop-Shop. Die nationale[br]Behörde, in der der Hauptsitz innerhalb
0:44:32.560,0:44:37.630
der Europäischen Union ist, ist zuständig.[br]Das heißt, bei den Großen wie Google und
0:44:37.630,0:44:45.000
Facebook und Microsoft und Apple ist das[br]z. B. Irland. Bei Amazon ist es Luxemburg
0:44:45.000,0:44:50.830
als ein Beispiel. Und das sind[br]natürlich erstens relativ kleine
0:44:50.830,0:44:56.740
Datenschutzbehörden. Sie haben einen[br]besonders wirtschaftsfreundliches
0:44:56.740,0:45:01.260
Verwaltungsrecht,—vereinzelt Applaus—[br]… Ja, es sind besonders hohe
0:45:01.260,0:45:05.650
Vorgaben dran, was man alles tun muss,[br]bevor man überhaupt einen Bescheid
0:45:05.650,0:45:10.500
herausgeben darf. Wenn meine irische[br]Kollegin so über Fälle sprechen würde, wie
0:45:10.500,0:45:14.220
ich das in Deutschland mache, würde sie[br]sofort vor Gericht scheitern. Weil dann
0:45:14.220,0:45:17.270
würde der Richter sagen „Sie waren[br]voreingenommen in der gesamten
0:45:17.270,0:45:21.139
Betrachtung“, völlig egal, ob sie selber[br]die Untersuchung gemacht hat oder jemand
0:45:21.139,0:45:25.720
anderes. Trotzdem haben wir gesagt, es[br]sind jetzt über 600 Tage, und wir wollen
0:45:25.720,0:45:29.290
zu sehr offensichtlichen Datenschutz-[br]Verstößen jetzt den Vorschlag der Iren
0:45:29.290,0:45:33.140
und der Luxemburger auf den Tisch kriegen.[br]Und dann schauen wir anderen uns an, ob
0:45:33.140,0:45:36.950
wir der gleichen Meinung sind. Und wenn[br]wir nicht der gleichen Meinung sind, dann
0:45:36.950,0:45:40.460
wird mit Mehrheit im Europäischen[br]Datenschutzausschuss darüber abgestimmt,
0:45:40.460,0:45:45.470
wie die Sicht der europäischen[br]Datenschutzbehörden sind. Und das ist dann
0:45:45.470,0:45:51.340
der erlassene Bescheid. Das heißt, die[br]Gefahr, dass wie in Deutschland das
0:45:51.340,0:45:55.860
Kraftfahrzeugbundesamt einfach alleine[br]entscheidet, entsteht am Ende im
0:45:55.860,0:45:59.240
Datenschutz nicht. Da können dann die[br]anderen Kraftfahrzeugsbehörden das
0:45:59.240,0:46:02.951
Kraftfahrzeugbundesamt bei Dieselgate[br]überstimmen. Das wäre doch schön, wenn es
0:46:02.951,0:46:06.870
da auch gegeben hätte. Aber es dauert[br]halt. Ich habe jetzt den Iren angeboten, dass
0:46:06.870,0:46:11.740
sie uns mal einen Fall abtreten dürfen.[br]Wir haben auch Fälle vorgeschlagen. Bisher
0:46:11.740,0:46:17.459
ist das noch nicht beantwortet worden. Der[br]irische Staat hat nur einen minimalen
0:46:17.459,0:46:20.980
Aufwuchs in diesem Jahr wiedergegeben[br]der Datenschutzbehörde. Die ist schon
0:46:20.980,0:46:24.420
gewachsen in den letzten Jahren nur ein[br]Viertel von dem, was die Kollegin
0:46:24.420,0:46:28.890
beantragt hatte. Und das ist ein Staat …[br]es ging um 5 Millionen Euro im Jahr. Der
0:46:28.890,0:46:33.140
gleiche Staat, der im Augenblick vor[br]Gerichten, versucht zu verhindern, dass
0:46:33.140,0:46:37.420
Apple ihm 14 Milliarden Euro Steuern bezahlen[br]muss. Da merken Sie, was der Gedanke
0:46:37.420,0:46:41.350
dahinter ist. Ich habe bewusst Dieselgate[br]verwendet, um deutlich zu machen: Das ist
0:46:41.350,0:46:44.690
ja auch den Nationalstaaten in der[br]Europäischen Union nicht fremd, sich
0:46:44.690,0:46:48.450
schützend vor einen Wirtschaftszweig zu[br]stellen. Aber das dürfen wir ihm einfach
0:46:48.450,0:46:52.360
nicht durchgehen lassen. Aber wann es[br]soweit ist, kann ich Ihnen noch nicht sagen.
0:46:52.360,0:46:56.840
Applaus[br]Herald: Signal-Angel, die nächste Frage
0:46:56.840,0:47:01.180
aus dem Internet bitte.[br]Frage: Woran scheitert es, dass
0:47:01.180,0:47:05.480
Datensparsamkeit so wenig Gehör in der[br]Politik stößt? Und wie können wir Hacker
0:47:05.480,0:47:10.020
dabei helfen, abseits davon[br]für Sie zu arbeiten? —vereinzelt Lachen
0:47:10.020,0:47:16.710
Kelber: Ich glaube, erst einmal hat es[br]eine erfolgreiche Lobbyarbeit darin
0:47:16.710,0:47:23.060
gegeben, Menschen an führenden Stellen[br]in der Politik zu verstehen zu geben,
0:47:23.060,0:47:28.820
Datensparsamkeit sei Datenarmut. Man müsse[br]wichtige Daten wegschmeißen. Damit würden
0:47:28.820,0:47:33.130
wir mit USA und China nie mehr[br]gleichziehen können. Dieser einfache
0:47:33.130,0:47:37.950
Dreisatz ist denen in die Köpfe implementiert[br]worden. Deswegen – habe ich tatsächlich auf
0:47:37.950,0:47:41.740
dem Digitalgipfel erlebt – wie einen Monat[br]bevor europäisches Recht ist, mit den
0:47:41.740,0:47:45.810
Stimmen Deutschlands beschlossen[br]wurde, endgültig wirksam wurde:
0:47:45.810,0:47:50.210
Datenschutzgrundverordnung, die[br]Bundeskanzlerin sich hinstellt und sagt:
0:47:50.210,0:47:54.160
„Wir müssen das Prinzip der[br]Datensparsamkeit aufgeben“. Das aber später
0:47:54.160,0:47:58.000
bindendes europäisches Recht wurde, vorher[br]bindendes deutsches Recht war. Das ist
0:47:58.000,0:48:04.411
schon etwas, was man selten erlebt an dem[br]Punkt. Da werden wir ein ganzes Stück für
0:48:04.411,0:48:09.820
werben müssen, dass das einfach nicht wahr[br]ist. Wenn wir aber auch einfache Narrative
0:48:09.820,0:48:14.599
gemeinsam entwickeln müssen, die ähnlich[br]aufzuführen. Ich finde ja so ein
0:48:14.599,0:48:18.840
Narrativ wie „dich gehen Daten nichts an,[br]die nichts mit einer Dienstleistung zu tun
0:48:18.840,0:48:23.190
haben“, ist so eine einfach, weil das ist[br]eine Werteentscheidung, die ich treffe. Und
0:48:23.190,0:48:27.089
solche Werteentscheidungen haben wir oft[br]getroffen. Klar wird es für Deutschland
0:48:27.089,0:48:30.340
wirtschaftlich attraktiver,[br]Kohlekraftwerke mit Kindern zu betreiben,
0:48:30.340,0:48:34.200
weil dann könnte man die Stollen kleiner[br]machen. Dann können wir gleich wieder mit
0:48:34.200,0:48:38.150
Preisen aus Kolumbien mithalten. Haben wir[br]uns aber aus Wertegründen entschieden, es
0:48:38.150,0:48:41.930
nicht zu tun. Dasselbe sollten wir auch[br]mit Daten machen, die unsere Grundrechte
0:48:41.930,0:48:48.650
beeinflussen.[br]Applaus
0:48:48.650,0:48:51.940
Herald: Mikrofon Nummer 4,[br]deine Frage bitte.
0:48:51.940,0:48:57.140
Frage: Herr Kelber, Sie haben ja selber[br]gesagt, dass Gesetze oftmals noch nicht
0:48:57.140,0:49:01.268
reichen. Mir persönlich geht es auch so,[br]dass ich das Gefühl habe, zum Beispiel die
0:49:01.268,0:49:05.110
Datenschutzgrundverordnung ist manchmal[br]ein bisschen zahnlos, und meine Frage an
0:49:05.110,0:49:08.891
Sie ist: Welche Handlungsalternativen[br]sehen Sie da? Wie sieht es aus z. B. mit
0:49:08.891,0:49:13.358
Bereitstellung von alternativer[br]Infrastruktur? Gerade zu Cloud, großen
0:49:13.358,0:49:17.080
Cloud-Anbietern zum Beispiel. Wie sieht es[br]aus mit Förderungen für Open-Source-
0:49:17.080,0:49:21.081
Software für Projekte, die z. B. auch[br]irgendwie grün unterwegs sind,
0:49:21.081,0:49:24.910
Daten schützen, wie auch immer. Was gibt’s[br]da für Möglichkeiten in der Politik?
0:49:24.910,0:49:29.320
Kelber: Ich glaube, man sollte nicht das[br]eine lassen und das andere unterschätzen
0:49:29.320,0:49:34.070
und das dritte dann nicht machen. Ich bin[br]für die Förderung vor allem dort, wo ich
0:49:34.070,0:49:39.379
glaube, mit der Förderung – das ist ja dann[br]mein Job – Verbesserungen für die Datenschutz-
0:49:39.379,0:49:43.610
Situation herbeizuführen. Das war das Beispiel[br]mit den Messengersystemen, weil die
0:49:43.610,0:49:46.950
natürlich welche sind, wo ganz[br]besonders viele relevante sensible Daten
0:49:46.950,0:49:52.860
abgegriffen werden. Da bin ich in eine[br]Monopolsituation reingekommen, die ich
0:49:52.860,0:49:56.720
nur noch mit Krafft aufbrechen kann.[br]Das eine wäre, diese Frage der
0:49:56.720,0:50:01.790
Interoperabilität zu erzwingen, wenn[br]allein ein Drittel der Sprachnachrichten
0:50:01.790,0:50:05.910
heutzutage über Messengersysteme, nicht[br]mehr über Handy oder Festnetz geht, da
0:50:05.910,0:50:09.590
müssen sie auch die gleichen Pflichten[br]erfüllen wie die anderen. Das ist z. B.
0:50:09.590,0:50:16.080
Interoperabilität. Ich glaube aber, und[br]deswegen werbe ich dafür. Und der Chef des
0:50:16.080,0:50:19.860
Bundesamtes für die Sicherheit in der[br]Informationstechnik hat ja ähnliches schon
0:50:19.860,0:50:23.360
mal verlautbaren lassen. Ich glaube[br]tatsächlich, wir sollten ein Messenger
0:50:23.360,0:50:27.280
System als deutsche Verwaltung – am besten[br]die gesamte, aber ansonsten muss der Bund
0:50:27.280,0:50:31.440
eben anfangen – anbieten für Bürgerinnen[br]und Bürger. Aber eins, das datenschutz-
0:50:31.440,0:50:35.740
freundlich ist. Und da, glaube ich, gehe[br]das tatsächlich nur auf der Open Source
0:50:35.740,0:50:40.970
Software Basis. Und wenn unser großer[br]Nachbarstaat es auf einer solchen Basis
0:50:40.970,0:50:45.440
macht – Matrix – sich dann anzuschauen,[br]sind das die gleichen Bedingungen, die die
0:50:45.440,0:50:49.720
Franzosen haben und dann noch mehr[br]Schlagkraft reinzubringen. Ich verstehe
0:50:49.720,0:50:54.550
das ja manchmal im privaten Umfeld nicht.[br]Dass Menschen, die 15 verschiedene
0:50:54.550,0:51:03.270
Leih-Fahrräder und -Elektroscooter-[br]Anwendungen auf ihrem Gerät haben, nicht
0:51:03.270,0:51:08.990
in der Lage sein wollen, einen zweiten[br]Messenger zu installieren, mit dem sie mir
0:51:08.990,0:51:13.300
ohne Daten abgreifen, mit mir[br]kommunizieren können, da ist irgendwie
0:51:13.300,0:51:20.700
eine Denkblockade. — Applaus[br]Herald: Mikrofon Nummer 2 bitte.
0:51:20.700,0:51:25.640
Frage: Wie sensibilisiert man den[br]durchschnittlichen nicht-IT-affinen Bürger
0:51:25.640,0:51:29.680
und Politiker für sein eigenes[br]Interesse an Datenschutz?
0:51:29.680,0:51:35.320
Kelber: Ansprechen! Die wollen auch[br]angesprochen werden. Den Bürgerinnen
0:51:35.320,0:51:38.891
und Bürgern muss man es wahrscheinlich …[br]Politikerinnen und Politiker wollen
0:51:38.891,0:51:43.390
angesprochen werden, auch die nicht-[br]Netzpolitiker, nicht die Digital-
0:51:43.390,0:51:48.590
Politikerinnen und -Politiker. Bei[br]Bürgerinnen und Bürgern wird man
0:51:48.590,0:51:52.640
vielleicht auch neben dem jährlichen[br]Skandal, nachdem es mal ein kurzes
0:51:52.640,0:51:57.500
Interesse gibt, das nicht immer sich im[br]Handeln ausprägt, wird man das auf eine
0:51:57.500,0:52:01.640
Art und Weise machen müssen, dass sie[br]Bilder erkennen, dass sie in einfachen
0:52:01.640,0:52:05.520
Systemen machen. Was meistens[br]funktioniert, wenn ich in Gruppen rede,
0:52:05.520,0:52:10.859
die keine Vorbildung haben, ist ihnen zu[br]verdeutlichen, was das, was im digitalen
0:52:10.859,0:52:15.440
Bereich gerade passiert, in ihrer[br]gewohnten analogen Welt bedeuten würde.
0:52:15.440,0:52:19.370
Wenn ich denen dann erzähle mit Tracking:[br]Stell dir mal vor, du gehst in die Bonner
0:52:19.370,0:52:23.369
Fußgängerzone und in dem Augenblick, wenn[br]du sie betrittst, beginnt einer, hinter dir
0:52:23.369,0:52:26.959
herzulaufen, der schreibt auf, an[br]welchen Geschäften du stehenbleibst, mit
0:52:26.959,0:52:31.040
wem du dich unterhälst. Der bietet dir[br]irgendwann Kaffee an. Kostenlos. Wenn ihr
0:52:31.040,0:52:35.130
nach dem Becher greift, sagt er aber „Ich[br]will erstmal gucken, wer waren denn die
0:52:35.130,0:52:38.960
letzten fünf Leute, die sie getroffen[br]haben.“ Wenn es verboten würde,
0:52:38.960,0:52:43.100
Briefumschläge zu verwenden, alles nur[br]noch auf Postkarten geschrieben werden
0:52:43.100,0:52:47.970
dürfte. Wenn Sie es so übertragen in die[br]Welt, die die kennen. Dann wird der ein
0:52:47.970,0:52:58.480
oder andere auch wach. — Applaus — Als ich[br]noch Parteipolitiker war, habe ich mir
0:52:58.480,0:53:03.170
immer mal vorgenommen, einen Kaffeestand beim[br]Tag der offenen Tür vorm Innenministerium
0:53:03.170,0:53:07.740
zu machen mit umsonst Kaffee. Aber den[br]kriegen die Leute dann tatsächlich nur,
0:53:07.740,0:53:11.830
wenn ich einmal kurz ihr Handy[br]durchgucken darf. — Lachen, Applaus
0:53:11.830,0:53:15.310
Aber das kann ich jetzt nicht mehr machen,[br]das traue ich mich nicht mehr.
0:53:15.310,0:53:19.190
Herald: Mikrofon Nummer 8 bitte![br]Frage: Vielen Dank noch einmal für den
0:53:19.190,0:53:24.170
Talk. Man sieht hier auf dem Kongress[br]selbst da, wo man denkt, man hat viel
0:53:24.170,0:53:28.710
Gutes an Sicherheit gemacht, gibt es immer[br]noch Schlupflöcher. In den meisten Fällen
0:53:28.710,0:53:34.170
hat man nicht so viel Gutes gemacht. Daher[br]von mir die kurze Frage: Wie ist bei Ihnen
0:53:34.170,0:53:40.869
das Verhältnis Datenminimierung zu dem[br]Thema Datensicherheit, sprich in Form von
0:53:40.869,0:53:46.690
Sicherheitsmaßnahmen zu sehen? Wo ist die[br]Minimierung wichtiger? Und wo ist die
0:53:46.690,0:53:50.070
Sicherheit akzeptabel?[br]Kelber: Ich glaube übrigens, dass man
0:53:50.070,0:53:54.950
erstmal durch Datensicherheit eine ganze[br]Reihe von Datenschutz-Sicherheitsproblemen
0:53:54.950,0:53:58.600
ausschließen kann, aber was sie ja[br]wahrscheinlich ansprechen ist, dass ich an
0:53:58.600,0:54:02.490
manchen Stellen eventuell Daten sammeln[br]muss, um z. B. Angriffsvektoren oder
0:54:02.490,0:54:05.020
ähnliches zu erkennen. War es das,[br]was Sie meinten?
0:54:05.020,0:54:12.061
Frage: Es ging darum, dass wir überall[br]sehen: Belgacom. Da greift sich einfach ein
0:54:12.061,0:54:15.191
fremder Geheimdienst die Daten und[br]ähnliches …
0:54:15.191,0:54:21.919
Kelber: Daten. Dann ist Datenminimierung[br]ein Teil eines Datensicherheitskonzeptes.
0:54:21.919,0:54:26.620
Übrigens auch das Verteilthalten von Daten und[br]ähnliches ist eine Frage, die ich erwartet
0:54:26.620,0:54:30.310
hatte. Wie ist das im digitalen[br]Gesundheitsschutz? Es gibt ja Daten, wo
0:54:30.310,0:54:34.070
es durchaus unethisch sein könnte, sie[br]nicht einzusetzen. Aber was sind denn die
0:54:34.070,0:54:37.220
Sicherheitsmaßnahmen? Wie kann ich[br]wenigstens das Sicherheitsniveau
0:54:37.220,0:54:40.890
erreichen, das ich vorher in der analogen[br]Welt hatte, wo es ja auch eine Menge
0:54:40.890,0:54:44.170
Verstöße gab? Wo krieg ich eine[br]Verbesserung hin? Wo sind die Daten so
0:54:44.170,0:54:47.850
sensibel, dass ich mit zusätzlichen[br]Methoden dafür sorgen muss. Von daher auch
0:54:47.850,0:54:51.810
vielen Dank an den Kongress für die[br]Aufdeckung der Sicherheitsprobleme bei den
0:54:51.810,0:54:59.240
Karten. Thema Sie können sich sicher[br]sein, — Applaus — Sie können sich sicher
0:54:59.240,0:55:03.450
sein, dass das auch Thema meiner[br]Referatsleitungsrunde am 6. Januar
0:55:03.450,0:55:11.539
sein wird. — Lachen, Applaus[br]Herald: Mikrofon Nummer 1, Bitte.
0:55:11.539,0:55:19.170
Frage: Herr Kelber, schön, dass Sie hier[br]sind. Sie haben sehr ambitionierte Ziele
0:55:19.170,0:55:26.500
zu schadhaften Algorithmen geäußert und[br]auch zu, dass wir Vertrauen schaffen
0:55:26.500,0:55:31.630
müssen. Dann haben Sie eben[br]gerade noch was erzählt von den
0:55:31.630,0:55:37.180
Zertifizierungenmöglichkeiten? Da weise ich[br]mal darauf hin, dass die Diesel-Motoren
0:55:37.180,0:55:45.520
unserer Auto-Hersteller auch alle zertifiziert[br]sind. Um mal an Auguste Kerckhoff zu
0:55:45.520,0:55:50.670
erinnern: Die Sicherheit eines Algorithmus[br]kann nicht in der Geheimhaltung des
0:55:50.670,0:55:54.510
Algorithmus liegen, sondern sollte[br]möglichst vielen Experten offenstehen.
0:55:54.510,0:56:02.780
Jetzt die Frage: Sehen Sie eine andere[br]Möglichkeit als Open Source um Ihre Ziele,
0:56:02.780,0:56:08.863
Algorithmen – schadhafte Algorithmen – zu[br]verhindern oder Vertrauen zu schaffen? Ist
0:56:08.863,0:56:12.220
das mit proprietärer Software[br]überhaupt machbar?
0:56:12.220,0:56:18.210
Kelber: Thema für einen eigenen Vortrag.[br]Ich glaube, es wird Bereiche geben, wo ich
0:56:18.210,0:56:23.920
Daten, nur indem ich sie überhaupt … indem[br]ich den Algorithmus öffentlich mache, überhaupt
0:56:23.920,0:56:28.880
nur Teil einer Kritikalitätsbetrachtung[br]sein kann. Schauen Sie sich das auch mal in
0:56:28.880,0:56:33.589
Zusammenfassung der Empfehlung der Daten[br]Ethikkommission mit der Pyramide zu
0:56:33.589,0:56:37.520
algorithmischen System an. Da ist die[br]zweitoberste Stufe eine mit der
0:56:37.520,0:56:41.700
völligen Offenlage. Für mich als[br]Aufsichtsbehörde gilt aber trotzdem, dass
0:56:41.700,0:56:45.859
wir an bestimmten Stellen[br]hineingucken wollen in Systemen.
0:56:45.859,0:56:49.009
Das ist mir natürlich auch klar,[br]dass sich die sehr schnell ändern.
0:56:49.009,0:56:51.560
also dass ich nicht einmal einen[br]Punkt habe, wo ich da bin. Dem „Nein“
0:56:51.560,0:56:57.520
dort von Unternehmen oder[br]Behörden. Das akzeptieren wir nicht.
0:56:57.520,0:57:01.300
Also wir als Aufsichtsbehörde dürfen alles[br]sehen. Ansonsten bin ich auch bereit,
0:57:01.300,0:57:08.510
Zwangsmaßnahmen einzuleiten. Der Punkt[br]wird allerdings der sein, dass natürlich,
0:57:08.510,0:57:13.302
wenn nicht zertifiziert werden kann, dass[br]etwas, was eingesetzt ist, tatsächlich die
0:57:13.302,0:57:16.930
Punkte erreicht, die man zertifiziert,[br]dann darf auch kein Zertifikat erteilt
0:57:16.930,0:57:20.710
werden. Das war eine der Erfahrungen aus[br]dem Dieselgate. Deswegen habe ich in
0:57:20.710,0:57:24.068
meiner alten Verwendung ja noch[br]Koalitionsverhandlungen geführt, 2018,
0:57:24.068,0:57:28.059
nach den Bundes-Wink-Wochen gab es echte[br]Koalitionsverhandlungen. Und da steht ein
0:57:28.059,0:57:33.720
Satz drinnen: Es muss überhaupt mal etwas[br]geschaffen werden, wo öffentliche Behörden
0:57:33.720,0:57:37.589
die Kompetenz entwickeln können, in[br]algorithmische Systeme rein zu schauen.
0:57:37.589,0:57:41.210
Und das kann auch nicht sein, dass es[br]jeder einstellt. Weil ich kann nicht 20
0:57:41.210,0:57:45.070
Expertinnen / Experten einstellen, das BSI[br]40, das Kraftfahrzeugbundesamt 10, das
0:57:45.070,0:57:50.630
BaFin 10. Das wird nicht klappen. So viele[br]gibt es gar nicht auf dem Markt die das
0:57:50.630,0:57:54.240
können. Wir werden also eine Stelle[br]beauftragen. Kann ja auch an einem
0:57:54.240,0:57:58.450
Netzwerk mit Wissenschaft und[br]Zivilgesellschaft stehen, um die
0:57:58.450,0:58:02.310
Entwicklung von so etwas anzuschauen. Und[br]dann sind wir wieder etwas näher an dem,
0:58:02.310,0:58:06.370
was Sie gesagt haben.[br]Herald: Lieber Single-Angel, die nächste
0:58:06.370,0:58:10.200
Frage aus Internet.[br]Frage: Sollte man darauf achten, IFG-
0:58:10.200,0:58:15.109
Anfragen verantwortungsvoll zu stellen und[br]auf ein Minimum zu reduzieren, um die
0:58:15.109,0:58:22.560
Akzeptanz bei Ministerien zu erhöhen?[br]Kelber: Wie bei jedem Instrument sollte
0:58:22.560,0:58:26.320
man etwas nur dann machen, wenn man es[br]selber für richtig hält. Aber das ist der
0:58:26.320,0:58:30.440
erste Maßstab, natürlich. Aber das wird ja[br]allein nicht reichen. Ich habe natürlich
0:58:30.440,0:58:34.458
auch schon Informationsfreiheitsanfragen[br]gesehen, die man im Augenblick selber gesagt
0:58:34.458,0:58:38.510
hat „Die ist nicht sinnvoll.“ Nachher kam[br]etwas raus über den kleinen Umweg, wo man
0:58:38.510,0:58:42.279
gesagt hat „Es war gut, dass da einer[br]nachgefasst hat.“ Umgekehrt habe ich bei
0:58:42.279,0:58:47.390
Sicherheitsbehörden auch schon IFG-Anträge[br]gesehen, wo man nichts anderes versucht hat,
0:58:47.390,0:58:52.329
als den Ermittlungsstand der Sicherheits-[br]behörden gegen hochkriminelle Banden
0:58:52.329,0:58:57.910
herauszubekommen. Die Bandbreite ist so[br]groß, die Entscheidung treffen Sie selbst.
0:58:57.910,0:59:02.130
Das Gesetz sagt, was Sie dürfen, was Sie[br]nicht dürfen. Was beantwortet werden muss,
0:59:02.130,0:59:07.099
was nicht beantwortet werden muss. Und bei[br]allem, was das IFG angeht, sind wir noch
0:59:07.099,0:59:11.601
in der Ombudsmann-Funktion. Das heißt,[br]wenn eine Auskunft verweigert wird, können
0:59:11.601,0:59:15.510
Sie sich an uns wenden, und wir beurteilen[br]aus unserer Sicht noch einmal die
0:59:15.510,0:59:20.500
Situation.[br]Herald: Mikrofon Nr. 4, deine Frage?
0:59:20.500,0:59:26.540
Frage: Hallo, zunächst vielen Dank, dass[br]Sie hier sind. Vielen Dank für den Vortrag
0:59:26.540,0:59:31.100
und auch herzlichen Dank, dass Sie die[br]Problematik mit WiFi für die EU auf den
0:59:31.100,0:59:36.510
europäischen Datenschutztisch gebracht[br]haben. Zu meiner Frage: Sie hatten gerade
0:59:36.510,0:59:41.090
das Beispiel angesprochen mit der[br]Notwendigkeit von Datenschutz im
0:59:41.090,0:59:45.190
öffentlichen Raum, am Beispiel des Laufens[br]durch die Fußgängerzone in beispielsweise
0:59:45.190,0:59:52.810
Bonn. Sehen Sie dass momentan Arbeit im[br]Wettbewerbsrecht besteht, um entsprechend,
0:59:52.810,0:59:56.770
ich sage mal datensammelwütige[br]Geschäftsmodelle für Kommunen auch
0:59:56.770,1:00:00.720
handhabbar zu machen. Wir haben in Aachen[br]gerade das Problem, dass im Rahmen von der
1:00:00.720,1:00:06.829
Stadtmobiliarausschreibung man ich sage[br]mal die Wertschöpfung von Daten aus dem
1:00:06.829,1:00:12.020
öffentlichen Raum, in der Ausschreibung[br]nicht berücksichtigt hat, sodass die Stadt
1:00:12.020,1:00:17.890
jetzt in der Problematik ist, dass für eine[br]Stadtmobiliarausschreibung ein Anbieter, der
1:00:17.890,1:00:23.890
Daten abschnorchelt ein nach Wettbewerbsrecht[br]zu wählendes, weil günstigeres Angebot
1:00:23.890,1:00:29.550
vorgelegt hat, als ein Anbieter, der nicht[br]Daten abschnorchelt. Konkret geht es um
1:00:29.550,1:00:35.070
ICIM-Trekker an Bushaltestellen.[br]Kelber: Ist mir im Augenblick nichts
1:00:35.070,1:00:38.479
bekannt. Müsste ich tatsächlich[br]nachhaken, ob auf meiner Fachebene schon
1:00:38.479,1:00:42.340
Debatte gegeben hat? Vielen Dank für die[br]Anregung. Ist ja einer der Gründe, warum
1:00:42.340,1:00:46.170
ich hierher gekommen bin, Anregungen[br]mitzunehmen. Nein, kann ich Ihnen leider gar
1:00:46.170,1:00:49.770
nichts zu sagen. Ich weiß, dass im[br]Augenblick die nächste GWB Novelle dran
1:00:49.770,1:00:53.980
ist, aber was dort in den Entwürfen steht[br]und ob wir schon beteiligt wurden im
1:00:53.980,1:00:58.589
Vorfeld – manche Ministerien beteiligen uns[br]ja im Vorfeld – und dann geben wir unsere
1:00:58.589,1:01:03.090
Beratungen nicht öffentlich. Weiß ich[br]nicht, aber ist zumindest nicht von meinem
1:01:03.090,1:01:07.301
Fachebene für so relevant gehalten worden,[br]dass ich darüber informiert wurde. Also
1:01:07.301,1:01:11.570
wenn ist es nur auf kleiner Ebene.[br]Herald: Vielen Dank, Herr Kelber, für das
1:01:11.570,1:01:16.390
geduldige Beantworten aller Fragen. Vielen[br]Dank für Ihren Vortrag. Es können leider
1:01:16.390,1:01:18.250
nicht mehr alle Fragen drankommen.
1:01:18.250,1:01:26.210
Applaus
1:01:26.210,1:01:31.690
36c3 Abspannmusik
1:01:31.690,1:01:43.230
Untertitel erstellt von c3subtitles.de[br]im Jahr 2020. Mach mit und hilf uns!