1
00:00:00,000 --> 00:00:19,189
36c3 Vorspannmusik
2
00:00:19,189 --> 00:00:22,980
Herald Engel: Unser nächster Vortrag hat
den Titel „Weichenstellung“. In welcher
3
00:00:22,980 --> 00:00:29,679
digitalen Welt werden wir leben? Der Herr
Kelber wird darin aufzeigen, welche Folgen
4
00:00:29,679 --> 00:00:33,509
die aktuellen politischen Entscheidungen
oder deren Ausbleiben auf unsere Zukunft
5
00:00:33,509 --> 00:00:38,468
als Gesellschaft haben. Insbesondere bei
den Themen digitale überwachung durch
6
00:00:38,468 --> 00:00:44,139
private und öffentliche Stellen. Ulrich
Kelber ist seit Januar diesen Jahres der
7
00:00:44,139 --> 00:00:48,449
Bundesdatenschutzbeauftragte, ist
studierter Diplominformatiker, hat 20
8
00:00:48,449 --> 00:00:54,670
Jahre im Bundestag als Bundestagsabgeordneter
gearbeitet und war vorher Staatssekretär
9
00:00:54,670 --> 00:00:58,359
im Justizministerium. Bitte begrüßt ihn
mit einem kräftigen Applaus.
10
00:00:58,359 --> 00:01:07,780
Applaus
11
00:01:07,780 --> 00:01:11,140
Ulrich Kelber: Ja, schönen guten Tag, auch
von meiner Seite, hab mich sehr über die
12
00:01:11,140 --> 00:01:16,420
Einladung gefreut. Ich bin natürlich etwas
beschämt, dass ich das erste Mal dabei bin,
13
00:01:16,420 --> 00:01:21,250
nämlich in den 20 Jahren, wo ich
tatsächlich Abgeordneter war, hat meine
14
00:01:21,250 --> 00:01:25,530
Familie gestreikt: neben den Wochenenden,
die immer dazugehören zur Arbeit, mir dann
15
00:01:25,530 --> 00:01:32,670
auch noch die Tage über Weihnachten für
digitale Themen frei zu geben. Aber
16
00:01:32,670 --> 00:01:36,270
nachdem ich ja im Januar in den Job
wechseln konnte, wo ich noch schön an
17
00:01:36,270 --> 00:01:41,479
einem Thema tief arbeiten kann, aber die
Wochenenden jetzt freier zur Verfügung
18
00:01:41,479 --> 00:01:46,189
habe, durfte ich mir zumindest mal einen
Tag dafür nehmen. Und ich hoffe, im
19
00:01:46,189 --> 00:01:49,409
nächsten Jahr vielleicht auch mal mit
Übernachtung ein bisschen mehr
20
00:01:49,409 --> 00:01:59,990
reinschnuppern auch in das, was andere zu
sagen und zu zeigen haben. — Applaus
21
00:01:59,990 --> 00:02:06,369
Ich habe in der Tat jetzt knapp ein Jahr in
der neuen Funktion zubringen können,
22
00:02:06,369 --> 00:02:11,820
versuchen, das Thema in der Breite
aufzunehmen, Schwerpunkte zu setzen,
23
00:02:11,820 --> 00:02:16,830
insbesondere bei den Aufgaben, die wir in
den letzten Jahren auch hinzubekommen
24
00:02:16,830 --> 00:02:21,010
haben: die Durchsetzung der europäischen
Datenschutzgrundverordnung, die
25
00:02:21,010 --> 00:02:25,100
Durchsetzung der ja erst noch in
nationales Recht umzusetzenden Joint
26
00:02:25,100 --> 00:02:30,270
Implementation Richtlinie, die Regulierung
von Scoring und Profiling, bereich-
27
00:02:30,270 --> 00:02:36,330
spezifische Gesetzgebung, die ja fast im
Wochenrhythmus erfolgt, insbesondere im
28
00:02:36,330 --> 00:02:41,870
Sicherheitsbereich und natürlich jetzt
auch drei Jahre oder dreieinhalb Jahre
29
00:02:41,870 --> 00:02:48,101
nach Inkrafttreten, anderthalb Jahre nach
der vollen Wirksamkeit. Auch die
30
00:02:48,101 --> 00:02:52,819
Überlegungen zur Weiterentwicklung
europäischen Datenschutzrechts. Und alles
31
00:02:52,819 --> 00:02:58,459
vor dem Hintergrund einer Entwicklung, wo
im Augenblick Weichenstellungen in der
32
00:02:58,459 --> 00:03:04,489
Frage von Regulierung, Nichtregulierung,
technische Entwicklung, Einführung von IT-
33
00:03:04,489 --> 00:03:09,129
Systemen gesetzt werden, die massive
Auswirkungen auch auf unsere
34
00:03:09,129 --> 00:03:13,129
Gesellschaftsordnung haben. Mich
interessieren die Debatten um digitale
35
00:03:13,129 --> 00:03:18,700
Überwachung, sei es durch private oder
staatliche Stellen und insbesondere
36
00:03:18,700 --> 00:03:23,129
natürlich auch der regelrechte hysterische
Wettlauf um immer neue
37
00:03:23,129 --> 00:03:30,240
Eingriffesbefugnisse von
Sicherheitsbehörden. — Applaus —
38
00:03:30,240 --> 00:03:34,260
Ich bin überzeugt, dass wir
schon die Weichenstellungen so vornehmen
39
00:03:34,260 --> 00:03:38,690
können, dass auch die digitale
Gesellschaft eine freiheitliche, liberale
40
00:03:38,690 --> 00:03:45,909
und diverse Gesellschaft bleibt. Aber
ausgemacht ist das noch keineswegs. Wir
41
00:03:45,909 --> 00:03:50,420
sehen immer wieder, dass die technischen
und ökonomischen Aspekte dieser Debatte in
42
00:03:50,420 --> 00:03:54,540
den Vordergrund gestellt werden und dass
es schwierig ist, durchzudringen mit
43
00:03:54,540 --> 00:03:59,139
gesellschaftspolitischen und
datenschutzrechtlichen Fragestellungen.
44
00:03:59,139 --> 00:04:05,450
Und wenn es eine Debatte gibt über diese
Weichenstellung in einer digitalpolitischen
45
00:04:05,450 --> 00:04:10,069
europäischen Debatte, dann werden eben vor
allem diese technischen und okönomischen
46
00:04:10,069 --> 00:04:15,000
Aspekte herangezogen. Es wird verwiesen
auf den Stand von ja durchaus
47
00:04:15,000 --> 00:04:20,740
durchaus weiterentwickelten Digital-
Ökonomien in den USA und China, deren
48
00:04:20,740 --> 00:04:25,650
Vorsprung im Bereich von dem, was immer
unscharf als „künstliche Intelligenz“
49
00:04:25,650 --> 00:04:31,849
bezeichnet wird. Dass dieser Vorsprung
uneinholbar geworden sei und wohlstands-
50
00:04:31,849 --> 00:04:36,240
gefährdend ist. Das wird durchaus als
Druckmittel verwendet, um dann bei
51
00:04:36,240 --> 00:04:42,970
einzelnen Debatten festzulegen, in welcher
Form darf es zu Datenverwertung mittels
52
00:04:42,970 --> 00:04:47,870
künstlicher Intelligenz, algorithmischer
Systeme oder auch der Nutzung von
53
00:04:47,870 --> 00:04:52,750
Datenbanken an der Stelle kommen? Und wenn
man etwas genauer hinschaut, dann ist es
54
00:04:52,750 --> 00:04:59,040
in der Tat natürlich so, dass in den USA
und China in manchen Sektoren bereits eine
55
00:04:59,040 --> 00:05:03,889
andere Phase der technologischen
Entwicklung eingetreten ist. Dort wird
56
00:05:03,889 --> 00:05:08,220
über deutlich höhere private und
staatliche Mittel in dem Bereich
57
00:05:08,220 --> 00:05:16,650
investiert. Aber man merkt auch, dass
beide Wirtschaftssysteme einen bestimmten
58
00:05:16,650 --> 00:05:21,680
Weg eingeschlagen haben für die Nutzung
von IT-System. In China entsteht ein
59
00:05:21,680 --> 00:05:27,510
Überwachungssystem, das den Polizeistaat
erst zur vollen Blüte bringen kann. Wer
60
00:05:27,510 --> 00:05:31,569
sich jetzt in den letzten Monaten ist das
mal zum Thema geworden mit dem, was im
61
00:05:31,569 --> 00:05:35,759
Westen des Landes bei den Uiguren
passiert. Aber ein System, wo das
62
00:05:35,759 --> 00:05:41,360
Verhalten aller Bürger digital überprüft
wird, was manche ja – außerhalb dieser
63
00:05:41,360 --> 00:05:46,540
Halle natürlich – nicht verstehen, ist, wie
analoges und digitales Leben heute so
64
00:05:46,540 --> 00:05:50,860
verschränkt sind, dass sie einander
beeinflussen. Dass deswegen eben auch auf
65
00:05:50,860 --> 00:05:57,840
das Verhalten außerhalb der unmittelbaren
digitalen Welt ein Verhaltensdruck
66
00:05:57,840 --> 00:06:03,850
ausgeübt wird. Wer sich im Sinne des
Systems verhält, dem winken Prämien,
67
00:06:03,850 --> 00:06:10,430
Belohnungen, Vorteile. Wer das nicht tut,
riskiert für sich und Angehörige
68
00:06:10,430 --> 00:06:18,039
Lebensmöglichkeiten vom Bildungssystem bis
hin zur Mobilität. Und es ist spannend,
69
00:06:18,039 --> 00:06:24,360
wer diese Standards setzt. Es ist
spannend, wie diese Standards sich ändern
70
00:06:24,360 --> 00:06:30,199
und vor allem, dass ein Gefühl entsteht,
dass ich gar nicht mehr abschätzen kann:
71
00:06:30,199 --> 00:06:35,320
Wann werde ich eigentlich beobachtet, mein
Verhalten interpretiert, gespeichert,
72
00:06:35,320 --> 00:06:42,150
bewertet von anderen. Und dies ist ein
Gefühl, dass es keine Bereiche mehr der
73
00:06:42,150 --> 00:06:45,910
Möglichkeit gibt, sich ins Private
zurückzuziehen, etwas zu tun, was
74
00:06:45,910 --> 00:06:52,039
vielleicht noch nicht von allen anderen so
vorgelebt wurde, verändert auch das eigene
75
00:06:52,039 --> 00:06:55,850
Verhalten. Das ist eine Entwicklung, die
sicherlich in Europa nur eine absolute
76
00:06:55,850 --> 00:07:00,900
Minderheit will, auch unter all denen,
die politische Positionen haben oder in
77
00:07:00,900 --> 00:07:04,459
der Wirtschaft an entscheidenden
Stellen kommt. Es gibt allerdings
78
00:07:04,459 --> 00:07:09,620
interessanterweise Studien, die unter
jüngeren Menschen schon eine größere
79
00:07:09,620 --> 00:07:17,210
Zustimmung zu einem solchen System zum
Ausdruck bringt, wo bestimmte
80
00:07:17,210 --> 00:07:22,530
Verhaltensweisen, die als durchaus … man
fängt ja an, mit welchen, die tatsächlich
81
00:07:22,530 --> 00:07:26,306
vielleicht gesellschaftspolitisch von der
großen Mehrheit nicht gewünscht sind,
82
00:07:26,306 --> 00:07:30,130
sanktionieren kann. Aber wie gesagt, die
große Mehrheit will das nicht, und zwar
83
00:07:30,130 --> 00:07:34,490
weder vom Staat noch von privaten Konzernen.
Also weder das chinesische Modell, noch
84
00:07:34,490 --> 00:07:40,240
das US-amerikanische Modell, die sich
ja durchaus auch beide teilweise mit
85
00:07:40,240 --> 00:07:47,360
Aspekten des anderen – die USA im
Sicherheitsbereich, die chinesische Seite
86
00:07:47,360 --> 00:07:51,940
mit dem Zusammenwirken zwischen Staat und
privaten Konzernen – beginnt. Und auch wenn
87
00:07:51,940 --> 00:07:56,590
das keiner in Europa will, glaube ich,
dass dieses Überwachungsgift durchaus in
88
00:07:56,590 --> 00:08:03,180
unser System träufelt von Tag zu Tag. Und
zwar, dass man Überwachung durchführen
89
00:08:03,180 --> 00:08:07,582
will, weil man sie durchführen kann. Dass
man Datensammlungen betreibt, wenn man
90
00:08:07,582 --> 00:08:12,569
diese Daten sammeln kann, weil Sensoren,
Speicher und Verarbeitungsmöglichkeiten
91
00:08:12,569 --> 00:08:17,539
immer kleiner, schneller, besser und
billiger werden. Und dass Dinge, die man
92
00:08:17,539 --> 00:08:22,229
vorher nicht gemacht hat, weil einfach der
Aufwand zu groß war, jetzt praktisch im
93
00:08:22,229 --> 00:08:29,419
Vorbeigehen mitlaufen lässt. Und wo kann
man dieses Gift schon spüren? Das spürt
94
00:08:29,419 --> 00:08:34,310
man, wenn die Geschäftsmodelle von
Verlagen in den politischen Debatten
95
00:08:34,310 --> 00:08:39,770
Vorrang bekommen sollen vor der
Unverletzlichkeit der Privatsphäre von
96
00:08:39,770 --> 00:08:44,920
Bürgerin und Bürger, wenn die Komfort
gegen Daten getauscht wird, auch im
97
00:08:44,920 --> 00:08:51,440
Individualverhalten. Und wenn Sicherheit
vor Freiheit gesetzt wird bei der Debatte:
98
00:08:51,440 --> 00:08:55,800
Was kann ich mit einem zusätzlichen
Durchgriffsrecht, Eingriffsrecht von
99
00:08:55,800 --> 00:09:02,439
Sicherheitsbehörden erreichen? Dann
erleben wir, dass die Bewertung von
100
00:09:02,439 --> 00:09:08,209
Verhalten und das Bewerten von Gesinnung,
wenn sie in die Auswertung mancher Daten
101
00:09:08,209 --> 00:09:12,129
schauen und auch in die ein oder anderen
Gesetzentwurf, wo jetzt auf einmal wieder
102
00:09:12,129 --> 00:09:17,840
aufgebracht wird, wer etwas unterstützt
oder befürwortet, dass das ebenfalls
103
00:09:17,840 --> 00:09:22,949
Einfluss nimmt, damit Normmodelle setzt,
die dann in der Verarbeitung von Daten
104
00:09:22,949 --> 00:09:28,100
überprüft werden durch Staat und durch
private Stellen auch in der Europäischen
105
00:09:28,100 --> 00:09:33,670
Union. Und wie wir das ausgestalten, wie
wir zum Beispiel über eine E-Privacy
106
00:09:33,670 --> 00:09:36,760
Verordnung in der Frage von Tracking
sprechen, das ist eine dieser
107
00:09:36,760 --> 00:09:42,429
Weichenstellungen, die ich meinte mit dem
Titel des Vortrags. Im Zentrum dieser
108
00:09:42,429 --> 00:09:46,159
Debatten steht tatsächlich das, was immer
mit dem großen Schlagwort „Künstliche
109
00:09:46,159 --> 00:09:50,930
Intelligenz“ genommen wird. Sind genügend
im Saal, mit denen man sich 2 Stunden darüber
110
00:09:50,930 --> 00:09:55,000
unterhalten könnte, was dieses Schlagwort
wirklich meint und wo es nicht meint. Aber
111
00:09:55,000 --> 00:09:59,319
das lasse ich mal außen vor. Ich spreche
über KI und algorithmische Systeme, mal
112
00:09:59,319 --> 00:10:06,940
als Bandbreite. Wir Datenschutzbeauftragten
haben für uns erkannt, dass es unsere
113
00:10:06,940 --> 00:10:11,220
Arbeit verändert. Dass es aber eben
auch eine große Auswirkung auf
114
00:10:11,220 --> 00:10:16,920
die Frage von Regulierung haben. Haben
deswegen in diesem Jahr, im Frühjahr und
115
00:10:16,920 --> 00:10:21,850
dann ausgearbeitet noch bis in den Herbst
bei der Tagung in Trier im Frühjahr die
116
00:10:21,850 --> 00:10:26,400
Hambacher Erklärung herausgegeben, auf
Schloss Hambach. Wir haben dieses Symbol
117
00:10:26,400 --> 00:10:33,390
tatsächlich gewählt. Das Hambacher
Freiheitsfest von 1832, wo die
118
00:10:33,390 --> 00:10:37,350
Grundrechte, die Bürgerrechte, auch in den
Vordergrund gestellt wurden. Übrigens ein
119
00:10:37,350 --> 00:10:41,300
internationales Fest, weil es immer manche
Deutschtümeler versuchen, für sich zu
120
00:10:41,300 --> 00:10:47,220
gewinnen. Es waren Franzosen und Polen und
andere Delegierte dort. Und haben
121
00:10:47,220 --> 00:10:51,880
versucht, Grundprinzipien bei diesem
Einsatz zu definieren. Menschen nicht zum
122
00:10:51,880 --> 00:10:55,809
bloßen Objekt einer solchen
Datenverarbeitung zu machen, das
123
00:10:55,809 --> 00:11:00,920
Zweckbindungsgebot nicht fallen zu
lassen. Nicht so einfach auch in der
124
00:11:00,920 --> 00:11:04,790
Entwicklung solcher Systeme. Die
Transparenz, die Nachvollziehbarkeit und
125
00:11:04,790 --> 00:11:10,780
die Erklärbarkeit von KI-Systemen, die
Verhinderung von Diskriminierung und den
126
00:11:10,780 --> 00:11:14,130
Grundsatz der Datenminimierung. Die
letzten drei sind übrigens sehr
127
00:11:14,130 --> 00:11:18,659
interessant in der gesamten Debatte mit
Techis, weil mir das selbst bei Leuten, die
128
00:11:18,659 --> 00:11:24,860
absolut liberal in ihren Grundsätzen sind,
immer wieder auffällt, dass sie ablehnen
129
00:11:24,860 --> 00:11:31,010
diese Verantwortung in der Entwicklung von
Systemen mit zu übernehmen. Uns wird dann
130
00:11:31,010 --> 00:11:34,829
entgegen geschleudert, das wäre ein
Generalverdacht. Wir würden zusätzlichen
131
00:11:34,829 --> 00:11:39,370
Aufwand berücksichtigen. Aber ich glaube,
wer solche Macht ausübt mit solchen
132
00:11:39,370 --> 00:11:43,870
Systemen in der Öffentlichkeit, der muss
zumindest selber überlegen: Kann der
133
00:11:43,870 --> 00:11:49,321
Bereich, in dem ich gerade arbeite,
Auswirkungen auf Menschen und Ihre Rechte
134
00:11:49,321 --> 00:11:52,760
haben? Und was muss ich dann
berücksichtigen in der Entwicklung dieser
135
00:11:52,760 --> 00:11:56,890
Technologie? Wir haben natürlich auch über
Verantwortlichkeit gesprochen. Jedes
136
00:11:56,890 --> 00:12:01,790
System muss auch jemand haben, den ich.
Ansprechen kann auf Fehlverhalten, auf
137
00:12:01,790 --> 00:12:06,990
Diskriminierungspotenziale und ähnliches.
Das kann nicht verwischen in einem
138
00:12:06,990 --> 00:12:18,900
komplexen Netzwerk unterschiedlicher
Systeme. Und wenn man … — Applaus Und wenn
139
00:12:18,900 --> 00:12:23,110
man dann wirtschaftspolitisch an das Ganze
herangeht, ist es regelrecht absurd, dass
140
00:12:23,110 --> 00:12:28,950
hier in Deutschland und in Europa, wo wir
eigentlich Erfahrung mit Datenschutz und
141
00:12:28,950 --> 00:12:33,520
ich hoffe auch mit IT-Sicherheit haben, wo
wir Gesetze haben, die uns dazu
142
00:12:33,520 --> 00:12:38,669
verpflichten, in diesem Bereich höhere
Qualität anzubieten als in anderen
143
00:12:38,669 --> 00:12:42,990
Weltregionen. Dass in dieser Weltregion
die Wirtschaftsverbände und die
144
00:12:42,990 --> 00:12:49,179
Unternehmen unterwegs sind, über diese
Regulierungen jammern und in anderen
145
00:12:49,179 --> 00:12:53,510
Weltregionen mehr oder minder glaubhaft
wie z. B. in den USA die ersten Unternehmen
146
00:12:53,510 --> 00:12:57,920
unterwegs sind und sagen: Wir wollen darüber
werben für unsere Produkte, für unsere
147
00:12:57,920 --> 00:13:02,770
Dienstleistungen, dass wir über die
gesetzlichen Vorgaben hinausgehen. Dass
148
00:13:02,770 --> 00:13:08,220
wir das von Anfang an mit rein nehmen.
Hätten wir das auch bei Autos, Maschinen
149
00:13:08,220 --> 00:13:11,970
und anderen Produkten gemacht, wäre
Deutschland ein armseliger Standort. Ich
150
00:13:11,970 --> 00:13:16,089
verstehe nicht, warum wir in der Digital-
Ökonomie auf den niedrigsten Standard einen
151
00:13:16,089 --> 00:13:19,890
Wettlauf nach unten machen wollen, nach
Meinung der Wirtschaftsverbände, anstatt
152
00:13:19,890 --> 00:13:23,689
mit Qualität und Unique Selling Points
auch weltweit zu punkten. Das wäre im
153
00:13:23,689 --> 00:13:27,090
Datenschutz, in der IT-Security,
wirklich möglich.
154
00:13:27,090 --> 00:13:35,380
Applaus
Wir begegnen natürlich immer einem
155
00:13:35,380 --> 00:13:39,799
logischen Wunsch. Das ist wirklich bei
Wirtschaft, Techies und großen Teilen der
156
00:13:39,799 --> 00:13:46,570
Politik gleich: Wir brauchen für die
Optimierung von Prozesssteuerung, so die
157
00:13:46,570 --> 00:13:51,230
Argumentation, die deutliche Erhöhung der
Menge an nutzbaren, qualitativ
158
00:13:51,230 --> 00:13:56,650
hochwertigen Daten. Ich will mich dem
übrigens keineswegs verschließen, weil ich
159
00:13:56,650 --> 00:14:01,150
durchaus der Meinung bin, selber eine
ganze Reihe von Prozessen zu sehen, wo ich
160
00:14:01,150 --> 00:14:06,040
mit dem richtigen Zugriff auf
verantwortlich zur Verfügung stellbare
161
00:14:06,040 --> 00:14:10,770
Daten, deutliche Verbesserungs-,
Optimierungs- und Fortschritts-Potenziale
162
00:14:10,770 --> 00:14:15,060
sehe. Aber es geht doch darum,
den Prozess so zu organisieren, dass
163
00:14:15,060 --> 00:14:21,000
Persönlichkeitsrechte, das Recht auf
informationelle Selbstbestimmung und
164
00:14:21,000 --> 00:14:26,490
andere Grundrechte nicht eingeschränkt
werden, nicht verletzt werden, sondern
165
00:14:26,490 --> 00:14:30,120
dass wir die neuen technischen
Möglichkeiten sogar nutzen, um
166
00:14:30,120 --> 00:14:33,670
informationelle Selbstbestimmung an
Stellen zu schaffen, wo ich sie in der
167
00:14:33,670 --> 00:14:38,380
Vergangenheit gar nicht hatte, weil sie
mir nicht zur Verfügung gestanden hat. Und
168
00:14:38,380 --> 00:14:42,640
diese Debatte zu führen und anders auf den
Markt zu treten, das ist der Vorschlag,
169
00:14:42,640 --> 00:14:46,850
den die deutschen Datenschutzbehörden mit
der Hambacher Erklärung und anderen
170
00:14:46,850 --> 00:14:52,110
Beschlüssen gefasst haben. Und auch der
Europäische Datenschutz-Ausschuss ist uns
171
00:14:52,110 --> 00:14:57,080
dort vor kurzem gefolgt. Ich glaube, dass
die Regulierung von künstlicher
172
00:14:57,080 --> 00:15:01,100
Intelligenz, von algorithmischen Systemen,
da eintreten muss, wo Gefahr für diese
173
00:15:01,100 --> 00:15:05,839
Rechtsgüter besteht – des Einzelnen oder
der Allgemeinheit. Sie haben vielleicht
174
00:15:05,839 --> 00:15:10,959
zum Teil mitverfolgt, dass es manche gibt:
Der Datenschutz übernähme sich, sagen die,
175
00:15:10,959 --> 00:15:15,010
wenn er nicht nur den Schutz des Einzelnen,
sondern einen gesellschaftspolitischen
176
00:15:15,010 --> 00:15:20,500
Zweck verfolgt. Aber natürlich habe ich
viele Stellen, wo die Frage des Schutz des
177
00:15:20,500 --> 00:15:24,860
Einzelnen ohne eine Beantwortung der
Rechte in der Gemeinschaft gar nicht zu
178
00:15:24,860 --> 00:15:29,900
leisten ist. Vom simpelsten Beispiel an:
wenn ich zulasse, dass bestimmte Daten
179
00:15:29,900 --> 00:15:33,930
erhoben werden können, freiwillig, dann
ist derjenige, der nicht bereit ist,
180
00:15:33,930 --> 00:15:37,880
freiwillig sie zur Verfügung zu stellen,
natürlich am Ende der*die Gekniffene, wenn
181
00:15:37,880 --> 00:15:42,001
die anderen diese Daten zur Verfügung gestellt
haben. Deswegen ist es richtig, an einem
182
00:15:42,001 --> 00:15:45,970
solchen Beispiel, wo es um besonders
sensible Daten geht, natürlich ein
183
00:15:45,970 --> 00:15:50,250
Erhebungs- und Verwertungsverbot allgemein
auszusprechen und es nicht mehr auf die
184
00:15:50,250 --> 00:15:58,949
Freiwilligkeit zurückfallen zu lassen.
— Applaus — Und diese Idee, auch
185
00:15:58,949 --> 00:16:04,040
technologische Entwicklungen und deren
Einsatz regulieren zu wollen, ist aber
186
00:16:04,040 --> 00:16:09,440
auch gar nichts Neues. Das haben wir doch
immer so gemacht. In den letzten zwei,
187
00:16:09,440 --> 00:16:13,750
dreihundert Jahren, seit wir eine
einigermaßen entwickelte Zivilgesellschaft
188
00:16:13,750 --> 00:16:19,180
und politische Debatte haben. Wir haben es
bei Dampfkesseln gemacht, wir haben es bei
189
00:16:19,180 --> 00:16:23,420
medizinischen Geräten, Autos und Handys
gemacht. Was sollte uns davon abhalten,
190
00:16:23,420 --> 00:16:30,310
diese Debatte zielgerichtet und
praktikabel auch im Bereich von Software
191
00:16:30,310 --> 00:16:36,030
und von Hybrid-Systemen einzuführen? Ein
Beispiel dafür; das war ja etwas, was die
192
00:16:36,030 --> 00:16:40,490
Datenethikkommissionen genannt hatte, als
sie gesagt hat, es muss auch die
193
00:16:40,490 --> 00:16:44,910
Möglichkeit des Verbots – um jetzt mal die
weitestgehende Möglichkeit zu benennen –
194
00:16:44,910 --> 00:16:50,850
von Algorithmen mit unvertretbarem
Schädigungspotenzial geben. Schon diese –
195
00:16:50,850 --> 00:16:56,699
eigentlich selbstverständliche – Forderung
„unvertretbares Schädigungspotenzial“ hat
196
00:16:56,699 --> 00:17:00,581
zu Widerspruch bei einigen
Wirtschaftsverbänden geführt. Also was das
197
00:17:00,581 --> 00:17:05,310
für ein Verständnis der Rolle von Staat
als Zusammenschluss der Gesellschaft gibt:
198
00:17:05,310 --> 00:17:09,100
„Es gibt bestimmte Dinge, die ich nicht
zulasse. Bestimmte medizinische Geräte
199
00:17:09,100 --> 00:17:14,949
sind nicht zugelassen. Der Verkauf von
Organen ist nicht zugelassen. Kinderarbeit
200
00:17:14,949 --> 00:17:19,309
ist nicht zugelassen.“ Und warum soll ich
nicht die Erlaubnis haben, bestimmte
201
00:17:19,309 --> 00:17:24,150
Software-Einsätze zu regulieren bis hin zu
einem Verbot? Wir unterhalten uns ja über
202
00:17:24,150 --> 00:17:30,711
eine kleine Spitze in einem unglaublich
innovativen Markt, wo 99,99% aller
203
00:17:30,711 --> 00:17:34,590
algorithmischen Systeme, die in Umlauf
kommen, nie mit einer Aufsicht oder einer
204
00:17:34,590 --> 00:17:39,141
Kontrolle zu tun haben werden. Aber um
diese Spitze müssen wir uns kümmern. Ich
205
00:17:39,141 --> 00:17:44,320
will jetzt nicht das ohnehin gestresste
Beispiel von automatischen Waffensystemen
206
00:17:44,320 --> 00:17:49,580
oder Hochfrequenzhandel heranbringen. Aber
schon im Bereich der Bildung, von
207
00:17:49,580 --> 00:17:53,450
persönlichen Profilen und der Frage, wem
sie zur Verfügung gestellt werden dürfen
208
00:17:53,450 --> 00:17:57,520
oder nicht, kann es solche unvertretbaren
Schädigungspotenziale geben und damit
209
00:17:57,520 --> 00:18:07,620
die Möglichkeit auch des Verbots in der
Regulierung. — Applaus — Und in der Tat
210
00:18:07,620 --> 00:18:13,550
kämpfen wir darum, dass das Prinzip der
Datenminimierung – so heißt es jetzt in der
211
00:18:13,550 --> 00:18:17,500
deutschen Version des europäischen
Datenschutzgrundverordnung. Früher hieß es
212
00:18:17,500 --> 00:18:21,990
mal Datensparsamkeit –, dass dieses Prinzip
nicht über den Haufen geworfen wird. Es
213
00:18:21,990 --> 00:18:29,460
wird angegriffen von allen Ecken: aus
dem technischen Umfeld, aus den
214
00:18:29,460 --> 00:18:34,030
Wirtschaftsverbänden, aus der Politik bis
hoch zu den Reden von Wirtschaftsministern
215
00:18:34,030 --> 00:18:38,733
und Bundeskanzlerin. Ich glaube teilweise
auch aus dem Unverständnis heraus, was
216
00:18:38,733 --> 00:18:42,630
der Begriff eigentlich bedeutet. Er heißt
ja nicht „Schmeiße alle Daten weg, die du
217
00:18:42,630 --> 00:18:48,420
hast“, also Datenarmut. Sondern er sagt
„Ja, du hast nicht das Recht, Daten zu
218
00:18:48,420 --> 00:18:52,390
erheben, die du nicht benötigst für die
Erbringung der Dienstleistung oder des
219
00:18:52,390 --> 00:18:57,920
Produkts. Weil diese Daten dich nichts
angehen von einer Bürgerin oder einem
220
00:18:57,920 --> 00:19:03,122
Bürger. Und an bestimmter Stelle darfst du
Daten auch nur weiterverwenden – und bitte
221
00:19:03,122 --> 00:19:07,080
jetzt kein Aufheulen, weil ich jetzt auch
hier einen holzschnittartigen Pulk mache –
222
00:19:07,080 --> 00:19:11,340
wenn du Anonymisierung oder Pseudonymisierung
verwendet hast. Ich weiß auch, dass es
223
00:19:11,340 --> 00:19:15,143
keine absolute Anonymisierung gibt. Den
Einschub mache ich mal kurz. Aber es gibt
224
00:19:15,143 --> 00:19:18,660
natürlich situationsgerechte
Anonymisierung. Wenn ich für einen
225
00:19:18,660 --> 00:19:23,970
Bruchteil der Sekunde für eine Steuerung
Daten brauche, dann ist das natürlich eine
226
00:19:23,970 --> 00:19:28,060
andere Form des Aufwands, um in dem
Augenblick an Daten zu kommen, wenn sie
227
00:19:28,060 --> 00:19:32,750
danach gelöscht werden, als wenn ich z. B.
biologische Daten für 30 Jahre ablege und
228
00:19:32,750 --> 00:19:36,580
überhaupt nicht weiß, mit welchen
Technologien oder anderen Datenbanken, die
229
00:19:36,580 --> 00:19:41,020
in Zukunft begegnet werden können, zu
einer Repersonalisierung. Wir glauben aber
230
00:19:41,020 --> 00:19:44,860
auch, dass technologische Entwicklungen
wie dezentrales Lernen oder datenschutz-
231
00:19:44,860 --> 00:19:49,300
konforme Data Spaces die Möglichkeit
geben, mit vielen Daten im Bereich der
232
00:19:49,300 --> 00:19:53,500
künstlichen Intelligenz die
Prozesssteuerung zu optimieren. Aber wir
233
00:19:53,500 --> 00:19:57,870
wollen eben auch eine solche
Herangehensweise haben und nicht die Idee,
234
00:19:57,870 --> 00:20:03,120
große Data Lakes zu bilden, mit denen ich
dann später mal reinschaue: Was ist
235
00:20:03,120 --> 00:20:07,210
möglich? Und dann, allerhöchstens wenn es
schon einen Missbrauch von Daten gegeben
236
00:20:07,210 --> 00:20:12,420
hat, zu gucken: Entdecke ich diesen
Missbrauch, kann ich ihn ahnden? Und finde
237
00:20:12,420 --> 00:20:16,270
ich dann als Aufsichtsbehörde auch noch
ein Gericht, das am Ende, wenn ich gesagt
238
00:20:16,270 --> 00:20:20,290
habe „Das will ich bestrafen“, mir dann auch
noch Recht gibt. Denn ich muss ja jedes
239
00:20:20,290 --> 00:20:24,130
Mal, wenn ich eine Entscheidung treffe,
eine Behörde oder ein Unternehmen mit
240
00:20:24,130 --> 00:20:28,290
einer Sanktion zu belegen – beim
Unternehmen das Bußgeld durchaus, bei
241
00:20:28,290 --> 00:20:31,981
einer Behörde vielleicht die Untersagung –
damit rechnen, dass ich vor Gericht so
242
00:20:31,981 --> 00:20:37,150
etwas auch verlieren kann. Dementsprechend
kann es länger dauern. Und es liegt ja
243
00:20:37,150 --> 00:20:41,440
nicht nur in meiner Hand, wie am Ende die
Praxis aussehen wird. Deswegen brauchen
244
00:20:41,440 --> 00:20:46,230
wir eine ganz klare Regelung zu diesem
Bereich. Das ist eben kein Bremsschuh
245
00:20:46,230 --> 00:20:51,330
für Innovationen, wenn man es von Anfang
an mitdenkt. Und wenn ich bei
246
00:20:51,330 --> 00:20:55,730
Wirtschaftsverbänden spreche, stelle ich
einfach immer frech die Frage: Glauben Sie
247
00:20:55,730 --> 00:21:01,760
denn, dass Sie als Silicon Valley-2 oder
als China-2 wirtschaftlichen Erfolg haben
248
00:21:01,760 --> 00:21:05,690
werden? Oder sind Sie dann der billige
Abklatsch? Wäre es nicht besser, unsere
249
00:21:05,690 --> 00:21:13,280
eigenen Werte einer IT-, einem KI-Verständnis
mit europäischen Werten abzubilden und
250
00:21:13,280 --> 00:21:18,560
dafür im Wettbewerb nach Unterstützung zu
suchen? Und zwar in Europa, aber auch bei
251
00:21:18,560 --> 00:21:23,890
den Menschen in der Welt, die gerne andere
Werte in ihren Sicherheitssystemen in
252
00:21:23,890 --> 00:21:27,430
ihrem privaten Datennutzung verankert
hätten, als sie das in ihren Ländern
253
00:21:27,430 --> 00:21:32,160
haben. Das war die Idee hinter der
Datenschutzgrundverordnung ohne Rücksicht
254
00:21:32,160 --> 00:21:36,520
auf den Standort eines Unternehmens
Europäerinnen und Europäer zu schützen und
255
00:21:36,520 --> 00:21:40,080
auch die Idee, dieses Recht zu
exportieren. Und im Augenblick sehen wir
256
00:21:40,080 --> 00:21:43,790
die ersten Erfolge, dass andere Länder
Datenschutzrechte auf Grundlage der
257
00:21:43,790 --> 00:21:48,220
Datenschutzgrundverordnung entwickeln. Wir
sind also hier an einer Stelle in einen
258
00:21:48,220 --> 00:21:52,790
Wettbewerb eingetreten, mit amerikanischem
Recht, mit den Überlegungen in China. Ich
259
00:21:52,790 --> 00:22:04,190
glaube, Europa sollte selbstbewusst sein,
diesen Wettbewerb anzunehmen. — Applaus
260
00:22:04,190 --> 00:22:09,640
Wir erleben, dass nach wie vor die großen
Internetkonzerne – und ich bedauere jeden
261
00:22:09,640 --> 00:22:17,370
Tag, dass wir zu keinem der großen
Entscheidungen schon eine entsprechend …
262
00:22:17,370 --> 00:22:22,350
oder der großen offensichtlichen Datenschutz-
Verstöße durch große Internetkonzerne
263
00:22:22,350 --> 00:22:26,490
schon eine Entscheidung auf europäischer
Ebene getroffen haben. Ich dringe bei
264
00:22:26,490 --> 00:22:30,040
jedem Treffen des Europäischen
Datenschutzausschuss darauf, dass von den
265
00:22:30,040 --> 00:22:33,930
vor allem federführenden Behörden in
Irland und Luxemburg diese Entscheidungen
266
00:22:33,930 --> 00:22:37,360
jetzt vorgelegt werden. Sie werden
übrigens nachher mit Mehrheit im
267
00:22:37,360 --> 00:22:40,820
Europäischen Datenschutzausschuss
beschlossen. Also man kann sich nicht
268
00:22:40,820 --> 00:22:45,100
hinter einer nationalen Behörde
verstecken, weil nach wie vor unter den
269
00:22:45,100 --> 00:22:51,780
Standardeinstellungen der großen Anbieter
– sei es die aus den USA, aber auch die
270
00:22:51,780 --> 00:22:55,490
zunehmend in den Markt dringenden, vor
allem auch aus China und aus Russland;
271
00:22:55,490 --> 00:23:01,640
andere werden kommen –, dass schon unter den
Standardeinstellungen weiterhin ungehemmt
272
00:23:01,640 --> 00:23:07,120
persönliche Daten abgegriffen werden. Man
ist formal datenschutzkonform, aber
273
00:23:07,120 --> 00:23:12,730
sammelt diese Daten ein und es bräuchte in
der Tat technische Kenntnisse, die hier im
274
00:23:12,730 --> 00:23:16,970
Saal vorhanden sein werden, aber nicht im
ganzen Land vorhanden sind, nie vorhanden
275
00:23:16,970 --> 00:23:21,430
sein werden und nicht auch nicht vorhanden
sein müssen, weil man auch durchs Leben
276
00:23:21,430 --> 00:23:27,340
gehen muss, ohne Expertin oder Experte zu
sein. Wenn man diese Kerneinstellungen
277
00:23:27,340 --> 00:23:32,360
nicht kennt, verliert man bei diesen
Anwendungen, bei diesen Systemen Daten.
278
00:23:32,360 --> 00:23:40,080
Und selbst die, die versuchen, diese Daten-
Sammler zu meiden, gehen dort auf den
279
00:23:40,080 --> 00:23:47,220
Leim, verlieren dort ihre Daten, wenn über
Tracking Tools, über Plug-Ins und Source
280
00:23:47,220 --> 00:23:53,530
Code Development Kits diese Daten auch bei
Dritten gesammelt werden. Und auch in
281
00:23:53,530 --> 00:23:57,340
diesen Fragen ist bisher leider außer
einem Versuch des Bundeskartellamts, das
282
00:23:57,340 --> 00:24:02,330
nicht an die gleichen Regeln gebunden ist
wie ich als Bundesdatenschutzbeauftragter,
283
00:24:02,330 --> 00:24:08,920
kein Versuch unternommen worden, das zu
stoppen. Ich habe bis heute die
284
00:24:08,920 --> 00:24:13,230
Entscheidung des Düsseldorfer Gerichts –
soviel darf ich ja, wo ich jetzt kein
285
00:24:13,230 --> 00:24:17,750
Staatssekretär im Justizministerium bin,
ja mal sagen – nicht nachvollziehen können.
286
00:24:17,750 --> 00:24:21,150
Ich glaube, da war etwas zu wenig
Berücksichtigung von
287
00:24:21,150 --> 00:24:25,670
Datenschutzgrundverordnung und verändertem
Wettbewerbsrecht seit 2016 in der
288
00:24:25,670 --> 00:24:30,530
Betrachtung enthalten. Also wir brauchen
die Durchsetzung des bestehenden Rechts.
289
00:24:30,530 --> 00:24:34,120
Wir brauchen Zertifizierung und
Labeling, damit man bestimmte Produkte
290
00:24:34,120 --> 00:24:37,990
nehmen kann, sicher weiß, das Produkt für
sich hält die Regeln ein. Jetzt kann ich
291
00:24:37,990 --> 00:24:42,350
darauf meine nächste Dienstleistung
optimieren. Und natürlich brauchen wir
292
00:24:42,350 --> 00:24:46,280
auch Digital Literacy in der Bevölkerung
bis zu einem bestimmten Grad. Ich muss
293
00:24:46,280 --> 00:24:50,320
wenigstens ungefähr verstehen, auf was ich
mich in einer digitalen Gesellschaft
294
00:24:50,320 --> 00:24:54,171
einlasse. Ich persönlich würde mir
wünschen, dass wir die Möglichkeiten des
295
00:24:54,171 --> 00:25:01,040
Schutz der Privatsphäre durch Technik
stärker ausarbeiten, also PIMs und PMTs fände
296
00:25:01,040 --> 00:25:05,559
ich wichtig, in einer Form einzuführen,
auf die man sich verlassen kann. Eins
297
00:25:05,559 --> 00:25:10,731
gilt: wenn große Konzerne Standards, die
mal eingeführt wurden, um sich zu schützen
298
00:25:10,731 --> 00:25:15,310
wie den Do-not-Track-Standard, einfach
ignorieren, dann ist das nichts anderes
299
00:25:15,310 --> 00:25:20,170
als ein Betteln um staatliche Regulierung.
Wer sich nicht an Standards hält, der
300
00:25:20,170 --> 00:25:26,190
möchte Regulierung vom Staat bekommen. Und
aus meiner Sicht sollten sie die mit der
301
00:25:26,190 --> 00:25:34,340
E-Privacy Verordnung auch bekommen.
Applaus — Normalerweise müsste ich als
302
00:25:34,340 --> 00:25:40,680
Leiter einer Datenschutzbehörde aufschreien
bei Ideen wie Interoperabilität, weil
303
00:25:40,680 --> 00:25:46,520
Interoperabilität Datenaustausch auch
bedeutet. Aber ich sehe heute einen Markt,
304
00:25:46,520 --> 00:25:51,260
der sich oligopolisert. Und wenn ich die
Markteintrittsbarrieren für neue
305
00:25:51,260 --> 00:25:54,930
Anbieterinnen/Anbieter senken will, dann
muss ich eine datenschutzfreundliche
306
00:25:54,930 --> 00:25:59,520
Interoperabilität für die Anwendungen, die
so wichtig geworden sind auf dem Markt,
307
00:25:59,520 --> 00:26:04,210
dass sie andere Dienste ersetzen, in denen
die Interoperabilität seit Jahren und
308
00:26:04,210 --> 00:26:09,240
Jahrzehnten gilt, auch vorschreiben. Ich
meine zum Beispiel im Bereich von Social
309
00:26:09,240 --> 00:26:17,591
Media und von Messenger Systemen. Dort
könnte man mit solchen Schritten durchaus
310
00:26:17,591 --> 00:26:21,890
auch europäische Alternativen, am besten
natürlich auf Open-Source Basis
311
00:26:21,890 --> 00:26:25,930
vorstellen. Ich würde mich freuen, wenn es
die deutsche Verwaltung der französischen
312
00:26:25,930 --> 00:26:30,220
nachtun würde, vielleicht sogar mit den
Franzosen gemeinsam ein System entwickeln,
313
00:26:30,220 --> 00:26:33,470
das dann schon mal 10 Millionen
Grundnutzerinnen und Grundnutzer in
314
00:26:33,470 --> 00:26:37,650
Zentraleuropa hätte. Das wäre ein Anfang,
mit dem man mit ganz anderer Schlagkraft
315
00:26:37,650 --> 00:26:42,650
eine solche Open-Source Messenger
Plattform in Europa etablieren könnte.
316
00:26:42,650 --> 00:26:50,130
Applaus — Wir wollen für alle Formen von
Datenverwertung die gleichen Regeln haben.
317
00:26:50,130 --> 00:26:54,600
Das gilt auch für die Sicherheitsbehörden,
die ja, wenn es Bundessicherheitsbehörden
318
00:26:54,600 --> 00:27:02,060
sind, auch meiner Aufsicht unterliegen.
Seit 2001, seit dem 11. September, sind in
319
00:27:02,060 --> 00:27:05,070
einer Geschwindigkeit neue
Sicherheitsgesetze in Deutschland
320
00:27:05,070 --> 00:27:11,070
dazugekommen, die es schwierig machen,
noch nachzuvollziehen, was tatsächlich der
321
00:27:11,070 --> 00:27:15,341
Stand des Datensammelns ist. Es hat nie
eine Evaluierung der Gesetze gegeben, ob
322
00:27:15,341 --> 00:27:20,760
sie erfolgreich waren oder nicht. Wir
erleben dass teilweise neue Datenschutz-
323
00:27:20,760 --> 00:27:24,140
Befugnisse gar nicht in der Breite
verwendet werden. Die Daten werden
324
00:27:24,140 --> 00:27:28,420
gesammelt, aber nicht ausgewertet, weil
natürlich längst das Personal fehlt. Wir
325
00:27:28,420 --> 00:27:33,790
haben problematische Datensammlungen, die
selbst von den Praktikerinnen und Praktikern
326
00:27:33,790 --> 00:27:39,440
in den Sicherheitsbehörden als überflüssig
eingestuft werden. Gleichzeitig gibt es
327
00:27:39,440 --> 00:27:44,460
aber natürlich auch immer wieder unbefugte
Zugriffe auf solche Daten. Wenn Sie den
328
00:27:44,460 --> 00:27:48,260
Tagen zum Beispiel nochmal von der
Berliner Polizei das gelesen haben, wo die
329
00:27:48,260 --> 00:27:53,710
Löschmoratorien dazu führen, dass seit
2013 keine Daten mehr aus den
330
00:27:53,710 --> 00:27:57,630
polizeilichen Informationssystem genommen
werden, selbst wenn sie nur Opfer oder
331
00:27:57,630 --> 00:28:03,790
Zeuge einer Straftat waren. Und die Daten
aber nicht etwa eine Zugriffsbefugnis zum
332
00:28:03,790 --> 00:28:08,440
Beispiel für einen Untersuchungsausschuss
bekommen – Anis Amri oder NSU –, sondern
333
00:28:08,440 --> 00:28:13,850
weiterhin für alle Polizistinnen und
Polizisten zugreifbar bleiben. Zu einem
334
00:28:13,850 --> 00:28:17,760
Protokollierung stattfindet, man aber
nicht einmal begründen muss, warum man
335
00:28:17,760 --> 00:28:21,600
darauf zugegriffen hat, und man sich dann
wundert, dass auf die Daten bestimmter
336
00:28:21,600 --> 00:28:26,430
Prominenter besonders häufig zugegriffen
wird, auf die Daten von Kolleginnen und
337
00:28:26,430 --> 00:28:32,540
Kollegen oder auch auf Nachbarn von
Menschen, die Zugriffsbefugnisse haben.
338
00:28:32,540 --> 00:28:37,420
Und solange das der Stand ist, wäre das
natürlich nicht wichtig, Löschmoratorien
339
00:28:37,420 --> 00:28:41,810
zu haben, sondern ein Sicherheitsgesetz-
Moratorium in diesem Land einzulegen und
340
00:28:41,810 --> 00:28:46,410
erst mal zu prüfen: Wo sind wir eigentlich
übers Ziel hinausgeschossen? Wo gibt es
341
00:28:46,410 --> 00:28:50,690
andere Mängel zu beseitigen, als laufend
Bürgerrechte einzuschränken? Mit der
342
00:28:50,690 --> 00:28:53,990
Sammlung zusätzlicher Daten über die
Bürgerinnen und Bürgern. Das täte
343
00:28:53,990 --> 00:29:05,290
Bürgerrechten und Sicherheit besser als
das nächste Gesetz. — Applaus —Stattdessen
344
00:29:05,290 --> 00:29:09,081
sollten wir beim Datenschutz nachschärfen
Die Datenschutzgrundverordnung ist ein
345
00:29:09,081 --> 00:29:12,840
großer Wurf, sie hat auch international
Strahlkraft, aber sie hat natürlich auch
346
00:29:12,840 --> 00:29:17,480
ihre Grenzen, wo wir heute schon merken,
dass sie technologischen Entwicklungen
347
00:29:17,480 --> 00:29:22,420
nicht ausreichend gefolgt ist, wo es
damals keinen Kompromiss gab und sie immer
348
00:29:22,420 --> 00:29:26,530
noch auf dem Stand von 1995 ist. Wenn ich
jetzt fragen würde, wer 1995 noch gar
349
00:29:26,530 --> 00:29:30,850
nicht geboren war, würden wahrscheinlich
einige Finger hochgehen. Sie können sich
350
00:29:30,850 --> 00:29:35,420
aber überlegen, was das für ein Stein-
zeitalter aus technologischer Sicht ist.
351
00:29:35,420 --> 00:29:39,340
Wir müssen es auch deswegen machen, weil
wir auch Vertrauen in Digitalisierung
352
00:29:39,340 --> 00:29:44,240
gewinnen müssen. Ich glaube nämlich nicht,
dass Daten der Rohstoff des 21.
353
00:29:44,240 --> 00:29:49,040
Jahrhunderts ist, sondern Vertrauen! In
einer so komplexen Welt, wo ich gar nicht
354
00:29:49,040 --> 00:29:53,550
mehr weiß – Wo werden Daten erhoben, wer
verwendet sie und ähnliches mehr? – kann ich
355
00:29:53,550 --> 00:29:57,210
nicht mir jedes einzelne Produkt, jede
einzelne Verbindung überprüfen, sondern
356
00:29:57,210 --> 00:30:02,841
ich muss ein System haben, in dem ich der
Anbieterin oder Anbieter, sei es staatlich
357
00:30:02,841 --> 00:30:06,827
oder privat, ein Grundvertrauen
entgegenbringen kann, weil sie bewiesen
358
00:30:06,827 --> 00:30:11,100
haben, dass sie bestimmte Standards jedes
Mal einhalten, wenn sie hereingehen, weil
359
00:30:11,100 --> 00:30:16,760
sie unabhängig überprüft werden können und
weil sie schwer bestraft werden, wenn sie
360
00:30:16,760 --> 00:30:21,030
sich an diese Standards dann bei einem
Produkt nicht gehalten haben. Wenn wir
361
00:30:21,030 --> 00:30:25,760
dies nicht machen, wenn wir das nicht
machen, hat es zwei Folgen. Es wird sich
362
00:30:25,760 --> 00:30:31,840
gewehrt werden gegen Digitalisierung, da,
wo es möglich ist. Andere werden gar nicht
363
00:30:31,840 --> 00:30:35,861
hineingehen. Wir wollen weder einen
Fatalismus nach dem Motto „Da kannst du
364
00:30:35,861 --> 00:30:40,080
nichts machen, ich stimme allen zu“. Und
auch keine digitale Askese haben. Wir
365
00:30:40,080 --> 00:30:43,679
möchten, dass Digitalisierung
gesellschaftliche Innovation und nicht nur
366
00:30:43,679 --> 00:30:52,707
technologische Innovation ist. — Applaus
Deswegen sind wir unterwegs und möchten in
367
00:30:52,707 --> 00:30:57,090
den Bereichen von Scoring und Profiling –
das sind ja die Schwestern des Trackings;
368
00:30:57,090 --> 00:31:02,320
Ich versuche, Leute einzuordnen, zu
kategorisieren, statistisch in Gruppen
369
00:31:02,320 --> 00:31:07,870
einzuteilen –; Da brauchen wir klare
Nachschärfungen. Und wir wollen natürlich
370
00:31:07,870 --> 00:31:13,450
gerade den kleinen Unternehmern und den
Start-Ups und den Einzel-EntwicklerInnen
371
00:31:13,450 --> 00:31:17,387
und -Entwicklern Erleichterungen im
Bereich der Informations- und
372
00:31:17,387 --> 00:31:21,380
Dokumentationspflichten verschaffen. Da
glaube ich durchaus, kann man an einigen
373
00:31:21,380 --> 00:31:25,770
Stellen zurückdrehen, wenn man dafür an
anderen Stellen das Datenschutzniveau
374
00:31:25,770 --> 00:31:32,610
durchaus höher wertet. Wir versuchen zu
helfen, über Guidelines und Auslegungs-
375
00:31:32,610 --> 00:31:38,020
Papiere, die wir heranziehen. Wir würden
aber gerne eins machen. Derzeit ist immer
376
00:31:38,020 --> 00:31:42,810
Verantwortlicher im Sinne des
Datenschutzrechts die Person, die ein
377
00:31:42,810 --> 00:31:48,390
System gegenüber Bürgerinnen und Bürgern,
Kundinnen und Kunden zum Einsatz bringt.
378
00:31:48,390 --> 00:31:53,690
Ich glaube, dass wir die Herstellerinnen
und Hersteller von Systemen stärker in die
379
00:31:53,690 --> 00:31:57,460
Verantwortung nehmen müssen und nicht nur
wegen Debatten, die Sie hier auf ihrem
380
00:31:57,460 --> 00:32:01,799
Kongress selber in den letzten Tagen ja
geführt haben, und interessanten
381
00:32:01,799 --> 00:32:06,990
investigativen Dokumenten, die Sie
veröffentlicht haben, sondern nur dann ist
382
00:32:06,990 --> 00:32:10,630
das möglich. Ich habe hier nur kurz
gestanden und bin wieder auf die üblichen
383
00:32:10,630 --> 00:32:16,320
Probleme angesprochen worden. Wie ist es
mit dem Einsatz von Windows 10 in meiner
384
00:32:16,320 --> 00:32:20,549
Rechtsanwaltskanzlei, in meiner Behörde in
ähnlichem mehr? Und dann immer zu sagen,
385
00:32:20,549 --> 00:32:23,660
„Ja derjenige der es einsetzt ist der
Verantwortliche im Sinne des
386
00:32:23,660 --> 00:32:27,380
Datenschutzrechts“ ist, glaube ich bei
immer komplexer werdenden Systemen, bei
387
00:32:27,380 --> 00:32:32,580
der Verabschiedung von der On-Premise-World
einfach zu kurz gesprungen und muss sich
388
00:32:32,580 --> 00:32:36,440
technisch an der Stelle durchaus weiter
bewegen. Es gibt also eine ganze Menge zu
389
00:32:36,440 --> 00:32:42,110
tun. Der Deutsche Bundestag hat uns
freundlicherweise eine deutliche
390
00:32:42,110 --> 00:32:46,370
Aufstockung an Stellen gegeben. Vielen
Dank an die anwesenden
391
00:32:46,370 --> 00:32:50,140
Bundestagsabgeordneten, damit wir ein
Stück noch mehr machen können. Sehr viel
392
00:32:50,140 --> 00:32:54,800
werden wir in der Tat in den
Sicherheitsbereich investieren. Wir
393
00:32:54,800 --> 00:32:59,980
stellen übrigens auch ein und deswegen an
alle, die im Saal sind: Wir brauchen Sie
394
00:32:59,980 --> 00:33:04,730
als Unterstützerin und Unterstützer in der
Sache. Wir brauchen Sie als konstruktive
395
00:33:04,730 --> 00:33:10,730
KritikerInnen und Kritiker. Wir brauchen
Sie als Beispielgeber und Beispielgeberinnen
396
00:33:10,730 --> 00:33:16,840
für datenschutzfreundliche, innovative
Technologien. Und wir würden auch gerne
397
00:33:16,840 --> 00:33:21,390
viele von Ihnen als Mitarbeiterinnen und
Mitarbeiter gewinnen. Es ist schön auf der
398
00:33:21,390 --> 00:33:25,910
hellen Seite der Macht – kommen Sie zum
BfDI! Vielen Dank für das Interesse bis zu
399
00:33:25,910 --> 00:33:28,650
dem Zeitpunkt. Ich freue mich
noch auf die Diskussion.
400
00:33:28,650 --> 00:33:38,960
Applaus
401
00:33:38,960 --> 00:33:51,580
Herald: So, wenn ihr Fragen habt, dann
stellt euch bitte an die Mikrofone hier im
402
00:33:51,580 --> 00:33:56,260
Saal und versucht eure Fragen kurz zu
formulieren. Frage Nummer 1 geht an den
403
00:33:56,260 --> 00:33:59,630
Signalangel.
Signalengel: Hier eine Frage von
404
00:33:59,630 --> 00:34:04,760
Mastodon: Nach dir hält auch Arne
Semsrott von Frag den Staat seinen Talk.
405
00:34:04,760 --> 00:34:09,850
Du bist ja auch
Informationsfreiheitbeauftragter. Hast du
406
00:34:09,850 --> 00:34:14,540
eine Erklärung, warum Ministerien und
Behörden, die selber immer mehr Befugnisse
407
00:34:14,540 --> 00:34:20,770
fordern, so unwillig sind, selber diese
öffentliche Daten auch preiszugeben?
408
00:34:20,770 --> 00:34:28,070
Kelber : Nein. — Lachen, vereinzelt Applaus
Und selbst dann, wenn sie gute Beispiele
409
00:34:28,070 --> 00:34:31,869
haben. Als wir damals im Justizministerium
2013 als neue Mannschaft angefangen
410
00:34:31,869 --> 00:34:37,020
hatten, haben wir uns nach ein paar Wochen
entschieden, dass wir alle Stellungnahmen,
411
00:34:37,020 --> 00:34:40,760
die im Rahmen zu Gesetzentwürfen ans
Ministerium geschickt werden – ist ja Teil
412
00:34:40,760 --> 00:34:45,149
der Gesetzgebung, dass man dann sagt,
jetzt hätten wir gerne Kommentierungen von
413
00:34:45,149 --> 00:34:50,780
Verbänden, Organisationen und anderen –
dass die alle öffentlich gemacht werden.
414
00:34:50,780 --> 00:34:58,460
Es ist keine einzige weniger reingekommen,
aber jeder kann nachprüfen: Von wem sind
415
00:34:58,460 --> 00:35:02,600
welche Anregungen zwischen Gesetzentwurf
und endgültigem Gesetz eingeflossen oder
416
00:35:02,600 --> 00:35:06,300
nicht. Das ist das, was ich als
Vertrauensbildung meine. Es haben
417
00:35:06,300 --> 00:35:10,120
teilweise einige übernommen, nachdem sie
vor Gericht dazu gezwungen wurden, haben
418
00:35:10,120 --> 00:35:13,880
das wieder eingestellt. Jetzt machen Sie
es wieder. In der Tat kann
419
00:35:13,880 --> 00:35:18,430
Informationsfreiheit für eine
Behördenleitung auch extrem ätzend sein.
420
00:35:18,430 --> 00:35:22,290
Und zwar nicht, weil irgendwas
Unangenehmes nachher veröffentlich wird.
421
00:35:22,290 --> 00:35:27,630
Dann muss man halt aufpassen, dass man
in den Kommentaren, die man auf
422
00:35:27,630 --> 00:35:31,830
was drauf schreibt in der Wortwahl
gemäßigt bleibt. Also schreibe ich nicht
423
00:35:31,830 --> 00:35:36,970
drauf. „Der Idiot“ oder so, sondern schreibe
ich „Ich bin nicht dieser Meinung“. Aber es
424
00:35:36,970 --> 00:35:42,260
kann natürlich unglaublich viel Arbeit
sein. Ich ärgere mich auch; ich bekomm irgendeine
425
00:35:42,260 --> 00:35:47,020
Beschwerde ins Haus. Nach zwei Wochen
stellt einer einen Informationsfreiheitsantrag
426
00:35:47,020 --> 00:35:50,750
alle E-Mails, die zu der Beschwerde in
unserem Haus geflossen sind, zu sehen.
427
00:35:50,750 --> 00:35:54,870
Dann schreiben wir ihm als Zwischengeschichte
auch noch zusätzlich zurück. Jetzt haben
428
00:35:54,870 --> 00:35:58,140
wir die Stelle um Stellungnahme gebeten.
Dann kriegen wir sofort
429
00:35:58,140 --> 00:36:02,020
Informationsfreiheitantrag, den gesamten
E-Mail-Verkehr mit der Stelle zu bekommen
430
00:36:02,020 --> 00:36:05,869
und am Ende anstatt 10 Beschwerden
bearbeiten zu können, sind wir mit einer
431
00:36:05,869 --> 00:36:10,370
Person beschäftigt. Das ärgert einen. Wir
sind natürlich die Guten. Da wir die
432
00:36:10,370 --> 00:36:14,440
Informationsfreiheit haben, machen wir
natürlich gerne mit Freude. Aber wenn ich
433
00:36:14,440 --> 00:36:18,420
zu ’ner Ministerin oder Minister gehe, die
kennen alle nur wieviele Leute werden
434
00:36:18,420 --> 00:36:23,630
abgezogen, um auch seltsame
Informationsfreiheitsgeschichten zu
435
00:36:23,630 --> 00:36:29,280
machen? Ich stoße dort auf wenige Fans. Zu
glauben, dass wir in absehbarer Zukunft
436
00:36:29,280 --> 00:36:31,750
auf Bundesebene eine deutliche
Verbesserung des
437
00:36:31,750 --> 00:36:35,050
Informationsfreiheitsgesetz sehen,
bezweifle ich. Da ist noch viel
438
00:36:35,050 --> 00:36:39,230
Überzeugungsarbeit zu leisten.
Herald: Mikrofon Nr. 4. Deine Frage
439
00:36:39,230 --> 00:36:42,360
bitte.
Frage: Herr Kelber, es ist Ihre Aufgabe,
440
00:36:42,360 --> 00:36:46,260
die Geheimdienste und Sicherheitsbehörden
zu kontrollieren und den Datenschutz auch
441
00:36:46,260 --> 00:36:50,710
dort. Sind Sie der Meinung, dass Sie das
effektiv tun können und ausreichend
442
00:36:50,710 --> 00:36:54,180
Fähigkeiten und Befugnisse haben?
Und wenn nein, was fehlt?
443
00:36:54,180 --> 00:37:00,730
Kelber: Die Kontrolle im Bereich der
Erhebung und Verarbeitung von Daten in dem
444
00:37:00,730 --> 00:37:05,340
gesamten restlichen Bereich? Ich glaube,
mit den zusätzlichen Stellen, wenn wir sie
445
00:37:05,340 --> 00:37:09,740
besetzt haben, haben wir durchaus erst
einmal Ressourcen, um auch die
446
00:37:09,740 --> 00:37:15,122
Kontrolldichte hochzuhalten. Wir werden
selber arbeiten müssen bei der Überlegung,
447
00:37:15,122 --> 00:37:19,130
wie technologische Veränderungen und auch
Veränderungen in den Informationssystemen
448
00:37:19,130 --> 00:37:23,741
der Dienste unsere Kontrolltätigkeit
gegenüber früher verändern. Aber das ist
449
00:37:23,741 --> 00:37:28,740
natürlich ganz was anderes. Ist Zugriff auf
eine sequentielle Datenbank mit einem
450
00:37:28,740 --> 00:37:35,080
Gothemsystem vom Palantier, wenn es zum
Einsatz käme, was in der Kontrolle in dem
451
00:37:35,080 --> 00:37:41,000
Unterschied ist, in der Zusammenarbeit der
Dienste untereinander mit dem Ausland,
452
00:37:41,000 --> 00:37:45,960
gibt es aus meiner Sicht durchaus
Kontrolllücken. Da versuchen wir auch, mit
453
00:37:45,960 --> 00:37:52,290
den anderen Aufsichtsgremien wie der
G-10-Kommission und der unabhängigen
454
00:37:52,290 --> 00:37:58,530
Gruppe im Kontakt zu sein. Und ich hätte
gerne natürlich … also in der Joint Implementation
455
00:37:58,530 --> 00:38:03,400
Richtlinie, die ich vorhin erwähnt hatte,
ja, für den Staatsbereich gilt. Die ist ja
456
00:38:03,400 --> 00:38:07,120
in Deutschland auch nach 3 Jahren noch
nicht vollständig umgesetzt. Im Bereich
457
00:38:07,120 --> 00:38:11,690
des BKA haben wir Untersagungsrechte.
Die müssten wir im
458
00:38:11,690 --> 00:38:15,410
Bereich der Bundespolizei auch haben. Die
hat man noch nicht eingerichtet als
459
00:38:15,410 --> 00:38:20,470
Gesetzgeber. Das ist ein Verstoß gegen
Europarecht in Deutschland. Wo es nicht
460
00:38:20,470 --> 00:38:23,780
vorgeschrieben wird durch Europarecht,
aber sinnvoll wäre, wäre diese
461
00:38:23,780 --> 00:38:27,490
Untersagungsrechte auch für die Dienste zu
haben. Das würde dann nicht nach dem
462
00:38:27,490 --> 00:38:31,360
Motto, Ich sage dann „aber die waren jetzt
ganz gemein, haben sich nicht ans Recht
463
00:38:31,360 --> 00:38:35,170
gehalten“, sondern ich könnte dann in
einem besonderen Fall in Zukunft
464
00:38:35,170 --> 00:38:39,960
untersagen die Nutzung von Daten oder die
Löschung anweisen. Und der Dienst müsste
465
00:38:39,960 --> 00:38:46,340
vor Gericht gehen und müsste vor Gericht
meine Anweisung widerrufen lassen. Ich
466
00:38:46,340 --> 00:38:50,200
glaube, das wäre der bessere Weg für die
Aufsicht und würde auch mehr Verständnis
467
00:38:50,200 --> 00:38:54,600
für die Arbeit der Dienste wecken. Aber
auch dafür gibt es noch keine Mehrheit
468
00:38:54,600 --> 00:38:59,290
beim Gesetzgeber.
Herald: Mikrofon Nr. 2. Deine Frage
469
00:38:59,290 --> 00:39:02,900
bitte.
Frage: Sie haben gesagt, dass wir ein
470
00:39:02,900 --> 00:39:07,290
gewisses Maß an Digital Literacy brauchen,
um der Probleme Herr werden zu können. Ich
471
00:39:07,290 --> 00:39:10,670
sehe gerade das Problem, dass wir
politisch eher in die entgegengesetzte
472
00:39:10,670 --> 00:39:15,280
Richtung steuern, primär weil kommunal
z. B. Meldedaten verkauft werden und die
473
00:39:15,280 --> 00:39:18,820
Bundesregierung auch eher rhetorisch
so eine … ökonomisch orientierte Linie
474
00:39:18,820 --> 00:39:24,910
fährt. Wie werden wir dieser Sache Herr?
Kelber: Ich meinte ja mit dem Begriff
475
00:39:24,910 --> 00:39:31,050
Digital Literacy, dass die Leute ein
Grundverständnis für digitale Vorgänge
476
00:39:31,050 --> 00:39:35,570
haben. Was passiert? Was passiert mit
Daten? Wie funktionieren IT-Systeme?
477
00:39:35,570 --> 00:39:39,720
Algorithmische Systeme? Das wird
übrigens—der Teil ist sicherlich auch
478
00:39:39,720 --> 00:39:44,470
eine Aufgabe von Schulen und
Bildungsinstitutionen. Da aber 80 Prozent
479
00:39:44,470 --> 00:39:49,119
der Bevölkerung die Schulzeit hinter sich
haben und mehr, werden wir sie auch über
480
00:39:49,119 --> 00:39:54,970
andere Wege erreichen müssen. Dazu gehören
übrigens auch in den Informationspflichten
481
00:39:54,970 --> 00:39:58,590
in der Datenverarbeitung nicht mehr „Ich
mache eine super lange Information“,
482
00:39:58,590 --> 00:40:03,650
sondern ich muss an einer Stelle, wo etwas
passiert, eine leichte Erläuterung des
483
00:40:03,650 --> 00:40:07,490
Vorgangs haben, damit die Menschen
tatsächlich mit dem Vorgang, den sie
484
00:40:07,490 --> 00:40:11,799
machen, ein Verständnis entwickeln können.
Was Sie meinen, ist ja die Frage, wie ist
485
00:40:11,799 --> 00:40:15,761
eigentlich die Souveränität? Wie kann ich
wenigstens wissen, was passiert? Was darf
486
00:40:15,761 --> 00:40:20,970
der Staat machen? Schaffen die gesetzliche
Grundlage für die Weitergabe von Daten
487
00:40:20,970 --> 00:40:24,420
einfach nur, weil sie davon ausgehen, dass
sie nicht genügend freiwillige
488
00:40:24,420 --> 00:40:28,460
Einverständnisses bekommen. Da muss sich
der Gesetzgeber zurückhalten. Er sollte bei
489
00:40:28,460 --> 00:40:32,832
den gesetzlichen Grundlagen trotzdem ’ne
Verhältnismäßigkeit bewahren. Ist übrigens
490
00:40:32,832 --> 00:40:36,660
auch etwas, was wir natürlich in unseren
Stellungnahmen immer mitprüfen und was
491
00:40:36,660 --> 00:40:41,510
auch vor Gericht angegriffen wird von
Nichtregierungsorganisationen. Das zweite
492
00:40:41,510 --> 00:40:45,270
ist, das war das, was ich vorhin meinte
technische Maßnahmen, die den Bürger auf
493
00:40:45,270 --> 00:40:48,230
einen höheren Stand nehmen.
Wenn wir jetzt wirklich mal an eine
494
00:40:48,230 --> 00:40:51,870
Registermodernisierung in Deutschland
herantreten, bitte bitte nicht – weil es
495
00:40:51,870 --> 00:40:56,150
aus meiner Sicht verfassungswidrig ist –
mit einem einheitlichen Identifier. Kann man
496
00:40:56,150 --> 00:41:00,190
auch anders machen. Aber dann wäre
wirklich mal ein Datencockpit, wo
497
00:41:00,190 --> 00:41:04,140
Bürgerinnen und Bürger sehen, zumindest
mal vielleicht außerhalb der unmittelbaren
498
00:41:04,140 --> 00:41:08,190
Sicherheitsdienste schon mal sehen können:
Wer hat welche Daten, wer hat sie
499
00:41:08,190 --> 00:41:12,990
abgerufen und mit wem geteilt? Von allen
staatlichen Registerstellen. Das kann man
500
00:41:12,990 --> 00:41:18,690
heute technisch herstellen, und das wäre
dann auch ein Gebot, dass der Bürgerinnen
501
00:41:18,690 --> 00:41:22,640
und Bürger etwas davon haben, wenn der
Staat seine IT-Systeme modernisiert.
502
00:41:22,640 --> 00:41:29,360
Applaus
Herald: Mikrofon Nummer 8 Deine Frage
503
00:41:29,360 --> 00:41:31,641
bitte.
Frage: Sie haben ja vorhin gesagt, dass
504
00:41:31,641 --> 00:41:37,510
ein möglicher Weg zu sichereren oder
datenschutzfreundlicheren IT-Produkten
505
00:41:37,510 --> 00:41:44,619
die Standardisierung und Zertifizierung
sein könnte. Was konkret ist denn da schon
506
00:41:44,619 --> 00:41:50,390
in der Entwicklung? Auf was können wir uns
einrichten? Es gibt ja die ISO 27001,
507
00:41:50,390 --> 00:41:55,600
aber da ist der Datenschutz eher ein
optionales Randthema. Und, genau,
508
00:41:55,600 --> 00:41:58,880
was kommt jetzt konkret?
Kelber: Bei der Standardisierung sind wir
509
00:41:58,880 --> 00:42:03,320
glaube ich noch nicht sehr weit. Aber wir
werden für die Entwicklungsmodelle gerade
510
00:42:03,320 --> 00:42:07,710
im Bereich algorithmischer Systeme und KI-
Systeme, denke ich, nochmal für erweiterte
511
00:42:07,710 --> 00:42:11,440
Standardisierung brauchen, mit der ich
wenigstens Modelle habe, wie ich in der
512
00:42:11,440 --> 00:42:14,700
Entwicklung bestimmte Dinge
berücksichtige. Wann mache ich welche
513
00:42:14,700 --> 00:42:18,580
Folgenabschätzungen? Wie steht die
Zurverfügungstellung von Daten aus? Wie
514
00:42:18,580 --> 00:42:23,380
sieht die Kontrolle von Datenqualität aus,
und und und. Bei der Zertifizierung sind
515
00:42:23,380 --> 00:42:27,700
wir ein Stückchen weiter. Ich spreche jetzt
bewusst nicht von Siegeln wie in dieser
516
00:42:27,700 --> 00:42:31,530
Debatte über das IT-Siegel, das ja dann
logischerweise, wenn es ein Siegel sein
517
00:42:31,530 --> 00:42:38,040
soll, auch weit über gesetzliche Vorgaben
hinausgehen müsste, sondern dass wir
518
00:42:38,040 --> 00:42:42,790
ermöglichen, dass man, wenn man ein
Produkt hat, sich durch eine
519
00:42:42,790 --> 00:42:47,340
Zertifizierungsstelle, die beliehen ist,
zertifizieren lassen kann, dass man damit
520
00:42:47,340 --> 00:42:51,690
die Anforderungen des Gesetzes eingehalten
hat. Das heißt, der nächste, der es
521
00:42:51,690 --> 00:42:55,869
einsetzt, bekommt das Siegel. Wenn ich das
wie vorgeschrieben einsetze, dann ist
522
00:42:55,869 --> 00:43:00,620
dieser Bestandteil DSGVO-konform, und
ich muss mir bei dem, was ich add-on mache,
523
00:43:00,620 --> 00:43:04,790
bin ich dann der Verantwortliche. Da sind
wir jetzt so weit, dass der Europäische
524
00:43:04,790 --> 00:43:09,110
Datenschutzausschuss seine Guideline
verabschiedet hat. Danach haben Sie
525
00:43:09,110 --> 00:43:12,790
erlaubt, dass die Nationalstaaten ihre
einbringen. Das haben wir im nächsten
526
00:43:12,790 --> 00:43:16,245
Monat gemacht. Ich hoffe, dass wir
spätestens im Februar die Genehmigung
527
00:43:16,245 --> 00:43:19,180
durch den europäischen
Datenschutzausschuss für die deutsche
528
00:43:19,180 --> 00:43:23,820
Variante bekommen. Dann dürften in diesem
Jahr noch die ersten Akkreditierungen,
529
00:43:23,820 --> 00:43:28,540
ersten Zertifizierer, durch die deutsche
Akkreditierungsstelle zugelassen werden.
530
00:43:28,540 --> 00:43:35,170
Ich erwarte, dass zum Beispiel im
Bereich der Cloud-Dienste ein solcher
531
00:43:35,170 --> 00:43:39,810
Zertifizierer an den Start geht.
Herald: Mikrofon Nummer 1,
532
00:43:39,810 --> 00:43:43,360
deine Frage bitte.
Frage: Vielen Dank für den Vortrag, auch
533
00:43:43,360 --> 00:43:47,709
dass Sie hier auf dem Kongress sind. Ja,
ich bin seit einiger Zeit verantwortlich
534
00:43:47,709 --> 00:43:50,310
in IT-Management-Positionen …
Herald: Bitte die Frage!
535
00:43:50,310 --> 00:43:54,420
Frage: … und auch da
implementierte ich natürlich sehr viele
536
00:43:54,420 --> 00:43:58,580
Datenschutzmaßnahmen. Sie haben es kurz
angesprochen. Mich würde interessieren,
537
00:43:58,580 --> 00:44:03,070
wann wir auch mal Ergebnisse sehen im
Bereich der großen Internetkonzerne –
538
00:44:03,070 --> 00:44:07,530
Google, Facebook, Amazon und so weiter,
ob dann auch mal vielleicht Bußgelder etc.
539
00:44:07,530 --> 00:44:12,370
auch an diese großen
Unternehmen zugeteilt werden.
540
00:44:12,370 --> 00:44:17,200
Kelber: Der Druck natürlich auf die Ba…
Ich habe ja vor allem zwei nationale
541
00:44:17,200 --> 00:44:22,950
Datenschutzbehörden genannt, die die
Zuständigkeit haben für besonders viele
542
00:44:22,950 --> 00:44:28,210
der großen Internetkonzerne. Ganz kurzer
Exkurs europäisches Datenschutzrecht,
543
00:44:28,210 --> 00:44:32,560
sogenannter One-Stop-Shop. Die nationale
Behörde, in der der Hauptsitz innerhalb
544
00:44:32,560 --> 00:44:37,630
der Europäischen Union ist, ist zuständig.
Das heißt, bei den Großen wie Google und
545
00:44:37,630 --> 00:44:45,000
Facebook und Microsoft und Apple ist das
z. B. Irland. Bei Amazon ist es Luxemburg
546
00:44:45,000 --> 00:44:50,830
als ein Beispiel. Und das sind
natürlich erstens relativ kleine
547
00:44:50,830 --> 00:44:56,740
Datenschutzbehörden. Sie haben einen
besonders wirtschaftsfreundliches
548
00:44:56,740 --> 00:45:01,260
Verwaltungsrecht,—vereinzelt Applaus—
… Ja, es sind besonders hohe
549
00:45:01,260 --> 00:45:05,650
Vorgaben dran, was man alles tun muss,
bevor man überhaupt einen Bescheid
550
00:45:05,650 --> 00:45:10,500
herausgeben darf. Wenn meine irische
Kollegin so über Fälle sprechen würde, wie
551
00:45:10,500 --> 00:45:14,220
ich das in Deutschland mache, würde sie
sofort vor Gericht scheitern. Weil dann
552
00:45:14,220 --> 00:45:17,270
würde der Richter sagen „Sie waren
voreingenommen in der gesamten
553
00:45:17,270 --> 00:45:21,139
Betrachtung“, völlig egal, ob sie selber
die Untersuchung gemacht hat oder jemand
554
00:45:21,139 --> 00:45:25,720
anderes. Trotzdem haben wir gesagt, es
sind jetzt über 600 Tage, und wir wollen
555
00:45:25,720 --> 00:45:29,290
zu sehr offensichtlichen Datenschutz-
Verstößen jetzt den Vorschlag der Iren
556
00:45:29,290 --> 00:45:33,140
und der Luxemburger auf den Tisch kriegen.
Und dann schauen wir anderen uns an, ob
557
00:45:33,140 --> 00:45:36,950
wir der gleichen Meinung sind. Und wenn
wir nicht der gleichen Meinung sind, dann
558
00:45:36,950 --> 00:45:40,460
wird mit Mehrheit im Europäischen
Datenschutzausschuss darüber abgestimmt,
559
00:45:40,460 --> 00:45:45,470
wie die Sicht der europäischen
Datenschutzbehörden sind. Und das ist dann
560
00:45:45,470 --> 00:45:51,340
der erlassene Bescheid. Das heißt, die
Gefahr, dass wie in Deutschland das
561
00:45:51,340 --> 00:45:55,860
Kraftfahrzeugbundesamt einfach alleine
entscheidet, entsteht am Ende im
562
00:45:55,860 --> 00:45:59,240
Datenschutz nicht. Da können dann die
anderen Kraftfahrzeugsbehörden das
563
00:45:59,240 --> 00:46:02,951
Kraftfahrzeugbundesamt bei Dieselgate
überstimmen. Das wäre doch schön, wenn es
564
00:46:02,951 --> 00:46:06,870
da auch gegeben hätte. Aber es dauert
halt. Ich habe jetzt den Iren angeboten, dass
565
00:46:06,870 --> 00:46:11,740
sie uns mal einen Fall abtreten dürfen.
Wir haben auch Fälle vorgeschlagen. Bisher
566
00:46:11,740 --> 00:46:17,459
ist das noch nicht beantwortet worden. Der
irische Staat hat nur einen minimalen
567
00:46:17,459 --> 00:46:20,980
Aufwuchs in diesem Jahr wiedergegeben
der Datenschutzbehörde. Die ist schon
568
00:46:20,980 --> 00:46:24,420
gewachsen in den letzten Jahren nur ein
Viertel von dem, was die Kollegin
569
00:46:24,420 --> 00:46:28,890
beantragt hatte. Und das ist ein Staat …
es ging um 5 Millionen Euro im Jahr. Der
570
00:46:28,890 --> 00:46:33,140
gleiche Staat, der im Augenblick vor
Gerichten, versucht zu verhindern, dass
571
00:46:33,140 --> 00:46:37,420
Apple ihm 14 Milliarden Euro Steuern bezahlen
muss. Da merken Sie, was der Gedanke
572
00:46:37,420 --> 00:46:41,350
dahinter ist. Ich habe bewusst Dieselgate
verwendet, um deutlich zu machen: Das ist
573
00:46:41,350 --> 00:46:44,690
ja auch den Nationalstaaten in der
Europäischen Union nicht fremd, sich
574
00:46:44,690 --> 00:46:48,450
schützend vor einen Wirtschaftszweig zu
stellen. Aber das dürfen wir ihm einfach
575
00:46:48,450 --> 00:46:52,360
nicht durchgehen lassen. Aber wann es
soweit ist, kann ich Ihnen noch nicht sagen.
576
00:46:52,360 --> 00:46:56,840
Applaus
Herald: Signal-Angel, die nächste Frage
577
00:46:56,840 --> 00:47:01,180
aus dem Internet bitte.
Frage: Woran scheitert es, dass
578
00:47:01,180 --> 00:47:05,480
Datensparsamkeit so wenig Gehör in der
Politik stößt? Und wie können wir Hacker
579
00:47:05,480 --> 00:47:10,020
dabei helfen, abseits davon
für Sie zu arbeiten? —vereinzelt Lachen
580
00:47:10,020 --> 00:47:16,710
Kelber: Ich glaube, erst einmal hat es
eine erfolgreiche Lobbyarbeit darin
581
00:47:16,710 --> 00:47:23,060
gegeben, Menschen an führenden Stellen
in der Politik zu verstehen zu geben,
582
00:47:23,060 --> 00:47:28,820
Datensparsamkeit sei Datenarmut. Man müsse
wichtige Daten wegschmeißen. Damit würden
583
00:47:28,820 --> 00:47:33,130
wir mit USA und China nie mehr
gleichziehen können. Dieser einfache
584
00:47:33,130 --> 00:47:37,950
Dreisatz ist denen in die Köpfe implementiert
worden. Deswegen – habe ich tatsächlich auf
585
00:47:37,950 --> 00:47:41,740
dem Digitalgipfel erlebt – wie einen Monat
bevor europäisches Recht ist, mit den
586
00:47:41,740 --> 00:47:45,810
Stimmen Deutschlands beschlossen
wurde, endgültig wirksam wurde:
587
00:47:45,810 --> 00:47:50,210
Datenschutzgrundverordnung, die
Bundeskanzlerin sich hinstellt und sagt:
588
00:47:50,210 --> 00:47:54,160
„Wir müssen das Prinzip der
Datensparsamkeit aufgeben“. Das aber später
589
00:47:54,160 --> 00:47:58,000
bindendes europäisches Recht wurde, vorher
bindendes deutsches Recht war. Das ist
590
00:47:58,000 --> 00:48:04,411
schon etwas, was man selten erlebt an dem
Punkt. Da werden wir ein ganzes Stück für
591
00:48:04,411 --> 00:48:09,820
werben müssen, dass das einfach nicht wahr
ist. Wenn wir aber auch einfache Narrative
592
00:48:09,820 --> 00:48:14,599
gemeinsam entwickeln müssen, die ähnlich
aufzuführen. Ich finde ja so ein
593
00:48:14,599 --> 00:48:18,840
Narrativ wie „dich gehen Daten nichts an,
die nichts mit einer Dienstleistung zu tun
594
00:48:18,840 --> 00:48:23,190
haben“, ist so eine einfach, weil das ist
eine Werteentscheidung, die ich treffe. Und
595
00:48:23,190 --> 00:48:27,089
solche Werteentscheidungen haben wir oft
getroffen. Klar wird es für Deutschland
596
00:48:27,089 --> 00:48:30,340
wirtschaftlich attraktiver,
Kohlekraftwerke mit Kindern zu betreiben,
597
00:48:30,340 --> 00:48:34,200
weil dann könnte man die Stollen kleiner
machen. Dann können wir gleich wieder mit
598
00:48:34,200 --> 00:48:38,150
Preisen aus Kolumbien mithalten. Haben wir
uns aber aus Wertegründen entschieden, es
599
00:48:38,150 --> 00:48:41,930
nicht zu tun. Dasselbe sollten wir auch
mit Daten machen, die unsere Grundrechte
600
00:48:41,930 --> 00:48:48,650
beeinflussen.
Applaus
601
00:48:48,650 --> 00:48:51,940
Herald: Mikrofon Nummer 4,
deine Frage bitte.
602
00:48:51,940 --> 00:48:57,140
Frage: Herr Kelber, Sie haben ja selber
gesagt, dass Gesetze oftmals noch nicht
603
00:48:57,140 --> 00:49:01,268
reichen. Mir persönlich geht es auch so,
dass ich das Gefühl habe, zum Beispiel die
604
00:49:01,268 --> 00:49:05,110
Datenschutzgrundverordnung ist manchmal
ein bisschen zahnlos, und meine Frage an
605
00:49:05,110 --> 00:49:08,891
Sie ist: Welche Handlungsalternativen
sehen Sie da? Wie sieht es aus z. B. mit
606
00:49:08,891 --> 00:49:13,358
Bereitstellung von alternativer
Infrastruktur? Gerade zu Cloud, großen
607
00:49:13,358 --> 00:49:17,080
Cloud-Anbietern zum Beispiel. Wie sieht es
aus mit Förderungen für Open-Source-
608
00:49:17,080 --> 00:49:21,081
Software für Projekte, die z. B. auch
irgendwie grün unterwegs sind,
609
00:49:21,081 --> 00:49:24,910
Daten schützen, wie auch immer. Was gibt’s
da für Möglichkeiten in der Politik?
610
00:49:24,910 --> 00:49:29,320
Kelber: Ich glaube, man sollte nicht das
eine lassen und das andere unterschätzen
611
00:49:29,320 --> 00:49:34,070
und das dritte dann nicht machen. Ich bin
für die Förderung vor allem dort, wo ich
612
00:49:34,070 --> 00:49:39,379
glaube, mit der Förderung – das ist ja dann
mein Job – Verbesserungen für die Datenschutz-
613
00:49:39,379 --> 00:49:43,610
Situation herbeizuführen. Das war das Beispiel
mit den Messengersystemen, weil die
614
00:49:43,610 --> 00:49:46,950
natürlich welche sind, wo ganz
besonders viele relevante sensible Daten
615
00:49:46,950 --> 00:49:52,860
abgegriffen werden. Da bin ich in eine
Monopolsituation reingekommen, die ich
616
00:49:52,860 --> 00:49:56,720
nur noch mit Krafft aufbrechen kann.
Das eine wäre, diese Frage der
617
00:49:56,720 --> 00:50:01,790
Interoperabilität zu erzwingen, wenn
allein ein Drittel der Sprachnachrichten
618
00:50:01,790 --> 00:50:05,910
heutzutage über Messengersysteme, nicht
mehr über Handy oder Festnetz geht, da
619
00:50:05,910 --> 00:50:09,590
müssen sie auch die gleichen Pflichten
erfüllen wie die anderen. Das ist z. B.
620
00:50:09,590 --> 00:50:16,080
Interoperabilität. Ich glaube aber, und
deswegen werbe ich dafür. Und der Chef des
621
00:50:16,080 --> 00:50:19,860
Bundesamtes für die Sicherheit in der
Informationstechnik hat ja ähnliches schon
622
00:50:19,860 --> 00:50:23,360
mal verlautbaren lassen. Ich glaube
tatsächlich, wir sollten ein Messenger
623
00:50:23,360 --> 00:50:27,280
System als deutsche Verwaltung – am besten
die gesamte, aber ansonsten muss der Bund
624
00:50:27,280 --> 00:50:31,440
eben anfangen – anbieten für Bürgerinnen
und Bürger. Aber eins, das datenschutz-
625
00:50:31,440 --> 00:50:35,740
freundlich ist. Und da, glaube ich, gehe
das tatsächlich nur auf der Open Source
626
00:50:35,740 --> 00:50:40,970
Software Basis. Und wenn unser großer
Nachbarstaat es auf einer solchen Basis
627
00:50:40,970 --> 00:50:45,440
macht – Matrix – sich dann anzuschauen,
sind das die gleichen Bedingungen, die die
628
00:50:45,440 --> 00:50:49,720
Franzosen haben und dann noch mehr
Schlagkraft reinzubringen. Ich verstehe
629
00:50:49,720 --> 00:50:54,550
das ja manchmal im privaten Umfeld nicht.
Dass Menschen, die 15 verschiedene
630
00:50:54,550 --> 00:51:03,270
Leih-Fahrräder und -Elektroscooter-
Anwendungen auf ihrem Gerät haben, nicht
631
00:51:03,270 --> 00:51:08,990
in der Lage sein wollen, einen zweiten
Messenger zu installieren, mit dem sie mir
632
00:51:08,990 --> 00:51:13,300
ohne Daten abgreifen, mit mir
kommunizieren können, da ist irgendwie
633
00:51:13,300 --> 00:51:20,700
eine Denkblockade. — Applaus
Herald: Mikrofon Nummer 2 bitte.
634
00:51:20,700 --> 00:51:25,640
Frage: Wie sensibilisiert man den
durchschnittlichen nicht-IT-affinen Bürger
635
00:51:25,640 --> 00:51:29,680
und Politiker für sein eigenes
Interesse an Datenschutz?
636
00:51:29,680 --> 00:51:35,320
Kelber: Ansprechen! Die wollen auch
angesprochen werden. Den Bürgerinnen
637
00:51:35,320 --> 00:51:38,891
und Bürgern muss man es wahrscheinlich …
Politikerinnen und Politiker wollen
638
00:51:38,891 --> 00:51:43,390
angesprochen werden, auch die nicht-
Netzpolitiker, nicht die Digital-
639
00:51:43,390 --> 00:51:48,590
Politikerinnen und -Politiker. Bei
Bürgerinnen und Bürgern wird man
640
00:51:48,590 --> 00:51:52,640
vielleicht auch neben dem jährlichen
Skandal, nachdem es mal ein kurzes
641
00:51:52,640 --> 00:51:57,500
Interesse gibt, das nicht immer sich im
Handeln ausprägt, wird man das auf eine
642
00:51:57,500 --> 00:52:01,640
Art und Weise machen müssen, dass sie
Bilder erkennen, dass sie in einfachen
643
00:52:01,640 --> 00:52:05,520
Systemen machen. Was meistens
funktioniert, wenn ich in Gruppen rede,
644
00:52:05,520 --> 00:52:10,859
die keine Vorbildung haben, ist ihnen zu
verdeutlichen, was das, was im digitalen
645
00:52:10,859 --> 00:52:15,440
Bereich gerade passiert, in ihrer
gewohnten analogen Welt bedeuten würde.
646
00:52:15,440 --> 00:52:19,370
Wenn ich denen dann erzähle mit Tracking:
Stell dir mal vor, du gehst in die Bonner
647
00:52:19,370 --> 00:52:23,369
Fußgängerzone und in dem Augenblick, wenn
du sie betrittst, beginnt einer, hinter dir
648
00:52:23,369 --> 00:52:26,959
herzulaufen, der schreibt auf, an
welchen Geschäften du stehenbleibst, mit
649
00:52:26,959 --> 00:52:31,040
wem du dich unterhälst. Der bietet dir
irgendwann Kaffee an. Kostenlos. Wenn ihr
650
00:52:31,040 --> 00:52:35,130
nach dem Becher greift, sagt er aber „Ich
will erstmal gucken, wer waren denn die
651
00:52:35,130 --> 00:52:38,960
letzten fünf Leute, die sie getroffen
haben.“ Wenn es verboten würde,
652
00:52:38,960 --> 00:52:43,100
Briefumschläge zu verwenden, alles nur
noch auf Postkarten geschrieben werden
653
00:52:43,100 --> 00:52:47,970
dürfte. Wenn Sie es so übertragen in die
Welt, die die kennen. Dann wird der ein
654
00:52:47,970 --> 00:52:58,480
oder andere auch wach. — Applaus — Als ich
noch Parteipolitiker war, habe ich mir
655
00:52:58,480 --> 00:53:03,170
immer mal vorgenommen, einen Kaffeestand beim
Tag der offenen Tür vorm Innenministerium
656
00:53:03,170 --> 00:53:07,740
zu machen mit umsonst Kaffee. Aber den
kriegen die Leute dann tatsächlich nur,
657
00:53:07,740 --> 00:53:11,830
wenn ich einmal kurz ihr Handy
durchgucken darf. — Lachen, Applaus
658
00:53:11,830 --> 00:53:15,310
Aber das kann ich jetzt nicht mehr machen,
das traue ich mich nicht mehr.
659
00:53:15,310 --> 00:53:19,190
Herald: Mikrofon Nummer 8 bitte!
Frage: Vielen Dank noch einmal für den
660
00:53:19,190 --> 00:53:24,170
Talk. Man sieht hier auf dem Kongress
selbst da, wo man denkt, man hat viel
661
00:53:24,170 --> 00:53:28,710
Gutes an Sicherheit gemacht, gibt es immer
noch Schlupflöcher. In den meisten Fällen
662
00:53:28,710 --> 00:53:34,170
hat man nicht so viel Gutes gemacht. Daher
von mir die kurze Frage: Wie ist bei Ihnen
663
00:53:34,170 --> 00:53:40,869
das Verhältnis Datenminimierung zu dem
Thema Datensicherheit, sprich in Form von
664
00:53:40,869 --> 00:53:46,690
Sicherheitsmaßnahmen zu sehen? Wo ist die
Minimierung wichtiger? Und wo ist die
665
00:53:46,690 --> 00:53:50,070
Sicherheit akzeptabel?
Kelber: Ich glaube übrigens, dass man
666
00:53:50,070 --> 00:53:54,950
erstmal durch Datensicherheit eine ganze
Reihe von Datenschutz-Sicherheitsproblemen
667
00:53:54,950 --> 00:53:58,600
ausschließen kann, aber was sie ja
wahrscheinlich ansprechen ist, dass ich an
668
00:53:58,600 --> 00:54:02,490
manchen Stellen eventuell Daten sammeln
muss, um z. B. Angriffsvektoren oder
669
00:54:02,490 --> 00:54:05,020
ähnliches zu erkennen. War es das,
was Sie meinten?
670
00:54:05,020 --> 00:54:12,061
Frage: Es ging darum, dass wir überall
sehen: Belgacom. Da greift sich einfach ein
671
00:54:12,061 --> 00:54:15,191
fremder Geheimdienst die Daten und
ähnliches …
672
00:54:15,191 --> 00:54:21,919
Kelber: Daten. Dann ist Datenminimierung
ein Teil eines Datensicherheitskonzeptes.
673
00:54:21,919 --> 00:54:26,620
Übrigens auch das Verteilthalten von Daten und
ähnliches ist eine Frage, die ich erwartet
674
00:54:26,620 --> 00:54:30,310
hatte. Wie ist das im digitalen
Gesundheitsschutz? Es gibt ja Daten, wo
675
00:54:30,310 --> 00:54:34,070
es durchaus unethisch sein könnte, sie
nicht einzusetzen. Aber was sind denn die
676
00:54:34,070 --> 00:54:37,220
Sicherheitsmaßnahmen? Wie kann ich
wenigstens das Sicherheitsniveau
677
00:54:37,220 --> 00:54:40,890
erreichen, das ich vorher in der analogen
Welt hatte, wo es ja auch eine Menge
678
00:54:40,890 --> 00:54:44,170
Verstöße gab? Wo krieg ich eine
Verbesserung hin? Wo sind die Daten so
679
00:54:44,170 --> 00:54:47,850
sensibel, dass ich mit zusätzlichen
Methoden dafür sorgen muss. Von daher auch
680
00:54:47,850 --> 00:54:51,810
vielen Dank an den Kongress für die
Aufdeckung der Sicherheitsprobleme bei den
681
00:54:51,810 --> 00:54:59,240
Karten. Thema Sie können sich sicher
sein, — Applaus — Sie können sich sicher
682
00:54:59,240 --> 00:55:03,450
sein, dass das auch Thema meiner
Referatsleitungsrunde am 6. Januar
683
00:55:03,450 --> 00:55:11,539
sein wird. — Lachen, Applaus
Herald: Mikrofon Nummer 1, Bitte.
684
00:55:11,539 --> 00:55:19,170
Frage: Herr Kelber, schön, dass Sie hier
sind. Sie haben sehr ambitionierte Ziele
685
00:55:19,170 --> 00:55:26,500
zu schadhaften Algorithmen geäußert und
auch zu, dass wir Vertrauen schaffen
686
00:55:26,500 --> 00:55:31,630
müssen. Dann haben Sie eben
gerade noch was erzählt von den
687
00:55:31,630 --> 00:55:37,180
Zertifizierungenmöglichkeiten? Da weise ich
mal darauf hin, dass die Diesel-Motoren
688
00:55:37,180 --> 00:55:45,520
unserer Auto-Hersteller auch alle zertifiziert
sind. Um mal an Auguste Kerckhoff zu
689
00:55:45,520 --> 00:55:50,670
erinnern: Die Sicherheit eines Algorithmus
kann nicht in der Geheimhaltung des
690
00:55:50,670 --> 00:55:54,510
Algorithmus liegen, sondern sollte
möglichst vielen Experten offenstehen.
691
00:55:54,510 --> 00:56:02,780
Jetzt die Frage: Sehen Sie eine andere
Möglichkeit als Open Source um Ihre Ziele,
692
00:56:02,780 --> 00:56:08,863
Algorithmen – schadhafte Algorithmen – zu
verhindern oder Vertrauen zu schaffen? Ist
693
00:56:08,863 --> 00:56:12,220
das mit proprietärer Software
überhaupt machbar?
694
00:56:12,220 --> 00:56:18,210
Kelber: Thema für einen eigenen Vortrag.
Ich glaube, es wird Bereiche geben, wo ich
695
00:56:18,210 --> 00:56:23,920
Daten, nur indem ich sie überhaupt … indem
ich den Algorithmus öffentlich mache, überhaupt
696
00:56:23,920 --> 00:56:28,880
nur Teil einer Kritikalitätsbetrachtung
sein kann. Schauen Sie sich das auch mal in
697
00:56:28,880 --> 00:56:33,589
Zusammenfassung der Empfehlung der Daten
Ethikkommission mit der Pyramide zu
698
00:56:33,589 --> 00:56:37,520
algorithmischen System an. Da ist die
zweitoberste Stufe eine mit der
699
00:56:37,520 --> 00:56:41,700
völligen Offenlage. Für mich als
Aufsichtsbehörde gilt aber trotzdem, dass
700
00:56:41,700 --> 00:56:45,859
wir an bestimmten Stellen
hineingucken wollen in Systemen.
701
00:56:45,859 --> 00:56:49,009
Das ist mir natürlich auch klar,
dass sich die sehr schnell ändern.
702
00:56:49,009 --> 00:56:51,560
also dass ich nicht einmal einen
Punkt habe, wo ich da bin. Dem „Nein“
703
00:56:51,560 --> 00:56:57,520
dort von Unternehmen oder
Behörden. Das akzeptieren wir nicht.
704
00:56:57,520 --> 00:57:01,300
Also wir als Aufsichtsbehörde dürfen alles
sehen. Ansonsten bin ich auch bereit,
705
00:57:01,300 --> 00:57:08,510
Zwangsmaßnahmen einzuleiten. Der Punkt
wird allerdings der sein, dass natürlich,
706
00:57:08,510 --> 00:57:13,302
wenn nicht zertifiziert werden kann, dass
etwas, was eingesetzt ist, tatsächlich die
707
00:57:13,302 --> 00:57:16,930
Punkte erreicht, die man zertifiziert,
dann darf auch kein Zertifikat erteilt
708
00:57:16,930 --> 00:57:20,710
werden. Das war eine der Erfahrungen aus
dem Dieselgate. Deswegen habe ich in
709
00:57:20,710 --> 00:57:24,068
meiner alten Verwendung ja noch
Koalitionsverhandlungen geführt, 2018,
710
00:57:24,068 --> 00:57:28,059
nach den Bundes-Wink-Wochen gab es echte
Koalitionsverhandlungen. Und da steht ein
711
00:57:28,059 --> 00:57:33,720
Satz drinnen: Es muss überhaupt mal etwas
geschaffen werden, wo öffentliche Behörden
712
00:57:33,720 --> 00:57:37,589
die Kompetenz entwickeln können, in
algorithmische Systeme rein zu schauen.
713
00:57:37,589 --> 00:57:41,210
Und das kann auch nicht sein, dass es
jeder einstellt. Weil ich kann nicht 20
714
00:57:41,210 --> 00:57:45,070
Expertinnen / Experten einstellen, das BSI
40, das Kraftfahrzeugbundesamt 10, das
715
00:57:45,070 --> 00:57:50,630
BaFin 10. Das wird nicht klappen. So viele
gibt es gar nicht auf dem Markt die das
716
00:57:50,630 --> 00:57:54,240
können. Wir werden also eine Stelle
beauftragen. Kann ja auch an einem
717
00:57:54,240 --> 00:57:58,450
Netzwerk mit Wissenschaft und
Zivilgesellschaft stehen, um die
718
00:57:58,450 --> 00:58:02,310
Entwicklung von so etwas anzuschauen. Und
dann sind wir wieder etwas näher an dem,
719
00:58:02,310 --> 00:58:06,370
was Sie gesagt haben.
Herald: Lieber Single-Angel, die nächste
720
00:58:06,370 --> 00:58:10,200
Frage aus Internet.
Frage: Sollte man darauf achten, IFG-
721
00:58:10,200 --> 00:58:15,109
Anfragen verantwortungsvoll zu stellen und
auf ein Minimum zu reduzieren, um die
722
00:58:15,109 --> 00:58:22,560
Akzeptanz bei Ministerien zu erhöhen?
Kelber: Wie bei jedem Instrument sollte
723
00:58:22,560 --> 00:58:26,320
man etwas nur dann machen, wenn man es
selber für richtig hält. Aber das ist der
724
00:58:26,320 --> 00:58:30,440
erste Maßstab, natürlich. Aber das wird ja
allein nicht reichen. Ich habe natürlich
725
00:58:30,440 --> 00:58:34,458
auch schon Informationsfreiheitsanfragen
gesehen, die man im Augenblick selber gesagt
726
00:58:34,458 --> 00:58:38,510
hat „Die ist nicht sinnvoll.“ Nachher kam
etwas raus über den kleinen Umweg, wo man
727
00:58:38,510 --> 00:58:42,279
gesagt hat „Es war gut, dass da einer
nachgefasst hat.“ Umgekehrt habe ich bei
728
00:58:42,279 --> 00:58:47,390
Sicherheitsbehörden auch schon IFG-Anträge
gesehen, wo man nichts anderes versucht hat,
729
00:58:47,390 --> 00:58:52,329
als den Ermittlungsstand der Sicherheits-
behörden gegen hochkriminelle Banden
730
00:58:52,329 --> 00:58:57,910
herauszubekommen. Die Bandbreite ist so
groß, die Entscheidung treffen Sie selbst.
731
00:58:57,910 --> 00:59:02,130
Das Gesetz sagt, was Sie dürfen, was Sie
nicht dürfen. Was beantwortet werden muss,
732
00:59:02,130 --> 00:59:07,099
was nicht beantwortet werden muss. Und bei
allem, was das IFG angeht, sind wir noch
733
00:59:07,099 --> 00:59:11,601
in der Ombudsmann-Funktion. Das heißt,
wenn eine Auskunft verweigert wird, können
734
00:59:11,601 --> 00:59:15,510
Sie sich an uns wenden, und wir beurteilen
aus unserer Sicht noch einmal die
735
00:59:15,510 --> 00:59:20,500
Situation.
Herald: Mikrofon Nr. 4, deine Frage?
736
00:59:20,500 --> 00:59:26,540
Frage: Hallo, zunächst vielen Dank, dass
Sie hier sind. Vielen Dank für den Vortrag
737
00:59:26,540 --> 00:59:31,100
und auch herzlichen Dank, dass Sie die
Problematik mit WiFi für die EU auf den
738
00:59:31,100 --> 00:59:36,510
europäischen Datenschutztisch gebracht
haben. Zu meiner Frage: Sie hatten gerade
739
00:59:36,510 --> 00:59:41,090
das Beispiel angesprochen mit der
Notwendigkeit von Datenschutz im
740
00:59:41,090 --> 00:59:45,190
öffentlichen Raum, am Beispiel des Laufens
durch die Fußgängerzone in beispielsweise
741
00:59:45,190 --> 00:59:52,810
Bonn. Sehen Sie dass momentan Arbeit im
Wettbewerbsrecht besteht, um entsprechend,
742
00:59:52,810 --> 00:59:56,770
ich sage mal datensammelwütige
Geschäftsmodelle für Kommunen auch
743
00:59:56,770 --> 01:00:00,720
handhabbar zu machen. Wir haben in Aachen
gerade das Problem, dass im Rahmen von der
744
01:00:00,720 --> 01:00:06,829
Stadtmobiliarausschreibung man ich sage
mal die Wertschöpfung von Daten aus dem
745
01:00:06,829 --> 01:00:12,020
öffentlichen Raum, in der Ausschreibung
nicht berücksichtigt hat, sodass die Stadt
746
01:00:12,020 --> 01:00:17,890
jetzt in der Problematik ist, dass für eine
Stadtmobiliarausschreibung ein Anbieter, der
747
01:00:17,890 --> 01:00:23,890
Daten abschnorchelt ein nach Wettbewerbsrecht
zu wählendes, weil günstigeres Angebot
748
01:00:23,890 --> 01:00:29,550
vorgelegt hat, als ein Anbieter, der nicht
Daten abschnorchelt. Konkret geht es um
749
01:00:29,550 --> 01:00:35,070
ICIM-Trekker an Bushaltestellen.
Kelber: Ist mir im Augenblick nichts
750
01:00:35,070 --> 01:00:38,479
bekannt. Müsste ich tatsächlich
nachhaken, ob auf meiner Fachebene schon
751
01:00:38,479 --> 01:00:42,340
Debatte gegeben hat? Vielen Dank für die
Anregung. Ist ja einer der Gründe, warum
752
01:00:42,340 --> 01:00:46,170
ich hierher gekommen bin, Anregungen
mitzunehmen. Nein, kann ich Ihnen leider gar
753
01:00:46,170 --> 01:00:49,770
nichts zu sagen. Ich weiß, dass im
Augenblick die nächste GWB Novelle dran
754
01:00:49,770 --> 01:00:53,980
ist, aber was dort in den Entwürfen steht
und ob wir schon beteiligt wurden im
755
01:00:53,980 --> 01:00:58,589
Vorfeld – manche Ministerien beteiligen uns
ja im Vorfeld – und dann geben wir unsere
756
01:00:58,589 --> 01:01:03,090
Beratungen nicht öffentlich. Weiß ich
nicht, aber ist zumindest nicht von meinem
757
01:01:03,090 --> 01:01:07,301
Fachebene für so relevant gehalten worden,
dass ich darüber informiert wurde. Also
758
01:01:07,301 --> 01:01:11,570
wenn ist es nur auf kleiner Ebene.
Herald: Vielen Dank, Herr Kelber, für das
759
01:01:11,570 --> 01:01:16,390
geduldige Beantworten aller Fragen. Vielen
Dank für Ihren Vortrag. Es können leider
760
01:01:16,390 --> 01:01:18,250
nicht mehr alle Fragen drankommen.
761
01:01:18,250 --> 01:01:26,210
Applaus
762
01:01:26,210 --> 01:01:31,690
36c3 Abspannmusik
763
01:01:31,690 --> 01:01:43,230
Untertitel erstellt von c3subtitles.de
im Jahr 2020. Mach mit und hilf uns!