1
00:00:00,000 --> 00:00:18,659
35C3 Intro Musik
2
00:00:18,659 --> 00:00:24,290
Herald: Okay willkommen hier in
Eliza für den dritten Talk dieses Blocks
3
00:00:24,290 --> 00:00:30,829
an diesem zweiten Tage hier. Uns wird
heute Rainer Rehak etwas über: "Was
4
00:00:30,829 --> 00:00:35,010
schützt eigentlich der Datenschutz?"
erzählen. Und er wird uns eine kleine
5
00:00:35,010 --> 00:00:40,560
Einführung mit einem strukturellen Blick
auf den Datenschutz gewähren, um uns ein
6
00:00:40,560 --> 00:00:46,789
bisschen Debatten-Rüstzeug zu geben. Und
da würde ich euch bitten eine Runde
7
00:00:46,789 --> 00:00:50,249
Applaus zu spendieren und Rainer
willkommen zu heißen.
8
00:00:50,249 --> 00:00:53,969
Applaus
9
00:00:53,969 --> 00:00:55,869
Rainer Rehak: Hallo.
10
00:00:55,869 --> 00:00:58,589
Applaus
11
00:00:58,589 --> 00:01:02,447
Rainer: Ja, Hallo, herzlich willkommen,
welcome und ni hao.
12
00:01:03,930 --> 00:01:09,750
Ja, was schützt eigentlich der Datenschutz. Ich bin sehr
froh, hier sprechen zu dürfen, weil
13
00:01:11,030 --> 00:01:14,469
vielleicht teilweise ein bisschen
pointiert als These, warum
14
00:01:14,469 --> 00:01:17,448
Datenschützer*innen aufhören müssen von
individueller Privatheit zu sprechen.
15
00:01:17,448 --> 00:01:21,190
Das ist ja immer so ein Thema was sich
durchzieht, wenn es um Datenschutz geht,
16
00:01:21,190 --> 00:01:25,210
dann geht's gleich um die Privatsphäre und
das Innerste des Menschen. Das ist sicher
17
00:01:25,210 --> 00:01:30,610
auch richtig. Aber meiner Ansicht nach ist
das ein bisschen zu klein und spielt
18
00:01:30,610 --> 00:01:36,659
gerade den Personen in die Hände, die wir
eigentlich - ich sag jetzt mal wir - die wir
19
00:01:36,659 --> 00:01:41,550
eigentlich mit der Argumentation
bekämpfen wollen, oder überzeugen wollen,
20
00:01:41,550 --> 00:01:46,659
im besten Falle. Also erst mal zu mir: So ein
bisschen, dass man immer weiß, wer da
21
00:01:46,659 --> 00:01:49,909
spricht, was für einen Hintergrund ich
habe, dass man das ein bisschen
22
00:01:49,909 --> 00:01:53,949
einsortieren kann, inhaltlich. Ich bin
selber wissenschaftlicher Mitarbeiter am
23
00:01:53,949 --> 00:01:58,659
Weizenbaum-Institut für die vernetzte
Gesellschaft. Meine Forschungsbereiche und
24
00:01:58,659 --> 00:02:01,409
Forschungsinteressen so Technik-
Zuschreibungen also Funktions-
25
00:02:01,409 --> 00:02:05,540
Zuschreibungen, IT-Sicherheit,
Datenschutz, Informatik und Gesellschaft.
26
00:02:05,540 --> 00:02:10,920
Ich selber habe Informatik und
Philosophie studiert, an der Humboldt-
27
00:02:10,920 --> 00:02:15,920
Universität zu Berlin, Freie Uni Berlin
und Chinese University of Hongkong.
28
00:02:15,920 --> 00:02:20,000
Und habe auch meine Diplomarbeit geschrieben
über die heimliche Online-Durchsuchung,
29
00:02:20,000 --> 00:02:24,800
und insbesondere um die gesellschaftlichen
Konsequenzen davon. Außerdem bin ich aktiv
30
00:02:24,800 --> 00:02:28,569
im Forum InformatikerInnen für Frieden und
gesellschaftliche Verantwortung, bei
31
00:02:28,569 --> 00:02:31,380
Amnesty International und bei der
Gesellschaft für Informatik.
32
00:02:31,380 --> 00:02:35,260
Worum soll es heute gehen? Einen Fahrplan:
Erstmal will ich ein bisschen was über
33
00:02:35,260 --> 00:02:42,150
Begriffe sagen, die dann fallen werden,
dann über das Problem, was es überhaupt zu
34
00:02:42,150 --> 00:02:45,590
diskutieren gibt im Datenschutz. Dann gibt
es ein bisschen Theorie und
35
00:02:45,590 --> 00:02:49,980
Operationalisierung. Operationalisierung
heißt: Wie man aus den ganzen
36
00:02:49,980 --> 00:02:54,129
theoretischen Konstrukten dann tatsächlich
konkrete Handlungen ableiten kann. Dann
37
00:02:54,129 --> 00:02:59,921
möchte ich was über die, auch in der
Beschreibung des Talks so ein bisschen
38
00:02:59,921 --> 00:03:05,970
kritisierten Nicht-Lösungen sagen, konkret
darauf eingehen. Vielleicht, wenn sich da
39
00:03:05,970 --> 00:03:08,890
Fragen anschließen werden wir auch eine
Q&A noch machen, dass wir das diskutieren
40
00:03:08,890 --> 00:03:12,299
können zusammen. Dann werde ich ein Fazit
präsentieren und dann kommt noch eine
41
00:03:12,299 --> 00:03:18,140
Literaturliste, Literaturhinweise. Die
Folien kommen dann auch ins frab, für
42
00:03:18,140 --> 00:03:21,000
diejenigen unter euch die sich da noch
weiter einlesen wollen und das weiter
43
00:03:21,000 --> 00:03:29,349
verfolgen wollen über diese Foundations-
Ebene hinweg. Also, erstmal die Begriffe.
44
00:03:29,349 --> 00:03:32,090
Erst einmal, wenn man über Datenschutz
redet - im Englischen ist es ja noch
45
00:03:32,090 --> 00:03:36,320
komplizierter, so mit Privacy und Data
Protection und so weiter - es gibt erstmal
46
00:03:36,320 --> 00:03:40,240
so einen Begriffe-Mix, das wird dann auch
zusammen gehauen mit Überwachung und dann
47
00:03:40,240 --> 00:03:43,504
ist das so eine Mischung. Deswegen will
ich das jetzt erstmal auseinanderziehen,
48
00:03:43,504 --> 00:03:47,920
dass wir wissen worüber wir reden.
Erstens: Datenschutz selber ist ein
49
00:03:47,920 --> 00:03:52,630
sozialwissenschaftlicher Begriff. Ich
werde die alle nachher so ein bisschen
50
00:03:52,630 --> 00:03:57,119
mehr auffächern, insbesondere
Datenschutz. 'Datenschutzrecht' ist ein
51
00:03:57,119 --> 00:04:01,580
juristischer Begriff und 'Datensicherheit'
ist ein informatischer Begriff.
52
00:04:01,580 --> 00:04:05,769
Ich glaube, Datenschutzrecht, da haben wir
eine ganze Menge dazu jetzt schon gehört,
53
00:04:05,769 --> 00:04:10,680
sowohl in den Medien, weil die, zum Beispiel
die Datenschutz-Grundverordnung ja wirksam
54
00:04:10,680 --> 00:04:15,939
geworden ist 2018 jetzt im Mai. Und über
Datensicherheit haben wir hier mit
55
00:04:15,939 --> 00:04:20,640
Sicherheit ja auch eine ganze Menge schon
gehört und gewusst. Der Witz daran ist,
56
00:04:20,640 --> 00:04:24,910
dass das alles so ein bisschen
zusammengehört bei dem Thema, aber dennoch
57
00:04:24,910 --> 00:04:29,530
diese Bereiche, oder diese Themen, jeweils
eigenen Diskurs-Regeln gehorchen. Und
58
00:04:29,530 --> 00:04:33,000
wie bei allem ist es so, dass die Problem-
beschreibung selber auch die Lösung
59
00:04:33,000 --> 00:04:37,050
so bisschen vordefiniert. Das heißt, der
Korridor, wo man hinschaut, was da irgendwie
60
00:04:37,050 --> 00:04:42,940
als sinnvolle Lösung irgendwie in Betracht
kommt. Und welcher Informations-
61
00:04:42,940 --> 00:04:46,220
oder welcher Daten-Begriff wird da
verwendet. Das ist auch eine
62
00:04:46,220 --> 00:04:49,440
Schlüsselfrage, die ist gar nicht so schwer,
aber die muss gestellt werden. Und
63
00:04:49,440 --> 00:04:55,751
die muss beantwortet werden. Jetzt mal
kurz als Überflug. Das Datenschutzrecht
64
00:04:55,751 --> 00:04:58,479
schützt also Personen. Der
Anknüpfungspunkt dabei sind
65
00:04:58,479 --> 00:05:04,880
personenbezogene Daten. Das kennt man ja
auch, weitläufig diskutiert. Und zum
66
00:05:04,880 --> 00:05:08,900
Beispiel die Begründung, was schützt
eigentlich die Datenschutzgrundverordnung,
67
00:05:08,900 --> 00:05:13,070
oder was setzt sie um, wäre im
juristischen, würde man sagen: Naja, die
68
00:05:13,070 --> 00:05:16,900
setzt halt Artikel 8 der Charta der
Grundrechte der Europäischen Union um. In
69
00:05:16,900 --> 00:05:21,270
der Informatik würde man sagen: Okay, das
leitet auf ein weiteres Terminal. 'Was ist
70
00:05:21,270 --> 00:05:25,120
denn Artikel 8 der Charta der Grundrechte
der Europäischen Union?' Das ist so eine
71
00:05:25,120 --> 00:05:29,930
Art, die Verfassung der EU. Zum Beispiel
als Vergleich mal mit dem deutschen
72
00:05:29,930 --> 00:05:34,563
Grundgesetz. Auch da ist Artikel 1: Die
Würde des Menschen ist unantastbar. Sie
73
00:05:34,563 --> 00:05:38,800
ist zu achten und zu schützen. Und Artikel
8, das der für die DSGVO besonders
74
00:05:38,800 --> 00:05:42,540
relevante, ist 'Schutz personenbezogener
Daten'. Das steht da einfach genauso drin.
75
00:05:43,296 --> 00:05:47,650
Und wenn der Schutz personenbezogener
Daten ein Grundrecht ist auf europäischer
76
00:05:47,650 --> 00:05:49,970
Ebene, ist ja klar, dass jegliche
Datenverarbeitung dann auch eine
77
00:05:49,970 --> 00:05:53,880
Verletzung von Grundrechten ist. Wobei die
Frage da bleibt: Ja, aber warum
78
00:05:53,880 --> 00:06:00,349
eigentlich? Wenn man so ein bisschen vor-
rechtlich diskutieren will, wenn man sagt:
79
00:06:00,349 --> 00:06:03,120
Wir schützen personenbezogene Daten.
Warum? Ja, weil wir ein Recht auf Schutz
80
00:06:03,120 --> 00:06:08,139
personenbezogener Daten haben; ist es
richtig, aber unbefriedigend.
81
00:06:09,889 --> 00:06:13,229
Aber zum Datenschutzrecht gibt es ja auf dem
Kongress auch eine ganze Menge anderer
82
00:06:13,229 --> 00:06:16,530
Vorträge, es klang auch alle sehr
interessant. Deswegen würden wir jetzt
83
00:06:16,530 --> 00:06:21,139
darüber nicht reden. Datensicherheit ist
eine Sache, wie ich bereits angemerkt
84
00:06:21,139 --> 00:06:26,120
habe, die auch gerade im Chaos-Umfeld eine
große Rolle spielt. Das heißt, wenn man
85
00:06:26,120 --> 00:06:28,510
sich anguckt was ist Datensicherheit:
üblicherweise Schutzziele zur
86
00:06:28,510 --> 00:06:31,479
Vertraulichkeit, Integrität,
Verfügbarkeit. Wenn man so ein bisschen
87
00:06:31,479 --> 00:06:35,981
Techie-mäßig drauf ist, würde man grob
verallgemeinern: Vertraulichkeit sind die
88
00:06:35,981 --> 00:06:40,100
Leserechte, Integrität sind die
Schreibrechte, Verfügbarkeit sind die
89
00:06:40,100 --> 00:06:43,040
Exekutiv-, die Ausführungsrechte. Ist
jetzt ein bisschen hingebogen, aber so
90
00:06:43,040 --> 00:06:47,139
ungefähr kann man sich das vorstellen. Das
heißt Verfügbarkeit: ob so ein System für
91
00:06:47,139 --> 00:06:50,950
mich funktioniert und den Service
abliefert, den ich haben möchte.
92
00:06:51,780 --> 00:06:55,949
In der Datensicherheit geht es aber primär - also was
heißt 'aber' - geht es primär um die
93
00:06:55,949 --> 00:06:59,610
Sicherheit von Geschäftsprozessen und von
vorhandenen Daten. Das heißt, die
94
00:06:59,610 --> 00:07:02,419
Daten sind da, die müssen ordentlich
abgesichert werden, zugreifbar bleiben,
95
00:07:02,419 --> 00:07:07,140
nicht verändert werden und so weiter. Seit
2008 haben Personen sogar ein Grundrecht
96
00:07:07,140 --> 00:07:10,800
auf die Gewährleistung der Vertraulichkeit
und Integrität informationstechnischer
97
00:07:10,800 --> 00:07:15,790
Systeme. Aber auch zur Datensicherheit
selber gibt es auf dem Kongress andere
98
00:07:15,790 --> 00:07:20,900
Vorträge. Jetzt ist die Frage: Was ist denn
mit dem Datenschutz? Das heißt, wenn wir Rechte
99
00:07:20,900 --> 00:07:25,301
haben, auf zum Beispiel den Schutz
personenbezogener Daten, guckt man in die
100
00:07:25,301 --> 00:07:29,380
Richtung: Wie wird denn das motiviert? Und
dann kommt der Datenschutz selber ins
101
00:07:29,380 --> 00:07:33,080
Spiel, als sozialwissenschaftliche
Diskussion, wer wird da warum eigentlich
102
00:07:33,080 --> 00:07:38,000
wie geschützt? Und dazu kurz ein paar
Bemerkung zum gesellschaftlichen
103
00:07:38,000 --> 00:07:42,100
Hintergrund. Also erstens: Wir leben in einer
arbeitsteiligen Gesellschaft. Das heißt,
104
00:07:42,100 --> 00:07:47,289
verschiedene Menschen haben verschiedene
Aufgaben. Wir sind spezialisiert und ich
105
00:07:47,289 --> 00:07:50,479
muss nicht Socken nähen können, um
mit Socken herumzulaufen, weil jemand
106
00:07:50,479 --> 00:07:55,850
anders das kann. Ihr kennt das Spiel. Es
gibt eben Spezialisierung und niemand ist
107
00:07:55,850 --> 00:08:00,009
sozusagen in allem spezialisiert. Diese
Arbeitsteilung hat auch Konsequenzen, wie
108
00:08:00,009 --> 00:08:03,720
wir nachher sehen. Es gibt diverse Akteure,
die miteinander irgendwie funktional
109
00:08:03,720 --> 00:08:09,139
interagieren. Vielleicht menschlich
interessiert es mich schon, wie es dem
110
00:08:09,139 --> 00:08:12,130
Bäcker oder der Bäckerin gerade geht, aber
tatsächlich möchte ich da gerade Geld auf
111
00:08:12,130 --> 00:08:15,620
den Tisch legen und mein Brötchen kriegen
morgens. Oder je nachdem, wann auch immer.
112
00:08:15,620 --> 00:08:19,560
Das heißt, man tritt so funktional
irgendwie miteinander in Verbindung.
113
00:08:20,080 --> 00:08:25,690
Und in dieser Gesellschaft gibt's dann eben
auch... da sind ja nicht alle Leute, die
114
00:08:25,690 --> 00:08:29,530
da mitspielen nicht gleich mächtig
oder gleich fähig. Finanzielle
115
00:08:29,530 --> 00:08:33,710
Unterschiede können das sein, das können
strukturelle Unterschiede sein. An dem
116
00:08:33,710 --> 00:08:37,157
Fall jetzt zum Beispiel mit Individuum und
Organisation. Individuum ist eine
117
00:08:37,157 --> 00:08:40,630
Person, die hat so Hände, und kann
irgendwie Dinge tun, und dann gibt es
118
00:08:40,630 --> 00:08:44,980
Organisationen, die aus vielen Menschen
bestehen, aus Regeln, finanziellen Möglichkeiten,
119
00:08:44,980 --> 00:08:48,380
rechtlichen Möglichkeiten und
so weiter. Und die sind natürlich
120
00:08:48,380 --> 00:08:53,630
nicht gleich mächtig; haben verschiedene
Möglichkeiten, ihre Interessen
121
00:08:53,630 --> 00:08:57,610
durchzusetzen. Das heißt, sie haben
verschiedene Möglichkeiten. Sie haben
122
00:08:57,610 --> 00:09:00,280
verschieden große Macht, um in diesem
gesellschaftlichen Spiel
123
00:09:00,280 --> 00:09:05,970
mitzumachen. Das sind Machtasymmetrien. Max
Weber sagt... kann man mit ihm sprechen:
124
00:09:05,970 --> 00:09:09,360
"Macht ist die Chance, in einer sozialen
Beziehungen den eigenen Willen auch gegen
125
00:09:09,360 --> 00:09:13,904
Widerstreben durchzusetzen, gleichviel worauf
diese Chance beruht." Kann man
126
00:09:13,904 --> 00:09:16,280
unterscheidenden in Durchsetzungskraft:
also Dinge zu verursachen.
127
00:09:16,280 --> 00:09:19,660
Verhinderungsmacht: Dinge nicht
stattfinden zu lassen, die dem eigenen
128
00:09:19,660 --> 00:09:24,070
Interesse widersprechen, und
Definitionsmacht: Wie spricht man über
129
00:09:24,070 --> 00:09:27,570
bestimmte Themen. Ein bisschen
Wahlcomputer, Wahlmaschinen und ihr kennt
130
00:09:27,570 --> 00:09:32,900
die Geschichte. Jetzt ist die Frage: Ok,
das ist alles noch nicht technisch. Beim
131
00:09:32,900 --> 00:09:39,980
Datenschutz, was uns für den Datenschutz
interessiert, ist an der Stelle, dass wir
132
00:09:39,980 --> 00:09:43,960
in eine allgemeine allgegenwärtige
Computerisierung und Vernetzung haben.
133
00:09:43,960 --> 00:09:47,890
Aka. Digitalisierung wird es seit ein paar
Jahren genannt, obwohl dieser Prozess seit
134
00:09:47,890 --> 00:09:51,330
ungefähr 50 Jahren schon läuft. Und
wir haben automationsgestützte
135
00:09:51,330 --> 00:09:55,000
Informationsverarbeitung, insbesondere von
Organisationen, also von staatlichen und
136
00:09:55,000 --> 00:09:59,610
von wirtschaftlichen Organisationen.
Mittlerweile, oder seit einer Weile, ist es
137
00:09:59,610 --> 00:10:05,170
schon so, dass da eben keine individuellen
Wahlmöglichkeiten mehr sind. Man kann sich
138
00:10:05,170 --> 00:10:08,210
entscheiden kein Handy zu haben, aber wenn
man Steuern zahlt, muss man halt doch mit
139
00:10:08,210 --> 00:10:12,580
dem ELSTER arbeiten. Egal ob es Rente,
Krankenkasse und so weiter... ihr kennt die
140
00:10:12,580 --> 00:10:16,330
Geschichten. Man kommt da eben auch nicht
mehr raus. Es sei denn man zieht irgendwie
141
00:10:16,330 --> 00:10:20,540
in den Wald und eine Höhle. Aber wenn man
sich dann verletzt, kann man vielleicht
142
00:10:20,540 --> 00:10:23,230
einen Kräutertee trinken, aber wenn der
Arm ab ist, dann will man vielleicht doch
143
00:10:23,230 --> 00:10:25,590
ein Krankenhaus.
144
00:10:27,710 --> 00:10:30,080
Warum ist das relevant?
Naja, diese Informationsverarbeitung,
145
00:10:30,080 --> 00:10:33,870
die Nutzung dieser Daten, die wird
verwendet, um Entscheidungen zu
146
00:10:33,870 --> 00:10:39,500
produzieren. Entscheidungen produzieren
heißt: Wieviel Geld kann ich abheben. Was
147
00:10:39,500 --> 00:10:44,420
ist die schnellste Route von A nach B. Was
sind irgendwie beste Freunde, die ich
148
00:10:44,420 --> 00:10:47,160
vorgeschlagen bekomme. All diese Sachen,
das sind ja alles Entscheidungen, wo man
149
00:10:47,160 --> 00:10:54,640
auch anders hätte agieren können, aber
Computer says... und so weiter. Kleine
150
00:10:54,640 --> 00:10:57,710
Bemerkung natürlich: diese Entscheidungen werden
produziert, egal ob die Datenbasis korrekt
151
00:10:57,710 --> 00:11:02,550
ist oder nicht. Die Ergebnisse sind da und
werden dann... wenn die Karte falsch
152
00:11:02,550 --> 00:11:05,620
ist, landet man im Graben, zum Beispiel.
153
00:11:07,046 --> 00:11:09,250
Okay, jetzt ist die Frage: Naja, wir reden
154
00:11:09,250 --> 00:11:13,728
von Datenschutz und von
Informationsverarbeitung. Daten oder
155
00:11:13,728 --> 00:11:19,390
Informationen, ganz kurz, wir sind noch in
der Begriffsphase. Also Daten im Datenschutz
156
00:11:19,390 --> 00:11:24,080
meint Informationen, die Modelle eines
Sachverhaltes für einen Zweck sind. Das
157
00:11:24,080 --> 00:11:30,620
ist jetzt erst mal ein bisschen viel auf
einmal. Aber wenn ich eine Glaserei betreibe,
158
00:11:30,620 --> 00:11:34,510
dann interessiert mich natürlich bei einem
Haus was ich in meiner Datenbank eintrage:
159
00:11:34,510 --> 00:11:38,300
Wie viele Fenster sind in dem Haus, wie
groß sind die Fenster, welche Art von
160
00:11:38,300 --> 00:11:41,550
Format sind das und so weiter. Wenn ich
irgendwie eine Malerei betreibe dann
161
00:11:41,550 --> 00:11:46,200
interessiert mich natürlich: Wie groß ist die
Fläche des Hauses und so weiter. Das heißt, ich
162
00:11:46,200 --> 00:11:50,570
greife mir immer einen Ausschnitt aus der
Realität und modelliere den auf diesen
163
00:11:50,570 --> 00:11:55,730
Zweck hin wofür ich es verwenden will,
dann bei der Datenverarbeitung. Das heißt,
164
00:11:55,730 --> 00:12:02,760
es sind Modelle eines Realitäts-
Ausschnitts. Für einen bestimmten Zweck.
165
00:12:03,970 --> 00:12:07,740
Und deswegen können wir nicht den
technischen Informationsbegriff von Shannon
166
00:12:07,740 --> 00:12:11,110
nehmen. Also von wegen Abtastung und
welche Auflösung ist da und wie, ihr
167
00:12:11,110 --> 00:12:15,790
kennt das so, mit 44 Kilohertz und CD und
nimm doch lieber die Goldstecker und so.
168
00:12:15,790 --> 00:12:21,250
Das ist nicht der Punkt. Wir benutzen
einen der Semiotik, der sagt, Informationen
169
00:12:21,250 --> 00:12:25,131
oder die Daten, aus Datenschutz,
bestehen aus Syntax, Semantik, Pragmatik
170
00:12:25,131 --> 00:12:29,529
und Sigmatik. Syntax ist die zeichenmäßige
Repräsentation, also die Nullen und
171
00:12:29,529 --> 00:12:33,860
Einsen. Semantik ist die Bedeutung.
Pragmatik ist der Zweck, für den diese
172
00:12:33,860 --> 00:12:37,580
Daten erhoben worden sind. Wir erinnern
uns, die Glaserei oder die Malerei.
173
00:12:37,580 --> 00:12:41,680
Und Sigmatik ist die betroffene Person.
Das heißt, wessen Haus das ist, oder so.
174
00:12:41,680 --> 00:12:44,240
Als Beispiel könnte man sagen:
175
00:12:46,011 --> 00:12:49,180
irgendwie so ein Tupel von
Nullen und Einsen, so ein
176
00:12:49,180 --> 00:12:53,430
Zweiertupel. Die Semantik davon: Aha das
sind Geo-Koordinaten, das müsste im System
177
00:12:53,430 --> 00:12:58,220
hinterlegt sein, eines Mobiltelefons.
Pragmatik: Der Zweck wäre die
178
00:12:58,220 --> 00:13:01,040
Bereitstellung ortsabhängiger Services zum
Beispiel für eine Routenplanung, wo möchte
179
00:13:01,040 --> 00:13:05,440
ich hin, wo gibt es eine Pizza oder so. Und
Sigmatik ist dann Maxi Musterfrau, weil das
180
00:13:05,440 --> 00:13:09,480
die Person ist, deren Mobiltelefon das
ist, an der Stelle.
181
00:13:11,650 --> 00:13:15,550
So ist die Situation. Das ist doch erstmal nett,
klingt irgendwie nützlich. Aber was ist
182
00:13:15,550 --> 00:13:20,890
eigentlich das Problem jetzt? Die Technik,
die immer besser wird, und die Daten,
183
00:13:20,890 --> 00:13:23,710
die gesammelt werden, Informationen,
die verarbeitet werden und
184
00:13:23,710 --> 00:13:27,620
anhand derer Entscheidungen getroffen
werden, die wird immer besser, immer
185
00:13:27,620 --> 00:13:30,290
effizienter nach bestimmten Kriterien,
aber sie hilft natürlich den
186
00:13:30,290 --> 00:13:35,530
Organisationen, die sie verwenden, ihre
eigenen Interessen besser durchzusetzen.
187
00:13:35,530 --> 00:13:38,911
Technik soll die Welt besser machen,
aber nicht für alle, sondern für die,
188
00:13:38,911 --> 00:13:41,750
die sie einsetzen - und zwar für die, die
sie im besten Fall selber bauen
189
00:13:41,750 --> 00:13:47,371
können und dann ihren eigenen
Vorstellungen gemäß formen.
190
00:13:49,591 --> 00:13:53,680
Und das kann eben auch sein, dass bei
dieser Informationsverarbeitung
191
00:13:53,680 --> 00:13:58,180
auch Grundrechte von Personen berührt
werden. Die klassische Diskussion ist
192
00:13:58,180 --> 00:14:01,280
immer so Fragen von
Diskriminierungen oder Ungerechtigkeiten,
193
00:14:01,280 --> 00:14:06,220
weil die Daten falsch sind oder sowas, so
Geschichten. Das heißt, wenn die Ergebnisse,
194
00:14:06,220 --> 00:14:09,030
die da produziert werden - im
schlimmsten Falle auch vollautomatisch -,
195
00:14:10,230 --> 00:14:14,725
dass sie Rechte von Menschen berühren und
die an der Stelle erst mal, weil sie ja
196
00:14:14,725 --> 00:14:18,260
Gegenstand - der Automat sagt halt: "Du
kriegst kein Geld" oder "in diesem Monat
197
00:14:18,260 --> 00:14:23,410
ist alles schon aufgebraucht", dagegen
kann man jetzt erst mal nichts tun.
198
00:14:24,514 --> 00:14:28,640
Das heißt, da ist sozusagen eine direkte
Konsequenz dieser Datenverarbeitung auf
199
00:14:28,640 --> 00:14:32,860
Menschen, auf Menschengruppen oder auf
ganze Gesellschaften. Allerdings muss man
200
00:14:32,860 --> 00:14:35,190
auch sagen, diese Datenverarbeitung
ist wünschenswert, weil sie uns auch
201
00:14:35,190 --> 00:14:38,810
was bringt. Also es ist nicht so, dass
DatenschützerInnen selber am liebsten
202
00:14:38,810 --> 00:14:42,860
zurück in die besagte Höhle wollen, wo das
Feuer komplett verständlich ist.
203
00:14:42,860 --> 00:14:45,960
Nein, wir wollen diese informations-
technischen Systeme, die uns
204
00:14:45,960 --> 00:14:49,530
das Leben erleichtern, die wollen wir alle
haben, aber die Effekte, die negativen,
205
00:14:49,530 --> 00:14:53,490
die es auf Menschen hat und auf
Gesellschaften, die wollen wir minimieren.
206
00:14:53,490 --> 00:14:57,090
Und da hilft es natürlich, wenn man
mit Technikerinnen und Technikern redet.
207
00:14:57,090 --> 00:14:59,905
Ja klar, man kann Systeme auf
verschiedene Arten bauen, man muss halt
208
00:14:59,905 --> 00:15:02,570
nur vorher sagen, was man haben will.
209
00:15:04,590 --> 00:15:07,390
Und jetzt, wenn man die Probleme mal so
210
00:15:07,390 --> 00:15:10,810
konkretisiert, würde man sagen: 1.
Datenverarbeitung ist wünschenswert, aber
211
00:15:10,810 --> 00:15:15,000
es gibt innerorganisatorische
Datenverarbeitung oder
212
00:15:15,000 --> 00:15:20,080
Informationsverarbeitung, das heißt, ich
kann ja selber überlegen, was ich
213
00:15:20,080 --> 00:15:24,360
vielleicht einer Organisation gebe an
Daten und was nicht, aber was die dann
214
00:15:24,360 --> 00:15:27,970
intern damit machen, diese Frage, für
welchen Zweck sie sie verwenden, wem sie
215
00:15:27,970 --> 00:15:31,684
sie weitergeben und so weiter, das kann
ich selber nicht mehr beeinflussen. In dem
216
00:15:31,684 --> 00:15:34,850
Moment sind die Daten außerhalb
meiner Hand, sind nicht mehr in meiner
217
00:15:34,850 --> 00:15:40,110
Kontrolle. Und 2. gibt es natürlich die
Macht-Asymmetrien. Das heißt, eine Firma,
218
00:15:40,110 --> 00:15:44,740
die Unmengen von Daten über Individuen
hat, kann die natürlich analysieren und
219
00:15:44,740 --> 00:15:48,290
daraus Erkenntnisse generieren, die ich
aus meinen eigenen Daten gar nicht ziehen
220
00:15:48,290 --> 00:15:54,230
kann. Das heißt also, alleine die schiere
Macht, der schierer Datenunterschied,
221
00:15:54,230 --> 00:15:56,941
erzeugt andere Möglichkeiten auf den
verschiedenen Seiten, das heißt, die
222
00:15:56,941 --> 00:16:00,580
Player sind alle nicht gleich stark und
das hängt auch, insbesondere, wenn wir
223
00:16:00,580 --> 00:16:04,570
über Datenschutz reden, von der Menge an
Daten ab, die vorhanden sind.
224
00:16:06,720 --> 00:16:09,700
Das heißt, wie ich es eben beschrieben habe,
nun als Zitat nochmal von Adalbert
225
00:16:09,700 --> 00:16:14,160
Podlech: "Informationsvorgänge dürfen
keine sozialschädlichen Folgen
226
00:16:14,160 --> 00:16:19,491
herbeiführen." Das ist so die
Formulierung. Oder man kann es auch mit
227
00:16:19,491 --> 00:16:23,150
Martin Rost sagen: "Die
Handlungsalternativen des, in diesen
228
00:16:23,150 --> 00:16:27,080
Interaktionen Schwächeren, die sollen
aufrechterhalten werden." Es soll nicht
229
00:16:27,080 --> 00:16:30,230
irgendwann so sein, dass die
Organisationen komplett sagen: "Das ist
230
00:16:30,230 --> 00:16:34,600
das Richtige für dich und deswegen gehst
du diesen Weg lang. Und ihr kennt das ja,
231
00:16:34,600 --> 00:16:38,780
wenn in irgendwelchen Softwaren das Menü
halt nicht sagt "exportieren", dann geht's
232
00:16:38,780 --> 00:16:44,660
halt nicht. Das heißt also, wenn wir das
möchten, muss eben Datenverarbeitung unter
233
00:16:44,660 --> 00:16:48,496
Bedingungen gestellt werden. Man muss
sagen, wenn die Gefahr für so eine
234
00:16:48,496 --> 00:16:51,890
Einschränkung von Grundrechten und so
weiter besteht, dann müssen wir irgendwie
235
00:16:51,890 --> 00:16:56,110
Bedingungen für die Datenverarbeitung
formulieren, dass das minimiert wird oder
236
00:16:56,110 --> 00:16:58,890
dass den Risiken begegnet wird oder dass
sie nicht stattfinden, dass man dieses
237
00:16:58,890 --> 00:17:03,190
Thema einfach anders baut, dass sie das
nicht tun. Innerhalb sozusagen,
238
00:17:03,190 --> 00:17:08,429
man würde es jetzt als Fachtermini
nennen: eine Konditionierung der
239
00:17:08,429 --> 00:17:12,500
Macht-Asymmetrie. Das heißt, Konditionen,
also die Bedingung oder Voraussetzung
240
00:17:12,500 --> 00:17:16,310
stellen, unter denen dann diese
Datenverarbeitung stattfindet. Eben, warum
241
00:17:16,310 --> 00:17:20,050
muss es jetzt irgendwie konditioniert
werden? Weil ich als Außenstehender
242
00:17:20,050 --> 00:17:23,800
natürlich nicht die Computersysteme von
Amazon und wie sie alle heißen, ich kann
243
00:17:23,800 --> 00:17:27,440
die ja nicht umprogrammieren, ich kann
halt die Knöpfe verwenden, die sie mir
244
00:17:27,440 --> 00:17:31,080
geben. Nichts Anderes. Oder ich kann
sagen, ich benutze das alles nicht, aber
245
00:17:31,080 --> 00:17:35,960
das ist ne, so auf dieser schwarz-weiß
Ebene sind wir ja nicht, von der
246
00:17:35,960 --> 00:17:39,620
Diskussion.
Okay. Und die Frage ist immer so,
247
00:17:43,680 --> 00:17:45,250
das Schutzgut dabei ist eben, also
248
00:17:45,250 --> 00:17:49,530
Datenschutz schützt nicht Daten,
klar, sondern Individuen, also die
249
00:17:49,530 --> 00:17:52,150
Grundrechte und Grundfreiheiten, wenn man
es so formulieren möchte, und die
250
00:17:52,150 --> 00:17:57,370
Gesellschaft insgesamt, aber wenn man sich
das so anschaut, finden sich diese
251
00:17:57,370 --> 00:18:00,470
Individuen, Grundrechte und
Grundfreiheiten, die finden sich wieder.
252
00:18:00,470 --> 00:18:06,820
Aber diese gesamtgesellschaftlichen Fragen,
da muss man sehr stark danach suchen.
253
00:18:06,820 --> 00:18:09,670
Man kann es konstruieren, aber so
explizit ist es da nicht drin zu finden,
254
00:18:09,670 --> 00:18:14,500
das hat rechtsdogmatische Gründe. Aber das
ist nur wieder eine Erinnerung daran, dass
255
00:18:14,500 --> 00:18:19,154
sich die Fragen des Datenschutzes oder die
Antworten des Datenschutzes und des
256
00:18:19,154 --> 00:18:23,160
Datenschutzrechts nicht deckungsgleich
sind. Das eine ist immer ein Ergebnis aus
257
00:18:23,160 --> 00:18:28,131
dem anderen, im besten Falle, aber manchmal
auch nicht. Man würde auch, um das zu
258
00:18:28,131 --> 00:18:32,610
erklären, warum Datenschutz sagen, na ja,
wenn wir uns Märkte angucken, dann gibt's
259
00:18:32,610 --> 00:18:36,770
eben Kartellämter, und die sagen, wenn
bestimmte Akteure zu stark werden dann
260
00:18:36,770 --> 00:18:42,000
muss man die begrenzen und die anderen
ein bisschen stützen, damit der Markt als Ganzes
261
00:18:42,000 --> 00:18:44,320
funktioniert und genauso kann
man sich es auch beim Datenschutz
262
00:18:44,320 --> 00:18:47,060
vorstellen. Wir haben die
Informationsgesellschaft und da gibt es
263
00:18:47,060 --> 00:18:50,840
Informationsmacht verschiedener Akteure.
Da brauchen wir irgendwas, in dem Fall
264
00:18:50,840 --> 00:18:57,080
zum Beispiel Datenschutzrecht, die diesen
Ausgleich bringt. Nicht das einzelne
265
00:18:57,080 --> 00:19:01,540
Datum zählt, sondern die Anhäufung selber
die dann ein Ergebnis produziert.
266
00:19:03,083 --> 00:19:06,430
Ihr kennt bestimmt den Spruch: "Bei Wurst und
Gesetzen möchte man nicht dabei sein wenn
267
00:19:06,430 --> 00:19:11,180
sie gemacht werden." Das ist natürlich
immer die Frage, was die Datenschutz-
268
00:19:11,180 --> 00:19:16,490
Diskussion bereits seit den 60er, 70er
Jahren so produziert hat, ist natürlich,
269
00:19:16,490 --> 00:19:22,860
wenn es dann zu Recht wird, immer
Gegenstand von Aushandlung, von politischen
270
00:19:22,860 --> 00:19:26,160
Verhandlungen, "wir nehmen das mit rein
und das nicht mit rein" und so weiter.
271
00:19:26,160 --> 00:19:30,380
Deswegen muss man immer aufpassen, dass man
die Datenschutz-Diskussion nicht oder
272
00:19:30,380 --> 00:19:33,720
nicht primär als Datenschutzrechts-
Diskussion führt, weil man sich dann
273
00:19:33,720 --> 00:19:38,270
sehr eingeengt auf das was einmal durch
die Politik gegangen ist. So jetzt kommen
274
00:19:38,270 --> 00:19:43,920
wir mal ein bisschen zu einer Theorie, um
die Sachen zusammenzubinden, um sie nochmal
275
00:19:43,920 --> 00:19:48,040
in einen größeren Kontext einzubauen. Wir
gucken uns jetzt mal den Informationsfluss an:
276
00:19:48,700 --> 00:19:52,610
Am Anfang jetzt vielleicht ein
bisschen verwirrend, aber wir haben hier
277
00:19:52,610 --> 00:19:58,910
links den Informationsfluss von starken
Akteuren zu schwachen Akteuren - wir haben
278
00:19:58,910 --> 00:20:03,290
darunter von schwachen Akteuren zu starken
Akteuren und darüber die beiden Seiten
279
00:20:03,290 --> 00:20:07,740
sind eben den Informationsfluss zu fördern
oder diesen Informationsfluss zu
280
00:20:07,740 --> 00:20:12,930
blockieren. Das heißt, wenn wir uns die
erste Zeile anschauen: Wir wollen den
281
00:20:12,930 --> 00:20:16,400
Informationsfluss vom starken zum
schwachen Akteur, zum Beispiel von der
282
00:20:16,400 --> 00:20:21,645
Organisation zum Individuum. Das wollen
wir fördern, weil der Starke dadurch, dass
283
00:20:21,645 --> 00:20:26,325
er Informationen preisgeben muss - über
sich, über seine Verarbeitung und so weiter,
284
00:20:26,325 --> 00:20:30,900
in dieser Informationsasymmetrie, der
Machtasymmetrie schwächt. Und weil die
285
00:20:30,900 --> 00:20:34,440
einzelne Person damit Informationen
erlangt, was damit passiert, wird die Person
286
00:20:34,440 --> 00:20:39,620
gestärkt. Das nennen wir Transparenz, das
nennen wir Informationsfreiheit. Das zu
287
00:20:39,620 --> 00:20:44,570
blockieren, das heißt, dass die großen
Organisationen nicht sagen müssen, was sie
288
00:20:44,570 --> 00:20:48,650
gerade damit tun, welche Daten sie haben,
das nennt sich Arkanpraxis. Für die
289
00:20:48,650 --> 00:20:54,300
RollenspielerInnen unter euch, Arkan - die Magie,
Arkan heißt einfach nur geheim. Es ist
290
00:20:54,300 --> 00:20:58,000
unklar was da was da getan wird. Anders
herum ist der Informationsfluss von
291
00:20:58,000 --> 00:21:02,080
schwachen Akteuren zu starken Akteuren.
Wenn wir den fördern, dann nennt man das
292
00:21:02,080 --> 00:21:09,540
Verdatung. Ist jetzt nicht der Fachbegriff,
aber der, den man auch so kennt.
293
00:21:09,540 --> 00:21:12,630
Also die Verdatung, überall
Sensoren, alle möglichen
294
00:21:12,630 --> 00:21:17,291
Handlungen, die im Digitalen stattfinden
werden protokolliert und so weiter. Und
295
00:21:17,291 --> 00:21:20,891
wenn man diesen Informationsfluss aber
blockiert und den unter Bedingungen stellt
296
00:21:20,891 --> 00:21:27,140
dann sind wir beim Datenschutz. Das ist
die Struktur. Wie ihr jetzt erkennt
297
00:21:27,140 --> 00:21:29,910
sozusagen von rechts oben nach links
unten. Also Arkanpraxis und Verdatung,
298
00:21:29,910 --> 00:21:34,300
das ist das was wir in totalitären Staaten
und so weiter sehen. Und das ist auch das,
299
00:21:34,300 --> 00:21:39,420
was wir sehen wenn wir Diskussionen mit
großen kommerziellen Organisationen
300
00:21:39,420 --> 00:21:43,470
führen. Nein, wir wollen nicht erzählen was
wir machen, wir wollen aber alles über dich
301
00:21:43,470 --> 00:21:49,530
wissen. Es ist immer die Richtung und die
andere Seite, das ist sozusagen die rote
302
00:21:49,530 --> 00:21:53,340
Diagonale ist genau das, was den Starken
noch stärker macht und den Schwachen noch
303
00:21:53,340 --> 00:21:58,860
weiter schwächt. Die andere Richtung, die
Grüne, ist genau das, was den Starken
304
00:21:58,860 --> 00:22:02,830
schwächt und den Schwachen stärkt. Nämlich
Transparenz und Informationsfreiheit
305
00:22:02,830 --> 00:22:07,900
bezüglich der Starken und den Datenschutz
bezüglich der Schwachen. An dieser Stelle
306
00:22:07,900 --> 00:22:12,560
ein kleines Dankeschön zum Beispiel an OKF
und Frag den Staat und so weiter. Oder
307
00:22:12,560 --> 00:22:15,565
beim Datenschutz andere Organisationen wo
ich zum Beispiel auch aktiv bin. Das heißt
308
00:22:15,565 --> 00:22:18,840
man merkt das ist überhaupt gar kein
Widerspruch an der Stelle. Die Frage ist
309
00:22:18,840 --> 00:22:22,750
nur wer muss transparent sein und wer soll
nichts von sich preisgeben oder so wenig
310
00:22:22,750 --> 00:22:28,660
wie möglich von sich preisgeben. Deswegen
erklärt sich auch das Mysterium für manche
311
00:22:28,660 --> 00:22:32,760
warum wir zum Beispiel einen
Bundesbeauftragten für den Datenschutz und
312
00:22:32,760 --> 00:22:36,175
die Informationsfreiheit haben, warum das
zusammen gehört, genau deswegen gehört das
313
00:22:36,175 --> 00:22:37,530
zusammen.
314
00:22:40,450 --> 00:22:43,900
Warum gibt's aber auch Meinungen
für weniger Datenschutz. Na ja klar
315
00:22:43,900 --> 00:22:47,610
Datenschutz kostet Ressourcen: finanziell,
personell, konzeptionell. Man muss das
316
00:22:47,610 --> 00:22:51,260
Thema anders planen, anders umbauen und so
weiter. Aber auch verhindert der
317
00:22:51,260 --> 00:22:54,280
Datenschutz Informationsnutzung, Das
ist der Zweck der Sache, trotzdem ist es
318
00:22:54,280 --> 00:22:57,460
ein Argument. Das heißt, bestimmte
Geschäftsmodelle gehen nicht mehr und
319
00:22:57,460 --> 00:23:02,330
so weiter. Für staatliche Aufgaben werden
Daten benötigt und wenn die Daten nicht
320
00:23:02,330 --> 00:23:05,870
fließen können, dann werden bestimmte
staatlichen Aufgaben schwieriger oder
321
00:23:05,870 --> 00:23:11,760
auch wirtschaftliche Tätigkeiten werden
erschwert. Das ist zwar richtig, aber es
322
00:23:11,760 --> 00:23:14,970
ist kein neues Problem wenn man über
Gesellschaft nachdenkt. Gleiches gilt
323
00:23:14,970 --> 00:23:16,850
natürlich für Hygieneregeln,
Sicherheitsvorschriften,
324
00:23:16,850 --> 00:23:19,960
Kinderarbeitsverbot, Arbeitnehmerrechte,
Umweltstandards und so weiter und so fort.
325
00:23:19,960 --> 00:23:25,310
Die kosten auch alle, aber wir haben uns
entschieden: Das sind alles Maßnahmen, wo
326
00:23:25,310 --> 00:23:30,690
es darum geht die Schwächeren, die sich
schlechter wehren können, die vielleicht
327
00:23:30,690 --> 00:23:35,560
auch nicht das Wissen haben, irgendwie
davor zu schützen, dass da jemand
328
00:23:35,560 --> 00:23:39,865
durchagiert und die eigenen Interessen
schamlos durchsetzt.
329
00:23:42,845 --> 00:23:44,170
Wem's aufgefallen ist,
330
00:23:44,170 --> 00:23:48,670
ich hab jetzt noch nicht einmal den
Begriff Privatsphäre verwendet. Und das
331
00:23:48,670 --> 00:23:55,307
ist ganz bewusst genau der Punkt. Weil
Privatsphäre ist immer so eine Idee: Ich
332
00:23:55,307 --> 00:23:59,947
alleine in meinem Schlafzimmer. Der
Soziologe Paul Müller nennt das:
333
00:23:59,947 --> 00:24:03,610
"Schneckenhaus-Privatsphäre". Seiner
Ansicht nach ist das nur in
334
00:24:03,610 --> 00:24:06,940
vorindustriellen Lebensweisen möglich, wo
man tatsächlich sagte: Ich lebe auf dem
335
00:24:06,940 --> 00:24:10,461
Gut hier, und die Leute ein paar
Kilometer weiter, die kennen mich noch
336
00:24:10,461 --> 00:24:14,690
nicht einmal. Vielleicht ist das sozusagen
diese Art von Anonymität, vielleicht
337
00:24:14,690 --> 00:24:19,840
könnte man da nennen. Aber jetzt
tatsächlich, was wir eigentlich wollen,
338
00:24:19,840 --> 00:24:24,710
ist, wenn man sagt, wir brauchen irgendwie
Girokonten und so weiter all diese Sachen.
339
00:24:24,710 --> 00:24:27,550
Es geht nicht darum, dass niemand Daten
hat, sondern dass die Begrenztheit des
340
00:24:27,550 --> 00:24:31,710
Wissens über Individuen aufrechterhalten
wird. Dass es nirgendwo eine Komplett-
341
00:24:31,710 --> 00:24:37,510
Ansicht gibt oder dass bestimmte Akteure
immer nur genau das wissen, was sie
342
00:24:37,510 --> 00:24:39,980
eigentlich wissen sollten und man kann
natürlich diskutieren wie viel das denn
343
00:24:39,980 --> 00:24:47,230
sein soll. Wilhelm Steinmüller, einer der
Ur-Ur-Urgestein Müller, könnte man sagen,
344
00:24:47,230 --> 00:24:50,960
des Datenschutzdiskurses formulierte das
so: "Es geht nicht um Privatsphäre, es
345
00:24:50,960 --> 00:24:55,080
geht darum, eine Technik sozial
beherrschbar zu machen." Und welche
346
00:24:55,080 --> 00:24:58,310
Grundrechte werden berührt von dieser
Datenverarbeitung? Nicht nur Grundrechte
347
00:24:58,310 --> 00:25:01,830
auf Privatleben, was zum Beispiel Artikel
7 der Europäischen Grundrechtecharta ist,
348
00:25:01,830 --> 00:25:06,440
sondern eigentlich quasi alle. Wenn ihr
dran überlegt, so was wie Meinungsfreiheit
349
00:25:06,440 --> 00:25:10,940
Informationsfreiheit, so Fragen
wie Demonstrationsfreiheit, Würde
350
00:25:10,940 --> 00:25:14,600
des Menschen, das könnte man alles
durchbuchstabieren. Eigentlich könnte man
351
00:25:14,600 --> 00:25:17,710
sagen: Der Datenschutz ist so
eine Art digitale Dimension aller
352
00:25:17,710 --> 00:25:21,820
Grundrechte. Und das jetzt auf
Privatsphäre zu reduzieren, da
353
00:25:21,820 --> 00:25:25,490
ist was Richtiges dran, aber es verengt
den Blick doch radikal, worum es
354
00:25:25,490 --> 00:25:26,717
eigentlich geht.
355
00:25:28,057 --> 00:25:30,086
So, wie gehen wir damit
jetzt irgendwie um?
356
00:25:31,926 --> 00:25:33,120
Operationalisierung:
357
00:25:33,120 --> 00:25:36,400
Wie können wir diese Ideen mit stark und
schwach, wie können wir da irgendwie
358
00:25:36,400 --> 00:25:41,120
Anforderungen daraus bauen? Wie können wir
da Dimensionen daraus kristallisieren? Das
359
00:25:41,120 --> 00:25:47,330
haben diverse Menschen getan und sind zu
einem Ergebnis gekommen, zu sagen, wenn es
360
00:25:47,330 --> 00:25:52,790
um Datenschutz geht, dann müssen
informationsverarbeitende Systeme
361
00:25:52,790 --> 00:25:56,970
bestimmte Schutzziele verfolgen. Und die
Schutzziele sind Nichtverkettbarkeit,
362
00:25:56,970 --> 00:26:01,710
Vertraulichkeit, Intervenierbarkeit,
Transparenz, Verfügbarkeit und Integrität.
363
00:26:01,710 --> 00:26:06,230
Das ist sozusagen: Diese Ziele, auf diese
Ziele hin kann man alle technischen Geräte
364
00:26:06,230 --> 00:26:09,437
oder alle technischen Systeme oder
informationstechnischen Systeme hin
365
00:26:09,437 --> 00:26:13,730
analysieren und kann sehen, inwiefern sie
diese Ziele umsetzen. Weil diese Ziele
366
00:26:13,730 --> 00:26:17,591
genau die Werte, die wir eben besprochen
haben, realisieren, kann man die
367
00:26:17,591 --> 00:26:23,590
analysieren. Nichtverkettbarkeit heißt,
bestimmte Informationen, die erhoben worden
368
00:26:23,590 --> 00:26:27,130
sind für verschiedenste Zwecke, die eben
nicht zu verbinden, Informationen nicht
369
00:26:27,130 --> 00:26:30,420
einfach so irgendwo kaufen zu können.
Wir reden jetzt über Datenschutz, nicht
370
00:26:30,420 --> 00:26:35,130
Datenschutzrecht. Nicht einfach so kaufen
zu können und die zu verbinden,
371
00:26:36,660 --> 00:26:41,150
zum Beispiel nicht Daten zu erheben, die für
den eigentlichen Geschäftszweck oder
372
00:26:41,150 --> 00:26:45,110
eigentliche Handlungen gar nicht notwendig
sind, das zu beschränken an der Stelle.
373
00:26:45,110 --> 00:26:49,440
Integrität, die Unversehrtheit der Daten,
das heißt, dass sie nicht verändert
374
00:26:49,440 --> 00:26:54,360
werden, dass ich mich darauf verlassen
kann, die Daten, die ich übermittle oder
375
00:26:54,360 --> 00:26:59,540
die erhoben werden, dass sie tatsächlich
so bleiben und an der Stelle zum Beispiel
376
00:26:59,540 --> 00:27:04,780
korrekt bleiben. Verfügbarkeit heißt an
der Stelle, dass ich die Systeme eben
377
00:27:04,780 --> 00:27:08,960
nutzen kann. Wenn ich mich darauf verlasse
dass ich diese Routenplanung habe und die
378
00:27:08,960 --> 00:27:14,340
wollen von mir irgendwie Geld haben dafür,
dass ich das nutzen kann usw., dann will
379
00:27:14,340 --> 00:27:17,261
ich natürlich auch, dass es funktioniert.
Weil ansonsten ist es ja ein schlechter
380
00:27:17,261 --> 00:27:22,790
Handel. Transparenz bezieht sich darauf,
nicht nur welche Daten vorliegen, sondern
381
00:27:22,790 --> 00:27:25,690
auch wie funktionieren eigentlich die
Prozesse? Was sind denn die Zwecke der
382
00:27:25,690 --> 00:27:29,459
Verarbeitung? Wie funktioniert denn die
ganze Innerei? Was passiert da? Was sind
383
00:27:29,459 --> 00:27:32,800
eigentlich die Nebenkonsequenzen? Es gibt
ja einmal die intendierten Resultate und
384
00:27:32,800 --> 00:27:37,030
Konsequenzen und dann gibt es eben auch
die Unintendierten. Und genau das muss
385
00:27:37,030 --> 00:27:39,849
irgendwie für mich einsehbar sein.
386
00:27:40,525 --> 00:27:43,080
Intervenierbarkeit ist ein Schutzziel, das
387
00:27:43,080 --> 00:27:47,679
sagt eben: Na ja, also wenn Daten eben
nicht korrekt sind und das System rechnet
388
00:27:47,679 --> 00:27:50,991
weiter, egal ob es meine Kredite sind oder
ob ich jetzt irgendwie einen Tisch bekomme
389
00:27:50,991 --> 00:27:56,540
oder ob ich ein Haus bekomme oder so. Es
muss natürlich auch möglich sein, dass
390
00:27:56,540 --> 00:28:00,330
dieses System, wenn man Fehler in dem
System erkennt, zu sagen: Stopp, ich
391
00:28:00,330 --> 00:28:03,510
möchte, dass sich das ändert. Ich möchte,
dass die Daten zum Beispiel berichtigt
392
00:28:03,510 --> 00:28:06,920
werden oder aber ich möchte, wenn ich
feststelle, dass dieses System
393
00:28:06,920 --> 00:28:10,651
diskriminierend ist. Ich möchte, dass das System
so gebaut ist, dass ich irgendwas tun kann als
394
00:28:10,651 --> 00:28:14,540
Betroffener, dass das aufhört. Es reicht
ja nicht zu sagen: Ja, also, wir sind
395
00:28:14,540 --> 00:28:18,155
total transparent. Aber dadurch, dass wir
die Stärkeren sind, kannst du einfach
396
00:28:18,155 --> 00:28:23,460
nichts tun. Man muss ja irgendwo sozusagen
den Notausschalter ist jetzt übertrieben,
397
00:28:23,460 --> 00:28:24,942
natürlich.
398
00:28:25,676 --> 00:28:28,212
Und als letzten Punkt, die
Vertraulichkeit. Das heißt, die
399
00:28:28,212 --> 00:28:31,592
Informationen, die ich denen, die da für
mich irgendwie Service anbieten, die ich
400
00:28:31,592 --> 00:28:35,200
gebe, da möchte ich auch sichergehen, dass
sie nirgendwo anders hingehen, dass die
401
00:28:35,200 --> 00:28:38,830
genau da bleiben und genau dafür verwendet
werden. Aber Vertraulichkeit ist, dass sie
402
00:28:38,830 --> 00:28:44,170
genau da nur bleiben und niemand
Unbefugtes darauf Zugriff hat. Jetzt kann
403
00:28:44,170 --> 00:28:49,144
man sagen: Na, interessant,
Nichtverkettbarkeit, Transparenz und
404
00:28:49,144 --> 00:28:54,300
Intervenierbarkeit, da sagt man so, das
hat den Primat des Datenschutzes und die
405
00:28:54,300 --> 00:28:57,340
Aufmerksamen unter euch merken: Ach,
interessant die anderen drei, das ist das
406
00:28:57,340 --> 00:29:02,190
Primat der Datensicherheit. Das heißt,
wenn man aus dieser Sicht auf Datenschutz
407
00:29:02,190 --> 00:29:07,200
blickt, erkennt man das, dass nicht
Datenschutz so ein Unterteil von
408
00:29:07,200 --> 00:29:11,162
Datensicherheit ist, sondern aus dieser
Sicht genau andersrum. Wir erinnern uns,
409
00:29:11,162 --> 00:29:15,090
am Anfang, Datensicherheit, da ging es
darum: Wie können denn die Daten, die da
410
00:29:15,090 --> 00:29:18,309
sind ordentlich abgesichert werden und
gegen die Hacker und Angriffsszenarien und
411
00:29:18,309 --> 00:29:21,570
so weiter. Ja klar, aber der Datenschutz
fragt: Ja, sollten diese Daten denn
412
00:29:21,570 --> 00:29:28,824
überhaupt da sein? Man könnte sich so ein
Zwiegespräch vorstellen, wo die
413
00:29:28,824 --> 00:29:32,020
Datenschützerin sagt: Na ja, aber das
Datum ist nicht korrekt, was da
414
00:29:32,020 --> 00:29:35,640
gespeichert ist. Und die IT-
Sicherheitsabteilung: Ja ja aber das ist
415
00:29:35,640 --> 00:29:40,470
richtig gut beschützt. Da merkt man, das
ist ein Konflikt, das ist nicht das
416
00:29:40,470 --> 00:29:45,810
Gleiche. Genau, das sind so die
Schutzziele und die kann man tatsächlich
417
00:29:45,810 --> 00:29:51,160
verwenden. Und es ist auch nicht parallel,
sondern diese Schutzziele kann man sehen,
418
00:29:51,160 --> 00:29:56,050
das ist ein Beitrag von 2013 schon, dass
diese Schutzziele des Datenschutzes
419
00:29:56,050 --> 00:30:00,046
tatsächlich auch mit dem Recht, was
gesprochen worden ist, vereinbar sind. Das
420
00:30:00,046 --> 00:30:02,390
heißt, es ist nicht komplett alles
umgesetzt, aber es ist eben auch kein
421
00:30:02,390 --> 00:30:05,610
Widerspruch. Wir erinnern uns hier wieder,
Datenschutz und Datenschutzrecht ist eben
422
00:30:05,610 --> 00:30:07,225
nicht das Gleiche.
423
00:30:08,565 --> 00:30:14,360
Okay, das war jetzt so der
Durchritt erstmal für die Grundlagen
424
00:30:14,360 --> 00:30:17,729
an der Stelle und jetzt kommen wir zu den
Nicht-Lösungen. Das sind quasi so ein paar
425
00:30:17,729 --> 00:30:21,249
Kommentare, die ich mir jetzt so noch erlaube.
426
00:30:23,004 --> 00:30:24,624
Okay, also erstmals: Der
427
00:30:24,624 --> 00:30:28,830
Selbstdatenschutz, ganz beliebt
insbesondere in Verbindung mit der
428
00:30:28,830 --> 00:30:32,930
Blockchain. Okay, das spare ich mir jetzt.
Also wenn das Datenschutz-Konzept ernst
429
00:30:32,930 --> 00:30:37,710
genommen werden soll: Wir überlegen uns,
schwache, starke Akteure, Möglichkeiten
430
00:30:37,710 --> 00:30:41,915
transparent, und so weiter. Wie soll denn
Selbstdatenschutz da aussehen?
431
00:30:43,990 --> 00:30:48,440
Wie kann mein Selbstdatenschutz aussehen,
wenn ich eine innerorganisationale
432
00:30:48,440 --> 00:30:52,121
Datenverarbeitung habe? Wie kann ich denn
bei Facebook selbst Datenschutz machen?
433
00:30:52,121 --> 00:30:55,560
Also außer, wenn ich da bewaffnet
reingehe, aber das ist jetzt nicht
434
00:30:55,560 --> 00:31:01,656
wirklich eine skalierende Lösung, neben
den ganzen anderen Problemen.
435
00:31:04,130 --> 00:31:07,245
Bin gegen Gewalt übrigens.
436
00:31:08,690 --> 00:31:12,060
Oder die Erinnerung:
Warum haben wir Datenschutz? Datenschutz haben
437
00:31:12,060 --> 00:31:15,950
wir eben nicht weil es eine Rechts-Vor-Links-Regel
ist im Straßenverkehr, wo die beiden
438
00:31:15,950 --> 00:31:18,570
gleich stark sind. Nein, wir haben
Datenschutz genau deswegen, weil sie eben
439
00:31:18,570 --> 00:31:22,295
nicht gleich stark sind. Da jetzt den
Schwachen zu sagen: Du kannst doch selbst
440
00:31:22,295 --> 00:31:26,000
Datenschutz machen. Wenn man wirklich
verstanden hat, wie Datenschutz
441
00:31:26,000 --> 00:31:30,020
funktioniert, ist es zynisch, das
vorzuschlagen. Das ist genau dem
442
00:31:30,020 --> 00:31:36,233
Verprügelten zu sagen: Ja, du musst dich
ja nur wehren. Es gibt überhaupt keinen Sinn.
443
00:31:36,863 --> 00:31:40,080
Da kann man sich ja vorstellen, in
den Situationen, wann braucht man oder
444
00:31:40,080 --> 00:31:44,690
wann ist Datenschutz genau notwendig wenn
es um Kredit- oder Grenz- oder Einkaufs-
445
00:31:44,690 --> 00:31:47,960
oder Durchsuchungssituationen geht?
Polizeiliche Identitätsfeststellung oder
446
00:31:47,960 --> 00:31:51,760
an der Grenze: Geben sie Daten raus und so
weiter oder nicht. Das sind genau die
447
00:31:51,760 --> 00:31:54,940
Fälle, da kann man sich überlegen, wie man
irgendwie Flüchtenden an der Grenze sagt:
448
00:31:54,940 --> 00:31:57,290
Na ja, du kannst ja Selbstdatenschutz
machen, du musst dein Handy nicht
449
00:31:57,290 --> 00:32:01,110
rausrücken. Das ist ein Riesenproblem.
Genau darum gehts. Starke und schwache
450
00:32:01,110 --> 00:32:06,777
Akteure, das irgendwie anzugreifen und
eben nicht zu sagen: Ja, mach doch selber.
451
00:32:08,330 --> 00:32:14,700
Und das heißt, da muss man dann auch
sagen, danke eben auch an Jörg Pohle für
452
00:32:14,700 --> 00:32:19,003
diesen Hinweis, Facebook hat gar keine
Datenschutzeinstellungen. Facebook hat
453
00:32:19,003 --> 00:32:26,750
Einstellungen. Facebook, ich sage jetzt
mal $SocialNetwork, da gibt's
454
00:32:26,750 --> 00:32:30,910
Einstellungen, welche anderen User Daten
sehen, und welche anderen User da
455
00:32:30,910 --> 00:32:33,511
irgendwie interagieren können. Es gibt
aber keine Einstellungen, was Facebook
456
00:32:33,511 --> 00:32:39,920
damit macht. Man kann da manchmal so ein
bisschen dran rum regeln, aber die
457
00:32:39,920 --> 00:32:42,760
Einstellung, wie lange Facebook
irgendwelche Sachen speichern soll oder
458
00:32:42,760 --> 00:32:47,600
nicht, die gibt's eben nicht oder welche
Verknüpfungen es da geben soll.
459
00:32:49,590 --> 00:32:54,670
Wenn man Datenschutz quasi ernst nimmt, ist
das so ein Punkt. Und natürlich, das ist ja auch
460
00:32:54,670 --> 00:32:56,809
irgendwie bei Mobiltelefonen und so
weiter, da gibts dann immer
461
00:32:56,809 --> 00:33:00,040
Datenschutzeinstellungen. Es fühlt sich
irgendwie so gut an, aber das ist gar
462
00:33:00,040 --> 00:33:04,370
nicht Datenschutz, was es da ist. Wenn
irgendwie bei bestimmten Mobiltelefonen
463
00:33:04,370 --> 00:33:07,340
von Google da steht, da halt Datenschutz:
Wollen Sie ein Backup machen? Ja, das ist
464
00:33:07,340 --> 00:33:10,720
aber Datensicherheit, das ist nicht
Datenschutz. Also es ist was anderes.
465
00:33:11,280 --> 00:33:15,030
Okay, dann gucken wir uns mal
Dateneigentum oder Datensouveränität an.
466
00:33:15,030 --> 00:33:21,199
Naja, ein Eigentum, also erstmal
Begriffskritik: Eigentum selber, das
467
00:33:21,199 --> 00:33:27,410
Konzept Eigentum ist ein Exklusivrecht auf
Sachen. Das heißt also, Eigentum: Entweder
468
00:33:27,410 --> 00:33:31,740
ich habe eine bewegliche Sache, ein Auto,
ein Fahrrad oder sonst was oder
469
00:33:31,740 --> 00:33:35,920
unbewegliche Sachen wie Immobilien. Dann
heißt das, ich kann darüber exklusiv
470
00:33:35,920 --> 00:33:41,187
verfügen. Und genau darauf ist die gesamte
Rechtsordnung auch ausgelegt. Wenn ich
471
00:33:41,187 --> 00:33:45,224
sage Daten sind Eigentum, dann merkt man
schon an dem Konzept: Okay, wenn es
472
00:33:45,224 --> 00:33:48,200
Eigentum ist, dann kann es auch gestohlen
werden. Da kann man sich überlegen.
473
00:33:48,200 --> 00:33:52,580
Datendiebstahl, sind die Daten jetzt weg?
Nee, sie sind ja noch da. Okay, was ist
474
00:33:52,580 --> 00:33:55,190
denn jetzt das Problem? Das Problem bei
Diebstahl ist ja nicht, dass man danach
475
00:33:55,190 --> 00:33:57,000
zwei Fahrräder hat, sondern,
dass man keins mehr hat.
476
00:33:57,000 --> 00:33:58,890
Vereinzeltes Lachen
477
00:33:58,890 --> 00:34:00,780
Also, es ist eine Frage wie groß
478
00:34:00,780 --> 00:34:06,180
der eigene Keller ist. Aber ihr merkt an
der Stelle, das ist schon vom Konzept her
479
00:34:06,180 --> 00:34:10,169
merkwürdig. Aber der nächste Punkt ist:
Okay, Dateneigentum, dann haben wir das
480
00:34:10,169 --> 00:34:13,419
alles, und unser Dateneigentum und wir
können natürlich unsere Daten dann eben
481
00:34:13,419 --> 00:34:17,890
verkaufen und kriegen auch davon was ab,
von dem schönen Kuchen. Jetzt kann man
482
00:34:17,890 --> 00:34:20,882
natürlich gleich eine große
Diskussion anzureißen, ich will da
483
00:34:20,882 --> 00:34:26,550
nicht einsteigen. Ist es tatsächlich die 3
Euro pro Monat an alle Facebook-Userinnen
484
00:34:26,550 --> 00:34:33,889
und -User wert, dafür Wahlmanipulationen
ganzer Gesellschaften und Diskriminierung
485
00:34:33,889 --> 00:34:38,369
an unserer Gesellschaft zu ermöglichen?
Was ist denn das für ein komischer Handel
486
00:34:38,369 --> 00:34:43,480
an der Stelle? Man merkt da, da haut was
nicht hin und mehr ist es ja nicht. Dieses
487
00:34:43,480 --> 00:34:47,419
Geld entsteht dadurch, dass es so viele
User gibt, weil es so super gut skaliert.
488
00:34:47,979 --> 00:34:51,170
Das heißt, die einzelne Person hätte genau
von diesen 3 und meintewegen mögen es auch
489
00:34:51,170 --> 00:34:54,619
30 Euro sein tatsächlich in diesem
Vergleich gar nichts. Also offensichtlich
490
00:34:54,619 --> 00:34:57,279
haben wir hier ein größeres Problem.
491
00:34:58,189 --> 00:35:00,348
Man könnte auch wieder sagen: "Ach
492
00:35:00,348 --> 00:35:02,720
interessant, Dateneigentum, das
unterstützt wieder nur die starken
493
00:35:02,720 --> 00:35:08,640
Akteure, die werden bevorzugt".
Tatsächlich ist es wieder ein Freikaufen,
494
00:35:08,640 --> 00:35:14,470
wenn man sagt, ich hab nicht die
Notwendigkeit meine Daten zu verkaufen,
495
00:35:14,470 --> 00:35:17,570
ich kann die bei mir behalten.
Dateneigentum ist doch schön, jeder ist
496
00:35:17,570 --> 00:35:21,330
selbst irgendwie verantwortlich, die
Souveränität des Einzelnen oder der
497
00:35:21,330 --> 00:35:25,100
einzelnen Person. Aber wie gesagt, das ist
freikaufen: Wenn ich das Geld habe dann
498
00:35:25,100 --> 00:35:33,696
bin ich drauf nicht angewiesen, ansonsten
musste ich mich quasi ausliefern an der
499
00:35:33,696 --> 00:35:38,403
Stelle. Klassisches Beispiel bei der
Autodatenübermittlung, wenn ich mich recht
500
00:35:38,403 --> 00:35:46,010
erinnere, bei Mercedes ab irgendeiner
Klasse gehen dann keine Daten mehr raus,
501
00:35:46,010 --> 00:35:49,840
weiter oben. Weil klar ist: Die
Käuferinnen und Käufer weiter oben, die
502
00:35:49,840 --> 00:35:54,065
mögen es gerne wenn die Daten - was im
Auto passiert bleibt auch im Auto.
503
00:35:54,065 --> 00:35:58,530
So, aber darunter halt nicht. Oder man kann
sich auch überlegen an der Stelle: Smart-
504
00:35:58,530 --> 00:36:03,120
TV-Daten, inwiefern da so eine
Datensouveränität vorherrscht, wenn man
505
00:36:03,120 --> 00:36:06,010
irgendwie einem alleinerziehenden
Elternteil sagt: "Ja, du bist total
506
00:36:06,010 --> 00:36:10,540
datensouverän, du kaufst dir hier einen
Fernseher irgendwie für 500 Euro, oder
507
00:36:10,540 --> 00:36:14,790
250, wenn du alle Daten rausleitest. Kann
man sich ja überlegen, wie datensouverän
508
00:36:14,790 --> 00:36:19,450
dann eine Person agiert. Nächste Frage:
Wenn Daten Eigentum sind, wem gehören denn
509
00:36:19,450 --> 00:36:22,820
Kommunikationsdaten oder Bilddaten, wo
mehrere Leute dran beteiligt sind, und so
510
00:36:22,820 --> 00:36:28,000
weiter? Hinten und vorne Probleme,
Probleme. Das ist so ein bisschen unklar,
511
00:36:28,000 --> 00:36:31,470
welches Problem da wie gelöst wird. Es ist
natürlich wieder die Abwälzung auf die
512
00:36:31,470 --> 00:36:37,207
einzelne Person. Man könnte auch genauso
sagen, "Hygienesouveränität" könnte man ja
513
00:36:37,207 --> 00:36:40,290
auch sagen. Man geht halt irgendwie in
eine Küche und wir haben halt keine
514
00:36:40,290 --> 00:36:43,130
Hygieneregeln, du kennst dich doch
bestimmt aus, gehst dann erst einmal
515
00:36:43,130 --> 00:36:46,770
irgendwie hinten rein, ob die Küche dir
sauber genug ist oder nicht. Du weißt gar
516
00:36:46,770 --> 00:36:50,890
nicht, wonach du gucken sollst? Naja, Pech
gehabt. Das ist die Art von Souveränität,
517
00:36:50,890 --> 00:36:56,100
die da proklamiert wird bei Dateneigentum
und Datensouveränität. Das ist genau
518
00:36:56,100 --> 00:36:58,510
wieder die Souveränität des Stärkeren.
519
00:36:59,380 --> 00:37:02,660
Okay, dann kommen wir noch, als Punkt,
520
00:37:02,660 --> 00:37:07,920
verbunden mit der Datensouveränität: Ich
habe es dann mal Einwilligungsfetisch
521
00:37:07,920 --> 00:37:12,520
genannt. Das ist immer so ein Rückgriff
auf das Grundrecht auf informationelle
522
00:37:12,520 --> 00:37:16,910
Selbstbestimmung, was ich total großartig
finde, aber es reicht eben nicht aus.
523
00:37:16,910 --> 00:37:21,050
Warum reicht das nicht aus? Naja,
Einwilligung heißt, alle mögliche
524
00:37:21,050 --> 00:37:28,290
Datenverarbeitung, da werde ich vorher
gefragt, ob sozusagen meine Daten
525
00:37:28,290 --> 00:37:31,320
verarbeitet werden dürfen für bestimmte
Zwecke, und jetzt ist die Frage: Was ist
526
00:37:31,320 --> 00:37:35,010
denn das Problem an so einer
Einwilligungsfrage? Erstens, da gibt es
527
00:37:35,010 --> 00:37:38,010
zwei Möglichkeiten: Entweder es gibt eine
Informationsasymmetrie oder eine
528
00:37:38,010 --> 00:37:42,710
Machtasymmetrie, wo man das Problem sieht.
Informationsasymmetrie heißt: Ich habe da
529
00:37:42,710 --> 00:37:48,191
eine Einwilligung, die ich geben muss, und
ich habe daneben 150 Seiten AGB, die ich
530
00:37:48,191 --> 00:37:51,600
jetzt lesen muss, um dann irgendwie
ordentlich einzuwilligen. Da sagen
531
00:37:51,600 --> 00:37:55,490
natürliche Organisationen, insbesondere
Konzerne: "Ja, ist doch super, und leider
532
00:37:55,490 --> 00:37:59,100
auch in der DSGVO, dann machen wir
irgendwelche Symbole, die das anzeigen, wo
533
00:37:59,100 --> 00:38:04,350
es dann einfacher ist für die Personen,
das irgendwie lesen zu können und das
534
00:38:04,350 --> 00:38:07,150
verstehen zu können. Dann können wir
vielleicht einfache Sprache machen, und,
535
00:38:07,150 --> 00:38:11,990
im Endeffekt, wir versuchen es ganz ganz
ganz ganz dolle, und wenn alle
536
00:38:11,990 --> 00:38:15,080
Organisationen des Planeten es ganz dolle
versuchen und die Leute es immer noch
537
00:38:15,080 --> 00:38:19,980
nicht verstehen, dann sind die Leute...
also jedenfalls, wir haben uns ganz doll
538
00:38:19,980 --> 00:38:27,050
bemüht. Das heißt, dass der Druck, oder
der Handlungsdruck, wenn man das Problem
539
00:38:27,050 --> 00:38:32,260
der Informationsasymmetrie sieht, liegt
wieder bei der einzelnen Person. Die trägt
540
00:38:32,260 --> 00:38:37,070
wieder die Last des "Sich-Ordentlich-
Informieren-Müssens". Wenn man allerdings
541
00:38:37,070 --> 00:38:41,500
sagt "Naja, das ist eine Machtasymmetrie",
was ich vorhin gesagt habe bei der
542
00:38:41,500 --> 00:38:46,629
Datensouveränität, wann kann man
zustimmen, wie sind eigentlich die,
543
00:38:47,994 --> 00:38:49,096
was ich gesagt habe
544
00:38:49,096 --> 00:38:55,940
Netzwerkeffekte? Welche Probleme entstehen
denn da auch für andere Menschen, wenn ich
545
00:38:55,940 --> 00:39:00,480
sage, ich habe die Google AGB für Google
Mail verstanden und ich habe den
546
00:39:00,480 --> 00:39:03,980
zugestimmt, dann habe ich natürlich auch
für alle anderen, die mir jemals danach
547
00:39:03,980 --> 00:39:08,300
eine Mail schreiben wollen auch noch mit
zugestimmt. Das heißt, es ist gar kein
548
00:39:08,300 --> 00:39:12,570
Informationsproblem, das ich nicht
verstanden hätte, was irgendwie in den AGB
549
00:39:12,570 --> 00:39:16,520
drin stand, sondern das liegt in der Natur
der Sache der Vernetzung, dass ich das für
550
00:39:16,520 --> 00:39:21,590
alle anderen mit entschieden habe. Oder
aber wenn es halt beim Elternabend heißt
551
00:39:21,590 --> 00:39:24,490
"Unsere Facebook-Gruppe hat sich das und
das gedacht", und dann hat eine Person
552
00:39:24,490 --> 00:39:28,790
kein Facebook , oder so weiter. So ganz
viele Fragen, soziale Rahmenbedingungen,
553
00:39:28,790 --> 00:39:34,480
genauso finanzielle Abhängigkeiten. Man
kann ja eben sagen, ja diesen Dienst, bei
554
00:39:34,480 --> 00:39:38,570
der Souveränitätsfrage, ja, "du kannst ja
gerne diesen Service, du kannst ja
555
00:39:38,570 --> 00:39:43,335
einwilligen oder aber es kostet was und
dann nehmen wir weniger Daten". Man merkt,
556
00:39:43,335 --> 00:39:48,450
wenn man es auf diese Machtasymmetrie
stellt, auf einmal ist es nicht so einfach
557
00:39:48,450 --> 00:39:52,930
nur unsere AGB besser schreiben, sondern
eigentlich brauchen wir harte obere
558
00:39:52,930 --> 00:39:58,050
Schranken, das heißt, aka. Regulierung, das
heißt bestimmte Informationsnutzung darf
559
00:39:58,050 --> 00:40:04,760
einfach nicht möglich sein. Wie gesagt,
wir haben es aktuell mit der Manipulation
560
00:40:04,760 --> 00:40:09,060
ganzer Gesellschaften zu tun, auch
Gewaltverbrechen die aufgrund von, und so
561
00:40:09,060 --> 00:40:13,090
weiter. Irgendwo muss man da fragen,
offensichtlich liegt's nicht daran, dass da
562
00:40:13,090 --> 00:40:20,290
irgendwie die AGB nicht gut lesbar sind.
Ok, dann, Zielgerade, langsam die
563
00:40:20,290 --> 00:40:24,640
Algorithmenethik, nur kurz angeschnitten.
Ich bin ja noch länger hier.
564
00:40:24,640 --> 00:40:28,869
Algorithmenethik, ja, das ist so eine
Mischung, Algorithmen, die ethisch sein
565
00:40:28,869 --> 00:40:32,321
können oder nicht ethisch sein können.
Also erstmals, Algorithmen sind selber ja
566
00:40:32,321 --> 00:40:37,760
keine Akteure. Organisationen sind Akteure
und die wenden Algorithmen an. Das heißt
567
00:40:37,760 --> 00:40:41,490
man kann natürlich genauso bei 'ner
Algorithmenethik fragen, was ist denn die
568
00:40:41,490 --> 00:40:47,530
Zementethik? Wie verwendet man Zement? Die
Frage muss man dann überall stellen, weil
569
00:40:47,530 --> 00:40:50,680
die Akteure natürlich genau wissen, welche
Algorithmen sie verwenden und welche
570
00:40:50,680 --> 00:40:55,470
nicht. Sie haben nämlich Zwecke, wenn das,
was Ihre Interessen sind, davon unterstützt
571
00:40:55,470 --> 00:40:59,200
wird, dann werden sie eingesetzt, und
deswegen macht man ein A/B-Testing, wenn
572
00:40:59,200 --> 00:41:02,980
es die Zwecke nicht unterstützt, wird
etwas anderes verwendet. Und wenn man dann
573
00:41:02,980 --> 00:41:05,781
sagt, na ja, das ist doch eine ethische
Frage, naja das ist nicht wirklich eine
574
00:41:05,781 --> 00:41:08,790
ethische Frage, es ist eine
Verantwortungsfrage, na klar, aber Ethik
575
00:41:08,790 --> 00:41:14,849
ist nicht das ganz Richtige. Wenn man
sagt, ja, aber so Algorithmen, die sind
576
00:41:14,849 --> 00:41:17,860
alle so kompliziert, und wir verstehen es
vielleicht gar nicht mehr, bei irgendwie
577
00:41:17,860 --> 00:41:21,760
künstlicher Intelligenz und so weiter,
kann man sich ja überlegen, wie es beim
578
00:41:21,760 --> 00:41:27,470
Hundeverhalten ist. Die Hundehalterin oder
Hundehalter steht natürlich dafür gerade,
579
00:41:27,470 --> 00:41:31,800
was der Hund tut, egal, ob der jetzt, aus
welchen Gründen das getan worden ist.
580
00:41:31,800 --> 00:41:38,150
Irgendwer muss es ja, bei irgendwem muss
ja die Verantwortung sozusagen liegen. Und
581
00:41:38,150 --> 00:41:42,550
die Algorithmen setzen also keine Zwecke,
sondern sie sind Mittel, um Zwecke
582
00:41:42,550 --> 00:41:45,490
umzusetzen, das heißt wenn man überhaupt
über irgendwas spricht, dann muss man
583
00:41:45,490 --> 00:41:48,859
irgendwie über Unternehmensethik reden,
und wie erfolgreich sowas ist, kennen wir,
584
00:41:48,859 --> 00:41:53,470
glaube ich, seit Anbeginn des
Kapitalismus. Okay. Also die konkrete
585
00:41:53,470 --> 00:41:59,500
Frage wäre, anstatt über Algorithmen-Ethik
zu sprechen, wäre zu sagen, wir haben doch
586
00:41:59,500 --> 00:42:03,160
gerade etwas über Schutzziele gelernt.
Können wir denn nicht einfach diese
587
00:42:03,160 --> 00:42:06,650
Schutzziele auf alle möglichen
Informationsverarbeitung-Systeme anwenden?
588
00:42:06,650 --> 00:42:09,550
Ja, natürlich können wir das und es gibt
auch sehr viel, also nicht sehr viel, aber
589
00:42:09,550 --> 00:42:13,240
es gibt eine Menge gute Forschung dazu,
z.B. Unabhängiges Landesdatenschutzzentrum
590
00:42:13,240 --> 00:42:16,650
Schleswig-Holstein und so
weiter. Aber komischerweise sind da die
591
00:42:16,650 --> 00:42:19,436
Ergebnisse ja, "das muss reguliert
werden", "das müssen wir einzäunen", und
592
00:42:19,436 --> 00:42:23,490
so weiter. Aber das schlägt man immer so
ungern den Konzernen vor, das ist immer
593
00:42:23,490 --> 00:42:28,599
so, das ist ein bisschen problematisch an
der Stelle. Das heißt, man kann da viel
594
00:42:28,599 --> 00:42:33,150
drüber nachdenken über maschinen-lesbare
Policies irgendwie, sozusagen KI-KI-
595
00:42:33,150 --> 00:42:39,480
Prüfsysteme, und so weiter. Aber das
Problem dabei ist, dass die Ethik so
596
00:42:39,480 --> 00:42:46,970
folgenlos und so schön sanktionslos bleibt. Eine
Ethik ist das, was man so tut. Das wäre so
597
00:42:46,970 --> 00:42:51,400
ein Thema "es wäre schön, wenn". Und
tatsächlich, wenn wir uns sozusagen unsere
598
00:42:51,400 --> 00:42:54,940
Welt so angucken, die verdatete Welt ist
eigentlich, dieses "wäre schön, wenn" ist
599
00:42:54,940 --> 00:42:59,260
schon lange darüber hinaus. Okay, das
heißt also, die Ethik ist schon in Ordnung
600
00:42:59,260 --> 00:43:01,850
und der Ethik-Diskurs ja, aber die
Umsetzung des Rechts selber, die hängt
601
00:43:01,850 --> 00:43:05,840
hinterher. Und das ist so ein Punkt. Also
die Situation ist, ich habe es mal ein
602
00:43:05,840 --> 00:43:09,360
bisschen provokant geschrieben, die
Massen-Manipulation, -Überwachung und
603
00:43:09,360 --> 00:43:13,800
-Unterdrückung ist sozusagen der Punkt.
Okay, das überspringen wir mal.
604
00:43:14,420 --> 00:43:22,050
Also, wen es interessiert, z. B. auch Ben Wagner
hat dazu auch neulich geschrieben, ich pack es
605
00:43:22,050 --> 00:43:28,480
einfach in die Folien an der Stelle, also
es bleibt da drin: Inwiefern Ethik die
606
00:43:28,480 --> 00:43:32,961
neue Selbstregulierung ist. Unternehmen
sagen: "Ja, bitte keine Regulierung, wir
607
00:43:32,961 --> 00:43:36,170
verhalten uns ethisch und wir haben Ethik-
Kodizes" und hinten und vorne und so
608
00:43:36,170 --> 00:43:40,939
weiter. Und wenn man sich die letzten
Facebook-Veröffentlichungen z. B.
609
00:43:40,939 --> 00:43:44,609
anschaut, wer sagt, mit ethischen
Diskursen sollen die Unternehmen nochmal
610
00:43:44,609 --> 00:43:49,070
doller darüber nachdenken, was sie tun und
was die Konsequenzen sind, dann der Person
611
00:43:49,070 --> 00:43:53,170
empfehle ich tatsächlich sehr stark, diese
Veröffentlichung der internen E-Mails
612
00:43:53,170 --> 00:43:57,850
jetzt mal anzuschauen, die wissen ganz
genau, was sie tun, das ist, also das ist,
613
00:43:57,850 --> 00:44:00,260
da kann man nicht drüber reden, da muss
man einfach sagen, das ist ein
614
00:44:00,260 --> 00:44:03,797
Interessenskonflikt und unsere Werte sind
so und deswegen machen wir das halt.
615
00:44:03,797 --> 00:44:10,970
Okay, dann kommen wir zum Fazit. Also 1.
Datenschutz zwingt Organisationen dazu,
616
00:44:10,970 --> 00:44:14,860
bei der Gestaltung ihrer Datenverarbeitung
die Interessen der Betroffenen zu
617
00:44:14,860 --> 00:44:19,750
beachten. Das heißt, durch Datenschutz
sollen sie Dinge tun, die sie von sich aus
618
00:44:19,750 --> 00:44:23,740
nie tun würden, wir erinnern uns:
Hygieneregeln, Sicherheitsvorkehrungen und
619
00:44:23,740 --> 00:44:26,400
so weiter, das würden sie von sich aus
jetzt erst einmal nicht wollen, weil die
620
00:44:26,400 --> 00:44:30,010
Marktlogik eine andere ist und so weiter.
Aber mit Datenschutz bringt man eben dazu,
621
00:44:30,010 --> 00:44:34,849
Löschfristen und so weiter, die DSGVO
könnt ihr euch angucken. Dann auch als
622
00:44:34,849 --> 00:44:39,119
Betreiber solcher Systeme muss man sich
immer vor Augen halten, die Rechte der
623
00:44:39,119 --> 00:44:43,491
Betroffenen, so nervig sie vielleicht sein
mögen, wenn man selber AnbieterIn ist,
624
00:44:43,491 --> 00:44:46,320
sind immer die Pflichten der
Verantwortlichen. Das heißt, das ist ein
625
00:44:46,320 --> 00:44:49,391
Interessenkonflikt, wenn man sagt, ich
möchte das alles nicht dokumentieren und
626
00:44:49,391 --> 00:44:53,280
so weiter, dann heißt es, mir sind die
Interessen und die Rechte der Anderen
627
00:44:53,280 --> 00:44:58,830
davon egal, und das sollte nicht so sein.
Dann, individuelle Privatsphäre, das habe
628
00:44:58,830 --> 00:45:04,711
ich schon gesagt. Dann als letzten Punkt,
Fokus auf personenbezogene Daten ist
629
00:45:04,711 --> 00:45:08,470
offensichtlich problematisch, man kann
Leute auch mit nicht-personenbezogenen
630
00:45:08,470 --> 00:45:11,410
Daten diskriminieren und es gibt aber auch
Nutzungen von personenbezogenen Daten, die
631
00:45:11,410 --> 00:45:16,520
unproblematisch sind. Was man bräuchte,
ist eine Analyse von Datenverarbeitung,
632
00:45:16,520 --> 00:45:20,060
die einfach schaut, Datenverarbeitung,
egal welche Daten die verwenden, da
633
00:45:20,060 --> 00:45:24,047
verwendet werden. Was sind die
Konsequenzen für die Betroffenen und die
634
00:45:24,047 --> 00:45:27,290
Einwilligung ist weder hinreichend
für individuelle und noch für
635
00:45:27,290 --> 00:45:31,140
gesellschaftliche Schutzfunktionen: da
müssen wir tatsächlich über diese harten
636
00:45:31,140 --> 00:45:34,880
Grenzen nachdenken, ansonsten kommen wir
da nicht weiter. Und als allerletzten Punkt
637
00:45:34,880 --> 00:45:39,150
kann man sagen, die Techis unter uns sagen
ja immer Alice und Bob, die reden
638
00:45:39,150 --> 00:45:42,950
miteinander und dann gibt es Malary, die
greift an und beim Datenschutz muss man
639
00:45:42,950 --> 00:45:48,020
immer sagen, Achtung, Angreifer! Angreifer
ist nicht Malary, Angreifer ist Bob,
640
00:45:48,020 --> 00:45:50,882
nämlich die andere Seite, die die
Daten kriegt, was sie damit tut.
641
00:45:50,882 --> 00:45:52,415
Okay, dankeschön.
642
00:45:52,415 --> 00:46:05,715
Applaus
643
00:46:05,715 --> 00:46:10,200
Herald: Ja, danke Rainer für deinen
interessanten Vortrag. Wir haben zwei
644
00:46:10,200 --> 00:46:16,059
Mikrofone, eins auf der Seite in der Mitte
des Saals und eins im Mittelgang: Nr. 1 und
645
00:46:16,059 --> 00:46:21,830
Nr. 2. Wenn ihr Fragen stellen möchtet,
dann könnt ihr euch an diesen Mikrofonen
646
00:46:21,830 --> 00:46:27,680
aufstellen und eine Reihe bilden oder zwei
Reihen bilden. Wenn ihr jetzt gehen müsst,
647
00:46:27,680 --> 00:46:33,099
tut das bitte leise und auf jeden Fall
nicht störend. Und ja, dann würde ich mal
648
00:46:33,099 --> 00:46:34,952
sagen: Mikrofon 2.
649
00:46:35,589 --> 00:46:38,720
Frage: Vielen Dank für
den interessanten Vortrag. Wie sieht es
650
00:46:38,720 --> 00:46:43,290
aus, wenn wir plötzlich andere
Machtverhältnisse haben? Das heißt, wir
651
00:46:43,290 --> 00:46:47,900
haben Peer-to-Peer-Systeme. Da haben wir
auf der einen Seite dann alle auf der
652
00:46:47,900 --> 00:46:53,530
gleichen Ebene oder auch nicht, aber doch
prinzipiell ist es möglich. Und gerade
653
00:46:53,530 --> 00:46:57,619
diese Peer-to-Peer-Systeme ermöglichen ja
gerade diese mächtigen Daten-Intermediäre
654
00:46:57,619 --> 00:47:04,291
zu umgehen. Oder was ist jetzt bei Fällen,
wo wir sagen, wir haben jetzt gar nicht
655
00:47:04,291 --> 00:47:09,869
den starken Datenverarbeiter, sondern wir
haben den kleinen Turnverein, wir haben
656
00:47:09,869 --> 00:47:14,840
die Individuen, die plötzlich mit der
Datenschutzgrundverordnung konfrontiert
657
00:47:14,840 --> 00:47:18,260
sind und eigentlich gar nicht die Starken
sind. Und da sagen wir, passt doch
658
00:47:18,260 --> 00:47:20,330
eigentlich gar nicht.
659
00:47:21,960 --> 00:47:24,750
Rainer: Wollen wir erst mal sammeln
oder soll ich gleich..?
660
00:47:24,750 --> 00:47:27,888
Ja, gut, okay. Das ist ein sehr, sehr
guter Punkt, gerade diese Peer-to-Peer-
661
00:47:27,888 --> 00:47:34,570
Geschichten, da sehe ich tatsächlich eine
ganz, ganz große Chance, wo gerade bei
662
00:47:34,570 --> 00:47:38,930
Peer-to-Peer die Daten verteilt sind, da
keine Machtzentren dabei entstehen, da
663
00:47:38,930 --> 00:47:41,960
muss man natürlich bei dem Design
aufpassen, dass man es eben nicht so macht
664
00:47:41,960 --> 00:47:45,200
wie irgendwelche Bitcoin-Geschichten, dass
dann doch wieder alles zentralisiert wird,
665
00:47:45,200 --> 00:47:50,260
sondern eher so wie GNUnet, wo in das System
eingebaut ist, dass es auch dezentral
666
00:47:50,260 --> 00:47:54,160
bleibt. Ich sehe da ganz große Hoffnungen,
da muss allerdings sehr viel noch
667
00:47:54,160 --> 00:47:57,120
geforscht und gearbeitet werden, dass
solche Sachen dann auch skalieren können.
668
00:47:57,120 --> 00:48:00,930
Aber das kann möglich sein, auf alle Fälle.
Da sehe ich überhaupt kein Problem, wenn
669
00:48:00,930 --> 00:48:04,190
man da mal ein bisschen Geld reinsteckt,
irgendwie so einen Bruchteil von dem, was
670
00:48:04,190 --> 00:48:08,020
wir in Atomkraft gesteckt haben, mal in
Peer-to-Peer-Technologien, aber das
671
00:48:08,020 --> 00:48:10,780
nebenbei. Nee, das sehe ich auch, das wäre
auf alle Fälle eine technische
672
00:48:10,780 --> 00:48:16,380
Herangehensweise, wo man natürlich auch
wieder diese Analysen machen müsste, aber
673
00:48:16,380 --> 00:48:21,020
das ist auf alle Fälle ein gangbarer Weg
und da gibt es auch ganz viele Ansätze
674
00:48:21,020 --> 00:48:27,160
schon, gerade hier auf dem Congress, wenn
man mal herumläuft, GNU-Taler und so, da
675
00:48:27,160 --> 00:48:31,402
sehe ich viel Fruchtbares. Bei dem zweiten
Punkt, das ist natürlich jetzt eine
676
00:48:31,402 --> 00:48:35,070
rechtliche Frage. Ich gehe trotzdem darauf
ein, halte mich aber kurz, weil wie
677
00:48:35,070 --> 00:48:40,641
gesagt, es gab auch rechtliche Talks. Die
DSGVO hat so einen überwiegend Risiko-
678
00:48:40,641 --> 00:48:45,359
basierten Ansatz, das heißt, der Verein
muss diese Sachen insofern umsetzen, wie
679
00:48:45,359 --> 00:48:52,530
Risiken für die Betroffenen entstehen. Das
heißt, wenn der Verein ein multi-
680
00:48:52,530 --> 00:48:56,281
nationales, globales Social-Network
betreibt, dann sind die Pflichten sehr,
681
00:48:56,281 --> 00:49:01,100
sehr groß, wenn allerdings da nur die
Mitgliederliste geführt wird, dann sind
682
00:49:01,100 --> 00:49:04,520
die Anforderungen da auch sehr viel
geringer. Also man muss immer sehen, die
683
00:49:04,520 --> 00:49:07,521
Anforderungen, z. B. diese technischen-
organisatorischen Maßnahmen, die müssen
684
00:49:07,521 --> 00:49:11,600
immer angemessen sein. Das heißt, wenn da
eine Liste mit 20 Namen sind, dann muss
685
00:49:11,600 --> 00:49:16,600
man jetzt nicht, da reicht jetzt
vielleicht nicht irgendwie Caesar-
686
00:49:16,600 --> 00:49:21,310
Verschlüsselung, aber da muss jetzt kein
Hochsicherheitssystem da sein; das muss
687
00:49:21,310 --> 00:49:25,530
sozusagen immer entsprechend der Risiken
für die Betroffenen. Also ich verstehe
688
00:49:25,530 --> 00:49:31,690
auch die Kritik zu sagen, dass sozusagen
diese DSGVO guckt gar nicht, wie groß die
689
00:49:31,690 --> 00:49:36,109
Organisation ist. Oder da ist meine
Antwort dabei zu sagen, ja, die DSGVO
690
00:49:36,109 --> 00:49:39,869
schaut aber, wie groß ist das Risiko für
die Betroffenen. Und ich glaube, bei
691
00:49:39,869 --> 00:49:44,850
vielen, die sich da sozusagen beschweren,
die beschweren sich auch erstens, weil sie
692
00:49:44,850 --> 00:49:49,440
sich nicht vorher damit beschäftigt haben,
was sie hätten sollen und zweitens aber
693
00:49:49,440 --> 00:49:57,600
auch, weil da leider sehr viel Angstmache
drin war, wie viel Aufwand da tatsächlich
694
00:49:57,600 --> 00:50:03,470
auf Leute zukommt und wie groß die
Anforderungen sind. Die Regularien bei
695
00:50:03,470 --> 00:50:06,660
der Datenschutz-Konferenz war ja auch
irgendwie erst mal warnen und helfen,
696
00:50:06,660 --> 00:50:11,400
statt abmahnen und so weiter. Also das
sind so, genau das ist so meine Antwort.
697
00:50:11,400 --> 00:50:14,849
Also wichtig ist, wie groß ist das Risiko
für die Betroffenen und das wird bei
698
00:50:14,849 --> 00:50:17,710
Vereinen immer nicht so groß sein. Also
kommt auf den Verein an, also ich meine,
699
00:50:17,710 --> 00:50:21,450
der TÜV ist auch ein Verein, also... Okay,
ich hoffe, das hat jetzt geholfen.
700
00:50:21,450 --> 00:50:23,940
Herald: Mikrofon 1, bitte.
701
00:50:23,940 --> 00:50:26,430
Frage: Sie haben jetzt für die Erklärung
702
00:50:26,430 --> 00:50:31,555
'Was ist Datenschutz?' zurückgegriffen auf
die Erklärung des
703
00:50:31,555 --> 00:50:36,060
Standarddatenschutzmodells. Gibt es in der
Wissenschaft eigentlich auch andere
704
00:50:36,060 --> 00:50:41,780
Ansätze, die gewählt werden zur Erklärung
'Was ist Datenschutz' oder wie weit sind
705
00:50:41,780 --> 00:50:47,626
die Diskussionen da oder gibt es
unterschiedlichen Fokus?
706
00:50:47,626 --> 00:50:52,790
Rainer: Also das ist eine sehr sehr sehr
gute Frage tatsächlich. Ich finde
707
00:50:52,790 --> 00:50:54,920
tatsächlich dieses
Standarddatenschutzmodell - ne
708
00:50:54,920 --> 00:50:58,660
deswegen habe ich es da unten hingepackt -
sehr sehr gut und trifft das, was ich als
709
00:50:58,660 --> 00:51:04,000
großes Problem auch ansehe. Es gibt eine
Dissertation von Jörg Pohle, der Vierte
710
00:51:04,000 --> 00:51:07,180
von unten, 'Datenschutz und
Technikgestaltung', der diskutiert mal die
711
00:51:07,180 --> 00:51:10,690
verschiedenen Ansätze. Es gibt da schon
verschiedene Vorstellungen, was ist
712
00:51:10,690 --> 00:51:14,420
überhaupt das Schutzgut und wie kann man
dem begegnen und so weiter. Da gibt es
713
00:51:14,420 --> 00:51:22,760
einen großen Dschungel, aber da ist sich
auch... also mein Eindruck ist, da setzt
714
00:51:22,760 --> 00:51:27,730
sich zumindest in der deutschen Diskussion
oder europäischen Diskussionen da setzt
715
00:51:27,730 --> 00:51:32,420
sich gerade so eine bestimmte Richtung
durch. Aber es gibt auch andere Ansätze,
716
00:51:32,420 --> 00:51:37,030
die zum Beispiel, die rückwärts versuchen
entlang des Rechtes zu rekonstruieren, was
717
00:51:37,030 --> 00:51:41,859
eigentlich mal das Datenschutzproblem war
und die dann immer individualisiert Fragen
718
00:51:41,859 --> 00:51:50,150
stellen und sagen, wie können wir zum
Beispiel das Risiko so einfache Rechnung wie das
719
00:51:50,150 --> 00:51:54,490
Risiko der einzelnen Person mal die Anzahl
der betroffenen Personen und so könnte man
720
00:51:54,490 --> 00:51:56,930
eben auch an Datenschutz herangehen und
dann hat man nur rein individuell
721
00:51:56,930 --> 00:52:01,520
natürlich immer das Problem, was man dann
lösen muss. Das funktioniert insofern
722
00:52:01,520 --> 00:52:05,900
nicht, wie wir eben gesehen haben, es kann
natürlich eine ganze Menge Leute zu einer
723
00:52:05,900 --> 00:52:08,599
Datenverarbeitung zustimmen, deren
Konsequenzen dann alle anderen auch noch
724
00:52:08,599 --> 00:52:13,920
mit trifft. In dem Sinne funktioniert der
individualistische Ansatz dann nicht. Aber
725
00:52:13,920 --> 00:52:17,170
da gibt es einen Zoo. Aber ich glaube,
726
00:52:18,700 --> 00:52:24,688
Ich glaube das ist meiner Ansicht nach, das sehr gut
begründet ist.
727
00:52:25,997 --> 00:52:29,045
Herald: Das Internet hat eine Frage.
728
00:52:30,230 --> 00:52:36,290
Signal-Angel: Das Internet fragt: Gibt es
bzw. kennst du eine politikerverständliche
729
00:52:36,290 --> 00:52:40,750
Übersicht von Chaos-nahen politischen
Forderungen bezüglich Datenschutz und
730
00:52:40,750 --> 00:52:42,900
Datensicherheit mitsamt ihren
Begründungen?
731
00:52:45,370 --> 00:52:47,910
Rainer: Moment eine was? Eine Politiker
kompatible?
732
00:52:47,910 --> 00:52:51,490
Signal-Angel: ...Politikerverständliche
Übersicht von Chaos-nahen politischen
733
00:52:51,490 --> 00:52:53,230
Förderungen. Forderungen, Entschuldige.
734
00:52:58,619 --> 00:53:01,030
Rainer: Ja. Naja, ich meine, ich kann zum
735
00:53:01,030 --> 00:53:06,280
Beispiel darauf verweisen jetzt vor 2
Monaten war die Bits und Bäume in Berlin.
736
00:53:06,280 --> 00:53:10,480
Da gab's einen Forderungskatalog. Da
spielte auch Datenschutz und
737
00:53:10,480 --> 00:53:13,460
Datensicherheit eine Rolle und auch in der
Begründung dabei. Da war zum Beispiel auch
738
00:53:13,460 --> 00:53:17,320
der CCC auch dran beteiligt und das FIfF.
Aber andersrum auch
739
00:53:17,320 --> 00:53:23,580
Nachhaltigkeitsorganisationen BUND und so
weiter. Das ist sehr kurz und knackig.
740
00:53:23,580 --> 00:53:31,099
Ich glaube das könnte auch verstanden werden
und es wäre auch Chaos-Umfeld. Ich glaube
741
00:53:31,099 --> 00:53:38,070
allerdings, also das denke ich jetzt
gerade, verschiedene Leute oder auch
742
00:53:38,070 --> 00:53:40,830
verschiedene Politiker*innen haben
verschiedene Vorstellungen, was eigentlich
743
00:53:40,830 --> 00:53:46,380
das Problem ist. Deswegen weiß ich noch
nicht so richtig, inwiefern so eine
744
00:53:46,380 --> 00:53:49,980
Handreichung verständlicherweise da
wirklich helfen würde, die allgemein ist,
745
00:53:49,980 --> 00:53:58,540
sondern eher zu fragen: Was daran ist
unklar, um das dann wirklich konkret zu
746
00:53:58,540 --> 00:54:02,920
erklären. Aber mein Eindruck ehrlich
gesagt, ich verstehe die Motivation der
747
00:54:02,920 --> 00:54:09,190
Frage, aber mein Eindruck ist so ein
bisschen, dieses Unverständnis das hat
748
00:54:09,190 --> 00:54:17,250
eher was mit fehlendem Mut zu tun, mal zu
sagen, was weiß ich, wir müssen da jetzt
749
00:54:17,250 --> 00:54:20,780
mal harte Grenzen ziehen. Es hat weniger
mit Verständnis zu tun, als mit nicht
750
00:54:20,780 --> 00:54:23,230
verstehen wollen. Da hilft auch eine
Handreichung nicht.
751
00:54:23,230 --> 00:54:30,645
Applaus
752
00:54:30,645 --> 00:54:33,980
Rainer: Also die Antworten, was notwendig
753
00:54:33,980 --> 00:54:40,790
wäre, die werden immer, immer klarer, aber
das ist glaube ich eine politische Frage.
754
00:54:40,790 --> 00:54:45,130
Und das ist ja auch einer der Gründe,
warum wir hier sind, glaube ich.
755
00:54:46,580 --> 00:54:48,755
Herald: Mirkofon zwei, bitte.
756
00:54:48,755 --> 00:54:50,930
Frage: Ich wollte nochmal einhaken, du
757
00:54:50,930 --> 00:54:55,510
hast ja gerade auch bei dem Thema
Algorithmenethik sozusagen gesagt, das ist
758
00:54:55,510 --> 00:55:01,310
so eine Stellvertreterdebatte oder bzw.
eine Debatte, man will eigentlich nicht
759
00:55:01,310 --> 00:55:04,480
über das Eigentliche reden, nämlich was
Regulierung sein soll. Ich würde Dir
760
00:55:04,480 --> 00:55:08,740
insofern zustimmen, dass die Debatte
natürlich ablenken soll davon, dass man
761
00:55:08,740 --> 00:55:12,829
nicht weiß, wie man mit Technik umgeht.
Ich glaube allerdings, jetzt mal die
762
00:55:12,829 --> 00:55:16,610
Gegenthese, dass man in Deutschland
allgemein sehr regulierungswillig ist, in
763
00:55:16,610 --> 00:55:21,080
der Politik was Technik angeht, aber ich
glaube, man weiß nicht, was man regulieren
764
00:55:21,080 --> 00:55:25,725
soll. Also du hast mehrfach selber auch so
Begriffe wie Massenmanipulation,
765
00:55:25,725 --> 00:55:30,880
Wahlmanipluation genannt, darüber wird
unglaublich viel gesprochen. Ich glaube
766
00:55:30,880 --> 00:55:34,710
aber, es hat keiner gerade in der Politik
eine Idee, wie man damit umgehen soll und
767
00:55:34,710 --> 00:55:38,140
wenn dann mal so ein Vorschlag wie
Botregulierung eingebracht wird, ist es
768
00:55:38,140 --> 00:55:43,607
halt auch Quatsch. Deswegen jetzt meine
konkrete Frage: Wie würdest du damit
769
00:55:43,607 --> 00:55:49,260
umgehen? Also ich arbeite selber im
politischen Betrieb und überlege mir also auch
770
00:55:49,260 --> 00:55:52,579
immer, wie kann man eigentlich diese
Debatten in die richtige Richtung lenken.
771
00:55:52,579 --> 00:55:57,349
Wie würdest du damit umgehen, dass man
eben nicht über Algorithmenethik als
772
00:55:57,349 --> 00:56:00,700
Ablenkungsthema redet sondern, dass man
sich mit den tatsächlichen Fragen, nämlich
773
00:56:00,700 --> 00:56:05,960
was sind sinnvolle Regulierungen
beschäftigt, gerade eben unter dem Aspekt,
774
00:56:05,960 --> 00:56:09,050
dass technisches Unverständnis in großen
Teilen leider herrscht?
775
00:56:10,200 --> 00:56:16,369
Rainer: Tatsächlich eine sehr, sehr
interessante Frage. Ich glaube, da steckt
776
00:56:16,369 --> 00:56:20,150
noch ein bisschen Arbeit drin, diese, zum
Beispiel diese Schutzzielfragen auch mal
777
00:56:20,150 --> 00:56:23,339
wirklich auszubuchstabieren und da gibt es
auch Ansätze, zum Beispiel Martin Rost
778
00:56:23,339 --> 00:56:29,349
jetzt gerade für diese KI-Debatte. Wo man
konkret fragen kann: können denn bestimmte
779
00:56:29,349 --> 00:56:34,880
Systeme Garantien aussprechen für
grundrechtliche Fragen. Ich habe mal so
780
00:56:34,880 --> 00:56:37,630
ein Zitat da rein gepackt, irgendwie so
"Deep-Learning-Systeme sind also nicht
781
00:56:37,630 --> 00:56:40,450
prüfbar, nicht evaluierbar, ändern ihre
Eigenschaften, liefern keinerlei
782
00:56:40,450 --> 00:56:43,879
Begründung, sind leicht zu manipulieren,
willkürlich aufgebaut und immer ungenau."
783
00:56:44,449 --> 00:56:48,250
Das klingt jetzt nach einem coolen System,
wenn man Bilder sortieren will, das klingt
784
00:56:48,250 --> 00:56:52,390
nach einem nicht so guten System, wenn man
Straßenschilder erkennen möchte und ich
785
00:56:52,390 --> 00:57:01,810
glaube die Aufgabe bestünde darin, diese
Fleißarbeit auszubuchstabieren, was zum
786
00:57:01,810 --> 00:57:04,990
Beispiel diese Schutzziele für die
einzelnen Systeme und das macht teilweise
787
00:57:04,990 --> 00:57:09,750
das Standarddatenschutzmodell auch schon,
diese Ergebnisse zu zirkulieren und da
788
00:57:09,750 --> 00:57:17,730
gibt es tatsächlich gute Arbeiten und ich
glaube mittlerweile wäre es sogar möglich,
789
00:57:17,730 --> 00:57:22,110
können wir uns danach nochmal verbinden,
dass da vielleicht die richtigen
790
00:57:22,110 --> 00:57:25,520
Informationen an der richtigen Stelle mal
landen, weil ich glaube, die sind
791
00:57:25,520 --> 00:57:32,290
mehrheitlich schon da. Es hat immer auch
etwas mit erklären zu tun. Aber wenn der
792
00:57:32,290 --> 00:57:36,490
Wille da ist so zu agieren - also eine
Regulierwilligkeit sehe ich jetzt nicht so
793
00:57:36,490 --> 00:57:43,420
richtig - aber gut, wenn das tatsächlich
so ist, dann müsste man da wahrscheinlich
794
00:57:43,420 --> 00:57:47,170
genau diese Papers, die es dazu gibt und
so weiter ein bisschen aufbereiten und
795
00:57:47,170 --> 00:57:55,460
dann an die richtigen Stellen bringen als
Hinweise. Wie gesagt, das heißt aber eben
796
00:57:55,460 --> 00:58:01,751
auch, dass bestimmte Akteure dann eben
auch etwas abgeben müssen oder nicht mehr
797
00:58:01,751 --> 00:58:05,170
zulässig sind oder bestimmte
Geschäftsmodelle nicht mehr möglich sind.
798
00:58:05,170 --> 00:58:08,960
Also wenn Politiker*innen damit
einverstanden sind, dann kann man da auch
799
00:58:08,960 --> 00:58:10,642
was machen.
800
00:58:11,475 --> 00:58:13,680
Herald: Mikrofon 1 bitte.
801
00:58:13,680 --> 00:58:20,300
Frage: Hi, ich habe auch eine Frage zu
Regulierung: Und zwar aus einer
802
00:58:20,300 --> 00:58:23,250
soziologischen Perspektive ist es so, dass
bei Regulierungen immer auch die
803
00:58:23,250 --> 00:58:28,560
Regulierten mitarbeiten. Das läuft im
politischen Betrieb ganz oft über Aufrufe
804
00:58:28,560 --> 00:58:33,170
für Comment-Letters, also das
Bundesministerium für Verkehr und bla hat
805
00:58:33,170 --> 00:58:39,220
was über Fahrzeugdaten veröffentlicht und
die haben sehr sehr dezidiert politische
806
00:58:39,220 --> 00:58:43,320
ökonomische Benefits bei den Herstellern
gesehen und dann sind alle aufgerufen
807
00:58:43,320 --> 00:58:48,070
worden innerhalb eines halben Jahres ihre
ihre Meinung dazu zu posten. Und bei sowas
808
00:58:48,070 --> 00:58:52,900
haben natürlich starke Akteure die du auch
genannt hast, also Techgiants, immer einen
809
00:58:52,900 --> 00:59:03,160
strukturellen Vorteil. Also wenn du dich für
eine starke Regulierung aussprichst, hast
810
00:59:03,160 --> 00:59:06,740
du da schon irgendwie Vorstellungen wie
man diesen Bias an der Stelle ausschaltet;
811
00:59:06,740 --> 00:59:10,290
also das die starken weiterhin auch
privilegiert bleiben selbst wenn es
812
00:59:10,290 --> 00:59:11,980
Regulierungen gibt.
813
00:59:13,700 --> 00:59:18,540
Rainer: Tja, das ist die Königinnenfrage
814
00:59:18,540 --> 00:59:24,140
an der Stelle. Naja, es hat natürlich
immer was damit zu tun, wer wird da
815
00:59:24,140 --> 00:59:27,910
befragt, wer hat die Möglichkeiten? Ich
kenne es ja selber auch irgendwie: Egal ob
816
00:59:27,910 --> 00:59:30,221
es Sachverständigen Anhörungen sind oder
irgendwie Eingaben die gemacht werden
817
00:59:30,221 --> 00:59:34,599
können. Die Firmen schicken ihre Leute in
der Arbeitszeit dahin, um das zu tun und
818
00:59:34,599 --> 00:59:38,550
die NGOs gucken halt wo sie ihre
Ehrenamtlichen abziehen können, um
819
00:59:38,550 --> 00:59:45,171
vielleicht jemanden... Tja, das ist ein
großes Problem. Ich glaube da ist
820
00:59:45,171 --> 00:59:48,260
tatsächlich so eine grundsätzliche.. Da
wage ich mir jetzt auch ein bisschen aus
821
00:59:48,260 --> 00:59:53,890
dem Fenster aber so eine grundsätzliche
Herangehensweise gefragt. Das betrifft ja
822
00:59:53,890 --> 00:59:57,920
die Frage wie unsere Demokratie
funktioniert. Das ist nichts was
823
00:59:57,920 --> 01:00:04,599
irgendwie... ich meine von Diesel bis
hin zu... fange ich gar nicht erst an. Das
824
01:00:04,599 --> 01:00:09,459
ist keine Datenschutzfrage sondern eine
Demokratiefrage. Und ich weiß nicht.
825
01:00:09,459 --> 01:00:13,373
Da gibts ja ganz viele Ideen: mit
Lobbyregister und was es da alles gibt.
826
01:00:13,373 --> 01:00:19,960
Vermutlich müsste man da; wir alle die
Aktivitäten in diesen digitalen
827
01:00:19,960 --> 01:00:25,240
Rechtsfragen tätigen. Vermutlich wäre es
sogar eine langfristige und nachhaltige,
828
01:00:25,240 --> 01:00:30,680
Keyword, nachhaltige Lösung zu sagen,
bei all unseren Aktivitäten nehmen wir 10%
829
01:00:30,680 --> 01:00:35,700
weg und packen die in LobbyControl und so
weiter, um diese Strukturen da irgendwie
830
01:00:35,700 --> 01:00:44,020
zu stärken. Das wär mein Eindruck, weil
teilweise, wenn man sich anguckt wie so
831
01:00:44,020 --> 01:00:49,470
Digitalrat und KI Enquete usw.
zusammengesetzt sind. Klar, wenn ich Leute
832
01:00:49,470 --> 01:00:54,095
vor einem bestimten Hintergrund einlade,
ist mir klar, dass ich dann diese Antwort
833
01:00:54,095 --> 01:00:57,130
kriege. Das ist jetzt ein bisschen so
Frage: Wie kriege ich mehr Leute aus der
834
01:00:57,130 --> 01:01:00,470
Wissenschaft rein? Und mehr Betroffene,
usw.? Und deswegen tut es mir leid, dass
835
01:01:00,470 --> 01:01:03,950
es vielleicht eine nicht so hilfreiche
Antwort ist, aber ich glaube das eine ist
836
01:01:03,950 --> 01:01:08,150
eine Demokratie Frage und da gibts jede
Menge zu tun! Und auch deswegen sollte uns
837
01:01:08,150 --> 01:01:13,370
das interessieren, weil ansonsten unsere
ganze Arbeit da auch teilweise ins Leere
838
01:01:13,370 --> 01:01:18,716
läuft, weil dann eben das kaputte System
das alles wieder auffrisst. Das glaube ich
839
01:01:18,716 --> 01:01:20,187
so ein Punkt.
840
01:01:20,961 --> 01:01:23,400
Herald: Ich merke, die Diskussion, die
841
01:01:23,400 --> 01:01:27,589
brennt. Leider läuft uns die Zeit ein
bisschen davon. Wo finden dich die Leute
842
01:01:27,589 --> 01:01:29,554
hier auf dem Kongress?
843
01:01:30,174 --> 01:01:32,760
Rainer: Ihr findet mich entweder unter
844
01:01:32,760 --> 01:01:41,530
dieser E-Mail-Adresse oder aber z.B. am
FIfF-Stand, hier CCL, nullte Etage.
845
01:01:43,280 --> 01:01:45,230
Hier drunter. Ich werde danach
846
01:01:45,230 --> 01:01:47,480
einfach auf den Knopf drücken und
runterfahren, dann findet man mich da.
847
01:01:47,480 --> 01:01:48,080
Gelächter
848
01:01:48,080 --> 01:01:48,970
Dankeschön
849
01:01:48,970 --> 01:01:50,638
Herald: Genau. Applaus.
850
01:01:50,638 --> 01:01:52,299
Applaus
851
01:01:52,299 --> 01:01:56,047
35C3 Outro Musik
852
01:01:56,047 --> 01:02:16,000
Untertitel erstellt von c3subtitles.de
im Jahr 2020. Mach mit und hilf uns!