WEBVTT
00:00:00.000 --> 00:00:18.659
35C3 Intro Musik
00:00:18.659 --> 00:00:24.290
Herald: Okay willkommen hier in
Eliza für den dritten Talk dieses Blocks
00:00:24.290 --> 00:00:30.829
an diesem zweiten Tage hier. Uns wird
heute Rainer Rehak etwas über: "Was
00:00:30.829 --> 00:00:35.010
schützt eigentlich der Datenschutz?"
erzählen. Und er wird uns eine kleine
00:00:35.010 --> 00:00:40.560
Einführung mit einem strukturellen Blick
auf den Datenschutz gewähren, um uns ein
00:00:40.560 --> 00:00:46.789
bisschen Debatten-Rüstzeug zu geben. Und
da würde ich euch bitten eine Runde
00:00:46.789 --> 00:00:50.249
Applaus zu spendieren und Rainer
willkommen zu heißen.
00:00:50.249 --> 00:00:53.969
Applaus
00:00:53.969 --> 00:00:55.869
Rainer Rehak: Hallo.
00:00:55.869 --> 00:00:58.589
Applaus
00:00:58.589 --> 00:01:02.447
Rainer: Ja, Hallo, herzlich willkommen,
welcome und ni hao.
00:01:03.930 --> 00:01:09.750
Ja, was schützt eigentlich der Datenschutz. Ich bin sehr
froh, hier sprechen zu dürfen, weil
00:01:11.030 --> 00:01:14.469
vielleicht teilweise ein bisschen
pointiert als These, warum
00:01:14.469 --> 00:01:17.448
Datenschützer*innen aufhören müssen von
individueller Privatheit zu sprechen.
00:01:17.448 --> 00:01:21.190
Das ist ja immer so ein Thema was sich
durchzieht, wenn es um Datenschutz geht,
00:01:21.190 --> 00:01:25.210
dann geht's gleich um die Privatsphäre und
das Innerste des Menschen. Das ist sicher
00:01:25.210 --> 00:01:30.610
auch richtig. Aber meiner Ansicht nach ist
das ein bisschen zu klein und spielt
00:01:30.610 --> 00:01:36.659
gerade den Personen in die Hände, die wir
eigentlich - ich sag jetzt mal wir - die wir
00:01:36.659 --> 00:01:41.550
eigentlich mit der Argumentation
bekämpfen wollen, oder überzeugen wollen,
00:01:41.550 --> 00:01:46.659
im besten Falle. Also erst mal zu mir: So ein
bisschen, dass man immer weiß, wer da
00:01:46.659 --> 00:01:49.909
spricht, was für einen Hintergrund ich
habe, dass man das ein bisschen
00:01:49.909 --> 00:01:53.949
einsortieren kann, inhaltlich. Ich bin
selber wissenschaftlicher Mitarbeiter am
00:01:53.949 --> 00:01:58.659
Weizenbaum-Institut für die vernetzte
Gesellschaft. Meine Forschungsbereiche und
00:01:58.659 --> 00:02:01.409
Forschungsinteressen so Technik-
Zuschreibungen also Funktions-
00:02:01.409 --> 00:02:05.540
Zuschreibungen, IT-Sicherheit,
Datenschutz, Informatik und Gesellschaft.
00:02:05.540 --> 00:02:10.920
Ich selber habe Informatik und
Philosophie studiert, an der Humboldt-
00:02:10.920 --> 00:02:15.920
Universität zu Berlin, Freie Uni Berlin
und Chinese University of Hongkong.
00:02:15.920 --> 00:02:20.000
Und habe auch meine Diplomarbeit geschrieben
über die heimliche Online-Durchsuchung,
00:02:20.000 --> 00:02:24.800
und insbesondere um die gesellschaftlichen
Konsequenzen davon. Außerdem bin ich aktiv
00:02:24.800 --> 00:02:28.569
im Forum InformatikerInnen für Frieden und
gesellschaftliche Verantwortung, bei
00:02:28.569 --> 00:02:31.380
Amnesty International und bei der
Gesellschaft für Informatik.
00:02:31.380 --> 00:02:35.260
Worum soll es heute gehen? Einen Fahrplan:
Erstmal will ich ein bisschen was über
00:02:35.260 --> 00:02:42.150
Begriffe sagen, die dann fallen werden,
dann über das Problem, was es überhaupt zu
00:02:42.150 --> 00:02:45.590
diskutieren gibt im Datenschutz. Dann gibt
es ein bisschen Theorie und
00:02:45.590 --> 00:02:49.980
Operationalisierung. Operationalisierung
heißt: Wie man aus den ganzen
00:02:49.980 --> 00:02:54.129
theoretischen Konstrukten dann tatsächlich
konkrete Handlungen ableiten kann. Dann
00:02:54.129 --> 00:02:59.921
möchte ich was über die, auch in der
Beschreibung des Talks so ein bisschen
00:02:59.921 --> 00:03:05.970
kritisierten Nicht-Lösungen sagen, konkret
darauf eingehen. Vielleicht, wenn sich da
00:03:05.970 --> 00:03:08.890
Fragen anschließen werden wir auch eine
Q&A noch machen, dass wir das diskutieren
00:03:08.890 --> 00:03:12.299
können zusammen. Dann werde ich ein Fazit
präsentieren und dann kommt noch eine
00:03:12.299 --> 00:03:18.140
Literaturliste, Literaturhinweise. Die
Folien kommen dann auch ins frab, für
00:03:18.140 --> 00:03:21.000
diejenigen unter euch die sich da noch
weiter einlesen wollen und das weiter
00:03:21.000 --> 00:03:29.349
verfolgen wollen über diese Foundations-
Ebene hinweg. Also, erstmal die Begriffe.
00:03:29.349 --> 00:03:32.090
Erst einmal, wenn man über Datenschutz
redet - im Englischen ist es ja noch
00:03:32.090 --> 00:03:36.320
komplizierter, so mit Privacy und Data
Protection und so weiter - es gibt erstmal
00:03:36.320 --> 00:03:40.240
so einen Begriffe-Mix, das wird dann auch
zusammen gehauen mit Überwachung und dann
00:03:40.240 --> 00:03:43.504
ist das so eine Mischung. Deswegen will
ich das jetzt erstmal auseinanderziehen,
00:03:43.504 --> 00:03:47.920
dass wir wissen worüber wir reden.
Erstens: Datenschutz selber ist ein
00:03:47.920 --> 00:03:52.630
sozialwissenschaftlicher Begriff. Ich
werde die alle nachher so ein bisschen
00:03:52.630 --> 00:03:57.119
mehr auffächern, insbesondere
Datenschutz. 'Datenschutzrecht' ist ein
00:03:57.119 --> 00:04:01.580
juristischer Begriff und 'Datensicherheit'
ist ein informatischer Begriff.
00:04:01.580 --> 00:04:05.769
Ich glaube, Datenschutzrecht, da haben wir
eine ganze Menge dazu jetzt schon gehört,
00:04:05.769 --> 00:04:10.680
sowohl in den Medien, weil die, zum Beispiel
die Datenschutz-Grundverordnung ja wirksam
00:04:10.680 --> 00:04:15.939
geworden ist 2018 jetzt im Mai. Und über
Datensicherheit haben wir hier mit
00:04:15.939 --> 00:04:20.640
Sicherheit ja auch eine ganze Menge schon
gehört und gewusst. Der Witz daran ist,
00:04:20.640 --> 00:04:24.910
dass das alles so ein bisschen
zusammengehört bei dem Thema, aber dennoch
00:04:24.910 --> 00:04:29.530
diese Bereiche, oder diese Themen, jeweils
eigenen Diskurs-Regeln gehorchen. Und
00:04:29.530 --> 00:04:33.000
wie bei allem ist es so, dass die Problem-
beschreibung selber auch die Lösung
00:04:33.000 --> 00:04:37.050
so bisschen vordefiniert. Das heißt, der
Korridor, wo man hinschaut, was da irgendwie
00:04:37.050 --> 00:04:42.940
als sinnvolle Lösung irgendwie in Betracht
kommt. Und welcher Informations-
00:04:42.940 --> 00:04:46.220
oder welcher Daten-Begriff wird da
verwendet. Das ist auch eine
00:04:46.220 --> 00:04:49.440
Schlüsselfrage, die ist gar nicht so schwer,
aber die muss gestellt werden. Und
00:04:49.440 --> 00:04:55.751
die muss beantwortet werden. Jetzt mal
kurz als Überflug. Das Datenschutzrecht
00:04:55.751 --> 00:04:58.479
schützt also Personen. Der
Anknüpfungspunkt dabei sind
00:04:58.479 --> 00:05:04.880
personenbezogene Daten. Das kennt man ja
auch, weitläufig diskutiert. Und zum
00:05:04.880 --> 00:05:08.900
Beispiel die Begründung, was schützt
eigentlich die Datenschutzgrundverordnung,
00:05:08.900 --> 00:05:13.070
oder was setzt sie um, wäre im
juristischen, würde man sagen: Naja, die
00:05:13.070 --> 00:05:16.900
setzt halt Artikel 8 der Charta der
Grundrechte der Europäischen Union um. In
00:05:16.900 --> 00:05:21.270
der Informatik würde man sagen: Okay, das
leitet auf ein weiteres Terminal. 'Was ist
00:05:21.270 --> 00:05:25.120
denn Artikel 8 der Charta der Grundrechte
der Europäischen Union?' Das ist so eine
00:05:25.120 --> 00:05:29.930
Art, die Verfassung der EU. Zum Beispiel
als Vergleich mal mit dem deutschen
00:05:29.930 --> 00:05:34.563
Grundgesetz. Auch da ist Artikel 1: Die
Würde des Menschen ist unantastbar. Sie
00:05:34.563 --> 00:05:38.800
ist zu achten und zu schützen. Und Artikel
8, das der für die DSGVO besonders
00:05:38.800 --> 00:05:42.540
relevante, ist 'Schutz personenbezogener
Daten'. Das steht da einfach genauso drin.
00:05:43.296 --> 00:05:47.650
Und wenn der Schutz personenbezogener
Daten ein Grundrecht ist auf europäischer
00:05:47.650 --> 00:05:49.970
Ebene, ist ja klar, dass jegliche
Datenverarbeitung dann auch eine
00:05:49.970 --> 00:05:53.880
Verletzung von Grundrechten ist. Wobei die
Frage da bleibt: Ja, aber warum
00:05:53.880 --> 00:06:00.349
eigentlich? Wenn man so ein bisschen vor-
rechtlich diskutieren will, wenn man sagt:
00:06:00.349 --> 00:06:03.120
Wir schützen personenbezogene Daten.
Warum? Ja, weil wir ein Recht auf Schutz
00:06:03.120 --> 00:06:08.139
personenbezogener Daten haben; ist es
richtig, aber unbefriedigend.
00:06:09.889 --> 00:06:13.229
Aber zum Datenschutzrecht gibt es ja auf dem
Kongress auch eine ganze Menge anderer
00:06:13.229 --> 00:06:16.530
Vorträge, es klang auch alle sehr
interessant. Deswegen würden wir jetzt
00:06:16.530 --> 00:06:21.139
darüber nicht reden. Datensicherheit ist
eine Sache, wie ich bereits angemerkt
00:06:21.139 --> 00:06:26.120
habe, die auch gerade im Chaos-Umfeld eine
große Rolle spielt. Das heißt, wenn man
00:06:26.120 --> 00:06:28.510
sich anguckt was ist Datensicherheit:
üblicherweise Schutzziele zur
00:06:28.510 --> 00:06:31.479
Vertraulichkeit, Integrität,
Verfügbarkeit. Wenn man so ein bisschen
00:06:31.479 --> 00:06:35.981
Techie-mäßig drauf ist, würde man grob
verallgemeinern: Vertraulichkeit sind die
00:06:35.981 --> 00:06:40.100
Leserechte, Integrität sind die
Schreibrechte, Verfügbarkeit sind die
00:06:40.100 --> 00:06:43.040
Exekutiv-, die Ausführungsrechte. Ist
jetzt ein bisschen hingebogen, aber so
00:06:43.040 --> 00:06:47.139
ungefähr kann man sich das vorstellen. Das
heißt Verfügbarkeit: ob so ein System für
00:06:47.139 --> 00:06:50.950
mich funktioniert und den Service
abliefert, den ich haben möchte.
00:06:51.780 --> 00:06:55.949
In der Datensicherheit geht es aber primär - also was
heißt 'aber' - geht es primär um die
00:06:55.949 --> 00:06:59.610
Sicherheit von Geschäftsprozessen und von
vorhandenen Daten. Das heißt, die
00:06:59.610 --> 00:07:02.419
Daten sind da, die müssen ordentlich
abgesichert werden, zugreifbar bleiben,
00:07:02.419 --> 00:07:07.140
nicht verändert werden und so weiter. Seit
2008 haben Personen sogar ein Grundrecht
00:07:07.140 --> 00:07:10.800
auf die Gewährleistung der Vertraulichkeit
und Integrität informationstechnischer
00:07:10.800 --> 00:07:15.790
Systeme. Aber auch zur Datensicherheit
selber gibt es auf dem Kongress andere
00:07:15.790 --> 00:07:20.900
Vorträge. Jetzt ist die Frage: Was ist denn
mit dem Datenschutz? Das heißt, wenn wir Rechte
00:07:20.900 --> 00:07:25.301
haben, auf zum Beispiel den Schutz
personenbezogener Daten, guckt man in die
00:07:25.301 --> 00:07:29.380
Richtung: Wie wird denn das motiviert? Und
dann kommt der Datenschutz selber ins
00:07:29.380 --> 00:07:33.080
Spiel, als sozialwissenschaftliche
Diskussion, wer wird da warum eigentlich
00:07:33.080 --> 00:07:38.000
wie geschützt? Und dazu kurz ein paar
Bemerkung zum gesellschaftlichen
00:07:38.000 --> 00:07:42.100
Hintergrund. Also erstens: Wir leben in einer
arbeitsteiligen Gesellschaft. Das heißt,
00:07:42.100 --> 00:07:47.289
verschiedene Menschen haben verschiedene
Aufgaben. Wir sind spezialisiert und ich
00:07:47.289 --> 00:07:50.479
muss nicht Socken nähen können, um
mit Socken herumzulaufen, weil jemand
00:07:50.479 --> 00:07:55.850
anders das kann. Ihr kennt das Spiel. Es
gibt eben Spezialisierung und niemand ist
00:07:55.850 --> 00:08:00.009
sozusagen in allem spezialisiert. Diese
Arbeitsteilung hat auch Konsequenzen, wie
00:08:00.009 --> 00:08:03.720
wir nachher sehen. Es gibt diverse Akteure,
die miteinander irgendwie funktional
00:08:03.720 --> 00:08:09.139
interagieren. Vielleicht menschlich
interessiert es mich schon, wie es dem
00:08:09.139 --> 00:08:12.130
Bäcker oder der Bäckerin gerade geht, aber
tatsächlich möchte ich da gerade Geld auf
00:08:12.130 --> 00:08:15.620
den Tisch legen und mein Brötchen kriegen
morgens. Oder je nachdem, wann auch immer.
00:08:15.620 --> 00:08:19.560
Das heißt, man tritt so funktional
irgendwie miteinander in Verbindung.
00:08:20.080 --> 00:08:25.690
Und in dieser Gesellschaft gibt's dann eben
auch... da sind ja nicht alle Leute, die
00:08:25.690 --> 00:08:29.530
da mitspielen nicht gleich mächtig
oder gleich fähig. Finanzielle
00:08:29.530 --> 00:08:33.710
Unterschiede können das sein, das können
strukturelle Unterschiede sein. An dem
00:08:33.710 --> 00:08:37.157
Fall jetzt zum Beispiel mit Individuum und
Organisation. Individuum ist eine
00:08:37.157 --> 00:08:40.630
Person, die hat so Hände, und kann
irgendwie Dinge tun, und dann gibt es
00:08:40.630 --> 00:08:44.980
Organisationen, die aus vielen Menschen
bestehen, aus Regeln, finanziellen Möglichkeiten,
00:08:44.980 --> 00:08:48.380
rechtlichen Möglichkeiten und
so weiter. Und die sind natürlich
00:08:48.380 --> 00:08:53.630
nicht gleich mächtig; haben verschiedene
Möglichkeiten, ihre Interessen
00:08:53.630 --> 00:08:57.610
durchzusetzen. Das heißt, sie haben
verschiedene Möglichkeiten. Sie haben
00:08:57.610 --> 00:09:00.280
verschieden große Macht, um in diesem
gesellschaftlichen Spiel
00:09:00.280 --> 00:09:05.970
mitzumachen. Das sind Machtasymmetrien. Max
Weber sagt... kann man mit ihm sprechen:
00:09:05.970 --> 00:09:09.360
"Macht ist die Chance, in einer sozialen
Beziehungen den eigenen Willen auch gegen
00:09:09.360 --> 00:09:13.904
Widerstreben durchzusetzen, gleichviel worauf
diese Chance beruht." Kann man
00:09:13.904 --> 00:09:16.280
unterscheidenden in Durchsetzungskraft:
also Dinge zu verursachen.
00:09:16.280 --> 00:09:19.660
Verhinderungsmacht: Dinge nicht
stattfinden zu lassen, die dem eigenen
00:09:19.660 --> 00:09:24.070
Interesse widersprechen, und
Definitionsmacht: Wie spricht man über
00:09:24.070 --> 00:09:27.570
bestimmte Themen. Ein bisschen
Wahlcomputer, Wahlmaschinen und ihr kennt
00:09:27.570 --> 00:09:32.900
die Geschichte. Jetzt ist die Frage: Ok,
das ist alles noch nicht technisch. Beim
00:09:32.900 --> 00:09:39.980
Datenschutz, was uns für den Datenschutz
interessiert, ist an der Stelle, dass wir
00:09:39.980 --> 00:09:43.960
in eine allgemeine allgegenwärtige
Computerisierung und Vernetzung haben.
00:09:43.960 --> 00:09:47.890
Aka. Digitalisierung wird es seit ein paar
Jahren genannt, obwohl dieser Prozess seit
00:09:47.890 --> 00:09:51.330
ungefähr 50 Jahren schon läuft. Und
wir haben automationsgestützte
00:09:51.330 --> 00:09:55.000
Informationsverarbeitung, insbesondere von
Organisationen, also von staatlichen und
00:09:55.000 --> 00:09:59.610
von wirtschaftlichen Organisationen.
Mittlerweile, oder seit einer Weile, ist es
00:09:59.610 --> 00:10:05.170
schon so, dass da eben keine individuellen
Wahlmöglichkeiten mehr sind. Man kann sich
00:10:05.170 --> 00:10:08.210
entscheiden kein Handy zu haben, aber wenn
man Steuern zahlt, muss man halt doch mit
00:10:08.210 --> 00:10:12.580
dem ELSTER arbeiten. Egal ob es Rente,
Krankenkasse und so weiter... ihr kennt die
00:10:12.580 --> 00:10:16.330
Geschichten. Man kommt da eben auch nicht
mehr raus. Es sei denn man zieht irgendwie
00:10:16.330 --> 00:10:20.540
in den Wald und eine Höhle. Aber wenn man
sich dann verletzt, kann man vielleicht
00:10:20.540 --> 00:10:23.230
einen Kräutertee trinken, aber wenn der
Arm ab ist, dann will man vielleicht doch
00:10:23.230 --> 00:10:25.590
ein Krankenhaus.
00:10:27.710 --> 00:10:30.080
Warum ist das relevant?
Naja, diese Informationsverarbeitung,
00:10:30.080 --> 00:10:33.870
die Nutzung dieser Daten, die wird
verwendet, um Entscheidungen zu
00:10:33.870 --> 00:10:39.500
produzieren. Entscheidungen produzieren
heißt: Wieviel Geld kann ich abheben. Was
00:10:39.500 --> 00:10:44.420
ist die schnellste Route von A nach B. Was
sind irgendwie beste Freunde, die ich
00:10:44.420 --> 00:10:47.160
vorgeschlagen bekomme. All diese Sachen,
das sind ja alles Entscheidungen, wo man
00:10:47.160 --> 00:10:54.640
auch anders hätte agieren können, aber
Computer says... und so weiter. Kleine
00:10:54.640 --> 00:10:57.710
Bemerkung natürlich: diese Entscheidungen werden
produziert, egal ob die Datenbasis korrekt
00:10:57.710 --> 00:11:02.550
ist oder nicht. Die Ergebnisse sind da und
werden dann... wenn die Karte falsch
00:11:02.550 --> 00:11:05.620
ist, landet man im Graben, zum Beispiel.
00:11:07.046 --> 00:11:09.250
Okay, jetzt ist die Frage: Naja, wir reden
00:11:09.250 --> 00:11:13.728
von Datenschutz und von
Informationsverarbeitung. Daten oder
00:11:13.728 --> 00:11:19.390
Informationen, ganz kurz, wir sind noch in
der Begriffsphase. Also Daten im Datenschutz
00:11:19.390 --> 00:11:24.080
meint Informationen, die Modelle eines
Sachverhaltes für einen Zweck sind. Das
00:11:24.080 --> 00:11:30.620
ist jetzt erst mal ein bisschen viel auf
einmal. Aber wenn ich eine Glaserei betreibe,
00:11:30.620 --> 00:11:34.510
dann interessiert mich natürlich bei einem
Haus was ich in meiner Datenbank eintrage:
00:11:34.510 --> 00:11:38.300
Wie viele Fenster sind in dem Haus, wie
groß sind die Fenster, welche Art von
00:11:38.300 --> 00:11:41.550
Format sind das und so weiter. Wenn ich
irgendwie eine Malerei betreibe dann
00:11:41.550 --> 00:11:46.200
interessiert mich natürlich: Wie groß ist die
Fläche des Hauses und so weiter. Das heißt, ich
00:11:46.200 --> 00:11:50.570
greife mir immer einen Ausschnitt aus der
Realität und modelliere den auf diesen
00:11:50.570 --> 00:11:55.730
Zweck hin wofür ich es verwenden will,
dann bei der Datenverarbeitung. Das heißt,
00:11:55.730 --> 00:12:02.760
es sind Modelle eines Realitäts-
Ausschnitts. Für einen bestimmten Zweck.
00:12:03.970 --> 00:12:07.740
Und deswegen können wir nicht den
technischen Informationsbegriff von Shannon
00:12:07.740 --> 00:12:11.110
nehmen. Also von wegen Abtastung und
welche Auflösung ist da und wie, ihr
00:12:11.110 --> 00:12:15.790
kennt das so, mit 44 Kilohertz und CD und
nimm doch lieber die Goldstecker und so.
00:12:15.790 --> 00:12:21.250
Das ist nicht der Punkt. Wir benutzen
einen der Semiotik, der sagt, Informationen
00:12:21.250 --> 00:12:25.131
oder die Daten, aus Datenschutz,
bestehen aus Syntax, Semantik, Pragmatik
00:12:25.131 --> 00:12:29.529
und Sigmatik. Syntax ist die zeichenmäßige
Repräsentation, also die Nullen und
00:12:29.529 --> 00:12:33.860
Einsen. Semantik ist die Bedeutung.
Pragmatik ist der Zweck, für den diese
00:12:33.860 --> 00:12:37.580
Daten erhoben worden sind. Wir erinnern
uns, die Glaserei oder die Malerei.
00:12:37.580 --> 00:12:41.680
Und Sigmatik ist die betroffene Person.
Das heißt, wessen Haus das ist, oder so.
00:12:41.680 --> 00:12:44.240
Als Beispiel könnte man sagen:
00:12:46.011 --> 00:12:49.180
irgendwie so ein Tupel von
Nullen und Einsen, so ein
00:12:49.180 --> 00:12:53.430
Zweiertupel. Die Semantik davon: Aha das
sind Geo-Koordinaten, das müsste im System
00:12:53.430 --> 00:12:58.220
hinterlegt sein, eines Mobiltelefons.
Pragmatik: Der Zweck wäre die
00:12:58.220 --> 00:13:01.040
Bereitstellung ortsabhängiger Services zum
Beispiel für eine Routenplanung, wo möchte
00:13:01.040 --> 00:13:05.440
ich hin, wo gibt es eine Pizza oder so. Und
Sigmatik ist dann Maxi Musterfrau, weil das
00:13:05.440 --> 00:13:09.480
die Person ist, deren Mobiltelefon das
ist, an der Stelle.
00:13:11.650 --> 00:13:15.550
So ist die Situation. Das ist doch erstmal nett,
klingt irgendwie nützlich. Aber was ist
00:13:15.550 --> 00:13:20.890
eigentlich das Problem jetzt? Die Technik,
die immer besser wird, und die Daten,
00:13:20.890 --> 00:13:23.710
die gesammelt werden, Informationen,
die verarbeitet werden und
00:13:23.710 --> 00:13:27.620
anhand derer Entscheidungen getroffen
werden, die wird immer besser, immer
00:13:27.620 --> 00:13:30.290
effizienter nach bestimmten Kriterien,
aber sie hilft natürlich den
00:13:30.290 --> 00:13:35.530
Organisationen, die sie verwenden, ihre
eigenen Interessen besser durchzusetzen.
00:13:35.530 --> 00:13:38.911
Technik soll die Welt besser machen,
aber nicht für alle, sondern für die,
00:13:38.911 --> 00:13:41.750
die sie einsetzen - und zwar für die, die
sie im besten Fall selber bauen
00:13:41.750 --> 00:13:47.371
können und dann ihren eigenen
Vorstellungen gemäß formen.
00:13:49.591 --> 00:13:53.680
Und das kann eben auch sein, dass bei
dieser Informationsverarbeitung
00:13:53.680 --> 00:13:58.180
auch Grundrechte von Personen berührt
werden. Die klassische Diskussion ist
00:13:58.180 --> 00:14:01.280
immer so Fragen von
Diskriminierungen oder Ungerechtigkeiten,
00:14:01.280 --> 00:14:06.220
weil die Daten falsch sind oder sowas, so
Geschichten. Das heißt, wenn die Ergebnisse,
00:14:06.220 --> 00:14:09.030
die da produziert werden - im
schlimmsten Falle auch vollautomatisch -,
00:14:10.230 --> 00:14:14.725
dass sie Rechte von Menschen berühren und
die an der Stelle erst mal, weil sie ja
00:14:14.725 --> 00:14:18.260
Gegenstand - der Automat sagt halt: "Du
kriegst kein Geld" oder "in diesem Monat
00:14:18.260 --> 00:14:23.410
ist alles schon aufgebraucht", dagegen
kann man jetzt erst mal nichts tun.
00:14:24.514 --> 00:14:28.640
Das heißt, da ist sozusagen eine direkte
Konsequenz dieser Datenverarbeitung auf
00:14:28.640 --> 00:14:32.860
Menschen, auf Menschengruppen oder auf
ganze Gesellschaften. Allerdings muss man
00:14:32.860 --> 00:14:35.190
auch sagen, diese Datenverarbeitung
ist wünschenswert, weil sie uns auch
00:14:35.190 --> 00:14:38.810
was bringt. Also es ist nicht so, dass
DatenschützerInnen selber am liebsten
00:14:38.810 --> 00:14:42.860
zurück in die besagte Höhle wollen, wo das
Feuer komplett verständlich ist.
00:14:42.860 --> 00:14:45.960
Nein, wir wollen diese informations-
technischen Systeme, die uns
00:14:45.960 --> 00:14:49.530
das Leben erleichtern, die wollen wir alle
haben, aber die Effekte, die negativen,
00:14:49.530 --> 00:14:53.490
die es auf Menschen hat und auf
Gesellschaften, die wollen wir minimieren.
00:14:53.490 --> 00:14:57.090
Und da hilft es natürlich, wenn man
mit Technikerinnen und Technikern redet.
00:14:57.090 --> 00:14:59.905
Ja klar, man kann Systeme auf
verschiedene Arten bauen, man muss halt
00:14:59.905 --> 00:15:02.570
nur vorher sagen, was man haben will.
00:15:04.590 --> 00:15:07.390
Und jetzt, wenn man die Probleme mal so
00:15:07.390 --> 00:15:10.810
konkretisiert, würde man sagen: 1.
Datenverarbeitung ist wünschenswert, aber
00:15:10.810 --> 00:15:15.000
es gibt innerorganisatorische
Datenverarbeitung oder
00:15:15.000 --> 00:15:20.080
Informationsverarbeitung, das heißt, ich
kann ja selber überlegen, was ich
00:15:20.080 --> 00:15:24.360
vielleicht einer Organisation gebe an
Daten und was nicht, aber was die dann
00:15:24.360 --> 00:15:27.970
intern damit machen, diese Frage, für
welchen Zweck sie sie verwenden, wem sie
00:15:27.970 --> 00:15:31.684
sie weitergeben und so weiter, das kann
ich selber nicht mehr beeinflussen. In dem
00:15:31.684 --> 00:15:34.850
Moment sind die Daten außerhalb
meiner Hand, sind nicht mehr in meiner
00:15:34.850 --> 00:15:40.110
Kontrolle. Und 2. gibt es natürlich die
Macht-Asymmetrien. Das heißt, eine Firma,
00:15:40.110 --> 00:15:44.740
die Unmengen von Daten über Individuen
hat, kann die natürlich analysieren und
00:15:44.740 --> 00:15:48.290
daraus Erkenntnisse generieren, die ich
aus meinen eigenen Daten gar nicht ziehen
00:15:48.290 --> 00:15:54.230
kann. Das heißt also, alleine die schiere
Macht, der schierer Datenunterschied,
00:15:54.230 --> 00:15:56.941
erzeugt andere Möglichkeiten auf den
verschiedenen Seiten, das heißt, die
00:15:56.941 --> 00:16:00.580
Player sind alle nicht gleich stark und
das hängt auch, insbesondere, wenn wir
00:16:00.580 --> 00:16:04.570
über Datenschutz reden, von der Menge an
Daten ab, die vorhanden sind.
00:16:06.720 --> 00:16:09.700
Das heißt, wie ich es eben beschrieben habe,
nun als Zitat nochmal von Adalbert
00:16:09.700 --> 00:16:14.160
Podlech: "Informationsvorgänge dürfen
keine sozialschädlichen Folgen
00:16:14.160 --> 00:16:19.491
herbeiführen." Das ist so die
Formulierung. Oder man kann es auch mit
00:16:19.491 --> 00:16:23.150
Martin Rost sagen: "Die
Handlungsalternativen des, in diesen
00:16:23.150 --> 00:16:27.080
Interaktionen Schwächeren, die sollen
aufrechterhalten werden." Es soll nicht
00:16:27.080 --> 00:16:30.230
irgendwann so sein, dass die
Organisationen komplett sagen: "Das ist
00:16:30.230 --> 00:16:34.600
das Richtige für dich und deswegen gehst
du diesen Weg lang. Und ihr kennt das ja,
00:16:34.600 --> 00:16:38.780
wenn in irgendwelchen Softwaren das Menü
halt nicht sagt "exportieren", dann geht's
00:16:38.780 --> 00:16:44.660
halt nicht. Das heißt also, wenn wir das
möchten, muss eben Datenverarbeitung unter
00:16:44.660 --> 00:16:48.496
Bedingungen gestellt werden. Man muss
sagen, wenn die Gefahr für so eine
00:16:48.496 --> 00:16:51.890
Einschränkung von Grundrechten und so
weiter besteht, dann müssen wir irgendwie
00:16:51.890 --> 00:16:56.110
Bedingungen für die Datenverarbeitung
formulieren, dass das minimiert wird oder
00:16:56.110 --> 00:16:58.890
dass den Risiken begegnet wird oder dass
sie nicht stattfinden, dass man dieses
00:16:58.890 --> 00:17:03.190
Thema einfach anders baut, dass sie das
nicht tun. Innerhalb sozusagen,
00:17:03.190 --> 00:17:08.429
man würde es jetzt als Fachtermini
nennen: eine Konditionierung der
00:17:08.429 --> 00:17:12.500
Macht-Asymmetrie. Das heißt, Konditionen,
also die Bedingung oder Voraussetzung
00:17:12.500 --> 00:17:16.310
stellen, unter denen dann diese
Datenverarbeitung stattfindet. Eben, warum
00:17:16.310 --> 00:17:20.050
muss es jetzt irgendwie konditioniert
werden? Weil ich als Außenstehender
00:17:20.050 --> 00:17:23.800
natürlich nicht die Computersysteme von
Amazon und wie sie alle heißen, ich kann
00:17:23.800 --> 00:17:27.440
die ja nicht umprogrammieren, ich kann
halt die Knöpfe verwenden, die sie mir
00:17:27.440 --> 00:17:31.080
geben. Nichts Anderes. Oder ich kann
sagen, ich benutze das alles nicht, aber
00:17:31.080 --> 00:17:35.960
das ist ne, so auf dieser schwarz-weiß
Ebene sind wir ja nicht, von der
00:17:35.960 --> 00:17:39.620
Diskussion.
Okay. Und die Frage ist immer so,
00:17:43.680 --> 00:17:45.250
das Schutzgut dabei ist eben, also
00:17:45.250 --> 00:17:49.530
Datenschutz schützt nicht Daten,
klar, sondern Individuen, also die
00:17:49.530 --> 00:17:52.150
Grundrechte und Grundfreiheiten, wenn man
es so formulieren möchte, und die
00:17:52.150 --> 00:17:57.370
Gesellschaft insgesamt, aber wenn man sich
das so anschaut, finden sich diese
00:17:57.370 --> 00:18:00.470
Individuen, Grundrechte und
Grundfreiheiten, die finden sich wieder.
00:18:00.470 --> 00:18:06.820
Aber diese gesamtgesellschaftlichen Fragen,
da muss man sehr stark danach suchen.
00:18:06.820 --> 00:18:09.670
Man kann es konstruieren, aber so
explizit ist es da nicht drin zu finden,
00:18:09.670 --> 00:18:14.500
das hat rechtsdogmatische Gründe. Aber das
ist nur wieder eine Erinnerung daran, dass
00:18:14.500 --> 00:18:19.154
sich die Fragen des Datenschutzes oder die
Antworten des Datenschutzes und des
00:18:19.154 --> 00:18:23.160
Datenschutzrechts nicht deckungsgleich
sind. Das eine ist immer ein Ergebnis aus
00:18:23.160 --> 00:18:28.131
dem anderen, im besten Falle, aber manchmal
auch nicht. Man würde auch, um das zu
00:18:28.131 --> 00:18:32.610
erklären, warum Datenschutz sagen, na ja,
wenn wir uns Märkte angucken, dann gibt's
00:18:32.610 --> 00:18:36.770
eben Kartellämter, und die sagen, wenn
bestimmte Akteure zu stark werden dann
00:18:36.770 --> 00:18:42.000
muss man die begrenzen und die anderen
ein bisschen stützen, damit der Markt als Ganzes
00:18:42.000 --> 00:18:44.320
funktioniert und genauso kann
man sich es auch beim Datenschutz
00:18:44.320 --> 00:18:47.060
vorstellen. Wir haben die
Informationsgesellschaft und da gibt es
00:18:47.060 --> 00:18:50.840
Informationsmacht verschiedener Akteure.
Da brauchen wir irgendwas, in dem Fall
00:18:50.840 --> 00:18:57.080
zum Beispiel Datenschutzrecht, die diesen
Ausgleich bringt. Nicht das einzelne
00:18:57.080 --> 00:19:01.540
Datum zählt, sondern die Anhäufung selber
die dann ein Ergebnis produziert.
00:19:03.083 --> 00:19:06.430
Ihr kennt bestimmt den Spruch: "Bei Wurst und
Gesetzen möchte man nicht dabei sein wenn
00:19:06.430 --> 00:19:11.180
sie gemacht werden." Das ist natürlich
immer die Frage, was die Datenschutz-
00:19:11.180 --> 00:19:16.490
Diskussion bereits seit den 60er, 70er
Jahren so produziert hat, ist natürlich,
00:19:16.490 --> 00:19:22.860
wenn es dann zu Recht wird, immer
Gegenstand von Aushandlung, von politischen
00:19:22.860 --> 00:19:26.160
Verhandlungen, "wir nehmen das mit rein
und das nicht mit rein" und so weiter.
00:19:26.160 --> 00:19:30.380
Deswegen muss man immer aufpassen, dass man
die Datenschutz-Diskussion nicht oder
00:19:30.380 --> 00:19:33.720
nicht primär als Datenschutzrechts-
Diskussion führt, weil man sich dann
00:19:33.720 --> 00:19:38.270
sehr eingeengt auf das was einmal durch
die Politik gegangen ist. So jetzt kommen
00:19:38.270 --> 00:19:43.920
wir mal ein bisschen zu einer Theorie, um
die Sachen zusammenzubinden, um sie nochmal
00:19:43.920 --> 00:19:48.040
in einen größeren Kontext einzubauen. Wir
gucken uns jetzt mal den Informationsfluss an:
00:19:48.700 --> 00:19:52.610
Am Anfang jetzt vielleicht ein
bisschen verwirrend, aber wir haben hier
00:19:52.610 --> 00:19:58.910
links den Informationsfluss von starken
Akteuren zu schwachen Akteuren - wir haben
00:19:58.910 --> 00:20:03.290
darunter von schwachen Akteuren zu starken
Akteuren und darüber die beiden Seiten
00:20:03.290 --> 00:20:07.740
sind eben den Informationsfluss zu fördern
oder diesen Informationsfluss zu
00:20:07.740 --> 00:20:12.930
blockieren. Das heißt, wenn wir uns die
erste Zeile anschauen: Wir wollen den
00:20:12.930 --> 00:20:16.400
Informationsfluss vom starken zum
schwachen Akteur, zum Beispiel von der
00:20:16.400 --> 00:20:21.645
Organisation zum Individuum. Das wollen
wir fördern, weil der Starke dadurch, dass
00:20:21.645 --> 00:20:26.325
er Informationen preisgeben muss - über
sich, über seine Verarbeitung und so weiter,
00:20:26.325 --> 00:20:30.900
in dieser Informationsasymmetrie, der
Machtasymmetrie schwächt. Und weil die
00:20:30.900 --> 00:20:34.440
einzelne Person damit Informationen
erlangt, was damit passiert, wird die Person
00:20:34.440 --> 00:20:39.620
gestärkt. Das nennen wir Transparenz, das
nennen wir Informationsfreiheit. Das zu
00:20:39.620 --> 00:20:44.570
blockieren, das heißt, dass die großen
Organisationen nicht sagen müssen, was sie
00:20:44.570 --> 00:20:48.650
gerade damit tun, welche Daten sie haben,
das nennt sich Arkanpraxis. Für die
00:20:48.650 --> 00:20:54.300
RollenspielerInnen unter euch, Arkan - die Magie,
Arkan heißt einfach nur geheim. Es ist
00:20:54.300 --> 00:20:58.000
unklar was da was da getan wird. Anders
herum ist der Informationsfluss von
00:20:58.000 --> 00:21:02.080
schwachen Akteuren zu starken Akteuren.
Wenn wir den fördern, dann nennt man das
00:21:02.080 --> 00:21:09.540
Verdatung. Ist jetzt nicht der Fachbegriff,
aber der, den man auch so kennt.
00:21:09.540 --> 00:21:12.630
Also die Verdatung, überall
Sensoren, alle möglichen
00:21:12.630 --> 00:21:17.291
Handlungen, die im Digitalen stattfinden
werden protokolliert und so weiter. Und
00:21:17.291 --> 00:21:20.891
wenn man diesen Informationsfluss aber
blockiert und den unter Bedingungen stellt
00:21:20.891 --> 00:21:27.140
dann sind wir beim Datenschutz. Das ist
die Struktur. Wie ihr jetzt erkennt
00:21:27.140 --> 00:21:29.910
sozusagen von rechts oben nach links
unten. Also Arkanpraxis und Verdatung,
00:21:29.910 --> 00:21:34.300
das ist das was wir in totalitären Staaten
und so weiter sehen. Und das ist auch das,
00:21:34.300 --> 00:21:39.420
was wir sehen wenn wir Diskussionen mit
großen kommerziellen Organisationen
00:21:39.420 --> 00:21:43.470
führen. Nein, wir wollen nicht erzählen was
wir machen, wir wollen aber alles über dich
00:21:43.470 --> 00:21:49.530
wissen. Es ist immer die Richtung und die
andere Seite, das ist sozusagen die rote
00:21:49.530 --> 00:21:53.340
Diagonale ist genau das, was den Starken
noch stärker macht und den Schwachen noch
00:21:53.340 --> 00:21:58.860
weiter schwächt. Die andere Richtung, die
Grüne, ist genau das, was den Starken
00:21:58.860 --> 00:22:02.830
schwächt und den Schwachen stärkt. Nämlich
Transparenz und Informationsfreiheit
00:22:02.830 --> 00:22:07.900
bezüglich der Starken und den Datenschutz
bezüglich der Schwachen. An dieser Stelle
00:22:07.900 --> 00:22:12.560
ein kleines Dankeschön zum Beispiel an OKF
und Frag den Staat und so weiter. Oder
00:22:12.560 --> 00:22:15.565
beim Datenschutz andere Organisationen wo
ich zum Beispiel auch aktiv bin. Das heißt
00:22:15.565 --> 00:22:18.840
man merkt das ist überhaupt gar kein
Widerspruch an der Stelle. Die Frage ist
00:22:18.840 --> 00:22:22.750
nur wer muss transparent sein und wer soll
nichts von sich preisgeben oder so wenig
00:22:22.750 --> 00:22:28.660
wie möglich von sich preisgeben. Deswegen
erklärt sich auch das Mysterium für manche
00:22:28.660 --> 00:22:32.760
warum wir zum Beispiel einen
Bundesbeauftragten für den Datenschutz und
00:22:32.760 --> 00:22:36.175
die Informationsfreiheit haben, warum das
zusammen gehört, genau deswegen gehört das
00:22:36.175 --> 00:22:37.530
zusammen.
00:22:40.450 --> 00:22:43.900
Warum gibt's aber auch Meinungen
für weniger Datenschutz. Na ja klar
00:22:43.900 --> 00:22:47.610
Datenschutz kostet Ressourcen: finanziell,
personell, konzeptionell. Man muss das
00:22:47.610 --> 00:22:51.260
Thema anders planen, anders umbauen und so
weiter. Aber auch verhindert der
00:22:51.260 --> 00:22:54.280
Datenschutz Informationsnutzung, Das
ist der Zweck der Sache, trotzdem ist es
00:22:54.280 --> 00:22:57.460
ein Argument. Das heißt, bestimmte
Geschäftsmodelle gehen nicht mehr und
00:22:57.460 --> 00:23:02.330
so weiter. Für staatliche Aufgaben werden
Daten benötigt und wenn die Daten nicht
00:23:02.330 --> 00:23:05.870
fließen können, dann werden bestimmte
staatlichen Aufgaben schwieriger oder
00:23:05.870 --> 00:23:11.760
auch wirtschaftliche Tätigkeiten werden
erschwert. Das ist zwar richtig, aber es
00:23:11.760 --> 00:23:14.970
ist kein neues Problem wenn man über
Gesellschaft nachdenkt. Gleiches gilt
00:23:14.970 --> 00:23:16.850
natürlich für Hygieneregeln,
Sicherheitsvorschriften,
00:23:16.850 --> 00:23:19.960
Kinderarbeitsverbot, Arbeitnehmerrechte,
Umweltstandards und so weiter und so fort.
00:23:19.960 --> 00:23:25.310
Die kosten auch alle, aber wir haben uns
entschieden: Das sind alles Maßnahmen, wo
00:23:25.310 --> 00:23:30.690
es darum geht die Schwächeren, die sich
schlechter wehren können, die vielleicht
00:23:30.690 --> 00:23:35.560
auch nicht das Wissen haben, irgendwie
davor zu schützen, dass da jemand
00:23:35.560 --> 00:23:39.865
durchagiert und die eigenen Interessen
schamlos durchsetzt.
00:23:42.845 --> 00:23:44.170
Wem's aufgefallen ist,
00:23:44.170 --> 00:23:48.670
ich hab jetzt noch nicht einmal den
Begriff Privatsphäre verwendet. Und das
00:23:48.670 --> 00:23:55.307
ist ganz bewusst genau der Punkt. Weil
Privatsphäre ist immer so eine Idee: Ich
00:23:55.307 --> 00:23:59.947
alleine in meinem Schlafzimmer. Der
Soziologe Paul Müller nennt das:
00:23:59.947 --> 00:24:03.610
"Schneckenhaus-Privatsphäre". Seiner
Ansicht nach ist das nur in
00:24:03.610 --> 00:24:06.940
vorindustriellen Lebensweisen möglich, wo
man tatsächlich sagte: Ich lebe auf dem
00:24:06.940 --> 00:24:10.461
Gut hier, und die Leute ein paar
Kilometer weiter, die kennen mich noch
00:24:10.461 --> 00:24:14.690
nicht einmal. Vielleicht ist das sozusagen
diese Art von Anonymität, vielleicht
00:24:14.690 --> 00:24:19.840
könnte man da nennen. Aber jetzt
tatsächlich, was wir eigentlich wollen,
00:24:19.840 --> 00:24:24.710
ist, wenn man sagt, wir brauchen irgendwie
Girokonten und so weiter all diese Sachen.
00:24:24.710 --> 00:24:27.550
Es geht nicht darum, dass niemand Daten
hat, sondern dass die Begrenztheit des
00:24:27.550 --> 00:24:31.710
Wissens über Individuen aufrechterhalten
wird. Dass es nirgendwo eine Komplett-
00:24:31.710 --> 00:24:37.510
Ansicht gibt oder dass bestimmte Akteure
immer nur genau das wissen, was sie
00:24:37.510 --> 00:24:39.980
eigentlich wissen sollten und man kann
natürlich diskutieren wie viel das denn
00:24:39.980 --> 00:24:47.230
sein soll. Wilhelm Steinmüller, einer der
Ur-Ur-Urgestein Müller, könnte man sagen,
00:24:47.230 --> 00:24:50.960
des Datenschutzdiskurses formulierte das
so: "Es geht nicht um Privatsphäre, es
00:24:50.960 --> 00:24:55.080
geht darum, eine Technik sozial
beherrschbar zu machen." Und welche
00:24:55.080 --> 00:24:58.310
Grundrechte werden berührt von dieser
Datenverarbeitung? Nicht nur Grundrechte
00:24:58.310 --> 00:25:01.830
auf Privatleben, was zum Beispiel Artikel
7 der Europäischen Grundrechtecharta ist,
00:25:01.830 --> 00:25:06.440
sondern eigentlich quasi alle. Wenn ihr
dran überlegt, so was wie Meinungsfreiheit
00:25:06.440 --> 00:25:10.940
Informationsfreiheit, so Fragen
wie Demonstrationsfreiheit, Würde
00:25:10.940 --> 00:25:14.600
des Menschen, das könnte man alles
durchbuchstabieren. Eigentlich könnte man
00:25:14.600 --> 00:25:17.710
sagen: Der Datenschutz ist so
eine Art digitale Dimension aller
00:25:17.710 --> 00:25:21.820
Grundrechte. Und das jetzt auf
Privatsphäre zu reduzieren, da
00:25:21.820 --> 00:25:25.490
ist was Richtiges dran, aber es verengt
den Blick doch radikal, worum es
00:25:25.490 --> 00:25:26.717
eigentlich geht.
00:25:28.057 --> 00:25:30.086
So, wie gehen wir damit
jetzt irgendwie um?
00:25:31.926 --> 00:25:33.120
Operationalisierung:
00:25:33.120 --> 00:25:36.400
Wie können wir diese Ideen mit stark und
schwach, wie können wir da irgendwie
00:25:36.400 --> 00:25:41.120
Anforderungen daraus bauen? Wie können wir
da Dimensionen daraus kristallisieren? Das
00:25:41.120 --> 00:25:47.330
haben diverse Menschen getan und sind zu
einem Ergebnis gekommen, zu sagen, wenn es
00:25:47.330 --> 00:25:52.790
um Datenschutz geht, dann müssen
informationsverarbeitende Systeme
00:25:52.790 --> 00:25:56.970
bestimmte Schutzziele verfolgen. Und die
Schutzziele sind Nichtverkettbarkeit,
00:25:56.970 --> 00:26:01.710
Vertraulichkeit, Intervenierbarkeit,
Transparenz, Verfügbarkeit und Integrität.
00:26:01.710 --> 00:26:06.230
Das ist sozusagen: Diese Ziele, auf diese
Ziele hin kann man alle technischen Geräte
00:26:06.230 --> 00:26:09.437
oder alle technischen Systeme oder
informationstechnischen Systeme hin
00:26:09.437 --> 00:26:13.730
analysieren und kann sehen, inwiefern sie
diese Ziele umsetzen. Weil diese Ziele
00:26:13.730 --> 00:26:17.591
genau die Werte, die wir eben besprochen
haben, realisieren, kann man die
00:26:17.591 --> 00:26:23.590
analysieren. Nichtverkettbarkeit heißt,
bestimmte Informationen, die erhoben worden
00:26:23.590 --> 00:26:27.130
sind für verschiedenste Zwecke, die eben
nicht zu verbinden, Informationen nicht
00:26:27.130 --> 00:26:30.420
einfach so irgendwo kaufen zu können.
Wir reden jetzt über Datenschutz, nicht
00:26:30.420 --> 00:26:35.130
Datenschutzrecht. Nicht einfach so kaufen
zu können und die zu verbinden,
00:26:36.660 --> 00:26:41.150
zum Beispiel nicht Daten zu erheben, die für
den eigentlichen Geschäftszweck oder
00:26:41.150 --> 00:26:45.110
eigentliche Handlungen gar nicht notwendig
sind, das zu beschränken an der Stelle.
00:26:45.110 --> 00:26:49.440
Integrität, die Unversehrtheit der Daten,
das heißt, dass sie nicht verändert
00:26:49.440 --> 00:26:54.360
werden, dass ich mich darauf verlassen
kann, die Daten, die ich übermittle oder
00:26:54.360 --> 00:26:59.540
die erhoben werden, dass sie tatsächlich
so bleiben und an der Stelle zum Beispiel
00:26:59.540 --> 00:27:04.780
korrekt bleiben. Verfügbarkeit heißt an
der Stelle, dass ich die Systeme eben
00:27:04.780 --> 00:27:08.960
nutzen kann. Wenn ich mich darauf verlasse
dass ich diese Routenplanung habe und die
00:27:08.960 --> 00:27:14.340
wollen von mir irgendwie Geld haben dafür,
dass ich das nutzen kann usw., dann will
00:27:14.340 --> 00:27:17.261
ich natürlich auch, dass es funktioniert.
Weil ansonsten ist es ja ein schlechter
00:27:17.261 --> 00:27:22.790
Handel. Transparenz bezieht sich darauf,
nicht nur welche Daten vorliegen, sondern
00:27:22.790 --> 00:27:25.690
auch wie funktionieren eigentlich die
Prozesse? Was sind denn die Zwecke der
00:27:25.690 --> 00:27:29.459
Verarbeitung? Wie funktioniert denn die
ganze Innerei? Was passiert da? Was sind
00:27:29.459 --> 00:27:32.800
eigentlich die Nebenkonsequenzen? Es gibt
ja einmal die intendierten Resultate und
00:27:32.800 --> 00:27:37.030
Konsequenzen und dann gibt es eben auch
die Unintendierten. Und genau das muss
00:27:37.030 --> 00:27:39.849
irgendwie für mich einsehbar sein.
00:27:40.525 --> 00:27:43.080
Intervenierbarkeit ist ein Schutzziel, das
00:27:43.080 --> 00:27:47.679
sagt eben: Na ja, also wenn Daten eben
nicht korrekt sind und das System rechnet
00:27:47.679 --> 00:27:50.991
weiter, egal ob es meine Kredite sind oder
ob ich jetzt irgendwie einen Tisch bekomme
00:27:50.991 --> 00:27:56.540
oder ob ich ein Haus bekomme oder so. Es
muss natürlich auch möglich sein, dass
00:27:56.540 --> 00:28:00.330
dieses System, wenn man Fehler in dem
System erkennt, zu sagen: Stopp, ich
00:28:00.330 --> 00:28:03.510
möchte, dass sich das ändert. Ich möchte,
dass die Daten zum Beispiel berichtigt
00:28:03.510 --> 00:28:06.920
werden oder aber ich möchte, wenn ich
feststelle, dass dieses System
00:28:06.920 --> 00:28:10.651
diskriminierend ist. Ich möchte, dass das System
so gebaut ist, dass ich irgendwas tun kann als
00:28:10.651 --> 00:28:14.540
Betroffener, dass das aufhört. Es reicht
ja nicht zu sagen: Ja, also, wir sind
00:28:14.540 --> 00:28:18.155
total transparent. Aber dadurch, dass wir
die Stärkeren sind, kannst du einfach
00:28:18.155 --> 00:28:23.460
nichts tun. Man muss ja irgendwo sozusagen
den Notausschalter ist jetzt übertrieben,
00:28:23.460 --> 00:28:24.942
natürlich.
00:28:25.676 --> 00:28:28.212
Und als letzten Punkt, die
Vertraulichkeit. Das heißt, die
00:28:28.212 --> 00:28:31.592
Informationen, die ich denen, die da für
mich irgendwie Service anbieten, die ich
00:28:31.592 --> 00:28:35.200
gebe, da möchte ich auch sichergehen, dass
sie nirgendwo anders hingehen, dass die
00:28:35.200 --> 00:28:38.830
genau da bleiben und genau dafür verwendet
werden. Aber Vertraulichkeit ist, dass sie
00:28:38.830 --> 00:28:44.170
genau da nur bleiben und niemand
Unbefugtes darauf Zugriff hat. Jetzt kann
00:28:44.170 --> 00:28:49.144
man sagen: Na, interessant,
Nichtverkettbarkeit, Transparenz und
00:28:49.144 --> 00:28:54.300
Intervenierbarkeit, da sagt man so, das
hat den Primat des Datenschutzes und die
00:28:54.300 --> 00:28:57.340
Aufmerksamen unter euch merken: Ach,
interessant die anderen drei, das ist das
00:28:57.340 --> 00:29:02.190
Primat der Datensicherheit. Das heißt,
wenn man aus dieser Sicht auf Datenschutz
00:29:02.190 --> 00:29:07.200
blickt, erkennt man das, dass nicht
Datenschutz so ein Unterteil von
00:29:07.200 --> 00:29:11.162
Datensicherheit ist, sondern aus dieser
Sicht genau andersrum. Wir erinnern uns,
00:29:11.162 --> 00:29:15.090
am Anfang, Datensicherheit, da ging es
darum: Wie können denn die Daten, die da
00:29:15.090 --> 00:29:18.309
sind ordentlich abgesichert werden und
gegen die Hacker und Angriffsszenarien und
00:29:18.309 --> 00:29:21.570
so weiter. Ja klar, aber der Datenschutz
fragt: Ja, sollten diese Daten denn
00:29:21.570 --> 00:29:28.824
überhaupt da sein? Man könnte sich so ein
Zwiegespräch vorstellen, wo die
00:29:28.824 --> 00:29:32.020
Datenschützerin sagt: Na ja, aber das
Datum ist nicht korrekt, was da
00:29:32.020 --> 00:29:35.640
gespeichert ist. Und die IT-
Sicherheitsabteilung: Ja ja aber das ist
00:29:35.640 --> 00:29:40.470
richtig gut beschützt. Da merkt man, das
ist ein Konflikt, das ist nicht das
00:29:40.470 --> 00:29:45.810
Gleiche. Genau, das sind so die
Schutzziele und die kann man tatsächlich
00:29:45.810 --> 00:29:51.160
verwenden. Und es ist auch nicht parallel,
sondern diese Schutzziele kann man sehen,
00:29:51.160 --> 00:29:56.050
das ist ein Beitrag von 2013 schon, dass
diese Schutzziele des Datenschutzes
00:29:56.050 --> 00:30:00.046
tatsächlich auch mit dem Recht, was
gesprochen worden ist, vereinbar sind. Das
00:30:00.046 --> 00:30:02.390
heißt, es ist nicht komplett alles
umgesetzt, aber es ist eben auch kein
00:30:02.390 --> 00:30:05.610
Widerspruch. Wir erinnern uns hier wieder,
Datenschutz und Datenschutzrecht ist eben
00:30:05.610 --> 00:30:07.225
nicht das Gleiche.
00:30:08.565 --> 00:30:14.360
Okay, das war jetzt so der
Durchritt erstmal für die Grundlagen
00:30:14.360 --> 00:30:17.729
an der Stelle und jetzt kommen wir zu den
Nicht-Lösungen. Das sind quasi so ein paar
00:30:17.729 --> 00:30:21.249
Kommentare, die ich mir jetzt so noch erlaube.
00:30:23.004 --> 00:30:24.624
Okay, also erstmals: Der
00:30:24.624 --> 00:30:28.830
Selbstdatenschutz, ganz beliebt
insbesondere in Verbindung mit der
00:30:28.830 --> 00:30:32.930
Blockchain. Okay, das spare ich mir jetzt.
Also wenn das Datenschutz-Konzept ernst
00:30:32.930 --> 00:30:37.710
genommen werden soll: Wir überlegen uns,
schwache, starke Akteure, Möglichkeiten
00:30:37.710 --> 00:30:41.915
transparent, und so weiter. Wie soll denn
Selbstdatenschutz da aussehen?
00:30:43.990 --> 00:30:48.440
Wie kann mein Selbstdatenschutz aussehen,
wenn ich eine innerorganisationale
00:30:48.440 --> 00:30:52.121
Datenverarbeitung habe? Wie kann ich denn
bei Facebook selbst Datenschutz machen?
00:30:52.121 --> 00:30:55.560
Also außer, wenn ich da bewaffnet
reingehe, aber das ist jetzt nicht
00:30:55.560 --> 00:31:01.656
wirklich eine skalierende Lösung, neben
den ganzen anderen Problemen.
00:31:04.130 --> 00:31:07.245
Bin gegen Gewalt übrigens.
00:31:08.690 --> 00:31:12.060
Oder die Erinnerung:
Warum haben wir Datenschutz? Datenschutz haben
00:31:12.060 --> 00:31:15.950
wir eben nicht weil es eine Rechts-Vor-Links-Regel
ist im Straßenverkehr, wo die beiden
00:31:15.950 --> 00:31:18.570
gleich stark sind. Nein, wir haben
Datenschutz genau deswegen, weil sie eben
00:31:18.570 --> 00:31:22.295
nicht gleich stark sind. Da jetzt den
Schwachen zu sagen: Du kannst doch selbst
00:31:22.295 --> 00:31:26.000
Datenschutz machen. Wenn man wirklich
verstanden hat, wie Datenschutz
00:31:26.000 --> 00:31:30.020
funktioniert, ist es zynisch, das
vorzuschlagen. Das ist genau dem
00:31:30.020 --> 00:31:36.233
Verprügelten zu sagen: Ja, du musst dich
ja nur wehren. Es gibt überhaupt keinen Sinn.
00:31:36.863 --> 00:31:40.080
Da kann man sich ja vorstellen, in
den Situationen, wann braucht man oder
00:31:40.080 --> 00:31:44.690
wann ist Datenschutz genau notwendig wenn
es um Kredit- oder Grenz- oder Einkaufs-
00:31:44.690 --> 00:31:47.960
oder Durchsuchungssituationen geht?
Polizeiliche Identitätsfeststellung oder
00:31:47.960 --> 00:31:51.760
an der Grenze: Geben sie Daten raus und so
weiter oder nicht. Das sind genau die
00:31:51.760 --> 00:31:54.940
Fälle, da kann man sich überlegen, wie man
irgendwie Flüchtenden an der Grenze sagt:
00:31:54.940 --> 00:31:57.290
Na ja, du kannst ja Selbstdatenschutz
machen, du musst dein Handy nicht
00:31:57.290 --> 00:32:01.110
rausrücken. Das ist ein Riesenproblem.
Genau darum gehts. Starke und schwache
00:32:01.110 --> 00:32:06.777
Akteure, das irgendwie anzugreifen und
eben nicht zu sagen: Ja, mach doch selber.
00:32:08.330 --> 00:32:14.700
Und das heißt, da muss man dann auch
sagen, danke eben auch an Jörg Pohle für
00:32:14.700 --> 00:32:19.003
diesen Hinweis, Facebook hat gar keine
Datenschutzeinstellungen. Facebook hat
00:32:19.003 --> 00:32:26.750
Einstellungen. Facebook, ich sage jetzt
mal $SocialNetwork, da gibt's
00:32:26.750 --> 00:32:30.910
Einstellungen, welche anderen User Daten
sehen, und welche anderen User da
00:32:30.910 --> 00:32:33.511
irgendwie interagieren können. Es gibt
aber keine Einstellungen, was Facebook
00:32:33.511 --> 00:32:39.920
damit macht. Man kann da manchmal so ein
bisschen dran rum regeln, aber die
00:32:39.920 --> 00:32:42.760
Einstellung, wie lange Facebook
irgendwelche Sachen speichern soll oder
00:32:42.760 --> 00:32:47.600
nicht, die gibt's eben nicht oder welche
Verknüpfungen es da geben soll.
00:32:49.590 --> 00:32:54.670
Wenn man Datenschutz quasi ernst nimmt, ist
das so ein Punkt. Und natürlich, das ist ja auch
00:32:54.670 --> 00:32:56.809
irgendwie bei Mobiltelefonen und so
weiter, da gibts dann immer
00:32:56.809 --> 00:33:00.040
Datenschutzeinstellungen. Es fühlt sich
irgendwie so gut an, aber das ist gar
00:33:00.040 --> 00:33:04.370
nicht Datenschutz, was es da ist. Wenn
irgendwie bei bestimmten Mobiltelefonen
00:33:04.370 --> 00:33:07.340
von Google da steht, da halt Datenschutz:
Wollen Sie ein Backup machen? Ja, das ist
00:33:07.340 --> 00:33:10.720
aber Datensicherheit, das ist nicht
Datenschutz. Also es ist was anderes.
00:33:11.280 --> 00:33:15.030
Okay, dann gucken wir uns mal
Dateneigentum oder Datensouveränität an.
00:33:15.030 --> 00:33:21.199
Naja, ein Eigentum, also erstmal
Begriffskritik: Eigentum selber, das
00:33:21.199 --> 00:33:27.410
Konzept Eigentum ist ein Exklusivrecht auf
Sachen. Das heißt also, Eigentum: Entweder
00:33:27.410 --> 00:33:31.740
ich habe eine bewegliche Sache, ein Auto,
ein Fahrrad oder sonst was oder
00:33:31.740 --> 00:33:35.920
unbewegliche Sachen wie Immobilien. Dann
heißt das, ich kann darüber exklusiv
00:33:35.920 --> 00:33:41.187
verfügen. Und genau darauf ist die gesamte
Rechtsordnung auch ausgelegt. Wenn ich
00:33:41.187 --> 00:33:45.224
sage Daten sind Eigentum, dann merkt man
schon an dem Konzept: Okay, wenn es
00:33:45.224 --> 00:33:48.200
Eigentum ist, dann kann es auch gestohlen
werden. Da kann man sich überlegen.
00:33:48.200 --> 00:33:52.580
Datendiebstahl, sind die Daten jetzt weg?
Nee, sie sind ja noch da. Okay, was ist
00:33:52.580 --> 00:33:55.190
denn jetzt das Problem? Das Problem bei
Diebstahl ist ja nicht, dass man danach
00:33:55.190 --> 00:33:57.000
zwei Fahrräder hat, sondern,
dass man keins mehr hat.
00:33:57.000 --> 00:33:58.890
Vereinzeltes Lachen
00:33:58.890 --> 00:34:00.780
Also, es ist eine Frage wie groß
00:34:00.780 --> 00:34:06.180
der eigene Keller ist. Aber ihr merkt an
der Stelle, das ist schon vom Konzept her
00:34:06.180 --> 00:34:10.169
merkwürdig. Aber der nächste Punkt ist:
Okay, Dateneigentum, dann haben wir das
00:34:10.169 --> 00:34:13.419
alles, und unser Dateneigentum und wir
können natürlich unsere Daten dann eben
00:34:13.419 --> 00:34:17.890
verkaufen und kriegen auch davon was ab,
von dem schönen Kuchen. Jetzt kann man
00:34:17.890 --> 00:34:20.882
natürlich gleich eine große
Diskussion anzureißen, ich will da
00:34:20.882 --> 00:34:26.550
nicht einsteigen. Ist es tatsächlich die 3
Euro pro Monat an alle Facebook-Userinnen
00:34:26.550 --> 00:34:33.889
und -User wert, dafür Wahlmanipulationen
ganzer Gesellschaften und Diskriminierung
00:34:33.889 --> 00:34:38.369
an unserer Gesellschaft zu ermöglichen?
Was ist denn das für ein komischer Handel
00:34:38.369 --> 00:34:43.480
an der Stelle? Man merkt da, da haut was
nicht hin und mehr ist es ja nicht. Dieses
00:34:43.480 --> 00:34:47.419
Geld entsteht dadurch, dass es so viele
User gibt, weil es so super gut skaliert.
00:34:47.979 --> 00:34:51.170
Das heißt, die einzelne Person hätte genau
von diesen 3 und meintewegen mögen es auch
00:34:51.170 --> 00:34:54.619
30 Euro sein tatsächlich in diesem
Vergleich gar nichts. Also offensichtlich
00:34:54.619 --> 00:34:57.279
haben wir hier ein größeres Problem.
00:34:58.189 --> 00:35:00.348
Man könnte auch wieder sagen: "Ach
00:35:00.348 --> 00:35:02.720
interessant, Dateneigentum, das
unterstützt wieder nur die starken
00:35:02.720 --> 00:35:08.640
Akteure, die werden bevorzugt".
Tatsächlich ist es wieder ein Freikaufen,
00:35:08.640 --> 00:35:14.470
wenn man sagt, ich hab nicht die
Notwendigkeit meine Daten zu verkaufen,
00:35:14.470 --> 00:35:17.570
ich kann die bei mir behalten.
Dateneigentum ist doch schön, jeder ist
00:35:17.570 --> 00:35:21.330
selbst irgendwie verantwortlich, die
Souveränität des Einzelnen oder der
00:35:21.330 --> 00:35:25.100
einzelnen Person. Aber wie gesagt, das ist
freikaufen: Wenn ich das Geld habe dann
00:35:25.100 --> 00:35:33.696
bin ich drauf nicht angewiesen, ansonsten
musste ich mich quasi ausliefern an der
00:35:33.696 --> 00:35:38.403
Stelle. Klassisches Beispiel bei der
Autodatenübermittlung, wenn ich mich recht
00:35:38.403 --> 00:35:46.010
erinnere, bei Mercedes ab irgendeiner
Klasse gehen dann keine Daten mehr raus,
00:35:46.010 --> 00:35:49.840
weiter oben. Weil klar ist: Die
Käuferinnen und Käufer weiter oben, die
00:35:49.840 --> 00:35:54.065
mögen es gerne wenn die Daten - was im
Auto passiert bleibt auch im Auto.
00:35:54.065 --> 00:35:58.530
So, aber darunter halt nicht. Oder man kann
sich auch überlegen an der Stelle: Smart-
00:35:58.530 --> 00:36:03.120
TV-Daten, inwiefern da so eine
Datensouveränität vorherrscht, wenn man
00:36:03.120 --> 00:36:06.010
irgendwie einem alleinerziehenden
Elternteil sagt: "Ja, du bist total
00:36:06.010 --> 00:36:10.540
datensouverän, du kaufst dir hier einen
Fernseher irgendwie für 500 Euro, oder
00:36:10.540 --> 00:36:14.790
250, wenn du alle Daten rausleitest. Kann
man sich ja überlegen, wie datensouverän
00:36:14.790 --> 00:36:19.450
dann eine Person agiert. Nächste Frage:
Wenn Daten Eigentum sind, wem gehören denn
00:36:19.450 --> 00:36:22.820
Kommunikationsdaten oder Bilddaten, wo
mehrere Leute dran beteiligt sind, und so
00:36:22.820 --> 00:36:28.000
weiter? Hinten und vorne Probleme,
Probleme. Das ist so ein bisschen unklar,
00:36:28.000 --> 00:36:31.470
welches Problem da wie gelöst wird. Es ist
natürlich wieder die Abwälzung auf die
00:36:31.470 --> 00:36:37.207
einzelne Person. Man könnte auch genauso
sagen, "Hygienesouveränität" könnte man ja
00:36:37.207 --> 00:36:40.290
auch sagen. Man geht halt irgendwie in
eine Küche und wir haben halt keine
00:36:40.290 --> 00:36:43.130
Hygieneregeln, du kennst dich doch
bestimmt aus, gehst dann erst einmal
00:36:43.130 --> 00:36:46.770
irgendwie hinten rein, ob die Küche dir
sauber genug ist oder nicht. Du weißt gar
00:36:46.770 --> 00:36:50.890
nicht, wonach du gucken sollst? Naja, Pech
gehabt. Das ist die Art von Souveränität,
00:36:50.890 --> 00:36:56.100
die da proklamiert wird bei Dateneigentum
und Datensouveränität. Das ist genau
00:36:56.100 --> 00:36:58.510
wieder die Souveränität des Stärkeren.
00:36:59.380 --> 00:37:02.660
Okay, dann kommen wir noch, als Punkt,
00:37:02.660 --> 00:37:07.920
verbunden mit der Datensouveränität: Ich
habe es dann mal Einwilligungsfetisch
00:37:07.920 --> 00:37:12.520
genannt. Das ist immer so ein Rückgriff
auf das Grundrecht auf informationelle
00:37:12.520 --> 00:37:16.910
Selbstbestimmung, was ich total großartig
finde, aber es reicht eben nicht aus.
00:37:16.910 --> 00:37:21.050
Warum reicht das nicht aus? Naja,
Einwilligung heißt, alle mögliche
00:37:21.050 --> 00:37:28.290
Datenverarbeitung, da werde ich vorher
gefragt, ob sozusagen meine Daten
00:37:28.290 --> 00:37:31.320
verarbeitet werden dürfen für bestimmte
Zwecke, und jetzt ist die Frage: Was ist
00:37:31.320 --> 00:37:35.010
denn das Problem an so einer
Einwilligungsfrage? Erstens, da gibt es
00:37:35.010 --> 00:37:38.010
zwei Möglichkeiten: Entweder es gibt eine
Informationsasymmetrie oder eine
00:37:38.010 --> 00:37:42.710
Machtasymmetrie, wo man das Problem sieht.
Informationsasymmetrie heißt: Ich habe da
00:37:42.710 --> 00:37:48.191
eine Einwilligung, die ich geben muss, und
ich habe daneben 150 Seiten AGB, die ich
00:37:48.191 --> 00:37:51.600
jetzt lesen muss, um dann irgendwie
ordentlich einzuwilligen. Da sagen
00:37:51.600 --> 00:37:55.490
natürliche Organisationen, insbesondere
Konzerne: "Ja, ist doch super, und leider
00:37:55.490 --> 00:37:59.100
auch in der DSGVO, dann machen wir
irgendwelche Symbole, die das anzeigen, wo
00:37:59.100 --> 00:38:04.350
es dann einfacher ist für die Personen,
das irgendwie lesen zu können und das
00:38:04.350 --> 00:38:07.150
verstehen zu können. Dann können wir
vielleicht einfache Sprache machen, und,
00:38:07.150 --> 00:38:11.990
im Endeffekt, wir versuchen es ganz ganz
ganz ganz dolle, und wenn alle
00:38:11.990 --> 00:38:15.080
Organisationen des Planeten es ganz dolle
versuchen und die Leute es immer noch
00:38:15.080 --> 00:38:19.980
nicht verstehen, dann sind die Leute...
also jedenfalls, wir haben uns ganz doll
00:38:19.980 --> 00:38:27.050
bemüht. Das heißt, dass der Druck, oder
der Handlungsdruck, wenn man das Problem
00:38:27.050 --> 00:38:32.260
der Informationsasymmetrie sieht, liegt
wieder bei der einzelnen Person. Die trägt
00:38:32.260 --> 00:38:37.070
wieder die Last des "Sich-Ordentlich-
Informieren-Müssens". Wenn man allerdings
00:38:37.070 --> 00:38:41.500
sagt "Naja, das ist eine Machtasymmetrie",
was ich vorhin gesagt habe bei der
00:38:41.500 --> 00:38:46.629
Datensouveränität, wann kann man
zustimmen, wie sind eigentlich die,
00:38:47.994 --> 00:38:49.096
was ich gesagt habe
00:38:49.096 --> 00:38:55.940
Netzwerkeffekte? Welche Probleme entstehen
denn da auch für andere Menschen, wenn ich
00:38:55.940 --> 00:39:00.480
sage, ich habe die Google AGB für Google
Mail verstanden und ich habe den
00:39:00.480 --> 00:39:03.980
zugestimmt, dann habe ich natürlich auch
für alle anderen, die mir jemals danach
00:39:03.980 --> 00:39:08.300
eine Mail schreiben wollen auch noch mit
zugestimmt. Das heißt, es ist gar kein
00:39:08.300 --> 00:39:12.570
Informationsproblem, das ich nicht
verstanden hätte, was irgendwie in den AGB
00:39:12.570 --> 00:39:16.520
drin stand, sondern das liegt in der Natur
der Sache der Vernetzung, dass ich das für
00:39:16.520 --> 00:39:21.590
alle anderen mit entschieden habe. Oder
aber wenn es halt beim Elternabend heißt
00:39:21.590 --> 00:39:24.490
"Unsere Facebook-Gruppe hat sich das und
das gedacht", und dann hat eine Person
00:39:24.490 --> 00:39:28.790
kein Facebook , oder so weiter. So ganz
viele Fragen, soziale Rahmenbedingungen,
00:39:28.790 --> 00:39:34.480
genauso finanzielle Abhängigkeiten. Man
kann ja eben sagen, ja diesen Dienst, bei
00:39:34.480 --> 00:39:38.570
der Souveränitätsfrage, ja, "du kannst ja
gerne diesen Service, du kannst ja
00:39:38.570 --> 00:39:43.335
einwilligen oder aber es kostet was und
dann nehmen wir weniger Daten". Man merkt,
00:39:43.335 --> 00:39:48.450
wenn man es auf diese Machtasymmetrie
stellt, auf einmal ist es nicht so einfach
00:39:48.450 --> 00:39:52.930
nur unsere AGB besser schreiben, sondern
eigentlich brauchen wir harte obere
00:39:52.930 --> 00:39:58.050
Schranken, das heißt, aka. Regulierung, das
heißt bestimmte Informationsnutzung darf
00:39:58.050 --> 00:40:04.760
einfach nicht möglich sein. Wie gesagt,
wir haben es aktuell mit der Manipulation
00:40:04.760 --> 00:40:09.060
ganzer Gesellschaften zu tun, auch
Gewaltverbrechen die aufgrund von, und so
00:40:09.060 --> 00:40:13.090
weiter. Irgendwo muss man da fragen,
offensichtlich liegt's nicht daran, dass da
00:40:13.090 --> 00:40:20.290
irgendwie die AGB nicht gut lesbar sind.
Ok, dann, Zielgerade, langsam die
00:40:20.290 --> 00:40:24.640
Algorithmenethik, nur kurz angeschnitten.
Ich bin ja noch länger hier.
00:40:24.640 --> 00:40:28.869
Algorithmenethik, ja, das ist so eine
Mischung, Algorithmen, die ethisch sein
00:40:28.869 --> 00:40:32.321
können oder nicht ethisch sein können.
Also erstmals, Algorithmen sind selber ja
00:40:32.321 --> 00:40:37.760
keine Akteure. Organisationen sind Akteure
und die wenden Algorithmen an. Das heißt
00:40:37.760 --> 00:40:41.490
man kann natürlich genauso bei 'ner
Algorithmenethik fragen, was ist denn die
00:40:41.490 --> 00:40:47.530
Zementethik? Wie verwendet man Zement? Die
Frage muss man dann überall stellen, weil
00:40:47.530 --> 00:40:50.680
die Akteure natürlich genau wissen, welche
Algorithmen sie verwenden und welche
00:40:50.680 --> 00:40:55.470
nicht. Sie haben nämlich Zwecke, wenn das,
was Ihre Interessen sind, davon unterstützt
00:40:55.470 --> 00:40:59.200
wird, dann werden sie eingesetzt, und
deswegen macht man ein A/B-Testing, wenn
00:40:59.200 --> 00:41:02.980
es die Zwecke nicht unterstützt, wird
etwas anderes verwendet. Und wenn man dann
00:41:02.980 --> 00:41:05.781
sagt, na ja, das ist doch eine ethische
Frage, naja das ist nicht wirklich eine
00:41:05.781 --> 00:41:08.790
ethische Frage, es ist eine
Verantwortungsfrage, na klar, aber Ethik
00:41:08.790 --> 00:41:14.849
ist nicht das ganz Richtige. Wenn man
sagt, ja, aber so Algorithmen, die sind
00:41:14.849 --> 00:41:17.860
alle so kompliziert, und wir verstehen es
vielleicht gar nicht mehr, bei irgendwie
00:41:17.860 --> 00:41:21.760
künstlicher Intelligenz und so weiter,
kann man sich ja überlegen, wie es beim
00:41:21.760 --> 00:41:27.470
Hundeverhalten ist. Die Hundehalterin oder
Hundehalter steht natürlich dafür gerade,
00:41:27.470 --> 00:41:31.800
was der Hund tut, egal, ob der jetzt, aus
welchen Gründen das getan worden ist.
00:41:31.800 --> 00:41:38.150
Irgendwer muss es ja, bei irgendwem muss
ja die Verantwortung sozusagen liegen. Und
00:41:38.150 --> 00:41:42.550
die Algorithmen setzen also keine Zwecke,
sondern sie sind Mittel, um Zwecke
00:41:42.550 --> 00:41:45.490
umzusetzen, das heißt wenn man überhaupt
über irgendwas spricht, dann muss man
00:41:45.490 --> 00:41:48.859
irgendwie über Unternehmensethik reden,
und wie erfolgreich sowas ist, kennen wir,
00:41:48.859 --> 00:41:53.470
glaube ich, seit Anbeginn des
Kapitalismus. Okay. Also die konkrete
00:41:53.470 --> 00:41:59.500
Frage wäre, anstatt über Algorithmen-Ethik
zu sprechen, wäre zu sagen, wir haben doch
00:41:59.500 --> 00:42:03.160
gerade etwas über Schutzziele gelernt.
Können wir denn nicht einfach diese
00:42:03.160 --> 00:42:06.650
Schutzziele auf alle möglichen
Informationsverarbeitung-Systeme anwenden?
00:42:06.650 --> 00:42:09.550
Ja, natürlich können wir das und es gibt
auch sehr viel, also nicht sehr viel, aber
00:42:09.550 --> 00:42:13.240
es gibt eine Menge gute Forschung dazu,
z.B. Unabhängiges Landesdatenschutzzentrum
00:42:13.240 --> 00:42:16.650
Schleswig-Holstein und so
weiter. Aber komischerweise sind da die
00:42:16.650 --> 00:42:19.436
Ergebnisse ja, "das muss reguliert
werden", "das müssen wir einzäunen", und
00:42:19.436 --> 00:42:23.490
so weiter. Aber das schlägt man immer so
ungern den Konzernen vor, das ist immer
00:42:23.490 --> 00:42:28.599
so, das ist ein bisschen problematisch an
der Stelle. Das heißt, man kann da viel
00:42:28.599 --> 00:42:33.150
drüber nachdenken über maschinen-lesbare
Policies irgendwie, sozusagen KI-KI-
00:42:33.150 --> 00:42:39.480
Prüfsysteme, und so weiter. Aber das
Problem dabei ist, dass die Ethik so
00:42:39.480 --> 00:42:46.970
folgenlos und so schön sanktionslos bleibt. Eine
Ethik ist das, was man so tut. Das wäre so
00:42:46.970 --> 00:42:51.400
ein Thema "es wäre schön, wenn". Und
tatsächlich, wenn wir uns sozusagen unsere
00:42:51.400 --> 00:42:54.940
Welt so angucken, die verdatete Welt ist
eigentlich, dieses "wäre schön, wenn" ist
00:42:54.940 --> 00:42:59.260
schon lange darüber hinaus. Okay, das
heißt also, die Ethik ist schon in Ordnung
00:42:59.260 --> 00:43:01.850
und der Ethik-Diskurs ja, aber die
Umsetzung des Rechts selber, die hängt
00:43:01.850 --> 00:43:05.840
hinterher. Und das ist so ein Punkt. Also
die Situation ist, ich habe es mal ein
00:43:05.840 --> 00:43:09.360
bisschen provokant geschrieben, die
Massen-Manipulation, -Überwachung und
00:43:09.360 --> 00:43:13.800
-Unterdrückung ist sozusagen der Punkt.
Okay, das überspringen wir mal.
00:43:14.420 --> 00:43:22.050
Also, wen es interessiert, z. B. auch Ben Wagner
hat dazu auch neulich geschrieben, ich pack es
00:43:22.050 --> 00:43:28.480
einfach in die Folien an der Stelle, also
es bleibt da drin: Inwiefern Ethik die
00:43:28.480 --> 00:43:32.961
neue Selbstregulierung ist. Unternehmen
sagen: "Ja, bitte keine Regulierung, wir
00:43:32.961 --> 00:43:36.170
verhalten uns ethisch und wir haben Ethik-
Kodizes" und hinten und vorne und so
00:43:36.170 --> 00:43:40.939
weiter. Und wenn man sich die letzten
Facebook-Veröffentlichungen z. B.
00:43:40.939 --> 00:43:44.609
anschaut, wer sagt, mit ethischen
Diskursen sollen die Unternehmen nochmal
00:43:44.609 --> 00:43:49.070
doller darüber nachdenken, was sie tun und
was die Konsequenzen sind, dann der Person
00:43:49.070 --> 00:43:53.170
empfehle ich tatsächlich sehr stark, diese
Veröffentlichung der internen E-Mails
00:43:53.170 --> 00:43:57.850
jetzt mal anzuschauen, die wissen ganz
genau, was sie tun, das ist, also das ist,
00:43:57.850 --> 00:44:00.260
da kann man nicht drüber reden, da muss
man einfach sagen, das ist ein
00:44:00.260 --> 00:44:03.797
Interessenskonflikt und unsere Werte sind
so und deswegen machen wir das halt.
00:44:03.797 --> 00:44:10.970
Okay, dann kommen wir zum Fazit. Also 1.
Datenschutz zwingt Organisationen dazu,
00:44:10.970 --> 00:44:14.860
bei der Gestaltung ihrer Datenverarbeitung
die Interessen der Betroffenen zu
00:44:14.860 --> 00:44:19.750
beachten. Das heißt, durch Datenschutz
sollen sie Dinge tun, die sie von sich aus
00:44:19.750 --> 00:44:23.740
nie tun würden, wir erinnern uns:
Hygieneregeln, Sicherheitsvorkehrungen und
00:44:23.740 --> 00:44:26.400
so weiter, das würden sie von sich aus
jetzt erst einmal nicht wollen, weil die
00:44:26.400 --> 00:44:30.010
Marktlogik eine andere ist und so weiter.
Aber mit Datenschutz bringt man eben dazu,
00:44:30.010 --> 00:44:34.849
Löschfristen und so weiter, die DSGVO
könnt ihr euch angucken. Dann auch als
00:44:34.849 --> 00:44:39.119
Betreiber solcher Systeme muss man sich
immer vor Augen halten, die Rechte der
00:44:39.119 --> 00:44:43.491
Betroffenen, so nervig sie vielleicht sein
mögen, wenn man selber AnbieterIn ist,
00:44:43.491 --> 00:44:46.320
sind immer die Pflichten der
Verantwortlichen. Das heißt, das ist ein
00:44:46.320 --> 00:44:49.391
Interessenkonflikt, wenn man sagt, ich
möchte das alles nicht dokumentieren und
00:44:49.391 --> 00:44:53.280
so weiter, dann heißt es, mir sind die
Interessen und die Rechte der Anderen
00:44:53.280 --> 00:44:58.830
davon egal, und das sollte nicht so sein.
Dann, individuelle Privatsphäre, das habe
00:44:58.830 --> 00:45:04.711
ich schon gesagt. Dann als letzten Punkt,
Fokus auf personenbezogene Daten ist
00:45:04.711 --> 00:45:08.470
offensichtlich problematisch, man kann
Leute auch mit nicht-personenbezogenen
00:45:08.470 --> 00:45:11.410
Daten diskriminieren und es gibt aber auch
Nutzungen von personenbezogenen Daten, die
00:45:11.410 --> 00:45:16.520
unproblematisch sind. Was man bräuchte,
ist eine Analyse von Datenverarbeitung,
00:45:16.520 --> 00:45:20.060
die einfach schaut, Datenverarbeitung,
egal welche Daten die verwenden, da
00:45:20.060 --> 00:45:24.047
verwendet werden. Was sind die
Konsequenzen für die Betroffenen und die
00:45:24.047 --> 00:45:27.290
Einwilligung ist weder hinreichend
für individuelle und noch für
00:45:27.290 --> 00:45:31.140
gesellschaftliche Schutzfunktionen: da
müssen wir tatsächlich über diese harten
00:45:31.140 --> 00:45:34.880
Grenzen nachdenken, ansonsten kommen wir
da nicht weiter. Und als allerletzten Punkt
00:45:34.880 --> 00:45:39.150
kann man sagen, die Techis unter uns sagen
ja immer Alice und Bob, die reden
00:45:39.150 --> 00:45:42.950
miteinander und dann gibt es Malary, die
greift an und beim Datenschutz muss man
00:45:42.950 --> 00:45:48.020
immer sagen, Achtung, Angreifer! Angreifer
ist nicht Malary, Angreifer ist Bob,
00:45:48.020 --> 00:45:50.882
nämlich die andere Seite, die die
Daten kriegt, was sie damit tut.
00:45:50.882 --> 00:45:52.415
Okay, dankeschön.
00:45:52.415 --> 00:46:05.715
Applaus
00:46:05.715 --> 00:46:10.200
Herald: Ja, danke Rainer für deinen
interessanten Vortrag. Wir haben zwei
00:46:10.200 --> 00:46:16.059
Mikrofone, eins auf der Seite in der Mitte
des Saals und eins im Mittelgang: Nr. 1 und
00:46:16.059 --> 00:46:21.830
Nr. 2. Wenn ihr Fragen stellen möchtet,
dann könnt ihr euch an diesen Mikrofonen
00:46:21.830 --> 00:46:27.680
aufstellen und eine Reihe bilden oder zwei
Reihen bilden. Wenn ihr jetzt gehen müsst,
00:46:27.680 --> 00:46:33.099
tut das bitte leise und auf jeden Fall
nicht störend. Und ja, dann würde ich mal
00:46:33.099 --> 00:46:34.952
sagen: Mikrofon 2.
00:46:35.589 --> 00:46:38.720
Frage: Vielen Dank für
den interessanten Vortrag. Wie sieht es
00:46:38.720 --> 00:46:43.290
aus, wenn wir plötzlich andere
Machtverhältnisse haben? Das heißt, wir
00:46:43.290 --> 00:46:47.900
haben Peer-to-Peer-Systeme. Da haben wir
auf der einen Seite dann alle auf der
00:46:47.900 --> 00:46:53.530
gleichen Ebene oder auch nicht, aber doch
prinzipiell ist es möglich. Und gerade
00:46:53.530 --> 00:46:57.619
diese Peer-to-Peer-Systeme ermöglichen ja
gerade diese mächtigen Daten-Intermediäre
00:46:57.619 --> 00:47:04.291
zu umgehen. Oder was ist jetzt bei Fällen,
wo wir sagen, wir haben jetzt gar nicht
00:47:04.291 --> 00:47:09.869
den starken Datenverarbeiter, sondern wir
haben den kleinen Turnverein, wir haben
00:47:09.869 --> 00:47:14.840
die Individuen, die plötzlich mit der
Datenschutzgrundverordnung konfrontiert
00:47:14.840 --> 00:47:18.260
sind und eigentlich gar nicht die Starken
sind. Und da sagen wir, passt doch
00:47:18.260 --> 00:47:20.330
eigentlich gar nicht.
00:47:21.960 --> 00:47:24.750
Rainer: Wollen wir erst mal sammeln
oder soll ich gleich..?
00:47:24.750 --> 00:47:27.888
Ja, gut, okay. Das ist ein sehr, sehr
guter Punkt, gerade diese Peer-to-Peer-
00:47:27.888 --> 00:47:34.570
Geschichten, da sehe ich tatsächlich eine
ganz, ganz große Chance, wo gerade bei
00:47:34.570 --> 00:47:38.930
Peer-to-Peer die Daten verteilt sind, da
keine Machtzentren dabei entstehen, da
00:47:38.930 --> 00:47:41.960
muss man natürlich bei dem Design
aufpassen, dass man es eben nicht so macht
00:47:41.960 --> 00:47:45.200
wie irgendwelche Bitcoin-Geschichten, dass
dann doch wieder alles zentralisiert wird,
00:47:45.200 --> 00:47:50.260
sondern eher so wie GNUnet, wo in das System
eingebaut ist, dass es auch dezentral
00:47:50.260 --> 00:47:54.160
bleibt. Ich sehe da ganz große Hoffnungen,
da muss allerdings sehr viel noch
00:47:54.160 --> 00:47:57.120
geforscht und gearbeitet werden, dass
solche Sachen dann auch skalieren können.
00:47:57.120 --> 00:48:00.930
Aber das kann möglich sein, auf alle Fälle.
Da sehe ich überhaupt kein Problem, wenn
00:48:00.930 --> 00:48:04.190
man da mal ein bisschen Geld reinsteckt,
irgendwie so einen Bruchteil von dem, was
00:48:04.190 --> 00:48:08.020
wir in Atomkraft gesteckt haben, mal in
Peer-to-Peer-Technologien, aber das
00:48:08.020 --> 00:48:10.780
nebenbei. Nee, das sehe ich auch, das wäre
auf alle Fälle eine technische
00:48:10.780 --> 00:48:16.380
Herangehensweise, wo man natürlich auch
wieder diese Analysen machen müsste, aber
00:48:16.380 --> 00:48:21.020
das ist auf alle Fälle ein gangbarer Weg
und da gibt es auch ganz viele Ansätze
00:48:21.020 --> 00:48:27.160
schon, gerade hier auf dem Congress, wenn
man mal herumläuft, GNU-Taler und so, da
00:48:27.160 --> 00:48:31.402
sehe ich viel Fruchtbares. Bei dem zweiten
Punkt, das ist natürlich jetzt eine
00:48:31.402 --> 00:48:35.070
rechtliche Frage. Ich gehe trotzdem darauf
ein, halte mich aber kurz, weil wie
00:48:35.070 --> 00:48:40.641
gesagt, es gab auch rechtliche Talks. Die
DSGVO hat so einen überwiegend Risiko-
00:48:40.641 --> 00:48:45.359
basierten Ansatz, das heißt, der Verein
muss diese Sachen insofern umsetzen, wie
00:48:45.359 --> 00:48:52.530
Risiken für die Betroffenen entstehen. Das
heißt, wenn der Verein ein multi-
00:48:52.530 --> 00:48:56.281
nationales, globales Social-Network
betreibt, dann sind die Pflichten sehr,
00:48:56.281 --> 00:49:01.100
sehr groß, wenn allerdings da nur die
Mitgliederliste geführt wird, dann sind
00:49:01.100 --> 00:49:04.520
die Anforderungen da auch sehr viel
geringer. Also man muss immer sehen, die
00:49:04.520 --> 00:49:07.521
Anforderungen, z. B. diese technischen-
organisatorischen Maßnahmen, die müssen
00:49:07.521 --> 00:49:11.600
immer angemessen sein. Das heißt, wenn da
eine Liste mit 20 Namen sind, dann muss
00:49:11.600 --> 00:49:16.600
man jetzt nicht, da reicht jetzt
vielleicht nicht irgendwie Caesar-
00:49:16.600 --> 00:49:21.310
Verschlüsselung, aber da muss jetzt kein
Hochsicherheitssystem da sein; das muss
00:49:21.310 --> 00:49:25.530
sozusagen immer entsprechend der Risiken
für die Betroffenen. Also ich verstehe
00:49:25.530 --> 00:49:31.690
auch die Kritik zu sagen, dass sozusagen
diese DSGVO guckt gar nicht, wie groß die
00:49:31.690 --> 00:49:36.109
Organisation ist. Oder da ist meine
Antwort dabei zu sagen, ja, die DSGVO
00:49:36.109 --> 00:49:39.869
schaut aber, wie groß ist das Risiko für
die Betroffenen. Und ich glaube, bei
00:49:39.869 --> 00:49:44.850
vielen, die sich da sozusagen beschweren,
die beschweren sich auch erstens, weil sie
00:49:44.850 --> 00:49:49.440
sich nicht vorher damit beschäftigt haben,
was sie hätten sollen und zweitens aber
00:49:49.440 --> 00:49:57.600
auch, weil da leider sehr viel Angstmache
drin war, wie viel Aufwand da tatsächlich
00:49:57.600 --> 00:50:03.470
auf Leute zukommt und wie groß die
Anforderungen sind. Die Regularien bei
00:50:03.470 --> 00:50:06.660
der Datenschutz-Konferenz war ja auch
irgendwie erst mal warnen und helfen,
00:50:06.660 --> 00:50:11.400
statt abmahnen und so weiter. Also das
sind so, genau das ist so meine Antwort.
00:50:11.400 --> 00:50:14.849
Also wichtig ist, wie groß ist das Risiko
für die Betroffenen und das wird bei
00:50:14.849 --> 00:50:17.710
Vereinen immer nicht so groß sein. Also
kommt auf den Verein an, also ich meine,
00:50:17.710 --> 00:50:21.450
der TÜV ist auch ein Verein, also... Okay,
ich hoffe, das hat jetzt geholfen.
00:50:21.450 --> 00:50:23.940
Herald: Mikrofon 1, bitte.
00:50:23.940 --> 00:50:26.430
Frage: Sie haben jetzt für die Erklärung
00:50:26.430 --> 00:50:31.555
'Was ist Datenschutz?' zurückgegriffen auf
die Erklärung des
00:50:31.555 --> 00:50:36.060
Standarddatenschutzmodells. Gibt es in der
Wissenschaft eigentlich auch andere
00:50:36.060 --> 00:50:41.780
Ansätze, die gewählt werden zur Erklärung
'Was ist Datenschutz' oder wie weit sind
00:50:41.780 --> 00:50:47.626
die Diskussionen da oder gibt es
unterschiedlichen Fokus?
00:50:47.626 --> 00:50:52.790
Rainer: Also das ist eine sehr sehr sehr
gute Frage tatsächlich. Ich finde
00:50:52.790 --> 00:50:54.920
tatsächlich dieses
Standarddatenschutzmodell - ne
00:50:54.920 --> 00:50:58.660
deswegen habe ich es da unten hingepackt -
sehr sehr gut und trifft das, was ich als
00:50:58.660 --> 00:51:04.000
großes Problem auch ansehe. Es gibt eine
Dissertation von Jörg Pohle, der Vierte
00:51:04.000 --> 00:51:07.180
von unten, 'Datenschutz und
Technikgestaltung', der diskutiert mal die
00:51:07.180 --> 00:51:10.690
verschiedenen Ansätze. Es gibt da schon
verschiedene Vorstellungen, was ist
00:51:10.690 --> 00:51:14.420
überhaupt das Schutzgut und wie kann man
dem begegnen und so weiter. Da gibt es
00:51:14.420 --> 00:51:22.760
einen großen Dschungel, aber da ist sich
auch... also mein Eindruck ist, da setzt
00:51:22.760 --> 00:51:27.730
sich zumindest in der deutschen Diskussion
oder europäischen Diskussionen da setzt
00:51:27.730 --> 00:51:32.420
sich gerade so eine bestimmte Richtung
durch. Aber es gibt auch andere Ansätze,
00:51:32.420 --> 00:51:37.030
die zum Beispiel, die rückwärts versuchen
entlang des Rechtes zu rekonstruieren, was
00:51:37.030 --> 00:51:41.859
eigentlich mal das Datenschutzproblem war
und die dann immer individualisiert Fragen
00:51:41.859 --> 00:51:50.150
stellen und sagen, wie können wir zum
Beispiel das Risiko so einfache Rechnung wie das
00:51:50.150 --> 00:51:54.490
Risiko der einzelnen Person mal die Anzahl
der betroffenen Personen und so könnte man
00:51:54.490 --> 00:51:56.930
eben auch an Datenschutz herangehen und
dann hat man nur rein individuell
00:51:56.930 --> 00:52:01.520
natürlich immer das Problem, was man dann
lösen muss. Das funktioniert insofern
00:52:01.520 --> 00:52:05.900
nicht, wie wir eben gesehen haben, es kann
natürlich eine ganze Menge Leute zu einer
00:52:05.900 --> 00:52:08.599
Datenverarbeitung zustimmen, deren
Konsequenzen dann alle anderen auch noch
00:52:08.599 --> 00:52:13.920
mit trifft. In dem Sinne funktioniert der
individualistische Ansatz dann nicht. Aber
00:52:13.920 --> 00:52:17.170
da gibt es einen Zoo. Aber ich glaube,
00:52:18.700 --> 00:52:24.688
Ich glaube das ist meiner Ansicht nach, das sehr gut
begründet ist.
00:52:25.997 --> 00:52:29.045
Herald: Das Internet hat eine Frage.
00:52:30.230 --> 00:52:36.290
Signal-Angel: Das Internet fragt: Gibt es
bzw. kennst du eine politikerverständliche
00:52:36.290 --> 00:52:40.750
Übersicht von Chaos-nahen politischen
Forderungen bezüglich Datenschutz und
00:52:40.750 --> 00:52:42.900
Datensicherheit mitsamt ihren
Begründungen?
00:52:45.370 --> 00:52:47.910
Rainer: Moment eine was? Eine Politiker
kompatible?
00:52:47.910 --> 00:52:51.490
Signal-Angel: ...Politikerverständliche
Übersicht von Chaos-nahen politischen
00:52:51.490 --> 00:52:53.230
Förderungen. Forderungen, Entschuldige.
00:52:58.619 --> 00:53:01.030
Rainer: Ja. Naja, ich meine, ich kann zum
00:53:01.030 --> 00:53:06.280
Beispiel darauf verweisen jetzt vor 2
Monaten war die Bits und Bäume in Berlin.
00:53:06.280 --> 00:53:10.480
Da gab's einen Forderungskatalog. Da
spielte auch Datenschutz und
00:53:10.480 --> 00:53:13.460
Datensicherheit eine Rolle und auch in der
Begründung dabei. Da war zum Beispiel auch
00:53:13.460 --> 00:53:17.320
der CCC auch dran beteiligt und das FIfF.
Aber andersrum auch
00:53:17.320 --> 00:53:23.580
Nachhaltigkeitsorganisationen BUND und so
weiter. Das ist sehr kurz und knackig.
00:53:23.580 --> 00:53:31.099
Ich glaube das könnte auch verstanden werden
und es wäre auch Chaos-Umfeld. Ich glaube
00:53:31.099 --> 00:53:38.070
allerdings, also das denke ich jetzt
gerade, verschiedene Leute oder auch
00:53:38.070 --> 00:53:40.830
verschiedene Politiker*innen haben
verschiedene Vorstellungen, was eigentlich
00:53:40.830 --> 00:53:46.380
das Problem ist. Deswegen weiß ich noch
nicht so richtig, inwiefern so eine
00:53:46.380 --> 00:53:49.980
Handreichung verständlicherweise da
wirklich helfen würde, die allgemein ist,
00:53:49.980 --> 00:53:58.540
sondern eher zu fragen: Was daran ist
unklar, um das dann wirklich konkret zu
00:53:58.540 --> 00:54:02.920
erklären. Aber mein Eindruck ehrlich
gesagt, ich verstehe die Motivation der
00:54:02.920 --> 00:54:09.190
Frage, aber mein Eindruck ist so ein
bisschen, dieses Unverständnis das hat
00:54:09.190 --> 00:54:17.250
eher was mit fehlendem Mut zu tun, mal zu
sagen, was weiß ich, wir müssen da jetzt
00:54:17.250 --> 00:54:20.780
mal harte Grenzen ziehen. Es hat weniger
mit Verständnis zu tun, als mit nicht
00:54:20.780 --> 00:54:23.230
verstehen wollen. Da hilft auch eine
Handreichung nicht.
00:54:23.230 --> 00:54:30.645
Applaus
00:54:30.645 --> 00:54:33.980
Rainer: Also die Antworten, was notwendig
00:54:33.980 --> 00:54:40.790
wäre, die werden immer, immer klarer, aber
das ist glaube ich eine politische Frage.
00:54:40.790 --> 00:54:45.130
Und das ist ja auch einer der Gründe,
warum wir hier sind, glaube ich.
00:54:46.580 --> 00:54:48.755
Herald: Mirkofon zwei, bitte.
00:54:48.755 --> 00:54:50.930
Frage: Ich wollte nochmal einhaken, du
00:54:50.930 --> 00:54:55.510
hast ja gerade auch bei dem Thema
Algorithmenethik sozusagen gesagt, das ist
00:54:55.510 --> 00:55:01.310
so eine Stellvertreterdebatte oder bzw.
eine Debatte, man will eigentlich nicht
00:55:01.310 --> 00:55:04.480
über das Eigentliche reden, nämlich was
Regulierung sein soll. Ich würde Dir
00:55:04.480 --> 00:55:08.740
insofern zustimmen, dass die Debatte
natürlich ablenken soll davon, dass man
00:55:08.740 --> 00:55:12.829
nicht weiß, wie man mit Technik umgeht.
Ich glaube allerdings, jetzt mal die
00:55:12.829 --> 00:55:16.610
Gegenthese, dass man in Deutschland
allgemein sehr regulierungswillig ist, in
00:55:16.610 --> 00:55:21.080
der Politik was Technik angeht, aber ich
glaube, man weiß nicht, was man regulieren
00:55:21.080 --> 00:55:25.725
soll. Also du hast mehrfach selber auch so
Begriffe wie Massenmanipulation,
00:55:25.725 --> 00:55:30.880
Wahlmanipluation genannt, darüber wird
unglaublich viel gesprochen. Ich glaube
00:55:30.880 --> 00:55:34.710
aber, es hat keiner gerade in der Politik
eine Idee, wie man damit umgehen soll und
00:55:34.710 --> 00:55:38.140
wenn dann mal so ein Vorschlag wie
Botregulierung eingebracht wird, ist es
00:55:38.140 --> 00:55:43.607
halt auch Quatsch. Deswegen jetzt meine
konkrete Frage: Wie würdest du damit
00:55:43.607 --> 00:55:49.260
umgehen? Also ich arbeite selber im
politischen Betrieb und überlege mir also auch
00:55:49.260 --> 00:55:52.579
immer, wie kann man eigentlich diese
Debatten in die richtige Richtung lenken.
00:55:52.579 --> 00:55:57.349
Wie würdest du damit umgehen, dass man
eben nicht über Algorithmenethik als
00:55:57.349 --> 00:56:00.700
Ablenkungsthema redet sondern, dass man
sich mit den tatsächlichen Fragen, nämlich
00:56:00.700 --> 00:56:05.960
was sind sinnvolle Regulierungen
beschäftigt, gerade eben unter dem Aspekt,
00:56:05.960 --> 00:56:09.050
dass technisches Unverständnis in großen
Teilen leider herrscht?
00:56:10.200 --> 00:56:16.369
Rainer: Tatsächlich eine sehr, sehr
interessante Frage. Ich glaube, da steckt
00:56:16.369 --> 00:56:20.150
noch ein bisschen Arbeit drin, diese, zum
Beispiel diese Schutzzielfragen auch mal
00:56:20.150 --> 00:56:23.339
wirklich auszubuchstabieren und da gibt es
auch Ansätze, zum Beispiel Martin Rost
00:56:23.339 --> 00:56:29.349
jetzt gerade für diese KI-Debatte. Wo man
konkret fragen kann: können denn bestimmte
00:56:29.349 --> 00:56:34.880
Systeme Garantien aussprechen für
grundrechtliche Fragen. Ich habe mal so
00:56:34.880 --> 00:56:37.630
ein Zitat da rein gepackt, irgendwie so
"Deep-Learning-Systeme sind also nicht
00:56:37.630 --> 00:56:40.450
prüfbar, nicht evaluierbar, ändern ihre
Eigenschaften, liefern keinerlei
00:56:40.450 --> 00:56:43.879
Begründung, sind leicht zu manipulieren,
willkürlich aufgebaut und immer ungenau."
00:56:44.449 --> 00:56:48.250
Das klingt jetzt nach einem coolen System,
wenn man Bilder sortieren will, das klingt
00:56:48.250 --> 00:56:52.390
nach einem nicht so guten System, wenn man
Straßenschilder erkennen möchte und ich
00:56:52.390 --> 00:57:01.810
glaube die Aufgabe bestünde darin, diese
Fleißarbeit auszubuchstabieren, was zum
00:57:01.810 --> 00:57:04.990
Beispiel diese Schutzziele für die
einzelnen Systeme und das macht teilweise
00:57:04.990 --> 00:57:09.750
das Standarddatenschutzmodell auch schon,
diese Ergebnisse zu zirkulieren und da
00:57:09.750 --> 00:57:17.730
gibt es tatsächlich gute Arbeiten und ich
glaube mittlerweile wäre es sogar möglich,
00:57:17.730 --> 00:57:22.110
können wir uns danach nochmal verbinden,
dass da vielleicht die richtigen
00:57:22.110 --> 00:57:25.520
Informationen an der richtigen Stelle mal
landen, weil ich glaube, die sind
00:57:25.520 --> 00:57:32.290
mehrheitlich schon da. Es hat immer auch
etwas mit erklären zu tun. Aber wenn der
00:57:32.290 --> 00:57:36.490
Wille da ist so zu agieren - also eine
Regulierwilligkeit sehe ich jetzt nicht so
00:57:36.490 --> 00:57:43.420
richtig - aber gut, wenn das tatsächlich
so ist, dann müsste man da wahrscheinlich
00:57:43.420 --> 00:57:47.170
genau diese Papers, die es dazu gibt und
so weiter ein bisschen aufbereiten und
00:57:47.170 --> 00:57:55.460
dann an die richtigen Stellen bringen als
Hinweise. Wie gesagt, das heißt aber eben
00:57:55.460 --> 00:58:01.751
auch, dass bestimmte Akteure dann eben
auch etwas abgeben müssen oder nicht mehr
00:58:01.751 --> 00:58:05.170
zulässig sind oder bestimmte
Geschäftsmodelle nicht mehr möglich sind.
00:58:05.170 --> 00:58:08.960
Also wenn Politiker*innen damit
einverstanden sind, dann kann man da auch
00:58:08.960 --> 00:58:10.642
was machen.
00:58:11.475 --> 00:58:13.680
Herald: Mikrofon 1 bitte.
00:58:13.680 --> 00:58:20.300
Frage: Hi, ich habe auch eine Frage zu
Regulierung: Und zwar aus einer
00:58:20.300 --> 00:58:23.250
soziologischen Perspektive ist es so, dass
bei Regulierungen immer auch die
00:58:23.250 --> 00:58:28.560
Regulierten mitarbeiten. Das läuft im
politischen Betrieb ganz oft über Aufrufe
00:58:28.560 --> 00:58:33.170
für Comment-Letters, also das
Bundesministerium für Verkehr und bla hat
00:58:33.170 --> 00:58:39.220
was über Fahrzeugdaten veröffentlicht und
die haben sehr sehr dezidiert politische
00:58:39.220 --> 00:58:43.320
ökonomische Benefits bei den Herstellern
gesehen und dann sind alle aufgerufen
00:58:43.320 --> 00:58:48.070
worden innerhalb eines halben Jahres ihre
ihre Meinung dazu zu posten. Und bei sowas
00:58:48.070 --> 00:58:52.900
haben natürlich starke Akteure die du auch
genannt hast, also Techgiants, immer einen
00:58:52.900 --> 00:59:03.160
strukturellen Vorteil. Also wenn du dich für
eine starke Regulierung aussprichst, hast
00:59:03.160 --> 00:59:06.740
du da schon irgendwie Vorstellungen wie
man diesen Bias an der Stelle ausschaltet;
00:59:06.740 --> 00:59:10.290
also das die starken weiterhin auch
privilegiert bleiben selbst wenn es
00:59:10.290 --> 00:59:11.980
Regulierungen gibt.
00:59:13.700 --> 00:59:18.540
Rainer: Tja, das ist die Königinnenfrage
00:59:18.540 --> 00:59:24.140
an der Stelle. Naja, es hat natürlich
immer was damit zu tun, wer wird da
00:59:24.140 --> 00:59:27.910
befragt, wer hat die Möglichkeiten? Ich
kenne es ja selber auch irgendwie: Egal ob
00:59:27.910 --> 00:59:30.221
es Sachverständigen Anhörungen sind oder
irgendwie Eingaben die gemacht werden
00:59:30.221 --> 00:59:34.599
können. Die Firmen schicken ihre Leute in
der Arbeitszeit dahin, um das zu tun und
00:59:34.599 --> 00:59:38.550
die NGOs gucken halt wo sie ihre
Ehrenamtlichen abziehen können, um
00:59:38.550 --> 00:59:45.171
vielleicht jemanden... Tja, das ist ein
großes Problem. Ich glaube da ist
00:59:45.171 --> 00:59:48.260
tatsächlich so eine grundsätzliche.. Da
wage ich mir jetzt auch ein bisschen aus
00:59:48.260 --> 00:59:53.890
dem Fenster aber so eine grundsätzliche
Herangehensweise gefragt. Das betrifft ja
00:59:53.890 --> 00:59:57.920
die Frage wie unsere Demokratie
funktioniert. Das ist nichts was
00:59:57.920 --> 01:00:04.599
irgendwie... ich meine von Diesel bis
hin zu... fange ich gar nicht erst an. Das
01:00:04.599 --> 01:00:09.459
ist keine Datenschutzfrage sondern eine
Demokratiefrage. Und ich weiß nicht.
01:00:09.459 --> 01:00:13.373
Da gibts ja ganz viele Ideen: mit
Lobbyregister und was es da alles gibt.
01:00:13.373 --> 01:00:19.960
Vermutlich müsste man da; wir alle die
Aktivitäten in diesen digitalen
01:00:19.960 --> 01:00:25.240
Rechtsfragen tätigen. Vermutlich wäre es
sogar eine langfristige und nachhaltige,
01:00:25.240 --> 01:00:30.680
Keyword, nachhaltige Lösung zu sagen,
bei all unseren Aktivitäten nehmen wir 10%
01:00:30.680 --> 01:00:35.700
weg und packen die in LobbyControl und so
weiter, um diese Strukturen da irgendwie
01:00:35.700 --> 01:00:44.020
zu stärken. Das wär mein Eindruck, weil
teilweise, wenn man sich anguckt wie so
01:00:44.020 --> 01:00:49.470
Digitalrat und KI Enquete usw.
zusammengesetzt sind. Klar, wenn ich Leute
01:00:49.470 --> 01:00:54.095
vor einem bestimten Hintergrund einlade,
ist mir klar, dass ich dann diese Antwort
01:00:54.095 --> 01:00:57.130
kriege. Das ist jetzt ein bisschen so
Frage: Wie kriege ich mehr Leute aus der
01:00:57.130 --> 01:01:00.470
Wissenschaft rein? Und mehr Betroffene,
usw.? Und deswegen tut es mir leid, dass
01:01:00.470 --> 01:01:03.950
es vielleicht eine nicht so hilfreiche
Antwort ist, aber ich glaube das eine ist
01:01:03.950 --> 01:01:08.150
eine Demokratie Frage und da gibts jede
Menge zu tun! Und auch deswegen sollte uns
01:01:08.150 --> 01:01:13.370
das interessieren, weil ansonsten unsere
ganze Arbeit da auch teilweise ins Leere
01:01:13.370 --> 01:01:18.716
läuft, weil dann eben das kaputte System
das alles wieder auffrisst. Das glaube ich
01:01:18.716 --> 01:01:20.187
so ein Punkt.
01:01:20.961 --> 01:01:23.400
Herald: Ich merke, die Diskussion, die
01:01:23.400 --> 01:01:27.589
brennt. Leider läuft uns die Zeit ein
bisschen davon. Wo finden dich die Leute
01:01:27.589 --> 01:01:29.554
hier auf dem Kongress?
01:01:30.174 --> 01:01:32.760
Rainer: Ihr findet mich entweder unter
01:01:32.760 --> 01:01:41.530
dieser E-Mail-Adresse oder aber z.B. am
FIfF-Stand, hier CCL, nullte Etage.
01:01:43.280 --> 01:01:45.230
Hier drunter. Ich werde danach
01:01:45.230 --> 01:01:47.480
einfach auf den Knopf drücken und
runterfahren, dann findet man mich da.
01:01:47.480 --> 01:01:48.080
Gelächter
01:01:48.080 --> 01:01:48.970
Dankeschön
01:01:48.970 --> 01:01:50.638
Herald: Genau. Applaus.
01:01:50.638 --> 01:01:52.299
Applaus
01:01:52.299 --> 01:01:56.047
35C3 Outro Musik
01:01:56.047 --> 01:02:16.000
Untertitel erstellt von c3subtitles.de
im Jahr 2020. Mach mit und hilf uns!