1
00:00:00,000 --> 00:00:15,530
34C3 Vorspannmusik
2
00:00:15,530 --> 00:00:21,210
Herald: Es ist einiges los in der
politischen Arena der EU in Sachen
3
00:00:21,210 --> 00:00:26,669
Datenschutz. Wie ja einige von euch
wissen, wird nächstes Jahr die
4
00:00:26,669 --> 00:00:33,270
Datenschutz-Grundverordnung wirksam werden
und das ist bei Weitem noch nicht alles:
5
00:00:33,270 --> 00:00:40,579
Momentan findet eine Lobbyschlacht statt
zu der ePrivacy-Verordnung und was da so
6
00:00:40,579 --> 00:00:44,540
alles gerade im Moment passiert, das wird
uns heute Ingo erzählen. Ingo ist
7
00:00:44,540 --> 00:00:54,259
Redakteur bei Netzpolitik und ist auch
dazu noch im Verein Digitale Gesellschaft
8
00:00:54,259 --> 00:00:58,940
und damit wünsche ich Euch einen
wunderschönen ersten Talk und bitte helft
9
00:00:58,940 --> 00:01:09,640
mir mit Applaus für Ingo.
Ingo Dachwitz: Guten Morgen oder Moin
10
00:01:09,640 --> 00:01:16,060
Moin, wie man in Hamburg sagt - Leipzig
nich - glaub ich. Ganz schön früh ist es.
11
00:01:16,060 --> 00:01:20,500
Ich bin ganz überrascht, dass so viele
hier sind, freut mich sehr. Ich glaube,
12
00:01:20,500 --> 00:01:23,560
ich bin noch nie so früh auf dem Kongress
gewesen. Aber es ist sehr gut, dass es
13
00:01:23,560 --> 00:01:27,490
noch so früh ist, weil ich dazu neige
meine Vorträge und Präsentationen immer so
14
00:01:27,490 --> 00:01:30,820
voll mit Inhalten zu packen, dass es
eigentlich immer viel zu viel ist. Gut,
15
00:01:30,820 --> 00:01:34,820
dass ihr noch aufnahmefähig seid. Ich darf
heute also über ein Stück Politik
16
00:01:34,820 --> 00:01:40,080
sprechen, das ich auf netzpolitik.org seit
gut anderthalb Jahren begleite. Ziemlich
17
00:01:40,080 --> 00:01:44,490
von Anfang an - das politische Ringen um
die ePrivacy-Verordnung oder auch
18
00:01:44,490 --> 00:01:47,680
„Verordnung über die Achtung des
Privatlebens und den Schutz
19
00:01:47,680 --> 00:01:51,740
personenbezogener Daten in der
elektronischen Kommunikation“, wie sie
20
00:01:51,740 --> 00:01:57,140
offiziell und handlich heißen soll. Eine
Verordnung, die die eben schon
21
00:01:57,140 --> 00:02:02,660
angesprochene Datenschutzgrundverordnung,
die ja ab Mai 2018 wirksam ist - oder
22
00:02:02,660 --> 00:02:06,750
wirksam wird - ergänzen soll und zwar eben
für den Bereich der elektronischen
23
00:02:06,750 --> 00:02:11,560
Kommunikation und insgesamt ein Thema, das
in den Medien - in den klassischen Medien,
24
00:02:11,560 --> 00:02:15,830
aber auch in den sozialen Medien - so
wenig Aufmerksamkeit erfährt, dass ich
25
00:02:15,830 --> 00:02:19,720
mich zwischendurch einmal gezwungen sehe
zu solchen Überschriften zu greifen, um
26
00:02:19,720 --> 00:02:23,630
irgendwie zu versuchen das Thema an den
Mensch zu bringen. Deshalb vielleicht mal
27
00:02:23,630 --> 00:02:31,160
die Frage, damit ich weiß, sozusagen auf
was ich mich einstellen kann. Wer von euch
28
00:02:31,160 --> 00:02:36,130
hat von der ePrivacy-Verordnung oder von
dem Thema schon mal gehört, zumindest?
29
00:02:36,130 --> 00:02:41,780
Okay, fast alle, sehr gut. Congress ist
eben doch ein tolles Publikum. Wer würde
30
00:02:41,780 --> 00:02:49,270
sagen, er oder sie weiß, worum es genau
geht? Okay, okay, so hatte ich es mir in
31
00:02:49,270 --> 00:02:53,880
etwa erhofft. Also eine ganz gute
Ausgangsbasis. Und ich nenne dieses
32
00:02:53,880 --> 00:02:57,720
politische Ringen um die ePrivacy-
Verordnung, über das ich heute spreche,
33
00:02:57,720 --> 00:03:01,000
wirklich ganz bewusst Lobbyschlacht. Auch
wenn es natürlich ein bisschen martialisch
34
00:03:01,000 --> 00:03:05,459
klingt, weil die Auseinandersetzung um
diese Verordnung echt heftig ist und die
35
00:03:05,459 --> 00:03:09,340
politischen Fronten doch ziemlich starr
verlaufen. Deshalb auch dieses
36
00:03:09,340 --> 00:03:13,959
Hintergrundbild, das die damalige Lobby im
englischen House of Commons zeigt, wo die
37
00:03:13,959 --> 00:03:19,020
Interessenvertreter eben herumlungerten.
Ich hab das Originalbild von 1886 nur
38
00:03:19,020 --> 00:03:23,021
leicht modifiziert. Also eine der
„schlimmsten Lobby-Kampagnen, die ich je
39
00:03:23,021 --> 00:03:27,290
gesehen habe“, zitiert die Transparenz-
Organisation Corporate Europe einen
40
00:03:27,290 --> 00:03:33,330
Parlaments-Insider über den industriellen
Gegenwind gegen die Verordnung. Ich habe
41
00:03:33,330 --> 00:03:37,930
gedacht, wir fangen einfach mal mit ein
paar Beispielen dafür an. Mit nichts
42
00:03:37,930 --> 00:03:46,090
Geringerem als einem Atompilz visualisiert
die Organisation Werbung Treibende im
43
00:03:46,090 --> 00:03:51,630
Markenverband die ePrivacy-Verordnung und
ihre Konsequenzen. Also so viel zur
44
00:03:51,630 --> 00:03:56,870
martialischen Rhetorik. Die OWM, das ist
ein Branchenverband, in dem von Adam A wie
45
00:03:56,870 --> 00:04:02,180
Adam Ritter oder Alfred Ritter GmbH oder
Adam Opel GmbH über D wie Deutsche Telekom
46
00:04:02,180 --> 00:04:06,510
bis zu VW Volkswagen, W wie Wüstenrot, so
ziemlich viele große deutsche Unternehmen
47
00:04:06,510 --> 00:04:14,709
vertreten sind. Also eine ePrivacy-
Verordnung als Atomeinschlag oder dieses
48
00:04:14,709 --> 00:04:19,410
Statement von Thomas Duhr, Vizepräsident
des Bundesverbandes Digitale Wirtschaft
49
00:04:19,410 --> 00:04:25,050
BVDW. Der sagt, die Verordnung negiere
fundamentale Prinzipien der digitalen
50
00:04:25,050 --> 00:04:31,590
Wirtschaft. „Das Internet wie wir es heute
kennen wird es damit nicht mehr geben“ Und
51
00:04:31,590 --> 00:04:35,060
ich habe noch ein drittes Beispiel zum
Einstieg mitgebracht. Diesmal ein Film,
52
00:04:35,060 --> 00:04:38,220
produziert von einem breiten Bündnis
europäischer Handels-, Verlags- und
53
00:04:38,220 --> 00:04:45,390
Werbeverbände, und ich hoffe das
funktioniert jetzt. Das Video läuft...
54
00:04:45,390 --> 00:04:52,090
aber der Ton nicht.
Video: "2018. Europe is the tech mecca.
55
00:04:52,090 --> 00:05:01,640
Startups are flourishing, consumers are
enjoying the best apps avail... 2018..."
56
00:05:01,640 --> 00:05:05,630
ID: Nö, daran kann's nicht liegen.
Video: "Europe is the tech mecca. Startups
57
00:05:05,630 --> 00:05:11,440
are flourishing, consumers are enjoying
the best apps available and revenue from
58
00:05:11,440 --> 00:05:18,550
data-driven ads helps make that possible.
Until one day, the apps go dark. Data-
59
00:05:18,550 --> 00:05:25,980
driven advertising is... 2018. Europe is
the tech mecca. Startups are flourishing,
60
00:05:25,980 --> 00:05:31,360
consumers are enjoying the best apps
available and revenue from data-driven ads
61
00:05:31,360 --> 00:05:38,293
helps make that possible. Until one day,
the apps go dark. Data-driven advertising
62
00:05:38,293 --> 00:05:45,773
is no more. Less revenue, fewer startups,
fewer apps. An app-less future consumers
63
00:05:45,773 --> 00:05:53,990
never saw coming. from tech mecca to tech
wasteland. Enter the App-ocalypyse. Coming
64
00:05:53,990 --> 00:06:12,750
soon to cinemas."
dramatische Musik
65
00:06:12,750 --> 00:06:15,770
ID: Ja, habt Ihr auch schon alle Angst,
dass eure Apps plötzlich ausfallen?
66
00:06:15,770 --> 00:06:21,910
Lachen ..., weil der Datenschutz das
Internet kaputt macht? Das soll es an
67
00:06:21,910 --> 00:06:24,700
Schauermärchen dann zum Einstieg aber auch
schon mal gewesen sein. Stattdessen will
68
00:06:24,700 --> 00:06:27,770
ich euch jetzt erst mal kurz erzählen, was
euch erwartet in den nächsten hoffentlich
69
00:06:27,770 --> 00:06:30,420
fünf Minuten. Timing ist nicht ganz so
meine Stärke, aber ich versuche es mal
70
00:06:30,420 --> 00:06:34,520
hinzubekommen. Ich will heute zeigen warum
das Internet, wie wir es kennen...
71
00:06:34,520 --> 00:06:37,040
parallel laufende Musik
Video: "Within its digital single market
72
00:06:37,040 --> 00:06:39,320
the European Union..."
Lachen
73
00:06:39,320 --> 00:06:43,560
ID: Okay, ich will zeigen, warum sich das
Internet, wie wir es kennen - um das Zitat
74
00:06:43,560 --> 00:06:48,620
mal aufzugreifen - durch die ePrivacy-
Verordnung tatsächlich etwas grundsätzlich
75
00:06:48,620 --> 00:06:52,150
verändern könnte. Wieso das aber
eigentlich etwas Begrüßenswertes ist und
76
00:06:52,150 --> 00:06:56,400
was Martin Sonneborn mit der ganzen
Geschichte zu tun hat. Dazu werde ich in
77
00:06:56,400 --> 00:06:59,340
meinem Vortrag heute primär zwei Dinge
machen. Zum einen möchte ich verständlich
78
00:06:59,340 --> 00:07:02,680
machen, worum es eigentlich geht in der
ePrivacy-Verordnung, und zum anderen
79
00:07:02,680 --> 00:07:06,479
möchte ich über den Entstehungsprozess und
den aktuellen Stand des Verfahrens
80
00:07:06,479 --> 00:07:09,500
sprechen und auf das Lobbying und die
schlimmsten Mythen eingehen, die über
81
00:07:09,500 --> 00:07:15,980
diesen Verordnungsvorschlag in Umlauf
gebracht werden. Um das zu machen, will
82
00:07:15,980 --> 00:07:19,520
ich allerdings zuerst nochmal, bevor ich
in die Details schaue, kurz auf den
83
00:07:19,520 --> 00:07:25,860
Kontext sozusagen eingehen, über den ich
heute sprechen... ..., indem wir über
84
00:07:25,860 --> 00:07:29,239
Datenschutz und Privatsphäre in der
digitalen Kommunikation sprechen. Und
85
00:07:29,239 --> 00:07:34,710
dieser Kontext, das ist für mich der
gesellschaftliche Konflikt um die
86
00:07:34,710 --> 00:07:39,210
Kontrolle von personenbezogenen Daten.
„Data Wars“, um mal im Bild zu bleiben
87
00:07:39,210 --> 00:07:44,960
könnte man quasi sagen und die ePrivacy-
Verordnung ist eben nur ein Schlachtfeld
88
00:07:44,960 --> 00:07:47,820
oder ein Ort, an dem die
Auseinandersetzung stattfindet, denn was
89
00:07:47,820 --> 00:07:52,050
wir derzeit erleben, ist, wie ein neues
Wirtschaftsmodell etabliert wird, bei dem
90
00:07:52,050 --> 00:07:55,830
es nicht mehr in erster Linie darum geht
gute Produkte oder gute Dienstleistung
91
00:07:55,830 --> 00:08:00,550
herzustellen, sondern eben möglichst viel
Wissen in Form von Daten anzuhäufen. Ein
92
00:08:00,550 --> 00:08:04,340
Wirtschaftsmodell, in dem auch persönliche
Informationen eben nicht mehr in erster
93
00:08:04,340 --> 00:08:09,930
Linie schützenswerte Güter sind, sondern
handelbare Waren. Das Öl oder der Rohstoff
94
00:08:09,930 --> 00:08:13,860
der Zukunft, wie es viele - nicht zuletzt
Bundeskanzlerin Angela Merkel - eben
95
00:08:13,860 --> 00:08:18,220
nennen. Und wir erleben derzeit ja eine
andauernde Auseinandersetzung darum, wer
96
00:08:18,220 --> 00:08:23,550
diese persönlichen Daten kontrolliert, wer
sie erzeugen und sammeln, handeln,
97
00:08:23,550 --> 00:08:28,960
verknüpfen, auswerten, nutzen und
verwerten darf. Wenn wir zum Beispiel
98
00:08:28,960 --> 00:08:33,560
Datenskandale erleben derzeit, all die
Gerichtsverfahren... Max Schrems spricht
99
00:08:33,560 --> 00:08:40,630
heute oder morgen, glaube ich. Die
politischen Kämpfe um Datenschutz, da wird
100
00:08:40,630 --> 00:08:47,249
es sozusagen greifbar, der Konflikt um
dieses neue Wirtschaftsmodell. Und ich
101
00:08:47,249 --> 00:08:50,860
will, bevor ich eben auf diese Verordnung
gucke, mir dieses zugrunde liegende
102
00:08:50,860 --> 00:08:55,170
Geschäftsmodell noch mal kurz als Kontext,
als Horizont quasi für heute in Erinnerung
103
00:08:55,170 --> 00:08:58,040
rufen. Das ist wahrscheinlich den meisten
hier schon bekannt, kann aber nicht
104
00:08:58,040 --> 00:09:01,200
schaden, das vielleicht nochmal zu hören.
Allen, die sich stärker damit
105
00:09:01,200 --> 00:09:03,550
auseinandersetzen wollen, mit diesem
Geschäftsmodell der kommerziellen
106
00:09:03,550 --> 00:09:08,910
Überwachung, kann ich nur den Talk von
Wolfie Christl vor einem Jahr empfehlen,
107
00:09:08,910 --> 00:09:12,510
auf den und dessen Studien und Erhebungen
werde ich mich auch im Folgenden so ein
108
00:09:12,510 --> 00:09:16,550
bisschen stützen. Und ich versuche mal
dieses Geschäftsmodell in 4 Phasen oder
109
00:09:16,550 --> 00:09:21,810
anhand von 4 Phasen zu beschreiben und mal
kurz in diese Phasen rein zu gucken. Das
110
00:09:21,810 --> 00:09:27,020
erste ist quasi die Datafizierung von fast
allem. Inzwischen lässt sich fast das
111
00:09:27,020 --> 00:09:32,790
ganze komplette Leben in Datenform eben
aufzeichnen: Vom Konsum, also Online-
112
00:09:32,790 --> 00:09:37,970
Shopping, Kreditkarten-Daten bis zu
Bonus-Systemen, über das vernetzte Zuhause
113
00:09:37,970 --> 00:09:41,670
von Sprach-Assistenzsystem wie Alexa und
Co, über smarte Zahnbürsten bis zum
114
00:09:41,670 --> 00:09:46,070
vernetzten Sexspielzeug, das Thema
Gesundheit vom Fitness-Armband bis zur
115
00:09:46,070 --> 00:09:49,820
App, für das Tracking von
Menstruationszyklen und natürlich der
116
00:09:49,820 --> 00:09:54,040
Bereich Kommunikation von Suchmaschinen
und Nachrichten-Webseiten über Messenger,
117
00:09:54,040 --> 00:09:59,580
soziale Netzwerke, Dating-Anwendungen bis
hin zu Smart-TVs und einem Großteil aller
118
00:09:59,580 --> 00:10:05,710
Anwendungen für mobile Geräte. Und hier
greife ich einfach mal auf eine Grafik von
119
00:10:05,710 --> 00:10:11,760
Wolfe Christl zurück, der auf dem Feld
wirklich sehr lesenswerte Arbeit gemacht
120
00:10:11,760 --> 00:10:15,670
hat, um dieses Geschäfts-Modell und dieses
Wirtschafts-Modell eben anschaulich zu
121
00:10:15,670 --> 00:10:20,930
machen und dessen Konsequenzen einmal
visualisiert, welche Daten sind eigentlich
122
00:10:20,930 --> 00:10:25,480
über Konsumenten, Verbraucher, Nutzer
früher angefallen und welche sind es
123
00:10:25,480 --> 00:10:33,940
heute, eigentlich eben ein umfassendes
Bild. Und es wird eben deutlich,
124
00:10:33,940 --> 00:10:39,460
es geht dabei nicht nur um Daten,
klassische, also einfache Daten
125
00:10:39,460 --> 00:10:43,181
wie Geburtsdaten oder Ähnliches,
sondern es ist...
126
00:10:43,181 --> 00:10:46,820
sind auch die fluiden Dinge, sind
Emotionen, Identitäten, Verhalten,
127
00:10:46,820 --> 00:10:51,570
Eigenschaften, die in Daten aufgegriffen
werden und ich geh hier an der Stelle,
128
00:10:51,570 --> 00:10:54,650
weil wir heute über den Bereich der
elektronischen Kommunikation sprechen,
129
00:10:54,650 --> 00:10:59,750
noch mal ein bisschen stärker auf das Feld
ein. Studien zufolge oder einer Studie
130
00:10:59,750 --> 00:11:04,870
zufolge sind es zwischen 85 und 95 Prozent
der beliebten Apps in Australien,
131
00:11:04,870 --> 00:11:09,800
Brasilien und Deutschland, die Daten an
Drittparteien senden, selbst 60 Prozent
132
00:11:09,800 --> 00:11:16,860
der bezahlten Apps. Und wenn man mal nicht
in den App-Bereich guckt, sondern ins Netz
133
00:11:16,860 --> 00:11:21,530
dann haben wir natürlich die omnipräsenten
Cookies. Aber wenn wir eben über Web-
134
00:11:21,530 --> 00:11:25,109
Tracking sprechen, also das Nachverfolgen
und Mitschneiden unseres Surfverhaltens,
135
00:11:25,109 --> 00:11:29,430
dann geht es eben schon lange nicht mehr
nur um einfache Cookies, denn seitdem das
136
00:11:29,430 --> 00:11:33,110
Bewusstsein bei den Nutzerinnen und
Nutzern dafür gestiegen ist, dass sie mit
137
00:11:33,110 --> 00:11:37,460
Hilfe von Tracking mit Cookies verfolgt
werden, haben sich ja sozusagen
138
00:11:37,460 --> 00:11:41,940
Abwehrmaßnahmen entwickelt. Cookies
löschen lassen nach jeder Session und so
139
00:11:41,940 --> 00:11:47,770
weiter. Aber Firmen entwickeln eben
entsprechend neue Methoden, um das
140
00:11:47,770 --> 00:11:51,040
Verhalten aufzuzeichnen, Tracking, online-
Tracking durchzuführen, von Zombie
141
00:11:51,040 --> 00:11:55,390
Cookies, die sich selbst der
wiederherstellen, bis zum Fingerprinting-
142
00:11:55,390 --> 00:11:59,450
Device oder Browser Fingerprinting, bei
dem Nutzer_innen von Webseiten mitten...
143
00:11:59,450 --> 00:12:03,060
mittels der Einstellungen der verwendeten
Software oder des Gerätes wiedererkannt
144
00:12:03,060 --> 00:12:11,160
werden, ohne dass dafür Cookies benötigt
werden müssen. Und eine Studie aus 2015,
145
00:12:11,160 --> 00:12:14,750
eine Erhebung aus 2015 ist zu der
Erkenntnis gekommen, dass 90 Prozent der
146
00:12:14,750 --> 00:12:20,080
eine Million meistbesuchten Webseiten
Nutzerdaten an Drittparteien weiterleiten.
147
00:12:20,080 --> 00:12:25,160
Und das gilt insbesondere auch für den
Bereich der Nachrichten und Informationen,
148
00:12:25,160 --> 00:12:29,420
also nicht nur wir lesen, was auf den
Nachrichtenseiten passiert, sondern die
149
00:12:29,420 --> 00:12:33,500
Nachrichtenseiten lesen uns, jedenfalls
die meisten Nachrichtenseiten,
150
00:12:33,500 --> 00:12:38,160
netzpolitik.org nicht. Kann man an der
Stelle ja mal kurz sagen. Aber das Tech
151
00:12:38,160 --> 00:12:42,769
Collective hat ein Tool bereitgestellt,
trackography, mit dem man eben
152
00:12:42,769 --> 00:12:46,410
nachvollziehen kann, auf welchen
Nachrichtenseiten man verfolgt wird und
153
00:12:46,410 --> 00:12:51,270
von wem. Und sind eben darauf gekommen,
dass alleine wenn man auf Spiegel, Heute,
154
00:12:51,270 --> 00:12:56,220
Zeit, Bild und taz geht, es über 108
Verbindungen mit Drittparteien gibt, die
155
00:12:56,220 --> 00:13:00,610
eigentlich nichts mit dem Service zu tun
haben. Also der erste Schritt, die erste
156
00:13:00,610 --> 00:13:05,950
Phase, die Datafizierung von Allen. Die
zweite Phase ist die Kommodifizierung von
157
00:13:05,950 --> 00:13:12,900
Daten, also Daten werden Waren, handelbare
Waren. Waren, die von spezialisierten
158
00:13:12,900 --> 00:13:17,630
Händlern, Data Brokern, verknüpft werden,
veredelt werden , ausgewertet werden und
159
00:13:17,630 --> 00:13:21,840
eben gehandelt werden. Diese führen
Informationen über Menschen aus
160
00:13:21,840 --> 00:13:24,930
unterschiedlichen Quellen zusammen in
Profilen und bieten diese zum Kauf an.
161
00:13:24,930 --> 00:13:29,750
Hier mal zwei Beispiele, auch wieder aus
der Arbeit von Wolfie Christl. Der
162
00:13:29,750 --> 00:13:33,530
Datenhändler Acxiom zum Beispiel verfügt
nach eigenen Angaben über Informationen
163
00:13:33,530 --> 00:13:38,970
über 700 Millionen Menschen in den USA und
Europa mit bis zu 3.000 einzelnen
164
00:13:38,970 --> 00:13:44,850
Attributen und Scores pro Person. Dazu
zählen dann Informationen wie
165
00:13:44,850 --> 00:13:50,050
Einkaufsverhalten, Gesundheits-Interessen,
aber eben auch das Kommunikationsverhalten
166
00:13:50,050 --> 00:13:54,710
und ganz klassische sozio-demografische
Daten. Und auch Oracle, ehemals ja ein
167
00:13:54,710 --> 00:13:59,560
Softwarekonzern, inzwischen einer der
größten Data Broker, wirbt damit dass sie
168
00:13:59,560 --> 00:14:05,319
Profile über zwei Milliarden Nutzerinnen
und Nutzer haben, in denen sie
169
00:14:05,319 --> 00:14:08,710
unterschiedliche Daten aus
unterschiedlichen Quellen zusammenführen.
170
00:14:08,710 --> 00:14:12,970
Diese Daten landen dann übrigens wieder
bei sozialen Netzwerken, zum Beispiel
171
00:14:12,970 --> 00:14:19,190
Facebook und Snapchat kaufen
beispielsweise von Oracle wieder Daten
172
00:14:19,190 --> 00:14:22,290
über ihre Nutzerinnen und Nutzer, um
sozusagen das Profil von denen zu
173
00:14:22,290 --> 00:14:26,610
vervollständigen, unter anderem über das
Offline-Einkaufsverhalten der
174
00:14:26,610 --> 00:14:30,620
Überwachungsforscher David Lyon spricht
von kafkaesken Datenflüssen, die für
175
00:14:30,620 --> 00:14:33,790
Nutzerinnen und Nutzer überhaupt nicht
mehr nachvollziehbar sind und wo sie nie
176
00:14:33,790 --> 00:14:37,730
wissen, an welchem Punkt sie von wem jetzt
gerade eigentlich bewertet werden. So, die
177
00:14:37,730 --> 00:14:41,950
dritte Phase ist die Auswertung. Da könnte
man natürlich jetzt auch viel zu erzählen.
178
00:14:41,950 --> 00:14:47,850
Big Data Mining und Predictive Analytics:
hier nur mal ein kurzer Überblick über
179
00:14:47,850 --> 00:14:53,500
3 Studien, die etwas über die Aussagekraft
oder die Vorhersagekraft von
180
00:14:53,500 --> 00:15:00,360
personenbezogenen Daten eben aussagen.
Beispielsweise die Analyse... Vorhersage
181
00:15:00,360 --> 00:15:03,230
von bestimmten
Persönlichkeitseigenschaften anhand von
182
00:15:03,230 --> 00:15:09,320
Facebook-Likes, wo laut dieser Studie
beispielsweise in den USA Ethnizität oder
183
00:15:09,320 --> 00:15:14,600
Geschlecht jeweils binär codiert mit
extrem hoher Wahrscheinlichkeit
184
00:15:14,600 --> 00:15:21,000
vorhergesagt werden können anhand von nur
einer Handvoll Likes. Und Facebook selbst
185
00:15:21,000 --> 00:15:24,740
beispielsweise wurde im vergangenen Jahr
dabei erwischt, wie sie bei einer
186
00:15:24,740 --> 00:15:28,870
australischen Bank damit Werbung gemacht
haben, dass diese Bank über das targeted
187
00:15:28,870 --> 00:15:35,100
advertising-Tool von Facebook, emotional
verletzliche Jugendliche - Zitat, ist das -
188
00:15:35,100 --> 00:15:39,029
ausfindig machen können und sie genau in
den Momenten ansprechen können, in denen
189
00:15:39,029 --> 00:15:45,640
sie sich - Zitat - wertlos fühlen, um dann
mit ihrer Werbung sie zu erreichen. Also
190
00:15:45,640 --> 00:15:50,529
so viel zur Analyse und dann natürlich,
darum geht es am Ende, die Entscheidungen, die
191
00:15:50,529 --> 00:15:56,380
auf Grundlage dieser Datenbasis
getroffen werden. Von der Personalisierung
192
00:15:56,380 --> 00:15:59,870
von Nutzungsumgebungen über Targeted
Advertising, Customer Relationship
193
00:15:59,870 --> 00:16:02,600
Management - wie lange muss ich in der
Warteschlange in der Service-Hotline
194
00:16:02,600 --> 00:16:06,570
warten, kriege ich Gutscheine zugeschickt?
Dann natürlich der große Bereich Scoring,
195
00:16:06,570 --> 00:16:11,130
also, wie werde ich bewertet in Hinblick
auf meine Kreditwürdigkeit, Handyverträge,
196
00:16:11,130 --> 00:16:17,010
Versicherungen. Natürlich sozusagen
sprechen wir hier an der Stelle über
197
00:16:17,010 --> 00:16:21,029
einerseits über Praktiken, die - Scoring
im Bankenbereich oder im Kredit-Bereich -
198
00:16:21,029 --> 00:16:26,010
schon seit Jahrzehnten praktiziert werden.
Und wenn wir zum Beispiel über den Einsatz
199
00:16:26,010 --> 00:16:29,139
von Scoring im Versicherungsbereich
sprechen, über etwas das tendenziell noch
200
00:16:29,139 --> 00:16:34,459
eher in der Zukunft liegt, aber wo die
Modelle sozusagen der Auswertung des, oder
201
00:16:34,459 --> 00:16:39,301
der Berechnung des Konsumenten, oder des
versicherten Verhaltens und eine
202
00:16:39,301 --> 00:16:43,740
dementsprechend angepasste
Versicherungsprämie schon in den
203
00:16:43,740 --> 00:16:48,540
Startlöchern stehen quasi. Und natürlich
nicht zu vergessen: staatliche Datenbanken
204
00:16:48,540 --> 00:16:51,600
und Analyse-Systeme, die eben Muster
erkennen, Verdächtige generieren,
205
00:16:51,600 --> 00:17:03,000
Verhalten vorhersagen sollen. Genau. Ok,
so viel mal zum Kontext, vielleicht nochmal
206
00:17:03,000 --> 00:17:09,390
eben der Blick auf die Risiken, auch das
ist eigentlich bekannt und gut diskutiert.
207
00:17:09,390 --> 00:17:16,750
Nur um sie hier als Kontext nochmal mit
aufzuführen. Dort wo Daten vorhanden sind,
208
00:17:16,750 --> 00:17:20,459
große Datenbanken, da gibt's natürlich
ein Interesse auch von Kriminellen da
209
00:17:20,459 --> 00:17:27,179
ranzukommen oder öffentliche Datenlecks.
Es sei nur erinnert an den Fall der... den
210
00:17:27,179 --> 00:17:31,839
Ashley-Madison-Hack, bei dem plötzlich
bekannt wurde, wer alles einen
211
00:17:31,839 --> 00:17:39,070
Seitensprung-Service benutzt, staatliche
Zugriffe, Fehlinterpretationen, weil
212
00:17:39,070 --> 00:17:43,519
natürlich diese Vorhersage-Modelle auf
Datenbasis, die Big Data-Vorhersage-
213
00:17:43,519 --> 00:17:48,450
Modelle auf Korrelationen und nicht auf
Kausalität beruhen und man die Realität
214
00:17:48,450 --> 00:17:54,809
eben nur bedingt in Datenform erfassen
kann. Die Macht-Asymmetrien und
215
00:17:54,809 --> 00:17:58,580
Manipulations-Potenziale, die damit
einhergehen, dass zu einer gewissen
216
00:17:58,580 --> 00:18:02,439
Wahrscheinlichkeit vorhergesagt werden
kann, wie lange ich denn beispielsweise in
217
00:18:02,439 --> 00:18:06,289
der Warteschleife einer Telefon-Hotline
bleiben würde und wie lange man mich
218
00:18:06,289 --> 00:18:12,130
warten lassen muss, damit ich als nerviger
Kunde wieder aufgebe. Diskriminierung, die
219
00:18:12,130 --> 00:18:17,869
reproduziert wird, weil sie in den
Daten steckt. Und die sogenannten chilling
220
00:18:17,869 --> 00:18:23,960
effects, dadurch dass Menschen eben die
Kontrolle über die kontextuelle Integrität
221
00:18:23,960 --> 00:18:28,149
der von ihnen preisgegebenen und über sie
gesammelten Informationen verlieren und
222
00:18:28,149 --> 00:18:31,010
sie gleichzeitig eben wissen, dass ihre
Lebenschancen davon abhängen können, was
223
00:18:31,010 --> 00:18:38,660
andere mit und aus diesen Informationen
machen. Soviel zum Kontext. Fassen wir
224
00:18:38,660 --> 00:18:42,890
zusammen: Das Internet wie wir es kennen,
um das Zitat aufzugreifen, heißt heute
225
00:18:42,890 --> 00:18:47,979
leider eben auch, dass es in weiten Teilen
ein kommerziell überwachtes Internet ist,
226
00:18:47,979 --> 00:18:52,479
bei dem die Nutzer entmündigt werden. Der
informationelle Kontrollverlust ist fester
227
00:18:52,479 --> 00:18:57,799
Bestandteil dieses Geschäftsmodells, das
eben darauf basiert, dass die Einen
228
00:18:57,799 --> 00:19:01,850
durchleuchtet werden und vorhersagbar
werden und die sich eben nicht besonders
229
00:19:01,850 --> 00:19:07,730
gut wehren können, dadurch dass die
Analyse- und Erhebungsverfahren im Dunkeln
230
00:19:07,730 --> 00:19:12,690
liegen. Nicht verwunderlich ist es, dass
eine repräsentative EU-Umfrage 2015
231
00:19:12,690 --> 00:19:18,059
deshalb ergab, dass 32% der Deutschen
ihren Internet... dass nur 32%
232
00:19:18,059 --> 00:19:21,249
der Deutschen ihren Internet- und
Telefon-Anbietern vertrauen, für den
233
00:19:21,249 --> 00:19:26,899
restlichen Bereich der Internet-Wirtschaft
waren es nur 19 Prozent, die Vertrauen
234
00:19:26,899 --> 00:19:32,200
hatten in diese Unternehmen. Und auf
diesen informationellen Kontrollverlust
235
00:19:32,200 --> 00:19:35,749
kann man natürlich auf unterschiedliche
Arten reagieren. Die einen halten diese
236
00:19:35,749 --> 00:19:40,320
Entwicklung für unaufhaltbar und predigen
sozusagen vermeintlich pragmatisch den
237
00:19:40,320 --> 00:19:44,769
Kontrollverlust als Chance. So
beispielsweise der Psychologe Michal
238
00:19:44,769 --> 00:19:49,639
Kosinski, der ein bisschen bekanntgeworden
ist dadurch, dass er einige der zentralen
239
00:19:49,639 --> 00:19:55,279
so Studien gemacht hat zum Thema
Vorhersage durch Big Data und der eben
240
00:19:55,279 --> 00:20:00,159
unfreiwilligerweise das Modell für
Cambridge Analytica, das Grundmodell für
241
00:20:00,159 --> 00:20:02,960
Cambridge Analyticas
Persönlichkeits-Analysen geschaffen hat.
242
00:20:02,960 --> 00:20:06,470
Der sagte aber eben bei einer
Veranstaltung in Berlin in diesem Jahr
243
00:20:06,470 --> 00:20:12,919
im Sommer, dass es ja eine Chance wäre,
wenn erst einmal alles bekannt wäre, und
244
00:20:12,919 --> 00:20:16,440
hat sozusagen als Beispiel gebracht, dass
auch in autoritär-patriarchalen
245
00:20:16,440 --> 00:20:20,179
Gesellschaften beispielsweise, wenn erst
mal bekannt wäre, wer alles homosexuell
246
00:20:20,179 --> 00:20:28,340
ist, dann würde die Diskriminierung
aufhören. Okay, andere sehen quasi die
247
00:20:28,340 --> 00:20:31,729
Schwierigkeiten und Risiken, die mit
diesen... mit dieser Entwicklung
248
00:20:31,729 --> 00:20:35,790
einhergehen, geben sich aber damit
zufrieden, sich selbst zu schützen,
249
00:20:35,790 --> 00:20:39,659
Stichwort "works for me", und wieder
andere versuchen, ein gewisses Maß an
250
00:20:39,659 --> 00:20:43,240
Kontrolle wiederherstellen, indem sie
Technologie gestalten, die entweder mit
251
00:20:43,240 --> 00:20:47,710
möglichst wenig persönlichen Daten
auskommt oder Nutzern, Nutzerinnen und
252
00:20:47,710 --> 00:20:51,669
Nutzern, Informationen und
Wahlmöglichkeiten an die Hand gibt, indem
253
00:20:51,669 --> 00:20:55,489
sie andere aufklären und ihnen Mündigkeit
ermöglichen oder eben, indem sie politische
254
00:20:55,489 --> 00:20:59,770
Rahmenbedingungen und Grenzen festlegen
und für deren Durchsetzung sorgen. Darum
255
00:20:59,770 --> 00:21:03,929
geht es ja beim Datenschutz, letztendlich.
Es geht nicht darum, Datenflüsse zu
256
00:21:03,929 --> 00:21:08,059
verhindern, sondern klare Grenzen dafür
festzulegen, in welchen Bahnen sie
257
00:21:08,059 --> 00:21:15,519
passieren. Und jetzt nach dem Kontext zur
eigentlichen Verordnung. Denn genau darum
258
00:21:15,519 --> 00:21:19,059
geht es bei der ePrivacy-Verordnung: klare
Rahmenbedingungen zu schaffen für den
259
00:21:19,059 --> 00:21:24,340
Umgang mit Kommunikations-Daten. Und auch
hier nochmal ein paar Zahlen: eine
260
00:21:24,340 --> 00:21:29,279
statistisch repräsentative Umfrage der EU-
Kommission hat ergeben aus dem Jahr 2015,
261
00:21:29,279 --> 00:21:33,739
dass etwa 90 Prozent der EU-Bürger für
datenschutzfreundliche Voreinstellungen,
262
00:21:33,739 --> 00:21:39,429
beispielsweise gegen Tracking sind und für
das Recht auf verschlüsselte Kommunikation
263
00:21:39,429 --> 00:21:43,149
und dass 71 Prozent es ablehnen, dass
Unternehmen ihre Daten ohne ihre
264
00:21:43,149 --> 00:21:48,069
Zustimmung verwenden. Und nachdem ich
jetzt schon so oft erwähnt habe, schauen
265
00:21:48,069 --> 00:21:52,309
wir uns die Verordnung tatsächlich mal an,
beziehungsweise noch ein ganz kurzer Blick
266
00:21:52,309 --> 00:21:56,849
auf ihren Vorgänger: Die ePrivacy-
Richtlinie aus dem Jahr 2002 - in der EU
267
00:21:56,849 --> 00:22:01,789
gibt es ja zwei unterschiedliche sozusagen
Rechtsinstrumente oder
268
00:22:01,789 --> 00:22:06,509
Gesetzesinstrumente, das eine sind die
Richtlinien, das schwächere Instrument,
269
00:22:06,509 --> 00:22:09,610
das von den Mitgliedsstaaten immer noch
umgesetzt werden muss in nationales Recht,
270
00:22:09,610 --> 00:22:14,679
und die Verordnungen, die unmittelbare
Wirkung entfalten in den Mitgliedstaaten,
271
00:22:14,679 --> 00:22:18,649
die eben das stärkere, verbindlichere
Instrument sind - und seit 2002 gibt es
272
00:22:18,649 --> 00:22:21,899
eine ePrivacy-Richtlinie, die jetzt
abgelöst werden soll, weil sie nicht mehr
273
00:22:21,899 --> 00:22:26,230
wirklich funktional ist, weil sie
beispielsweise den Kommunikationswandel
274
00:22:26,230 --> 00:22:33,609
der letzten Jahre nicht abdeckt. Wenn man
sich mal zwei Zahlen vor Augen hält: 2012
275
00:22:33,609 --> 00:22:37,909
haben die Menschen in Deutschland über 160
Millionen SMS-Nachrichten verschickt und
276
00:22:37,909 --> 00:22:43,629
20 Millionen WhatsApp-Nachrichten, 2015
waren es weniger als 40 Millionen SMS,
277
00:22:43,629 --> 00:22:49,229
aber mehr als 660 Millionen WhatsApp-
Nachrichten. WhatsApp ist aber als
278
00:22:49,229 --> 00:22:54,519
sozusagen neuer sogenannter over the top-
Dienst von der ePrivacy-Richtlinie bisher
279
00:22:54,519 --> 00:22:58,960
nicht umfasst gewesen. Also over the top-
Dienste, das sind die
280
00:22:58,960 --> 00:23:03,239
Kommunikations-Dienste, die nicht mit einem
eigenen Netz daherkommen, sondern auf dem
281
00:23:03,239 --> 00:23:08,409
Internet aufsetzen. Dazu zählt auch Voice
over IP-Telefonie oder irgendwie Webmail,
282
00:23:08,409 --> 00:23:14,519
diese Sachen sind bislang nicht reguliert
durch die ePrivacy-Richtlinie, so dass
283
00:23:14,519 --> 00:23:18,609
dafür andere, weniger strenge Regeln
gelten als für klassische Telefonie oder
284
00:23:18,609 --> 00:23:24,080
klassische SMS-Nachrichten. Und außerdem
sind die Durchsetzungsmöglichkeiten im
285
00:23:24,080 --> 00:23:28,859
Rahmen der ePrivacy-Richtlinie eher so
mäßig gewesen, sehr uneinheitlich
286
00:23:28,859 --> 00:23:32,859
umgesetzt worden, in Deutschland zum Teil
auch in einem bestimmten Bereich auch gar
287
00:23:32,859 --> 00:23:35,570
nicht. Und in Deutschland ist
beispielsweise für den Großteil der
288
00:23:35,570 --> 00:23:38,330
Durchsetzung die Bundesnetzagentur
zuständig gewesen und nicht die
289
00:23:38,330 --> 00:23:44,230
Datenschutz-Aufsicht. In vielen anderen
Ländern auch. Genau. Hinzu kommt, dass die
290
00:23:44,230 --> 00:23:48,480
Richtlinie in den Mitgliedsstaaten sehr
unterschiedlich umgesetzt wurde, 2009 gab
291
00:23:48,480 --> 00:23:51,629
es zum Beispiel eine Ergänzung, die von
manchen Cookie-Erweiterung genannte
292
00:23:51,629 --> 00:23:56,039
Ergänzung, die es eigentlich schon
festgelegt hat, dass Cookies, also das
293
00:23:56,039 --> 00:23:59,869
Speichern von Informationen oder der
Zugriff auf Informationen auf dem Gerät,
294
00:23:59,869 --> 00:24:04,709
nur gestattet ist auf der Grundlage von
klaren und umfassenden Informationen. Und
295
00:24:04,709 --> 00:24:08,629
wenn es eine Einwilligung gibt. Das ist in
Deutschland anders als beispielsweise in
296
00:24:08,629 --> 00:24:13,399
Frankreich und Spanien aber kaum umgesetzt
und dementsprechend auch kaum durchgesetzt
297
00:24:13,399 --> 00:24:19,889
worden. Okay. Jetzt zur ePrivacy-
Verordnung. Was steht denn eigentlich
298
00:24:19,889 --> 00:24:23,639
drin? Und ich beziehe mich im Folgenden
auf die Fassung der ePrivacy-Verordnung
299
00:24:23,639 --> 00:24:29,579
oder der Position des EU-Parlaments. Das
EU-Parlament hat am 26. Oktober seine
300
00:24:29,579 --> 00:24:35,080
Position dazu beschlossen, dass... der
Prozess ist noch nicht am Ende, das heißt,
301
00:24:35,080 --> 00:24:38,419
das ist jetzt erstmal nur die Position des
Parlaments, aber auf die beziehe ich mich
302
00:24:38,419 --> 00:24:42,519
im Weiteren. Und mit 29 Artikeln ist die
ePrivacy-Verordnung in ihrem derzeitigen
303
00:24:42,519 --> 00:24:45,460
Zustand im Vergleich zur
Datenschutzgrundverordnung, die sie
304
00:24:45,460 --> 00:24:50,019
ergänzen soll, durchaus schlank und sie
enthält auch einige Regeln, die nicht im
305
00:24:50,019 --> 00:24:53,530
engeren Sinne etwas mit digitaler
Kommunikation und Datenanalyse zu tun
306
00:24:53,530 --> 00:24:56,649
haben, auf die ich nicht weiter eingehen
will, aber nur damit man es mal gehört
307
00:24:56,649 --> 00:25:02,529
hat: Sie enthält auch Regeln zur
Rufnummerunterdrückung, zu Notrufen oder
308
00:25:02,529 --> 00:25:07,179
Telefonbüchern, zu Informationspflichten
bei von Kommunikationsanbietern bei
309
00:25:07,179 --> 00:25:12,149
Sicherheitsrisiken und Datenlecks und zu
Direktmarketing. Ich will mich aber auf
310
00:25:12,149 --> 00:25:15,769
die Regeln zum Umgang mit
Kommunikationsdaten im engeren Sinne
311
00:25:15,769 --> 00:25:22,429
konzentrieren. Und da macht die ePrivacy-
Verordnung in ihrem aktuellen Stand erst
312
00:25:22,429 --> 00:25:25,820
einmal deutlich: Wir sprechen hier über
Grundrechte, wir sprechen nicht über
313
00:25:25,820 --> 00:25:28,119
irgendetwas, sondern es geht um
Grundrechte, und zwar nicht nur um das
314
00:25:28,119 --> 00:25:32,619
Grundrecht auf den Datenschutz, EU-
Grundrecht auf Datenschutz in Artikel 8
315
00:25:32,619 --> 00:25:37,779
der Grundrechte-Charta, sondern auch auf
Artikel 7, die Achtung des Privatlebens.
316
00:25:37,779 --> 00:25:42,479
Und in der Folge dann eben der Schutz
diverser weiterer Grundrechte: freie
317
00:25:42,479 --> 00:25:45,409
Persönlichkeitsentfaltung, Menschenwürde,
Meinungs-, Informations-,
318
00:25:45,409 --> 00:25:50,809
Religionsfreiheit. Über welche Daten
sprechen wir, wenn wir über ePrivacy
319
00:25:50,809 --> 00:25:54,259
sprechen? Um das mal anschaulicher zu
machen: Die Verordnung unterteilt in
320
00:25:54,259 --> 00:25:58,979
Inhaltsdaten und Metadaten. Inhaltsdaten
sind also Textnachrichten, Sprache,
321
00:25:58,979 --> 00:26:02,359
Bilder, Videos, E-Mails, Ton, die
geschützt sind. Und dann gibt's eben den
322
00:26:02,359 --> 00:26:09,190
ganz großen Bereich der Metadaten, also
besuchte Webseiten, die Kommunikationsart,
323
00:26:09,190 --> 00:26:13,570
Kommunikationspartner, Browser-
Einstellungen, Standortdaten, IP-Adressen,
324
00:26:13,570 --> 00:26:20,389
MAC-Adressen, mobile device identifiers,
Datum und Uhrzeit der Kommunikation und
325
00:26:20,389 --> 00:26:26,950
eben Informationen über die verwendete
Hard- und Software. Okay, jetzt aber
326
00:26:26,950 --> 00:26:34,919
wirklich: was steht drin? Unter anderem,
dass Kommunikationsdienste-Anbieter keine
327
00:26:34,919 --> 00:26:38,070
kommerziellen... also Daten nicht
kommerziell verarbeiten... ihrer Kunden
328
00:26:38,070 --> 00:26:42,879
nicht kommerziell verarbeiten dürfen ohne
deren Einwilligung. Klingt jetzt erstmal
329
00:26:42,879 --> 00:26:47,719
nicht besonders revolutionär, ist es aber
in Anbetracht dessen, was auf dem Tisch
330
00:26:47,719 --> 00:26:54,169
lag an Alternativen sozusagen. Also,
natürlich fallen bei den Diensteanbietern
331
00:26:54,169 --> 00:26:59,379
bei unserem Telefon-Provider oder bei
WhatsApp oder bei Skype, beim Messenger
332
00:26:59,379 --> 00:27:03,459
fallen natürlich Daten an, wenn wir über
die kommunizieren, das geht gar nicht
333
00:27:03,459 --> 00:27:10,840
ohne. Und die dürfen von den
Diensteanbietern eben nur genutzt werden,
334
00:27:10,840 --> 00:27:14,940
wenn es eine Einwilligung gibt. Man nennt
das Verbot mit Erlaubnisvorbehalt.
335
00:27:14,940 --> 00:27:19,799
Eigentlich ist die Verarbeitung verboten,
aber es gibt eben die Möglichkeit, sich
336
00:27:19,799 --> 00:27:25,759
das Einverständnis einzuholen. Ja, ist
jetzt leider sehr viel Text. Und als
337
00:27:25,759 --> 00:27:30,179
Alternative zu diesem Prinzip, dass man
eine Einwilligung braucht für die
338
00:27:30,179 --> 00:27:34,979
Verarbeitung, lagen auf dem Tisch unter
anderem die Formulierung further
339
00:27:34,979 --> 00:27:40,649
processing, also die sehr vage
Formulierung further processing, die es
340
00:27:40,649 --> 00:27:44,619
den Kommunikationsdienste-Anbietern
ermöglicht hätte, die Daten, nachdem sie
341
00:27:44,619 --> 00:27:47,540
einmal gebraucht wurden, um den
Kommunikations-Vorgang herzustellen, noch
342
00:27:47,540 --> 00:27:51,049
weiterverarbeitet werden dürfen unter
bestimmten Bedingungen, aber eben
343
00:27:51,049 --> 00:27:54,570
potentiell einfach, ohne dass eine
Einwilligung eingeholt werden muss oder
344
00:27:54,570 --> 00:27:58,750
aus der Datenschutz-Grundverordnung das
sogenannte legitime Interesse, das eben
345
00:27:58,750 --> 00:28:03,120
auch eine Grundlage nach der Datenschutz-
Grundverordnung darstellen kann, für die
346
00:28:03,120 --> 00:28:07,999
kommerzielle Verarbeitung von Daten.
Legitimes Interesse von Unternehmen kann
347
00:28:07,999 --> 00:28:11,319
in dem Fall eben auch ein wirtschaftliches
Interesse, ein Geschäftsmodell sein. Das
348
00:28:11,319 --> 00:28:15,039
lag auf dem Tisch als Alternative und das
EU-Parlament hat sich entschieden hier
349
00:28:15,039 --> 00:28:20,830
dafür zu votieren, dass es bei dem Verbot
mit Erlaubnis-Vorbehaltung gibt und
350
00:28:20,830 --> 00:28:25,179
gleichzeitig die Reichweite auszuweiten,
also die over the top-Dienste sind jetzt
351
00:28:25,179 --> 00:28:29,329
eingefasst, Messenger, Voice over IP,
Webmail, Direktnachrichten in sozialen
352
00:28:29,329 --> 00:28:35,519
Netzwerken und Apps, Dating-Apps und so
weiter spielen jetzt dort mit rein, sollen
353
00:28:35,519 --> 00:28:39,769
durch die ePrivacy-Verordnung reguliert
werden. Also die Reichweite wird erhöht,
354
00:28:39,769 --> 00:28:44,509
gleichzeitig gibt es eine ganz leichte
Absenkung im Vergleich, des Schutzniveaus im
355
00:28:44,509 --> 00:28:49,299
Vergleich zur Datenschutzrichtlinie. Da
stand nämlich noch... ePrivacy-Richtlinie,
356
00:28:49,299 --> 00:28:52,820
da stand nämlich noch drin, dass der
Verarbeitungszweck einen Mehrwert für
357
00:28:52,820 --> 00:28:58,759
Betroffene haben muss. Diese Formulierung
ist jetzt entfallen. Das hat vor allen
358
00:28:58,759 --> 00:29:03,159
Dingen damit zu tun, dass die EU-
Kommission es durchaus Unternehmen, gerade
359
00:29:03,159 --> 00:29:09,549
so den europäischen, den TelKos leichter
machen möchte, auch an Daten... am
360
00:29:09,549 --> 00:29:14,529
Datenmarkt sozusagen mitzuwirken und da
Geld draus zu machen. Das heißt, die
361
00:29:14,529 --> 00:29:18,580
größtenteils amerikanischen Dienste
WhatsApp und Co. werden jetzt auch den
362
00:29:18,580 --> 00:29:25,169
strengeren Regeln unterworfen und
gleichzeitig werden die Regeln insgesamt,
363
00:29:25,169 --> 00:29:29,600
weil eben auch vor allen Dingen in
Hinblick auf die europäischen TelKos, ein
364
00:29:29,600 --> 00:29:34,320
bisschen abgesenkt. Nichts destotrotz gibt
es hohe Anforderungen an die Einwilligung,
365
00:29:34,320 --> 00:29:38,159
es gelten die Anforderungen der
Datenschutz-Grundverordnung, also die
366
00:29:38,159 --> 00:29:41,820
muss informiert sein, sie
darf nicht erzwungen sein, sie muss
367
00:29:41,820 --> 00:29:45,229
freiwillig sein. Da wird zwar noch viel
drum gestritten, aber nach
368
00:29:45,229 --> 00:29:49,399
Datenschutz-Grundverordnung darf eine
Einwilligung eben nicht... eine
369
00:29:49,399 --> 00:29:52,790
Einwilligung zur Datenverarbeitung eben
nicht daran gekoppelt sein eigentlich,
370
00:29:52,790 --> 00:29:59,869
dass man einen Dienst nutzt. Also es darf
nicht die Voraussetzung, einen Dienst...
371
00:29:59,869 --> 00:30:01,999
einen Dienst zu nutzen, dafür darf es
nicht die Voraussetzung sein, dass man
372
00:30:01,999 --> 00:30:05,039
seine Daten preisgibt laut,
Datenschutz-Grundverordnung. Auch das gilt
373
00:30:05,039 --> 00:30:11,649
hier. Und es gibt es relativ strikte
Auflagen: Das darf nur passieren, diese
374
00:30:11,649 --> 00:30:14,340
Datenverarbeitung, wenn es ohne die Daten
gar nicht geht, sie müssen möglichst
375
00:30:14,340 --> 00:30:18,259
schnell gelöscht oder anonymisiert werden,
es muss eine Datenschutz Folgenabschätzung
376
00:30:18,259 --> 00:30:21,510
geben, also das Unternehmen ist dazu
verpflichtet, sich hinzusetzen und zu
377
00:30:21,510 --> 00:30:24,769
sagen, okay, welche Daten erhebe ich jetzt
hier eigentlich und welche Folgen hat das
378
00:30:24,769 --> 00:30:28,789
womöglich für die Privatsphäre und die
Vertraulichkeit der Kommunikation meiner
379
00:30:28,789 --> 00:30:34,339
Nutzer. Und bei besonders Privatsphäre-
invasiven Verfahren müssen eben die
380
00:30:34,339 --> 00:30:41,059
Datenschutzbehörden angefragt werden, also
auch das eine Neuerung. Und wenn es um die
381
00:30:41,059 --> 00:30:46,869
Verwertung oder Auswertung von
Kommunikations-Inhalten geht, müssen beide
382
00:30:46,869 --> 00:30:49,780
Kommunikations-Partner oder alle
Kommunikations-Partner zustimmen. Das heißt
383
00:30:49,780 --> 00:30:55,639
Gmail, Google durchleuchtet derzeit ja die
E-Mails seiner Nutzer automatisiert, um
384
00:30:55,639 --> 00:30:59,619
auf bestimmte Stichwörter, um eben
zielgerichtete Werbung ausspielen zu
385
00:30:59,619 --> 00:31:03,290
können. Dafür bräuchte es in Zukunft dann
die Einwilligung aller
386
00:31:03,290 --> 00:31:10,429
Kommunikationsteilnehmer. Und es gibt ein
paar Ausnahmen, na klar. Die Daten dürfen
387
00:31:10,429 --> 00:31:14,019
verarbeitet werden zur Durchführung der
Kommunikationsübermittlung, dürfen für
388
00:31:14,019 --> 00:31:17,929
Sicherheitsaspekte, zur Behebung von
technischen Fehlern, zur
389
00:31:17,929 --> 00:31:22,559
Rechnungsstellung, zur Sicherung der
Übertragungsqualität und für die
390
00:31:22,559 --> 00:31:29,210
persönliche Nutzung verarbeitet werden.
Also wenn ich zum Beispiel möchte, dass
391
00:31:29,210 --> 00:31:32,360
meine E-Mail automatisiert übersetzt wird
von meinem E-Mail-Programm, dann ist es
392
00:31:32,360 --> 00:31:35,879
eine sehr begrenzte personalisierte
Nutzung und das ist weiterhin erlaubt,
393
00:31:35,879 --> 00:31:42,089
solche Services. Richtige Neuerungen gibt
es im Bereich, also richtig heftige
394
00:31:42,089 --> 00:31:44,839
Neuerungen gibts im Bereich, oder könnte
es im Bereich Tracking geben. Das sind die
395
00:31:44,839 --> 00:31:50,309
Artikel 8, 9 und 10, also Web Tracking,
Online Tracking, auch da soll's ein Verbot
396
00:31:50,309 --> 00:31:56,870
mit Erlaubnis-Vorbehalt geben. Das ist im
Vergleich zur Richtlinie keine, eigentlich
397
00:31:56,870 --> 00:32:00,469
keine Neuerung, wenn es umgesetzt wird,
wäre es eben doch eine Neuerung. Da haben
398
00:32:00,469 --> 00:32:07,120
wir eine technikneutrale Formulierung, die
dafür sorgen soll, dass auch neuere Formen
399
00:32:07,120 --> 00:32:10,640
des Web Trackings umfasst sind und dass es
ausgeschlossen ist, dass jemand
400
00:32:10,640 --> 00:32:15,839
interpretiert, es ginge nur um Cookies,
die auf Rechnern gespeichert werden, und
401
00:32:15,839 --> 00:32:20,529
eine echte Neuerung an der Stelle ist,
dass do not track quasi rechtsverbindlich
402
00:32:20,529 --> 00:32:25,649
werden würde. Also der Standard, der seit
einigen Jahren vorhanden ist, aber von den
403
00:32:25,649 --> 00:32:30,320
meisten Unternehmen ignoriert wird, dass
man in seinem Browser einstellen kann: Ich
404
00:32:30,320 --> 00:32:33,229
möchte nicht getrackt werden oder eben
auch: Ich bin einverstanden mit einem
405
00:32:33,229 --> 00:32:39,469
Tracking. Das soll rechtsverbindlich
werden, das heißt es wäre relativ einfach,
406
00:32:39,469 --> 00:32:44,680
im Browser oder auch, wenn man sich das
Smartphone anguckt, im Betriebssystem oder
407
00:32:44,680 --> 00:32:47,519
in Apps einzustellen, ich möchte nicht
verfolgt werden, ich möchte nicht, dass
408
00:32:47,519 --> 00:32:52,459
mein Verhalten aufgezeichnet wird. Und
gerade in Kombination mit einer echten
409
00:32:52,459 --> 00:32:56,230
Privacy by default, also eine
Verpflichtung, die Daten, die
410
00:32:56,230 --> 00:32:58,950
Einstellungen, Datenschutzeinstellungen
möglichst datenschutzfreundlich
411
00:32:58,950 --> 00:33:05,979
voreingestellt zu haben, wäre das
sozusagen ein großer Schritt. Dass
412
00:33:05,979 --> 00:33:10,529
Nutzerinnen und Nutzer Online-Tracking
besser selber kontrollieren können.
413
00:33:10,529 --> 00:33:14,100
Durchaus problematisch an der Stelle ist,
dass natürlich die Tracker trotz Do-not-
414
00:33:14,100 --> 00:33:18,789
track-Signal eigentlich weiter fragen
dürften, die Nutzerinnen und Nutzer weiter
415
00:33:18,789 --> 00:33:22,229
fragen dürfen sollen, ob sie denn
einwilligen, dass sie doch getrackt werden
416
00:33:22,229 --> 00:33:25,309
dürfen, auch wenn sie eigentlich im
Browser was anderes gesagt haben. Das ist
417
00:33:25,309 --> 00:33:32,440
so ein bisschen paradox und es birgt eine
Gefahr , dass Unternehmen einfach weiter
418
00:33:32,440 --> 00:33:37,039
versuchen, über Cookie-Banner, Tracking-
Banner sich das Einverständnis dann
419
00:33:37,039 --> 00:33:42,110
abzuholen. Das dürfte aber eine sehr
spannende... wahrscheinlich wird es dann
420
00:33:42,110 --> 00:33:45,340
irgendwann vorm Gericht landen, weil es
natürlich die Position gibt, dass
421
00:33:45,340 --> 00:33:50,759
eigentlich die Einwilligung über so ein
Cookie-Banner keine richtige informierte
422
00:33:50,759 --> 00:33:58,689
Einwilligung ist. Und gerade in Verbot mit
einem neuen Verbot von Tracking-Walls...
423
00:33:58,689 --> 00:34:04,490
ein explizites Verbot von Tracking-Walls
fordert das EU-Parlament, also Dienste,
424
00:34:04,490 --> 00:34:08,590
Webseitenbetreiber dürfen es nicht zur
Voraussetzung machen dafür, dass Nutzer
425
00:34:08,590 --> 00:34:12,979
ihren Dienst nutzen, auf ihre Webseite
gehen, dass sie sich tracken lassen - kein
426
00:34:12,979 --> 00:34:16,379
take it or leave it mehr. Heute ist es ja
oft so, man kann - selbst wenn man das
427
00:34:16,379 --> 00:34:19,599
Cookie-Banner anklickt, hat man die
Auswahlmöglichkeiten, entweder zu sagen
428
00:34:19,599 --> 00:34:23,070
"Ich stimme zu" oder "Ich möchte mehr
Informationen und dann stimme ich zu".
429
00:34:23,070 --> 00:34:27,629
Oder ich geh halt weg von der Webseite.
Das ginge nicht mehr. Auch hier gibt es
430
00:34:27,629 --> 00:34:30,811
ein paar Ausnahmen. Vor allen Dingen für
das Thema Reichweiten-Messung, da komme
431
00:34:30,811 --> 00:34:36,659
ich später nochmal drauf zu sprechen. Ein
weiterer Bereich, der reguliert wird...
432
00:34:36,659 --> 00:34:40,239
werden würde, ist das Offline...
sogenannte Offline-Tracking mit WLAN- und
433
00:34:40,239 --> 00:34:45,168
Bluetooth-Signalen. Das kommt auch in
Deutschland mehr und mehr, dass sozusagen
434
00:34:45,168 --> 00:34:49,659
Nutzerinnen und Nutzer auch offline in der
Innenstadt anhand der Signale getrackt
435
00:34:49,659 --> 00:34:55,840
werden, die ihr Smartphones von sich gibt.
Um beispielsweise Besucherströme irgendwie
436
00:34:55,840 --> 00:34:58,819
in der Innenstadt nachverfolgen zu können
oder in einem Geschäft, aber es hat
437
00:34:58,819 --> 00:35:04,060
natürlich auch ein hohes Privatsphäre-
invasives Potenzial und hier schlägt das
438
00:35:04,060 --> 00:35:08,160
Parlament vor, dass das eben nur mit
informierter Einwilligung der Nutzerinnen
439
00:35:08,160 --> 00:35:12,630
und Nutzer passiert oder dann, wenn es
lediglich statistisches Zählen ist, also
440
00:35:12,630 --> 00:35:16,170
wenn es wirklich nicht darum geht, Leute
zu identifizieren, Profile zu erstellen,
441
00:35:16,170 --> 00:35:22,119
sondern ganz klar ist, es geht darum,
einfach nur zu zählen, wie viele Leute
442
00:35:22,119 --> 00:35:25,619
sind an einer bestimmten Uhrzeit zum
Beispiel an meinem Laden vorbeigekommen
443
00:35:25,619 --> 00:35:29,609
oder, in welcher Ecke stehen insgesamt
statistisch gesehen die meisten Leute in
444
00:35:29,609 --> 00:35:34,039
meinem Laden oder ähnliches. So, jetzt muss
ich mal ein bisschen - damit noch über das
445
00:35:34,039 --> 00:35:40,539
Lobbying sprechen kann - auf die Uhr
gucken. Eine weitere Neuerung ist der...
446
00:35:40,539 --> 00:35:44,019
wäre die effektive Rechtsdurchsetzung,
effektivere Rechtsdurchsetzung. Bislang
447
00:35:44,019 --> 00:35:46,872
ist es ja so, dass Datenschutz vor allen
Dingen auch daran krankt, dass er kaum
448
00:35:46,872 --> 00:35:50,250
durchgesetzt wird. Das würde sich... wird
sich mit der Datenschutzgrundverordnung
449
00:35:50,250 --> 00:35:55,430
sowieso hoffentlich ändern, weil die
Datenschutzbehörden stärkere
450
00:35:55,430 --> 00:36:01,359
Durchsetzungsmittel an die Hand bekommen.
Hier an der Stelle, für den Bereich
451
00:36:01,359 --> 00:36:05,049
ePrivacy soll es einerseits eine
Vereinheitlichung der Aufsicht geben bei
452
00:36:05,049 --> 00:36:08,700
den unabhängigen Datenschutzbehörden, es
wird das Marktort-Prinzip gelten, es soll
453
00:36:08,700 --> 00:36:12,450
keine Schlupflöcher mehr geben durch die
Wahl des Firmensitzes. Auch hier soll es
454
00:36:12,450 --> 00:36:16,140
Sanktionen von bis zu 20 Millionen Euro
oder 4% des weltweiten Umsatzes
455
00:36:16,140 --> 00:36:20,080
geben, ein Recht auf Schadenersatz und -
auch das hat das Parlament sozusagen
456
00:36:20,080 --> 00:36:23,420
reingeschrieben - ein Verbandsklagerecht,
dass man sich vertreten lassen kann von
457
00:36:23,420 --> 00:36:31,170
NGOs beispielsweise. Jetzt muss ich mal
auf die Zeit gucken. Wie viel hab ich
458
00:36:31,170 --> 00:36:39,870
noch? Ok, wow. Es soll mehr Transparenz
über staatliche Zugriffe geben, also auch
459
00:36:39,870 --> 00:36:43,510
die ePrivacy-Verordnung... auch mit dieser
ePrivacy-Verordnung würden
460
00:36:43,510 --> 00:36:48,000
Vorratsdatenspeicherung weiter möglich
bleiben. Man hat da den Weg gewählt, das
461
00:36:48,000 --> 00:36:51,620
den Mitgliedsstaaten zu überlassen. Es
wäre natürlich eine tolle Möglichkeit
462
00:36:51,620 --> 00:36:54,709
gewesen, an der Stelle auf europäischer
Ebene zu sagen, okay,
463
00:36:54,709 --> 00:36:59,349
Vorratsdatenspeicherungen gehen eben
nicht, ist aber eben nicht durchsetzbar
464
00:36:59,349 --> 00:37:03,109
und deshalb hat das Parlament zumindest
entschieden, dass es mehr Transparenz
465
00:37:03,109 --> 00:37:07,730
geben soll an der Stelle, also
Diensteanbieter müssen staatliche Zugriffe
466
00:37:07,730 --> 00:37:12,140
umfangreich kontroll... dokumentieren und
Datenschutzbehörden zur Verfügung stellen,
467
00:37:12,140 --> 00:37:15,400
müssen selber jährlich statistische
Berichte und Statistiken darüber
468
00:37:15,400 --> 00:37:19,589
veröffentlichen, wie viele Anfragen sie
hatten. Und auch die
469
00:37:19,589 --> 00:37:22,299
Strafverfolgungsbehörden müssen
jährliche... sollen dazu verpflichtet
470
00:37:22,299 --> 00:37:26,640
werden, jährliche Berichte vorzulegen. Und
ich glaube, das ist der letzte inhaltliche
471
00:37:26,640 --> 00:37:30,510
Teil dazu: verstärkte Sicherheit. Auch
hier gibt es sozusagen durchaus
472
00:37:30,510 --> 00:37:34,539
Fortschritte: Anbieter von
Kommunikationsdiensten sollen verpflichtet
473
00:37:34,539 --> 00:37:39,750
werden, die Kommunikation ihrer Nutzer
durch modernste technische Vorkehrungen
474
00:37:39,750 --> 00:37:44,299
wie Verschlüsselungsverfahren - explizit
eben auch Ende-zu-Ende-Verschlüsselung zu
475
00:37:44,299 --> 00:37:48,409
schützen -, es soll ein explizites Verbot
geben, verschlüsselte Kommunikationsdaten
476
00:37:48,409 --> 00:37:51,840
durch jemand anderen als den Nutzer selbst
zu entschlüsseln und die EU-
477
00:37:51,840 --> 00:37:55,760
Mitgliedstaaten sollen keine Gesetze
erlassen dürfen, die Backdoors
478
00:37:55,760 --> 00:38:01,850
ermöglichen, also ein relativ - gerade im
Verhältnis, so habe ich es noch nirgendwo
479
00:38:01,850 --> 00:38:06,470
anders gesehen - dass das Recht auf
verschlüsselte Kommunikation eben so stark
480
00:38:06,470 --> 00:38:13,150
auskodifiziert wäre. Den letzten Bereich
überspringen wir mal, denn wir wollen ja
481
00:38:13,150 --> 00:38:16,960
noch über die Lobby-Schlacht sprechen.
Fassen wir zusammen: also ein höheres
482
00:38:16,960 --> 00:38:21,000
Schutzniveau als das der Datenschutz-
Grundverordnung für Kommunikationsdaten,
483
00:38:21,000 --> 00:38:24,819
bessere Kontrolle von Online-Tracking,
Privacy by Default und ein Verbot von
484
00:38:24,819 --> 00:38:29,329
Tracking-Walls, klare Grenzen für das
Offline-Tracking, bessere Durchsetzung des
485
00:38:29,329 --> 00:38:33,420
Datenschutzes, Klagemöglichkeiten für
Verbände und NGOs, mehr Transparenz über
486
00:38:33,420 --> 00:38:37,090
staatliche Überwachung und ein
verhältnismäßig stark kodifiziertes Recht
487
00:38:37,090 --> 00:38:41,079
auf Verschlüsselung. Auch wenn nicht alles
perfekt ist in dieser Verordnung oder in
488
00:38:41,079 --> 00:38:45,609
dieser Position muss man schon sagen, das
ist aus der Sicht von Nutzerinnen- und
489
00:38:45,609 --> 00:38:54,029
Nutzerrechten schon ein echt gutes Brett,
was das Parlament da beschlossen hat. Und
490
00:38:54,029 --> 00:38:56,710
gerade wenn man sich anschaut, welchen
schweren Stand Datenschutz praktisch und
491
00:38:56,710 --> 00:39:02,240
politisch derzeit hat und wenn man sich
den Entstehungsprozess näher anschaut,
492
00:39:02,240 --> 00:39:07,560
muss man eben sagen, das EU-Parlament hat
an der Stelle ganze Arbeit geleistet. "Das
493
00:39:07,560 --> 00:39:10,689
Internet, wie wir es kennen, ist in
Gefahr." - Ich würde sagen: gut so, weil
494
00:39:10,689 --> 00:39:14,230
eben Nutzerinnen und Nutzer wieder die
Möglichkeit bekommen sollen, mündiger zu
495
00:39:14,230 --> 00:39:20,719
entscheiden und stärker selbst zu steuern,
was mit ihren Informationen passiert.
496
00:39:20,719 --> 00:39:24,380
Nicht wenige Lobbyisten dürfen sich Ende
Oktober gefragt haben, als das Parlament
497
00:39:24,380 --> 00:39:27,360
das beschlossen hat, wie konnte das denn
eigentlich passieren und wir können eins
498
00:39:27,360 --> 00:39:31,859
sagen: Am Aufwand, den die Werbe- und
Tracking-Industrie betrieben hat, um diese
499
00:39:31,859 --> 00:39:35,069
Verordnung zu verhindern oder zu
verwässern, hat es ganz bestimmt nicht
500
00:39:35,069 --> 00:39:39,140
gelegen. Ich hoffe, ihr seid bereit für
noch ein paar... und ich hab noch ein paar
501
00:39:39,140 --> 00:39:44,499
Minuten für noch ein paar Schauer- und
Weltuntergangsszenarien. Also los gings im
502
00:39:44,499 --> 00:39:48,780
Sommer 2016, erst mal das Verfahren mit
einer Konsultation. Die EU-Kommission hat
503
00:39:48,780 --> 00:39:52,849
quasi angekündigt, wir wollen die
ePrivacy-Richtlinie reformieren, und hat
504
00:39:52,849 --> 00:39:56,160
eine Konsultation gemacht - da hat sich
schon sehr stark offenbart, wie groß die
505
00:39:56,160 --> 00:40:00,880
Spaltung ist. Also 83% der
teilnehmenden Bürgerinnen und Bürger und
506
00:40:00,880 --> 00:40:06,080
NGOs waren eben dafür, dass es spezifische
ePrivacy-Regelungen gibt zum Schutz der
507
00:40:06,080 --> 00:40:11,420
Kommunikation und nur 31% der
Unternehmen waren dafür. Und während 77%
508
00:40:11,420 --> 00:40:14,980
der Zivilgesellschaft für ein
Verbot von Tracking Walls beispielsweise
509
00:40:14,980 --> 00:40:21,160
waren, waren 75% der Unternehmen
dagegen. Eine krasse Spaltung. Und kurz
510
00:40:21,160 --> 00:40:25,500
nach der Veröffentlichung dieser
Konsultationen ist ein bemerkenswertes
511
00:40:25,500 --> 00:40:29,690
Bündnis aus quasi allen Firmen, die
irgendwas mit digital zu tun haben, auf
512
00:40:29,690 --> 00:40:35,010
den Plan getreten und hat dafür geworben,
die Verordnung, das ePrivacy-Thema einfach
513
00:40:35,010 --> 00:40:39,280
komplett zu streichen, die Verordnung gar
nicht... überhaupt keine Reform
514
00:40:39,280 --> 00:40:44,420
vorzunehmen. Es gibt ja die Datenschutz-
Grundverordnung, also das ist mal eine
515
00:40:44,420 --> 00:40:52,059
Liste der Unternehmen, die sich quasi...
die mit vertreten waren in den Verbänden,
516
00:40:52,059 --> 00:40:55,990
die sich dafür ausgesprochen haben, die
Regeln einfach wegzulassen. Also wirklich
517
00:40:55,990 --> 00:41:00,319
von Google, Facebook, Telekom bis hin zu
so interessanten Unternehmen wie Airbus
518
00:41:00,319 --> 00:41:08,640
oder Bayer. Und AOL gibt's auch noch. Es
gibt einen sehr lesenswerten Bericht der
519
00:41:08,640 --> 00:41:13,469
Transparenz-Organisation Corporate Europe,
der sehr minutiös nachzeichnet, wo und wie
520
00:41:13,469 --> 00:41:17,720
das Big Data-Business versucht hat, die
Regulierungs-Bestrebungen der EU zu
521
00:41:17,720 --> 00:41:22,570
beeinflussen, der ist sehr lesenswert. Da
ist sozusagen der ganze Baukasten des
522
00:41:22,570 --> 00:41:25,860
Lobbyings zum Einsatz gekommen:
Einzeltreffen mit hochrangigen Vertretern
523
00:41:25,860 --> 00:41:31,599
der EU-Kommission, Auftragsstudien,
Veranstaltungen, Kampagnen... öffentliche
524
00:41:31,599 --> 00:41:36,400
Kampagnen und die Mobilisierung einzelner
einflussreicher Unternehmen. Und bei der
525
00:41:36,400 --> 00:41:42,730
EU-Kommission haben sie damit relativ gute
Karten gehabt. Von 41 Treffen, die
526
00:41:42,730 --> 00:41:45,829
dokumentiert sind zu diesem Thema - es
sind in Wirklichkeit wahrscheinlich
527
00:41:45,829 --> 00:41:52,451
deutlich mehr - fanden 36 statt mit
Unternehmensvertretern, nur fünf Treffen
528
00:41:52,451 --> 00:42:03,220
hochrangiger EU-Kommissionsvertreter
fanden statt mit NGOs. Dementsprechend hat
529
00:42:03,220 --> 00:42:07,769
sich ein... ist der Entwurf, den die EU-
Kommission dann im Frühjahr 20... im
530
00:42:07,769 --> 00:42:11,800
Januar 2017 vorgelegt hat, auch deutlich
schwächer ausgefallen, als man das erhofft
531
00:42:11,800 --> 00:42:18,239
hatte und als es noch eine, im Dezember
geleakte Version, ihres Entwurfs nahegelegt
532
00:42:18,239 --> 00:42:25,710
hatte, der einigen Firmen bzw. wirklich in
dem großen, dem großen Bündnis aus
533
00:42:25,710 --> 00:42:28,861
Tracking- und Daten-Firmen reichte das
nicht - den hier hatten wir eben schon -
534
00:42:28,861 --> 00:42:33,839
im Laufe des Jahres ist dann auch die
Verlagsbranche auf den Anti-ePrivacy-Zug
535
00:42:33,839 --> 00:42:37,289
aufgesprungen, also "Die ePrivacy-
Verordnung ist ein Angriff auf den freien
536
00:42:37,289 --> 00:42:42,310
Journalismus im Netz", sagt der Verband
Deutscher Zeitschriftenverleger. Und der
537
00:42:42,310 --> 00:42:47,540
Bundesverband Deutscher Zeitungsverleger.
In einem gemeinsamen Statement. Es gab
538
00:42:47,540 --> 00:42:51,519
einen offenen Brief von ganz vielen
internationalen Verlagen an das EU-
539
00:42:51,519 --> 00:42:56,420
Parlament, das Thema wegzulassen und die
ePrivacy-Verordnung nicht in dieser
540
00:42:56,420 --> 00:43:01,619
strengen Form zu verabschieden. Und
natürlich die Filme habe ich euch... oder
541
00:43:01,619 --> 00:43:04,980
den einen Film habe ich euch eben schonmal
kurz gezeigt. Es gibt auf der Seite noch
542
00:43:04,980 --> 00:43:09,281
ein paar mehr, Like a bad Movie, wenn ihr
euch die anschauen wollt, es lohnt sich.
543
00:43:09,281 --> 00:43:11,700
Sodass am Ende selbst Michael Boni, der
Verhandlungsführer der
544
00:43:11,700 --> 00:43:16,890
christdemokratischen Fraktion im
Parlament, beklagte, dass der Lobbyismus
545
00:43:16,890 --> 00:43:20,059
übertrieben sei - zwar von beiden Seiten,
aber eben deutlich übertriebener von Seiten
546
00:43:20,059 --> 00:43:28,019
der Wirtschaft. Nichts destotrotz hat es am
Ende nichts genutzt: mit 318 zu 280
547
00:43:28,019 --> 00:43:31,309
Stimmen hat das Parlament Ende Oktober
diese Position beschlossen, die ich eben
548
00:43:31,309 --> 00:43:35,930
erzählt habe. Vorangegangen ist dem
wirklich ein sehr krasser politischer
549
00:43:35,930 --> 00:43:41,120
spannender Krimi. Denn kurz vor der
entscheidenden Abstimmung im Innen- und
550
00:43:41,120 --> 00:43:46,140
Justizausschuss des Parlaments, wo eben
die Hauptverhandlungen stattgefunden
551
00:43:46,140 --> 00:43:50,751
haben, haben die Konservativen sozusagen
wirklich zwei Tage vor der Abstimmung die
552
00:43:50,751 --> 00:43:56,730
Verhandlungen über Kompromisse
abgebrochen. In dem Wissen, dass
553
00:43:56,730 --> 00:44:01,569
Sozialdemokraten, Liberale, Linke und
Grüne alleine in dem Ausschuss nicht über
554
00:44:01,569 --> 00:44:07,400
die absolute Mehrheit verfügen, die
notwendig gewesen ist oder wäre, um dieses
555
00:44:07,400 --> 00:44:12,371
starke Verhandlungsmandat zu beschließen.
Die Konservativen wollten... oder die
556
00:44:12,371 --> 00:44:18,259
christdemokratische Fraktion wollte darauf
bestehen, dass in jedem Falle ein further
557
00:44:18,259 --> 00:44:20,440
processing von Daten ermöglicht wird und
hat dann die Verhandlung vorher
558
00:44:20,440 --> 00:44:26,880
abgebrochen. Die Rechnung ist allerdings
nicht ganz aufgegangen. Ein bisschen
559
00:44:26,880 --> 00:44:32,259
verzockt an der Stelle: Mit genau 31
Stimmen, also genauso viel wie notwendig
560
00:44:32,259 --> 00:44:38,170
waren, hat dieses pro-Privacy-Bündnis am
Ende die Abstimmung im Ausschuss gewonnen.
561
00:44:38,170 --> 00:44:42,650
Denn drei Stimmen fehlten denen eigentlich
und zwei Abgeordnete der italienischen
562
00:44:42,650 --> 00:44:50,029
Fünf-Sterne-Bewegung haben mitgestimmt und
dieser Spaßvogel hat eben auch mit dafür
563
00:44:50,029 --> 00:44:56,749
gestimmt.
Applaus
564
00:44:56,749 --> 00:45:00,380
Und das obwohl er eigentlich
nicht einmal in diesem Ausschuss sitzt.
565
00:45:00,380 --> 00:45:05,420
Denn er hat es geschafft, den NPD-Mann im
diesem Ausschuss, Udo Voigt, zu
566
00:45:05,420 --> 00:45:09,779
überzeugen, dass er sein Stellvertreter
sein kann an diesem Tag.
567
00:45:09,779 --> 00:45:19,000
Lachen, Applaus
Also wir müssen Martin Sonneborn danken,
568
00:45:19,000 --> 00:45:21,959
aber ich will an dieser Stelle auch noch
mal explizit wirklich sagen, dass
569
00:45:21,959 --> 00:45:28,670
natürlich die wichtige Vorarbeit an der
Stelle ja von den Verhandlungsführern der
570
00:45:28,670 --> 00:45:31,809
Sozialdemokraten, Marju Lauristin aus
Estland, natürlich Jan Albrecht und sein
571
00:45:31,809 --> 00:45:37,789
Team, die niederländische Abgeordnete der
Liberalen Sophia in 't Veld und auch die
572
00:45:37,789 --> 00:45:42,090
federführende Linke Cornelia Ernst, an der
Stelle echt gute Arbeit geleistet haben.
573
00:45:42,090 --> 00:45:51,780
Applaus
Okay, damit es noch eine kurze Q&A geben
574
00:45:51,780 --> 00:45:57,550
kann, sage ich mal... überspringe ich
jetzt mal so ein paar Kleinigkeiten,
575
00:45:57,550 --> 00:46:02,740
allerdings wichtig: der Lobby-Kampf, die
Lobby-Schlacht ist eben noch lange nicht
576
00:46:02,740 --> 00:46:08,819
vorbei. Das Parlament hat seine Position
beschlossen, bevor die ePrivacy-Verordnung
577
00:46:08,819 --> 00:46:12,450
wirklich verabschiedet wird, muss sich
jetzt der Rat, der EU-Rat, also die
578
00:46:12,450 --> 00:46:15,790
Mitgliedsstaaten, die Regierungen der
Mitgliedsstaaten positionieren. Das dauert
579
00:46:15,790 --> 00:46:20,719
noch an. Die derzeitige bulgarische
Ratspräsidentschaft hat quasi gesagt, es
580
00:46:20,719 --> 00:46:25,280
wird vor Juni 2018 nichts. Eigentlich war
mal geplant, dass die ePrivacy-Verordnung
581
00:46:25,280 --> 00:46:34,360
auch im Mai 2018 in Kraft tritt. Das heißt
für den weiteren Prozess: besser als das,
582
00:46:34,360 --> 00:46:37,550
was das Parlament beschlossen hat, wird es
wahrscheinlich eher nicht mehr. Die
583
00:46:37,550 --> 00:46:41,499
Erfahrungen im Trilog zeigen, und auch das
was bisher schon von den Positionierungen
584
00:46:41,499 --> 00:46:49,659
oder von den ersten Stimmen aus dem Rat zu
hören war, zeigen, es wird eher
585
00:46:49,659 --> 00:46:55,319
schlechter. Zum Beispiel gibt es eine Idee
und einen Vorschlag, die Reichweite der
586
00:46:55,319 --> 00:47:01,200
ePrivacy-Verordnung darauf zu beschränken,
dass nur Daten im Transit, im Transport
587
00:47:01,200 --> 00:47:07,690
sozusagen, davon umfasst sind. De facto
liegen aber die meisten Daten heute in der
588
00:47:07,690 --> 00:47:11,700
Cloud, liegen auf Servern. Und die wären
eben ausgenommen von den ePrivacy-Regeln.
589
00:47:11,700 --> 00:47:17,710
Das heißt der Lobby-Kampf ist noch lange
nicht vorbei und jetzt drehen Tracking-
590
00:47:17,710 --> 00:47:21,390
und Daten-Industrie nochmal richtig auf
und bekommen auch jetzt sehr breite
591
00:47:21,390 --> 00:47:26,000
Unterstützung, also unter anderem auch von
RTL-Chefin Anke Schäferkordt, die sagt,
592
00:47:26,000 --> 00:47:31,950
die EU würde jetzt mit der ganz großen
Datenschutz-Keule kommen, den Werbe-
593
00:47:31,950 --> 00:47:35,530
Verband hatte ich eben schonmal genannt,
die sagen, lasst uns doch lieber weiter das
594
00:47:35,530 --> 00:47:38,660
Modell der Selbstregulierung machen, hat
doch gut funktioniert in den letzten 10
595
00:47:38,660 --> 00:47:43,609
Jahren, dass wir als Tracking-Branche uns
selbst regulieren. Ich hab mir das mal
596
00:47:43,609 --> 00:47:46,589
angeguckt, aber dafür ist jetzt leider
nicht mehr die Zeit, wie diese
597
00:47:46,589 --> 00:47:49,210
Regulierung... Selbstregulierung
eigentlich aussieht. Es gibt einen Code of
598
00:47:49,210 --> 00:47:53,279
Conduct, den man sich mal durchlesen kann,
wo unter anderem drinsteht, dass man
599
00:47:53,279 --> 00:47:57,039
Beschwerden auf der wunderhübschen Seite
meine-cockies.org, die eher aussieht wie
600
00:47:57,039 --> 00:48:00,440
eine Hobby-Seite aus den frühen Nuller
Jahren, irgendwie sich beschweren kann,
601
00:48:00,440 --> 00:48:03,899
falls man ein Problem hat. Und was findet
man dort auf der Seite eben nicht? Ein
602
00:48:03,899 --> 00:48:14,779
Formular. OK. Also. OK, ich krieg das
Zeichen, ich darf das nicht mehr machen.
603
00:48:14,779 --> 00:48:19,410
Deshalb nur noch einmal kurz durch
durchgegangen, ich zeig sie einfach nur an
604
00:48:19,410 --> 00:48:24,670
der Stelle: ePrivacy-Mythen. Es sind
extrem viele Mythen im Umlauf. Wir haben
605
00:48:24,670 --> 00:48:27,590
auf netzpolitik.org vor zwei Wochen ein
sehr lesenswertes Interview, wie ich
606
00:48:27,590 --> 00:48:30,879
finde, dazu veröffentlicht, wo Florian
Glatzner vom Verbraucherzentrale-
607
00:48:30,879 --> 00:48:35,349
Bundesverband einige der zentralen Mythen
wirklich mal aus- und vornimmt. Weil
608
00:48:35,349 --> 00:48:38,780
natürlich die Erzählung, die EU übertreibt
total beim Datenschutz, die wissen nicht
609
00:48:38,780 --> 00:48:42,390
was sie machen, die machen die
Innovationen kaputt in Europa und am Ende
610
00:48:42,390 --> 00:48:45,459
profitieren dann doch nur die bösen
Amerikaner, das sind sehr starke
611
00:48:45,459 --> 00:48:49,670
Erzählungen, die irgendwie gut
funktionieren in der Öffentlichkeit.
612
00:48:49,670 --> 00:48:56,119
Deshalb. Das Fazit kann natürlich an der
Stelle nur lauten "tu wat" oder "tut wat".
613
00:48:56,119 --> 00:49:01,519
Und zwar nicht nur praktisch, sondern eben
auch politisch. Datenschutz rockt oder
614
00:49:01,519 --> 00:49:04,740
kann rocken, wenn er denn vernünftig
durchgesetzt wird und wenn er denn
615
00:49:04,740 --> 00:49:08,610
vernünftig funktioniert. Und es ist an
uns, quasi das einzufordern, das von
616
00:49:08,610 --> 00:49:12,390
Unternehmen einzufordern, die aber auch zu
beraten und es ihnen möglich zu machen,
617
00:49:12,390 --> 00:49:15,989
selber technische Lösungen zu entwickeln,
und vor allen Dingen dem Datenschutz den
618
00:49:15,989 --> 00:49:22,390
gesellschaftlichen Stellenwert zu
besorgen, den er verdient hat, und gerade
619
00:49:22,390 --> 00:49:28,200
auch in den Medien. Also ich kann immer
noch nicht fassen, dass im Jahr 2017 noch
620
00:49:28,200 --> 00:49:31,579
die meisten... noch den meisten
Nachrichtenredaktionen das Thema Datenschutz
621
00:49:31,579 --> 00:49:36,030
zu trocken oder zu kompliziert ist, um
darüber zu berichten. Ich hab - nicht nur
622
00:49:36,030 --> 00:49:39,620
weil ich unsere Texte am besten finde -
sozusagen die ganzen Artikel von uns immer
623
00:49:39,620 --> 00:49:43,220
genommen, wenn ich was gezeigt habe. Es
hat einfach kaum jemand außer noch ein,
624
00:49:43,220 --> 00:49:49,639
zwei Fachmedien darüber berichtet über das
Thema und das kann eigentlich im Jahr 2017
625
00:49:49,639 --> 00:49:53,850
nicht mehr sein. Genau. An der Stelle sage
ich einfach mal Punkt.
626
00:49:53,850 --> 00:50:01,200
Applaus
627
00:50:01,200 --> 00:50:03,099
Wir werden bei netzpolitik.org natürlich
628
00:50:03,099 --> 00:50:05,720
das machen, was wir weiter... was wir
immer machen, wir werden versuchen, alle
629
00:50:05,720 --> 00:50:09,529
Leute mit den Informationen zu versorgen,
die sie brauchen, um selbst mündig sich
630
00:50:09,529 --> 00:50:12,679
mit dem Thema auseinanderzusetzen. Wir
freuen uns über Spenden genauso wie EDRi
631
00:50:12,679 --> 00:50:18,029
und Digitale Gesellschaft, das schiebe ich
nochmal hinterher, die eben im politischen
632
00:50:18,029 --> 00:50:22,579
Prozess wirklich mit Politikerinnen und
Politikern, Verantwortungsträgern sprechen
633
00:50:22,579 --> 00:50:26,530
und dafür sorgen, dass Nutzerinnen- und
Nutzer-Positionen vertreten werden. Also
634
00:50:26,530 --> 00:50:30,540
die alle können unsere... eure
Unterstützung gebrauchen. Vielen Dank.
635
00:50:30,540 --> 00:50:38,710
Applaus
636
00:50:38,710 --> 00:50:40,619
Herald: Danke, Ingo. Ich glaube, wir haben
637
00:50:40,619 --> 00:50:44,870
Zeit für eine Frage. Wenn ihr eine Frage
habt für Ingo, dann nehmt euch bitte eins
638
00:50:44,870 --> 00:50:56,970
dieser Mikrofone in den Gängen, da haben
wir vier Mikrofone ausgestellt. Oh, da ist
639
00:50:56,970 --> 00:51:03,340
jemand ganz schnell am Mikrofon Nummer 2.
Und bitte ganz deutlich ins Mikrofon
640
00:51:03,340 --> 00:51:06,119
reinsprechen, damit wirs auch im Stream
hören können.
641
00:51:06,119 --> 00:51:11,760
M2: Ich versuchs mal ohne sächsischen
Akzent - hallo. Ich hätt ne Frage zu den
642
00:51:11,760 --> 00:51:16,609
Strafen. Ob da auch was reguliert wurde
oder ob da die Lobby Bezug drauf genommen
643
00:51:16,609 --> 00:51:20,840
hat und das ein bisschen runterregulieren
konnte, oder ob sie sich da nicht
644
00:51:20,840 --> 00:51:26,400
durchsetzen konnten.
ID: Nach dem, was ich von außen sozusagen
645
00:51:26,400 --> 00:51:31,179
sagen kann, ist das nicht runter, ist an
der Stelle zumindest das Parlament hat
646
00:51:31,179 --> 00:51:35,750
sich da nicht runterregulieren lassen. Das
ist analog zu dem, was in der Datenschutz-
647
00:51:35,750 --> 00:51:39,440
Grundverordnung steht, und das ist quasi
eine Verhundertfachung, Vertausendfachung
648
00:51:39,440 --> 00:51:43,859
von dem, was heute an Strafen möglich ist.
Also 4% des weltweiten Umsatzes,
649
00:51:43,859 --> 00:51:48,710
das ist eben für einen global agierenden
Konzern dann wirklich so, dass endlich mal
650
00:51:48,710 --> 00:51:53,790
ein empfindliches Maß bekommt. Von daher,
mehr wäre natürlich immer noch möglich, im
651
00:51:53,790 --> 00:51:59,010
Wettbewerbsrecht sind es bis zu 10%
des Konzernumsatzes. Also, da geht noch
652
00:51:59,010 --> 00:52:03,650
was.
H: Gibts es weitere Fragen? Wir haben noch
653
00:52:03,650 --> 00:52:11,340
Zeit für eine weitere oder zwei weitere
Fragen, das war sehr kurz. Oh, am Mikrofon
654
00:52:11,340 --> 00:52:15,380
Nr. 1.
M1: Was würde passieren, wenn ich bei der
655
00:52:15,380 --> 00:52:30,010
Schufa meine Datenlöschung beantrage?
ID: Äääähm... gute Frage. Warte mal, bis
656
00:52:30,010 --> 00:52:35,010
die Datenschutz-Grundverordnung im Mai
2018 in Kraft tritt oder wirksam ist - in
657
00:52:35,010 --> 00:52:38,239
Kraft ist sie ja schon - und dann mach das
mal bitte und dann gib mir Bescheid. Dann
658
00:52:38,239 --> 00:52:39,729
begleiten wir das, dann gucken wir uns das
an.
659
00:52:39,729 --> 00:52:42,130
Lachen
660
00:52:42,130 --> 00:52:49,510
H: Gute Antwort. lacht Und Mikrofon Nr. 2.
M2: Ingo, könntest du bitte nochmal kurz
661
00:52:49,510 --> 00:52:53,519
erläutern, warum diese ePrivacy-Verordnung
zusätzlich zur EU-
662
00:52:53,519 --> 00:52:57,750
Datenschutzgrundverordnung nötig ist. Es
sind sehr viele Sachen, die sind in der
663
00:52:57,750 --> 00:53:02,130
EU-Datenschutzgrundverordnung sehr ähnlich
oder genau identisch geregelt.
664
00:53:02,130 --> 00:53:10,059
ID: Also, der zentrale Punkt ist, dass
es... weil Kommunikationsdaten, Metadaten,
665
00:53:10,059 --> 00:53:14,240
Inhaltsdaten eben besonders sensibel sind,
weil sie eben besonders viel aussagen,
666
00:53:14,240 --> 00:53:18,730
dass es eben ein höheres und ein
konkreteres Schutzniveau bedarf. Also wenn
667
00:53:18,730 --> 00:53:22,790
wir zum Beispiel uns anschauen, was die
Diensteanbieter machen dürfen mit den
668
00:53:22,790 --> 00:53:27,330
Daten von ihren Kunden, dann bietet eben
die ePrivacy-Verordnung die Möglichkeit,
669
00:53:27,330 --> 00:53:30,920
da eine klarere Grenze zu ziehen als das
über die Datenschutzgrundverordnung der
670
00:53:30,920 --> 00:53:35,520
Fall ist. Da gibt es ja leider dieses
legitime Interesse als Verarbeitungsgrund,
671
00:53:35,520 --> 00:53:40,269
das alles heißen kann. Und da ist es
einfach eine klarere, eine striktere
672
00:53:40,269 --> 00:53:46,769
Grenze gezogen, wenn man sagt, nur auf
Basis von Einwilligung. Und sowas wie
673
00:53:46,769 --> 00:53:53,459
privacy by default und Tracking-Schutz
durch Browser ist eben etwas, das über die
674
00:53:53,459 --> 00:53:57,890
Datenschutzgrundverordnung nicht reguliert
ist. Also von daher ist die Antwort, es
675
00:53:57,890 --> 00:54:01,159
ist an der Stelle einerseits eine
Ergänzung, weil bestimmte Sachen einfach
676
00:54:01,159 --> 00:54:03,849
nicht abgedeckt sind durch die
Datenschutzgrundverordnung, die ist ja
677
00:54:03,849 --> 00:54:08,359
sehr allgemein, die ist ja für alles vom
Bäcker eben bis zum Big-Data-Unternehmen,
678
00:54:08,359 --> 00:54:13,139
und eigentlich aus einer Perspektive eines
progressiven Datenschutzes müsste man
679
00:54:13,139 --> 00:54:17,179
sagen, genauso wie es mit der ePrivacy-
Verordnung jetzt für den Bereich
680
00:54:17,179 --> 00:54:19,329
der elektronischen Kommunikation
passiert ist,
681
00:54:19,329 --> 00:54:22,150
müsste man es vielleicht auch noch
für bestimmte andere Bereiche
682
00:54:22,150 --> 00:54:25,240
machen, dass man eben diese sehr
grundsätzlichen, allgemeinen Regelungen,
683
00:54:25,240 --> 00:54:29,689
die es gibt für den Datenschutz insgesamt,
ergänzt durch etwas Spezifisches.
684
00:54:29,689 --> 00:54:32,869
Weil einfach der Datenschutz im
Gesundheitsbereich etwas ganz anderes ist
685
00:54:32,869 --> 00:54:39,490
als jetzt beim Verkauf von Autos.
H: Okay, dann noch die letzte Frage, die
686
00:54:39,490 --> 00:54:42,080
müssten wir auch kurz halten und dann geb
ich das Wort...
687
00:54:42,080 --> 00:54:45,460
ID: Wir haben auch später angefangen.
H: ... an Mikrofon Nummer 1 bitte.
688
00:54:45,460 --> 00:54:49,300
M1: Ja, ganz kurz: Die Lebensmittel-Mafia
hat ja ungefähr 2 Millarden dafür
689
00:54:49,300 --> 00:54:52,989
ausgegeben für Lobby-Arbeit gegen die
Ampel. Ist jetzt schon bekannt, was die
690
00:54:52,989 --> 00:54:56,060
Datenhehler ungefähr monetär an den Start
gebraucht haben?
691
00:54:56,060 --> 00:54:59,420
ID: Kann ich nicht sagen, keine Ahnung.
Aber es ist eben klar, dass die spätestens
692
00:54:59,420 --> 00:55:07,330
seit der Datenschutzgrundverordnung
deutlich besser aufgestellt sind. Also ich
693
00:55:07,330 --> 00:55:13,580
kann es dir nicht monetär sagen, aber der
Aufwand ist enorm und auch allein das
694
00:55:13,580 --> 00:55:19,380
Zahlenverhältnis, wie viele Leute sind vor
Ort und können mit Kommissionsvertretern
695
00:55:19,380 --> 00:55:22,789
sprechen, steht eben in keinem Verhältnis
zu dem, was die digitale Zivilgesellschaft
696
00:55:22,789 --> 00:55:28,510
da auf die Beine kriegen kann derzeit.
H: Okay und damit beenden wir den Talk.
697
00:55:28,510 --> 00:55:29,920
Vielen Dank, Ingo!
698
00:55:29,920 --> 00:55:36,920
Applaus
699
00:55:36,920 --> 00:55:42,275
Abspannmusik
700
00:55:42,275 --> 00:55:59,000
Untertitel erstellt von c3subtitles.de
im Jahr 2018. Mach mit und hilf uns!