WEBVTT 00:00:00.000 --> 00:00:18.659 35C3 Intro Musik 00:00:18.659 --> 00:00:24.290 Herald: Okay willkommen hier in Eliza für den dritten Talk dieses Blocks 00:00:24.290 --> 00:00:30.829 an diesem zweiten Tage hier. Uns wird heute Rainer Rehak etwas über: "Was 00:00:30.829 --> 00:00:35.010 schützt eigentlich der Datenschutz?" erzählen. Und er wird uns eine kleine 00:00:35.010 --> 00:00:40.560 Einführung mit einem strukturellen Blick auf den Datenschutz gewähren, um uns ein 00:00:40.560 --> 00:00:46.789 bisschen Debatten-Rüstzeug zu geben. Und da würde ich euch bitten eine Runde 00:00:46.789 --> 00:00:50.249 Applaus zu spendieren und Rainer willkommen zu heißen. 00:00:50.249 --> 00:00:53.969 Applaus 00:00:53.969 --> 00:00:55.869 Rainer Rehak: Hallo. 00:00:55.869 --> 00:00:58.589 Applaus 00:00:58.589 --> 00:01:02.447 Rainer: Ja, Hallo, herzlich willkommen, welcome und ni hao. 00:01:03.930 --> 00:01:09.750 Ja, was schützt eigentlich der Datenschutz. Ich bin sehr froh, hier sprechen zu dürfen, weil 00:01:11.030 --> 00:01:14.469 vielleicht teilweise ein bisschen pointiert als These, warum 00:01:14.469 --> 00:01:17.448 Datenschützer*innen aufhören müssen von individueller Privatheit zu sprechen. 00:01:17.448 --> 00:01:21.190 Das ist ja immer so ein Thema was sich durchzieht, wenn es um Datenschutz geht, 00:01:21.190 --> 00:01:25.210 dann geht's gleich um die Privatsphäre und das Innerste des Menschen. Das ist sicher 00:01:25.210 --> 00:01:30.610 auch richtig. Aber meiner Ansicht nach ist das ein bisschen zu klein und spielt 00:01:30.610 --> 00:01:36.659 gerade den Personen in die Hände, die wir eigentlich - ich sag jetzt mal wir - die wir 00:01:36.659 --> 00:01:41.550 eigentlich mit der Argumentation bekämpfen wollen, oder überzeugen wollen, 00:01:41.550 --> 00:01:46.659 im besten Falle. Also erst mal zu mir: So ein bisschen, dass man immer weiß, wer da 00:01:46.659 --> 00:01:49.909 spricht, was für einen Hintergrund ich habe, dass man das ein bisschen 00:01:49.909 --> 00:01:53.949 einsortieren kann, inhaltlich. Ich bin selber wissenschaftlicher Mitarbeiter am 00:01:53.949 --> 00:01:58.659 Weizenbaum-Institut für die vernetzte Gesellschaft. Meine Forschungsbereiche und 00:01:58.659 --> 00:02:01.409 Forschungsinteressen so Technik- Zuschreibungen also Funktions- 00:02:01.409 --> 00:02:05.540 Zuschreibungen, IT-Sicherheit, Datenschutz, Informatik und Gesellschaft. 00:02:05.540 --> 00:02:10.920 Ich selber habe Informatik und Philosophie studiert, an der Humboldt- 00:02:10.920 --> 00:02:15.920 Universität zu Berlin, Freie Uni Berlin und Chinese University of Hongkong. 00:02:15.920 --> 00:02:20.000 Und habe auch meine Diplomarbeit geschrieben über die heimliche Online-Durchsuchung, 00:02:20.000 --> 00:02:24.800 und insbesondere um die gesellschaftlichen Konsequenzen davon. Außerdem bin ich aktiv 00:02:24.800 --> 00:02:28.569 im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung, bei 00:02:28.569 --> 00:02:31.380 Amnesty International und bei der Gesellschaft für Informatik. 00:02:31.380 --> 00:02:35.260 Worum soll es heute gehen? Einen Fahrplan: Erstmal will ich ein bisschen was über 00:02:35.260 --> 00:02:42.150 Begriffe sagen, die dann fallen werden, dann über das Problem, was es überhaupt zu 00:02:42.150 --> 00:02:45.590 diskutieren gibt im Datenschutz. Dann gibt es ein bisschen Theorie und 00:02:45.590 --> 00:02:49.980 Operationalisierung. Operationalisierung heißt: Wie man aus den ganzen 00:02:49.980 --> 00:02:54.129 theoretischen Konstrukten dann tatsächlich konkrete Handlungen ableiten kann. Dann 00:02:54.129 --> 00:02:59.921 möchte ich was über die, auch in der Beschreibung des Talks so ein bisschen 00:02:59.921 --> 00:03:05.970 kritisierten Nicht-Lösungen sagen, konkret darauf eingehen. Vielleicht, wenn sich da 00:03:05.970 --> 00:03:08.890 Fragen anschließen werden wir auch eine Q&A noch machen, dass wir das diskutieren 00:03:08.890 --> 00:03:12.299 können zusammen. Dann werde ich ein Fazit präsentieren und dann kommt noch eine 00:03:12.299 --> 00:03:18.140 Literaturliste, Literaturhinweise. Die Folien kommen dann auch ins frab, für 00:03:18.140 --> 00:03:21.000 diejenigen unter euch die sich da noch weiter einlesen wollen und das weiter 00:03:21.000 --> 00:03:29.349 verfolgen wollen über diese Foundations- Ebene hinweg. Also, erstmal die Begriffe. 00:03:29.349 --> 00:03:32.090 Erst einmal, wenn man über Datenschutz redet - im Englischen ist es ja noch 00:03:32.090 --> 00:03:36.320 komplizierter, so mit Privacy und Data Protection und so weiter - es gibt erstmal 00:03:36.320 --> 00:03:40.240 so einen Begriffe-Mix, das wird dann auch zusammen gehauen mit Überwachung und dann 00:03:40.240 --> 00:03:43.504 ist das so eine Mischung. Deswegen will ich das jetzt erstmal auseinanderziehen, 00:03:43.504 --> 00:03:47.920 dass wir wissen worüber wir reden. Erstens: Datenschutz selber ist ein 00:03:47.920 --> 00:03:52.630 sozialwissenschaftlicher Begriff. Ich werde die alle nachher so ein bisschen 00:03:52.630 --> 00:03:57.119 mehr auffächern, insbesondere Datenschutz. 'Datenschutzrecht' ist ein 00:03:57.119 --> 00:04:01.580 juristischer Begriff und 'Datensicherheit' ist ein informatischer Begriff. 00:04:01.580 --> 00:04:05.769 Ich glaube, Datenschutzrecht, da haben wir eine ganze Menge dazu jetzt schon gehört, 00:04:05.769 --> 00:04:10.680 sowohl in den Medien, weil die, zum Beispiel die Datenschutz-Grundverordnung ja wirksam 00:04:10.680 --> 00:04:15.939 geworden ist 2018 jetzt im Mai. Und über Datensicherheit haben wir hier mit 00:04:15.939 --> 00:04:20.640 Sicherheit ja auch eine ganze Menge schon gehört und gewusst. Der Witz daran ist, 00:04:20.640 --> 00:04:24.910 dass das alles so ein bisschen zusammengehört bei dem Thema, aber dennoch 00:04:24.910 --> 00:04:29.530 diese Bereiche, oder diese Themen, jeweils eigenen Diskurs-Regeln gehorchen. Und 00:04:29.530 --> 00:04:33.000 wie bei allem ist es so, dass die Problem- beschreibung selber auch die Lösung 00:04:33.000 --> 00:04:37.050 so bisschen vordefiniert. Das heißt, der Korridor, wo man hinschaut, was da irgendwie 00:04:37.050 --> 00:04:42.940 als sinnvolle Lösung irgendwie in Betracht kommt. Und welcher Informations- 00:04:42.940 --> 00:04:46.220 oder welcher Daten-Begriff wird da verwendet. Das ist auch eine 00:04:46.220 --> 00:04:49.440 Schlüsselfrage, die ist gar nicht so schwer, aber die muss gestellt werden. Und 00:04:49.440 --> 00:04:55.751 die muss beantwortet werden. Jetzt mal kurz als Überflug. Das Datenschutzrecht 00:04:55.751 --> 00:04:58.479 schützt also Personen. Der Anknüpfungspunkt dabei sind 00:04:58.479 --> 00:05:04.880 personenbezogene Daten. Das kennt man ja auch, weitläufig diskutiert. Und zum 00:05:04.880 --> 00:05:08.900 Beispiel die Begründung, was schützt eigentlich die Datenschutzgrundverordnung, 00:05:08.900 --> 00:05:13.070 oder was setzt sie um, wäre im juristischen, würde man sagen: Naja, die 00:05:13.070 --> 00:05:16.900 setzt halt Artikel 8 der Charta der Grundrechte der Europäischen Union um. In 00:05:16.900 --> 00:05:21.270 der Informatik würde man sagen: Okay, das leitet auf ein weiteres Terminal. 'Was ist 00:05:21.270 --> 00:05:25.120 denn Artikel 8 der Charta der Grundrechte der Europäischen Union?' Das ist so eine 00:05:25.120 --> 00:05:29.930 Art, die Verfassung der EU. Zum Beispiel als Vergleich mal mit dem deutschen 00:05:29.930 --> 00:05:34.563 Grundgesetz. Auch da ist Artikel 1: Die Würde des Menschen ist unantastbar. Sie 00:05:34.563 --> 00:05:38.800 ist zu achten und zu schützen. Und Artikel 8, das der für die DSGVO besonders 00:05:38.800 --> 00:05:42.540 relevante, ist 'Schutz personenbezogener Daten'. Das steht da einfach genauso drin. 00:05:43.296 --> 00:05:47.650 Und wenn der Schutz personenbezogener Daten ein Grundrecht ist auf europäischer 00:05:47.650 --> 00:05:49.970 Ebene, ist ja klar, dass jegliche Datenverarbeitung dann auch eine 00:05:49.970 --> 00:05:53.880 Verletzung von Grundrechten ist. Wobei die Frage da bleibt: Ja, aber warum 00:05:53.880 --> 00:06:00.349 eigentlich? Wenn man so ein bisschen vor- rechtlich diskutieren will, wenn man sagt: 00:06:00.349 --> 00:06:03.120 Wir schützen personenbezogene Daten. Warum? Ja, weil wir ein Recht auf Schutz 00:06:03.120 --> 00:06:08.139 personenbezogener Daten haben; ist es richtig, aber unbefriedigend. 00:06:09.889 --> 00:06:13.229 Aber zum Datenschutzrecht gibt es ja auf dem Kongress auch eine ganze Menge anderer 00:06:13.229 --> 00:06:16.530 Vorträge, es klang auch alle sehr interessant. Deswegen würden wir jetzt 00:06:16.530 --> 00:06:21.139 darüber nicht reden. Datensicherheit ist eine Sache, wie ich bereits angemerkt 00:06:21.139 --> 00:06:26.120 habe, die auch gerade im Chaos-Umfeld eine große Rolle spielt. Das heißt, wenn man 00:06:26.120 --> 00:06:28.510 sich anguckt was ist Datensicherheit: üblicherweise Schutzziele zur 00:06:28.510 --> 00:06:31.479 Vertraulichkeit, Integrität, Verfügbarkeit. Wenn man so ein bisschen 00:06:31.479 --> 00:06:35.981 Techie-mäßig drauf ist, würde man grob verallgemeinern: Vertraulichkeit sind die 00:06:35.981 --> 00:06:40.100 Leserechte, Integrität sind die Schreibrechte, Verfügbarkeit sind die 00:06:40.100 --> 00:06:43.040 Exekutiv-, die Ausführungsrechte. Ist jetzt ein bisschen hingebogen, aber so 00:06:43.040 --> 00:06:47.139 ungefähr kann man sich das vorstellen. Das heißt Verfügbarkeit: ob so ein System für 00:06:47.139 --> 00:06:50.950 mich funktioniert und den Service abliefert, den ich haben möchte. 00:06:51.780 --> 00:06:55.949 In der Datensicherheit geht es aber primär - also was heißt 'aber' - geht es primär um die 00:06:55.949 --> 00:06:59.610 Sicherheit von Geschäftsprozessen und von vorhandenen Daten. Das heißt, die 00:06:59.610 --> 00:07:02.419 Daten sind da, die müssen ordentlich abgesichert werden, zugreifbar bleiben, 00:07:02.419 --> 00:07:07.140 nicht verändert werden und so weiter. Seit 2008 haben Personen sogar ein Grundrecht 00:07:07.140 --> 00:07:10.800 auf die Gewährleistung der Vertraulichkeit und Integrität informationstechnischer 00:07:10.800 --> 00:07:15.790 Systeme. Aber auch zur Datensicherheit selber gibt es auf dem Kongress andere 00:07:15.790 --> 00:07:20.900 Vorträge. Jetzt ist die Frage: Was ist denn mit dem Datenschutz? Das heißt, wenn wir Rechte 00:07:20.900 --> 00:07:25.301 haben, auf zum Beispiel den Schutz personenbezogener Daten, guckt man in die 00:07:25.301 --> 00:07:29.380 Richtung: Wie wird denn das motiviert? Und dann kommt der Datenschutz selber ins 00:07:29.380 --> 00:07:33.080 Spiel, als sozialwissenschaftliche Diskussion, wer wird da warum eigentlich 00:07:33.080 --> 00:07:38.000 wie geschützt? Und dazu kurz ein paar Bemerkung zum gesellschaftlichen 00:07:38.000 --> 00:07:42.100 Hintergrund. Also erstens: Wir leben in einer arbeitsteiligen Gesellschaft. Das heißt, 00:07:42.100 --> 00:07:47.289 verschiedene Menschen haben verschiedene Aufgaben. Wir sind spezialisiert und ich 00:07:47.289 --> 00:07:50.479 muss nicht Socken nähen können, um mit Socken herumzulaufen, weil jemand 00:07:50.479 --> 00:07:55.850 anders das kann. Ihr kennt das Spiel. Es gibt eben Spezialisierung und niemand ist 00:07:55.850 --> 00:08:00.009 sozusagen in allem spezialisiert. Diese Arbeitsteilung hat auch Konsequenzen, wie 00:08:00.009 --> 00:08:03.720 wir nachher sehen. Es gibt diverse Akteure, die miteinander irgendwie funktional 00:08:03.720 --> 00:08:09.139 interagieren. Vielleicht menschlich interessiert es mich schon, wie es dem 00:08:09.139 --> 00:08:12.130 Bäcker oder der Bäckerin gerade geht, aber tatsächlich möchte ich da gerade Geld auf 00:08:12.130 --> 00:08:15.620 den Tisch legen und mein Brötchen kriegen morgens. Oder je nachdem, wann auch immer. 00:08:15.620 --> 00:08:19.560 Das heißt, man tritt so funktional irgendwie miteinander in Verbindung. 00:08:20.080 --> 00:08:25.690 Und in dieser Gesellschaft gibt's dann eben auch... da sind ja nicht alle Leute, die 00:08:25.690 --> 00:08:29.530 da mitspielen nicht gleich mächtig oder gleich fähig. Finanzielle 00:08:29.530 --> 00:08:33.710 Unterschiede können das sein, das können strukturelle Unterschiede sein. An dem 00:08:33.710 --> 00:08:37.157 Fall jetzt zum Beispiel mit Individuum und Organisation. Individuum ist eine 00:08:37.157 --> 00:08:40.630 Person, die hat so Hände, und kann irgendwie Dinge tun, und dann gibt es 00:08:40.630 --> 00:08:44.980 Organisationen, die aus vielen Menschen bestehen, aus Regeln, finanziellen Möglichkeiten, 00:08:44.980 --> 00:08:48.380 rechtlichen Möglichkeiten und so weiter. Und die sind natürlich 00:08:48.380 --> 00:08:53.630 nicht gleich mächtig; haben verschiedene Möglichkeiten, ihre Interessen 00:08:53.630 --> 00:08:57.610 durchzusetzen. Das heißt, sie haben verschiedene Möglichkeiten. Sie haben 00:08:57.610 --> 00:09:00.280 verschieden große Macht, um in diesem gesellschaftlichen Spiel 00:09:00.280 --> 00:09:05.970 mitzumachen. Das sind Machtasymmetrien. Max Weber sagt... kann man mit ihm sprechen: 00:09:05.970 --> 00:09:09.360 "Macht ist die Chance, in einer sozialen Beziehungen den eigenen Willen auch gegen 00:09:09.360 --> 00:09:13.904 Widerstreben durchzusetzen, gleichviel worauf diese Chance beruht." Kann man 00:09:13.904 --> 00:09:16.280 unterscheidenden in Durchsetzungskraft: also Dinge zu verursachen. 00:09:16.280 --> 00:09:19.660 Verhinderungsmacht: Dinge nicht stattfinden zu lassen, die dem eigenen 00:09:19.660 --> 00:09:24.070 Interesse widersprechen, und Definitionsmacht: Wie spricht man über 00:09:24.070 --> 00:09:27.570 bestimmte Themen. Ein bisschen Wahlcomputer, Wahlmaschinen und ihr kennt 00:09:27.570 --> 00:09:32.900 die Geschichte. Jetzt ist die Frage: Ok, das ist alles noch nicht technisch. Beim 00:09:32.900 --> 00:09:39.980 Datenschutz, was uns für den Datenschutz interessiert, ist an der Stelle, dass wir 00:09:39.980 --> 00:09:43.960 in eine allgemeine allgegenwärtige Computerisierung und Vernetzung haben. 00:09:43.960 --> 00:09:47.890 Aka. Digitalisierung wird es seit ein paar Jahren genannt, obwohl dieser Prozess seit 00:09:47.890 --> 00:09:51.330 ungefähr 50 Jahren schon läuft. Und wir haben automationsgestützte 00:09:51.330 --> 00:09:55.000 Informationsverarbeitung, insbesondere von Organisationen, also von staatlichen und 00:09:55.000 --> 00:09:59.610 von wirtschaftlichen Organisationen. Mittlerweile, oder seit einer Weile, ist es 00:09:59.610 --> 00:10:05.170 schon so, dass da eben keine individuellen Wahlmöglichkeiten mehr sind. Man kann sich 00:10:05.170 --> 00:10:08.210 entscheiden kein Handy zu haben, aber wenn man Steuern zahlt, muss man halt doch mit 00:10:08.210 --> 00:10:12.580 dem ELSTER arbeiten. Egal ob es Rente, Krankenkasse und so weiter... ihr kennt die 00:10:12.580 --> 00:10:16.330 Geschichten. Man kommt da eben auch nicht mehr raus. Es sei denn man zieht irgendwie 00:10:16.330 --> 00:10:20.540 in den Wald und eine Höhle. Aber wenn man sich dann verletzt, kann man vielleicht 00:10:20.540 --> 00:10:23.230 einen Kräutertee trinken, aber wenn der Arm ab ist, dann will man vielleicht doch 00:10:23.230 --> 00:10:25.590 ein Krankenhaus. 00:10:27.710 --> 00:10:30.080 Warum ist das relevant? Naja, diese Informationsverarbeitung, 00:10:30.080 --> 00:10:33.870 die Nutzung dieser Daten, die wird verwendet, um Entscheidungen zu 00:10:33.870 --> 00:10:39.500 produzieren. Entscheidungen produzieren heißt: Wieviel Geld kann ich abheben. Was 00:10:39.500 --> 00:10:44.420 ist die schnellste Route von A nach B. Was sind irgendwie beste Freunde, die ich 00:10:44.420 --> 00:10:47.160 vorgeschlagen bekomme. All diese Sachen, das sind ja alles Entscheidungen, wo man 00:10:47.160 --> 00:10:54.640 auch anders hätte agieren können, aber Computer says... und so weiter. Kleine 00:10:54.640 --> 00:10:57.710 Bemerkung natürlich: diese Entscheidungen werden produziert, egal ob die Datenbasis korrekt 00:10:57.710 --> 00:11:02.550 ist oder nicht. Die Ergebnisse sind da und werden dann... wenn die Karte falsch 00:11:02.550 --> 00:11:05.620 ist, landet man im Graben, zum Beispiel. 00:11:07.046 --> 00:11:09.250 Okay, jetzt ist die Frage: Naja, wir reden 00:11:09.250 --> 00:11:13.728 von Datenschutz und von Informationsverarbeitung. Daten oder 00:11:13.728 --> 00:11:19.390 Informationen, ganz kurz, wir sind noch in der Begriffsphase. Also Daten im Datenschutz 00:11:19.390 --> 00:11:24.080 meint Informationen, die Modelle eines Sachverhaltes für einen Zweck sind. Das 00:11:24.080 --> 00:11:30.620 ist jetzt erst mal ein bisschen viel auf einmal. Aber wenn ich eine Glaserei betreibe, 00:11:30.620 --> 00:11:34.510 dann interessiert mich natürlich bei einem Haus was ich in meiner Datenbank eintrage: 00:11:34.510 --> 00:11:38.300 Wie viele Fenster sind in dem Haus, wie groß sind die Fenster, welche Art von 00:11:38.300 --> 00:11:41.550 Format sind das und so weiter. Wenn ich irgendwie eine Malerei betreibe dann 00:11:41.550 --> 00:11:46.200 interessiert mich natürlich: Wie groß ist die Fläche des Hauses und so weiter. Das heißt, ich 00:11:46.200 --> 00:11:50.570 greife mir immer einen Ausschnitt aus der Realität und modelliere den auf diesen 00:11:50.570 --> 00:11:55.730 Zweck hin wofür ich es verwenden will, dann bei der Datenverarbeitung. Das heißt, 00:11:55.730 --> 00:12:02.760 es sind Modelle eines Realitäts- Ausschnitts. Für einen bestimmten Zweck. 00:12:03.970 --> 00:12:07.740 Und deswegen können wir nicht den technischen Informationsbegriff von Shannon 00:12:07.740 --> 00:12:11.110 nehmen. Also von wegen Abtastung und welche Auflösung ist da und wie, ihr 00:12:11.110 --> 00:12:15.790 kennt das so, mit 44 Kilohertz und CD und nimm doch lieber die Goldstecker und so. 00:12:15.790 --> 00:12:21.250 Das ist nicht der Punkt. Wir benutzen einen der Semiotik, der sagt, Informationen 00:12:21.250 --> 00:12:25.131 oder die Daten, aus Datenschutz, bestehen aus Syntax, Semantik, Pragmatik 00:12:25.131 --> 00:12:29.529 und Sigmatik. Syntax ist die zeichenmäßige Repräsentation, also die Nullen und 00:12:29.529 --> 00:12:33.860 Einsen. Semantik ist die Bedeutung. Pragmatik ist der Zweck, für den diese 00:12:33.860 --> 00:12:37.580 Daten erhoben worden sind. Wir erinnern uns, die Glaserei oder die Malerei. 00:12:37.580 --> 00:12:41.680 Und Sigmatik ist die betroffene Person. Das heißt, wessen Haus das ist, oder so. 00:12:41.680 --> 00:12:44.240 Als Beispiel könnte man sagen: 00:12:46.011 --> 00:12:49.180 irgendwie so ein Tupel von Nullen und Einsen, so ein 00:12:49.180 --> 00:12:53.430 Zweiertupel. Die Semantik davon: Aha das sind Geo-Koordinaten, das müsste im System 00:12:53.430 --> 00:12:58.220 hinterlegt sein, eines Mobiltelefons. Pragmatik: Der Zweck wäre die 00:12:58.220 --> 00:13:01.040 Bereitstellung ortsabhängiger Services zum Beispiel für eine Routenplanung, wo möchte 00:13:01.040 --> 00:13:05.440 ich hin, wo gibt es eine Pizza oder so. Und Sigmatik ist dann Maxi Musterfrau, weil das 00:13:05.440 --> 00:13:09.480 die Person ist, deren Mobiltelefon das ist, an der Stelle. 00:13:11.650 --> 00:13:15.550 So ist die Situation. Das ist doch erstmal nett, klingt irgendwie nützlich. Aber was ist 00:13:15.550 --> 00:13:20.890 eigentlich das Problem jetzt? Die Technik, die immer besser wird, und die Daten, 00:13:20.890 --> 00:13:23.710 die gesammelt werden, Informationen, die verarbeitet werden und 00:13:23.710 --> 00:13:27.620 anhand derer Entscheidungen getroffen werden, die wird immer besser, immer 00:13:27.620 --> 00:13:30.290 effizienter nach bestimmten Kriterien, aber sie hilft natürlich den 00:13:30.290 --> 00:13:35.530 Organisationen, die sie verwenden, ihre eigenen Interessen besser durchzusetzen. 00:13:35.530 --> 00:13:38.911 Technik soll die Welt besser machen, aber nicht für alle, sondern für die, 00:13:38.911 --> 00:13:41.750 die sie einsetzen - und zwar für die, die sie im besten Fall selber bauen 00:13:41.750 --> 00:13:47.371 können und dann ihren eigenen Vorstellungen gemäß formen. 00:13:49.591 --> 00:13:53.680 Und das kann eben auch sein, dass bei dieser Informationsverarbeitung 00:13:53.680 --> 00:13:58.180 auch Grundrechte von Personen berührt werden. Die klassische Diskussion ist 00:13:58.180 --> 00:14:01.280 immer so Fragen von Diskriminierungen oder Ungerechtigkeiten, 00:14:01.280 --> 00:14:06.220 weil die Daten falsch sind oder sowas, so Geschichten. Das heißt, wenn die Ergebnisse, 00:14:06.220 --> 00:14:09.030 die da produziert werden - im schlimmsten Falle auch vollautomatisch -, 00:14:10.230 --> 00:14:14.725 dass sie Rechte von Menschen berühren und die an der Stelle erst mal, weil sie ja 00:14:14.725 --> 00:14:18.260 Gegenstand - der Automat sagt halt: "Du kriegst kein Geld" oder "in diesem Monat 00:14:18.260 --> 00:14:23.410 ist alles schon aufgebraucht", dagegen kann man jetzt erst mal nichts tun. 00:14:24.514 --> 00:14:28.640 Das heißt, da ist sozusagen eine direkte Konsequenz dieser Datenverarbeitung auf 00:14:28.640 --> 00:14:32.860 Menschen, auf Menschengruppen oder auf ganze Gesellschaften. Allerdings muss man 00:14:32.860 --> 00:14:35.190 auch sagen, diese Datenverarbeitung ist wünschenswert, weil sie uns auch 00:14:35.190 --> 00:14:38.810 was bringt. Also es ist nicht so, dass DatenschützerInnen selber am liebsten 00:14:38.810 --> 00:14:42.860 zurück in die besagte Höhle wollen, wo das Feuer komplett verständlich ist. 00:14:42.860 --> 00:14:45.960 Nein, wir wollen diese informations- technischen Systeme, die uns 00:14:45.960 --> 00:14:49.530 das Leben erleichtern, die wollen wir alle haben, aber die Effekte, die negativen, 00:14:49.530 --> 00:14:53.490 die es auf Menschen hat und auf Gesellschaften, die wollen wir minimieren. 00:14:53.490 --> 00:14:57.090 Und da hilft es natürlich, wenn man mit Technikerinnen und Technikern redet. 00:14:57.090 --> 00:14:59.905 Ja klar, man kann Systeme auf verschiedene Arten bauen, man muss halt 00:14:59.905 --> 00:15:02.570 nur vorher sagen, was man haben will. 00:15:04.590 --> 00:15:07.390 Und jetzt, wenn man die Probleme mal so 00:15:07.390 --> 00:15:10.810 konkretisiert, würde man sagen: 1. Datenverarbeitung ist wünschenswert, aber 00:15:10.810 --> 00:15:15.000 es gibt innerorganisatorische Datenverarbeitung oder 00:15:15.000 --> 00:15:20.080 Informationsverarbeitung, das heißt, ich kann ja selber überlegen, was ich 00:15:20.080 --> 00:15:24.360 vielleicht einer Organisation gebe an Daten und was nicht, aber was die dann 00:15:24.360 --> 00:15:27.970 intern damit machen, diese Frage, für welchen Zweck sie sie verwenden, wem sie 00:15:27.970 --> 00:15:31.684 sie weitergeben und so weiter, das kann ich selber nicht mehr beeinflussen. In dem 00:15:31.684 --> 00:15:34.850 Moment sind die Daten außerhalb meiner Hand, sind nicht mehr in meiner 00:15:34.850 --> 00:15:40.110 Kontrolle. Und 2. gibt es natürlich die Macht-Asymmetrien. Das heißt, eine Firma, 00:15:40.110 --> 00:15:44.740 die Unmengen von Daten über Individuen hat, kann die natürlich analysieren und 00:15:44.740 --> 00:15:48.290 daraus Erkenntnisse generieren, die ich aus meinen eigenen Daten gar nicht ziehen 00:15:48.290 --> 00:15:54.230 kann. Das heißt also, alleine die schiere Macht, der schierer Datenunterschied, 00:15:54.230 --> 00:15:56.941 erzeugt andere Möglichkeiten auf den verschiedenen Seiten, das heißt, die 00:15:56.941 --> 00:16:00.580 Player sind alle nicht gleich stark und das hängt auch, insbesondere, wenn wir 00:16:00.580 --> 00:16:04.570 über Datenschutz reden, von der Menge an Daten ab, die vorhanden sind. 00:16:06.720 --> 00:16:09.700 Das heißt, wie ich es eben beschrieben habe, nun als Zitat nochmal von Adalbert 00:16:09.700 --> 00:16:14.160 Podlech: "Informationsvorgänge dürfen keine sozialschädlichen Folgen 00:16:14.160 --> 00:16:19.491 herbeiführen." Das ist so die Formulierung. Oder man kann es auch mit 00:16:19.491 --> 00:16:23.150 Martin Rost sagen: "Die Handlungsalternativen des, in diesen 00:16:23.150 --> 00:16:27.080 Interaktionen Schwächeren, die sollen aufrechterhalten werden." Es soll nicht 00:16:27.080 --> 00:16:30.230 irgendwann so sein, dass die Organisationen komplett sagen: "Das ist 00:16:30.230 --> 00:16:34.600 das Richtige für dich und deswegen gehst du diesen Weg lang. Und ihr kennt das ja, 00:16:34.600 --> 00:16:38.780 wenn in irgendwelchen Softwaren das Menü halt nicht sagt "exportieren", dann geht's 00:16:38.780 --> 00:16:44.660 halt nicht. Das heißt also, wenn wir das möchten, muss eben Datenverarbeitung unter 00:16:44.660 --> 00:16:48.496 Bedingungen gestellt werden. Man muss sagen, wenn die Gefahr für so eine 00:16:48.496 --> 00:16:51.890 Einschränkung von Grundrechten und so weiter besteht, dann müssen wir irgendwie 00:16:51.890 --> 00:16:56.110 Bedingungen für die Datenverarbeitung formulieren, dass das minimiert wird oder 00:16:56.110 --> 00:16:58.890 dass den Risiken begegnet wird oder dass sie nicht stattfinden, dass man dieses 00:16:58.890 --> 00:17:03.190 Thema einfach anders baut, dass sie das nicht tun. Innerhalb sozusagen, 00:17:03.190 --> 00:17:08.429 man würde es jetzt als Fachtermini nennen: eine Konditionierung der 00:17:08.429 --> 00:17:12.500 Macht-Asymmetrie. Das heißt, Konditionen, also die Bedingung oder Voraussetzung 00:17:12.500 --> 00:17:16.310 stellen, unter denen dann diese Datenverarbeitung stattfindet. Eben, warum 00:17:16.310 --> 00:17:20.050 muss es jetzt irgendwie konditioniert werden? Weil ich als Außenstehender 00:17:20.050 --> 00:17:23.800 natürlich nicht die Computersysteme von Amazon und wie sie alle heißen, ich kann 00:17:23.800 --> 00:17:27.440 die ja nicht umprogrammieren, ich kann halt die Knöpfe verwenden, die sie mir 00:17:27.440 --> 00:17:31.080 geben. Nichts Anderes. Oder ich kann sagen, ich benutze das alles nicht, aber 00:17:31.080 --> 00:17:35.960 das ist ne, so auf dieser schwarz-weiß Ebene sind wir ja nicht, von der 00:17:35.960 --> 00:17:39.620 Diskussion. Okay. Und die Frage ist immer so, 00:17:43.680 --> 00:17:45.250 das Schutzgut dabei ist eben, also 00:17:45.250 --> 00:17:49.530 Datenschutz schützt nicht Daten, klar, sondern Individuen, also die 00:17:49.530 --> 00:17:52.150 Grundrechte und Grundfreiheiten, wenn man es so formulieren möchte, und die 00:17:52.150 --> 00:17:57.370 Gesellschaft insgesamt, aber wenn man sich das so anschaut, finden sich diese 00:17:57.370 --> 00:18:00.470 Individuen, Grundrechte und Grundfreiheiten, die finden sich wieder. 00:18:00.470 --> 00:18:06.820 Aber diese gesamtgesellschaftlichen Fragen, da muss man sehr stark danach suchen. 00:18:06.820 --> 00:18:09.670 Man kann es konstruieren, aber so explizit ist es da nicht drin zu finden, 00:18:09.670 --> 00:18:14.500 das hat rechtsdogmatische Gründe. Aber das ist nur wieder eine Erinnerung daran, dass 00:18:14.500 --> 00:18:19.154 sich die Fragen des Datenschutzes oder die Antworten des Datenschutzes und des 00:18:19.154 --> 00:18:23.160 Datenschutzrechts nicht deckungsgleich sind. Das eine ist immer ein Ergebnis aus 00:18:23.160 --> 00:18:28.131 dem anderen, im besten Falle, aber manchmal auch nicht. Man würde auch, um das zu 00:18:28.131 --> 00:18:32.610 erklären, warum Datenschutz sagen, na ja, wenn wir uns Märkte angucken, dann gibt's 00:18:32.610 --> 00:18:36.770 eben Kartellämter, und die sagen, wenn bestimmte Akteure zu stark werden dann 00:18:36.770 --> 00:18:42.000 muss man die begrenzen und die anderen ein bisschen stützen, damit der Markt als Ganzes 00:18:42.000 --> 00:18:44.320 funktioniert und genauso kann man sich es auch beim Datenschutz 00:18:44.320 --> 00:18:47.060 vorstellen. Wir haben die Informationsgesellschaft und da gibt es 00:18:47.060 --> 00:18:50.840 Informationsmacht verschiedener Akteure. Da brauchen wir irgendwas, in dem Fall 00:18:50.840 --> 00:18:57.080 zum Beispiel Datenschutzrecht, die diesen Ausgleich bringt. Nicht das einzelne 00:18:57.080 --> 00:19:01.540 Datum zählt, sondern die Anhäufung selber die dann ein Ergebnis produziert. 00:19:03.083 --> 00:19:06.430 Ihr kennt bestimmt den Spruch: "Bei Wurst und Gesetzen möchte man nicht dabei sein wenn 00:19:06.430 --> 00:19:11.180 sie gemacht werden." Das ist natürlich immer die Frage, was die Datenschutz- 00:19:11.180 --> 00:19:16.490 Diskussion bereits seit den 60er, 70er Jahren so produziert hat, ist natürlich, 00:19:16.490 --> 00:19:22.860 wenn es dann zu Recht wird, immer Gegenstand von Aushandlung, von politischen 00:19:22.860 --> 00:19:26.160 Verhandlungen, "wir nehmen das mit rein und das nicht mit rein" und so weiter. 00:19:26.160 --> 00:19:30.380 Deswegen muss man immer aufpassen, dass man die Datenschutz-Diskussion nicht oder 00:19:30.380 --> 00:19:33.720 nicht primär als Datenschutzrechts- Diskussion führt, weil man sich dann 00:19:33.720 --> 00:19:38.270 sehr eingeengt auf das was einmal durch die Politik gegangen ist. So jetzt kommen 00:19:38.270 --> 00:19:43.920 wir mal ein bisschen zu einer Theorie, um die Sachen zusammenzubinden, um sie nochmal 00:19:43.920 --> 00:19:48.040 in einen größeren Kontext einzubauen. Wir gucken uns jetzt mal den Informationsfluss an: 00:19:48.700 --> 00:19:52.610 Am Anfang jetzt vielleicht ein bisschen verwirrend, aber wir haben hier 00:19:52.610 --> 00:19:58.910 links den Informationsfluss von starken Akteuren zu schwachen Akteuren - wir haben 00:19:58.910 --> 00:20:03.290 darunter von schwachen Akteuren zu starken Akteuren und darüber die beiden Seiten 00:20:03.290 --> 00:20:07.740 sind eben den Informationsfluss zu fördern oder diesen Informationsfluss zu 00:20:07.740 --> 00:20:12.930 blockieren. Das heißt, wenn wir uns die erste Zeile anschauen: Wir wollen den 00:20:12.930 --> 00:20:16.400 Informationsfluss vom starken zum schwachen Akteur, zum Beispiel von der 00:20:16.400 --> 00:20:21.645 Organisation zum Individuum. Das wollen wir fördern, weil der Starke dadurch, dass 00:20:21.645 --> 00:20:26.325 er Informationen preisgeben muss - über sich, über seine Verarbeitung und so weiter, 00:20:26.325 --> 00:20:30.900 in dieser Informationsasymmetrie, der Machtasymmetrie schwächt. Und weil die 00:20:30.900 --> 00:20:34.440 einzelne Person damit Informationen erlangt, was damit passiert, wird die Person 00:20:34.440 --> 00:20:39.620 gestärkt. Das nennen wir Transparenz, das nennen wir Informationsfreiheit. Das zu 00:20:39.620 --> 00:20:44.570 blockieren, das heißt, dass die großen Organisationen nicht sagen müssen, was sie 00:20:44.570 --> 00:20:48.650 gerade damit tun, welche Daten sie haben, das nennt sich Arkanpraxis. Für die 00:20:48.650 --> 00:20:54.300 RollenspielerInnen unter euch, Arkan - die Magie, Arkan heißt einfach nur geheim. Es ist 00:20:54.300 --> 00:20:58.000 unklar was da was da getan wird. Anders herum ist der Informationsfluss von 00:20:58.000 --> 00:21:02.080 schwachen Akteuren zu starken Akteuren. Wenn wir den fördern, dann nennt man das 00:21:02.080 --> 00:21:09.540 Verdatung. Ist jetzt nicht der Fachbegriff, aber der, den man auch so kennt. 00:21:09.540 --> 00:21:12.630 Also die Verdatung, überall Sensoren, alle möglichen 00:21:12.630 --> 00:21:17.291 Handlungen, die im Digitalen stattfinden werden protokolliert und so weiter. Und 00:21:17.291 --> 00:21:20.891 wenn man diesen Informationsfluss aber blockiert und den unter Bedingungen stellt 00:21:20.891 --> 00:21:27.140 dann sind wir beim Datenschutz. Das ist die Struktur. Wie ihr jetzt erkennt 00:21:27.140 --> 00:21:29.910 sozusagen von rechts oben nach links unten. Also Arkanpraxis und Verdatung, 00:21:29.910 --> 00:21:34.300 das ist das was wir in totalitären Staaten und so weiter sehen. Und das ist auch das, 00:21:34.300 --> 00:21:39.420 was wir sehen wenn wir Diskussionen mit großen kommerziellen Organisationen 00:21:39.420 --> 00:21:43.470 führen. Nein, wir wollen nicht erzählen was wir machen, wir wollen aber alles über dich 00:21:43.470 --> 00:21:49.530 wissen. Es ist immer die Richtung und die andere Seite, das ist sozusagen die rote 00:21:49.530 --> 00:21:53.340 Diagonale ist genau das, was den Starken noch stärker macht und den Schwachen noch 00:21:53.340 --> 00:21:58.860 weiter schwächt. Die andere Richtung, die Grüne, ist genau das, was den Starken 00:21:58.860 --> 00:22:02.830 schwächt und den Schwachen stärkt. Nämlich Transparenz und Informationsfreiheit 00:22:02.830 --> 00:22:07.900 bezüglich der Starken und den Datenschutz bezüglich der Schwachen. An dieser Stelle 00:22:07.900 --> 00:22:12.560 ein kleines Dankeschön zum Beispiel an OKF und Frag den Staat und so weiter. Oder 00:22:12.560 --> 00:22:15.565 beim Datenschutz andere Organisationen wo ich zum Beispiel auch aktiv bin. Das heißt 00:22:15.565 --> 00:22:18.840 man merkt das ist überhaupt gar kein Widerspruch an der Stelle. Die Frage ist 00:22:18.840 --> 00:22:22.750 nur wer muss transparent sein und wer soll nichts von sich preisgeben oder so wenig 00:22:22.750 --> 00:22:28.660 wie möglich von sich preisgeben. Deswegen erklärt sich auch das Mysterium für manche 00:22:28.660 --> 00:22:32.760 warum wir zum Beispiel einen Bundesbeauftragten für den Datenschutz und 00:22:32.760 --> 00:22:36.175 die Informationsfreiheit haben, warum das zusammen gehört, genau deswegen gehört das 00:22:36.175 --> 00:22:37.530 zusammen. 00:22:40.450 --> 00:22:43.900 Warum gibt's aber auch Meinungen für weniger Datenschutz. Na ja klar 00:22:43.900 --> 00:22:47.610 Datenschutz kostet Ressourcen: finanziell, personell, konzeptionell. Man muss das 00:22:47.610 --> 00:22:51.260 Thema anders planen, anders umbauen und so weiter. Aber auch verhindert der 00:22:51.260 --> 00:22:54.280 Datenschutz Informationsnutzung, Das ist der Zweck der Sache, trotzdem ist es 00:22:54.280 --> 00:22:57.460 ein Argument. Das heißt, bestimmte Geschäftsmodelle gehen nicht mehr und 00:22:57.460 --> 00:23:02.330 so weiter. Für staatliche Aufgaben werden Daten benötigt und wenn die Daten nicht 00:23:02.330 --> 00:23:05.870 fließen können, dann werden bestimmte staatlichen Aufgaben schwieriger oder 00:23:05.870 --> 00:23:11.760 auch wirtschaftliche Tätigkeiten werden erschwert. Das ist zwar richtig, aber es 00:23:11.760 --> 00:23:14.970 ist kein neues Problem wenn man über Gesellschaft nachdenkt. Gleiches gilt 00:23:14.970 --> 00:23:16.850 natürlich für Hygieneregeln, Sicherheitsvorschriften, 00:23:16.850 --> 00:23:19.960 Kinderarbeitsverbot, Arbeitnehmerrechte, Umweltstandards und so weiter und so fort. 00:23:19.960 --> 00:23:25.310 Die kosten auch alle, aber wir haben uns entschieden: Das sind alles Maßnahmen, wo 00:23:25.310 --> 00:23:30.690 es darum geht die Schwächeren, die sich schlechter wehren können, die vielleicht 00:23:30.690 --> 00:23:35.560 auch nicht das Wissen haben, irgendwie davor zu schützen, dass da jemand 00:23:35.560 --> 00:23:39.865 durchagiert und die eigenen Interessen schamlos durchsetzt. 00:23:42.845 --> 00:23:44.170 Wem's aufgefallen ist, 00:23:44.170 --> 00:23:48.670 ich hab jetzt noch nicht einmal den Begriff Privatsphäre verwendet. Und das 00:23:48.670 --> 00:23:55.307 ist ganz bewusst genau der Punkt. Weil Privatsphäre ist immer so eine Idee: Ich 00:23:55.307 --> 00:23:59.947 alleine in meinem Schlafzimmer. Der Soziologe Paul Müller nennt das: 00:23:59.947 --> 00:24:03.610 "Schneckenhaus-Privatsphäre". Seiner Ansicht nach ist das nur in 00:24:03.610 --> 00:24:06.940 vorindustriellen Lebensweisen möglich, wo man tatsächlich sagte: Ich lebe auf dem 00:24:06.940 --> 00:24:10.461 Gut hier, und die Leute ein paar Kilometer weiter, die kennen mich noch 00:24:10.461 --> 00:24:14.690 nicht einmal. Vielleicht ist das sozusagen diese Art von Anonymität, vielleicht 00:24:14.690 --> 00:24:19.840 könnte man da nennen. Aber jetzt tatsächlich, was wir eigentlich wollen, 00:24:19.840 --> 00:24:24.710 ist, wenn man sagt, wir brauchen irgendwie Girokonten und so weiter all diese Sachen. 00:24:24.710 --> 00:24:27.550 Es geht nicht darum, dass niemand Daten hat, sondern dass die Begrenztheit des 00:24:27.550 --> 00:24:31.710 Wissens über Individuen aufrechterhalten wird. Dass es nirgendwo eine Komplett- 00:24:31.710 --> 00:24:37.510 Ansicht gibt oder dass bestimmte Akteure immer nur genau das wissen, was sie 00:24:37.510 --> 00:24:39.980 eigentlich wissen sollten und man kann natürlich diskutieren wie viel das denn 00:24:39.980 --> 00:24:47.230 sein soll. Wilhelm Steinmüller, einer der Ur-Ur-Urgestein Müller, könnte man sagen, 00:24:47.230 --> 00:24:50.960 des Datenschutzdiskurses formulierte das so: "Es geht nicht um Privatsphäre, es 00:24:50.960 --> 00:24:55.080 geht darum, eine Technik sozial beherrschbar zu machen." Und welche 00:24:55.080 --> 00:24:58.310 Grundrechte werden berührt von dieser Datenverarbeitung? Nicht nur Grundrechte 00:24:58.310 --> 00:25:01.830 auf Privatleben, was zum Beispiel Artikel 7 der Europäischen Grundrechtecharta ist, 00:25:01.830 --> 00:25:06.440 sondern eigentlich quasi alle. Wenn ihr dran überlegt, so was wie Meinungsfreiheit 00:25:06.440 --> 00:25:10.940 Informationsfreiheit, so Fragen wie Demonstrationsfreiheit, Würde 00:25:10.940 --> 00:25:14.600 des Menschen, das könnte man alles durchbuchstabieren. Eigentlich könnte man 00:25:14.600 --> 00:25:17.710 sagen: Der Datenschutz ist so eine Art digitale Dimension aller 00:25:17.710 --> 00:25:21.820 Grundrechte. Und das jetzt auf Privatsphäre zu reduzieren, da 00:25:21.820 --> 00:25:25.490 ist was Richtiges dran, aber es verengt den Blick doch radikal, worum es 00:25:25.490 --> 00:25:26.717 eigentlich geht. 00:25:28.057 --> 00:25:30.086 So, wie gehen wir damit jetzt irgendwie um? 00:25:31.926 --> 00:25:33.120 Operationalisierung: 00:25:33.120 --> 00:25:36.400 Wie können wir diese Ideen mit stark und schwach, wie können wir da irgendwie 00:25:36.400 --> 00:25:41.120 Anforderungen daraus bauen? Wie können wir da Dimensionen daraus kristallisieren? Das 00:25:41.120 --> 00:25:47.330 haben diverse Menschen getan und sind zu einem Ergebnis gekommen, zu sagen, wenn es 00:25:47.330 --> 00:25:52.790 um Datenschutz geht, dann müssen informationsverarbeitende Systeme 00:25:52.790 --> 00:25:56.970 bestimmte Schutzziele verfolgen. Und die Schutzziele sind Nichtverkettbarkeit, 00:25:56.970 --> 00:26:01.710 Vertraulichkeit, Intervenierbarkeit, Transparenz, Verfügbarkeit und Integrität. 00:26:01.710 --> 00:26:06.230 Das ist sozusagen: Diese Ziele, auf diese Ziele hin kann man alle technischen Geräte 00:26:06.230 --> 00:26:09.437 oder alle technischen Systeme oder informationstechnischen Systeme hin 00:26:09.437 --> 00:26:13.730 analysieren und kann sehen, inwiefern sie diese Ziele umsetzen. Weil diese Ziele 00:26:13.730 --> 00:26:17.591 genau die Werte, die wir eben besprochen haben, realisieren, kann man die 00:26:17.591 --> 00:26:23.590 analysieren. Nichtverkettbarkeit heißt, bestimmte Informationen, die erhoben worden 00:26:23.590 --> 00:26:27.130 sind für verschiedenste Zwecke, die eben nicht zu verbinden, Informationen nicht 00:26:27.130 --> 00:26:30.420 einfach so irgendwo kaufen zu können. Wir reden jetzt über Datenschutz, nicht 00:26:30.420 --> 00:26:35.130 Datenschutzrecht. Nicht einfach so kaufen zu können und die zu verbinden, 00:26:36.660 --> 00:26:41.150 zum Beispiel nicht Daten zu erheben, die für den eigentlichen Geschäftszweck oder 00:26:41.150 --> 00:26:45.110 eigentliche Handlungen gar nicht notwendig sind, das zu beschränken an der Stelle. 00:26:45.110 --> 00:26:49.440 Integrität, die Unversehrtheit der Daten, das heißt, dass sie nicht verändert 00:26:49.440 --> 00:26:54.360 werden, dass ich mich darauf verlassen kann, die Daten, die ich übermittle oder 00:26:54.360 --> 00:26:59.540 die erhoben werden, dass sie tatsächlich so bleiben und an der Stelle zum Beispiel 00:26:59.540 --> 00:27:04.780 korrekt bleiben. Verfügbarkeit heißt an der Stelle, dass ich die Systeme eben 00:27:04.780 --> 00:27:08.960 nutzen kann. Wenn ich mich darauf verlasse dass ich diese Routenplanung habe und die 00:27:08.960 --> 00:27:14.340 wollen von mir irgendwie Geld haben dafür, dass ich das nutzen kann usw., dann will 00:27:14.340 --> 00:27:17.261 ich natürlich auch, dass es funktioniert. Weil ansonsten ist es ja ein schlechter 00:27:17.261 --> 00:27:22.790 Handel. Transparenz bezieht sich darauf, nicht nur welche Daten vorliegen, sondern 00:27:22.790 --> 00:27:25.690 auch wie funktionieren eigentlich die Prozesse? Was sind denn die Zwecke der 00:27:25.690 --> 00:27:29.459 Verarbeitung? Wie funktioniert denn die ganze Innerei? Was passiert da? Was sind 00:27:29.459 --> 00:27:32.800 eigentlich die Nebenkonsequenzen? Es gibt ja einmal die intendierten Resultate und 00:27:32.800 --> 00:27:37.030 Konsequenzen und dann gibt es eben auch die Unintendierten. Und genau das muss 00:27:37.030 --> 00:27:39.849 irgendwie für mich einsehbar sein. 00:27:40.525 --> 00:27:43.080 Intervenierbarkeit ist ein Schutzziel, das 00:27:43.080 --> 00:27:47.679 sagt eben: Na ja, also wenn Daten eben nicht korrekt sind und das System rechnet 00:27:47.679 --> 00:27:50.991 weiter, egal ob es meine Kredite sind oder ob ich jetzt irgendwie einen Tisch bekomme 00:27:50.991 --> 00:27:56.540 oder ob ich ein Haus bekomme oder so. Es muss natürlich auch möglich sein, dass 00:27:56.540 --> 00:28:00.330 dieses System, wenn man Fehler in dem System erkennt, zu sagen: Stopp, ich 00:28:00.330 --> 00:28:03.510 möchte, dass sich das ändert. Ich möchte, dass die Daten zum Beispiel berichtigt 00:28:03.510 --> 00:28:06.920 werden oder aber ich möchte, wenn ich feststelle, dass dieses System 00:28:06.920 --> 00:28:10.651 diskriminierend ist. Ich möchte, dass das System so gebaut ist, dass ich irgendwas tun kann als 00:28:10.651 --> 00:28:14.540 Betroffener, dass das aufhört. Es reicht ja nicht zu sagen: Ja, also, wir sind 00:28:14.540 --> 00:28:18.155 total transparent. Aber dadurch, dass wir die Stärkeren sind, kannst du einfach 00:28:18.155 --> 00:28:23.460 nichts tun. Man muss ja irgendwo sozusagen den Notausschalter ist jetzt übertrieben, 00:28:23.460 --> 00:28:24.942 natürlich. 00:28:25.676 --> 00:28:28.212 Und als letzten Punkt, die Vertraulichkeit. Das heißt, die 00:28:28.212 --> 00:28:31.592 Informationen, die ich denen, die da für mich irgendwie Service anbieten, die ich 00:28:31.592 --> 00:28:35.200 gebe, da möchte ich auch sichergehen, dass sie nirgendwo anders hingehen, dass die 00:28:35.200 --> 00:28:38.830 genau da bleiben und genau dafür verwendet werden. Aber Vertraulichkeit ist, dass sie 00:28:38.830 --> 00:28:44.170 genau da nur bleiben und niemand Unbefugtes darauf Zugriff hat. Jetzt kann 00:28:44.170 --> 00:28:49.144 man sagen: Na, interessant, Nichtverkettbarkeit, Transparenz und 00:28:49.144 --> 00:28:54.300 Intervenierbarkeit, da sagt man so, das hat den Primat des Datenschutzes und die 00:28:54.300 --> 00:28:57.340 Aufmerksamen unter euch merken: Ach, interessant die anderen drei, das ist das 00:28:57.340 --> 00:29:02.190 Primat der Datensicherheit. Das heißt, wenn man aus dieser Sicht auf Datenschutz 00:29:02.190 --> 00:29:07.200 blickt, erkennt man das, dass nicht Datenschutz so ein Unterteil von 00:29:07.200 --> 00:29:11.162 Datensicherheit ist, sondern aus dieser Sicht genau andersrum. Wir erinnern uns, 00:29:11.162 --> 00:29:15.090 am Anfang, Datensicherheit, da ging es darum: Wie können denn die Daten, die da 00:29:15.090 --> 00:29:18.309 sind ordentlich abgesichert werden und gegen die Hacker und Angriffsszenarien und 00:29:18.309 --> 00:29:21.570 so weiter. Ja klar, aber der Datenschutz fragt: Ja, sollten diese Daten denn 00:29:21.570 --> 00:29:28.824 überhaupt da sein? Man könnte sich so ein Zwiegespräch vorstellen, wo die 00:29:28.824 --> 00:29:32.020 Datenschützerin sagt: Na ja, aber das Datum ist nicht korrekt, was da 00:29:32.020 --> 00:29:35.640 gespeichert ist. Und die IT- Sicherheitsabteilung: Ja ja aber das ist 00:29:35.640 --> 00:29:40.470 richtig gut beschützt. Da merkt man, das ist ein Konflikt, das ist nicht das 00:29:40.470 --> 00:29:45.810 Gleiche. Genau, das sind so die Schutzziele und die kann man tatsächlich 00:29:45.810 --> 00:29:51.160 verwenden. Und es ist auch nicht parallel, sondern diese Schutzziele kann man sehen, 00:29:51.160 --> 00:29:56.050 das ist ein Beitrag von 2013 schon, dass diese Schutzziele des Datenschutzes 00:29:56.050 --> 00:30:00.046 tatsächlich auch mit dem Recht, was gesprochen worden ist, vereinbar sind. Das 00:30:00.046 --> 00:30:02.390 heißt, es ist nicht komplett alles umgesetzt, aber es ist eben auch kein 00:30:02.390 --> 00:30:05.610 Widerspruch. Wir erinnern uns hier wieder, Datenschutz und Datenschutzrecht ist eben 00:30:05.610 --> 00:30:07.225 nicht das Gleiche. 00:30:08.565 --> 00:30:14.360 Okay, das war jetzt so der Durchritt erstmal für die Grundlagen 00:30:14.360 --> 00:30:17.729 an der Stelle und jetzt kommen wir zu den Nicht-Lösungen. Das sind quasi so ein paar 00:30:17.729 --> 00:30:21.249 Kommentare, die ich mir jetzt so noch erlaube. 00:30:23.004 --> 00:30:24.624 Okay, also erstmals: Der 00:30:24.624 --> 00:30:28.830 Selbstdatenschutz, ganz beliebt insbesondere in Verbindung mit der 00:30:28.830 --> 00:30:32.930 Blockchain. Okay, das spare ich mir jetzt. Also wenn das Datenschutz-Konzept ernst 00:30:32.930 --> 00:30:37.710 genommen werden soll: Wir überlegen uns, schwache, starke Akteure, Möglichkeiten 00:30:37.710 --> 00:30:41.915 transparent, und so weiter. Wie soll denn Selbstdatenschutz da aussehen? 00:30:43.990 --> 00:30:48.440 Wie kann mein Selbstdatenschutz aussehen, wenn ich eine innerorganisationale 00:30:48.440 --> 00:30:52.121 Datenverarbeitung habe? Wie kann ich denn bei Facebook selbst Datenschutz machen? 00:30:52.121 --> 00:30:55.560 Also außer, wenn ich da bewaffnet reingehe, aber das ist jetzt nicht 00:30:55.560 --> 00:31:01.656 wirklich eine skalierende Lösung, neben den ganzen anderen Problemen. 00:31:04.130 --> 00:31:07.245 Bin gegen Gewalt übrigens. 00:31:08.690 --> 00:31:12.060 Oder die Erinnerung: Warum haben wir Datenschutz? Datenschutz haben 00:31:12.060 --> 00:31:15.950 wir eben nicht weil es eine Rechts-Vor-Links-Regel ist im Straßenverkehr, wo die beiden 00:31:15.950 --> 00:31:18.570 gleich stark sind. Nein, wir haben Datenschutz genau deswegen, weil sie eben 00:31:18.570 --> 00:31:22.295 nicht gleich stark sind. Da jetzt den Schwachen zu sagen: Du kannst doch selbst 00:31:22.295 --> 00:31:26.000 Datenschutz machen. Wenn man wirklich verstanden hat, wie Datenschutz 00:31:26.000 --> 00:31:30.020 funktioniert, ist es zynisch, das vorzuschlagen. Das ist genau dem 00:31:30.020 --> 00:31:36.233 Verprügelten zu sagen: Ja, du musst dich ja nur wehren. Es gibt überhaupt keinen Sinn. 00:31:36.863 --> 00:31:40.080 Da kann man sich ja vorstellen, in den Situationen, wann braucht man oder 00:31:40.080 --> 00:31:44.690 wann ist Datenschutz genau notwendig wenn es um Kredit- oder Grenz- oder Einkaufs- 00:31:44.690 --> 00:31:47.960 oder Durchsuchungssituationen geht? Polizeiliche Identitätsfeststellung oder 00:31:47.960 --> 00:31:51.760 an der Grenze: Geben sie Daten raus und so weiter oder nicht. Das sind genau die 00:31:51.760 --> 00:31:54.940 Fälle, da kann man sich überlegen, wie man irgendwie Flüchtenden an der Grenze sagt: 00:31:54.940 --> 00:31:57.290 Na ja, du kannst ja Selbstdatenschutz machen, du musst dein Handy nicht 00:31:57.290 --> 00:32:01.110 rausrücken. Das ist ein Riesenproblem. Genau darum gehts. Starke und schwache 00:32:01.110 --> 00:32:06.777 Akteure, das irgendwie anzugreifen und eben nicht zu sagen: Ja, mach doch selber. 00:32:08.330 --> 00:32:14.700 Und das heißt, da muss man dann auch sagen, danke eben auch an Jörg Pohle für 00:32:14.700 --> 00:32:19.003 diesen Hinweis, Facebook hat gar keine Datenschutzeinstellungen. Facebook hat 00:32:19.003 --> 00:32:26.750 Einstellungen. Facebook, ich sage jetzt mal $SocialNetwork, da gibt's 00:32:26.750 --> 00:32:30.910 Einstellungen, welche anderen User Daten sehen, und welche anderen User da 00:32:30.910 --> 00:32:33.511 irgendwie interagieren können. Es gibt aber keine Einstellungen, was Facebook 00:32:33.511 --> 00:32:39.920 damit macht. Man kann da manchmal so ein bisschen dran rum regeln, aber die 00:32:39.920 --> 00:32:42.760 Einstellung, wie lange Facebook irgendwelche Sachen speichern soll oder 00:32:42.760 --> 00:32:47.600 nicht, die gibt's eben nicht oder welche Verknüpfungen es da geben soll. 00:32:49.590 --> 00:32:54.670 Wenn man Datenschutz quasi ernst nimmt, ist das so ein Punkt. Und natürlich, das ist ja auch 00:32:54.670 --> 00:32:56.809 irgendwie bei Mobiltelefonen und so weiter, da gibts dann immer 00:32:56.809 --> 00:33:00.040 Datenschutzeinstellungen. Es fühlt sich irgendwie so gut an, aber das ist gar 00:33:00.040 --> 00:33:04.370 nicht Datenschutz, was es da ist. Wenn irgendwie bei bestimmten Mobiltelefonen 00:33:04.370 --> 00:33:07.340 von Google da steht, da halt Datenschutz: Wollen Sie ein Backup machen? Ja, das ist 00:33:07.340 --> 00:33:10.720 aber Datensicherheit, das ist nicht Datenschutz. Also es ist was anderes. 00:33:11.280 --> 00:33:15.030 Okay, dann gucken wir uns mal Dateneigentum oder Datensouveränität an. 00:33:15.030 --> 00:33:21.199 Naja, ein Eigentum, also erstmal Begriffskritik: Eigentum selber, das 00:33:21.199 --> 00:33:27.410 Konzept Eigentum ist ein Exklusivrecht auf Sachen. Das heißt also, Eigentum: Entweder 00:33:27.410 --> 00:33:31.740 ich habe eine bewegliche Sache, ein Auto, ein Fahrrad oder sonst was oder 00:33:31.740 --> 00:33:35.920 unbewegliche Sachen wie Immobilien. Dann heißt das, ich kann darüber exklusiv 00:33:35.920 --> 00:33:41.187 verfügen. Und genau darauf ist die gesamte Rechtsordnung auch ausgelegt. Wenn ich 00:33:41.187 --> 00:33:45.224 sage Daten sind Eigentum, dann merkt man schon an dem Konzept: Okay, wenn es 00:33:45.224 --> 00:33:48.200 Eigentum ist, dann kann es auch gestohlen werden. Da kann man sich überlegen. 00:33:48.200 --> 00:33:52.580 Datendiebstahl, sind die Daten jetzt weg? Nee, sie sind ja noch da. Okay, was ist 00:33:52.580 --> 00:33:55.190 denn jetzt das Problem? Das Problem bei Diebstahl ist ja nicht, dass man danach 00:33:55.190 --> 00:33:57.000 zwei Fahrräder hat, sondern, dass man keins mehr hat. 00:33:57.000 --> 00:33:58.890 Vereinzeltes Lachen 00:33:58.890 --> 00:34:00.780 Also, es ist eine Frage wie groß 00:34:00.780 --> 00:34:06.180 der eigene Keller ist. Aber ihr merkt an der Stelle, das ist schon vom Konzept her 00:34:06.180 --> 00:34:10.169 merkwürdig. Aber der nächste Punkt ist: Okay, Dateneigentum, dann haben wir das 00:34:10.169 --> 00:34:13.419 alles, und unser Dateneigentum und wir können natürlich unsere Daten dann eben 00:34:13.419 --> 00:34:17.890 verkaufen und kriegen auch davon was ab, von dem schönen Kuchen. Jetzt kann man 00:34:17.890 --> 00:34:20.882 natürlich gleich eine große Diskussion anzureißen, ich will da 00:34:20.882 --> 00:34:26.550 nicht einsteigen. Ist es tatsächlich die 3 Euro pro Monat an alle Facebook-Userinnen 00:34:26.550 --> 00:34:33.889 und -User wert, dafür Wahlmanipulationen ganzer Gesellschaften und Diskriminierung 00:34:33.889 --> 00:34:38.369 an unserer Gesellschaft zu ermöglichen? Was ist denn das für ein komischer Handel 00:34:38.369 --> 00:34:43.480 an der Stelle? Man merkt da, da haut was nicht hin und mehr ist es ja nicht. Dieses 00:34:43.480 --> 00:34:47.419 Geld entsteht dadurch, dass es so viele User gibt, weil es so super gut skaliert. 00:34:47.979 --> 00:34:51.170 Das heißt, die einzelne Person hätte genau von diesen 3 und meintewegen mögen es auch 00:34:51.170 --> 00:34:54.619 30 Euro sein tatsächlich in diesem Vergleich gar nichts. Also offensichtlich 00:34:54.619 --> 00:34:57.279 haben wir hier ein größeres Problem. 00:34:58.189 --> 00:35:00.348 Man könnte auch wieder sagen: "Ach 00:35:00.348 --> 00:35:02.720 interessant, Dateneigentum, das unterstützt wieder nur die starken 00:35:02.720 --> 00:35:08.640 Akteure, die werden bevorzugt". Tatsächlich ist es wieder ein Freikaufen, 00:35:08.640 --> 00:35:14.470 wenn man sagt, ich hab nicht die Notwendigkeit meine Daten zu verkaufen, 00:35:14.470 --> 00:35:17.570 ich kann die bei mir behalten. Dateneigentum ist doch schön, jeder ist 00:35:17.570 --> 00:35:21.330 selbst irgendwie verantwortlich, die Souveränität des Einzelnen oder der 00:35:21.330 --> 00:35:25.100 einzelnen Person. Aber wie gesagt, das ist freikaufen: Wenn ich das Geld habe dann 00:35:25.100 --> 00:35:33.696 bin ich drauf nicht angewiesen, ansonsten musste ich mich quasi ausliefern an der 00:35:33.696 --> 00:35:38.403 Stelle. Klassisches Beispiel bei der Autodatenübermittlung, wenn ich mich recht 00:35:38.403 --> 00:35:46.010 erinnere, bei Mercedes ab irgendeiner Klasse gehen dann keine Daten mehr raus, 00:35:46.010 --> 00:35:49.840 weiter oben. Weil klar ist: Die Käuferinnen und Käufer weiter oben, die 00:35:49.840 --> 00:35:54.065 mögen es gerne wenn die Daten - was im Auto passiert bleibt auch im Auto. 00:35:54.065 --> 00:35:58.530 So, aber darunter halt nicht. Oder man kann sich auch überlegen an der Stelle: Smart- 00:35:58.530 --> 00:36:03.120 TV-Daten, inwiefern da so eine Datensouveränität vorherrscht, wenn man 00:36:03.120 --> 00:36:06.010 irgendwie einem alleinerziehenden Elternteil sagt: "Ja, du bist total 00:36:06.010 --> 00:36:10.540 datensouverän, du kaufst dir hier einen Fernseher irgendwie für 500 Euro, oder 00:36:10.540 --> 00:36:14.790 250, wenn du alle Daten rausleitest. Kann man sich ja überlegen, wie datensouverän 00:36:14.790 --> 00:36:19.450 dann eine Person agiert. Nächste Frage: Wenn Daten Eigentum sind, wem gehören denn 00:36:19.450 --> 00:36:22.820 Kommunikationsdaten oder Bilddaten, wo mehrere Leute dran beteiligt sind, und so 00:36:22.820 --> 00:36:28.000 weiter? Hinten und vorne Probleme, Probleme. Das ist so ein bisschen unklar, 00:36:28.000 --> 00:36:31.470 welches Problem da wie gelöst wird. Es ist natürlich wieder die Abwälzung auf die 00:36:31.470 --> 00:36:37.207 einzelne Person. Man könnte auch genauso sagen, "Hygienesouveränität" könnte man ja 00:36:37.207 --> 00:36:40.290 auch sagen. Man geht halt irgendwie in eine Küche und wir haben halt keine 00:36:40.290 --> 00:36:43.130 Hygieneregeln, du kennst dich doch bestimmt aus, gehst dann erst einmal 00:36:43.130 --> 00:36:46.770 irgendwie hinten rein, ob die Küche dir sauber genug ist oder nicht. Du weißt gar 00:36:46.770 --> 00:36:50.890 nicht, wonach du gucken sollst? Naja, Pech gehabt. Das ist die Art von Souveränität, 00:36:50.890 --> 00:36:56.100 die da proklamiert wird bei Dateneigentum und Datensouveränität. Das ist genau 00:36:56.100 --> 00:36:58.510 wieder die Souveränität des Stärkeren. 00:36:59.380 --> 00:37:02.660 Okay, dann kommen wir noch, als Punkt, 00:37:02.660 --> 00:37:07.920 verbunden mit der Datensouveränität: Ich habe es dann mal Einwilligungsfetisch 00:37:07.920 --> 00:37:12.520 genannt. Das ist immer so ein Rückgriff auf das Grundrecht auf informationelle 00:37:12.520 --> 00:37:16.910 Selbstbestimmung, was ich total großartig finde, aber es reicht eben nicht aus. 00:37:16.910 --> 00:37:21.050 Warum reicht das nicht aus? Naja, Einwilligung heißt, alle mögliche 00:37:21.050 --> 00:37:28.290 Datenverarbeitung, da werde ich vorher gefragt, ob sozusagen meine Daten 00:37:28.290 --> 00:37:31.320 verarbeitet werden dürfen für bestimmte Zwecke, und jetzt ist die Frage: Was ist 00:37:31.320 --> 00:37:35.010 denn das Problem an so einer Einwilligungsfrage? Erstens, da gibt es 00:37:35.010 --> 00:37:38.010 zwei Möglichkeiten: Entweder es gibt eine Informationsasymmetrie oder eine 00:37:38.010 --> 00:37:42.710 Machtasymmetrie, wo man das Problem sieht. Informationsasymmetrie heißt: Ich habe da 00:37:42.710 --> 00:37:48.191 eine Einwilligung, die ich geben muss, und ich habe daneben 150 Seiten AGB, die ich 00:37:48.191 --> 00:37:51.600 jetzt lesen muss, um dann irgendwie ordentlich einzuwilligen. Da sagen 00:37:51.600 --> 00:37:55.490 natürliche Organisationen, insbesondere Konzerne: "Ja, ist doch super, und leider 00:37:55.490 --> 00:37:59.100 auch in der DSGVO, dann machen wir irgendwelche Symbole, die das anzeigen, wo 00:37:59.100 --> 00:38:04.350 es dann einfacher ist für die Personen, das irgendwie lesen zu können und das 00:38:04.350 --> 00:38:07.150 verstehen zu können. Dann können wir vielleicht einfache Sprache machen, und, 00:38:07.150 --> 00:38:11.990 im Endeffekt, wir versuchen es ganz ganz ganz ganz dolle, und wenn alle 00:38:11.990 --> 00:38:15.080 Organisationen des Planeten es ganz dolle versuchen und die Leute es immer noch 00:38:15.080 --> 00:38:19.980 nicht verstehen, dann sind die Leute... also jedenfalls, wir haben uns ganz doll 00:38:19.980 --> 00:38:27.050 bemüht. Das heißt, dass der Druck, oder der Handlungsdruck, wenn man das Problem 00:38:27.050 --> 00:38:32.260 der Informationsasymmetrie sieht, liegt wieder bei der einzelnen Person. Die trägt 00:38:32.260 --> 00:38:37.070 wieder die Last des "Sich-Ordentlich- Informieren-Müssens". Wenn man allerdings 00:38:37.070 --> 00:38:41.500 sagt "Naja, das ist eine Machtasymmetrie", was ich vorhin gesagt habe bei der 00:38:41.500 --> 00:38:46.629 Datensouveränität, wann kann man zustimmen, wie sind eigentlich die, 00:38:47.994 --> 00:38:49.096 was ich gesagt habe 00:38:49.096 --> 00:38:55.940 Netzwerkeffekte? Welche Probleme entstehen denn da auch für andere Menschen, wenn ich 00:38:55.940 --> 00:39:00.480 sage, ich habe die Google AGB für Google Mail verstanden und ich habe den 00:39:00.480 --> 00:39:03.980 zugestimmt, dann habe ich natürlich auch für alle anderen, die mir jemals danach 00:39:03.980 --> 00:39:08.300 eine Mail schreiben wollen auch noch mit zugestimmt. Das heißt, es ist gar kein 00:39:08.300 --> 00:39:12.570 Informationsproblem, das ich nicht verstanden hätte, was irgendwie in den AGB 00:39:12.570 --> 00:39:16.520 drin stand, sondern das liegt in der Natur der Sache der Vernetzung, dass ich das für 00:39:16.520 --> 00:39:21.590 alle anderen mit entschieden habe. Oder aber wenn es halt beim Elternabend heißt 00:39:21.590 --> 00:39:24.490 "Unsere Facebook-Gruppe hat sich das und das gedacht", und dann hat eine Person 00:39:24.490 --> 00:39:28.790 kein Facebook , oder so weiter. So ganz viele Fragen, soziale Rahmenbedingungen, 00:39:28.790 --> 00:39:34.480 genauso finanzielle Abhängigkeiten. Man kann ja eben sagen, ja diesen Dienst, bei 00:39:34.480 --> 00:39:38.570 der Souveränitätsfrage, ja, "du kannst ja gerne diesen Service, du kannst ja 00:39:38.570 --> 00:39:43.335 einwilligen oder aber es kostet was und dann nehmen wir weniger Daten". Man merkt, 00:39:43.335 --> 00:39:48.450 wenn man es auf diese Machtasymmetrie stellt, auf einmal ist es nicht so einfach 00:39:48.450 --> 00:39:52.930 nur unsere AGB besser schreiben, sondern eigentlich brauchen wir harte obere 00:39:52.930 --> 00:39:58.050 Schranken, das heißt, aka. Regulierung, das heißt bestimmte Informationsnutzung darf 00:39:58.050 --> 00:40:04.760 einfach nicht möglich sein. Wie gesagt, wir haben es aktuell mit der Manipulation 00:40:04.760 --> 00:40:09.060 ganzer Gesellschaften zu tun, auch Gewaltverbrechen die aufgrund von, und so 00:40:09.060 --> 00:40:13.090 weiter. Irgendwo muss man da fragen, offensichtlich liegt's nicht daran, dass da 00:40:13.090 --> 00:40:20.290 irgendwie die AGB nicht gut lesbar sind. Ok, dann, Zielgerade, langsam die 00:40:20.290 --> 00:40:24.640 Algorithmenethik, nur kurz angeschnitten. Ich bin ja noch länger hier. 00:40:24.640 --> 00:40:28.869 Algorithmenethik, ja, das ist so eine Mischung, Algorithmen, die ethisch sein 00:40:28.869 --> 00:40:32.321 können oder nicht ethisch sein können. Also erstmals, Algorithmen sind selber ja 00:40:32.321 --> 00:40:37.760 keine Akteure. Organisationen sind Akteure und die wenden Algorithmen an. Das heißt 00:40:37.760 --> 00:40:41.490 man kann natürlich genauso bei 'ner Algorithmenethik fragen, was ist denn die 00:40:41.490 --> 00:40:47.530 Zementethik? Wie verwendet man Zement? Die Frage muss man dann überall stellen, weil 00:40:47.530 --> 00:40:50.680 die Akteure natürlich genau wissen, welche Algorithmen sie verwenden und welche 00:40:50.680 --> 00:40:55.470 nicht. Sie haben nämlich Zwecke, wenn das, was Ihre Interessen sind, davon unterstützt 00:40:55.470 --> 00:40:59.200 wird, dann werden sie eingesetzt, und deswegen macht man ein A/B-Testing, wenn 00:40:59.200 --> 00:41:02.980 es die Zwecke nicht unterstützt, wird etwas anderes verwendet. Und wenn man dann 00:41:02.980 --> 00:41:05.781 sagt, na ja, das ist doch eine ethische Frage, naja das ist nicht wirklich eine 00:41:05.781 --> 00:41:08.790 ethische Frage, es ist eine Verantwortungsfrage, na klar, aber Ethik 00:41:08.790 --> 00:41:14.849 ist nicht das ganz Richtige. Wenn man sagt, ja, aber so Algorithmen, die sind 00:41:14.849 --> 00:41:17.860 alle so kompliziert, und wir verstehen es vielleicht gar nicht mehr, bei irgendwie 00:41:17.860 --> 00:41:21.760 künstlicher Intelligenz und so weiter, kann man sich ja überlegen, wie es beim 00:41:21.760 --> 00:41:27.470 Hundeverhalten ist. Die Hundehalterin oder Hundehalter steht natürlich dafür gerade, 00:41:27.470 --> 00:41:31.800 was der Hund tut, egal, ob der jetzt, aus welchen Gründen das getan worden ist. 00:41:31.800 --> 00:41:38.150 Irgendwer muss es ja, bei irgendwem muss ja die Verantwortung sozusagen liegen. Und 00:41:38.150 --> 00:41:42.550 die Algorithmen setzen also keine Zwecke, sondern sie sind Mittel, um Zwecke 00:41:42.550 --> 00:41:45.490 umzusetzen, das heißt wenn man überhaupt über irgendwas spricht, dann muss man 00:41:45.490 --> 00:41:48.859 irgendwie über Unternehmensethik reden, und wie erfolgreich sowas ist, kennen wir, 00:41:48.859 --> 00:41:53.470 glaube ich, seit Anbeginn des Kapitalismus. Okay. Also die konkrete 00:41:53.470 --> 00:41:59.500 Frage wäre, anstatt über Algorithmen-Ethik zu sprechen, wäre zu sagen, wir haben doch 00:41:59.500 --> 00:42:03.160 gerade etwas über Schutzziele gelernt. Können wir denn nicht einfach diese 00:42:03.160 --> 00:42:06.650 Schutzziele auf alle möglichen Informationsverarbeitung-Systeme anwenden? 00:42:06.650 --> 00:42:09.550 Ja, natürlich können wir das und es gibt auch sehr viel, also nicht sehr viel, aber 00:42:09.550 --> 00:42:13.240 es gibt eine Menge gute Forschung dazu, z.B. Unabhängiges Landesdatenschutzzentrum 00:42:13.240 --> 00:42:16.650 Schleswig-Holstein und so weiter. Aber komischerweise sind da die 00:42:16.650 --> 00:42:19.436 Ergebnisse ja, "das muss reguliert werden", "das müssen wir einzäunen", und 00:42:19.436 --> 00:42:23.490 so weiter. Aber das schlägt man immer so ungern den Konzernen vor, das ist immer 00:42:23.490 --> 00:42:28.599 so, das ist ein bisschen problematisch an der Stelle. Das heißt, man kann da viel 00:42:28.599 --> 00:42:33.150 drüber nachdenken über maschinen-lesbare Policies irgendwie, sozusagen KI-KI- 00:42:33.150 --> 00:42:39.480 Prüfsysteme, und so weiter. Aber das Problem dabei ist, dass die Ethik so 00:42:39.480 --> 00:42:46.970 folgenlos und so schön sanktionslos bleibt. Eine Ethik ist das, was man so tut. Das wäre so 00:42:46.970 --> 00:42:51.400 ein Thema "es wäre schön, wenn". Und tatsächlich, wenn wir uns sozusagen unsere 00:42:51.400 --> 00:42:54.940 Welt so angucken, die verdatete Welt ist eigentlich, dieses "wäre schön, wenn" ist 00:42:54.940 --> 00:42:59.260 schon lange darüber hinaus. Okay, das heißt also, die Ethik ist schon in Ordnung 00:42:59.260 --> 00:43:01.850 und der Ethik-Diskurs ja, aber die Umsetzung des Rechts selber, die hängt 00:43:01.850 --> 00:43:05.840 hinterher. Und das ist so ein Punkt. Also die Situation ist, ich habe es mal ein 00:43:05.840 --> 00:43:09.360 bisschen provokant geschrieben, die Massen-Manipulation, -Überwachung und 00:43:09.360 --> 00:43:13.800 -Unterdrückung ist sozusagen der Punkt. Okay, das überspringen wir mal. 00:43:14.420 --> 00:43:22.050 Also, wen es interessiert, z. B. auch Ben Wagner hat dazu auch neulich geschrieben, ich pack es 00:43:22.050 --> 00:43:28.480 einfach in die Folien an der Stelle, also es bleibt da drin: Inwiefern Ethik die 00:43:28.480 --> 00:43:32.961 neue Selbstregulierung ist. Unternehmen sagen: "Ja, bitte keine Regulierung, wir 00:43:32.961 --> 00:43:36.170 verhalten uns ethisch und wir haben Ethik- Kodizes" und hinten und vorne und so 00:43:36.170 --> 00:43:40.939 weiter. Und wenn man sich die letzten Facebook-Veröffentlichungen z. B. 00:43:40.939 --> 00:43:44.609 anschaut, wer sagt, mit ethischen Diskursen sollen die Unternehmen nochmal 00:43:44.609 --> 00:43:49.070 doller darüber nachdenken, was sie tun und was die Konsequenzen sind, dann der Person 00:43:49.070 --> 00:43:53.170 empfehle ich tatsächlich sehr stark, diese Veröffentlichung der internen E-Mails 00:43:53.170 --> 00:43:57.850 jetzt mal anzuschauen, die wissen ganz genau, was sie tun, das ist, also das ist, 00:43:57.850 --> 00:44:00.260 da kann man nicht drüber reden, da muss man einfach sagen, das ist ein 00:44:00.260 --> 00:44:03.797 Interessenskonflikt und unsere Werte sind so und deswegen machen wir das halt. 00:44:03.797 --> 00:44:10.970 Okay, dann kommen wir zum Fazit. Also 1. Datenschutz zwingt Organisationen dazu, 00:44:10.970 --> 00:44:14.860 bei der Gestaltung ihrer Datenverarbeitung die Interessen der Betroffenen zu 00:44:14.860 --> 00:44:19.750 beachten. Das heißt, durch Datenschutz sollen sie Dinge tun, die sie von sich aus 00:44:19.750 --> 00:44:23.740 nie tun würden, wir erinnern uns: Hygieneregeln, Sicherheitsvorkehrungen und 00:44:23.740 --> 00:44:26.400 so weiter, das würden sie von sich aus jetzt erst einmal nicht wollen, weil die 00:44:26.400 --> 00:44:30.010 Marktlogik eine andere ist und so weiter. Aber mit Datenschutz bringt man eben dazu, 00:44:30.010 --> 00:44:34.849 Löschfristen und so weiter, die DSGVO könnt ihr euch angucken. Dann auch als 00:44:34.849 --> 00:44:39.119 Betreiber solcher Systeme muss man sich immer vor Augen halten, die Rechte der 00:44:39.119 --> 00:44:43.491 Betroffenen, so nervig sie vielleicht sein mögen, wenn man selber AnbieterIn ist, 00:44:43.491 --> 00:44:46.320 sind immer die Pflichten der Verantwortlichen. Das heißt, das ist ein 00:44:46.320 --> 00:44:49.391 Interessenkonflikt, wenn man sagt, ich möchte das alles nicht dokumentieren und 00:44:49.391 --> 00:44:53.280 so weiter, dann heißt es, mir sind die Interessen und die Rechte der Anderen 00:44:53.280 --> 00:44:58.830 davon egal, und das sollte nicht so sein. Dann, individuelle Privatsphäre, das habe 00:44:58.830 --> 00:45:04.711 ich schon gesagt. Dann als letzten Punkt, Fokus auf personenbezogene Daten ist 00:45:04.711 --> 00:45:08.470 offensichtlich problematisch, man kann Leute auch mit nicht-personenbezogenen 00:45:08.470 --> 00:45:11.410 Daten diskriminieren und es gibt aber auch Nutzungen von personenbezogenen Daten, die 00:45:11.410 --> 00:45:16.520 unproblematisch sind. Was man bräuchte, ist eine Analyse von Datenverarbeitung, 00:45:16.520 --> 00:45:20.060 die einfach schaut, Datenverarbeitung, egal welche Daten die verwenden, da 00:45:20.060 --> 00:45:24.047 verwendet werden. Was sind die Konsequenzen für die Betroffenen und die 00:45:24.047 --> 00:45:27.290 Einwilligung ist weder hinreichend für individuelle und noch für 00:45:27.290 --> 00:45:31.140 gesellschaftliche Schutzfunktionen: da müssen wir tatsächlich über diese harten 00:45:31.140 --> 00:45:34.880 Grenzen nachdenken, ansonsten kommen wir da nicht weiter. Und als allerletzten Punkt 00:45:34.880 --> 00:45:39.150 kann man sagen, die Techis unter uns sagen ja immer Alice und Bob, die reden 00:45:39.150 --> 00:45:42.950 miteinander und dann gibt es Malary, die greift an und beim Datenschutz muss man 00:45:42.950 --> 00:45:48.020 immer sagen, Achtung, Angreifer! Angreifer ist nicht Malary, Angreifer ist Bob, 00:45:48.020 --> 00:45:50.882 nämlich die andere Seite, die die Daten kriegt, was sie damit tut. 00:45:50.882 --> 00:45:52.415 Okay, dankeschön. 00:45:52.415 --> 00:46:05.715 Applaus 00:46:05.715 --> 00:46:10.200 Herald: Ja, danke Rainer für deinen interessanten Vortrag. Wir haben zwei 00:46:10.200 --> 00:46:16.059 Mikrofone, eins auf der Seite in der Mitte des Saals und eins im Mittelgang: Nr. 1 und 00:46:16.059 --> 00:46:21.830 Nr. 2. Wenn ihr Fragen stellen möchtet, dann könnt ihr euch an diesen Mikrofonen 00:46:21.830 --> 00:46:27.680 aufstellen und eine Reihe bilden oder zwei Reihen bilden. Wenn ihr jetzt gehen müsst, 00:46:27.680 --> 00:46:33.099 tut das bitte leise und auf jeden Fall nicht störend. Und ja, dann würde ich mal 00:46:33.099 --> 00:46:34.952 sagen: Mikrofon 2. 00:46:35.589 --> 00:46:38.720 Frage: Vielen Dank für den interessanten Vortrag. Wie sieht es 00:46:38.720 --> 00:46:43.290 aus, wenn wir plötzlich andere Machtverhältnisse haben? Das heißt, wir 00:46:43.290 --> 00:46:47.900 haben Peer-to-Peer-Systeme. Da haben wir auf der einen Seite dann alle auf der 00:46:47.900 --> 00:46:53.530 gleichen Ebene oder auch nicht, aber doch prinzipiell ist es möglich. Und gerade 00:46:53.530 --> 00:46:57.619 diese Peer-to-Peer-Systeme ermöglichen ja gerade diese mächtigen Daten-Intermediäre 00:46:57.619 --> 00:47:04.291 zu umgehen. Oder was ist jetzt bei Fällen, wo wir sagen, wir haben jetzt gar nicht 00:47:04.291 --> 00:47:09.869 den starken Datenverarbeiter, sondern wir haben den kleinen Turnverein, wir haben 00:47:09.869 --> 00:47:14.840 die Individuen, die plötzlich mit der Datenschutzgrundverordnung konfrontiert 00:47:14.840 --> 00:47:18.260 sind und eigentlich gar nicht die Starken sind. Und da sagen wir, passt doch 00:47:18.260 --> 00:47:20.330 eigentlich gar nicht. 00:47:21.960 --> 00:47:24.750 Rainer: Wollen wir erst mal sammeln oder soll ich gleich..? 00:47:24.750 --> 00:47:27.888 Ja, gut, okay. Das ist ein sehr, sehr guter Punkt, gerade diese Peer-to-Peer- 00:47:27.888 --> 00:47:34.570 Geschichten, da sehe ich tatsächlich eine ganz, ganz große Chance, wo gerade bei 00:47:34.570 --> 00:47:38.930 Peer-to-Peer die Daten verteilt sind, da keine Machtzentren dabei entstehen, da 00:47:38.930 --> 00:47:41.960 muss man natürlich bei dem Design aufpassen, dass man es eben nicht so macht 00:47:41.960 --> 00:47:45.200 wie irgendwelche Bitcoin-Geschichten, dass dann doch wieder alles zentralisiert wird, 00:47:45.200 --> 00:47:50.260 sondern eher so wie GNUnet, wo in das System eingebaut ist, dass es auch dezentral 00:47:50.260 --> 00:47:54.160 bleibt. Ich sehe da ganz große Hoffnungen, da muss allerdings sehr viel noch 00:47:54.160 --> 00:47:57.120 geforscht und gearbeitet werden, dass solche Sachen dann auch skalieren können. 00:47:57.120 --> 00:48:00.930 Aber das kann möglich sein, auf alle Fälle. Da sehe ich überhaupt kein Problem, wenn 00:48:00.930 --> 00:48:04.190 man da mal ein bisschen Geld reinsteckt, irgendwie so einen Bruchteil von dem, was 00:48:04.190 --> 00:48:08.020 wir in Atomkraft gesteckt haben, mal in Peer-to-Peer-Technologien, aber das 00:48:08.020 --> 00:48:10.780 nebenbei. Nee, das sehe ich auch, das wäre auf alle Fälle eine technische 00:48:10.780 --> 00:48:16.380 Herangehensweise, wo man natürlich auch wieder diese Analysen machen müsste, aber 00:48:16.380 --> 00:48:21.020 das ist auf alle Fälle ein gangbarer Weg und da gibt es auch ganz viele Ansätze 00:48:21.020 --> 00:48:27.160 schon, gerade hier auf dem Congress, wenn man mal herumläuft, GNU-Taler und so, da 00:48:27.160 --> 00:48:31.402 sehe ich viel Fruchtbares. Bei dem zweiten Punkt, das ist natürlich jetzt eine 00:48:31.402 --> 00:48:35.070 rechtliche Frage. Ich gehe trotzdem darauf ein, halte mich aber kurz, weil wie 00:48:35.070 --> 00:48:40.641 gesagt, es gab auch rechtliche Talks. Die DSGVO hat so einen überwiegend Risiko- 00:48:40.641 --> 00:48:45.359 basierten Ansatz, das heißt, der Verein muss diese Sachen insofern umsetzen, wie 00:48:45.359 --> 00:48:52.530 Risiken für die Betroffenen entstehen. Das heißt, wenn der Verein ein multi- 00:48:52.530 --> 00:48:56.281 nationales, globales Social-Network betreibt, dann sind die Pflichten sehr, 00:48:56.281 --> 00:49:01.100 sehr groß, wenn allerdings da nur die Mitgliederliste geführt wird, dann sind 00:49:01.100 --> 00:49:04.520 die Anforderungen da auch sehr viel geringer. Also man muss immer sehen, die 00:49:04.520 --> 00:49:07.521 Anforderungen, z. B. diese technischen- organisatorischen Maßnahmen, die müssen 00:49:07.521 --> 00:49:11.600 immer angemessen sein. Das heißt, wenn da eine Liste mit 20 Namen sind, dann muss 00:49:11.600 --> 00:49:16.600 man jetzt nicht, da reicht jetzt vielleicht nicht irgendwie Caesar- 00:49:16.600 --> 00:49:21.310 Verschlüsselung, aber da muss jetzt kein Hochsicherheitssystem da sein; das muss 00:49:21.310 --> 00:49:25.530 sozusagen immer entsprechend der Risiken für die Betroffenen. Also ich verstehe 00:49:25.530 --> 00:49:31.690 auch die Kritik zu sagen, dass sozusagen diese DSGVO guckt gar nicht, wie groß die 00:49:31.690 --> 00:49:36.109 Organisation ist. Oder da ist meine Antwort dabei zu sagen, ja, die DSGVO 00:49:36.109 --> 00:49:39.869 schaut aber, wie groß ist das Risiko für die Betroffenen. Und ich glaube, bei 00:49:39.869 --> 00:49:44.850 vielen, die sich da sozusagen beschweren, die beschweren sich auch erstens, weil sie 00:49:44.850 --> 00:49:49.440 sich nicht vorher damit beschäftigt haben, was sie hätten sollen und zweitens aber 00:49:49.440 --> 00:49:57.600 auch, weil da leider sehr viel Angstmache drin war, wie viel Aufwand da tatsächlich 00:49:57.600 --> 00:50:03.470 auf Leute zukommt und wie groß die Anforderungen sind. Die Regularien bei 00:50:03.470 --> 00:50:06.660 der Datenschutz-Konferenz war ja auch irgendwie erst mal warnen und helfen, 00:50:06.660 --> 00:50:11.400 statt abmahnen und so weiter. Also das sind so, genau das ist so meine Antwort. 00:50:11.400 --> 00:50:14.849 Also wichtig ist, wie groß ist das Risiko für die Betroffenen und das wird bei 00:50:14.849 --> 00:50:17.710 Vereinen immer nicht so groß sein. Also kommt auf den Verein an, also ich meine, 00:50:17.710 --> 00:50:21.450 der TÜV ist auch ein Verein, also... Okay, ich hoffe, das hat jetzt geholfen. 00:50:21.450 --> 00:50:23.940 Herald: Mikrofon 1, bitte. 00:50:23.940 --> 00:50:26.430 Frage: Sie haben jetzt für die Erklärung 00:50:26.430 --> 00:50:31.555 'Was ist Datenschutz?' zurückgegriffen auf die Erklärung des 00:50:31.555 --> 00:50:36.060 Standarddatenschutzmodells. Gibt es in der Wissenschaft eigentlich auch andere 00:50:36.060 --> 00:50:41.780 Ansätze, die gewählt werden zur Erklärung 'Was ist Datenschutz' oder wie weit sind 00:50:41.780 --> 00:50:47.626 die Diskussionen da oder gibt es unterschiedlichen Fokus? 00:50:47.626 --> 00:50:52.790 Rainer: Also das ist eine sehr sehr sehr gute Frage tatsächlich. Ich finde 00:50:52.790 --> 00:50:54.920 tatsächlich dieses Standarddatenschutzmodell - ne 00:50:54.920 --> 00:50:58.660 deswegen habe ich es da unten hingepackt - sehr sehr gut und trifft das, was ich als 00:50:58.660 --> 00:51:04.000 großes Problem auch ansehe. Es gibt eine Dissertation von Jörg Pohle, der Vierte 00:51:04.000 --> 00:51:07.180 von unten, 'Datenschutz und Technikgestaltung', der diskutiert mal die 00:51:07.180 --> 00:51:10.690 verschiedenen Ansätze. Es gibt da schon verschiedene Vorstellungen, was ist 00:51:10.690 --> 00:51:14.420 überhaupt das Schutzgut und wie kann man dem begegnen und so weiter. Da gibt es 00:51:14.420 --> 00:51:22.760 einen großen Dschungel, aber da ist sich auch... also mein Eindruck ist, da setzt 00:51:22.760 --> 00:51:27.730 sich zumindest in der deutschen Diskussion oder europäischen Diskussionen da setzt 00:51:27.730 --> 00:51:32.420 sich gerade so eine bestimmte Richtung durch. Aber es gibt auch andere Ansätze, 00:51:32.420 --> 00:51:37.030 die zum Beispiel, die rückwärts versuchen entlang des Rechtes zu rekonstruieren, was 00:51:37.030 --> 00:51:41.859 eigentlich mal das Datenschutzproblem war und die dann immer individualisiert Fragen 00:51:41.859 --> 00:51:50.150 stellen und sagen, wie können wir zum Beispiel das Risiko so einfache Rechnung wie das 00:51:50.150 --> 00:51:54.490 Risiko der einzelnen Person mal die Anzahl der betroffenen Personen und so könnte man 00:51:54.490 --> 00:51:56.930 eben auch an Datenschutz herangehen und dann hat man nur rein individuell 00:51:56.930 --> 00:52:01.520 natürlich immer das Problem, was man dann lösen muss. Das funktioniert insofern 00:52:01.520 --> 00:52:05.900 nicht, wie wir eben gesehen haben, es kann natürlich eine ganze Menge Leute zu einer 00:52:05.900 --> 00:52:08.599 Datenverarbeitung zustimmen, deren Konsequenzen dann alle anderen auch noch 00:52:08.599 --> 00:52:13.920 mit trifft. In dem Sinne funktioniert der individualistische Ansatz dann nicht. Aber 00:52:13.920 --> 00:52:17.170 da gibt es einen Zoo. Aber ich glaube, 00:52:18.700 --> 00:52:24.688 Ich glaube das ist meiner Ansicht nach, das sehr gut begründet ist. 00:52:25.997 --> 00:52:29.045 Herald: Das Internet hat eine Frage. 00:52:30.230 --> 00:52:36.290 Signal-Angel: Das Internet fragt: Gibt es bzw. kennst du eine politikerverständliche 00:52:36.290 --> 00:52:40.750 Übersicht von Chaos-nahen politischen Forderungen bezüglich Datenschutz und 00:52:40.750 --> 00:52:42.900 Datensicherheit mitsamt ihren Begründungen? 00:52:45.370 --> 00:52:47.910 Rainer: Moment eine was? Eine Politiker kompatible? 00:52:47.910 --> 00:52:51.490 Signal-Angel: ...Politikerverständliche Übersicht von Chaos-nahen politischen 00:52:51.490 --> 00:52:53.230 Förderungen. Forderungen, Entschuldige. 00:52:58.619 --> 00:53:01.030 Rainer: Ja. Naja, ich meine, ich kann zum 00:53:01.030 --> 00:53:06.280 Beispiel darauf verweisen jetzt vor 2 Monaten war die Bits und Bäume in Berlin. 00:53:06.280 --> 00:53:10.480 Da gab's einen Forderungskatalog. Da spielte auch Datenschutz und 00:53:10.480 --> 00:53:13.460 Datensicherheit eine Rolle und auch in der Begründung dabei. Da war zum Beispiel auch 00:53:13.460 --> 00:53:17.320 der CCC auch dran beteiligt und das FIfF. Aber andersrum auch 00:53:17.320 --> 00:53:23.580 Nachhaltigkeitsorganisationen BUND und so weiter. Das ist sehr kurz und knackig. 00:53:23.580 --> 00:53:31.099 Ich glaube das könnte auch verstanden werden und es wäre auch Chaos-Umfeld. Ich glaube 00:53:31.099 --> 00:53:38.070 allerdings, also das denke ich jetzt gerade, verschiedene Leute oder auch 00:53:38.070 --> 00:53:40.830 verschiedene Politiker*innen haben verschiedene Vorstellungen, was eigentlich 00:53:40.830 --> 00:53:46.380 das Problem ist. Deswegen weiß ich noch nicht so richtig, inwiefern so eine 00:53:46.380 --> 00:53:49.980 Handreichung verständlicherweise da wirklich helfen würde, die allgemein ist, 00:53:49.980 --> 00:53:58.540 sondern eher zu fragen: Was daran ist unklar, um das dann wirklich konkret zu 00:53:58.540 --> 00:54:02.920 erklären. Aber mein Eindruck ehrlich gesagt, ich verstehe die Motivation der 00:54:02.920 --> 00:54:09.190 Frage, aber mein Eindruck ist so ein bisschen, dieses Unverständnis das hat 00:54:09.190 --> 00:54:17.250 eher was mit fehlendem Mut zu tun, mal zu sagen, was weiß ich, wir müssen da jetzt 00:54:17.250 --> 00:54:20.780 mal harte Grenzen ziehen. Es hat weniger mit Verständnis zu tun, als mit nicht 00:54:20.780 --> 00:54:23.230 verstehen wollen. Da hilft auch eine Handreichung nicht. 00:54:23.230 --> 00:54:30.645 Applaus 00:54:30.645 --> 00:54:33.980 Rainer: Also die Antworten, was notwendig 00:54:33.980 --> 00:54:40.790 wäre, die werden immer, immer klarer, aber das ist glaube ich eine politische Frage. 00:54:40.790 --> 00:54:45.130 Und das ist ja auch einer der Gründe, warum wir hier sind, glaube ich. 00:54:46.580 --> 00:54:48.755 Herald: Mirkofon zwei, bitte. 00:54:48.755 --> 00:54:50.930 Frage: Ich wollte nochmal einhaken, du 00:54:50.930 --> 00:54:55.510 hast ja gerade auch bei dem Thema Algorithmenethik sozusagen gesagt, das ist 00:54:55.510 --> 00:55:01.310 so eine Stellvertreterdebatte oder bzw. eine Debatte, man will eigentlich nicht 00:55:01.310 --> 00:55:04.480 über das Eigentliche reden, nämlich was Regulierung sein soll. Ich würde Dir 00:55:04.480 --> 00:55:08.740 insofern zustimmen, dass die Debatte natürlich ablenken soll davon, dass man 00:55:08.740 --> 00:55:12.829 nicht weiß, wie man mit Technik umgeht. Ich glaube allerdings, jetzt mal die 00:55:12.829 --> 00:55:16.610 Gegenthese, dass man in Deutschland allgemein sehr regulierungswillig ist, in 00:55:16.610 --> 00:55:21.080 der Politik was Technik angeht, aber ich glaube, man weiß nicht, was man regulieren 00:55:21.080 --> 00:55:25.725 soll. Also du hast mehrfach selber auch so Begriffe wie Massenmanipulation, 00:55:25.725 --> 00:55:30.880 Wahlmanipluation genannt, darüber wird unglaublich viel gesprochen. Ich glaube 00:55:30.880 --> 00:55:34.710 aber, es hat keiner gerade in der Politik eine Idee, wie man damit umgehen soll und 00:55:34.710 --> 00:55:38.140 wenn dann mal so ein Vorschlag wie Botregulierung eingebracht wird, ist es 00:55:38.140 --> 00:55:43.607 halt auch Quatsch. Deswegen jetzt meine konkrete Frage: Wie würdest du damit 00:55:43.607 --> 00:55:49.260 umgehen? Also ich arbeite selber im politischen Betrieb und überlege mir also auch 00:55:49.260 --> 00:55:52.579 immer, wie kann man eigentlich diese Debatten in die richtige Richtung lenken. 00:55:52.579 --> 00:55:57.349 Wie würdest du damit umgehen, dass man eben nicht über Algorithmenethik als 00:55:57.349 --> 00:56:00.700 Ablenkungsthema redet sondern, dass man sich mit den tatsächlichen Fragen, nämlich 00:56:00.700 --> 00:56:05.960 was sind sinnvolle Regulierungen beschäftigt, gerade eben unter dem Aspekt, 00:56:05.960 --> 00:56:09.050 dass technisches Unverständnis in großen Teilen leider herrscht? 00:56:10.200 --> 00:56:16.369 Rainer: Tatsächlich eine sehr, sehr interessante Frage. Ich glaube, da steckt 00:56:16.369 --> 00:56:20.150 noch ein bisschen Arbeit drin, diese, zum Beispiel diese Schutzzielfragen auch mal 00:56:20.150 --> 00:56:23.339 wirklich auszubuchstabieren und da gibt es auch Ansätze, zum Beispiel Martin Rost 00:56:23.339 --> 00:56:29.349 jetzt gerade für diese KI-Debatte. Wo man konkret fragen kann: können denn bestimmte 00:56:29.349 --> 00:56:34.880 Systeme Garantien aussprechen für grundrechtliche Fragen. Ich habe mal so 00:56:34.880 --> 00:56:37.630 ein Zitat da rein gepackt, irgendwie so "Deep-Learning-Systeme sind also nicht 00:56:37.630 --> 00:56:40.450 prüfbar, nicht evaluierbar, ändern ihre Eigenschaften, liefern keinerlei 00:56:40.450 --> 00:56:43.879 Begründung, sind leicht zu manipulieren, willkürlich aufgebaut und immer ungenau." 00:56:44.449 --> 00:56:48.250 Das klingt jetzt nach einem coolen System, wenn man Bilder sortieren will, das klingt 00:56:48.250 --> 00:56:52.390 nach einem nicht so guten System, wenn man Straßenschilder erkennen möchte und ich 00:56:52.390 --> 00:57:01.810 glaube die Aufgabe bestünde darin, diese Fleißarbeit auszubuchstabieren, was zum 00:57:01.810 --> 00:57:04.990 Beispiel diese Schutzziele für die einzelnen Systeme und das macht teilweise 00:57:04.990 --> 00:57:09.750 das Standarddatenschutzmodell auch schon, diese Ergebnisse zu zirkulieren und da 00:57:09.750 --> 00:57:17.730 gibt es tatsächlich gute Arbeiten und ich glaube mittlerweile wäre es sogar möglich, 00:57:17.730 --> 00:57:22.110 können wir uns danach nochmal verbinden, dass da vielleicht die richtigen 00:57:22.110 --> 00:57:25.520 Informationen an der richtigen Stelle mal landen, weil ich glaube, die sind 00:57:25.520 --> 00:57:32.290 mehrheitlich schon da. Es hat immer auch etwas mit erklären zu tun. Aber wenn der 00:57:32.290 --> 00:57:36.490 Wille da ist so zu agieren - also eine Regulierwilligkeit sehe ich jetzt nicht so 00:57:36.490 --> 00:57:43.420 richtig - aber gut, wenn das tatsächlich so ist, dann müsste man da wahrscheinlich 00:57:43.420 --> 00:57:47.170 genau diese Papers, die es dazu gibt und so weiter ein bisschen aufbereiten und 00:57:47.170 --> 00:57:55.460 dann an die richtigen Stellen bringen als Hinweise. Wie gesagt, das heißt aber eben 00:57:55.460 --> 00:58:01.751 auch, dass bestimmte Akteure dann eben auch etwas abgeben müssen oder nicht mehr 00:58:01.751 --> 00:58:05.170 zulässig sind oder bestimmte Geschäftsmodelle nicht mehr möglich sind. 00:58:05.170 --> 00:58:08.960 Also wenn Politiker*innen damit einverstanden sind, dann kann man da auch 00:58:08.960 --> 00:58:10.642 was machen. 00:58:11.475 --> 00:58:13.680 Herald: Mikrofon 1 bitte. 00:58:13.680 --> 00:58:20.300 Frage: Hi, ich habe auch eine Frage zu Regulierung: Und zwar aus einer 00:58:20.300 --> 00:58:23.250 soziologischen Perspektive ist es so, dass bei Regulierungen immer auch die 00:58:23.250 --> 00:58:28.560 Regulierten mitarbeiten. Das läuft im politischen Betrieb ganz oft über Aufrufe 00:58:28.560 --> 00:58:33.170 für Comment-Letters, also das Bundesministerium für Verkehr und bla hat 00:58:33.170 --> 00:58:39.220 was über Fahrzeugdaten veröffentlicht und die haben sehr sehr dezidiert politische 00:58:39.220 --> 00:58:43.320 ökonomische Benefits bei den Herstellern gesehen und dann sind alle aufgerufen 00:58:43.320 --> 00:58:48.070 worden innerhalb eines halben Jahres ihre ihre Meinung dazu zu posten. Und bei sowas 00:58:48.070 --> 00:58:52.900 haben natürlich starke Akteure die du auch genannt hast, also Techgiants, immer einen 00:58:52.900 --> 00:59:03.160 strukturellen Vorteil. Also wenn du dich für eine starke Regulierung aussprichst, hast 00:59:03.160 --> 00:59:06.740 du da schon irgendwie Vorstellungen wie man diesen Bias an der Stelle ausschaltet; 00:59:06.740 --> 00:59:10.290 also das die starken weiterhin auch privilegiert bleiben selbst wenn es 00:59:10.290 --> 00:59:11.980 Regulierungen gibt. 00:59:13.700 --> 00:59:18.540 Rainer: Tja, das ist die Königinnenfrage 00:59:18.540 --> 00:59:24.140 an der Stelle. Naja, es hat natürlich immer was damit zu tun, wer wird da 00:59:24.140 --> 00:59:27.910 befragt, wer hat die Möglichkeiten? Ich kenne es ja selber auch irgendwie: Egal ob 00:59:27.910 --> 00:59:30.221 es Sachverständigen Anhörungen sind oder irgendwie Eingaben die gemacht werden 00:59:30.221 --> 00:59:34.599 können. Die Firmen schicken ihre Leute in der Arbeitszeit dahin, um das zu tun und 00:59:34.599 --> 00:59:38.550 die NGOs gucken halt wo sie ihre Ehrenamtlichen abziehen können, um 00:59:38.550 --> 00:59:45.171 vielleicht jemanden... Tja, das ist ein großes Problem. Ich glaube da ist 00:59:45.171 --> 00:59:48.260 tatsächlich so eine grundsätzliche.. Da wage ich mir jetzt auch ein bisschen aus 00:59:48.260 --> 00:59:53.890 dem Fenster aber so eine grundsätzliche Herangehensweise gefragt. Das betrifft ja 00:59:53.890 --> 00:59:57.920 die Frage wie unsere Demokratie funktioniert. Das ist nichts was 00:59:57.920 --> 01:00:04.599 irgendwie... ich meine von Diesel bis hin zu... fange ich gar nicht erst an. Das 01:00:04.599 --> 01:00:09.459 ist keine Datenschutzfrage sondern eine Demokratiefrage. Und ich weiß nicht. 01:00:09.459 --> 01:00:13.373 Da gibts ja ganz viele Ideen: mit Lobbyregister und was es da alles gibt. 01:00:13.373 --> 01:00:19.960 Vermutlich müsste man da; wir alle die Aktivitäten in diesen digitalen 01:00:19.960 --> 01:00:25.240 Rechtsfragen tätigen. Vermutlich wäre es sogar eine langfristige und nachhaltige, 01:00:25.240 --> 01:00:30.680 Keyword, nachhaltige Lösung zu sagen, bei all unseren Aktivitäten nehmen wir 10% 01:00:30.680 --> 01:00:35.700 weg und packen die in LobbyControl und so weiter, um diese Strukturen da irgendwie 01:00:35.700 --> 01:00:44.020 zu stärken. Das wär mein Eindruck, weil teilweise, wenn man sich anguckt wie so 01:00:44.020 --> 01:00:49.470 Digitalrat und KI Enquete usw. zusammengesetzt sind. Klar, wenn ich Leute 01:00:49.470 --> 01:00:54.095 vor einem bestimten Hintergrund einlade, ist mir klar, dass ich dann diese Antwort 01:00:54.095 --> 01:00:57.130 kriege. Das ist jetzt ein bisschen so Frage: Wie kriege ich mehr Leute aus der 01:00:57.130 --> 01:01:00.470 Wissenschaft rein? Und mehr Betroffene, usw.? Und deswegen tut es mir leid, dass 01:01:00.470 --> 01:01:03.950 es vielleicht eine nicht so hilfreiche Antwort ist, aber ich glaube das eine ist 01:01:03.950 --> 01:01:08.150 eine Demokratie Frage und da gibts jede Menge zu tun! Und auch deswegen sollte uns 01:01:08.150 --> 01:01:13.370 das interessieren, weil ansonsten unsere ganze Arbeit da auch teilweise ins Leere 01:01:13.370 --> 01:01:18.716 läuft, weil dann eben das kaputte System das alles wieder auffrisst. Das glaube ich 01:01:18.716 --> 01:01:20.187 so ein Punkt. 01:01:20.961 --> 01:01:23.400 Herald: Ich merke, die Diskussion, die 01:01:23.400 --> 01:01:27.589 brennt. Leider läuft uns die Zeit ein bisschen davon. Wo finden dich die Leute 01:01:27.589 --> 01:01:29.554 hier auf dem Kongress? 01:01:30.174 --> 01:01:32.760 Rainer: Ihr findet mich entweder unter 01:01:32.760 --> 01:01:41.530 dieser E-Mail-Adresse oder aber z.B. am FIfF-Stand, hier CCL, nullte Etage. 01:01:43.280 --> 01:01:45.230 Hier drunter. Ich werde danach 01:01:45.230 --> 01:01:47.480 einfach auf den Knopf drücken und runterfahren, dann findet man mich da. 01:01:47.480 --> 01:01:48.080 Gelächter 01:01:48.080 --> 01:01:48.970 Dankeschön 01:01:48.970 --> 01:01:50.638 Herald: Genau. Applaus. 01:01:50.638 --> 01:01:52.299 Applaus 01:01:52.299 --> 01:01:56.047 35C3 Outro Musik 01:01:56.047 --> 01:02:16.000 Untertitel erstellt von c3subtitles.de im Jahr 2020. Mach mit und hilf uns!