1 00:00:00,000 --> 00:00:18,659 35C3 Intro Musik 2 00:00:18,659 --> 00:00:24,290 Herald: Okay willkommen hier in Eliza für den dritten Talk dieses Blocks 3 00:00:24,290 --> 00:00:30,829 an diesem zweiten Tage hier. Uns wird heute Rainer Rehak etwas über: "Was 4 00:00:30,829 --> 00:00:35,010 schützt eigentlich der Datenschutz?" erzählen. Und er wird uns eine kleine 5 00:00:35,010 --> 00:00:40,560 Einführung mit einem strukturellen Blick auf den Datenschutz gewähren, um uns ein 6 00:00:40,560 --> 00:00:46,789 bisschen Debatten-Rüstzeug zu geben. Und da würde ich euch bitten eine Runde 7 00:00:46,789 --> 00:00:50,249 Applaus zu spendieren und Rainer willkommen zu heißen. 8 00:00:50,249 --> 00:00:53,969 Applaus 9 00:00:53,969 --> 00:00:55,869 Rainer Rehak: Hallo. 10 00:00:55,869 --> 00:00:58,589 Applaus 11 00:00:58,589 --> 00:01:02,447 Rainer: Ja, Hallo, herzlich willkommen, welcome und ni hao. 12 00:01:03,930 --> 00:01:09,750 Ja, was schützt eigentlich der Datenschutz. Ich bin sehr froh, hier sprechen zu dürfen, weil 13 00:01:11,030 --> 00:01:14,469 vielleicht teilweise ein bisschen pointiert als These, warum 14 00:01:14,469 --> 00:01:17,448 Datenschützer*innen aufhören müssen von individueller Privatheit zu sprechen. 15 00:01:17,448 --> 00:01:21,190 Das ist ja immer so ein Thema was sich durchzieht, wenn es um Datenschutz geht, 16 00:01:21,190 --> 00:01:25,210 dann geht's gleich um die Privatsphäre und das Innerste des Menschen. Das ist sicher 17 00:01:25,210 --> 00:01:30,610 auch richtig. Aber meiner Ansicht nach ist das ein bisschen zu klein und spielt 18 00:01:30,610 --> 00:01:36,659 gerade den Personen in die Hände, die wir eigentlich - ich sag jetzt mal wir - die wir 19 00:01:36,659 --> 00:01:41,550 eigentlich mit der Argumentation bekämpfen wollen, oder überzeugen wollen, 20 00:01:41,550 --> 00:01:46,659 im besten Falle. Also erst mal zu mir: So ein bisschen, dass man immer weiß, wer da 21 00:01:46,659 --> 00:01:49,909 spricht, was für einen Hintergrund ich habe, dass man das ein bisschen 22 00:01:49,909 --> 00:01:53,949 einsortieren kann, inhaltlich. Ich bin selber wissenschaftlicher Mitarbeiter am 23 00:01:53,949 --> 00:01:58,659 Weizenbaum-Institut für die vernetzte Gesellschaft. Meine Forschungsbereiche und 24 00:01:58,659 --> 00:02:01,409 Forschungsinteressen so Technik- Zuschreibungen also Funktions- 25 00:02:01,409 --> 00:02:05,540 Zuschreibungen, IT-Sicherheit, Datenschutz, Informatik und Gesellschaft. 26 00:02:05,540 --> 00:02:10,920 Ich selber habe Informatik und Philosophie studiert, an der Humboldt- 27 00:02:10,920 --> 00:02:15,920 Universität zu Berlin, Freie Uni Berlin und Chinese University of Hongkong. 28 00:02:15,920 --> 00:02:20,000 Und habe auch meine Diplomarbeit geschrieben über die heimliche Online-Durchsuchung, 29 00:02:20,000 --> 00:02:24,800 und insbesondere um die gesellschaftlichen Konsequenzen davon. Außerdem bin ich aktiv 30 00:02:24,800 --> 00:02:28,569 im Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung, bei 31 00:02:28,569 --> 00:02:31,380 Amnesty International und bei der Gesellschaft für Informatik. 32 00:02:31,380 --> 00:02:35,260 Worum soll es heute gehen? Einen Fahrplan: Erstmal will ich ein bisschen was über 33 00:02:35,260 --> 00:02:42,150 Begriffe sagen, die dann fallen werden, dann über das Problem, was es überhaupt zu 34 00:02:42,150 --> 00:02:45,590 diskutieren gibt im Datenschutz. Dann gibt es ein bisschen Theorie und 35 00:02:45,590 --> 00:02:49,980 Operationalisierung. Operationalisierung heißt: Wie man aus den ganzen 36 00:02:49,980 --> 00:02:54,129 theoretischen Konstrukten dann tatsächlich konkrete Handlungen ableiten kann. Dann 37 00:02:54,129 --> 00:02:59,921 möchte ich was über die, auch in der Beschreibung des Talks so ein bisschen 38 00:02:59,921 --> 00:03:05,970 kritisierten Nicht-Lösungen sagen, konkret darauf eingehen. Vielleicht, wenn sich da 39 00:03:05,970 --> 00:03:08,890 Fragen anschließen werden wir auch eine Q&A noch machen, dass wir das diskutieren 40 00:03:08,890 --> 00:03:12,299 können zusammen. Dann werde ich ein Fazit präsentieren und dann kommt noch eine 41 00:03:12,299 --> 00:03:18,140 Literaturliste, Literaturhinweise. Die Folien kommen dann auch ins frab, für 42 00:03:18,140 --> 00:03:21,000 diejenigen unter euch die sich da noch weiter einlesen wollen und das weiter 43 00:03:21,000 --> 00:03:29,349 verfolgen wollen über diese Foundations- Ebene hinweg. Also, erstmal die Begriffe. 44 00:03:29,349 --> 00:03:32,090 Erst einmal, wenn man über Datenschutz redet - im Englischen ist es ja noch 45 00:03:32,090 --> 00:03:36,320 komplizierter, so mit Privacy und Data Protection und so weiter - es gibt erstmal 46 00:03:36,320 --> 00:03:40,240 so einen Begriffe-Mix, das wird dann auch zusammen gehauen mit Überwachung und dann 47 00:03:40,240 --> 00:03:43,504 ist das so eine Mischung. Deswegen will ich das jetzt erstmal auseinanderziehen, 48 00:03:43,504 --> 00:03:47,920 dass wir wissen worüber wir reden. Erstens: Datenschutz selber ist ein 49 00:03:47,920 --> 00:03:52,630 sozialwissenschaftlicher Begriff. Ich werde die alle nachher so ein bisschen 50 00:03:52,630 --> 00:03:57,119 mehr auffächern, insbesondere Datenschutz. 'Datenschutzrecht' ist ein 51 00:03:57,119 --> 00:04:01,580 juristischer Begriff und 'Datensicherheit' ist ein informatischer Begriff. 52 00:04:01,580 --> 00:04:05,769 Ich glaube, Datenschutzrecht, da haben wir eine ganze Menge dazu jetzt schon gehört, 53 00:04:05,769 --> 00:04:10,680 sowohl in den Medien, weil die, zum Beispiel die Datenschutz-Grundverordnung ja wirksam 54 00:04:10,680 --> 00:04:15,939 geworden ist 2018 jetzt im Mai. Und über Datensicherheit haben wir hier mit 55 00:04:15,939 --> 00:04:20,640 Sicherheit ja auch eine ganze Menge schon gehört und gewusst. Der Witz daran ist, 56 00:04:20,640 --> 00:04:24,910 dass das alles so ein bisschen zusammengehört bei dem Thema, aber dennoch 57 00:04:24,910 --> 00:04:29,530 diese Bereiche, oder diese Themen, jeweils eigenen Diskurs-Regeln gehorchen. Und 58 00:04:29,530 --> 00:04:33,000 wie bei allem ist es so, dass die Problem- beschreibung selber auch die Lösung 59 00:04:33,000 --> 00:04:37,050 so bisschen vordefiniert. Das heißt, der Korridor, wo man hinschaut, was da irgendwie 60 00:04:37,050 --> 00:04:42,940 als sinnvolle Lösung irgendwie in Betracht kommt. Und welcher Informations- 61 00:04:42,940 --> 00:04:46,220 oder welcher Daten-Begriff wird da verwendet. Das ist auch eine 62 00:04:46,220 --> 00:04:49,440 Schlüsselfrage, die ist gar nicht so schwer, aber die muss gestellt werden. Und 63 00:04:49,440 --> 00:04:55,751 die muss beantwortet werden. Jetzt mal kurz als Überflug. Das Datenschutzrecht 64 00:04:55,751 --> 00:04:58,479 schützt also Personen. Der Anknüpfungspunkt dabei sind 65 00:04:58,479 --> 00:05:04,880 personenbezogene Daten. Das kennt man ja auch, weitläufig diskutiert. Und zum 66 00:05:04,880 --> 00:05:08,900 Beispiel die Begründung, was schützt eigentlich die Datenschutzgrundverordnung, 67 00:05:08,900 --> 00:05:13,070 oder was setzt sie um, wäre im juristischen, würde man sagen: Naja, die 68 00:05:13,070 --> 00:05:16,900 setzt halt Artikel 8 der Charta der Grundrechte der Europäischen Union um. In 69 00:05:16,900 --> 00:05:21,270 der Informatik würde man sagen: Okay, das leitet auf ein weiteres Terminal. 'Was ist 70 00:05:21,270 --> 00:05:25,120 denn Artikel 8 der Charta der Grundrechte der Europäischen Union?' Das ist so eine 71 00:05:25,120 --> 00:05:29,930 Art, die Verfassung der EU. Zum Beispiel als Vergleich mal mit dem deutschen 72 00:05:29,930 --> 00:05:34,563 Grundgesetz. Auch da ist Artikel 1: Die Würde des Menschen ist unantastbar. Sie 73 00:05:34,563 --> 00:05:38,800 ist zu achten und zu schützen. Und Artikel 8, das der für die DSGVO besonders 74 00:05:38,800 --> 00:05:42,540 relevante, ist 'Schutz personenbezogener Daten'. Das steht da einfach genauso drin. 75 00:05:43,296 --> 00:05:47,650 Und wenn der Schutz personenbezogener Daten ein Grundrecht ist auf europäischer 76 00:05:47,650 --> 00:05:49,970 Ebene, ist ja klar, dass jegliche Datenverarbeitung dann auch eine 77 00:05:49,970 --> 00:05:53,880 Verletzung von Grundrechten ist. Wobei die Frage da bleibt: Ja, aber warum 78 00:05:53,880 --> 00:06:00,349 eigentlich? Wenn man so ein bisschen vor- rechtlich diskutieren will, wenn man sagt: 79 00:06:00,349 --> 00:06:03,120 Wir schützen personenbezogene Daten. Warum? Ja, weil wir ein Recht auf Schutz 80 00:06:03,120 --> 00:06:08,139 personenbezogener Daten haben; ist es richtig, aber unbefriedigend. 81 00:06:09,889 --> 00:06:13,229 Aber zum Datenschutzrecht gibt es ja auf dem Kongress auch eine ganze Menge anderer 82 00:06:13,229 --> 00:06:16,530 Vorträge, es klang auch alle sehr interessant. Deswegen würden wir jetzt 83 00:06:16,530 --> 00:06:21,139 darüber nicht reden. Datensicherheit ist eine Sache, wie ich bereits angemerkt 84 00:06:21,139 --> 00:06:26,120 habe, die auch gerade im Chaos-Umfeld eine große Rolle spielt. Das heißt, wenn man 85 00:06:26,120 --> 00:06:28,510 sich anguckt was ist Datensicherheit: üblicherweise Schutzziele zur 86 00:06:28,510 --> 00:06:31,479 Vertraulichkeit, Integrität, Verfügbarkeit. Wenn man so ein bisschen 87 00:06:31,479 --> 00:06:35,981 Techie-mäßig drauf ist, würde man grob verallgemeinern: Vertraulichkeit sind die 88 00:06:35,981 --> 00:06:40,100 Leserechte, Integrität sind die Schreibrechte, Verfügbarkeit sind die 89 00:06:40,100 --> 00:06:43,040 Exekutiv-, die Ausführungsrechte. Ist jetzt ein bisschen hingebogen, aber so 90 00:06:43,040 --> 00:06:47,139 ungefähr kann man sich das vorstellen. Das heißt Verfügbarkeit: ob so ein System für 91 00:06:47,139 --> 00:06:50,950 mich funktioniert und den Service abliefert, den ich haben möchte. 92 00:06:51,780 --> 00:06:55,949 In der Datensicherheit geht es aber primär - also was heißt 'aber' - geht es primär um die 93 00:06:55,949 --> 00:06:59,610 Sicherheit von Geschäftsprozessen und von vorhandenen Daten. Das heißt, die 94 00:06:59,610 --> 00:07:02,419 Daten sind da, die müssen ordentlich abgesichert werden, zugreifbar bleiben, 95 00:07:02,419 --> 00:07:07,140 nicht verändert werden und so weiter. Seit 2008 haben Personen sogar ein Grundrecht 96 00:07:07,140 --> 00:07:10,800 auf die Gewährleistung der Vertraulichkeit und Integrität informationstechnischer 97 00:07:10,800 --> 00:07:15,790 Systeme. Aber auch zur Datensicherheit selber gibt es auf dem Kongress andere 98 00:07:15,790 --> 00:07:20,900 Vorträge. Jetzt ist die Frage: Was ist denn mit dem Datenschutz? Das heißt, wenn wir Rechte 99 00:07:20,900 --> 00:07:25,301 haben, auf zum Beispiel den Schutz personenbezogener Daten, guckt man in die 100 00:07:25,301 --> 00:07:29,380 Richtung: Wie wird denn das motiviert? Und dann kommt der Datenschutz selber ins 101 00:07:29,380 --> 00:07:33,080 Spiel, als sozialwissenschaftliche Diskussion, wer wird da warum eigentlich 102 00:07:33,080 --> 00:07:38,000 wie geschützt? Und dazu kurz ein paar Bemerkung zum gesellschaftlichen 103 00:07:38,000 --> 00:07:42,100 Hintergrund. Also erstens: Wir leben in einer arbeitsteiligen Gesellschaft. Das heißt, 104 00:07:42,100 --> 00:07:47,289 verschiedene Menschen haben verschiedene Aufgaben. Wir sind spezialisiert und ich 105 00:07:47,289 --> 00:07:50,479 muss nicht Socken nähen können, um mit Socken herumzulaufen, weil jemand 106 00:07:50,479 --> 00:07:55,850 anders das kann. Ihr kennt das Spiel. Es gibt eben Spezialisierung und niemand ist 107 00:07:55,850 --> 00:08:00,009 sozusagen in allem spezialisiert. Diese Arbeitsteilung hat auch Konsequenzen, wie 108 00:08:00,009 --> 00:08:03,720 wir nachher sehen. Es gibt diverse Akteure, die miteinander irgendwie funktional 109 00:08:03,720 --> 00:08:09,139 interagieren. Vielleicht menschlich interessiert es mich schon, wie es dem 110 00:08:09,139 --> 00:08:12,130 Bäcker oder der Bäckerin gerade geht, aber tatsächlich möchte ich da gerade Geld auf 111 00:08:12,130 --> 00:08:15,620 den Tisch legen und mein Brötchen kriegen morgens. Oder je nachdem, wann auch immer. 112 00:08:15,620 --> 00:08:19,560 Das heißt, man tritt so funktional irgendwie miteinander in Verbindung. 113 00:08:20,080 --> 00:08:25,690 Und in dieser Gesellschaft gibt's dann eben auch... da sind ja nicht alle Leute, die 114 00:08:25,690 --> 00:08:29,530 da mitspielen nicht gleich mächtig oder gleich fähig. Finanzielle 115 00:08:29,530 --> 00:08:33,710 Unterschiede können das sein, das können strukturelle Unterschiede sein. An dem 116 00:08:33,710 --> 00:08:37,157 Fall jetzt zum Beispiel mit Individuum und Organisation. Individuum ist eine 117 00:08:37,157 --> 00:08:40,630 Person, die hat so Hände, und kann irgendwie Dinge tun, und dann gibt es 118 00:08:40,630 --> 00:08:44,980 Organisationen, die aus vielen Menschen bestehen, aus Regeln, finanziellen Möglichkeiten, 119 00:08:44,980 --> 00:08:48,380 rechtlichen Möglichkeiten und so weiter. Und die sind natürlich 120 00:08:48,380 --> 00:08:53,630 nicht gleich mächtig; haben verschiedene Möglichkeiten, ihre Interessen 121 00:08:53,630 --> 00:08:57,610 durchzusetzen. Das heißt, sie haben verschiedene Möglichkeiten. Sie haben 122 00:08:57,610 --> 00:09:00,280 verschieden große Macht, um in diesem gesellschaftlichen Spiel 123 00:09:00,280 --> 00:09:05,970 mitzumachen. Das sind Machtasymmetrien. Max Weber sagt... kann man mit ihm sprechen: 124 00:09:05,970 --> 00:09:09,360 "Macht ist die Chance, in einer sozialen Beziehungen den eigenen Willen auch gegen 125 00:09:09,360 --> 00:09:13,904 Widerstreben durchzusetzen, gleichviel worauf diese Chance beruht." Kann man 126 00:09:13,904 --> 00:09:16,280 unterscheidenden in Durchsetzungskraft: also Dinge zu verursachen. 127 00:09:16,280 --> 00:09:19,660 Verhinderungsmacht: Dinge nicht stattfinden zu lassen, die dem eigenen 128 00:09:19,660 --> 00:09:24,070 Interesse widersprechen, und Definitionsmacht: Wie spricht man über 129 00:09:24,070 --> 00:09:27,570 bestimmte Themen. Ein bisschen Wahlcomputer, Wahlmaschinen und ihr kennt 130 00:09:27,570 --> 00:09:32,900 die Geschichte. Jetzt ist die Frage: Ok, das ist alles noch nicht technisch. Beim 131 00:09:32,900 --> 00:09:39,980 Datenschutz, was uns für den Datenschutz interessiert, ist an der Stelle, dass wir 132 00:09:39,980 --> 00:09:43,960 in eine allgemeine allgegenwärtige Computerisierung und Vernetzung haben. 133 00:09:43,960 --> 00:09:47,890 Aka. Digitalisierung wird es seit ein paar Jahren genannt, obwohl dieser Prozess seit 134 00:09:47,890 --> 00:09:51,330 ungefähr 50 Jahren schon läuft. Und wir haben automationsgestützte 135 00:09:51,330 --> 00:09:55,000 Informationsverarbeitung, insbesondere von Organisationen, also von staatlichen und 136 00:09:55,000 --> 00:09:59,610 von wirtschaftlichen Organisationen. Mittlerweile, oder seit einer Weile, ist es 137 00:09:59,610 --> 00:10:05,170 schon so, dass da eben keine individuellen Wahlmöglichkeiten mehr sind. Man kann sich 138 00:10:05,170 --> 00:10:08,210 entscheiden kein Handy zu haben, aber wenn man Steuern zahlt, muss man halt doch mit 139 00:10:08,210 --> 00:10:12,580 dem ELSTER arbeiten. Egal ob es Rente, Krankenkasse und so weiter... ihr kennt die 140 00:10:12,580 --> 00:10:16,330 Geschichten. Man kommt da eben auch nicht mehr raus. Es sei denn man zieht irgendwie 141 00:10:16,330 --> 00:10:20,540 in den Wald und eine Höhle. Aber wenn man sich dann verletzt, kann man vielleicht 142 00:10:20,540 --> 00:10:23,230 einen Kräutertee trinken, aber wenn der Arm ab ist, dann will man vielleicht doch 143 00:10:23,230 --> 00:10:25,590 ein Krankenhaus. 144 00:10:27,710 --> 00:10:30,080 Warum ist das relevant? Naja, diese Informationsverarbeitung, 145 00:10:30,080 --> 00:10:33,870 die Nutzung dieser Daten, die wird verwendet, um Entscheidungen zu 146 00:10:33,870 --> 00:10:39,500 produzieren. Entscheidungen produzieren heißt: Wieviel Geld kann ich abheben. Was 147 00:10:39,500 --> 00:10:44,420 ist die schnellste Route von A nach B. Was sind irgendwie beste Freunde, die ich 148 00:10:44,420 --> 00:10:47,160 vorgeschlagen bekomme. All diese Sachen, das sind ja alles Entscheidungen, wo man 149 00:10:47,160 --> 00:10:54,640 auch anders hätte agieren können, aber Computer says... und so weiter. Kleine 150 00:10:54,640 --> 00:10:57,710 Bemerkung natürlich: diese Entscheidungen werden produziert, egal ob die Datenbasis korrekt 151 00:10:57,710 --> 00:11:02,550 ist oder nicht. Die Ergebnisse sind da und werden dann... wenn die Karte falsch 152 00:11:02,550 --> 00:11:05,620 ist, landet man im Graben, zum Beispiel. 153 00:11:07,046 --> 00:11:09,250 Okay, jetzt ist die Frage: Naja, wir reden 154 00:11:09,250 --> 00:11:13,728 von Datenschutz und von Informationsverarbeitung. Daten oder 155 00:11:13,728 --> 00:11:19,390 Informationen, ganz kurz, wir sind noch in der Begriffsphase. Also Daten im Datenschutz 156 00:11:19,390 --> 00:11:24,080 meint Informationen, die Modelle eines Sachverhaltes für einen Zweck sind. Das 157 00:11:24,080 --> 00:11:30,620 ist jetzt erst mal ein bisschen viel auf einmal. Aber wenn ich eine Glaserei betreibe, 158 00:11:30,620 --> 00:11:34,510 dann interessiert mich natürlich bei einem Haus was ich in meiner Datenbank eintrage: 159 00:11:34,510 --> 00:11:38,300 Wie viele Fenster sind in dem Haus, wie groß sind die Fenster, welche Art von 160 00:11:38,300 --> 00:11:41,550 Format sind das und so weiter. Wenn ich irgendwie eine Malerei betreibe dann 161 00:11:41,550 --> 00:11:46,200 interessiert mich natürlich: Wie groß ist die Fläche des Hauses und so weiter. Das heißt, ich 162 00:11:46,200 --> 00:11:50,570 greife mir immer einen Ausschnitt aus der Realität und modelliere den auf diesen 163 00:11:50,570 --> 00:11:55,730 Zweck hin wofür ich es verwenden will, dann bei der Datenverarbeitung. Das heißt, 164 00:11:55,730 --> 00:12:02,760 es sind Modelle eines Realitäts- Ausschnitts. Für einen bestimmten Zweck. 165 00:12:03,970 --> 00:12:07,740 Und deswegen können wir nicht den technischen Informationsbegriff von Shannon 166 00:12:07,740 --> 00:12:11,110 nehmen. Also von wegen Abtastung und welche Auflösung ist da und wie, ihr 167 00:12:11,110 --> 00:12:15,790 kennt das so, mit 44 Kilohertz und CD und nimm doch lieber die Goldstecker und so. 168 00:12:15,790 --> 00:12:21,250 Das ist nicht der Punkt. Wir benutzen einen der Semiotik, der sagt, Informationen 169 00:12:21,250 --> 00:12:25,131 oder die Daten, aus Datenschutz, bestehen aus Syntax, Semantik, Pragmatik 170 00:12:25,131 --> 00:12:29,529 und Sigmatik. Syntax ist die zeichenmäßige Repräsentation, also die Nullen und 171 00:12:29,529 --> 00:12:33,860 Einsen. Semantik ist die Bedeutung. Pragmatik ist der Zweck, für den diese 172 00:12:33,860 --> 00:12:37,580 Daten erhoben worden sind. Wir erinnern uns, die Glaserei oder die Malerei. 173 00:12:37,580 --> 00:12:41,680 Und Sigmatik ist die betroffene Person. Das heißt, wessen Haus das ist, oder so. 174 00:12:41,680 --> 00:12:44,240 Als Beispiel könnte man sagen: 175 00:12:46,011 --> 00:12:49,180 irgendwie so ein Tupel von Nullen und Einsen, so ein 176 00:12:49,180 --> 00:12:53,430 Zweiertupel. Die Semantik davon: Aha das sind Geo-Koordinaten, das müsste im System 177 00:12:53,430 --> 00:12:58,220 hinterlegt sein, eines Mobiltelefons. Pragmatik: Der Zweck wäre die 178 00:12:58,220 --> 00:13:01,040 Bereitstellung ortsabhängiger Services zum Beispiel für eine Routenplanung, wo möchte 179 00:13:01,040 --> 00:13:05,440 ich hin, wo gibt es eine Pizza oder so. Und Sigmatik ist dann Maxi Musterfrau, weil das 180 00:13:05,440 --> 00:13:09,480 die Person ist, deren Mobiltelefon das ist, an der Stelle. 181 00:13:11,650 --> 00:13:15,550 So ist die Situation. Das ist doch erstmal nett, klingt irgendwie nützlich. Aber was ist 182 00:13:15,550 --> 00:13:20,890 eigentlich das Problem jetzt? Die Technik, die immer besser wird, und die Daten, 183 00:13:20,890 --> 00:13:23,710 die gesammelt werden, Informationen, die verarbeitet werden und 184 00:13:23,710 --> 00:13:27,620 anhand derer Entscheidungen getroffen werden, die wird immer besser, immer 185 00:13:27,620 --> 00:13:30,290 effizienter nach bestimmten Kriterien, aber sie hilft natürlich den 186 00:13:30,290 --> 00:13:35,530 Organisationen, die sie verwenden, ihre eigenen Interessen besser durchzusetzen. 187 00:13:35,530 --> 00:13:38,911 Technik soll die Welt besser machen, aber nicht für alle, sondern für die, 188 00:13:38,911 --> 00:13:41,750 die sie einsetzen - und zwar für die, die sie im besten Fall selber bauen 189 00:13:41,750 --> 00:13:47,371 können und dann ihren eigenen Vorstellungen gemäß formen. 190 00:13:49,591 --> 00:13:53,680 Und das kann eben auch sein, dass bei dieser Informationsverarbeitung 191 00:13:53,680 --> 00:13:58,180 auch Grundrechte von Personen berührt werden. Die klassische Diskussion ist 192 00:13:58,180 --> 00:14:01,280 immer so Fragen von Diskriminierungen oder Ungerechtigkeiten, 193 00:14:01,280 --> 00:14:06,220 weil die Daten falsch sind oder sowas, so Geschichten. Das heißt, wenn die Ergebnisse, 194 00:14:06,220 --> 00:14:09,030 die da produziert werden - im schlimmsten Falle auch vollautomatisch -, 195 00:14:10,230 --> 00:14:14,725 dass sie Rechte von Menschen berühren und die an der Stelle erst mal, weil sie ja 196 00:14:14,725 --> 00:14:18,260 Gegenstand - der Automat sagt halt: "Du kriegst kein Geld" oder "in diesem Monat 197 00:14:18,260 --> 00:14:23,410 ist alles schon aufgebraucht", dagegen kann man jetzt erst mal nichts tun. 198 00:14:24,514 --> 00:14:28,640 Das heißt, da ist sozusagen eine direkte Konsequenz dieser Datenverarbeitung auf 199 00:14:28,640 --> 00:14:32,860 Menschen, auf Menschengruppen oder auf ganze Gesellschaften. Allerdings muss man 200 00:14:32,860 --> 00:14:35,190 auch sagen, diese Datenverarbeitung ist wünschenswert, weil sie uns auch 201 00:14:35,190 --> 00:14:38,810 was bringt. Also es ist nicht so, dass DatenschützerInnen selber am liebsten 202 00:14:38,810 --> 00:14:42,860 zurück in die besagte Höhle wollen, wo das Feuer komplett verständlich ist. 203 00:14:42,860 --> 00:14:45,960 Nein, wir wollen diese informations- technischen Systeme, die uns 204 00:14:45,960 --> 00:14:49,530 das Leben erleichtern, die wollen wir alle haben, aber die Effekte, die negativen, 205 00:14:49,530 --> 00:14:53,490 die es auf Menschen hat und auf Gesellschaften, die wollen wir minimieren. 206 00:14:53,490 --> 00:14:57,090 Und da hilft es natürlich, wenn man mit Technikerinnen und Technikern redet. 207 00:14:57,090 --> 00:14:59,905 Ja klar, man kann Systeme auf verschiedene Arten bauen, man muss halt 208 00:14:59,905 --> 00:15:02,570 nur vorher sagen, was man haben will. 209 00:15:04,590 --> 00:15:07,390 Und jetzt, wenn man die Probleme mal so 210 00:15:07,390 --> 00:15:10,810 konkretisiert, würde man sagen: 1. Datenverarbeitung ist wünschenswert, aber 211 00:15:10,810 --> 00:15:15,000 es gibt innerorganisatorische Datenverarbeitung oder 212 00:15:15,000 --> 00:15:20,080 Informationsverarbeitung, das heißt, ich kann ja selber überlegen, was ich 213 00:15:20,080 --> 00:15:24,360 vielleicht einer Organisation gebe an Daten und was nicht, aber was die dann 214 00:15:24,360 --> 00:15:27,970 intern damit machen, diese Frage, für welchen Zweck sie sie verwenden, wem sie 215 00:15:27,970 --> 00:15:31,684 sie weitergeben und so weiter, das kann ich selber nicht mehr beeinflussen. In dem 216 00:15:31,684 --> 00:15:34,850 Moment sind die Daten außerhalb meiner Hand, sind nicht mehr in meiner 217 00:15:34,850 --> 00:15:40,110 Kontrolle. Und 2. gibt es natürlich die Macht-Asymmetrien. Das heißt, eine Firma, 218 00:15:40,110 --> 00:15:44,740 die Unmengen von Daten über Individuen hat, kann die natürlich analysieren und 219 00:15:44,740 --> 00:15:48,290 daraus Erkenntnisse generieren, die ich aus meinen eigenen Daten gar nicht ziehen 220 00:15:48,290 --> 00:15:54,230 kann. Das heißt also, alleine die schiere Macht, der schierer Datenunterschied, 221 00:15:54,230 --> 00:15:56,941 erzeugt andere Möglichkeiten auf den verschiedenen Seiten, das heißt, die 222 00:15:56,941 --> 00:16:00,580 Player sind alle nicht gleich stark und das hängt auch, insbesondere, wenn wir 223 00:16:00,580 --> 00:16:04,570 über Datenschutz reden, von der Menge an Daten ab, die vorhanden sind. 224 00:16:06,720 --> 00:16:09,700 Das heißt, wie ich es eben beschrieben habe, nun als Zitat nochmal von Adalbert 225 00:16:09,700 --> 00:16:14,160 Podlech: "Informationsvorgänge dürfen keine sozialschädlichen Folgen 226 00:16:14,160 --> 00:16:19,491 herbeiführen." Das ist so die Formulierung. Oder man kann es auch mit 227 00:16:19,491 --> 00:16:23,150 Martin Rost sagen: "Die Handlungsalternativen des, in diesen 228 00:16:23,150 --> 00:16:27,080 Interaktionen Schwächeren, die sollen aufrechterhalten werden." Es soll nicht 229 00:16:27,080 --> 00:16:30,230 irgendwann so sein, dass die Organisationen komplett sagen: "Das ist 230 00:16:30,230 --> 00:16:34,600 das Richtige für dich und deswegen gehst du diesen Weg lang. Und ihr kennt das ja, 231 00:16:34,600 --> 00:16:38,780 wenn in irgendwelchen Softwaren das Menü halt nicht sagt "exportieren", dann geht's 232 00:16:38,780 --> 00:16:44,660 halt nicht. Das heißt also, wenn wir das möchten, muss eben Datenverarbeitung unter 233 00:16:44,660 --> 00:16:48,496 Bedingungen gestellt werden. Man muss sagen, wenn die Gefahr für so eine 234 00:16:48,496 --> 00:16:51,890 Einschränkung von Grundrechten und so weiter besteht, dann müssen wir irgendwie 235 00:16:51,890 --> 00:16:56,110 Bedingungen für die Datenverarbeitung formulieren, dass das minimiert wird oder 236 00:16:56,110 --> 00:16:58,890 dass den Risiken begegnet wird oder dass sie nicht stattfinden, dass man dieses 237 00:16:58,890 --> 00:17:03,190 Thema einfach anders baut, dass sie das nicht tun. Innerhalb sozusagen, 238 00:17:03,190 --> 00:17:08,429 man würde es jetzt als Fachtermini nennen: eine Konditionierung der 239 00:17:08,429 --> 00:17:12,500 Macht-Asymmetrie. Das heißt, Konditionen, also die Bedingung oder Voraussetzung 240 00:17:12,500 --> 00:17:16,310 stellen, unter denen dann diese Datenverarbeitung stattfindet. Eben, warum 241 00:17:16,310 --> 00:17:20,050 muss es jetzt irgendwie konditioniert werden? Weil ich als Außenstehender 242 00:17:20,050 --> 00:17:23,800 natürlich nicht die Computersysteme von Amazon und wie sie alle heißen, ich kann 243 00:17:23,800 --> 00:17:27,440 die ja nicht umprogrammieren, ich kann halt die Knöpfe verwenden, die sie mir 244 00:17:27,440 --> 00:17:31,080 geben. Nichts Anderes. Oder ich kann sagen, ich benutze das alles nicht, aber 245 00:17:31,080 --> 00:17:35,960 das ist ne, so auf dieser schwarz-weiß Ebene sind wir ja nicht, von der 246 00:17:35,960 --> 00:17:39,620 Diskussion. Okay. Und die Frage ist immer so, 247 00:17:43,680 --> 00:17:45,250 das Schutzgut dabei ist eben, also 248 00:17:45,250 --> 00:17:49,530 Datenschutz schützt nicht Daten, klar, sondern Individuen, also die 249 00:17:49,530 --> 00:17:52,150 Grundrechte und Grundfreiheiten, wenn man es so formulieren möchte, und die 250 00:17:52,150 --> 00:17:57,370 Gesellschaft insgesamt, aber wenn man sich das so anschaut, finden sich diese 251 00:17:57,370 --> 00:18:00,470 Individuen, Grundrechte und Grundfreiheiten, die finden sich wieder. 252 00:18:00,470 --> 00:18:06,820 Aber diese gesamtgesellschaftlichen Fragen, da muss man sehr stark danach suchen. 253 00:18:06,820 --> 00:18:09,670 Man kann es konstruieren, aber so explizit ist es da nicht drin zu finden, 254 00:18:09,670 --> 00:18:14,500 das hat rechtsdogmatische Gründe. Aber das ist nur wieder eine Erinnerung daran, dass 255 00:18:14,500 --> 00:18:19,154 sich die Fragen des Datenschutzes oder die Antworten des Datenschutzes und des 256 00:18:19,154 --> 00:18:23,160 Datenschutzrechts nicht deckungsgleich sind. Das eine ist immer ein Ergebnis aus 257 00:18:23,160 --> 00:18:28,131 dem anderen, im besten Falle, aber manchmal auch nicht. Man würde auch, um das zu 258 00:18:28,131 --> 00:18:32,610 erklären, warum Datenschutz sagen, na ja, wenn wir uns Märkte angucken, dann gibt's 259 00:18:32,610 --> 00:18:36,770 eben Kartellämter, und die sagen, wenn bestimmte Akteure zu stark werden dann 260 00:18:36,770 --> 00:18:42,000 muss man die begrenzen und die anderen ein bisschen stützen, damit der Markt als Ganzes 261 00:18:42,000 --> 00:18:44,320 funktioniert und genauso kann man sich es auch beim Datenschutz 262 00:18:44,320 --> 00:18:47,060 vorstellen. Wir haben die Informationsgesellschaft und da gibt es 263 00:18:47,060 --> 00:18:50,840 Informationsmacht verschiedener Akteure. Da brauchen wir irgendwas, in dem Fall 264 00:18:50,840 --> 00:18:57,080 zum Beispiel Datenschutzrecht, die diesen Ausgleich bringt. Nicht das einzelne 265 00:18:57,080 --> 00:19:01,540 Datum zählt, sondern die Anhäufung selber die dann ein Ergebnis produziert. 266 00:19:03,083 --> 00:19:06,430 Ihr kennt bestimmt den Spruch: "Bei Wurst und Gesetzen möchte man nicht dabei sein wenn 267 00:19:06,430 --> 00:19:11,180 sie gemacht werden." Das ist natürlich immer die Frage, was die Datenschutz- 268 00:19:11,180 --> 00:19:16,490 Diskussion bereits seit den 60er, 70er Jahren so produziert hat, ist natürlich, 269 00:19:16,490 --> 00:19:22,860 wenn es dann zu Recht wird, immer Gegenstand von Aushandlung, von politischen 270 00:19:22,860 --> 00:19:26,160 Verhandlungen, "wir nehmen das mit rein und das nicht mit rein" und so weiter. 271 00:19:26,160 --> 00:19:30,380 Deswegen muss man immer aufpassen, dass man die Datenschutz-Diskussion nicht oder 272 00:19:30,380 --> 00:19:33,720 nicht primär als Datenschutzrechts- Diskussion führt, weil man sich dann 273 00:19:33,720 --> 00:19:38,270 sehr eingeengt auf das was einmal durch die Politik gegangen ist. So jetzt kommen 274 00:19:38,270 --> 00:19:43,920 wir mal ein bisschen zu einer Theorie, um die Sachen zusammenzubinden, um sie nochmal 275 00:19:43,920 --> 00:19:48,040 in einen größeren Kontext einzubauen. Wir gucken uns jetzt mal den Informationsfluss an: 276 00:19:48,700 --> 00:19:52,610 Am Anfang jetzt vielleicht ein bisschen verwirrend, aber wir haben hier 277 00:19:52,610 --> 00:19:58,910 links den Informationsfluss von starken Akteuren zu schwachen Akteuren - wir haben 278 00:19:58,910 --> 00:20:03,290 darunter von schwachen Akteuren zu starken Akteuren und darüber die beiden Seiten 279 00:20:03,290 --> 00:20:07,740 sind eben den Informationsfluss zu fördern oder diesen Informationsfluss zu 280 00:20:07,740 --> 00:20:12,930 blockieren. Das heißt, wenn wir uns die erste Zeile anschauen: Wir wollen den 281 00:20:12,930 --> 00:20:16,400 Informationsfluss vom starken zum schwachen Akteur, zum Beispiel von der 282 00:20:16,400 --> 00:20:21,645 Organisation zum Individuum. Das wollen wir fördern, weil der Starke dadurch, dass 283 00:20:21,645 --> 00:20:26,325 er Informationen preisgeben muss - über sich, über seine Verarbeitung und so weiter, 284 00:20:26,325 --> 00:20:30,900 in dieser Informationsasymmetrie, der Machtasymmetrie schwächt. Und weil die 285 00:20:30,900 --> 00:20:34,440 einzelne Person damit Informationen erlangt, was damit passiert, wird die Person 286 00:20:34,440 --> 00:20:39,620 gestärkt. Das nennen wir Transparenz, das nennen wir Informationsfreiheit. Das zu 287 00:20:39,620 --> 00:20:44,570 blockieren, das heißt, dass die großen Organisationen nicht sagen müssen, was sie 288 00:20:44,570 --> 00:20:48,650 gerade damit tun, welche Daten sie haben, das nennt sich Arkanpraxis. Für die 289 00:20:48,650 --> 00:20:54,300 RollenspielerInnen unter euch, Arkan - die Magie, Arkan heißt einfach nur geheim. Es ist 290 00:20:54,300 --> 00:20:58,000 unklar was da was da getan wird. Anders herum ist der Informationsfluss von 291 00:20:58,000 --> 00:21:02,080 schwachen Akteuren zu starken Akteuren. Wenn wir den fördern, dann nennt man das 292 00:21:02,080 --> 00:21:09,540 Verdatung. Ist jetzt nicht der Fachbegriff, aber der, den man auch so kennt. 293 00:21:09,540 --> 00:21:12,630 Also die Verdatung, überall Sensoren, alle möglichen 294 00:21:12,630 --> 00:21:17,291 Handlungen, die im Digitalen stattfinden werden protokolliert und so weiter. Und 295 00:21:17,291 --> 00:21:20,891 wenn man diesen Informationsfluss aber blockiert und den unter Bedingungen stellt 296 00:21:20,891 --> 00:21:27,140 dann sind wir beim Datenschutz. Das ist die Struktur. Wie ihr jetzt erkennt 297 00:21:27,140 --> 00:21:29,910 sozusagen von rechts oben nach links unten. Also Arkanpraxis und Verdatung, 298 00:21:29,910 --> 00:21:34,300 das ist das was wir in totalitären Staaten und so weiter sehen. Und das ist auch das, 299 00:21:34,300 --> 00:21:39,420 was wir sehen wenn wir Diskussionen mit großen kommerziellen Organisationen 300 00:21:39,420 --> 00:21:43,470 führen. Nein, wir wollen nicht erzählen was wir machen, wir wollen aber alles über dich 301 00:21:43,470 --> 00:21:49,530 wissen. Es ist immer die Richtung und die andere Seite, das ist sozusagen die rote 302 00:21:49,530 --> 00:21:53,340 Diagonale ist genau das, was den Starken noch stärker macht und den Schwachen noch 303 00:21:53,340 --> 00:21:58,860 weiter schwächt. Die andere Richtung, die Grüne, ist genau das, was den Starken 304 00:21:58,860 --> 00:22:02,830 schwächt und den Schwachen stärkt. Nämlich Transparenz und Informationsfreiheit 305 00:22:02,830 --> 00:22:07,900 bezüglich der Starken und den Datenschutz bezüglich der Schwachen. An dieser Stelle 306 00:22:07,900 --> 00:22:12,560 ein kleines Dankeschön zum Beispiel an OKF und Frag den Staat und so weiter. Oder 307 00:22:12,560 --> 00:22:15,565 beim Datenschutz andere Organisationen wo ich zum Beispiel auch aktiv bin. Das heißt 308 00:22:15,565 --> 00:22:18,840 man merkt das ist überhaupt gar kein Widerspruch an der Stelle. Die Frage ist 309 00:22:18,840 --> 00:22:22,750 nur wer muss transparent sein und wer soll nichts von sich preisgeben oder so wenig 310 00:22:22,750 --> 00:22:28,660 wie möglich von sich preisgeben. Deswegen erklärt sich auch das Mysterium für manche 311 00:22:28,660 --> 00:22:32,760 warum wir zum Beispiel einen Bundesbeauftragten für den Datenschutz und 312 00:22:32,760 --> 00:22:36,175 die Informationsfreiheit haben, warum das zusammen gehört, genau deswegen gehört das 313 00:22:36,175 --> 00:22:37,530 zusammen. 314 00:22:40,450 --> 00:22:43,900 Warum gibt's aber auch Meinungen für weniger Datenschutz. Na ja klar 315 00:22:43,900 --> 00:22:47,610 Datenschutz kostet Ressourcen: finanziell, personell, konzeptionell. Man muss das 316 00:22:47,610 --> 00:22:51,260 Thema anders planen, anders umbauen und so weiter. Aber auch verhindert der 317 00:22:51,260 --> 00:22:54,280 Datenschutz Informationsnutzung, Das ist der Zweck der Sache, trotzdem ist es 318 00:22:54,280 --> 00:22:57,460 ein Argument. Das heißt, bestimmte Geschäftsmodelle gehen nicht mehr und 319 00:22:57,460 --> 00:23:02,330 so weiter. Für staatliche Aufgaben werden Daten benötigt und wenn die Daten nicht 320 00:23:02,330 --> 00:23:05,870 fließen können, dann werden bestimmte staatlichen Aufgaben schwieriger oder 321 00:23:05,870 --> 00:23:11,760 auch wirtschaftliche Tätigkeiten werden erschwert. Das ist zwar richtig, aber es 322 00:23:11,760 --> 00:23:14,970 ist kein neues Problem wenn man über Gesellschaft nachdenkt. Gleiches gilt 323 00:23:14,970 --> 00:23:16,850 natürlich für Hygieneregeln, Sicherheitsvorschriften, 324 00:23:16,850 --> 00:23:19,960 Kinderarbeitsverbot, Arbeitnehmerrechte, Umweltstandards und so weiter und so fort. 325 00:23:19,960 --> 00:23:25,310 Die kosten auch alle, aber wir haben uns entschieden: Das sind alles Maßnahmen, wo 326 00:23:25,310 --> 00:23:30,690 es darum geht die Schwächeren, die sich schlechter wehren können, die vielleicht 327 00:23:30,690 --> 00:23:35,560 auch nicht das Wissen haben, irgendwie davor zu schützen, dass da jemand 328 00:23:35,560 --> 00:23:39,865 durchagiert und die eigenen Interessen schamlos durchsetzt. 329 00:23:42,845 --> 00:23:44,170 Wem's aufgefallen ist, 330 00:23:44,170 --> 00:23:48,670 ich hab jetzt noch nicht einmal den Begriff Privatsphäre verwendet. Und das 331 00:23:48,670 --> 00:23:55,307 ist ganz bewusst genau der Punkt. Weil Privatsphäre ist immer so eine Idee: Ich 332 00:23:55,307 --> 00:23:59,947 alleine in meinem Schlafzimmer. Der Soziologe Paul Müller nennt das: 333 00:23:59,947 --> 00:24:03,610 "Schneckenhaus-Privatsphäre". Seiner Ansicht nach ist das nur in 334 00:24:03,610 --> 00:24:06,940 vorindustriellen Lebensweisen möglich, wo man tatsächlich sagte: Ich lebe auf dem 335 00:24:06,940 --> 00:24:10,461 Gut hier, und die Leute ein paar Kilometer weiter, die kennen mich noch 336 00:24:10,461 --> 00:24:14,690 nicht einmal. Vielleicht ist das sozusagen diese Art von Anonymität, vielleicht 337 00:24:14,690 --> 00:24:19,840 könnte man da nennen. Aber jetzt tatsächlich, was wir eigentlich wollen, 338 00:24:19,840 --> 00:24:24,710 ist, wenn man sagt, wir brauchen irgendwie Girokonten und so weiter all diese Sachen. 339 00:24:24,710 --> 00:24:27,550 Es geht nicht darum, dass niemand Daten hat, sondern dass die Begrenztheit des 340 00:24:27,550 --> 00:24:31,710 Wissens über Individuen aufrechterhalten wird. Dass es nirgendwo eine Komplett- 341 00:24:31,710 --> 00:24:37,510 Ansicht gibt oder dass bestimmte Akteure immer nur genau das wissen, was sie 342 00:24:37,510 --> 00:24:39,980 eigentlich wissen sollten und man kann natürlich diskutieren wie viel das denn 343 00:24:39,980 --> 00:24:47,230 sein soll. Wilhelm Steinmüller, einer der Ur-Ur-Urgestein Müller, könnte man sagen, 344 00:24:47,230 --> 00:24:50,960 des Datenschutzdiskurses formulierte das so: "Es geht nicht um Privatsphäre, es 345 00:24:50,960 --> 00:24:55,080 geht darum, eine Technik sozial beherrschbar zu machen." Und welche 346 00:24:55,080 --> 00:24:58,310 Grundrechte werden berührt von dieser Datenverarbeitung? Nicht nur Grundrechte 347 00:24:58,310 --> 00:25:01,830 auf Privatleben, was zum Beispiel Artikel 7 der Europäischen Grundrechtecharta ist, 348 00:25:01,830 --> 00:25:06,440 sondern eigentlich quasi alle. Wenn ihr dran überlegt, so was wie Meinungsfreiheit 349 00:25:06,440 --> 00:25:10,940 Informationsfreiheit, so Fragen wie Demonstrationsfreiheit, Würde 350 00:25:10,940 --> 00:25:14,600 des Menschen, das könnte man alles durchbuchstabieren. Eigentlich könnte man 351 00:25:14,600 --> 00:25:17,710 sagen: Der Datenschutz ist so eine Art digitale Dimension aller 352 00:25:17,710 --> 00:25:21,820 Grundrechte. Und das jetzt auf Privatsphäre zu reduzieren, da 353 00:25:21,820 --> 00:25:25,490 ist was Richtiges dran, aber es verengt den Blick doch radikal, worum es 354 00:25:25,490 --> 00:25:26,717 eigentlich geht. 355 00:25:28,057 --> 00:25:30,086 So, wie gehen wir damit jetzt irgendwie um? 356 00:25:31,926 --> 00:25:33,120 Operationalisierung: 357 00:25:33,120 --> 00:25:36,400 Wie können wir diese Ideen mit stark und schwach, wie können wir da irgendwie 358 00:25:36,400 --> 00:25:41,120 Anforderungen daraus bauen? Wie können wir da Dimensionen daraus kristallisieren? Das 359 00:25:41,120 --> 00:25:47,330 haben diverse Menschen getan und sind zu einem Ergebnis gekommen, zu sagen, wenn es 360 00:25:47,330 --> 00:25:52,790 um Datenschutz geht, dann müssen informationsverarbeitende Systeme 361 00:25:52,790 --> 00:25:56,970 bestimmte Schutzziele verfolgen. Und die Schutzziele sind Nichtverkettbarkeit, 362 00:25:56,970 --> 00:26:01,710 Vertraulichkeit, Intervenierbarkeit, Transparenz, Verfügbarkeit und Integrität. 363 00:26:01,710 --> 00:26:06,230 Das ist sozusagen: Diese Ziele, auf diese Ziele hin kann man alle technischen Geräte 364 00:26:06,230 --> 00:26:09,437 oder alle technischen Systeme oder informationstechnischen Systeme hin 365 00:26:09,437 --> 00:26:13,730 analysieren und kann sehen, inwiefern sie diese Ziele umsetzen. Weil diese Ziele 366 00:26:13,730 --> 00:26:17,591 genau die Werte, die wir eben besprochen haben, realisieren, kann man die 367 00:26:17,591 --> 00:26:23,590 analysieren. Nichtverkettbarkeit heißt, bestimmte Informationen, die erhoben worden 368 00:26:23,590 --> 00:26:27,130 sind für verschiedenste Zwecke, die eben nicht zu verbinden, Informationen nicht 369 00:26:27,130 --> 00:26:30,420 einfach so irgendwo kaufen zu können. Wir reden jetzt über Datenschutz, nicht 370 00:26:30,420 --> 00:26:35,130 Datenschutzrecht. Nicht einfach so kaufen zu können und die zu verbinden, 371 00:26:36,660 --> 00:26:41,150 zum Beispiel nicht Daten zu erheben, die für den eigentlichen Geschäftszweck oder 372 00:26:41,150 --> 00:26:45,110 eigentliche Handlungen gar nicht notwendig sind, das zu beschränken an der Stelle. 373 00:26:45,110 --> 00:26:49,440 Integrität, die Unversehrtheit der Daten, das heißt, dass sie nicht verändert 374 00:26:49,440 --> 00:26:54,360 werden, dass ich mich darauf verlassen kann, die Daten, die ich übermittle oder 375 00:26:54,360 --> 00:26:59,540 die erhoben werden, dass sie tatsächlich so bleiben und an der Stelle zum Beispiel 376 00:26:59,540 --> 00:27:04,780 korrekt bleiben. Verfügbarkeit heißt an der Stelle, dass ich die Systeme eben 377 00:27:04,780 --> 00:27:08,960 nutzen kann. Wenn ich mich darauf verlasse dass ich diese Routenplanung habe und die 378 00:27:08,960 --> 00:27:14,340 wollen von mir irgendwie Geld haben dafür, dass ich das nutzen kann usw., dann will 379 00:27:14,340 --> 00:27:17,261 ich natürlich auch, dass es funktioniert. Weil ansonsten ist es ja ein schlechter 380 00:27:17,261 --> 00:27:22,790 Handel. Transparenz bezieht sich darauf, nicht nur welche Daten vorliegen, sondern 381 00:27:22,790 --> 00:27:25,690 auch wie funktionieren eigentlich die Prozesse? Was sind denn die Zwecke der 382 00:27:25,690 --> 00:27:29,459 Verarbeitung? Wie funktioniert denn die ganze Innerei? Was passiert da? Was sind 383 00:27:29,459 --> 00:27:32,800 eigentlich die Nebenkonsequenzen? Es gibt ja einmal die intendierten Resultate und 384 00:27:32,800 --> 00:27:37,030 Konsequenzen und dann gibt es eben auch die Unintendierten. Und genau das muss 385 00:27:37,030 --> 00:27:39,849 irgendwie für mich einsehbar sein. 386 00:27:40,525 --> 00:27:43,080 Intervenierbarkeit ist ein Schutzziel, das 387 00:27:43,080 --> 00:27:47,679 sagt eben: Na ja, also wenn Daten eben nicht korrekt sind und das System rechnet 388 00:27:47,679 --> 00:27:50,991 weiter, egal ob es meine Kredite sind oder ob ich jetzt irgendwie einen Tisch bekomme 389 00:27:50,991 --> 00:27:56,540 oder ob ich ein Haus bekomme oder so. Es muss natürlich auch möglich sein, dass 390 00:27:56,540 --> 00:28:00,330 dieses System, wenn man Fehler in dem System erkennt, zu sagen: Stopp, ich 391 00:28:00,330 --> 00:28:03,510 möchte, dass sich das ändert. Ich möchte, dass die Daten zum Beispiel berichtigt 392 00:28:03,510 --> 00:28:06,920 werden oder aber ich möchte, wenn ich feststelle, dass dieses System 393 00:28:06,920 --> 00:28:10,651 diskriminierend ist. Ich möchte, dass das System so gebaut ist, dass ich irgendwas tun kann als 394 00:28:10,651 --> 00:28:14,540 Betroffener, dass das aufhört. Es reicht ja nicht zu sagen: Ja, also, wir sind 395 00:28:14,540 --> 00:28:18,155 total transparent. Aber dadurch, dass wir die Stärkeren sind, kannst du einfach 396 00:28:18,155 --> 00:28:23,460 nichts tun. Man muss ja irgendwo sozusagen den Notausschalter ist jetzt übertrieben, 397 00:28:23,460 --> 00:28:24,942 natürlich. 398 00:28:25,676 --> 00:28:28,212 Und als letzten Punkt, die Vertraulichkeit. Das heißt, die 399 00:28:28,212 --> 00:28:31,592 Informationen, die ich denen, die da für mich irgendwie Service anbieten, die ich 400 00:28:31,592 --> 00:28:35,200 gebe, da möchte ich auch sichergehen, dass sie nirgendwo anders hingehen, dass die 401 00:28:35,200 --> 00:28:38,830 genau da bleiben und genau dafür verwendet werden. Aber Vertraulichkeit ist, dass sie 402 00:28:38,830 --> 00:28:44,170 genau da nur bleiben und niemand Unbefugtes darauf Zugriff hat. Jetzt kann 403 00:28:44,170 --> 00:28:49,144 man sagen: Na, interessant, Nichtverkettbarkeit, Transparenz und 404 00:28:49,144 --> 00:28:54,300 Intervenierbarkeit, da sagt man so, das hat den Primat des Datenschutzes und die 405 00:28:54,300 --> 00:28:57,340 Aufmerksamen unter euch merken: Ach, interessant die anderen drei, das ist das 406 00:28:57,340 --> 00:29:02,190 Primat der Datensicherheit. Das heißt, wenn man aus dieser Sicht auf Datenschutz 407 00:29:02,190 --> 00:29:07,200 blickt, erkennt man das, dass nicht Datenschutz so ein Unterteil von 408 00:29:07,200 --> 00:29:11,162 Datensicherheit ist, sondern aus dieser Sicht genau andersrum. Wir erinnern uns, 409 00:29:11,162 --> 00:29:15,090 am Anfang, Datensicherheit, da ging es darum: Wie können denn die Daten, die da 410 00:29:15,090 --> 00:29:18,309 sind ordentlich abgesichert werden und gegen die Hacker und Angriffsszenarien und 411 00:29:18,309 --> 00:29:21,570 so weiter. Ja klar, aber der Datenschutz fragt: Ja, sollten diese Daten denn 412 00:29:21,570 --> 00:29:28,824 überhaupt da sein? Man könnte sich so ein Zwiegespräch vorstellen, wo die 413 00:29:28,824 --> 00:29:32,020 Datenschützerin sagt: Na ja, aber das Datum ist nicht korrekt, was da 414 00:29:32,020 --> 00:29:35,640 gespeichert ist. Und die IT- Sicherheitsabteilung: Ja ja aber das ist 415 00:29:35,640 --> 00:29:40,470 richtig gut beschützt. Da merkt man, das ist ein Konflikt, das ist nicht das 416 00:29:40,470 --> 00:29:45,810 Gleiche. Genau, das sind so die Schutzziele und die kann man tatsächlich 417 00:29:45,810 --> 00:29:51,160 verwenden. Und es ist auch nicht parallel, sondern diese Schutzziele kann man sehen, 418 00:29:51,160 --> 00:29:56,050 das ist ein Beitrag von 2013 schon, dass diese Schutzziele des Datenschutzes 419 00:29:56,050 --> 00:30:00,046 tatsächlich auch mit dem Recht, was gesprochen worden ist, vereinbar sind. Das 420 00:30:00,046 --> 00:30:02,390 heißt, es ist nicht komplett alles umgesetzt, aber es ist eben auch kein 421 00:30:02,390 --> 00:30:05,610 Widerspruch. Wir erinnern uns hier wieder, Datenschutz und Datenschutzrecht ist eben 422 00:30:05,610 --> 00:30:07,225 nicht das Gleiche. 423 00:30:08,565 --> 00:30:14,360 Okay, das war jetzt so der Durchritt erstmal für die Grundlagen 424 00:30:14,360 --> 00:30:17,729 an der Stelle und jetzt kommen wir zu den Nicht-Lösungen. Das sind quasi so ein paar 425 00:30:17,729 --> 00:30:21,249 Kommentare, die ich mir jetzt so noch erlaube. 426 00:30:23,004 --> 00:30:24,624 Okay, also erstmals: Der 427 00:30:24,624 --> 00:30:28,830 Selbstdatenschutz, ganz beliebt insbesondere in Verbindung mit der 428 00:30:28,830 --> 00:30:32,930 Blockchain. Okay, das spare ich mir jetzt. Also wenn das Datenschutz-Konzept ernst 429 00:30:32,930 --> 00:30:37,710 genommen werden soll: Wir überlegen uns, schwache, starke Akteure, Möglichkeiten 430 00:30:37,710 --> 00:30:41,915 transparent, und so weiter. Wie soll denn Selbstdatenschutz da aussehen? 431 00:30:43,990 --> 00:30:48,440 Wie kann mein Selbstdatenschutz aussehen, wenn ich eine innerorganisationale 432 00:30:48,440 --> 00:30:52,121 Datenverarbeitung habe? Wie kann ich denn bei Facebook selbst Datenschutz machen? 433 00:30:52,121 --> 00:30:55,560 Also außer, wenn ich da bewaffnet reingehe, aber das ist jetzt nicht 434 00:30:55,560 --> 00:31:01,656 wirklich eine skalierende Lösung, neben den ganzen anderen Problemen. 435 00:31:04,130 --> 00:31:07,245 Bin gegen Gewalt übrigens. 436 00:31:08,690 --> 00:31:12,060 Oder die Erinnerung: Warum haben wir Datenschutz? Datenschutz haben 437 00:31:12,060 --> 00:31:15,950 wir eben nicht weil es eine Rechts-Vor-Links-Regel ist im Straßenverkehr, wo die beiden 438 00:31:15,950 --> 00:31:18,570 gleich stark sind. Nein, wir haben Datenschutz genau deswegen, weil sie eben 439 00:31:18,570 --> 00:31:22,295 nicht gleich stark sind. Da jetzt den Schwachen zu sagen: Du kannst doch selbst 440 00:31:22,295 --> 00:31:26,000 Datenschutz machen. Wenn man wirklich verstanden hat, wie Datenschutz 441 00:31:26,000 --> 00:31:30,020 funktioniert, ist es zynisch, das vorzuschlagen. Das ist genau dem 442 00:31:30,020 --> 00:31:36,233 Verprügelten zu sagen: Ja, du musst dich ja nur wehren. Es gibt überhaupt keinen Sinn. 443 00:31:36,863 --> 00:31:40,080 Da kann man sich ja vorstellen, in den Situationen, wann braucht man oder 444 00:31:40,080 --> 00:31:44,690 wann ist Datenschutz genau notwendig wenn es um Kredit- oder Grenz- oder Einkaufs- 445 00:31:44,690 --> 00:31:47,960 oder Durchsuchungssituationen geht? Polizeiliche Identitätsfeststellung oder 446 00:31:47,960 --> 00:31:51,760 an der Grenze: Geben sie Daten raus und so weiter oder nicht. Das sind genau die 447 00:31:51,760 --> 00:31:54,940 Fälle, da kann man sich überlegen, wie man irgendwie Flüchtenden an der Grenze sagt: 448 00:31:54,940 --> 00:31:57,290 Na ja, du kannst ja Selbstdatenschutz machen, du musst dein Handy nicht 449 00:31:57,290 --> 00:32:01,110 rausrücken. Das ist ein Riesenproblem. Genau darum gehts. Starke und schwache 450 00:32:01,110 --> 00:32:06,777 Akteure, das irgendwie anzugreifen und eben nicht zu sagen: Ja, mach doch selber. 451 00:32:08,330 --> 00:32:14,700 Und das heißt, da muss man dann auch sagen, danke eben auch an Jörg Pohle für 452 00:32:14,700 --> 00:32:19,003 diesen Hinweis, Facebook hat gar keine Datenschutzeinstellungen. Facebook hat 453 00:32:19,003 --> 00:32:26,750 Einstellungen. Facebook, ich sage jetzt mal $SocialNetwork, da gibt's 454 00:32:26,750 --> 00:32:30,910 Einstellungen, welche anderen User Daten sehen, und welche anderen User da 455 00:32:30,910 --> 00:32:33,511 irgendwie interagieren können. Es gibt aber keine Einstellungen, was Facebook 456 00:32:33,511 --> 00:32:39,920 damit macht. Man kann da manchmal so ein bisschen dran rum regeln, aber die 457 00:32:39,920 --> 00:32:42,760 Einstellung, wie lange Facebook irgendwelche Sachen speichern soll oder 458 00:32:42,760 --> 00:32:47,600 nicht, die gibt's eben nicht oder welche Verknüpfungen es da geben soll. 459 00:32:49,590 --> 00:32:54,670 Wenn man Datenschutz quasi ernst nimmt, ist das so ein Punkt. Und natürlich, das ist ja auch 460 00:32:54,670 --> 00:32:56,809 irgendwie bei Mobiltelefonen und so weiter, da gibts dann immer 461 00:32:56,809 --> 00:33:00,040 Datenschutzeinstellungen. Es fühlt sich irgendwie so gut an, aber das ist gar 462 00:33:00,040 --> 00:33:04,370 nicht Datenschutz, was es da ist. Wenn irgendwie bei bestimmten Mobiltelefonen 463 00:33:04,370 --> 00:33:07,340 von Google da steht, da halt Datenschutz: Wollen Sie ein Backup machen? Ja, das ist 464 00:33:07,340 --> 00:33:10,720 aber Datensicherheit, das ist nicht Datenschutz. Also es ist was anderes. 465 00:33:11,280 --> 00:33:15,030 Okay, dann gucken wir uns mal Dateneigentum oder Datensouveränität an. 466 00:33:15,030 --> 00:33:21,199 Naja, ein Eigentum, also erstmal Begriffskritik: Eigentum selber, das 467 00:33:21,199 --> 00:33:27,410 Konzept Eigentum ist ein Exklusivrecht auf Sachen. Das heißt also, Eigentum: Entweder 468 00:33:27,410 --> 00:33:31,740 ich habe eine bewegliche Sache, ein Auto, ein Fahrrad oder sonst was oder 469 00:33:31,740 --> 00:33:35,920 unbewegliche Sachen wie Immobilien. Dann heißt das, ich kann darüber exklusiv 470 00:33:35,920 --> 00:33:41,187 verfügen. Und genau darauf ist die gesamte Rechtsordnung auch ausgelegt. Wenn ich 471 00:33:41,187 --> 00:33:45,224 sage Daten sind Eigentum, dann merkt man schon an dem Konzept: Okay, wenn es 472 00:33:45,224 --> 00:33:48,200 Eigentum ist, dann kann es auch gestohlen werden. Da kann man sich überlegen. 473 00:33:48,200 --> 00:33:52,580 Datendiebstahl, sind die Daten jetzt weg? Nee, sie sind ja noch da. Okay, was ist 474 00:33:52,580 --> 00:33:55,190 denn jetzt das Problem? Das Problem bei Diebstahl ist ja nicht, dass man danach 475 00:33:55,190 --> 00:33:57,000 zwei Fahrräder hat, sondern, dass man keins mehr hat. 476 00:33:57,000 --> 00:33:58,890 Vereinzeltes Lachen 477 00:33:58,890 --> 00:34:00,780 Also, es ist eine Frage wie groß 478 00:34:00,780 --> 00:34:06,180 der eigene Keller ist. Aber ihr merkt an der Stelle, das ist schon vom Konzept her 479 00:34:06,180 --> 00:34:10,169 merkwürdig. Aber der nächste Punkt ist: Okay, Dateneigentum, dann haben wir das 480 00:34:10,169 --> 00:34:13,419 alles, und unser Dateneigentum und wir können natürlich unsere Daten dann eben 481 00:34:13,419 --> 00:34:17,890 verkaufen und kriegen auch davon was ab, von dem schönen Kuchen. Jetzt kann man 482 00:34:17,890 --> 00:34:20,882 natürlich gleich eine große Diskussion anzureißen, ich will da 483 00:34:20,882 --> 00:34:26,550 nicht einsteigen. Ist es tatsächlich die 3 Euro pro Monat an alle Facebook-Userinnen 484 00:34:26,550 --> 00:34:33,889 und -User wert, dafür Wahlmanipulationen ganzer Gesellschaften und Diskriminierung 485 00:34:33,889 --> 00:34:38,369 an unserer Gesellschaft zu ermöglichen? Was ist denn das für ein komischer Handel 486 00:34:38,369 --> 00:34:43,480 an der Stelle? Man merkt da, da haut was nicht hin und mehr ist es ja nicht. Dieses 487 00:34:43,480 --> 00:34:47,419 Geld entsteht dadurch, dass es so viele User gibt, weil es so super gut skaliert. 488 00:34:47,979 --> 00:34:51,170 Das heißt, die einzelne Person hätte genau von diesen 3 und meintewegen mögen es auch 489 00:34:51,170 --> 00:34:54,619 30 Euro sein tatsächlich in diesem Vergleich gar nichts. Also offensichtlich 490 00:34:54,619 --> 00:34:57,279 haben wir hier ein größeres Problem. 491 00:34:58,189 --> 00:35:00,348 Man könnte auch wieder sagen: "Ach 492 00:35:00,348 --> 00:35:02,720 interessant, Dateneigentum, das unterstützt wieder nur die starken 493 00:35:02,720 --> 00:35:08,640 Akteure, die werden bevorzugt". Tatsächlich ist es wieder ein Freikaufen, 494 00:35:08,640 --> 00:35:14,470 wenn man sagt, ich hab nicht die Notwendigkeit meine Daten zu verkaufen, 495 00:35:14,470 --> 00:35:17,570 ich kann die bei mir behalten. Dateneigentum ist doch schön, jeder ist 496 00:35:17,570 --> 00:35:21,330 selbst irgendwie verantwortlich, die Souveränität des Einzelnen oder der 497 00:35:21,330 --> 00:35:25,100 einzelnen Person. Aber wie gesagt, das ist freikaufen: Wenn ich das Geld habe dann 498 00:35:25,100 --> 00:35:33,696 bin ich drauf nicht angewiesen, ansonsten musste ich mich quasi ausliefern an der 499 00:35:33,696 --> 00:35:38,403 Stelle. Klassisches Beispiel bei der Autodatenübermittlung, wenn ich mich recht 500 00:35:38,403 --> 00:35:46,010 erinnere, bei Mercedes ab irgendeiner Klasse gehen dann keine Daten mehr raus, 501 00:35:46,010 --> 00:35:49,840 weiter oben. Weil klar ist: Die Käuferinnen und Käufer weiter oben, die 502 00:35:49,840 --> 00:35:54,065 mögen es gerne wenn die Daten - was im Auto passiert bleibt auch im Auto. 503 00:35:54,065 --> 00:35:58,530 So, aber darunter halt nicht. Oder man kann sich auch überlegen an der Stelle: Smart- 504 00:35:58,530 --> 00:36:03,120 TV-Daten, inwiefern da so eine Datensouveränität vorherrscht, wenn man 505 00:36:03,120 --> 00:36:06,010 irgendwie einem alleinerziehenden Elternteil sagt: "Ja, du bist total 506 00:36:06,010 --> 00:36:10,540 datensouverän, du kaufst dir hier einen Fernseher irgendwie für 500 Euro, oder 507 00:36:10,540 --> 00:36:14,790 250, wenn du alle Daten rausleitest. Kann man sich ja überlegen, wie datensouverän 508 00:36:14,790 --> 00:36:19,450 dann eine Person agiert. Nächste Frage: Wenn Daten Eigentum sind, wem gehören denn 509 00:36:19,450 --> 00:36:22,820 Kommunikationsdaten oder Bilddaten, wo mehrere Leute dran beteiligt sind, und so 510 00:36:22,820 --> 00:36:28,000 weiter? Hinten und vorne Probleme, Probleme. Das ist so ein bisschen unklar, 511 00:36:28,000 --> 00:36:31,470 welches Problem da wie gelöst wird. Es ist natürlich wieder die Abwälzung auf die 512 00:36:31,470 --> 00:36:37,207 einzelne Person. Man könnte auch genauso sagen, "Hygienesouveränität" könnte man ja 513 00:36:37,207 --> 00:36:40,290 auch sagen. Man geht halt irgendwie in eine Küche und wir haben halt keine 514 00:36:40,290 --> 00:36:43,130 Hygieneregeln, du kennst dich doch bestimmt aus, gehst dann erst einmal 515 00:36:43,130 --> 00:36:46,770 irgendwie hinten rein, ob die Küche dir sauber genug ist oder nicht. Du weißt gar 516 00:36:46,770 --> 00:36:50,890 nicht, wonach du gucken sollst? Naja, Pech gehabt. Das ist die Art von Souveränität, 517 00:36:50,890 --> 00:36:56,100 die da proklamiert wird bei Dateneigentum und Datensouveränität. Das ist genau 518 00:36:56,100 --> 00:36:58,510 wieder die Souveränität des Stärkeren. 519 00:36:59,380 --> 00:37:02,660 Okay, dann kommen wir noch, als Punkt, 520 00:37:02,660 --> 00:37:07,920 verbunden mit der Datensouveränität: Ich habe es dann mal Einwilligungsfetisch 521 00:37:07,920 --> 00:37:12,520 genannt. Das ist immer so ein Rückgriff auf das Grundrecht auf informationelle 522 00:37:12,520 --> 00:37:16,910 Selbstbestimmung, was ich total großartig finde, aber es reicht eben nicht aus. 523 00:37:16,910 --> 00:37:21,050 Warum reicht das nicht aus? Naja, Einwilligung heißt, alle mögliche 524 00:37:21,050 --> 00:37:28,290 Datenverarbeitung, da werde ich vorher gefragt, ob sozusagen meine Daten 525 00:37:28,290 --> 00:37:31,320 verarbeitet werden dürfen für bestimmte Zwecke, und jetzt ist die Frage: Was ist 526 00:37:31,320 --> 00:37:35,010 denn das Problem an so einer Einwilligungsfrage? Erstens, da gibt es 527 00:37:35,010 --> 00:37:38,010 zwei Möglichkeiten: Entweder es gibt eine Informationsasymmetrie oder eine 528 00:37:38,010 --> 00:37:42,710 Machtasymmetrie, wo man das Problem sieht. Informationsasymmetrie heißt: Ich habe da 529 00:37:42,710 --> 00:37:48,191 eine Einwilligung, die ich geben muss, und ich habe daneben 150 Seiten AGB, die ich 530 00:37:48,191 --> 00:37:51,600 jetzt lesen muss, um dann irgendwie ordentlich einzuwilligen. Da sagen 531 00:37:51,600 --> 00:37:55,490 natürliche Organisationen, insbesondere Konzerne: "Ja, ist doch super, und leider 532 00:37:55,490 --> 00:37:59,100 auch in der DSGVO, dann machen wir irgendwelche Symbole, die das anzeigen, wo 533 00:37:59,100 --> 00:38:04,350 es dann einfacher ist für die Personen, das irgendwie lesen zu können und das 534 00:38:04,350 --> 00:38:07,150 verstehen zu können. Dann können wir vielleicht einfache Sprache machen, und, 535 00:38:07,150 --> 00:38:11,990 im Endeffekt, wir versuchen es ganz ganz ganz ganz dolle, und wenn alle 536 00:38:11,990 --> 00:38:15,080 Organisationen des Planeten es ganz dolle versuchen und die Leute es immer noch 537 00:38:15,080 --> 00:38:19,980 nicht verstehen, dann sind die Leute... also jedenfalls, wir haben uns ganz doll 538 00:38:19,980 --> 00:38:27,050 bemüht. Das heißt, dass der Druck, oder der Handlungsdruck, wenn man das Problem 539 00:38:27,050 --> 00:38:32,260 der Informationsasymmetrie sieht, liegt wieder bei der einzelnen Person. Die trägt 540 00:38:32,260 --> 00:38:37,070 wieder die Last des "Sich-Ordentlich- Informieren-Müssens". Wenn man allerdings 541 00:38:37,070 --> 00:38:41,500 sagt "Naja, das ist eine Machtasymmetrie", was ich vorhin gesagt habe bei der 542 00:38:41,500 --> 00:38:46,629 Datensouveränität, wann kann man zustimmen, wie sind eigentlich die, 543 00:38:47,994 --> 00:38:49,096 was ich gesagt habe 544 00:38:49,096 --> 00:38:55,940 Netzwerkeffekte? Welche Probleme entstehen denn da auch für andere Menschen, wenn ich 545 00:38:55,940 --> 00:39:00,480 sage, ich habe die Google AGB für Google Mail verstanden und ich habe den 546 00:39:00,480 --> 00:39:03,980 zugestimmt, dann habe ich natürlich auch für alle anderen, die mir jemals danach 547 00:39:03,980 --> 00:39:08,300 eine Mail schreiben wollen auch noch mit zugestimmt. Das heißt, es ist gar kein 548 00:39:08,300 --> 00:39:12,570 Informationsproblem, das ich nicht verstanden hätte, was irgendwie in den AGB 549 00:39:12,570 --> 00:39:16,520 drin stand, sondern das liegt in der Natur der Sache der Vernetzung, dass ich das für 550 00:39:16,520 --> 00:39:21,590 alle anderen mit entschieden habe. Oder aber wenn es halt beim Elternabend heißt 551 00:39:21,590 --> 00:39:24,490 "Unsere Facebook-Gruppe hat sich das und das gedacht", und dann hat eine Person 552 00:39:24,490 --> 00:39:28,790 kein Facebook , oder so weiter. So ganz viele Fragen, soziale Rahmenbedingungen, 553 00:39:28,790 --> 00:39:34,480 genauso finanzielle Abhängigkeiten. Man kann ja eben sagen, ja diesen Dienst, bei 554 00:39:34,480 --> 00:39:38,570 der Souveränitätsfrage, ja, "du kannst ja gerne diesen Service, du kannst ja 555 00:39:38,570 --> 00:39:43,335 einwilligen oder aber es kostet was und dann nehmen wir weniger Daten". Man merkt, 556 00:39:43,335 --> 00:39:48,450 wenn man es auf diese Machtasymmetrie stellt, auf einmal ist es nicht so einfach 557 00:39:48,450 --> 00:39:52,930 nur unsere AGB besser schreiben, sondern eigentlich brauchen wir harte obere 558 00:39:52,930 --> 00:39:58,050 Schranken, das heißt, aka. Regulierung, das heißt bestimmte Informationsnutzung darf 559 00:39:58,050 --> 00:40:04,760 einfach nicht möglich sein. Wie gesagt, wir haben es aktuell mit der Manipulation 560 00:40:04,760 --> 00:40:09,060 ganzer Gesellschaften zu tun, auch Gewaltverbrechen die aufgrund von, und so 561 00:40:09,060 --> 00:40:13,090 weiter. Irgendwo muss man da fragen, offensichtlich liegt's nicht daran, dass da 562 00:40:13,090 --> 00:40:20,290 irgendwie die AGB nicht gut lesbar sind. Ok, dann, Zielgerade, langsam die 563 00:40:20,290 --> 00:40:24,640 Algorithmenethik, nur kurz angeschnitten. Ich bin ja noch länger hier. 564 00:40:24,640 --> 00:40:28,869 Algorithmenethik, ja, das ist so eine Mischung, Algorithmen, die ethisch sein 565 00:40:28,869 --> 00:40:32,321 können oder nicht ethisch sein können. Also erstmals, Algorithmen sind selber ja 566 00:40:32,321 --> 00:40:37,760 keine Akteure. Organisationen sind Akteure und die wenden Algorithmen an. Das heißt 567 00:40:37,760 --> 00:40:41,490 man kann natürlich genauso bei 'ner Algorithmenethik fragen, was ist denn die 568 00:40:41,490 --> 00:40:47,530 Zementethik? Wie verwendet man Zement? Die Frage muss man dann überall stellen, weil 569 00:40:47,530 --> 00:40:50,680 die Akteure natürlich genau wissen, welche Algorithmen sie verwenden und welche 570 00:40:50,680 --> 00:40:55,470 nicht. Sie haben nämlich Zwecke, wenn das, was Ihre Interessen sind, davon unterstützt 571 00:40:55,470 --> 00:40:59,200 wird, dann werden sie eingesetzt, und deswegen macht man ein A/B-Testing, wenn 572 00:40:59,200 --> 00:41:02,980 es die Zwecke nicht unterstützt, wird etwas anderes verwendet. Und wenn man dann 573 00:41:02,980 --> 00:41:05,781 sagt, na ja, das ist doch eine ethische Frage, naja das ist nicht wirklich eine 574 00:41:05,781 --> 00:41:08,790 ethische Frage, es ist eine Verantwortungsfrage, na klar, aber Ethik 575 00:41:08,790 --> 00:41:14,849 ist nicht das ganz Richtige. Wenn man sagt, ja, aber so Algorithmen, die sind 576 00:41:14,849 --> 00:41:17,860 alle so kompliziert, und wir verstehen es vielleicht gar nicht mehr, bei irgendwie 577 00:41:17,860 --> 00:41:21,760 künstlicher Intelligenz und so weiter, kann man sich ja überlegen, wie es beim 578 00:41:21,760 --> 00:41:27,470 Hundeverhalten ist. Die Hundehalterin oder Hundehalter steht natürlich dafür gerade, 579 00:41:27,470 --> 00:41:31,800 was der Hund tut, egal, ob der jetzt, aus welchen Gründen das getan worden ist. 580 00:41:31,800 --> 00:41:38,150 Irgendwer muss es ja, bei irgendwem muss ja die Verantwortung sozusagen liegen. Und 581 00:41:38,150 --> 00:41:42,550 die Algorithmen setzen also keine Zwecke, sondern sie sind Mittel, um Zwecke 582 00:41:42,550 --> 00:41:45,490 umzusetzen, das heißt wenn man überhaupt über irgendwas spricht, dann muss man 583 00:41:45,490 --> 00:41:48,859 irgendwie über Unternehmensethik reden, und wie erfolgreich sowas ist, kennen wir, 584 00:41:48,859 --> 00:41:53,470 glaube ich, seit Anbeginn des Kapitalismus. Okay. Also die konkrete 585 00:41:53,470 --> 00:41:59,500 Frage wäre, anstatt über Algorithmen-Ethik zu sprechen, wäre zu sagen, wir haben doch 586 00:41:59,500 --> 00:42:03,160 gerade etwas über Schutzziele gelernt. Können wir denn nicht einfach diese 587 00:42:03,160 --> 00:42:06,650 Schutzziele auf alle möglichen Informationsverarbeitung-Systeme anwenden? 588 00:42:06,650 --> 00:42:09,550 Ja, natürlich können wir das und es gibt auch sehr viel, also nicht sehr viel, aber 589 00:42:09,550 --> 00:42:13,240 es gibt eine Menge gute Forschung dazu, z.B. Unabhängiges Landesdatenschutzzentrum 590 00:42:13,240 --> 00:42:16,650 Schleswig-Holstein und so weiter. Aber komischerweise sind da die 591 00:42:16,650 --> 00:42:19,436 Ergebnisse ja, "das muss reguliert werden", "das müssen wir einzäunen", und 592 00:42:19,436 --> 00:42:23,490 so weiter. Aber das schlägt man immer so ungern den Konzernen vor, das ist immer 593 00:42:23,490 --> 00:42:28,599 so, das ist ein bisschen problematisch an der Stelle. Das heißt, man kann da viel 594 00:42:28,599 --> 00:42:33,150 drüber nachdenken über maschinen-lesbare Policies irgendwie, sozusagen KI-KI- 595 00:42:33,150 --> 00:42:39,480 Prüfsysteme, und so weiter. Aber das Problem dabei ist, dass die Ethik so 596 00:42:39,480 --> 00:42:46,970 folgenlos und so schön sanktionslos bleibt. Eine Ethik ist das, was man so tut. Das wäre so 597 00:42:46,970 --> 00:42:51,400 ein Thema "es wäre schön, wenn". Und tatsächlich, wenn wir uns sozusagen unsere 598 00:42:51,400 --> 00:42:54,940 Welt so angucken, die verdatete Welt ist eigentlich, dieses "wäre schön, wenn" ist 599 00:42:54,940 --> 00:42:59,260 schon lange darüber hinaus. Okay, das heißt also, die Ethik ist schon in Ordnung 600 00:42:59,260 --> 00:43:01,850 und der Ethik-Diskurs ja, aber die Umsetzung des Rechts selber, die hängt 601 00:43:01,850 --> 00:43:05,840 hinterher. Und das ist so ein Punkt. Also die Situation ist, ich habe es mal ein 602 00:43:05,840 --> 00:43:09,360 bisschen provokant geschrieben, die Massen-Manipulation, -Überwachung und 603 00:43:09,360 --> 00:43:13,800 -Unterdrückung ist sozusagen der Punkt. Okay, das überspringen wir mal. 604 00:43:14,420 --> 00:43:22,050 Also, wen es interessiert, z. B. auch Ben Wagner hat dazu auch neulich geschrieben, ich pack es 605 00:43:22,050 --> 00:43:28,480 einfach in die Folien an der Stelle, also es bleibt da drin: Inwiefern Ethik die 606 00:43:28,480 --> 00:43:32,961 neue Selbstregulierung ist. Unternehmen sagen: "Ja, bitte keine Regulierung, wir 607 00:43:32,961 --> 00:43:36,170 verhalten uns ethisch und wir haben Ethik- Kodizes" und hinten und vorne und so 608 00:43:36,170 --> 00:43:40,939 weiter. Und wenn man sich die letzten Facebook-Veröffentlichungen z. B. 609 00:43:40,939 --> 00:43:44,609 anschaut, wer sagt, mit ethischen Diskursen sollen die Unternehmen nochmal 610 00:43:44,609 --> 00:43:49,070 doller darüber nachdenken, was sie tun und was die Konsequenzen sind, dann der Person 611 00:43:49,070 --> 00:43:53,170 empfehle ich tatsächlich sehr stark, diese Veröffentlichung der internen E-Mails 612 00:43:53,170 --> 00:43:57,850 jetzt mal anzuschauen, die wissen ganz genau, was sie tun, das ist, also das ist, 613 00:43:57,850 --> 00:44:00,260 da kann man nicht drüber reden, da muss man einfach sagen, das ist ein 614 00:44:00,260 --> 00:44:03,797 Interessenskonflikt und unsere Werte sind so und deswegen machen wir das halt. 615 00:44:03,797 --> 00:44:10,970 Okay, dann kommen wir zum Fazit. Also 1. Datenschutz zwingt Organisationen dazu, 616 00:44:10,970 --> 00:44:14,860 bei der Gestaltung ihrer Datenverarbeitung die Interessen der Betroffenen zu 617 00:44:14,860 --> 00:44:19,750 beachten. Das heißt, durch Datenschutz sollen sie Dinge tun, die sie von sich aus 618 00:44:19,750 --> 00:44:23,740 nie tun würden, wir erinnern uns: Hygieneregeln, Sicherheitsvorkehrungen und 619 00:44:23,740 --> 00:44:26,400 so weiter, das würden sie von sich aus jetzt erst einmal nicht wollen, weil die 620 00:44:26,400 --> 00:44:30,010 Marktlogik eine andere ist und so weiter. Aber mit Datenschutz bringt man eben dazu, 621 00:44:30,010 --> 00:44:34,849 Löschfristen und so weiter, die DSGVO könnt ihr euch angucken. Dann auch als 622 00:44:34,849 --> 00:44:39,119 Betreiber solcher Systeme muss man sich immer vor Augen halten, die Rechte der 623 00:44:39,119 --> 00:44:43,491 Betroffenen, so nervig sie vielleicht sein mögen, wenn man selber AnbieterIn ist, 624 00:44:43,491 --> 00:44:46,320 sind immer die Pflichten der Verantwortlichen. Das heißt, das ist ein 625 00:44:46,320 --> 00:44:49,391 Interessenkonflikt, wenn man sagt, ich möchte das alles nicht dokumentieren und 626 00:44:49,391 --> 00:44:53,280 so weiter, dann heißt es, mir sind die Interessen und die Rechte der Anderen 627 00:44:53,280 --> 00:44:58,830 davon egal, und das sollte nicht so sein. Dann, individuelle Privatsphäre, das habe 628 00:44:58,830 --> 00:45:04,711 ich schon gesagt. Dann als letzten Punkt, Fokus auf personenbezogene Daten ist 629 00:45:04,711 --> 00:45:08,470 offensichtlich problematisch, man kann Leute auch mit nicht-personenbezogenen 630 00:45:08,470 --> 00:45:11,410 Daten diskriminieren und es gibt aber auch Nutzungen von personenbezogenen Daten, die 631 00:45:11,410 --> 00:45:16,520 unproblematisch sind. Was man bräuchte, ist eine Analyse von Datenverarbeitung, 632 00:45:16,520 --> 00:45:20,060 die einfach schaut, Datenverarbeitung, egal welche Daten die verwenden, da 633 00:45:20,060 --> 00:45:24,047 verwendet werden. Was sind die Konsequenzen für die Betroffenen und die 634 00:45:24,047 --> 00:45:27,290 Einwilligung ist weder hinreichend für individuelle und noch für 635 00:45:27,290 --> 00:45:31,140 gesellschaftliche Schutzfunktionen: da müssen wir tatsächlich über diese harten 636 00:45:31,140 --> 00:45:34,880 Grenzen nachdenken, ansonsten kommen wir da nicht weiter. Und als allerletzten Punkt 637 00:45:34,880 --> 00:45:39,150 kann man sagen, die Techis unter uns sagen ja immer Alice und Bob, die reden 638 00:45:39,150 --> 00:45:42,950 miteinander und dann gibt es Malary, die greift an und beim Datenschutz muss man 639 00:45:42,950 --> 00:45:48,020 immer sagen, Achtung, Angreifer! Angreifer ist nicht Malary, Angreifer ist Bob, 640 00:45:48,020 --> 00:45:50,882 nämlich die andere Seite, die die Daten kriegt, was sie damit tut. 641 00:45:50,882 --> 00:45:52,415 Okay, dankeschön. 642 00:45:52,415 --> 00:46:05,715 Applaus 643 00:46:05,715 --> 00:46:10,200 Herald: Ja, danke Rainer für deinen interessanten Vortrag. Wir haben zwei 644 00:46:10,200 --> 00:46:16,059 Mikrofone, eins auf der Seite in der Mitte des Saals und eins im Mittelgang: Nr. 1 und 645 00:46:16,059 --> 00:46:21,830 Nr. 2. Wenn ihr Fragen stellen möchtet, dann könnt ihr euch an diesen Mikrofonen 646 00:46:21,830 --> 00:46:27,680 aufstellen und eine Reihe bilden oder zwei Reihen bilden. Wenn ihr jetzt gehen müsst, 647 00:46:27,680 --> 00:46:33,099 tut das bitte leise und auf jeden Fall nicht störend. Und ja, dann würde ich mal 648 00:46:33,099 --> 00:46:34,952 sagen: Mikrofon 2. 649 00:46:35,589 --> 00:46:38,720 Frage: Vielen Dank für den interessanten Vortrag. Wie sieht es 650 00:46:38,720 --> 00:46:43,290 aus, wenn wir plötzlich andere Machtverhältnisse haben? Das heißt, wir 651 00:46:43,290 --> 00:46:47,900 haben Peer-to-Peer-Systeme. Da haben wir auf der einen Seite dann alle auf der 652 00:46:47,900 --> 00:46:53,530 gleichen Ebene oder auch nicht, aber doch prinzipiell ist es möglich. Und gerade 653 00:46:53,530 --> 00:46:57,619 diese Peer-to-Peer-Systeme ermöglichen ja gerade diese mächtigen Daten-Intermediäre 654 00:46:57,619 --> 00:47:04,291 zu umgehen. Oder was ist jetzt bei Fällen, wo wir sagen, wir haben jetzt gar nicht 655 00:47:04,291 --> 00:47:09,869 den starken Datenverarbeiter, sondern wir haben den kleinen Turnverein, wir haben 656 00:47:09,869 --> 00:47:14,840 die Individuen, die plötzlich mit der Datenschutzgrundverordnung konfrontiert 657 00:47:14,840 --> 00:47:18,260 sind und eigentlich gar nicht die Starken sind. Und da sagen wir, passt doch 658 00:47:18,260 --> 00:47:20,330 eigentlich gar nicht. 659 00:47:21,960 --> 00:47:24,750 Rainer: Wollen wir erst mal sammeln oder soll ich gleich..? 660 00:47:24,750 --> 00:47:27,888 Ja, gut, okay. Das ist ein sehr, sehr guter Punkt, gerade diese Peer-to-Peer- 661 00:47:27,888 --> 00:47:34,570 Geschichten, da sehe ich tatsächlich eine ganz, ganz große Chance, wo gerade bei 662 00:47:34,570 --> 00:47:38,930 Peer-to-Peer die Daten verteilt sind, da keine Machtzentren dabei entstehen, da 663 00:47:38,930 --> 00:47:41,960 muss man natürlich bei dem Design aufpassen, dass man es eben nicht so macht 664 00:47:41,960 --> 00:47:45,200 wie irgendwelche Bitcoin-Geschichten, dass dann doch wieder alles zentralisiert wird, 665 00:47:45,200 --> 00:47:50,260 sondern eher so wie GNUnet, wo in das System eingebaut ist, dass es auch dezentral 666 00:47:50,260 --> 00:47:54,160 bleibt. Ich sehe da ganz große Hoffnungen, da muss allerdings sehr viel noch 667 00:47:54,160 --> 00:47:57,120 geforscht und gearbeitet werden, dass solche Sachen dann auch skalieren können. 668 00:47:57,120 --> 00:48:00,930 Aber das kann möglich sein, auf alle Fälle. Da sehe ich überhaupt kein Problem, wenn 669 00:48:00,930 --> 00:48:04,190 man da mal ein bisschen Geld reinsteckt, irgendwie so einen Bruchteil von dem, was 670 00:48:04,190 --> 00:48:08,020 wir in Atomkraft gesteckt haben, mal in Peer-to-Peer-Technologien, aber das 671 00:48:08,020 --> 00:48:10,780 nebenbei. Nee, das sehe ich auch, das wäre auf alle Fälle eine technische 672 00:48:10,780 --> 00:48:16,380 Herangehensweise, wo man natürlich auch wieder diese Analysen machen müsste, aber 673 00:48:16,380 --> 00:48:21,020 das ist auf alle Fälle ein gangbarer Weg und da gibt es auch ganz viele Ansätze 674 00:48:21,020 --> 00:48:27,160 schon, gerade hier auf dem Congress, wenn man mal herumläuft, GNU-Taler und so, da 675 00:48:27,160 --> 00:48:31,402 sehe ich viel Fruchtbares. Bei dem zweiten Punkt, das ist natürlich jetzt eine 676 00:48:31,402 --> 00:48:35,070 rechtliche Frage. Ich gehe trotzdem darauf ein, halte mich aber kurz, weil wie 677 00:48:35,070 --> 00:48:40,641 gesagt, es gab auch rechtliche Talks. Die DSGVO hat so einen überwiegend Risiko- 678 00:48:40,641 --> 00:48:45,359 basierten Ansatz, das heißt, der Verein muss diese Sachen insofern umsetzen, wie 679 00:48:45,359 --> 00:48:52,530 Risiken für die Betroffenen entstehen. Das heißt, wenn der Verein ein multi- 680 00:48:52,530 --> 00:48:56,281 nationales, globales Social-Network betreibt, dann sind die Pflichten sehr, 681 00:48:56,281 --> 00:49:01,100 sehr groß, wenn allerdings da nur die Mitgliederliste geführt wird, dann sind 682 00:49:01,100 --> 00:49:04,520 die Anforderungen da auch sehr viel geringer. Also man muss immer sehen, die 683 00:49:04,520 --> 00:49:07,521 Anforderungen, z. B. diese technischen- organisatorischen Maßnahmen, die müssen 684 00:49:07,521 --> 00:49:11,600 immer angemessen sein. Das heißt, wenn da eine Liste mit 20 Namen sind, dann muss 685 00:49:11,600 --> 00:49:16,600 man jetzt nicht, da reicht jetzt vielleicht nicht irgendwie Caesar- 686 00:49:16,600 --> 00:49:21,310 Verschlüsselung, aber da muss jetzt kein Hochsicherheitssystem da sein; das muss 687 00:49:21,310 --> 00:49:25,530 sozusagen immer entsprechend der Risiken für die Betroffenen. Also ich verstehe 688 00:49:25,530 --> 00:49:31,690 auch die Kritik zu sagen, dass sozusagen diese DSGVO guckt gar nicht, wie groß die 689 00:49:31,690 --> 00:49:36,109 Organisation ist. Oder da ist meine Antwort dabei zu sagen, ja, die DSGVO 690 00:49:36,109 --> 00:49:39,869 schaut aber, wie groß ist das Risiko für die Betroffenen. Und ich glaube, bei 691 00:49:39,869 --> 00:49:44,850 vielen, die sich da sozusagen beschweren, die beschweren sich auch erstens, weil sie 692 00:49:44,850 --> 00:49:49,440 sich nicht vorher damit beschäftigt haben, was sie hätten sollen und zweitens aber 693 00:49:49,440 --> 00:49:57,600 auch, weil da leider sehr viel Angstmache drin war, wie viel Aufwand da tatsächlich 694 00:49:57,600 --> 00:50:03,470 auf Leute zukommt und wie groß die Anforderungen sind. Die Regularien bei 695 00:50:03,470 --> 00:50:06,660 der Datenschutz-Konferenz war ja auch irgendwie erst mal warnen und helfen, 696 00:50:06,660 --> 00:50:11,400 statt abmahnen und so weiter. Also das sind so, genau das ist so meine Antwort. 697 00:50:11,400 --> 00:50:14,849 Also wichtig ist, wie groß ist das Risiko für die Betroffenen und das wird bei 698 00:50:14,849 --> 00:50:17,710 Vereinen immer nicht so groß sein. Also kommt auf den Verein an, also ich meine, 699 00:50:17,710 --> 00:50:21,450 der TÜV ist auch ein Verein, also... Okay, ich hoffe, das hat jetzt geholfen. 700 00:50:21,450 --> 00:50:23,940 Herald: Mikrofon 1, bitte. 701 00:50:23,940 --> 00:50:26,430 Frage: Sie haben jetzt für die Erklärung 702 00:50:26,430 --> 00:50:31,555 'Was ist Datenschutz?' zurückgegriffen auf die Erklärung des 703 00:50:31,555 --> 00:50:36,060 Standarddatenschutzmodells. Gibt es in der Wissenschaft eigentlich auch andere 704 00:50:36,060 --> 00:50:41,780 Ansätze, die gewählt werden zur Erklärung 'Was ist Datenschutz' oder wie weit sind 705 00:50:41,780 --> 00:50:47,626 die Diskussionen da oder gibt es unterschiedlichen Fokus? 706 00:50:47,626 --> 00:50:52,790 Rainer: Also das ist eine sehr sehr sehr gute Frage tatsächlich. Ich finde 707 00:50:52,790 --> 00:50:54,920 tatsächlich dieses Standarddatenschutzmodell - ne 708 00:50:54,920 --> 00:50:58,660 deswegen habe ich es da unten hingepackt - sehr sehr gut und trifft das, was ich als 709 00:50:58,660 --> 00:51:04,000 großes Problem auch ansehe. Es gibt eine Dissertation von Jörg Pohle, der Vierte 710 00:51:04,000 --> 00:51:07,180 von unten, 'Datenschutz und Technikgestaltung', der diskutiert mal die 711 00:51:07,180 --> 00:51:10,690 verschiedenen Ansätze. Es gibt da schon verschiedene Vorstellungen, was ist 712 00:51:10,690 --> 00:51:14,420 überhaupt das Schutzgut und wie kann man dem begegnen und so weiter. Da gibt es 713 00:51:14,420 --> 00:51:22,760 einen großen Dschungel, aber da ist sich auch... also mein Eindruck ist, da setzt 714 00:51:22,760 --> 00:51:27,730 sich zumindest in der deutschen Diskussion oder europäischen Diskussionen da setzt 715 00:51:27,730 --> 00:51:32,420 sich gerade so eine bestimmte Richtung durch. Aber es gibt auch andere Ansätze, 716 00:51:32,420 --> 00:51:37,030 die zum Beispiel, die rückwärts versuchen entlang des Rechtes zu rekonstruieren, was 717 00:51:37,030 --> 00:51:41,859 eigentlich mal das Datenschutzproblem war und die dann immer individualisiert Fragen 718 00:51:41,859 --> 00:51:50,150 stellen und sagen, wie können wir zum Beispiel das Risiko so einfache Rechnung wie das 719 00:51:50,150 --> 00:51:54,490 Risiko der einzelnen Person mal die Anzahl der betroffenen Personen und so könnte man 720 00:51:54,490 --> 00:51:56,930 eben auch an Datenschutz herangehen und dann hat man nur rein individuell 721 00:51:56,930 --> 00:52:01,520 natürlich immer das Problem, was man dann lösen muss. Das funktioniert insofern 722 00:52:01,520 --> 00:52:05,900 nicht, wie wir eben gesehen haben, es kann natürlich eine ganze Menge Leute zu einer 723 00:52:05,900 --> 00:52:08,599 Datenverarbeitung zustimmen, deren Konsequenzen dann alle anderen auch noch 724 00:52:08,599 --> 00:52:13,920 mit trifft. In dem Sinne funktioniert der individualistische Ansatz dann nicht. Aber 725 00:52:13,920 --> 00:52:17,170 da gibt es einen Zoo. Aber ich glaube, 726 00:52:18,700 --> 00:52:24,688 Ich glaube das ist meiner Ansicht nach, das sehr gut begründet ist. 727 00:52:25,997 --> 00:52:29,045 Herald: Das Internet hat eine Frage. 728 00:52:30,230 --> 00:52:36,290 Signal-Angel: Das Internet fragt: Gibt es bzw. kennst du eine politikerverständliche 729 00:52:36,290 --> 00:52:40,750 Übersicht von Chaos-nahen politischen Forderungen bezüglich Datenschutz und 730 00:52:40,750 --> 00:52:42,900 Datensicherheit mitsamt ihren Begründungen? 731 00:52:45,370 --> 00:52:47,910 Rainer: Moment eine was? Eine Politiker kompatible? 732 00:52:47,910 --> 00:52:51,490 Signal-Angel: ...Politikerverständliche Übersicht von Chaos-nahen politischen 733 00:52:51,490 --> 00:52:53,230 Förderungen. Forderungen, Entschuldige. 734 00:52:58,619 --> 00:53:01,030 Rainer: Ja. Naja, ich meine, ich kann zum 735 00:53:01,030 --> 00:53:06,280 Beispiel darauf verweisen jetzt vor 2 Monaten war die Bits und Bäume in Berlin. 736 00:53:06,280 --> 00:53:10,480 Da gab's einen Forderungskatalog. Da spielte auch Datenschutz und 737 00:53:10,480 --> 00:53:13,460 Datensicherheit eine Rolle und auch in der Begründung dabei. Da war zum Beispiel auch 738 00:53:13,460 --> 00:53:17,320 der CCC auch dran beteiligt und das FIfF. Aber andersrum auch 739 00:53:17,320 --> 00:53:23,580 Nachhaltigkeitsorganisationen BUND und so weiter. Das ist sehr kurz und knackig. 740 00:53:23,580 --> 00:53:31,099 Ich glaube das könnte auch verstanden werden und es wäre auch Chaos-Umfeld. Ich glaube 741 00:53:31,099 --> 00:53:38,070 allerdings, also das denke ich jetzt gerade, verschiedene Leute oder auch 742 00:53:38,070 --> 00:53:40,830 verschiedene Politiker*innen haben verschiedene Vorstellungen, was eigentlich 743 00:53:40,830 --> 00:53:46,380 das Problem ist. Deswegen weiß ich noch nicht so richtig, inwiefern so eine 744 00:53:46,380 --> 00:53:49,980 Handreichung verständlicherweise da wirklich helfen würde, die allgemein ist, 745 00:53:49,980 --> 00:53:58,540 sondern eher zu fragen: Was daran ist unklar, um das dann wirklich konkret zu 746 00:53:58,540 --> 00:54:02,920 erklären. Aber mein Eindruck ehrlich gesagt, ich verstehe die Motivation der 747 00:54:02,920 --> 00:54:09,190 Frage, aber mein Eindruck ist so ein bisschen, dieses Unverständnis das hat 748 00:54:09,190 --> 00:54:17,250 eher was mit fehlendem Mut zu tun, mal zu sagen, was weiß ich, wir müssen da jetzt 749 00:54:17,250 --> 00:54:20,780 mal harte Grenzen ziehen. Es hat weniger mit Verständnis zu tun, als mit nicht 750 00:54:20,780 --> 00:54:23,230 verstehen wollen. Da hilft auch eine Handreichung nicht. 751 00:54:23,230 --> 00:54:30,645 Applaus 752 00:54:30,645 --> 00:54:33,980 Rainer: Also die Antworten, was notwendig 753 00:54:33,980 --> 00:54:40,790 wäre, die werden immer, immer klarer, aber das ist glaube ich eine politische Frage. 754 00:54:40,790 --> 00:54:45,130 Und das ist ja auch einer der Gründe, warum wir hier sind, glaube ich. 755 00:54:46,580 --> 00:54:48,755 Herald: Mirkofon zwei, bitte. 756 00:54:48,755 --> 00:54:50,930 Frage: Ich wollte nochmal einhaken, du 757 00:54:50,930 --> 00:54:55,510 hast ja gerade auch bei dem Thema Algorithmenethik sozusagen gesagt, das ist 758 00:54:55,510 --> 00:55:01,310 so eine Stellvertreterdebatte oder bzw. eine Debatte, man will eigentlich nicht 759 00:55:01,310 --> 00:55:04,480 über das Eigentliche reden, nämlich was Regulierung sein soll. Ich würde Dir 760 00:55:04,480 --> 00:55:08,740 insofern zustimmen, dass die Debatte natürlich ablenken soll davon, dass man 761 00:55:08,740 --> 00:55:12,829 nicht weiß, wie man mit Technik umgeht. Ich glaube allerdings, jetzt mal die 762 00:55:12,829 --> 00:55:16,610 Gegenthese, dass man in Deutschland allgemein sehr regulierungswillig ist, in 763 00:55:16,610 --> 00:55:21,080 der Politik was Technik angeht, aber ich glaube, man weiß nicht, was man regulieren 764 00:55:21,080 --> 00:55:25,725 soll. Also du hast mehrfach selber auch so Begriffe wie Massenmanipulation, 765 00:55:25,725 --> 00:55:30,880 Wahlmanipluation genannt, darüber wird unglaublich viel gesprochen. Ich glaube 766 00:55:30,880 --> 00:55:34,710 aber, es hat keiner gerade in der Politik eine Idee, wie man damit umgehen soll und 767 00:55:34,710 --> 00:55:38,140 wenn dann mal so ein Vorschlag wie Botregulierung eingebracht wird, ist es 768 00:55:38,140 --> 00:55:43,607 halt auch Quatsch. Deswegen jetzt meine konkrete Frage: Wie würdest du damit 769 00:55:43,607 --> 00:55:49,260 umgehen? Also ich arbeite selber im politischen Betrieb und überlege mir also auch 770 00:55:49,260 --> 00:55:52,579 immer, wie kann man eigentlich diese Debatten in die richtige Richtung lenken. 771 00:55:52,579 --> 00:55:57,349 Wie würdest du damit umgehen, dass man eben nicht über Algorithmenethik als 772 00:55:57,349 --> 00:56:00,700 Ablenkungsthema redet sondern, dass man sich mit den tatsächlichen Fragen, nämlich 773 00:56:00,700 --> 00:56:05,960 was sind sinnvolle Regulierungen beschäftigt, gerade eben unter dem Aspekt, 774 00:56:05,960 --> 00:56:09,050 dass technisches Unverständnis in großen Teilen leider herrscht? 775 00:56:10,200 --> 00:56:16,369 Rainer: Tatsächlich eine sehr, sehr interessante Frage. Ich glaube, da steckt 776 00:56:16,369 --> 00:56:20,150 noch ein bisschen Arbeit drin, diese, zum Beispiel diese Schutzzielfragen auch mal 777 00:56:20,150 --> 00:56:23,339 wirklich auszubuchstabieren und da gibt es auch Ansätze, zum Beispiel Martin Rost 778 00:56:23,339 --> 00:56:29,349 jetzt gerade für diese KI-Debatte. Wo man konkret fragen kann: können denn bestimmte 779 00:56:29,349 --> 00:56:34,880 Systeme Garantien aussprechen für grundrechtliche Fragen. Ich habe mal so 780 00:56:34,880 --> 00:56:37,630 ein Zitat da rein gepackt, irgendwie so "Deep-Learning-Systeme sind also nicht 781 00:56:37,630 --> 00:56:40,450 prüfbar, nicht evaluierbar, ändern ihre Eigenschaften, liefern keinerlei 782 00:56:40,450 --> 00:56:43,879 Begründung, sind leicht zu manipulieren, willkürlich aufgebaut und immer ungenau." 783 00:56:44,449 --> 00:56:48,250 Das klingt jetzt nach einem coolen System, wenn man Bilder sortieren will, das klingt 784 00:56:48,250 --> 00:56:52,390 nach einem nicht so guten System, wenn man Straßenschilder erkennen möchte und ich 785 00:56:52,390 --> 00:57:01,810 glaube die Aufgabe bestünde darin, diese Fleißarbeit auszubuchstabieren, was zum 786 00:57:01,810 --> 00:57:04,990 Beispiel diese Schutzziele für die einzelnen Systeme und das macht teilweise 787 00:57:04,990 --> 00:57:09,750 das Standarddatenschutzmodell auch schon, diese Ergebnisse zu zirkulieren und da 788 00:57:09,750 --> 00:57:17,730 gibt es tatsächlich gute Arbeiten und ich glaube mittlerweile wäre es sogar möglich, 789 00:57:17,730 --> 00:57:22,110 können wir uns danach nochmal verbinden, dass da vielleicht die richtigen 790 00:57:22,110 --> 00:57:25,520 Informationen an der richtigen Stelle mal landen, weil ich glaube, die sind 791 00:57:25,520 --> 00:57:32,290 mehrheitlich schon da. Es hat immer auch etwas mit erklären zu tun. Aber wenn der 792 00:57:32,290 --> 00:57:36,490 Wille da ist so zu agieren - also eine Regulierwilligkeit sehe ich jetzt nicht so 793 00:57:36,490 --> 00:57:43,420 richtig - aber gut, wenn das tatsächlich so ist, dann müsste man da wahrscheinlich 794 00:57:43,420 --> 00:57:47,170 genau diese Papers, die es dazu gibt und so weiter ein bisschen aufbereiten und 795 00:57:47,170 --> 00:57:55,460 dann an die richtigen Stellen bringen als Hinweise. Wie gesagt, das heißt aber eben 796 00:57:55,460 --> 00:58:01,751 auch, dass bestimmte Akteure dann eben auch etwas abgeben müssen oder nicht mehr 797 00:58:01,751 --> 00:58:05,170 zulässig sind oder bestimmte Geschäftsmodelle nicht mehr möglich sind. 798 00:58:05,170 --> 00:58:08,960 Also wenn Politiker*innen damit einverstanden sind, dann kann man da auch 799 00:58:08,960 --> 00:58:10,642 was machen. 800 00:58:11,475 --> 00:58:13,680 Herald: Mikrofon 1 bitte. 801 00:58:13,680 --> 00:58:20,300 Frage: Hi, ich habe auch eine Frage zu Regulierung: Und zwar aus einer 802 00:58:20,300 --> 00:58:23,250 soziologischen Perspektive ist es so, dass bei Regulierungen immer auch die 803 00:58:23,250 --> 00:58:28,560 Regulierten mitarbeiten. Das läuft im politischen Betrieb ganz oft über Aufrufe 804 00:58:28,560 --> 00:58:33,170 für Comment-Letters, also das Bundesministerium für Verkehr und bla hat 805 00:58:33,170 --> 00:58:39,220 was über Fahrzeugdaten veröffentlicht und die haben sehr sehr dezidiert politische 806 00:58:39,220 --> 00:58:43,320 ökonomische Benefits bei den Herstellern gesehen und dann sind alle aufgerufen 807 00:58:43,320 --> 00:58:48,070 worden innerhalb eines halben Jahres ihre ihre Meinung dazu zu posten. Und bei sowas 808 00:58:48,070 --> 00:58:52,900 haben natürlich starke Akteure die du auch genannt hast, also Techgiants, immer einen 809 00:58:52,900 --> 00:59:03,160 strukturellen Vorteil. Also wenn du dich für eine starke Regulierung aussprichst, hast 810 00:59:03,160 --> 00:59:06,740 du da schon irgendwie Vorstellungen wie man diesen Bias an der Stelle ausschaltet; 811 00:59:06,740 --> 00:59:10,290 also das die starken weiterhin auch privilegiert bleiben selbst wenn es 812 00:59:10,290 --> 00:59:11,980 Regulierungen gibt. 813 00:59:13,700 --> 00:59:18,540 Rainer: Tja, das ist die Königinnenfrage 814 00:59:18,540 --> 00:59:24,140 an der Stelle. Naja, es hat natürlich immer was damit zu tun, wer wird da 815 00:59:24,140 --> 00:59:27,910 befragt, wer hat die Möglichkeiten? Ich kenne es ja selber auch irgendwie: Egal ob 816 00:59:27,910 --> 00:59:30,221 es Sachverständigen Anhörungen sind oder irgendwie Eingaben die gemacht werden 817 00:59:30,221 --> 00:59:34,599 können. Die Firmen schicken ihre Leute in der Arbeitszeit dahin, um das zu tun und 818 00:59:34,599 --> 00:59:38,550 die NGOs gucken halt wo sie ihre Ehrenamtlichen abziehen können, um 819 00:59:38,550 --> 00:59:45,171 vielleicht jemanden... Tja, das ist ein großes Problem. Ich glaube da ist 820 00:59:45,171 --> 00:59:48,260 tatsächlich so eine grundsätzliche.. Da wage ich mir jetzt auch ein bisschen aus 821 00:59:48,260 --> 00:59:53,890 dem Fenster aber so eine grundsätzliche Herangehensweise gefragt. Das betrifft ja 822 00:59:53,890 --> 00:59:57,920 die Frage wie unsere Demokratie funktioniert. Das ist nichts was 823 00:59:57,920 --> 01:00:04,599 irgendwie... ich meine von Diesel bis hin zu... fange ich gar nicht erst an. Das 824 01:00:04,599 --> 01:00:09,459 ist keine Datenschutzfrage sondern eine Demokratiefrage. Und ich weiß nicht. 825 01:00:09,459 --> 01:00:13,373 Da gibts ja ganz viele Ideen: mit Lobbyregister und was es da alles gibt. 826 01:00:13,373 --> 01:00:19,960 Vermutlich müsste man da; wir alle die Aktivitäten in diesen digitalen 827 01:00:19,960 --> 01:00:25,240 Rechtsfragen tätigen. Vermutlich wäre es sogar eine langfristige und nachhaltige, 828 01:00:25,240 --> 01:00:30,680 Keyword, nachhaltige Lösung zu sagen, bei all unseren Aktivitäten nehmen wir 10% 829 01:00:30,680 --> 01:00:35,700 weg und packen die in LobbyControl und so weiter, um diese Strukturen da irgendwie 830 01:00:35,700 --> 01:00:44,020 zu stärken. Das wär mein Eindruck, weil teilweise, wenn man sich anguckt wie so 831 01:00:44,020 --> 01:00:49,470 Digitalrat und KI Enquete usw. zusammengesetzt sind. Klar, wenn ich Leute 832 01:00:49,470 --> 01:00:54,095 vor einem bestimten Hintergrund einlade, ist mir klar, dass ich dann diese Antwort 833 01:00:54,095 --> 01:00:57,130 kriege. Das ist jetzt ein bisschen so Frage: Wie kriege ich mehr Leute aus der 834 01:00:57,130 --> 01:01:00,470 Wissenschaft rein? Und mehr Betroffene, usw.? Und deswegen tut es mir leid, dass 835 01:01:00,470 --> 01:01:03,950 es vielleicht eine nicht so hilfreiche Antwort ist, aber ich glaube das eine ist 836 01:01:03,950 --> 01:01:08,150 eine Demokratie Frage und da gibts jede Menge zu tun! Und auch deswegen sollte uns 837 01:01:08,150 --> 01:01:13,370 das interessieren, weil ansonsten unsere ganze Arbeit da auch teilweise ins Leere 838 01:01:13,370 --> 01:01:18,716 läuft, weil dann eben das kaputte System das alles wieder auffrisst. Das glaube ich 839 01:01:18,716 --> 01:01:20,187 so ein Punkt. 840 01:01:20,961 --> 01:01:23,400 Herald: Ich merke, die Diskussion, die 841 01:01:23,400 --> 01:01:27,589 brennt. Leider läuft uns die Zeit ein bisschen davon. Wo finden dich die Leute 842 01:01:27,589 --> 01:01:29,554 hier auf dem Kongress? 843 01:01:30,174 --> 01:01:32,760 Rainer: Ihr findet mich entweder unter 844 01:01:32,760 --> 01:01:41,530 dieser E-Mail-Adresse oder aber z.B. am FIfF-Stand, hier CCL, nullte Etage. 845 01:01:43,280 --> 01:01:45,230 Hier drunter. Ich werde danach 846 01:01:45,230 --> 01:01:47,480 einfach auf den Knopf drücken und runterfahren, dann findet man mich da. 847 01:01:47,480 --> 01:01:48,080 Gelächter 848 01:01:48,080 --> 01:01:48,970 Dankeschön 849 01:01:48,970 --> 01:01:50,638 Herald: Genau. Applaus. 850 01:01:50,638 --> 01:01:52,299 Applaus 851 01:01:52,299 --> 01:01:56,047 35C3 Outro Musik 852 01:01:56,047 --> 01:02:16,000 Untertitel erstellt von c3subtitles.de im Jahr 2020. Mach mit und hilf uns!