< Return to Video

35C3 - Was schützt eigentlich der Datenschutz?

  • 0:00 - 0:19
    35C3 Intro Musik
  • 0:19 - 0:24
    Herald: Okay willkommen hier in
    Eliza für den dritten Talk dieses Blocks
  • 0:24 - 0:31
    an diesem zweiten Tage hier. Uns wird
    heute Rainer Rehak etwas über: "Was
  • 0:31 - 0:35
    schützt eigentlich der Datenschutz?"
    erzählen. Und er wird uns eine kleine
  • 0:35 - 0:41
    Einführung mit einem strukturellen Blick
    auf den Datenschutz gewähren, um uns ein
  • 0:41 - 0:47
    bisschen Debatten-Rüstzeug zu geben. Und
    da würde ich euch bitten eine Runde
  • 0:47 - 0:50
    Applaus zu spendieren und Rainer
    willkommen zu heißen.
  • 0:50 - 0:54
    Applaus
  • 0:54 - 0:56
    Rainer Rehak: Hallo.
  • 0:56 - 0:59
    Applaus
  • 0:59 - 1:02
    Rainer: Ja, Hallo, herzlich willkommen,
    welcome und ni hao.
  • 1:04 - 1:10
    Ja, was schützt eigentlich der Datenschutz. Ich bin sehr
    froh, hier sprechen zu dürfen, weil
  • 1:11 - 1:14
    vielleicht teilweise ein bisschen
    pointiert als These, warum
  • 1:14 - 1:17
    Datenschützer*innen aufhören müssen von
    individueller Privatheit zu sprechen.
  • 1:17 - 1:21
    Das ist ja immer so ein Thema was sich
    durchzieht, wenn es um Datenschutz geht,
  • 1:21 - 1:25
    dann geht's gleich um die Privatsphäre und
    das Innerste des Menschen. Das ist sicher
  • 1:25 - 1:31
    auch richtig. Aber meiner Ansicht nach ist
    das ein bisschen zu klein und spielt
  • 1:31 - 1:37
    gerade den Personen in die Hände, die wir
    eigentlich - ich sag jetzt mal wir - die wir
  • 1:37 - 1:42
    eigentlich mit der Argumentation
    bekämpfen wollen, oder überzeugen wollen,
  • 1:42 - 1:47
    im besten Falle. Also erst mal zu mir: So ein
    bisschen, dass man immer weiß, wer da
  • 1:47 - 1:50
    spricht, was für einen Hintergrund ich
    habe, dass man das ein bisschen
  • 1:50 - 1:54
    einsortieren kann, inhaltlich. Ich bin
    selber wissenschaftlicher Mitarbeiter am
  • 1:54 - 1:59
    Weizenbaum-Institut für die vernetzte
    Gesellschaft. Meine Forschungsbereiche und
  • 1:59 - 2:01
    Forschungsinteressen so Technik-
    Zuschreibungen also Funktions-
  • 2:01 - 2:06
    Zuschreibungen, IT-Sicherheit,
    Datenschutz, Informatik und Gesellschaft.
  • 2:06 - 2:11
    Ich selber habe Informatik und
    Philosophie studiert, an der Humboldt-
  • 2:11 - 2:16
    Universität zu Berlin, Freie Uni Berlin
    und Chinese University of Hongkong.
  • 2:16 - 2:20
    Und habe auch meine Diplomarbeit geschrieben
    über die heimliche Online-Durchsuchung,
  • 2:20 - 2:25
    und insbesondere um die gesellschaftlichen
    Konsequenzen davon. Außerdem bin ich aktiv
  • 2:25 - 2:29
    im Forum InformatikerInnen für Frieden und
    gesellschaftliche Verantwortung, bei
  • 2:29 - 2:31
    Amnesty International und bei der
    Gesellschaft für Informatik.
  • 2:31 - 2:35
    Worum soll es heute gehen? Einen Fahrplan:
    Erstmal will ich ein bisschen was über
  • 2:35 - 2:42
    Begriffe sagen, die dann fallen werden,
    dann über das Problem, was es überhaupt zu
  • 2:42 - 2:46
    diskutieren gibt im Datenschutz. Dann gibt
    es ein bisschen Theorie und
  • 2:46 - 2:50
    Operationalisierung. Operationalisierung
    heißt: Wie man aus den ganzen
  • 2:50 - 2:54
    theoretischen Konstrukten dann tatsächlich
    konkrete Handlungen ableiten kann. Dann
  • 2:54 - 3:00
    möchte ich was über die, auch in der
    Beschreibung des Talks so ein bisschen
  • 3:00 - 3:06
    kritisierten Nicht-Lösungen sagen, konkret
    darauf eingehen. Vielleicht, wenn sich da
  • 3:06 - 3:09
    Fragen anschließen werden wir auch eine
    Q&A noch machen, dass wir das diskutieren
  • 3:09 - 3:12
    können zusammen. Dann werde ich ein Fazit
    präsentieren und dann kommt noch eine
  • 3:12 - 3:18
    Literaturliste, Literaturhinweise. Die
    Folien kommen dann auch ins frab, für
  • 3:18 - 3:21
    diejenigen unter euch die sich da noch
    weiter einlesen wollen und das weiter
  • 3:21 - 3:29
    verfolgen wollen über diese Foundations-
    Ebene hinweg. Also, erstmal die Begriffe.
  • 3:29 - 3:32
    Erst einmal, wenn man über Datenschutz
    redet - im Englischen ist es ja noch
  • 3:32 - 3:36
    komplizierter, so mit Privacy und Data
    Protection und so weiter - es gibt erstmal
  • 3:36 - 3:40
    so einen Begriffe-Mix, das wird dann auch
    zusammen gehauen mit Überwachung und dann
  • 3:40 - 3:44
    ist das so eine Mischung. Deswegen will
    ich das jetzt erstmal auseinanderziehen,
  • 3:44 - 3:48
    dass wir wissen worüber wir reden.
    Erstens: Datenschutz selber ist ein
  • 3:48 - 3:53
    sozialwissenschaftlicher Begriff. Ich
    werde die alle nachher so ein bisschen
  • 3:53 - 3:57
    mehr auffächern, insbesondere
    Datenschutz. 'Datenschutzrecht' ist ein
  • 3:57 - 4:02
    juristischer Begriff und 'Datensicherheit'
    ist ein informatischer Begriff.
  • 4:02 - 4:06
    Ich glaube, Datenschutzrecht, da haben wir
    eine ganze Menge dazu jetzt schon gehört,
  • 4:06 - 4:11
    sowohl in den Medien, weil die, zum Beispiel
    die Datenschutz-Grundverordnung ja wirksam
  • 4:11 - 4:16
    geworden ist 2018 jetzt im Mai. Und über
    Datensicherheit haben wir hier mit
  • 4:16 - 4:21
    Sicherheit ja auch eine ganze Menge schon
    gehört und gewusst. Der Witz daran ist,
  • 4:21 - 4:25
    dass das alles so ein bisschen
    zusammengehört bei dem Thema, aber dennoch
  • 4:25 - 4:30
    diese Bereiche, oder diese Themen, jeweils
    eigenen Diskurs-Regeln gehorchen. Und
  • 4:30 - 4:33
    wie bei allem ist es so, dass die Problem-
    beschreibung selber auch die Lösung
  • 4:33 - 4:37
    so bisschen vordefiniert. Das heißt, der
    Korridor, wo man hinschaut, was da irgendwie
  • 4:37 - 4:43
    als sinnvolle Lösung irgendwie in Betracht
    kommt. Und welcher Informations-
  • 4:43 - 4:46
    oder welcher Daten-Begriff wird da
    verwendet. Das ist auch eine
  • 4:46 - 4:49
    Schlüsselfrage, die ist gar nicht so schwer,
    aber die muss gestellt werden. Und
  • 4:49 - 4:56
    die muss beantwortet werden. Jetzt mal
    kurz als Überflug. Das Datenschutzrecht
  • 4:56 - 4:58
    schützt also Personen. Der
    Anknüpfungspunkt dabei sind
  • 4:58 - 5:05
    personenbezogene Daten. Das kennt man ja
    auch, weitläufig diskutiert. Und zum
  • 5:05 - 5:09
    Beispiel die Begründung, was schützt
    eigentlich die Datenschutzgrundverordnung,
  • 5:09 - 5:13
    oder was setzt sie um, wäre im
    juristischen, würde man sagen: Naja, die
  • 5:13 - 5:17
    setzt halt Artikel 8 der Charta der
    Grundrechte der Europäischen Union um. In
  • 5:17 - 5:21
    der Informatik würde man sagen: Okay, das
    leitet auf ein weiteres Terminal. 'Was ist
  • 5:21 - 5:25
    denn Artikel 8 der Charta der Grundrechte
    der Europäischen Union?' Das ist so eine
  • 5:25 - 5:30
    Art, die Verfassung der EU. Zum Beispiel
    als Vergleich mal mit dem deutschen
  • 5:30 - 5:35
    Grundgesetz. Auch da ist Artikel 1: Die
    Würde des Menschen ist unantastbar. Sie
  • 5:35 - 5:39
    ist zu achten und zu schützen. Und Artikel
    8, das der für die DSGVO besonders
  • 5:39 - 5:43
    relevante, ist 'Schutz personenbezogener
    Daten'. Das steht da einfach genauso drin.
  • 5:43 - 5:48
    Und wenn der Schutz personenbezogener
    Daten ein Grundrecht ist auf europäischer
  • 5:48 - 5:50
    Ebene, ist ja klar, dass jegliche
    Datenverarbeitung dann auch eine
  • 5:50 - 5:54
    Verletzung von Grundrechten ist. Wobei die
    Frage da bleibt: Ja, aber warum
  • 5:54 - 6:00
    eigentlich? Wenn man so ein bisschen vor-
    rechtlich diskutieren will, wenn man sagt:
  • 6:00 - 6:03
    Wir schützen personenbezogene Daten.
    Warum? Ja, weil wir ein Recht auf Schutz
  • 6:03 - 6:08
    personenbezogener Daten haben; ist es
    richtig, aber unbefriedigend.
  • 6:10 - 6:13
    Aber zum Datenschutzrecht gibt es ja auf dem
    Kongress auch eine ganze Menge anderer
  • 6:13 - 6:17
    Vorträge, es klang auch alle sehr
    interessant. Deswegen würden wir jetzt
  • 6:17 - 6:21
    darüber nicht reden. Datensicherheit ist
    eine Sache, wie ich bereits angemerkt
  • 6:21 - 6:26
    habe, die auch gerade im Chaos-Umfeld eine
    große Rolle spielt. Das heißt, wenn man
  • 6:26 - 6:29
    sich anguckt was ist Datensicherheit:
    üblicherweise Schutzziele zur
  • 6:29 - 6:31
    Vertraulichkeit, Integrität,
    Verfügbarkeit. Wenn man so ein bisschen
  • 6:31 - 6:36
    Techie-mäßig drauf ist, würde man grob
    verallgemeinern: Vertraulichkeit sind die
  • 6:36 - 6:40
    Leserechte, Integrität sind die
    Schreibrechte, Verfügbarkeit sind die
  • 6:40 - 6:43
    Exekutiv-, die Ausführungsrechte. Ist
    jetzt ein bisschen hingebogen, aber so
  • 6:43 - 6:47
    ungefähr kann man sich das vorstellen. Das
    heißt Verfügbarkeit: ob so ein System für
  • 6:47 - 6:51
    mich funktioniert und den Service
    abliefert, den ich haben möchte.
  • 6:52 - 6:56
    In der Datensicherheit geht es aber primär - also was
    heißt 'aber' - geht es primär um die
  • 6:56 - 7:00
    Sicherheit von Geschäftsprozessen und von
    vorhandenen Daten. Das heißt, die
  • 7:00 - 7:02
    Daten sind da, die müssen ordentlich
    abgesichert werden, zugreifbar bleiben,
  • 7:02 - 7:07
    nicht verändert werden und so weiter. Seit
    2008 haben Personen sogar ein Grundrecht
  • 7:07 - 7:11
    auf die Gewährleistung der Vertraulichkeit
    und Integrität informationstechnischer
  • 7:11 - 7:16
    Systeme. Aber auch zur Datensicherheit
    selber gibt es auf dem Kongress andere
  • 7:16 - 7:21
    Vorträge. Jetzt ist die Frage: Was ist denn
    mit dem Datenschutz? Das heißt, wenn wir Rechte
  • 7:21 - 7:25
    haben, auf zum Beispiel den Schutz
    personenbezogener Daten, guckt man in die
  • 7:25 - 7:29
    Richtung: Wie wird denn das motiviert? Und
    dann kommt der Datenschutz selber ins
  • 7:29 - 7:33
    Spiel, als sozialwissenschaftliche
    Diskussion, wer wird da warum eigentlich
  • 7:33 - 7:38
    wie geschützt? Und dazu kurz ein paar
    Bemerkung zum gesellschaftlichen
  • 7:38 - 7:42
    Hintergrund. Also erstens: Wir leben in einer
    arbeitsteiligen Gesellschaft. Das heißt,
  • 7:42 - 7:47
    verschiedene Menschen haben verschiedene
    Aufgaben. Wir sind spezialisiert und ich
  • 7:47 - 7:50
    muss nicht Socken nähen können, um
    mit Socken herumzulaufen, weil jemand
  • 7:50 - 7:56
    anders das kann. Ihr kennt das Spiel. Es
    gibt eben Spezialisierung und niemand ist
  • 7:56 - 8:00
    sozusagen in allem spezialisiert. Diese
    Arbeitsteilung hat auch Konsequenzen, wie
  • 8:00 - 8:04
    wir nachher sehen. Es gibt diverse Akteure,
    die miteinander irgendwie funktional
  • 8:04 - 8:09
    interagieren. Vielleicht menschlich
    interessiert es mich schon, wie es dem
  • 8:09 - 8:12
    Bäcker oder der Bäckerin gerade geht, aber
    tatsächlich möchte ich da gerade Geld auf
  • 8:12 - 8:16
    den Tisch legen und mein Brötchen kriegen
    morgens. Oder je nachdem, wann auch immer.
  • 8:16 - 8:20
    Das heißt, man tritt so funktional
    irgendwie miteinander in Verbindung.
  • 8:20 - 8:26
    Und in dieser Gesellschaft gibt's dann eben
    auch... da sind ja nicht alle Leute, die
  • 8:26 - 8:30
    da mitspielen nicht gleich mächtig
    oder gleich fähig. Finanzielle
  • 8:30 - 8:34
    Unterschiede können das sein, das können
    strukturelle Unterschiede sein. An dem
  • 8:34 - 8:37
    Fall jetzt zum Beispiel mit Individuum und
    Organisation. Individuum ist eine
  • 8:37 - 8:41
    Person, die hat so Hände, und kann
    irgendwie Dinge tun, und dann gibt es
  • 8:41 - 8:45
    Organisationen, die aus vielen Menschen
    bestehen, aus Regeln, finanziellen Möglichkeiten,
  • 8:45 - 8:48
    rechtlichen Möglichkeiten und
    so weiter. Und die sind natürlich
  • 8:48 - 8:54
    nicht gleich mächtig; haben verschiedene
    Möglichkeiten, ihre Interessen
  • 8:54 - 8:58
    durchzusetzen. Das heißt, sie haben
    verschiedene Möglichkeiten. Sie haben
  • 8:58 - 9:00
    verschieden große Macht, um in diesem
    gesellschaftlichen Spiel
  • 9:00 - 9:06
    mitzumachen. Das sind Machtasymmetrien. Max
    Weber sagt... kann man mit ihm sprechen:
  • 9:06 - 9:09
    "Macht ist die Chance, in einer sozialen
    Beziehungen den eigenen Willen auch gegen
  • 9:09 - 9:14
    Widerstreben durchzusetzen, gleichviel worauf
    diese Chance beruht." Kann man
  • 9:14 - 9:16
    unterscheidenden in Durchsetzungskraft:
    also Dinge zu verursachen.
  • 9:16 - 9:20
    Verhinderungsmacht: Dinge nicht
    stattfinden zu lassen, die dem eigenen
  • 9:20 - 9:24
    Interesse widersprechen, und
    Definitionsmacht: Wie spricht man über
  • 9:24 - 9:28
    bestimmte Themen. Ein bisschen
    Wahlcomputer, Wahlmaschinen und ihr kennt
  • 9:28 - 9:33
    die Geschichte. Jetzt ist die Frage: Ok,
    das ist alles noch nicht technisch. Beim
  • 9:33 - 9:40
    Datenschutz, was uns für den Datenschutz
    interessiert, ist an der Stelle, dass wir
  • 9:40 - 9:44
    in eine allgemeine allgegenwärtige
    Computerisierung und Vernetzung haben.
  • 9:44 - 9:48
    Aka. Digitalisierung wird es seit ein paar
    Jahren genannt, obwohl dieser Prozess seit
  • 9:48 - 9:51
    ungefähr 50 Jahren schon läuft. Und
    wir haben automationsgestützte
  • 9:51 - 9:55
    Informationsverarbeitung, insbesondere von
    Organisationen, also von staatlichen und
  • 9:55 - 10:00
    von wirtschaftlichen Organisationen.
    Mittlerweile, oder seit einer Weile, ist es
  • 10:00 - 10:05
    schon so, dass da eben keine individuellen
    Wahlmöglichkeiten mehr sind. Man kann sich
  • 10:05 - 10:08
    entscheiden kein Handy zu haben, aber wenn
    man Steuern zahlt, muss man halt doch mit
  • 10:08 - 10:13
    dem ELSTER arbeiten. Egal ob es Rente,
    Krankenkasse und so weiter... ihr kennt die
  • 10:13 - 10:16
    Geschichten. Man kommt da eben auch nicht
    mehr raus. Es sei denn man zieht irgendwie
  • 10:16 - 10:21
    in den Wald und eine Höhle. Aber wenn man
    sich dann verletzt, kann man vielleicht
  • 10:21 - 10:23
    einen Kräutertee trinken, aber wenn der
    Arm ab ist, dann will man vielleicht doch
  • 10:23 - 10:26
    ein Krankenhaus.
  • 10:28 - 10:30
    Warum ist das relevant?
    Naja, diese Informationsverarbeitung,
  • 10:30 - 10:34
    die Nutzung dieser Daten, die wird
    verwendet, um Entscheidungen zu
  • 10:34 - 10:40
    produzieren. Entscheidungen produzieren
    heißt: Wieviel Geld kann ich abheben. Was
  • 10:40 - 10:44
    ist die schnellste Route von A nach B. Was
    sind irgendwie beste Freunde, die ich
  • 10:44 - 10:47
    vorgeschlagen bekomme. All diese Sachen,
    das sind ja alles Entscheidungen, wo man
  • 10:47 - 10:55
    auch anders hätte agieren können, aber
    Computer says... und so weiter. Kleine
  • 10:55 - 10:58
    Bemerkung natürlich: diese Entscheidungen werden
    produziert, egal ob die Datenbasis korrekt
  • 10:58 - 11:03
    ist oder nicht. Die Ergebnisse sind da und
    werden dann... wenn die Karte falsch
  • 11:03 - 11:06
    ist, landet man im Graben, zum Beispiel.
  • 11:07 - 11:09
    Okay, jetzt ist die Frage: Naja, wir reden
  • 11:09 - 11:14
    von Datenschutz und von
    Informationsverarbeitung. Daten oder
  • 11:14 - 11:19
    Informationen, ganz kurz, wir sind noch in
    der Begriffsphase. Also Daten im Datenschutz
  • 11:19 - 11:24
    meint Informationen, die Modelle eines
    Sachverhaltes für einen Zweck sind. Das
  • 11:24 - 11:31
    ist jetzt erst mal ein bisschen viel auf
    einmal. Aber wenn ich eine Glaserei betreibe,
  • 11:31 - 11:35
    dann interessiert mich natürlich bei einem
    Haus was ich in meiner Datenbank eintrage:
  • 11:35 - 11:38
    Wie viele Fenster sind in dem Haus, wie
    groß sind die Fenster, welche Art von
  • 11:38 - 11:42
    Format sind das und so weiter. Wenn ich
    irgendwie eine Malerei betreibe dann
  • 11:42 - 11:46
    interessiert mich natürlich: Wie groß ist die
    Fläche des Hauses und so weiter. Das heißt, ich
  • 11:46 - 11:51
    greife mir immer einen Ausschnitt aus der
    Realität und modelliere den auf diesen
  • 11:51 - 11:56
    Zweck hin wofür ich es verwenden will,
    dann bei der Datenverarbeitung. Das heißt,
  • 11:56 - 12:03
    es sind Modelle eines Realitäts-
    Ausschnitts. Für einen bestimmten Zweck.
  • 12:04 - 12:08
    Und deswegen können wir nicht den
    technischen Informationsbegriff von Shannon
  • 12:08 - 12:11
    nehmen. Also von wegen Abtastung und
    welche Auflösung ist da und wie, ihr
  • 12:11 - 12:16
    kennt das so, mit 44 Kilohertz und CD und
    nimm doch lieber die Goldstecker und so.
  • 12:16 - 12:21
    Das ist nicht der Punkt. Wir benutzen
    einen der Semiotik, der sagt, Informationen
  • 12:21 - 12:25
    oder die Daten, aus Datenschutz,
    bestehen aus Syntax, Semantik, Pragmatik
  • 12:25 - 12:30
    und Sigmatik. Syntax ist die zeichenmäßige
    Repräsentation, also die Nullen und
  • 12:30 - 12:34
    Einsen. Semantik ist die Bedeutung.
    Pragmatik ist der Zweck, für den diese
  • 12:34 - 12:38
    Daten erhoben worden sind. Wir erinnern
    uns, die Glaserei oder die Malerei.
  • 12:38 - 12:42
    Und Sigmatik ist die betroffene Person.
    Das heißt, wessen Haus das ist, oder so.
  • 12:42 - 12:44
    Als Beispiel könnte man sagen:
  • 12:46 - 12:49
    irgendwie so ein Tupel von
    Nullen und Einsen, so ein
  • 12:49 - 12:53
    Zweiertupel. Die Semantik davon: Aha das
    sind Geo-Koordinaten, das müsste im System
  • 12:53 - 12:58
    hinterlegt sein, eines Mobiltelefons.
    Pragmatik: Der Zweck wäre die
  • 12:58 - 13:01
    Bereitstellung ortsabhängiger Services zum
    Beispiel für eine Routenplanung, wo möchte
  • 13:01 - 13:05
    ich hin, wo gibt es eine Pizza oder so. Und
    Sigmatik ist dann Maxi Musterfrau, weil das
  • 13:05 - 13:09
    die Person ist, deren Mobiltelefon das
    ist, an der Stelle.
  • 13:12 - 13:16
    So ist die Situation. Das ist doch erstmal nett,
    klingt irgendwie nützlich. Aber was ist
  • 13:16 - 13:21
    eigentlich das Problem jetzt? Die Technik,
    die immer besser wird, und die Daten,
  • 13:21 - 13:24
    die gesammelt werden, Informationen,
    die verarbeitet werden und
  • 13:24 - 13:28
    anhand derer Entscheidungen getroffen
    werden, die wird immer besser, immer
  • 13:28 - 13:30
    effizienter nach bestimmten Kriterien,
    aber sie hilft natürlich den
  • 13:30 - 13:36
    Organisationen, die sie verwenden, ihre
    eigenen Interessen besser durchzusetzen.
  • 13:36 - 13:39
    Technik soll die Welt besser machen,
    aber nicht für alle, sondern für die,
  • 13:39 - 13:42
    die sie einsetzen - und zwar für die, die
    sie im besten Fall selber bauen
  • 13:42 - 13:47
    können und dann ihren eigenen
    Vorstellungen gemäß formen.
  • 13:50 - 13:54
    Und das kann eben auch sein, dass bei
    dieser Informationsverarbeitung
  • 13:54 - 13:58
    auch Grundrechte von Personen berührt
    werden. Die klassische Diskussion ist
  • 13:58 - 14:01
    immer so Fragen von
    Diskriminierungen oder Ungerechtigkeiten,
  • 14:01 - 14:06
    weil die Daten falsch sind oder sowas, so
    Geschichten. Das heißt, wenn die Ergebnisse,
  • 14:06 - 14:09
    die da produziert werden - im
    schlimmsten Falle auch vollautomatisch -,
  • 14:10 - 14:15
    dass sie Rechte von Menschen berühren und
    die an der Stelle erst mal, weil sie ja
  • 14:15 - 14:18
    Gegenstand - der Automat sagt halt: "Du
    kriegst kein Geld" oder "in diesem Monat
  • 14:18 - 14:23
    ist alles schon aufgebraucht", dagegen
    kann man jetzt erst mal nichts tun.
  • 14:25 - 14:29
    Das heißt, da ist sozusagen eine direkte
    Konsequenz dieser Datenverarbeitung auf
  • 14:29 - 14:33
    Menschen, auf Menschengruppen oder auf
    ganze Gesellschaften. Allerdings muss man
  • 14:33 - 14:35
    auch sagen, diese Datenverarbeitung
    ist wünschenswert, weil sie uns auch
  • 14:35 - 14:39
    was bringt. Also es ist nicht so, dass
    DatenschützerInnen selber am liebsten
  • 14:39 - 14:43
    zurück in die besagte Höhle wollen, wo das
    Feuer komplett verständlich ist.
  • 14:43 - 14:46
    Nein, wir wollen diese informations-
    technischen Systeme, die uns
  • 14:46 - 14:50
    das Leben erleichtern, die wollen wir alle
    haben, aber die Effekte, die negativen,
  • 14:50 - 14:53
    die es auf Menschen hat und auf
    Gesellschaften, die wollen wir minimieren.
  • 14:53 - 14:57
    Und da hilft es natürlich, wenn man
    mit Technikerinnen und Technikern redet.
  • 14:57 - 15:00
    Ja klar, man kann Systeme auf
    verschiedene Arten bauen, man muss halt
  • 15:00 - 15:03
    nur vorher sagen, was man haben will.
  • 15:05 - 15:07
    Und jetzt, wenn man die Probleme mal so
  • 15:07 - 15:11
    konkretisiert, würde man sagen: 1.
    Datenverarbeitung ist wünschenswert, aber
  • 15:11 - 15:15
    es gibt innerorganisatorische
    Datenverarbeitung oder
  • 15:15 - 15:20
    Informationsverarbeitung, das heißt, ich
    kann ja selber überlegen, was ich
  • 15:20 - 15:24
    vielleicht einer Organisation gebe an
    Daten und was nicht, aber was die dann
  • 15:24 - 15:28
    intern damit machen, diese Frage, für
    welchen Zweck sie sie verwenden, wem sie
  • 15:28 - 15:32
    sie weitergeben und so weiter, das kann
    ich selber nicht mehr beeinflussen. In dem
  • 15:32 - 15:35
    Moment sind die Daten außerhalb
    meiner Hand, sind nicht mehr in meiner
  • 15:35 - 15:40
    Kontrolle. Und 2. gibt es natürlich die
    Macht-Asymmetrien. Das heißt, eine Firma,
  • 15:40 - 15:45
    die Unmengen von Daten über Individuen
    hat, kann die natürlich analysieren und
  • 15:45 - 15:48
    daraus Erkenntnisse generieren, die ich
    aus meinen eigenen Daten gar nicht ziehen
  • 15:48 - 15:54
    kann. Das heißt also, alleine die schiere
    Macht, der schierer Datenunterschied,
  • 15:54 - 15:57
    erzeugt andere Möglichkeiten auf den
    verschiedenen Seiten, das heißt, die
  • 15:57 - 16:01
    Player sind alle nicht gleich stark und
    das hängt auch, insbesondere, wenn wir
  • 16:01 - 16:05
    über Datenschutz reden, von der Menge an
    Daten ab, die vorhanden sind.
  • 16:07 - 16:10
    Das heißt, wie ich es eben beschrieben habe,
    nun als Zitat nochmal von Adalbert
  • 16:10 - 16:14
    Podlech: "Informationsvorgänge dürfen
    keine sozialschädlichen Folgen
  • 16:14 - 16:19
    herbeiführen." Das ist so die
    Formulierung. Oder man kann es auch mit
  • 16:19 - 16:23
    Martin Rost sagen: "Die
    Handlungsalternativen des, in diesen
  • 16:23 - 16:27
    Interaktionen Schwächeren, die sollen
    aufrechterhalten werden." Es soll nicht
  • 16:27 - 16:30
    irgendwann so sein, dass die
    Organisationen komplett sagen: "Das ist
  • 16:30 - 16:35
    das Richtige für dich und deswegen gehst
    du diesen Weg lang. Und ihr kennt das ja,
  • 16:35 - 16:39
    wenn in irgendwelchen Softwaren das Menü
    halt nicht sagt "exportieren", dann geht's
  • 16:39 - 16:45
    halt nicht. Das heißt also, wenn wir das
    möchten, muss eben Datenverarbeitung unter
  • 16:45 - 16:48
    Bedingungen gestellt werden. Man muss
    sagen, wenn die Gefahr für so eine
  • 16:48 - 16:52
    Einschränkung von Grundrechten und so
    weiter besteht, dann müssen wir irgendwie
  • 16:52 - 16:56
    Bedingungen für die Datenverarbeitung
    formulieren, dass das minimiert wird oder
  • 16:56 - 16:59
    dass den Risiken begegnet wird oder dass
    sie nicht stattfinden, dass man dieses
  • 16:59 - 17:03
    Thema einfach anders baut, dass sie das
    nicht tun. Innerhalb sozusagen,
  • 17:03 - 17:08
    man würde es jetzt als Fachtermini
    nennen: eine Konditionierung der
  • 17:08 - 17:12
    Macht-Asymmetrie. Das heißt, Konditionen,
    also die Bedingung oder Voraussetzung
  • 17:12 - 17:16
    stellen, unter denen dann diese
    Datenverarbeitung stattfindet. Eben, warum
  • 17:16 - 17:20
    muss es jetzt irgendwie konditioniert
    werden? Weil ich als Außenstehender
  • 17:20 - 17:24
    natürlich nicht die Computersysteme von
    Amazon und wie sie alle heißen, ich kann
  • 17:24 - 17:27
    die ja nicht umprogrammieren, ich kann
    halt die Knöpfe verwenden, die sie mir
  • 17:27 - 17:31
    geben. Nichts Anderes. Oder ich kann
    sagen, ich benutze das alles nicht, aber
  • 17:31 - 17:36
    das ist ne, so auf dieser schwarz-weiß
    Ebene sind wir ja nicht, von der
  • 17:36 - 17:40
    Diskussion.
    Okay. Und die Frage ist immer so,
  • 17:44 - 17:45
    das Schutzgut dabei ist eben, also
  • 17:45 - 17:50
    Datenschutz schützt nicht Daten,
    klar, sondern Individuen, also die
  • 17:50 - 17:52
    Grundrechte und Grundfreiheiten, wenn man
    es so formulieren möchte, und die
  • 17:52 - 17:57
    Gesellschaft insgesamt, aber wenn man sich
    das so anschaut, finden sich diese
  • 17:57 - 18:00
    Individuen, Grundrechte und
    Grundfreiheiten, die finden sich wieder.
  • 18:00 - 18:07
    Aber diese gesamtgesellschaftlichen Fragen,
    da muss man sehr stark danach suchen.
  • 18:07 - 18:10
    Man kann es konstruieren, aber so
    explizit ist es da nicht drin zu finden,
  • 18:10 - 18:14
    das hat rechtsdogmatische Gründe. Aber das
    ist nur wieder eine Erinnerung daran, dass
  • 18:14 - 18:19
    sich die Fragen des Datenschutzes oder die
    Antworten des Datenschutzes und des
  • 18:19 - 18:23
    Datenschutzrechts nicht deckungsgleich
    sind. Das eine ist immer ein Ergebnis aus
  • 18:23 - 18:28
    dem anderen, im besten Falle, aber manchmal
    auch nicht. Man würde auch, um das zu
  • 18:28 - 18:33
    erklären, warum Datenschutz sagen, na ja,
    wenn wir uns Märkte angucken, dann gibt's
  • 18:33 - 18:37
    eben Kartellämter, und die sagen, wenn
    bestimmte Akteure zu stark werden dann
  • 18:37 - 18:42
    muss man die begrenzen und die anderen
    ein bisschen stützen, damit der Markt als Ganzes
  • 18:42 - 18:44
    funktioniert und genauso kann
    man sich es auch beim Datenschutz
  • 18:44 - 18:47
    vorstellen. Wir haben die
    Informationsgesellschaft und da gibt es
  • 18:47 - 18:51
    Informationsmacht verschiedener Akteure.
    Da brauchen wir irgendwas, in dem Fall
  • 18:51 - 18:57
    zum Beispiel Datenschutzrecht, die diesen
    Ausgleich bringt. Nicht das einzelne
  • 18:57 - 19:02
    Datum zählt, sondern die Anhäufung selber
    die dann ein Ergebnis produziert.
  • 19:03 - 19:06
    Ihr kennt bestimmt den Spruch: "Bei Wurst und
    Gesetzen möchte man nicht dabei sein wenn
  • 19:06 - 19:11
    sie gemacht werden." Das ist natürlich
    immer die Frage, was die Datenschutz-
  • 19:11 - 19:16
    Diskussion bereits seit den 60er, 70er
    Jahren so produziert hat, ist natürlich,
  • 19:16 - 19:23
    wenn es dann zu Recht wird, immer
    Gegenstand von Aushandlung, von politischen
  • 19:23 - 19:26
    Verhandlungen, "wir nehmen das mit rein
    und das nicht mit rein" und so weiter.
  • 19:26 - 19:30
    Deswegen muss man immer aufpassen, dass man
    die Datenschutz-Diskussion nicht oder
  • 19:30 - 19:34
    nicht primär als Datenschutzrechts-
    Diskussion führt, weil man sich dann
  • 19:34 - 19:38
    sehr eingeengt auf das was einmal durch
    die Politik gegangen ist. So jetzt kommen
  • 19:38 - 19:44
    wir mal ein bisschen zu einer Theorie, um
    die Sachen zusammenzubinden, um sie nochmal
  • 19:44 - 19:48
    in einen größeren Kontext einzubauen. Wir
    gucken uns jetzt mal den Informationsfluss an:
  • 19:49 - 19:53
    Am Anfang jetzt vielleicht ein
    bisschen verwirrend, aber wir haben hier
  • 19:53 - 19:59
    links den Informationsfluss von starken
    Akteuren zu schwachen Akteuren - wir haben
  • 19:59 - 20:03
    darunter von schwachen Akteuren zu starken
    Akteuren und darüber die beiden Seiten
  • 20:03 - 20:08
    sind eben den Informationsfluss zu fördern
    oder diesen Informationsfluss zu
  • 20:08 - 20:13
    blockieren. Das heißt, wenn wir uns die
    erste Zeile anschauen: Wir wollen den
  • 20:13 - 20:16
    Informationsfluss vom starken zum
    schwachen Akteur, zum Beispiel von der
  • 20:16 - 20:22
    Organisation zum Individuum. Das wollen
    wir fördern, weil der Starke dadurch, dass
  • 20:22 - 20:26
    er Informationen preisgeben muss - über
    sich, über seine Verarbeitung und so weiter,
  • 20:26 - 20:31
    in dieser Informationsasymmetrie, der
    Machtasymmetrie schwächt. Und weil die
  • 20:31 - 20:34
    einzelne Person damit Informationen
    erlangt, was damit passiert, wird die Person
  • 20:34 - 20:40
    gestärkt. Das nennen wir Transparenz, das
    nennen wir Informationsfreiheit. Das zu
  • 20:40 - 20:45
    blockieren, das heißt, dass die großen
    Organisationen nicht sagen müssen, was sie
  • 20:45 - 20:49
    gerade damit tun, welche Daten sie haben,
    das nennt sich Arkanpraxis. Für die
  • 20:49 - 20:54
    RollenspielerInnen unter euch, Arkan - die Magie,
    Arkan heißt einfach nur geheim. Es ist
  • 20:54 - 20:58
    unklar was da was da getan wird. Anders
    herum ist der Informationsfluss von
  • 20:58 - 21:02
    schwachen Akteuren zu starken Akteuren.
    Wenn wir den fördern, dann nennt man das
  • 21:02 - 21:10
    Verdatung. Ist jetzt nicht der Fachbegriff,
    aber der, den man auch so kennt.
  • 21:10 - 21:13
    Also die Verdatung, überall
    Sensoren, alle möglichen
  • 21:13 - 21:17
    Handlungen, die im Digitalen stattfinden
    werden protokolliert und so weiter. Und
  • 21:17 - 21:21
    wenn man diesen Informationsfluss aber
    blockiert und den unter Bedingungen stellt
  • 21:21 - 21:27
    dann sind wir beim Datenschutz. Das ist
    die Struktur. Wie ihr jetzt erkennt
  • 21:27 - 21:30
    sozusagen von rechts oben nach links
    unten. Also Arkanpraxis und Verdatung,
  • 21:30 - 21:34
    das ist das was wir in totalitären Staaten
    und so weiter sehen. Und das ist auch das,
  • 21:34 - 21:39
    was wir sehen wenn wir Diskussionen mit
    großen kommerziellen Organisationen
  • 21:39 - 21:43
    führen. Nein, wir wollen nicht erzählen was
    wir machen, wir wollen aber alles über dich
  • 21:43 - 21:50
    wissen. Es ist immer die Richtung und die
    andere Seite, das ist sozusagen die rote
  • 21:50 - 21:53
    Diagonale ist genau das, was den Starken
    noch stärker macht und den Schwachen noch
  • 21:53 - 21:59
    weiter schwächt. Die andere Richtung, die
    Grüne, ist genau das, was den Starken
  • 21:59 - 22:03
    schwächt und den Schwachen stärkt. Nämlich
    Transparenz und Informationsfreiheit
  • 22:03 - 22:08
    bezüglich der Starken und den Datenschutz
    bezüglich der Schwachen. An dieser Stelle
  • 22:08 - 22:13
    ein kleines Dankeschön zum Beispiel an OKF
    und Frag den Staat und so weiter. Oder
  • 22:13 - 22:16
    beim Datenschutz andere Organisationen wo
    ich zum Beispiel auch aktiv bin. Das heißt
  • 22:16 - 22:19
    man merkt das ist überhaupt gar kein
    Widerspruch an der Stelle. Die Frage ist
  • 22:19 - 22:23
    nur wer muss transparent sein und wer soll
    nichts von sich preisgeben oder so wenig
  • 22:23 - 22:29
    wie möglich von sich preisgeben. Deswegen
    erklärt sich auch das Mysterium für manche
  • 22:29 - 22:33
    warum wir zum Beispiel einen
    Bundesbeauftragten für den Datenschutz und
  • 22:33 - 22:36
    die Informationsfreiheit haben, warum das
    zusammen gehört, genau deswegen gehört das
  • 22:36 - 22:38
    zusammen.
  • 22:40 - 22:44
    Warum gibt's aber auch Meinungen
    für weniger Datenschutz. Na ja klar
  • 22:44 - 22:48
    Datenschutz kostet Ressourcen: finanziell,
    personell, konzeptionell. Man muss das
  • 22:48 - 22:51
    Thema anders planen, anders umbauen und so
    weiter. Aber auch verhindert der
  • 22:51 - 22:54
    Datenschutz Informationsnutzung, Das
    ist der Zweck der Sache, trotzdem ist es
  • 22:54 - 22:57
    ein Argument. Das heißt, bestimmte
    Geschäftsmodelle gehen nicht mehr und
  • 22:57 - 23:02
    so weiter. Für staatliche Aufgaben werden
    Daten benötigt und wenn die Daten nicht
  • 23:02 - 23:06
    fließen können, dann werden bestimmte
    staatlichen Aufgaben schwieriger oder
  • 23:06 - 23:12
    auch wirtschaftliche Tätigkeiten werden
    erschwert. Das ist zwar richtig, aber es
  • 23:12 - 23:15
    ist kein neues Problem wenn man über
    Gesellschaft nachdenkt. Gleiches gilt
  • 23:15 - 23:17
    natürlich für Hygieneregeln,
    Sicherheitsvorschriften,
  • 23:17 - 23:20
    Kinderarbeitsverbot, Arbeitnehmerrechte,
    Umweltstandards und so weiter und so fort.
  • 23:20 - 23:25
    Die kosten auch alle, aber wir haben uns
    entschieden: Das sind alles Maßnahmen, wo
  • 23:25 - 23:31
    es darum geht die Schwächeren, die sich
    schlechter wehren können, die vielleicht
  • 23:31 - 23:36
    auch nicht das Wissen haben, irgendwie
    davor zu schützen, dass da jemand
  • 23:36 - 23:40
    durchagiert und die eigenen Interessen
    schamlos durchsetzt.
  • 23:43 - 23:44
    Wem's aufgefallen ist,
  • 23:44 - 23:49
    ich hab jetzt noch nicht einmal den
    Begriff Privatsphäre verwendet. Und das
  • 23:49 - 23:55
    ist ganz bewusst genau der Punkt. Weil
    Privatsphäre ist immer so eine Idee: Ich
  • 23:55 - 24:00
    alleine in meinem Schlafzimmer. Der
    Soziologe Paul Müller nennt das:
  • 24:00 - 24:04
    "Schneckenhaus-Privatsphäre". Seiner
    Ansicht nach ist das nur in
  • 24:04 - 24:07
    vorindustriellen Lebensweisen möglich, wo
    man tatsächlich sagte: Ich lebe auf dem
  • 24:07 - 24:10
    Gut hier, und die Leute ein paar
    Kilometer weiter, die kennen mich noch
  • 24:10 - 24:15
    nicht einmal. Vielleicht ist das sozusagen
    diese Art von Anonymität, vielleicht
  • 24:15 - 24:20
    könnte man da nennen. Aber jetzt
    tatsächlich, was wir eigentlich wollen,
  • 24:20 - 24:25
    ist, wenn man sagt, wir brauchen irgendwie
    Girokonten und so weiter all diese Sachen.
  • 24:25 - 24:28
    Es geht nicht darum, dass niemand Daten
    hat, sondern dass die Begrenztheit des
  • 24:28 - 24:32
    Wissens über Individuen aufrechterhalten
    wird. Dass es nirgendwo eine Komplett-
  • 24:32 - 24:38
    Ansicht gibt oder dass bestimmte Akteure
    immer nur genau das wissen, was sie
  • 24:38 - 24:40
    eigentlich wissen sollten und man kann
    natürlich diskutieren wie viel das denn
  • 24:40 - 24:47
    sein soll. Wilhelm Steinmüller, einer der
    Ur-Ur-Urgestein Müller, könnte man sagen,
  • 24:47 - 24:51
    des Datenschutzdiskurses formulierte das
    so: "Es geht nicht um Privatsphäre, es
  • 24:51 - 24:55
    geht darum, eine Technik sozial
    beherrschbar zu machen." Und welche
  • 24:55 - 24:58
    Grundrechte werden berührt von dieser
    Datenverarbeitung? Nicht nur Grundrechte
  • 24:58 - 25:02
    auf Privatleben, was zum Beispiel Artikel
    7 der Europäischen Grundrechtecharta ist,
  • 25:02 - 25:06
    sondern eigentlich quasi alle. Wenn ihr
    dran überlegt, so was wie Meinungsfreiheit
  • 25:06 - 25:11
    Informationsfreiheit, so Fragen
    wie Demonstrationsfreiheit, Würde
  • 25:11 - 25:15
    des Menschen, das könnte man alles
    durchbuchstabieren. Eigentlich könnte man
  • 25:15 - 25:18
    sagen: Der Datenschutz ist so
    eine Art digitale Dimension aller
  • 25:18 - 25:22
    Grundrechte. Und das jetzt auf
    Privatsphäre zu reduzieren, da
  • 25:22 - 25:25
    ist was Richtiges dran, aber es verengt
    den Blick doch radikal, worum es
  • 25:25 - 25:27
    eigentlich geht.
  • 25:28 - 25:30
    So, wie gehen wir damit
    jetzt irgendwie um?
  • 25:32 - 25:33
    Operationalisierung:
  • 25:33 - 25:36
    Wie können wir diese Ideen mit stark und
    schwach, wie können wir da irgendwie
  • 25:36 - 25:41
    Anforderungen daraus bauen? Wie können wir
    da Dimensionen daraus kristallisieren? Das
  • 25:41 - 25:47
    haben diverse Menschen getan und sind zu
    einem Ergebnis gekommen, zu sagen, wenn es
  • 25:47 - 25:53
    um Datenschutz geht, dann müssen
    informationsverarbeitende Systeme
  • 25:53 - 25:57
    bestimmte Schutzziele verfolgen. Und die
    Schutzziele sind Nichtverkettbarkeit,
  • 25:57 - 26:02
    Vertraulichkeit, Intervenierbarkeit,
    Transparenz, Verfügbarkeit und Integrität.
  • 26:02 - 26:06
    Das ist sozusagen: Diese Ziele, auf diese
    Ziele hin kann man alle technischen Geräte
  • 26:06 - 26:09
    oder alle technischen Systeme oder
    informationstechnischen Systeme hin
  • 26:09 - 26:14
    analysieren und kann sehen, inwiefern sie
    diese Ziele umsetzen. Weil diese Ziele
  • 26:14 - 26:18
    genau die Werte, die wir eben besprochen
    haben, realisieren, kann man die
  • 26:18 - 26:24
    analysieren. Nichtverkettbarkeit heißt,
    bestimmte Informationen, die erhoben worden
  • 26:24 - 26:27
    sind für verschiedenste Zwecke, die eben
    nicht zu verbinden, Informationen nicht
  • 26:27 - 26:30
    einfach so irgendwo kaufen zu können.
    Wir reden jetzt über Datenschutz, nicht
  • 26:30 - 26:35
    Datenschutzrecht. Nicht einfach so kaufen
    zu können und die zu verbinden,
  • 26:37 - 26:41
    zum Beispiel nicht Daten zu erheben, die für
    den eigentlichen Geschäftszweck oder
  • 26:41 - 26:45
    eigentliche Handlungen gar nicht notwendig
    sind, das zu beschränken an der Stelle.
  • 26:45 - 26:49
    Integrität, die Unversehrtheit der Daten,
    das heißt, dass sie nicht verändert
  • 26:49 - 26:54
    werden, dass ich mich darauf verlassen
    kann, die Daten, die ich übermittle oder
  • 26:54 - 27:00
    die erhoben werden, dass sie tatsächlich
    so bleiben und an der Stelle zum Beispiel
  • 27:00 - 27:05
    korrekt bleiben. Verfügbarkeit heißt an
    der Stelle, dass ich die Systeme eben
  • 27:05 - 27:09
    nutzen kann. Wenn ich mich darauf verlasse
    dass ich diese Routenplanung habe und die
  • 27:09 - 27:14
    wollen von mir irgendwie Geld haben dafür,
    dass ich das nutzen kann usw., dann will
  • 27:14 - 27:17
    ich natürlich auch, dass es funktioniert.
    Weil ansonsten ist es ja ein schlechter
  • 27:17 - 27:23
    Handel. Transparenz bezieht sich darauf,
    nicht nur welche Daten vorliegen, sondern
  • 27:23 - 27:26
    auch wie funktionieren eigentlich die
    Prozesse? Was sind denn die Zwecke der
  • 27:26 - 27:29
    Verarbeitung? Wie funktioniert denn die
    ganze Innerei? Was passiert da? Was sind
  • 27:29 - 27:33
    eigentlich die Nebenkonsequenzen? Es gibt
    ja einmal die intendierten Resultate und
  • 27:33 - 27:37
    Konsequenzen und dann gibt es eben auch
    die Unintendierten. Und genau das muss
  • 27:37 - 27:40
    irgendwie für mich einsehbar sein.
  • 27:41 - 27:43
    Intervenierbarkeit ist ein Schutzziel, das
  • 27:43 - 27:48
    sagt eben: Na ja, also wenn Daten eben
    nicht korrekt sind und das System rechnet
  • 27:48 - 27:51
    weiter, egal ob es meine Kredite sind oder
    ob ich jetzt irgendwie einen Tisch bekomme
  • 27:51 - 27:57
    oder ob ich ein Haus bekomme oder so. Es
    muss natürlich auch möglich sein, dass
  • 27:57 - 28:00
    dieses System, wenn man Fehler in dem
    System erkennt, zu sagen: Stopp, ich
  • 28:00 - 28:04
    möchte, dass sich das ändert. Ich möchte,
    dass die Daten zum Beispiel berichtigt
  • 28:04 - 28:07
    werden oder aber ich möchte, wenn ich
    feststelle, dass dieses System
  • 28:07 - 28:11
    diskriminierend ist. Ich möchte, dass das System
    so gebaut ist, dass ich irgendwas tun kann als
  • 28:11 - 28:15
    Betroffener, dass das aufhört. Es reicht
    ja nicht zu sagen: Ja, also, wir sind
  • 28:15 - 28:18
    total transparent. Aber dadurch, dass wir
    die Stärkeren sind, kannst du einfach
  • 28:18 - 28:23
    nichts tun. Man muss ja irgendwo sozusagen
    den Notausschalter ist jetzt übertrieben,
  • 28:23 - 28:25
    natürlich.
  • 28:26 - 28:28
    Und als letzten Punkt, die
    Vertraulichkeit. Das heißt, die
  • 28:28 - 28:32
    Informationen, die ich denen, die da für
    mich irgendwie Service anbieten, die ich
  • 28:32 - 28:35
    gebe, da möchte ich auch sichergehen, dass
    sie nirgendwo anders hingehen, dass die
  • 28:35 - 28:39
    genau da bleiben und genau dafür verwendet
    werden. Aber Vertraulichkeit ist, dass sie
  • 28:39 - 28:44
    genau da nur bleiben und niemand
    Unbefugtes darauf Zugriff hat. Jetzt kann
  • 28:44 - 28:49
    man sagen: Na, interessant,
    Nichtverkettbarkeit, Transparenz und
  • 28:49 - 28:54
    Intervenierbarkeit, da sagt man so, das
    hat den Primat des Datenschutzes und die
  • 28:54 - 28:57
    Aufmerksamen unter euch merken: Ach,
    interessant die anderen drei, das ist das
  • 28:57 - 29:02
    Primat der Datensicherheit. Das heißt,
    wenn man aus dieser Sicht auf Datenschutz
  • 29:02 - 29:07
    blickt, erkennt man das, dass nicht
    Datenschutz so ein Unterteil von
  • 29:07 - 29:11
    Datensicherheit ist, sondern aus dieser
    Sicht genau andersrum. Wir erinnern uns,
  • 29:11 - 29:15
    am Anfang, Datensicherheit, da ging es
    darum: Wie können denn die Daten, die da
  • 29:15 - 29:18
    sind ordentlich abgesichert werden und
    gegen die Hacker und Angriffsszenarien und
  • 29:18 - 29:22
    so weiter. Ja klar, aber der Datenschutz
    fragt: Ja, sollten diese Daten denn
  • 29:22 - 29:29
    überhaupt da sein? Man könnte sich so ein
    Zwiegespräch vorstellen, wo die
  • 29:29 - 29:32
    Datenschützerin sagt: Na ja, aber das
    Datum ist nicht korrekt, was da
  • 29:32 - 29:36
    gespeichert ist. Und die IT-
    Sicherheitsabteilung: Ja ja aber das ist
  • 29:36 - 29:40
    richtig gut beschützt. Da merkt man, das
    ist ein Konflikt, das ist nicht das
  • 29:40 - 29:46
    Gleiche. Genau, das sind so die
    Schutzziele und die kann man tatsächlich
  • 29:46 - 29:51
    verwenden. Und es ist auch nicht parallel,
    sondern diese Schutzziele kann man sehen,
  • 29:51 - 29:56
    das ist ein Beitrag von 2013 schon, dass
    diese Schutzziele des Datenschutzes
  • 29:56 - 30:00
    tatsächlich auch mit dem Recht, was
    gesprochen worden ist, vereinbar sind. Das
  • 30:00 - 30:02
    heißt, es ist nicht komplett alles
    umgesetzt, aber es ist eben auch kein
  • 30:02 - 30:06
    Widerspruch. Wir erinnern uns hier wieder,
    Datenschutz und Datenschutzrecht ist eben
  • 30:06 - 30:07
    nicht das Gleiche.
  • 30:09 - 30:14
    Okay, das war jetzt so der
    Durchritt erstmal für die Grundlagen
  • 30:14 - 30:18
    an der Stelle und jetzt kommen wir zu den
    Nicht-Lösungen. Das sind quasi so ein paar
  • 30:18 - 30:21
    Kommentare, die ich mir jetzt so noch erlaube.
  • 30:23 - 30:25
    Okay, also erstmals: Der
  • 30:25 - 30:29
    Selbstdatenschutz, ganz beliebt
    insbesondere in Verbindung mit der
  • 30:29 - 30:33
    Blockchain. Okay, das spare ich mir jetzt.
    Also wenn das Datenschutz-Konzept ernst
  • 30:33 - 30:38
    genommen werden soll: Wir überlegen uns,
    schwache, starke Akteure, Möglichkeiten
  • 30:38 - 30:42
    transparent, und so weiter. Wie soll denn
    Selbstdatenschutz da aussehen?
  • 30:44 - 30:48
    Wie kann mein Selbstdatenschutz aussehen,
    wenn ich eine innerorganisationale
  • 30:48 - 30:52
    Datenverarbeitung habe? Wie kann ich denn
    bei Facebook selbst Datenschutz machen?
  • 30:52 - 30:56
    Also außer, wenn ich da bewaffnet
    reingehe, aber das ist jetzt nicht
  • 30:56 - 31:02
    wirklich eine skalierende Lösung, neben
    den ganzen anderen Problemen.
  • 31:04 - 31:07
    Bin gegen Gewalt übrigens.
  • 31:09 - 31:12
    Oder die Erinnerung:
    Warum haben wir Datenschutz? Datenschutz haben
  • 31:12 - 31:16
    wir eben nicht weil es eine Rechts-Vor-Links-Regel
    ist im Straßenverkehr, wo die beiden
  • 31:16 - 31:19
    gleich stark sind. Nein, wir haben
    Datenschutz genau deswegen, weil sie eben
  • 31:19 - 31:22
    nicht gleich stark sind. Da jetzt den
    Schwachen zu sagen: Du kannst doch selbst
  • 31:22 - 31:26
    Datenschutz machen. Wenn man wirklich
    verstanden hat, wie Datenschutz
  • 31:26 - 31:30
    funktioniert, ist es zynisch, das
    vorzuschlagen. Das ist genau dem
  • 31:30 - 31:36
    Verprügelten zu sagen: Ja, du musst dich
    ja nur wehren. Es gibt überhaupt keinen Sinn.
  • 31:37 - 31:40
    Da kann man sich ja vorstellen, in
    den Situationen, wann braucht man oder
  • 31:40 - 31:45
    wann ist Datenschutz genau notwendig wenn
    es um Kredit- oder Grenz- oder Einkaufs-
  • 31:45 - 31:48
    oder Durchsuchungssituationen geht?
    Polizeiliche Identitätsfeststellung oder
  • 31:48 - 31:52
    an der Grenze: Geben sie Daten raus und so
    weiter oder nicht. Das sind genau die
  • 31:52 - 31:55
    Fälle, da kann man sich überlegen, wie man
    irgendwie Flüchtenden an der Grenze sagt:
  • 31:55 - 31:57
    Na ja, du kannst ja Selbstdatenschutz
    machen, du musst dein Handy nicht
  • 31:57 - 32:01
    rausrücken. Das ist ein Riesenproblem.
    Genau darum gehts. Starke und schwache
  • 32:01 - 32:07
    Akteure, das irgendwie anzugreifen und
    eben nicht zu sagen: Ja, mach doch selber.
  • 32:08 - 32:15
    Und das heißt, da muss man dann auch
    sagen, danke eben auch an Jörg Pohle für
  • 32:15 - 32:19
    diesen Hinweis, Facebook hat gar keine
    Datenschutzeinstellungen. Facebook hat
  • 32:19 - 32:27
    Einstellungen. Facebook, ich sage jetzt
    mal $SocialNetwork, da gibt's
  • 32:27 - 32:31
    Einstellungen, welche anderen User Daten
    sehen, und welche anderen User da
  • 32:31 - 32:34
    irgendwie interagieren können. Es gibt
    aber keine Einstellungen, was Facebook
  • 32:34 - 32:40
    damit macht. Man kann da manchmal so ein
    bisschen dran rum regeln, aber die
  • 32:40 - 32:43
    Einstellung, wie lange Facebook
    irgendwelche Sachen speichern soll oder
  • 32:43 - 32:48
    nicht, die gibt's eben nicht oder welche
    Verknüpfungen es da geben soll.
  • 32:50 - 32:55
    Wenn man Datenschutz quasi ernst nimmt, ist
    das so ein Punkt. Und natürlich, das ist ja auch
  • 32:55 - 32:57
    irgendwie bei Mobiltelefonen und so
    weiter, da gibts dann immer
  • 32:57 - 33:00
    Datenschutzeinstellungen. Es fühlt sich
    irgendwie so gut an, aber das ist gar
  • 33:00 - 33:04
    nicht Datenschutz, was es da ist. Wenn
    irgendwie bei bestimmten Mobiltelefonen
  • 33:04 - 33:07
    von Google da steht, da halt Datenschutz:
    Wollen Sie ein Backup machen? Ja, das ist
  • 33:07 - 33:11
    aber Datensicherheit, das ist nicht
    Datenschutz. Also es ist was anderes.
  • 33:11 - 33:15
    Okay, dann gucken wir uns mal
    Dateneigentum oder Datensouveränität an.
  • 33:15 - 33:21
    Naja, ein Eigentum, also erstmal
    Begriffskritik: Eigentum selber, das
  • 33:21 - 33:27
    Konzept Eigentum ist ein Exklusivrecht auf
    Sachen. Das heißt also, Eigentum: Entweder
  • 33:27 - 33:32
    ich habe eine bewegliche Sache, ein Auto,
    ein Fahrrad oder sonst was oder
  • 33:32 - 33:36
    unbewegliche Sachen wie Immobilien. Dann
    heißt das, ich kann darüber exklusiv
  • 33:36 - 33:41
    verfügen. Und genau darauf ist die gesamte
    Rechtsordnung auch ausgelegt. Wenn ich
  • 33:41 - 33:45
    sage Daten sind Eigentum, dann merkt man
    schon an dem Konzept: Okay, wenn es
  • 33:45 - 33:48
    Eigentum ist, dann kann es auch gestohlen
    werden. Da kann man sich überlegen.
  • 33:48 - 33:53
    Datendiebstahl, sind die Daten jetzt weg?
    Nee, sie sind ja noch da. Okay, was ist
  • 33:53 - 33:55
    denn jetzt das Problem? Das Problem bei
    Diebstahl ist ja nicht, dass man danach
  • 33:55 - 33:57
    zwei Fahrräder hat, sondern,
    dass man keins mehr hat.
  • 33:57 - 33:59
    Vereinzeltes Lachen
  • 33:59 - 34:01
    Also, es ist eine Frage wie groß
  • 34:01 - 34:06
    der eigene Keller ist. Aber ihr merkt an
    der Stelle, das ist schon vom Konzept her
  • 34:06 - 34:10
    merkwürdig. Aber der nächste Punkt ist:
    Okay, Dateneigentum, dann haben wir das
  • 34:10 - 34:13
    alles, und unser Dateneigentum und wir
    können natürlich unsere Daten dann eben
  • 34:13 - 34:18
    verkaufen und kriegen auch davon was ab,
    von dem schönen Kuchen. Jetzt kann man
  • 34:18 - 34:21
    natürlich gleich eine große
    Diskussion anzureißen, ich will da
  • 34:21 - 34:27
    nicht einsteigen. Ist es tatsächlich die 3
    Euro pro Monat an alle Facebook-Userinnen
  • 34:27 - 34:34
    und -User wert, dafür Wahlmanipulationen
    ganzer Gesellschaften und Diskriminierung
  • 34:34 - 34:38
    an unserer Gesellschaft zu ermöglichen?
    Was ist denn das für ein komischer Handel
  • 34:38 - 34:43
    an der Stelle? Man merkt da, da haut was
    nicht hin und mehr ist es ja nicht. Dieses
  • 34:43 - 34:47
    Geld entsteht dadurch, dass es so viele
    User gibt, weil es so super gut skaliert.
  • 34:48 - 34:51
    Das heißt, die einzelne Person hätte genau
    von diesen 3 und meintewegen mögen es auch
  • 34:51 - 34:55
    30 Euro sein tatsächlich in diesem
    Vergleich gar nichts. Also offensichtlich
  • 34:55 - 34:57
    haben wir hier ein größeres Problem.
  • 34:58 - 35:00
    Man könnte auch wieder sagen: "Ach
  • 35:00 - 35:03
    interessant, Dateneigentum, das
    unterstützt wieder nur die starken
  • 35:03 - 35:09
    Akteure, die werden bevorzugt".
    Tatsächlich ist es wieder ein Freikaufen,
  • 35:09 - 35:14
    wenn man sagt, ich hab nicht die
    Notwendigkeit meine Daten zu verkaufen,
  • 35:14 - 35:18
    ich kann die bei mir behalten.
    Dateneigentum ist doch schön, jeder ist
  • 35:18 - 35:21
    selbst irgendwie verantwortlich, die
    Souveränität des Einzelnen oder der
  • 35:21 - 35:25
    einzelnen Person. Aber wie gesagt, das ist
    freikaufen: Wenn ich das Geld habe dann
  • 35:25 - 35:34
    bin ich drauf nicht angewiesen, ansonsten
    musste ich mich quasi ausliefern an der
  • 35:34 - 35:38
    Stelle. Klassisches Beispiel bei der
    Autodatenübermittlung, wenn ich mich recht
  • 35:38 - 35:46
    erinnere, bei Mercedes ab irgendeiner
    Klasse gehen dann keine Daten mehr raus,
  • 35:46 - 35:50
    weiter oben. Weil klar ist: Die
    Käuferinnen und Käufer weiter oben, die
  • 35:50 - 35:54
    mögen es gerne wenn die Daten - was im
    Auto passiert bleibt auch im Auto.
  • 35:54 - 35:59
    So, aber darunter halt nicht. Oder man kann
    sich auch überlegen an der Stelle: Smart-
  • 35:59 - 36:03
    TV-Daten, inwiefern da so eine
    Datensouveränität vorherrscht, wenn man
  • 36:03 - 36:06
    irgendwie einem alleinerziehenden
    Elternteil sagt: "Ja, du bist total
  • 36:06 - 36:11
    datensouverän, du kaufst dir hier einen
    Fernseher irgendwie für 500 Euro, oder
  • 36:11 - 36:15
    250, wenn du alle Daten rausleitest. Kann
    man sich ja überlegen, wie datensouverän
  • 36:15 - 36:19
    dann eine Person agiert. Nächste Frage:
    Wenn Daten Eigentum sind, wem gehören denn
  • 36:19 - 36:23
    Kommunikationsdaten oder Bilddaten, wo
    mehrere Leute dran beteiligt sind, und so
  • 36:23 - 36:28
    weiter? Hinten und vorne Probleme,
    Probleme. Das ist so ein bisschen unklar,
  • 36:28 - 36:31
    welches Problem da wie gelöst wird. Es ist
    natürlich wieder die Abwälzung auf die
  • 36:31 - 36:37
    einzelne Person. Man könnte auch genauso
    sagen, "Hygienesouveränität" könnte man ja
  • 36:37 - 36:40
    auch sagen. Man geht halt irgendwie in
    eine Küche und wir haben halt keine
  • 36:40 - 36:43
    Hygieneregeln, du kennst dich doch
    bestimmt aus, gehst dann erst einmal
  • 36:43 - 36:47
    irgendwie hinten rein, ob die Küche dir
    sauber genug ist oder nicht. Du weißt gar
  • 36:47 - 36:51
    nicht, wonach du gucken sollst? Naja, Pech
    gehabt. Das ist die Art von Souveränität,
  • 36:51 - 36:56
    die da proklamiert wird bei Dateneigentum
    und Datensouveränität. Das ist genau
  • 36:56 - 36:59
    wieder die Souveränität des Stärkeren.
  • 36:59 - 37:03
    Okay, dann kommen wir noch, als Punkt,
  • 37:03 - 37:08
    verbunden mit der Datensouveränität: Ich
    habe es dann mal Einwilligungsfetisch
  • 37:08 - 37:13
    genannt. Das ist immer so ein Rückgriff
    auf das Grundrecht auf informationelle
  • 37:13 - 37:17
    Selbstbestimmung, was ich total großartig
    finde, aber es reicht eben nicht aus.
  • 37:17 - 37:21
    Warum reicht das nicht aus? Naja,
    Einwilligung heißt, alle mögliche
  • 37:21 - 37:28
    Datenverarbeitung, da werde ich vorher
    gefragt, ob sozusagen meine Daten
  • 37:28 - 37:31
    verarbeitet werden dürfen für bestimmte
    Zwecke, und jetzt ist die Frage: Was ist
  • 37:31 - 37:35
    denn das Problem an so einer
    Einwilligungsfrage? Erstens, da gibt es
  • 37:35 - 37:38
    zwei Möglichkeiten: Entweder es gibt eine
    Informationsasymmetrie oder eine
  • 37:38 - 37:43
    Machtasymmetrie, wo man das Problem sieht.
    Informationsasymmetrie heißt: Ich habe da
  • 37:43 - 37:48
    eine Einwilligung, die ich geben muss, und
    ich habe daneben 150 Seiten AGB, die ich
  • 37:48 - 37:52
    jetzt lesen muss, um dann irgendwie
    ordentlich einzuwilligen. Da sagen
  • 37:52 - 37:55
    natürliche Organisationen, insbesondere
    Konzerne: "Ja, ist doch super, und leider
  • 37:55 - 37:59
    auch in der DSGVO, dann machen wir
    irgendwelche Symbole, die das anzeigen, wo
  • 37:59 - 38:04
    es dann einfacher ist für die Personen,
    das irgendwie lesen zu können und das
  • 38:04 - 38:07
    verstehen zu können. Dann können wir
    vielleicht einfache Sprache machen, und,
  • 38:07 - 38:12
    im Endeffekt, wir versuchen es ganz ganz
    ganz ganz dolle, und wenn alle
  • 38:12 - 38:15
    Organisationen des Planeten es ganz dolle
    versuchen und die Leute es immer noch
  • 38:15 - 38:20
    nicht verstehen, dann sind die Leute...
    also jedenfalls, wir haben uns ganz doll
  • 38:20 - 38:27
    bemüht. Das heißt, dass der Druck, oder
    der Handlungsdruck, wenn man das Problem
  • 38:27 - 38:32
    der Informationsasymmetrie sieht, liegt
    wieder bei der einzelnen Person. Die trägt
  • 38:32 - 38:37
    wieder die Last des "Sich-Ordentlich-
    Informieren-Müssens". Wenn man allerdings
  • 38:37 - 38:42
    sagt "Naja, das ist eine Machtasymmetrie",
    was ich vorhin gesagt habe bei der
  • 38:42 - 38:47
    Datensouveränität, wann kann man
    zustimmen, wie sind eigentlich die,
  • 38:48 - 38:49
    was ich gesagt habe
  • 38:49 - 38:56
    Netzwerkeffekte? Welche Probleme entstehen
    denn da auch für andere Menschen, wenn ich
  • 38:56 - 39:00
    sage, ich habe die Google AGB für Google
    Mail verstanden und ich habe den
  • 39:00 - 39:04
    zugestimmt, dann habe ich natürlich auch
    für alle anderen, die mir jemals danach
  • 39:04 - 39:08
    eine Mail schreiben wollen auch noch mit
    zugestimmt. Das heißt, es ist gar kein
  • 39:08 - 39:13
    Informationsproblem, das ich nicht
    verstanden hätte, was irgendwie in den AGB
  • 39:13 - 39:17
    drin stand, sondern das liegt in der Natur
    der Sache der Vernetzung, dass ich das für
  • 39:17 - 39:22
    alle anderen mit entschieden habe. Oder
    aber wenn es halt beim Elternabend heißt
  • 39:22 - 39:24
    "Unsere Facebook-Gruppe hat sich das und
    das gedacht", und dann hat eine Person
  • 39:24 - 39:29
    kein Facebook , oder so weiter. So ganz
    viele Fragen, soziale Rahmenbedingungen,
  • 39:29 - 39:34
    genauso finanzielle Abhängigkeiten. Man
    kann ja eben sagen, ja diesen Dienst, bei
  • 39:34 - 39:39
    der Souveränitätsfrage, ja, "du kannst ja
    gerne diesen Service, du kannst ja
  • 39:39 - 39:43
    einwilligen oder aber es kostet was und
    dann nehmen wir weniger Daten". Man merkt,
  • 39:43 - 39:48
    wenn man es auf diese Machtasymmetrie
    stellt, auf einmal ist es nicht so einfach
  • 39:48 - 39:53
    nur unsere AGB besser schreiben, sondern
    eigentlich brauchen wir harte obere
  • 39:53 - 39:58
    Schranken, das heißt, aka. Regulierung, das
    heißt bestimmte Informationsnutzung darf
  • 39:58 - 40:05
    einfach nicht möglich sein. Wie gesagt,
    wir haben es aktuell mit der Manipulation
  • 40:05 - 40:09
    ganzer Gesellschaften zu tun, auch
    Gewaltverbrechen die aufgrund von, und so
  • 40:09 - 40:13
    weiter. Irgendwo muss man da fragen,
    offensichtlich liegt's nicht daran, dass da
  • 40:13 - 40:20
    irgendwie die AGB nicht gut lesbar sind.
    Ok, dann, Zielgerade, langsam die
  • 40:20 - 40:25
    Algorithmenethik, nur kurz angeschnitten.
    Ich bin ja noch länger hier.
  • 40:25 - 40:29
    Algorithmenethik, ja, das ist so eine
    Mischung, Algorithmen, die ethisch sein
  • 40:29 - 40:32
    können oder nicht ethisch sein können.
    Also erstmals, Algorithmen sind selber ja
  • 40:32 - 40:38
    keine Akteure. Organisationen sind Akteure
    und die wenden Algorithmen an. Das heißt
  • 40:38 - 40:41
    man kann natürlich genauso bei 'ner
    Algorithmenethik fragen, was ist denn die
  • 40:41 - 40:48
    Zementethik? Wie verwendet man Zement? Die
    Frage muss man dann überall stellen, weil
  • 40:48 - 40:51
    die Akteure natürlich genau wissen, welche
    Algorithmen sie verwenden und welche
  • 40:51 - 40:55
    nicht. Sie haben nämlich Zwecke, wenn das,
    was Ihre Interessen sind, davon unterstützt
  • 40:55 - 40:59
    wird, dann werden sie eingesetzt, und
    deswegen macht man ein A/B-Testing, wenn
  • 40:59 - 41:03
    es die Zwecke nicht unterstützt, wird
    etwas anderes verwendet. Und wenn man dann
  • 41:03 - 41:06
    sagt, na ja, das ist doch eine ethische
    Frage, naja das ist nicht wirklich eine
  • 41:06 - 41:09
    ethische Frage, es ist eine
    Verantwortungsfrage, na klar, aber Ethik
  • 41:09 - 41:15
    ist nicht das ganz Richtige. Wenn man
    sagt, ja, aber so Algorithmen, die sind
  • 41:15 - 41:18
    alle so kompliziert, und wir verstehen es
    vielleicht gar nicht mehr, bei irgendwie
  • 41:18 - 41:22
    künstlicher Intelligenz und so weiter,
    kann man sich ja überlegen, wie es beim
  • 41:22 - 41:27
    Hundeverhalten ist. Die Hundehalterin oder
    Hundehalter steht natürlich dafür gerade,
  • 41:27 - 41:32
    was der Hund tut, egal, ob der jetzt, aus
    welchen Gründen das getan worden ist.
  • 41:32 - 41:38
    Irgendwer muss es ja, bei irgendwem muss
    ja die Verantwortung sozusagen liegen. Und
  • 41:38 - 41:43
    die Algorithmen setzen also keine Zwecke,
    sondern sie sind Mittel, um Zwecke
  • 41:43 - 41:45
    umzusetzen, das heißt wenn man überhaupt
    über irgendwas spricht, dann muss man
  • 41:45 - 41:49
    irgendwie über Unternehmensethik reden,
    und wie erfolgreich sowas ist, kennen wir,
  • 41:49 - 41:53
    glaube ich, seit Anbeginn des
    Kapitalismus. Okay. Also die konkrete
  • 41:53 - 42:00
    Frage wäre, anstatt über Algorithmen-Ethik
    zu sprechen, wäre zu sagen, wir haben doch
  • 42:00 - 42:03
    gerade etwas über Schutzziele gelernt.
    Können wir denn nicht einfach diese
  • 42:03 - 42:07
    Schutzziele auf alle möglichen
    Informationsverarbeitung-Systeme anwenden?
  • 42:07 - 42:10
    Ja, natürlich können wir das und es gibt
    auch sehr viel, also nicht sehr viel, aber
  • 42:10 - 42:13
    es gibt eine Menge gute Forschung dazu,
    z.B. Unabhängiges Landesdatenschutzzentrum
  • 42:13 - 42:17
    Schleswig-Holstein und so
    weiter. Aber komischerweise sind da die
  • 42:17 - 42:19
    Ergebnisse ja, "das muss reguliert
    werden", "das müssen wir einzäunen", und
  • 42:19 - 42:23
    so weiter. Aber das schlägt man immer so
    ungern den Konzernen vor, das ist immer
  • 42:23 - 42:29
    so, das ist ein bisschen problematisch an
    der Stelle. Das heißt, man kann da viel
  • 42:29 - 42:33
    drüber nachdenken über maschinen-lesbare
    Policies irgendwie, sozusagen KI-KI-
  • 42:33 - 42:39
    Prüfsysteme, und so weiter. Aber das
    Problem dabei ist, dass die Ethik so
  • 42:39 - 42:47
    folgenlos und so schön sanktionslos bleibt. Eine
    Ethik ist das, was man so tut. Das wäre so
  • 42:47 - 42:51
    ein Thema "es wäre schön, wenn". Und
    tatsächlich, wenn wir uns sozusagen unsere
  • 42:51 - 42:55
    Welt so angucken, die verdatete Welt ist
    eigentlich, dieses "wäre schön, wenn" ist
  • 42:55 - 42:59
    schon lange darüber hinaus. Okay, das
    heißt also, die Ethik ist schon in Ordnung
  • 42:59 - 43:02
    und der Ethik-Diskurs ja, aber die
    Umsetzung des Rechts selber, die hängt
  • 43:02 - 43:06
    hinterher. Und das ist so ein Punkt. Also
    die Situation ist, ich habe es mal ein
  • 43:06 - 43:09
    bisschen provokant geschrieben, die
    Massen-Manipulation, -Überwachung und
  • 43:09 - 43:14
    -Unterdrückung ist sozusagen der Punkt.
    Okay, das überspringen wir mal.
  • 43:14 - 43:22
    Also, wen es interessiert, z. B. auch Ben Wagner
    hat dazu auch neulich geschrieben, ich pack es
  • 43:22 - 43:28
    einfach in die Folien an der Stelle, also
    es bleibt da drin: Inwiefern Ethik die
  • 43:28 - 43:33
    neue Selbstregulierung ist. Unternehmen
    sagen: "Ja, bitte keine Regulierung, wir
  • 43:33 - 43:36
    verhalten uns ethisch und wir haben Ethik-
    Kodizes" und hinten und vorne und so
  • 43:36 - 43:41
    weiter. Und wenn man sich die letzten
    Facebook-Veröffentlichungen z. B.
  • 43:41 - 43:45
    anschaut, wer sagt, mit ethischen
    Diskursen sollen die Unternehmen nochmal
  • 43:45 - 43:49
    doller darüber nachdenken, was sie tun und
    was die Konsequenzen sind, dann der Person
  • 43:49 - 43:53
    empfehle ich tatsächlich sehr stark, diese
    Veröffentlichung der internen E-Mails
  • 43:53 - 43:58
    jetzt mal anzuschauen, die wissen ganz
    genau, was sie tun, das ist, also das ist,
  • 43:58 - 44:00
    da kann man nicht drüber reden, da muss
    man einfach sagen, das ist ein
  • 44:00 - 44:04
    Interessenskonflikt und unsere Werte sind
    so und deswegen machen wir das halt.
  • 44:04 - 44:11
    Okay, dann kommen wir zum Fazit. Also 1.
    Datenschutz zwingt Organisationen dazu,
  • 44:11 - 44:15
    bei der Gestaltung ihrer Datenverarbeitung
    die Interessen der Betroffenen zu
  • 44:15 - 44:20
    beachten. Das heißt, durch Datenschutz
    sollen sie Dinge tun, die sie von sich aus
  • 44:20 - 44:24
    nie tun würden, wir erinnern uns:
    Hygieneregeln, Sicherheitsvorkehrungen und
  • 44:24 - 44:26
    so weiter, das würden sie von sich aus
    jetzt erst einmal nicht wollen, weil die
  • 44:26 - 44:30
    Marktlogik eine andere ist und so weiter.
    Aber mit Datenschutz bringt man eben dazu,
  • 44:30 - 44:35
    Löschfristen und so weiter, die DSGVO
    könnt ihr euch angucken. Dann auch als
  • 44:35 - 44:39
    Betreiber solcher Systeme muss man sich
    immer vor Augen halten, die Rechte der
  • 44:39 - 44:43
    Betroffenen, so nervig sie vielleicht sein
    mögen, wenn man selber AnbieterIn ist,
  • 44:43 - 44:46
    sind immer die Pflichten der
    Verantwortlichen. Das heißt, das ist ein
  • 44:46 - 44:49
    Interessenkonflikt, wenn man sagt, ich
    möchte das alles nicht dokumentieren und
  • 44:49 - 44:53
    so weiter, dann heißt es, mir sind die
    Interessen und die Rechte der Anderen
  • 44:53 - 44:59
    davon egal, und das sollte nicht so sein.
    Dann, individuelle Privatsphäre, das habe
  • 44:59 - 45:05
    ich schon gesagt. Dann als letzten Punkt,
    Fokus auf personenbezogene Daten ist
  • 45:05 - 45:08
    offensichtlich problematisch, man kann
    Leute auch mit nicht-personenbezogenen
  • 45:08 - 45:11
    Daten diskriminieren und es gibt aber auch
    Nutzungen von personenbezogenen Daten, die
  • 45:11 - 45:17
    unproblematisch sind. Was man bräuchte,
    ist eine Analyse von Datenverarbeitung,
  • 45:17 - 45:20
    die einfach schaut, Datenverarbeitung,
    egal welche Daten die verwenden, da
  • 45:20 - 45:24
    verwendet werden. Was sind die
    Konsequenzen für die Betroffenen und die
  • 45:24 - 45:27
    Einwilligung ist weder hinreichend
    für individuelle und noch für
  • 45:27 - 45:31
    gesellschaftliche Schutzfunktionen: da
    müssen wir tatsächlich über diese harten
  • 45:31 - 45:35
    Grenzen nachdenken, ansonsten kommen wir
    da nicht weiter. Und als allerletzten Punkt
  • 45:35 - 45:39
    kann man sagen, die Techis unter uns sagen
    ja immer Alice und Bob, die reden
  • 45:39 - 45:43
    miteinander und dann gibt es Malary, die
    greift an und beim Datenschutz muss man
  • 45:43 - 45:48
    immer sagen, Achtung, Angreifer! Angreifer
    ist nicht Malary, Angreifer ist Bob,
  • 45:48 - 45:51
    nämlich die andere Seite, die die
    Daten kriegt, was sie damit tut.
  • 45:51 - 45:52
    Okay, dankeschön.
  • 45:52 - 46:06
    Applaus
  • 46:06 - 46:10
    Herald: Ja, danke Rainer für deinen
    interessanten Vortrag. Wir haben zwei
  • 46:10 - 46:16
    Mikrofone, eins auf der Seite in der Mitte
    des Saals und eins im Mittelgang: Nr. 1 und
  • 46:16 - 46:22
    Nr. 2. Wenn ihr Fragen stellen möchtet,
    dann könnt ihr euch an diesen Mikrofonen
  • 46:22 - 46:28
    aufstellen und eine Reihe bilden oder zwei
    Reihen bilden. Wenn ihr jetzt gehen müsst,
  • 46:28 - 46:33
    tut das bitte leise und auf jeden Fall
    nicht störend. Und ja, dann würde ich mal
  • 46:33 - 46:35
    sagen: Mikrofon 2.
  • 46:36 - 46:39
    Frage: Vielen Dank für
    den interessanten Vortrag. Wie sieht es
  • 46:39 - 46:43
    aus, wenn wir plötzlich andere
    Machtverhältnisse haben? Das heißt, wir
  • 46:43 - 46:48
    haben Peer-to-Peer-Systeme. Da haben wir
    auf der einen Seite dann alle auf der
  • 46:48 - 46:54
    gleichen Ebene oder auch nicht, aber doch
    prinzipiell ist es möglich. Und gerade
  • 46:54 - 46:58
    diese Peer-to-Peer-Systeme ermöglichen ja
    gerade diese mächtigen Daten-Intermediäre
  • 46:58 - 47:04
    zu umgehen. Oder was ist jetzt bei Fällen,
    wo wir sagen, wir haben jetzt gar nicht
  • 47:04 - 47:10
    den starken Datenverarbeiter, sondern wir
    haben den kleinen Turnverein, wir haben
  • 47:10 - 47:15
    die Individuen, die plötzlich mit der
    Datenschutzgrundverordnung konfrontiert
  • 47:15 - 47:18
    sind und eigentlich gar nicht die Starken
    sind. Und da sagen wir, passt doch
  • 47:18 - 47:20
    eigentlich gar nicht.
  • 47:22 - 47:25
    Rainer: Wollen wir erst mal sammeln
    oder soll ich gleich..?
  • 47:25 - 47:28
    Ja, gut, okay. Das ist ein sehr, sehr
    guter Punkt, gerade diese Peer-to-Peer-
  • 47:28 - 47:35
    Geschichten, da sehe ich tatsächlich eine
    ganz, ganz große Chance, wo gerade bei
  • 47:35 - 47:39
    Peer-to-Peer die Daten verteilt sind, da
    keine Machtzentren dabei entstehen, da
  • 47:39 - 47:42
    muss man natürlich bei dem Design
    aufpassen, dass man es eben nicht so macht
  • 47:42 - 47:45
    wie irgendwelche Bitcoin-Geschichten, dass
    dann doch wieder alles zentralisiert wird,
  • 47:45 - 47:50
    sondern eher so wie GNUnet, wo in das System
    eingebaut ist, dass es auch dezentral
  • 47:50 - 47:54
    bleibt. Ich sehe da ganz große Hoffnungen,
    da muss allerdings sehr viel noch
  • 47:54 - 47:57
    geforscht und gearbeitet werden, dass
    solche Sachen dann auch skalieren können.
  • 47:57 - 48:01
    Aber das kann möglich sein, auf alle Fälle.
    Da sehe ich überhaupt kein Problem, wenn
  • 48:01 - 48:04
    man da mal ein bisschen Geld reinsteckt,
    irgendwie so einen Bruchteil von dem, was
  • 48:04 - 48:08
    wir in Atomkraft gesteckt haben, mal in
    Peer-to-Peer-Technologien, aber das
  • 48:08 - 48:11
    nebenbei. Nee, das sehe ich auch, das wäre
    auf alle Fälle eine technische
  • 48:11 - 48:16
    Herangehensweise, wo man natürlich auch
    wieder diese Analysen machen müsste, aber
  • 48:16 - 48:21
    das ist auf alle Fälle ein gangbarer Weg
    und da gibt es auch ganz viele Ansätze
  • 48:21 - 48:27
    schon, gerade hier auf dem Congress, wenn
    man mal herumläuft, GNU-Taler und so, da
  • 48:27 - 48:31
    sehe ich viel Fruchtbares. Bei dem zweiten
    Punkt, das ist natürlich jetzt eine
  • 48:31 - 48:35
    rechtliche Frage. Ich gehe trotzdem darauf
    ein, halte mich aber kurz, weil wie
  • 48:35 - 48:41
    gesagt, es gab auch rechtliche Talks. Die
    DSGVO hat so einen überwiegend Risiko-
  • 48:41 - 48:45
    basierten Ansatz, das heißt, der Verein
    muss diese Sachen insofern umsetzen, wie
  • 48:45 - 48:53
    Risiken für die Betroffenen entstehen. Das
    heißt, wenn der Verein ein multi-
  • 48:53 - 48:56
    nationales, globales Social-Network
    betreibt, dann sind die Pflichten sehr,
  • 48:56 - 49:01
    sehr groß, wenn allerdings da nur die
    Mitgliederliste geführt wird, dann sind
  • 49:01 - 49:05
    die Anforderungen da auch sehr viel
    geringer. Also man muss immer sehen, die
  • 49:05 - 49:08
    Anforderungen, z. B. diese technischen-
    organisatorischen Maßnahmen, die müssen
  • 49:08 - 49:12
    immer angemessen sein. Das heißt, wenn da
    eine Liste mit 20 Namen sind, dann muss
  • 49:12 - 49:17
    man jetzt nicht, da reicht jetzt
    vielleicht nicht irgendwie Caesar-
  • 49:17 - 49:21
    Verschlüsselung, aber da muss jetzt kein
    Hochsicherheitssystem da sein; das muss
  • 49:21 - 49:26
    sozusagen immer entsprechend der Risiken
    für die Betroffenen. Also ich verstehe
  • 49:26 - 49:32
    auch die Kritik zu sagen, dass sozusagen
    diese DSGVO guckt gar nicht, wie groß die
  • 49:32 - 49:36
    Organisation ist. Oder da ist meine
    Antwort dabei zu sagen, ja, die DSGVO
  • 49:36 - 49:40
    schaut aber, wie groß ist das Risiko für
    die Betroffenen. Und ich glaube, bei
  • 49:40 - 49:45
    vielen, die sich da sozusagen beschweren,
    die beschweren sich auch erstens, weil sie
  • 49:45 - 49:49
    sich nicht vorher damit beschäftigt haben,
    was sie hätten sollen und zweitens aber
  • 49:49 - 49:58
    auch, weil da leider sehr viel Angstmache
    drin war, wie viel Aufwand da tatsächlich
  • 49:58 - 50:03
    auf Leute zukommt und wie groß die
    Anforderungen sind. Die Regularien bei
  • 50:03 - 50:07
    der Datenschutz-Konferenz war ja auch
    irgendwie erst mal warnen und helfen,
  • 50:07 - 50:11
    statt abmahnen und so weiter. Also das
    sind so, genau das ist so meine Antwort.
  • 50:11 - 50:15
    Also wichtig ist, wie groß ist das Risiko
    für die Betroffenen und das wird bei
  • 50:15 - 50:18
    Vereinen immer nicht so groß sein. Also
    kommt auf den Verein an, also ich meine,
  • 50:18 - 50:21
    der TÜV ist auch ein Verein, also... Okay,
    ich hoffe, das hat jetzt geholfen.
  • 50:21 - 50:24
    Herald: Mikrofon 1, bitte.
  • 50:24 - 50:26
    Frage: Sie haben jetzt für die Erklärung
  • 50:26 - 50:32
    'Was ist Datenschutz?' zurückgegriffen auf
    die Erklärung des
  • 50:32 - 50:36
    Standarddatenschutzmodells. Gibt es in der
    Wissenschaft eigentlich auch andere
  • 50:36 - 50:42
    Ansätze, die gewählt werden zur Erklärung
    'Was ist Datenschutz' oder wie weit sind
  • 50:42 - 50:48
    die Diskussionen da oder gibt es
    unterschiedlichen Fokus?
  • 50:48 - 50:53
    Rainer: Also das ist eine sehr sehr sehr
    gute Frage tatsächlich. Ich finde
  • 50:53 - 50:55
    tatsächlich dieses
    Standarddatenschutzmodell - ne
  • 50:55 - 50:59
    deswegen habe ich es da unten hingepackt -
    sehr sehr gut und trifft das, was ich als
  • 50:59 - 51:04
    großes Problem auch ansehe. Es gibt eine
    Dissertation von Jörg Pohle, der Vierte
  • 51:04 - 51:07
    von unten, 'Datenschutz und
    Technikgestaltung', der diskutiert mal die
  • 51:07 - 51:11
    verschiedenen Ansätze. Es gibt da schon
    verschiedene Vorstellungen, was ist
  • 51:11 - 51:14
    überhaupt das Schutzgut und wie kann man
    dem begegnen und so weiter. Da gibt es
  • 51:14 - 51:23
    einen großen Dschungel, aber da ist sich
    auch... also mein Eindruck ist, da setzt
  • 51:23 - 51:28
    sich zumindest in der deutschen Diskussion
    oder europäischen Diskussionen da setzt
  • 51:28 - 51:32
    sich gerade so eine bestimmte Richtung
    durch. Aber es gibt auch andere Ansätze,
  • 51:32 - 51:37
    die zum Beispiel, die rückwärts versuchen
    entlang des Rechtes zu rekonstruieren, was
  • 51:37 - 51:42
    eigentlich mal das Datenschutzproblem war
    und die dann immer individualisiert Fragen
  • 51:42 - 51:50
    stellen und sagen, wie können wir zum
    Beispiel das Risiko so einfache Rechnung wie das
  • 51:50 - 51:54
    Risiko der einzelnen Person mal die Anzahl
    der betroffenen Personen und so könnte man
  • 51:54 - 51:57
    eben auch an Datenschutz herangehen und
    dann hat man nur rein individuell
  • 51:57 - 52:02
    natürlich immer das Problem, was man dann
    lösen muss. Das funktioniert insofern
  • 52:02 - 52:06
    nicht, wie wir eben gesehen haben, es kann
    natürlich eine ganze Menge Leute zu einer
  • 52:06 - 52:09
    Datenverarbeitung zustimmen, deren
    Konsequenzen dann alle anderen auch noch
  • 52:09 - 52:14
    mit trifft. In dem Sinne funktioniert der
    individualistische Ansatz dann nicht. Aber
  • 52:14 - 52:17
    da gibt es einen Zoo. Aber ich glaube,
  • 52:19 - 52:25
    Ich glaube das ist meiner Ansicht nach, das sehr gut
    begründet ist.
  • 52:26 - 52:29
    Herald: Das Internet hat eine Frage.
  • 52:30 - 52:36
    Signal-Angel: Das Internet fragt: Gibt es
    bzw. kennst du eine politikerverständliche
  • 52:36 - 52:41
    Übersicht von Chaos-nahen politischen
    Forderungen bezüglich Datenschutz und
  • 52:41 - 52:43
    Datensicherheit mitsamt ihren
    Begründungen?
  • 52:45 - 52:48
    Rainer: Moment eine was? Eine Politiker
    kompatible?
  • 52:48 - 52:51
    Signal-Angel: ...Politikerverständliche
    Übersicht von Chaos-nahen politischen
  • 52:51 - 52:53
    Förderungen. Forderungen, Entschuldige.
  • 52:59 - 53:01
    Rainer: Ja. Naja, ich meine, ich kann zum
  • 53:01 - 53:06
    Beispiel darauf verweisen jetzt vor 2
    Monaten war die Bits und Bäume in Berlin.
  • 53:06 - 53:10
    Da gab's einen Forderungskatalog. Da
    spielte auch Datenschutz und
  • 53:10 - 53:13
    Datensicherheit eine Rolle und auch in der
    Begründung dabei. Da war zum Beispiel auch
  • 53:13 - 53:17
    der CCC auch dran beteiligt und das FIfF.
    Aber andersrum auch
  • 53:17 - 53:24
    Nachhaltigkeitsorganisationen BUND und so
    weiter. Das ist sehr kurz und knackig.
  • 53:24 - 53:31
    Ich glaube das könnte auch verstanden werden
    und es wäre auch Chaos-Umfeld. Ich glaube
  • 53:31 - 53:38
    allerdings, also das denke ich jetzt
    gerade, verschiedene Leute oder auch
  • 53:38 - 53:41
    verschiedene Politiker*innen haben
    verschiedene Vorstellungen, was eigentlich
  • 53:41 - 53:46
    das Problem ist. Deswegen weiß ich noch
    nicht so richtig, inwiefern so eine
  • 53:46 - 53:50
    Handreichung verständlicherweise da
    wirklich helfen würde, die allgemein ist,
  • 53:50 - 53:59
    sondern eher zu fragen: Was daran ist
    unklar, um das dann wirklich konkret zu
  • 53:59 - 54:03
    erklären. Aber mein Eindruck ehrlich
    gesagt, ich verstehe die Motivation der
  • 54:03 - 54:09
    Frage, aber mein Eindruck ist so ein
    bisschen, dieses Unverständnis das hat
  • 54:09 - 54:17
    eher was mit fehlendem Mut zu tun, mal zu
    sagen, was weiß ich, wir müssen da jetzt
  • 54:17 - 54:21
    mal harte Grenzen ziehen. Es hat weniger
    mit Verständnis zu tun, als mit nicht
  • 54:21 - 54:23
    verstehen wollen. Da hilft auch eine
    Handreichung nicht.
  • 54:23 - 54:31
    Applaus
  • 54:31 - 54:34
    Rainer: Also die Antworten, was notwendig
  • 54:34 - 54:41
    wäre, die werden immer, immer klarer, aber
    das ist glaube ich eine politische Frage.
  • 54:41 - 54:45
    Und das ist ja auch einer der Gründe,
    warum wir hier sind, glaube ich.
  • 54:47 - 54:49
    Herald: Mirkofon zwei, bitte.
  • 54:49 - 54:51
    Frage: Ich wollte nochmal einhaken, du
  • 54:51 - 54:56
    hast ja gerade auch bei dem Thema
    Algorithmenethik sozusagen gesagt, das ist
  • 54:56 - 55:01
    so eine Stellvertreterdebatte oder bzw.
    eine Debatte, man will eigentlich nicht
  • 55:01 - 55:04
    über das Eigentliche reden, nämlich was
    Regulierung sein soll. Ich würde Dir
  • 55:04 - 55:09
    insofern zustimmen, dass die Debatte
    natürlich ablenken soll davon, dass man
  • 55:09 - 55:13
    nicht weiß, wie man mit Technik umgeht.
    Ich glaube allerdings, jetzt mal die
  • 55:13 - 55:17
    Gegenthese, dass man in Deutschland
    allgemein sehr regulierungswillig ist, in
  • 55:17 - 55:21
    der Politik was Technik angeht, aber ich
    glaube, man weiß nicht, was man regulieren
  • 55:21 - 55:26
    soll. Also du hast mehrfach selber auch so
    Begriffe wie Massenmanipulation,
  • 55:26 - 55:31
    Wahlmanipluation genannt, darüber wird
    unglaublich viel gesprochen. Ich glaube
  • 55:31 - 55:35
    aber, es hat keiner gerade in der Politik
    eine Idee, wie man damit umgehen soll und
  • 55:35 - 55:38
    wenn dann mal so ein Vorschlag wie
    Botregulierung eingebracht wird, ist es
  • 55:38 - 55:44
    halt auch Quatsch. Deswegen jetzt meine
    konkrete Frage: Wie würdest du damit
  • 55:44 - 55:49
    umgehen? Also ich arbeite selber im
    politischen Betrieb und überlege mir also auch
  • 55:49 - 55:53
    immer, wie kann man eigentlich diese
    Debatten in die richtige Richtung lenken.
  • 55:53 - 55:57
    Wie würdest du damit umgehen, dass man
    eben nicht über Algorithmenethik als
  • 55:57 - 56:01
    Ablenkungsthema redet sondern, dass man
    sich mit den tatsächlichen Fragen, nämlich
  • 56:01 - 56:06
    was sind sinnvolle Regulierungen
    beschäftigt, gerade eben unter dem Aspekt,
  • 56:06 - 56:09
    dass technisches Unverständnis in großen
    Teilen leider herrscht?
  • 56:10 - 56:16
    Rainer: Tatsächlich eine sehr, sehr
    interessante Frage. Ich glaube, da steckt
  • 56:16 - 56:20
    noch ein bisschen Arbeit drin, diese, zum
    Beispiel diese Schutzzielfragen auch mal
  • 56:20 - 56:23
    wirklich auszubuchstabieren und da gibt es
    auch Ansätze, zum Beispiel Martin Rost
  • 56:23 - 56:29
    jetzt gerade für diese KI-Debatte. Wo man
    konkret fragen kann: können denn bestimmte
  • 56:29 - 56:35
    Systeme Garantien aussprechen für
    grundrechtliche Fragen. Ich habe mal so
  • 56:35 - 56:38
    ein Zitat da rein gepackt, irgendwie so
    "Deep-Learning-Systeme sind also nicht
  • 56:38 - 56:40
    prüfbar, nicht evaluierbar, ändern ihre
    Eigenschaften, liefern keinerlei
  • 56:40 - 56:44
    Begründung, sind leicht zu manipulieren,
    willkürlich aufgebaut und immer ungenau."
  • 56:44 - 56:48
    Das klingt jetzt nach einem coolen System,
    wenn man Bilder sortieren will, das klingt
  • 56:48 - 56:52
    nach einem nicht so guten System, wenn man
    Straßenschilder erkennen möchte und ich
  • 56:52 - 57:02
    glaube die Aufgabe bestünde darin, diese
    Fleißarbeit auszubuchstabieren, was zum
  • 57:02 - 57:05
    Beispiel diese Schutzziele für die
    einzelnen Systeme und das macht teilweise
  • 57:05 - 57:10
    das Standarddatenschutzmodell auch schon,
    diese Ergebnisse zu zirkulieren und da
  • 57:10 - 57:18
    gibt es tatsächlich gute Arbeiten und ich
    glaube mittlerweile wäre es sogar möglich,
  • 57:18 - 57:22
    können wir uns danach nochmal verbinden,
    dass da vielleicht die richtigen
  • 57:22 - 57:26
    Informationen an der richtigen Stelle mal
    landen, weil ich glaube, die sind
  • 57:26 - 57:32
    mehrheitlich schon da. Es hat immer auch
    etwas mit erklären zu tun. Aber wenn der
  • 57:32 - 57:36
    Wille da ist so zu agieren - also eine
    Regulierwilligkeit sehe ich jetzt nicht so
  • 57:36 - 57:43
    richtig - aber gut, wenn das tatsächlich
    so ist, dann müsste man da wahrscheinlich
  • 57:43 - 57:47
    genau diese Papers, die es dazu gibt und
    so weiter ein bisschen aufbereiten und
  • 57:47 - 57:55
    dann an die richtigen Stellen bringen als
    Hinweise. Wie gesagt, das heißt aber eben
  • 57:55 - 58:02
    auch, dass bestimmte Akteure dann eben
    auch etwas abgeben müssen oder nicht mehr
  • 58:02 - 58:05
    zulässig sind oder bestimmte
    Geschäftsmodelle nicht mehr möglich sind.
  • 58:05 - 58:09
    Also wenn Politiker*innen damit
    einverstanden sind, dann kann man da auch
  • 58:09 - 58:11
    was machen.
  • 58:11 - 58:14
    Herald: Mikrofon 1 bitte.
  • 58:14 - 58:20
    Frage: Hi, ich habe auch eine Frage zu
    Regulierung: Und zwar aus einer
  • 58:20 - 58:23
    soziologischen Perspektive ist es so, dass
    bei Regulierungen immer auch die
  • 58:23 - 58:29
    Regulierten mitarbeiten. Das läuft im
    politischen Betrieb ganz oft über Aufrufe
  • 58:29 - 58:33
    für Comment-Letters, also das
    Bundesministerium für Verkehr und bla hat
  • 58:33 - 58:39
    was über Fahrzeugdaten veröffentlicht und
    die haben sehr sehr dezidiert politische
  • 58:39 - 58:43
    ökonomische Benefits bei den Herstellern
    gesehen und dann sind alle aufgerufen
  • 58:43 - 58:48
    worden innerhalb eines halben Jahres ihre
    ihre Meinung dazu zu posten. Und bei sowas
  • 58:48 - 58:53
    haben natürlich starke Akteure die du auch
    genannt hast, also Techgiants, immer einen
  • 58:53 - 59:03
    strukturellen Vorteil. Also wenn du dich für
    eine starke Regulierung aussprichst, hast
  • 59:03 - 59:07
    du da schon irgendwie Vorstellungen wie
    man diesen Bias an der Stelle ausschaltet;
  • 59:07 - 59:10
    also das die starken weiterhin auch
    privilegiert bleiben selbst wenn es
  • 59:10 - 59:12
    Regulierungen gibt.
  • 59:14 - 59:19
    Rainer: Tja, das ist die Königinnenfrage
  • 59:19 - 59:24
    an der Stelle. Naja, es hat natürlich
    immer was damit zu tun, wer wird da
  • 59:24 - 59:28
    befragt, wer hat die Möglichkeiten? Ich
    kenne es ja selber auch irgendwie: Egal ob
  • 59:28 - 59:30
    es Sachverständigen Anhörungen sind oder
    irgendwie Eingaben die gemacht werden
  • 59:30 - 59:35
    können. Die Firmen schicken ihre Leute in
    der Arbeitszeit dahin, um das zu tun und
  • 59:35 - 59:39
    die NGOs gucken halt wo sie ihre
    Ehrenamtlichen abziehen können, um
  • 59:39 - 59:45
    vielleicht jemanden... Tja, das ist ein
    großes Problem. Ich glaube da ist
  • 59:45 - 59:48
    tatsächlich so eine grundsätzliche.. Da
    wage ich mir jetzt auch ein bisschen aus
  • 59:48 - 59:54
    dem Fenster aber so eine grundsätzliche
    Herangehensweise gefragt. Das betrifft ja
  • 59:54 - 59:58
    die Frage wie unsere Demokratie
    funktioniert. Das ist nichts was
  • 59:58 - 60:05
    irgendwie... ich meine von Diesel bis
    hin zu... fange ich gar nicht erst an. Das
  • 60:05 - 60:09
    ist keine Datenschutzfrage sondern eine
    Demokratiefrage. Und ich weiß nicht.
  • 60:09 - 60:13
    Da gibts ja ganz viele Ideen: mit
    Lobbyregister und was es da alles gibt.
  • 60:13 - 60:20
    Vermutlich müsste man da; wir alle die
    Aktivitäten in diesen digitalen
  • 60:20 - 60:25
    Rechtsfragen tätigen. Vermutlich wäre es
    sogar eine langfristige und nachhaltige,
  • 60:25 - 60:31
    Keyword, nachhaltige Lösung zu sagen,
    bei all unseren Aktivitäten nehmen wir 10%
  • 60:31 - 60:36
    weg und packen die in LobbyControl und so
    weiter, um diese Strukturen da irgendwie
  • 60:36 - 60:44
    zu stärken. Das wär mein Eindruck, weil
    teilweise, wenn man sich anguckt wie so
  • 60:44 - 60:49
    Digitalrat und KI Enquete usw.
    zusammengesetzt sind. Klar, wenn ich Leute
  • 60:49 - 60:54
    vor einem bestimten Hintergrund einlade,
    ist mir klar, dass ich dann diese Antwort
  • 60:54 - 60:57
    kriege. Das ist jetzt ein bisschen so
    Frage: Wie kriege ich mehr Leute aus der
  • 60:57 - 61:00
    Wissenschaft rein? Und mehr Betroffene,
    usw.? Und deswegen tut es mir leid, dass
  • 61:00 - 61:04
    es vielleicht eine nicht so hilfreiche
    Antwort ist, aber ich glaube das eine ist
  • 61:04 - 61:08
    eine Demokratie Frage und da gibts jede
    Menge zu tun! Und auch deswegen sollte uns
  • 61:08 - 61:13
    das interessieren, weil ansonsten unsere
    ganze Arbeit da auch teilweise ins Leere
  • 61:13 - 61:19
    läuft, weil dann eben das kaputte System
    das alles wieder auffrisst. Das glaube ich
  • 61:19 - 61:20
    so ein Punkt.
  • 61:21 - 61:23
    Herald: Ich merke, die Diskussion, die
  • 61:23 - 61:28
    brennt. Leider läuft uns die Zeit ein
    bisschen davon. Wo finden dich die Leute
  • 61:28 - 61:30
    hier auf dem Kongress?
  • 61:30 - 61:33
    Rainer: Ihr findet mich entweder unter
  • 61:33 - 61:42
    dieser E-Mail-Adresse oder aber z.B. am
    FIfF-Stand, hier CCL, nullte Etage.
  • 61:43 - 61:45
    Hier drunter. Ich werde danach
  • 61:45 - 61:47
    einfach auf den Knopf drücken und
    runterfahren, dann findet man mich da.
  • 61:47 - 61:48
    Gelächter
  • 61:48 - 61:49
    Dankeschön
  • 61:49 - 61:51
    Herald: Genau. Applaus.
  • 61:51 - 61:52
    Applaus
  • 61:52 - 61:56
    35C3 Outro Musik
  • 61:56 - 62:16
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
35C3 - Was schützt eigentlich der Datenschutz?
Description:

more » « less
Video Language:
German
Duration:
01:02:16

German subtitles

Revisions