Return to Video

35C3 - Microtargeting und Manipulation

  • 0:00 - 0:18
    35C3 Vorspannmusik
  • 0:18 - 0:22
    Herald: Ich helfe gerne auf diesem Chaos
    Veranstaltungen und ich rede auch sehr
  • 0:22 - 0:28
    sehr gerne darüber. Vor ein paar Jahren
    sagte darauf mal jemand: "CCC das sind
  • 0:28 - 0:33
    doch die Guten.". Zu solch einer
    Wahrnehmung tragen auch unsere beiden
  • 0:33 - 0:38
    nächsten Sprecher bei, indem sie mit
    Journalismus Engagement und Talks wie dem
  • 0:38 - 0:42
    folgenden Aufklärung betreiben. Bitte
    begrüßt mit wir die beiden "netzpolitik
  • 0:42 - 0:47
    dot org" Redakteure Constanze Kurz und
    Ingo Dachwitz zu ihrem Talk "Micro
  • 0:47 - 0:52
    Targeting und Manipulation von Cambridge
    Analytica zur EU-Wahl".
  • 0:52 - 0:59
    Audience: applause
  • 0:59 - 1:04
    Constanze Kurz: Herzlichen Dank. Ein etwas
    pathetischer Anfang. Guten Morgen. Wir
  • 1:04 - 1:10
    freuen uns dass ihr schon so zahlreich
    alle wach seid. Wir haben uns vorgenommen
  • 1:10 - 1:14
    über den Cambridge Analytica Skandal zu
    reden, aber nicht im Kern, sondern ihn nur
  • 1:14 - 1:19
    als Anlass zu nehmen über die Frage der
    politischen Manipulation des öffentlichen
  • 1:19 - 1:23
    Diskurses und der politischen öffentlichen
    Meinung zu sprechen. Wir wollen ein
  • 1:23 - 1:28
    bisschen zurückblicken auf das Jahr 2018,
    wo diese Debatte erstmals aus meiner Sicht
  • 1:28 - 1:35
    auch international geführt wurde. Und wir
    wollen so ein paar Ideen die vor allen
  • 1:35 - 1:40
    Dingen aus Brüssel und Straßburg derzeit
    kommen. Denn die anstehende EU-Wahl bringt
  • 1:40 - 1:44
    so ein bisschen politischen Druck auf.
    Daüber wollen wir sprechen und wir haben
  • 1:44 - 1:48
    natürlich wie es sich gehört ein paar
    Forderungen von denen wir meinen, dass sie
  • 1:48 - 1:54
    sinnvoll wären, um Desaster wie wir sie
    quasi in der Vergangenheit den letzten
  • 1:54 - 1:59
    zwei Jahren erlebt haben möglichst zu
    verhindern oder zumindest nicht unerkannt
  • 1:59 - 2:03
    zu lassen. Wir erinnern uns daran der
    Skandal über den wir ja gleich sprechen,
  • 2:03 - 2:08
    ist ja eigentlich schon mehrere Jahre lang
    oder jedenfalls liegt er einige Jahre
  • 2:08 - 2:13
    zurück und ich glaube sich Methoden zu
    überlegen wie man in Zukunft diese Form
  • 2:13 - 2:17
    der hinterrücks Manipulation zumindest
    erkennen kann scheint wichtig zu sein.
  • 2:17 - 2:21
    Ingo Dachwitz: Genau. Und wir steigen ein,
    würde ich mal sagen, mit einer kleinen
  • 2:21 - 2:27
    Begriffsklärung. Einfach nochmal zur
    Vergegenwärtigung, weil der Cambridge
  • 2:27 - 2:31
    Analytica Skandal jetzt ja auch schon doch
    ein paar Monate her ist und irgendwie
  • 2:31 - 2:35
    dieses Wort Microtargeting schwirrt
    manchmal so rum im politischen Diskurs.
  • 2:35 - 2:39
    Wir wollen es nochmal kurz klären
    worum...worüber reden wir eigentlich wenn
  • 2:39 - 2:44
    wir über Microtargeting sprechen. Gemeint
    ist die gezielte Ansprache von kleinen und
  • 2:44 - 2:48
    Kleinstgruppen, bis hin zur wirklich
    individuellen Größe mit zugeschnittenen
  • 2:48 - 2:53
    Botschaften. Grundsätzlich eigentlich
    politischer und kommerzieller Art. Wir
  • 2:53 - 2:57
    wollen uns heute auf den politischen
    Bereich ein bisschen fokussieren. Die
  • 2:57 - 3:00
    Grundlage, die Basis für diese gezielte
    Ansprache, beim sogenannten
  • 3:00 - 3:04
    Microtargeting, sind Datenprofile. Also
    zum Microtargeting gehören immer zwei
  • 3:04 - 3:08
    Dinge. Es ist nicht nur das Zuschneiden
    von Botschaften und das Aussenden von
  • 3:08 - 3:11
    politischen Botschaften sondern es ist
    immer auch der davorgeschaltete
  • 3:11 - 3:16
    Analyseschritt. Die Definition von
    Zielgruppen und Zielen und das eben auf
  • 3:16 - 3:22
    Basis von Datenprofilen. Also
    soziodemografische Faktoren, lokale
  • 3:22 - 3:29
    Faktoren, also...ja Ort, Ortsdaten,
    ökonomischer Status, Verhaltensdaten,
  • 3:29 - 3:34
    Vorlieben, Eigenschaften und eben auch auf
    Basis von Psychometrischen Analysen; was
  • 3:34 - 3:38
    genau das ist werden wir gleich nochmal
    ein bisschen erklären. Das...diese Methode
  • 3:38 - 3:43
    kommt ursprünglich eigentlich aus dem
    kommerziellen Marketing, ist inzwischen
  • 3:43 - 3:48
    aber weitverbreitet und immer weiter
    verbreitet auch im politischen Bereich.
  • 3:48 - 3:54
    Und das sagen wir mal vorweg: uns geht es
    ja heute hier weder darum einzelne Akteure
  • 3:54 - 3:58
    jetzt irgendwie zu beleuchten, sondern
    eher so ein bisschen strukturell auf die
  • 3:58 - 4:02
    Manipulationsmethoden zu schauen die
    diesen Baukasten den es gibt. Und wir
  • 4:02 - 4:09
    werden eben auch nicht in erster Linie
    über Wirkung sprechen. Denn empirische
  • 4:09 - 4:12
    Studien dazu, wie genau eigentlich
    Microtargeting wirkt
  • 4:12 - 4:18
    sind rar. Und es gibt sehr
    unterschiedliche und umstrittene Deutungen
  • 4:18 - 4:22
    dieses Phänomens. Auf jeden Fall können
    wir schonmal festhalten, es ist sehr
  • 4:22 - 4:28
    Kontextabhängig wie Microtargeting wirkt
    und hat sehr viel eben damit zu tun welche
  • 4:28 - 4:31
    Akteure es einsetzen, für welchen Zweck
    sie eingesetzt werden und in welchem
  • 4:31 - 4:35
    Rahmen sie eingesetzt werden.
    C: Wenn man es mal ganz praktisch machen
  • 4:35 - 4:40
    will, so geht in der Regel eine gewisse
    Analyse diesen Versuchungen, Kampagnen
  • 4:40 - 4:43
    durchzuführen voraus. Ganz praktisch wenn
    man sich mal vorstellen will: wir hatten
  • 4:43 - 4:48
    ja vor drei Tagen hier einen Vortrag über
    die Polizeigesetze wenn man also eine
  • 4:48 - 4:52
    politische Partei ist. Man hat ein
    Programm wo man bestimmte technische
  • 4:52 - 4:58
    Überwachungs- und Kontrollbefugnisse und
    innere Sicherheitsprogramm an den Mann
  • 4:58 - 5:01
    bringen will, dann lässt man sich eine
    ordentliche Wähleranalyse machen, die in
  • 5:01 - 5:05
    der Regel eben auch heute eine
    Datenanalyse ist. Und dann wird einem
  • 5:05 - 5:09
    vielleicht der Analytiker sagen: "Naja, ab
    einem bestimmten Alter spricht diese
  • 5:09 - 5:13
    Message besonders an. Oder aber auch
    Alleinstehende spricht diese Message
  • 5:13 - 5:18
    besonders an". Und dann nimmt man genau
    die Daten die Ingo sagte und versucht sehr
  • 5:18 - 5:23
    zielgenaue Nachrichten auszuspähen. Ich
    glaube soweit ist es auch im Wesentlichen
  • 5:23 - 5:29
    bekannt. Ich glaube der Punkt den man hier
    machen muss ist die Granularität.
  • 5:29 - 5:32
    Vielleicht noch in Bezug...da werden wir
    nachher nochmal ein bisschen genauer
  • 5:32 - 5:36
    darüber sprechen...zu dem was Friederike
    von Privacy International gestern
  • 5:36 - 5:40
    berichtet hat: über die Frage sind eben
    nicht nur die Benutzer dieser Plattformen
  • 5:40 - 5:44
    sind, sondern auch Menschen die gar keinen
    Account haben bei diesen Werbeplattformen.
  • 5:44 - 5:49
    Dass sie sich längst auf die Mobiltelefone
    kapriziert. Dass die Form von sogenannten,
  • 5:49 - 5:53
    das nennt sich dann: Cross-Device
    Campaigns. Also dass man versucht auf den
  • 5:53 - 5:57
    Zeitpunkt festzustellen, wo derjenige
    gerade rezeptiv ist, weil er vielleicht
  • 5:57 - 6:01
    gerade in einer Tram sitzt und elf Minuten
    Zeit hat für bestimmte Messages. Man sieht
  • 6:01 - 6:05
    einfach, dass das sich ein bisschen
    zuzieht. Aber im Wesentlichen bleibt der
  • 6:05 - 6:13
    Kern dieser Technik eben wie beschrieben.
    Im Jahr 2018 begann diese...also die Fake
  • 6:13 - 6:17
    News Debatte ist älter, wenn ihr euch
    erinnert. Aber der Begriff ist so ein
  • 6:17 - 6:21
    bisschen, zumindest aus meiner Sicht, im
    Laufe des Jahres ersetzt worden durch
  • 6:21 - 6:25
    Falschinformationen und Desinformationen.
    Und wir wollen sozusagen in dem ganz
  • 6:25 - 6:29
    kleinen definitorischen Block den wir hier
    so haben, bisschen über Desinformationen
  • 6:29 - 6:34
    reden. Wir halten den für sehr viel
    sinnvoller als den Begriff Fake News. Er
  • 6:34 - 6:38
    ist auch älter und hat vor allen Dingen
    ne' politische Komponente. Wie viele
  • 6:38 - 6:42
    vielleicht wissen, oder zumindest der Teil
    der noch Russisch hatte in der Schule -
  • 6:42 - 6:46
    gibt ja n' paar hier -, kommt'et aus dem
    Russischen "dezinformácija" und ist
  • 6:46 - 6:49
    eigentlich so ein Begriff aus der
    politischen Propaganda der Geheimdienste.
  • 6:49 - 6:53
    Denn schon vor der digitalen Welt wurde
    natürlich diese Form von Versuchen die
  • 6:53 - 6:57
    öffentliche Meinung zu beeinflussen
    durchgeführt. Ist ja nicht neu und man
  • 6:57 - 7:04
    bedient sich nur der Möglichkeiten die
    diese Werbeplattformen heute bieten. Und
  • 7:04 - 7:07
    ich glaube, das sollte man auch nicht
    vergessen: Wir haben so ein bisschen
  • 7:07 - 7:12
    Debatte vor allen Dingen um Großbritannien
    und dem Wahlkampf von Donald Trump. Aber
  • 7:12 - 7:19
    diese Vorgehensweisen sind älter, sie sind
    orientiert an der Bedürfnisweckung in der
  • 7:19 - 7:23
    Werbeindustrie und haben sich sozusagen
    eigentlich nur spezialisiert auf bestimmte
  • 7:23 - 7:28
    Ziele. Wir wissen darüber ne' ganze Menge.
    Zum einen, weil dieser Donald-Trump-
  • 7:28 - 7:33
    Wahlkampf und das Referendum in
    Großbritannien ja längst nicht die ersten
  • 7:33 - 7:36
    waren, sondern auch schon der vergangene
    Obama-Wahlkampf diese Methoden benutzt
  • 7:36 - 7:40
    hat...aber...Sicherlich hat sich's mehr
    zugespitzt und waren teilweise die
  • 7:40 - 7:44
    Ergebnisse so knapp, dass anders darüber
    debattiert wurde. Und ausländische Player
  • 7:44 - 7:49
    haben in diesen Desinformationskampagnen
    natürlich eine Rolle gespielt. Und das hat
  • 7:49 - 7:55
    es zugespitzt. Wir wollen gar nicht so
    sehr darüber reden wie wirksam, also, im
  • 7:55 - 8:00
    Sinne des Ergebnisses diese politischen
    Kampagnen sind, weil die meisten der
  • 8:00 - 8:04
    Untersuchungen dazu, vor allen Dingen die
    auf die wir uns hier beziehen, die wir
  • 8:04 - 8:08
    nachher auch offenlegen sozusagen unsere
    Quellen sind, sind gar nicht so...Sie
  • 8:08 - 8:13
    kommen noch gar nicht zu einem
    Endergebnis. Viele haben vielleicht die
  • 8:13 - 8:18
    Papiere von den US amerikanischen Behörden
    gelesen und es gab ja auch eine politische
  • 8:18 - 8:22
    Debatte darum aber im Ergebnis im Sinne
    von gerichtsfest ja dass man jemanden oder
  • 8:22 - 8:26
    einer bestimmten Gruppe etwas nachweisen
    kann haben wir relativ wenig. Auch die
  • 8:26 - 8:31
    Briten sind in Bezug auf Referendum und
    die Behörden die untersuchen und auch der
  • 8:31 - 8:36
    parlamentarische Ausschuss der noch immer
    seine Untersuchung fortsetzt, noch nicht
  • 8:36 - 8:39
    zu einem Endergebnis gelangt hat, werden
    wir also auch 2019 noch erfahren.
  • 8:39 - 8:48
    I: Nochmal übersetzt zur Ausgangslage Wenn
    wir über die EU-Wahl reden die im Mai 2019
  • 8:48 - 8:51
    stattfinden wird. Wie steht es um die
    politische öffentlichkeit in welchem
  • 8:51 - 8:57
    Kontext finden diese Themen statt über die
    wir heute sprechen. Zum einen ist da
  • 8:57 - 9:01
    sicherlich zu nennen dass wir feststellen
    können dass die politische Öffentlichkeit
  • 9:01 - 9:06
    nervös gewissermaßen ist. Wir können eine
    Polarisierung feststellen gerade in der
  • 9:06 - 9:12
    digitalen Öffentlichkeit und eben auch ein
    großes Misstrauen gegenüber einerseits
  • 9:12 - 9:19
    etablierten Medien andererseits aber
    eigentlich gegenüber allen Nachrichten die
  • 9:19 - 9:23
    wir im Netz finden können. Es herrscht
    eine große Misstrauenskultur. Und der
  • 9:23 - 9:26
    zweite Punkt den wir vielleicht zur
    Ausgangslage noch mal sagen können ist die
  • 9:26 - 9:30
    Struktur, ist ein struktureller Punkt,
    denn wir können ja feststellen, deshalb
  • 9:30 - 9:37
    die Grafik, die digitale Öffentlichkeit.
    Es gibt zwei Firmen, zwei Konzerne die
  • 9:37 - 9:41
    essenziell sind eigentlich für die
    Herstellung digitaler Öffentlichkeit und
  • 9:41 - 9:44
    auch politischer Öffentlichkeit im
    digitalen und die heißen Facebook und
  • 9:44 - 9:48
    Google mit ihren sehr unterschiedlichen
    Diensten. Um es nochmal aufzuzählen
  • 9:48 - 9:53
    Facebook, Instagram, WhatsApp, das
    Facebook Netzwerk das große Werbenetzwerk
  • 9:53 - 9:59
    Audience Network mit dem Facebook eben
    nicht nur Web-Inhalte, Werbung auf eigenen
  • 9:59 - 10:03
    Seiten sondern auch auf anderen Seiten
    ausspielt und natürlich Google mit
  • 10:03 - 10:09
    YouTube, der Google-Suche, Google News,
    dem DoubleClick Network und dem Analytics
  • 10:09 - 10:15
    Diensten, die sozusagen enorm wichtig und
    fast dominierend dafür sind wie digitale
  • 10:15 - 10:20
    Öffentlichkeit hergestellt wird. Und wir
    können eben sehen dass diese beiden
  • 10:20 - 10:27
    Dienste kommen mit diesen Tools für micro
    targeting an Bord, die sind integraler
  • 10:27 - 10:31
    Bestandteil der Art und Weise wie Facebook
    und Google digitale Öffentlichkeit
  • 10:31 - 10:36
    herstellen und strukturieren. Einfach um
    mal ein paar Tools zu nennen. Da gehören
  • 10:36 - 10:40
    die Insight Werkzeuge dazu, also
    diejenigen die Seiten betreiben oder
  • 10:40 - 10:45
    Kampagnen betreiben haben eben weitgehende
    Einblicke in Nutzungs und Zielgruppen
  • 10:45 - 10:52
    Analysen. Es gibt sehr einfache
    Zielgruppenbaukästen für das Ad-Targeting
  • 10:52 - 10:57
    wo man sich wirklich sehr leicht
    zusammenstellen kann wie sieht eigentlich,
  • 10:57 - 11:01
    wie soll die Zielgruppe aussehen die ich
    ansprechen möchte? Welche Region? Welches
  • 11:01 - 11:06
    Alter? Welche Eigenschaften? Welche
    Interessen? Kinderleichtes
  • 11:06 - 11:11
    zusammenstellen; Und dann gibt es, was
    vielleicht auch einige wissen aber dann
  • 11:11 - 11:15
    doch irgendwie in der öffentlichen Debatte
    noch nicht weit genug bekannt ist
  • 11:15 - 11:19
    eigentlich, gibt es die Möglichkeit sowohl
    bei Facebook als auch bei Google mit der
  • 11:19 - 11:26
    sogenannten Custom Audience Funktion, dass
    Werbetreibende Menschen mit dem Targeting
  • 11:26 - 11:31
    erreichen zu denen sie vorher schon mal
    Kontakt hatten. Wenn ich als
  • 11:31 - 11:35
    Werbetreibender, sei es politischer oder
    kommerzieller Art, eine Liste mit
  • 11:35 - 11:39
    Kontaktdaten habe, E-Mail-Adressen,
    Telefonnummern oder ähnliches, dann kann
  • 11:39 - 11:44
    ich diese bei den Diensten hochladen bzw.
    mit diesen abgleichen und dann genau die
  • 11:44 - 11:48
    Menschen erreichen die ich erreichen will
    und nicht nur das, über diese Custom
  • 11:48 - 11:53
    Audience Funktion hinaus gibt es auch die
    Look-alike Audience Funktionen wo diese
  • 11:53 - 11:57
    Dienste mir nicht nur den Zugang zu den
    Menschen ermöglichen deren E-Mail-Adressen
  • 11:57 - 12:01
    nicht ohnehin schon in meiner Kontaktliste
    habe, sondern Menschen die, was deren
  • 12:01 - 12:04
    Eigenschaften und Daten Profile angeht,
    genau so oder sehr ähnlich sind wie die
  • 12:04 - 12:09
    Menschen die ich schon in meiner Datenbank
    gespeichert habe. Diese Micro Targeting
  • 12:09 - 12:14
    Tools sind integraler Bestandteil der
    Plattform und sind die Bordmittel ohne die
  • 12:14 - 12:18
    die digitale Öffentlichkeit, zumindest auf
    diesen Plattformen, nicht funktioniert.
  • 12:18 - 12:23
    C: Nun haben wir ja die
    Datenschutzgrundverordnung die in Kraft
  • 12:23 - 12:27
    getreten ist und die verschiedenen
    Behörden in Europa die dafür zuständig
  • 12:27 - 12:32
    sind und insbesondere besonders betroffene
    britische ICO hat sich nathürlich der
  • 12:32 - 12:35
    Frage beschäftigt ob diese Tatsache,
    gerade in dem Beispiel das Ingo brachte
  • 12:35 - 12:39
    dass man zum Beispiel eine Adressleiste
    hat, eine Mail-Liste oder so, ob die nach
  • 12:39 - 12:43
    der neuen Rechtslage überhaupt noch da
    hochgeladen werden dürfen bei denen
  • 12:43 - 12:48
    Werbeplattform. Da gibt's einen gewissen
    Streit. Die britische ICO steht zum
  • 12:48 - 12:52
    Beispiel auf dem Standpunkt, dass das so
    nicht mehr ginge und hat die politischen,
  • 12:52 - 12:55
    sämtliche politischen Parteien in
    Großbritannien aufgefordert das so nicht
  • 12:55 - 12:59
    fortzusetzen. Aber es wird sicherlich noch
    eine Weile dauern ehe solche Fälle
  • 12:59 - 13:02
    letztlich vor Gericht landen.
    I: in Deutschland, nur der Vollständigkeit
  • 13:02 - 13:05
    halber, in Deutschland gibt's die Debatte
    auch. Das Bayerische Landesamt für
  • 13:05 - 13:08
    Datenschutzaufsicht beispielsweise
    vertritt die Auffassung und versucht sie
  • 13:08 - 13:11
    im nächsten Jahr verstärkt durchzusetzen,
    dass auch das ohne Einwilligung der
  • 13:11 - 13:14
    Betroffenen auf diesen Listen nicht mehr
    möglich ist.
  • 13:14 - 13:17
    C: Nun, bei gewissen war es auch vorher
    nicht erlaubt, also etwa wenn es um
  • 13:17 - 13:22
    Ethnien geht oder andere Formen von
    direkter Diskriminierung, aber die
  • 13:22 - 13:26
    Antworten die im Rahmen dieses Cambridge
    Analytica Skandals, auf die wir gleich
  • 13:26 - 13:31
    noch mal ein bisschen kommen aber auch
    relativ kurz, waren ja im Prinzip
  • 13:31 - 13:36
    interessant weil die Konzerne mal
    Antworten geben mussten und nach Angaben
  • 13:36 - 13:42
    von Facebook ist es ja so, dass ihr
    Verhalten genau drei wichtige Kriterien
  • 13:42 - 13:48
    ausgewertet werden. Das sind zum einen
    Likeing, also wo klickt man hin zum liken,
  • 13:48 - 13:54
    zum anderen auf welche Werbung klickt der
    Account Besitzer selbst und welche Apps
  • 13:54 - 13:59
    benutzt er. Wenn man sich da mal überlegt,
    falls hier Menschen dabei sind, die diese
  • 13:59 - 14:03
    Konzerne benutzen, da kann sich natürlich,
    da kann man rückschließen auch auf die
  • 14:03 - 14:09
    Kriterien die eigentlich wegen das
    Diskriminierungsverbot nicht nutzbar
  • 14:09 - 14:13
    wären, jedenfalls nicht direkt nutzbar
    wären. Aber wir wollen jetzt mal noch kurz
  • 14:13 - 14:17
    auf den Skandal kommen um nochmal in
    Erinnerung zu rufen, es war ja so ein
  • 14:17 - 14:21
    elendes Facebook Jahr, im Prinzip hatte
    man ja im Monat zwei verschiedene Arten
  • 14:21 - 14:27
    von kleinen und größeren Skandalen über
    die man gesprochen hat und viele haben
  • 14:27 - 14:32
    dabei vergessen was die Essenz dieses
    Cambridge Analytica Skandals eigentlich
  • 14:32 - 14:35
    war, warum der international so riesige
    Wellen geschlagen hat sodass sich der
  • 14:35 - 14:39
    Konzernchef sowohl in den US-Kongress wie
    auch ins Europaparlament setzen musste und
  • 14:39 - 14:46
    das britische Parlament und da seine "We
    get back to you"-Reden gehalten hat. Es
  • 14:46 - 14:48
    war ja eigentlich ein relativ einmaliger
    Vorgang.
  • 14:48 - 14:53
    I: genau in diesem Maße haben wir
    eigentlich noch nie. Es gab auch Berichte
  • 14:53 - 14:57
    über Cambridge Analytica bereits seit 2015
    eigentlich hätten wir auch schon aber in
  • 14:57 - 15:01
    diesen Maßnahmen noch nie eine öffentliche
    Debatte und eine öffentliche Einsicht in
  • 15:01 - 15:05
    diese Methoden des politischen Micro
    Targeting bekommen. Der Skandal um
  • 15:05 - 15:10
    Cambridge Analytica ist natürlich deshalb
    ein besonderer weil, a) der Facebook
  • 15:10 - 15:17
    Konzern betroffen ist und dessen besonders
    laxer bis verantwortungsloser Umgang mit
  • 15:17 - 15:23
    den Daten seiner Nutzerinnen und Nutzer
    und andererseits eben im Raum stand und
  • 15:23 - 15:28
    inzwischen ja auch bestätigt ist durch die
    Untersuchungsberichte dass Daten von
  • 15:28 - 15:32
    Facebook-NutzernInnen ohne ihr Wissen
    beispielsweise für das Targeting in Trumps
  • 15:32 - 15:38
    Wahlkampf eingesetzt worden sind. Um es
    einmal kurz up zu wrappen. Worum ging es
  • 15:38 - 15:45
    bei Cambridge Analytica? Ein ehemaliger
    Forscher oder damals noch Forscher an der
  • 15:45 - 15:52
    Cambridge University hat sich
    zusammengetan mit der Firma Cambridge
  • 15:52 - 15:58
    Analytica bzw. SCL, der Mutterfirma von
    Cambridge Analytica. Camebridge Analytica,
  • 15:58 - 16:02
    da gibt es ganz interessante Geschichten
    zu wie der Name zustande kommt, es ist
  • 16:02 - 16:12
    scheinbar vor allen Dingen ein Konstrukt
    gewesen damit man dem US Manipulateur und
  • 16:12 - 16:19
    damals Trump Berater Steve Bannon gefallen
    kann. Was haben die gemacht? Sie haben
  • 16:19 - 16:24
    eine eigentlich ursprünglich für
    wissenschaftliche Zwecke entwickelte und
  • 16:24 - 16:31
    auch genehmigte App eingesetzt zum Sammeln
    von umfangreichen Daten: Profil
  • 16:31 - 16:36
    Informationen, Like Informationen von
    insgesamt 320 000 Menschen die dafür
  • 16:36 - 16:46
    bezahlt worden sind. Kleinere Click-Worker
    die für Centbeträge eben diese App genutzt
  • 16:46 - 16:51
    haben, eine mit Facebook verbundene App
    und haben dort einerseits einen Fragebogen
  • 16:51 - 16:56
    ausgefüllt der dazu dient eine
    Persönlichkeitsanalyse nach dem
  • 16:56 - 16:59
    sogenannten OCEAN-Modell, ein
    psychologisches Modell das relativ weit
  • 16:59 - 17:05
    verbreitet und etabliert ist, zu machen,
    das einem die Einordnung der
  • 17:05 - 17:10
    Persönlichkeit anhand von fünf
    Charaktereigenschaften ermöglicht. Die
  • 17:10 - 17:13
    haben aber nicht nur diesen Fragebogen
    ausgefüllt sondern eben einerseits einen
  • 17:13 - 17:17
    umfangreichen Datensatz bewusst oder
    unbewusst über sich preisgegeben ihrer
  • 17:17 - 17:24
    Facebook-Daten und über in insgesamt
    87 Millionen Freundinnen und Freunde mit
  • 17:24 - 17:31
    denen sie auf Facebook verbunden waren und
    Cambridge Analytica beziehungsweise diese
  • 17:31 - 17:37
    Forschungsfirma des Cambridge Forschers
    Alexander Cowan, haben dann diese
  • 17:37 - 17:42
    Persönlichkeitsanalysen von den 320.000
    Menschen, die diesen Fragebogen ausgefüllt
  • 17:42 - 17:46
    haben, gemacht und dann anhand der
    Facebook-Daten Ähnlichkeiten wieder nach
  • 17:46 - 17:51
    Datenprofilenähnlichkeiten ausgewertet,
    sodass sie am Ende Persönlichkeitsprofile,
  • 17:51 - 17:56
    psychologische Persönlichkeitsprofile von
    87 Millionen Menschen hatten, unter
  • 17:56 - 18:00
    anderem 30 Millionen US-AmerikanerInnen
    und US-Amerikaner. Diese Daten sind an
  • 18:00 - 18:05
    Cambridge Analytica bzw. SCL gegangen. Die
    wiederum haben sie mit ihren umfangreichen
  • 18:05 - 18:10
    eigenen Datenbanken, in den USA haben die
    politischen Akteure deutlich mehr laxeren
  • 18:10 - 18:15
    Zugriff auf Datenbanken über Wahlverhalten
    und registrierte Wählerinnen und Wähler,
  • 18:15 - 18:22
    verbunden und diese genutzt, um die Trump-
    Kampagne...ja...politisch in der
  • 18:22 - 18:25
    politischen Kommunikation zu stärken.
    Wofür haben Sie das eingesetzt? Unter
  • 18:25 - 18:31
    anderem haben sie, so beschreibt es der
    Whistleblower Christopher Wylie, eben
  • 18:31 - 18:36
    ganze passende Informationsökosysteme aus
    Blogs und Webseiten eigentlich aufgesetzt.
  • 18:36 - 18:44
    Für die Manipulation Einzelner bzw. von
    Gruppen. Je nach Themengebiet haben sie
  • 18:44 - 18:47
    eben einzelne Blogs und Webseiten
    aufgesetzt, um den Eindruck einer
  • 18:47 - 18:51
    neutralen Öffentlichkeit oder einer
    neutralen Berichterstattung zu machen und
  • 18:51 - 18:58
    Leute auf bestimmte Themen dann eben
    anzusprechen, sei es etwa Waffenrecht oder
  • 18:58 - 19:02
    ähnliches oder die Migrationsfrage.
    C: Also besonders politisch umstrittene
  • 19:02 - 19:05
    Fragen. Also wo sich ich Leute wohl eher
    polarisierend wirkt.
  • 19:05 - 19:11
    I: Nicht nur das. Dann ist es eingesetzt
    worden für das Microtargeting im
  • 19:11 - 19:14
    Haustürwahlkampf der in den USA eine
    besonders große Rolle spielt. Also bis zu
  • 19:14 - 19:20
    32 unterschiedliche Gesprächsleitfäden
    haben die Haustürwahlkämpfer eben bekommen
  • 19:20 - 19:24
    und wussten in etwa, ok, wenn ich jetzt an
    dieser Tür klingel, welchen Leitfaden muss
  • 19:24 - 19:29
    ich jetzt einsetzen. Und was wir online
    gesehen haben, ist eine gezielte Negativ-
  • 19:29 - 19:35
    Kampagne gegen Hillary Clinton bei der die
    Trump-Kampagne oder Pro-Trump-Campaigner
  • 19:35 - 19:40
    nicht versucht haben, Leute davon zu
    überzeugen Donald Trump zu wählen, weil
  • 19:40 - 19:44
    sie wussten bestimmte Wählergruppen sind
    überhaupt nicht zu erreichen für diesen
  • 19:44 - 19:48
    Typen, sondern es ging um strategische
    Demobilisierung der Gegenseite. Also
  • 19:48 - 19:52
    bestimmte Wählergruppen in denen Hillary
    Clinton besonders stark ist oder
  • 19:52 - 19:55
    klassischerweise stark gewesen wäre,
    Frauen, People of Color und so weiter,
  • 19:55 - 20:00
    sind mit gezielten negativ Informationen,
    beispielsweise auf Facebook versorgt
  • 20:00 - 20:06
    worden, um die Gegenkandidatin zu
    diskreditieren. Beispielsweise Frauen
  • 20:06 - 20:12
    haben dann sehr viel Wahlwerbung bekommen
    die auf den Seitensprung oder die Untreue
  • 20:12 - 20:19
    von Bill Clinton angespielt haben, um das
    Bild von Hillary Clinton als wackere
  • 20:19 - 20:24
    Feministin, das die demokratische Kampagne
    so ein bisschen versucht hat zu zeichnen,
  • 20:24 - 20:27
    eben zu schwächen.
    C: Und es hat negative campaigning in den
  • 20:27 - 20:30
    Vereinigten Staaten sehr viel weiter
    verbreitet als in den typischen
  • 20:30 - 20:34
    europäischen oder gar deutschen
    Wahlkämpfen. Dennoch hat das natürlich ne'
  • 20:34 - 20:39
    andere Form von Manipulationsmacht, wenn
    eben nicht an alle gerichtet über
  • 20:39 - 20:46
    Fernsehspots läuft, sondern eben typisiert
    ausgespielt wird. Es gibt
  • 20:46 - 20:52
    kein...keine...Es gibt kein Endergebnis,
    inwieweit tatsächlich das Wahlergebnis
  • 20:52 - 20:56
    davon beeinflusst war. Es gibt das klare
    Ergebnis, dass es eine Beeinflussung gab,
  • 20:56 - 21:01
    aber nicht etwa das Ergebnis, dass es
    keinen Präsidenten Donald Trump gegeben
  • 21:01 - 21:05
    hätte, ohne diese Form der
    Onlinemanipulation. Wer sich ein bisschen
  • 21:05 - 21:11
    auseinandersetzt mit dem US amerikanischen
    Wahlsystem, weiß natürlich, dass man an
  • 21:11 - 21:16
    bestimmten Lokationen, eine Manipulation
    sehr viel wirksamer durchführen kann, wenn
  • 21:16 - 21:20
    man etwas über die Verteilung sozusagen
    weiß. Und so hat natürlich auch Location
  • 21:20 - 21:24
    Data, also die Frage wo befinden sich
    Personen die denen ich möglichst eine
  • 21:24 - 21:29
    demotivierende Message zukommen lassen
    will, damit sie nicht zur Wahl gehen. Hat
  • 21:29 - 21:33
    dadurch eine größere Rolle gespielt, im
    Vergleich zu dem Obama Wahlkampf davor, wo
  • 21:33 - 21:37
    es übrigens kaum kritisiert wurde. Wo
    es auch eine sehr enge Zusammenarbeit gab.
  • 21:37 - 21:40
    I: Und am Ende sind es etwa 70.000 Stimmen
    gewesen, die über den Wahlentscheid oder
  • 21:40 - 21:44
    über den Wahlausgang entschieden haben, in
    drei unterschiedlichen Bundesstaaten.
  • 21:44 - 21:47
    Also, so knapp ist diese Wahl am Ende
    ausgegangen.
  • 21:47 - 21:53
    C: Okay. Wir wollen ein bisschen sprechen
    über dat Brexit Referendum. Zum einen,
  • 21:53 - 21:59
    weil das Ergebnis auch so furchtbar knapp
    war, weil die Untersuchung im britischen
  • 21:59 - 22:06
    Parlament sehr viel öffentlicher sind und
    genauer sind und, weil natürlich die
  • 22:06 - 22:14
    Aussagen die auch nach dem Brexit...nach
    dem Cambridge Analytica Skandal dann dort
  • 22:14 - 22:18
    gemacht wurden nachzulesen sind. Aber
    auch, weil das ICO eine britische ganze
  • 22:18 - 22:22
    Fragenkataloge, sowohl an die Konzerne,
    wie aber auch an die politische Parteien
  • 22:22 - 22:26
    gestellt hat. Und eben versucht hat
    auszuwerten was ist denn eigentlich...was
  • 22:26 - 22:30
    wird eigentlich wirklich getan. Denn man
    kann, glaub ich aus meiner Sicht,
  • 22:30 - 22:34
    zumindest nicht immer nur diese
    Werbekonzerne und Datenfirmen an die
  • 22:34 - 22:38
    Kandaren nehmen, sondern man muss sich
    natürlich auch fragen, wie sind denn die
  • 22:38 - 22:43
    politischen Parteien, die Aufgabe die
    Regulation dafür machen, eigentlich selber
  • 22:43 - 22:48
    daran beteiligt. Da ist ja ein ganz klarer
    Interessenkonflikt. Denn wir reden hier
  • 22:48 - 22:54
    anders als, glaub ich, gerade am Anfang
    des Jahres viel so diskutiert wurde. Wir
  • 22:54 - 22:59
    reden ja über ganz klare Machtfragen. Wenn
    es tatsächlich so sein sollte, dass anders
  • 22:59 - 23:04
    als beim US-Wahlkampf wo, meine Güte, nach
    vier Jahren wird jemand neues gewählt und
  • 23:04 - 23:09
    maximal acht Jahre kann Trump Präsident
    sein. So ist, denk ich mal, die
  • 23:09 - 23:14
    Entscheidung für ein Land aus der EU
    auszusteigen sicherlich für mehrere
  • 23:14 - 23:18
    Generationen eine weitreichende
    Entscheidung. Also von dem Ergebnis, finde
  • 23:18 - 23:21
    ich, noch schwerwiegender und knapper.
    I: Genau, was haben wir gesehen beim
  • 23:21 - 23:25
    Brexit Referendum oder was haben die
    Untersuchungsberichte rausgefunden,unter
  • 23:25 - 23:30
    anderem. Also, wir gehen jetzt einfach mal
    so ein paar Beispiele durch, um so einen
  • 23:30 - 23:34
    Blick nochmal ein bisschen zu erweitern.
    Unter anderem beim Brexit Referendum ist
  • 23:34 - 23:39
    unter anderem zu sehen gewesen, dass die
    Leave-Kampagnen, also die pro Brexit
  • 23:39 - 23:44
    Kampagnen, untereinander fleißig Date
    ausgetauscht haben. Was natürlich nicht
  • 23:44 - 23:49
    der Zweckbindung des dem
    Datenschutzgrundsatz der Zweckbindung
  • 23:49 - 23:54
    entspricht. Wenn ich als
    jemand...ein...wenn ich als jemand der
  • 23:54 - 23:57
    sich für das Thema interessiert einer
    Kampagne meine Daten zur Verfügung stelle,
  • 23:57 - 24:02
    beispielsweise Kontaktdaten, gehe ich
    nicht davon aus, dass meine Daten an
  • 24:02 - 24:08
    andere Konzerne oder weitere Kampagnen,
    die formell unabhängig sind und eigentlich
  • 24:08 - 24:11
    auch nicht zusammenarbeiten dürfen,
    weitergegeben werden. Was haben Sie noch
  • 24:11 - 24:16
    rausgefunden? Unter anderem gibt es einen
    britischen Versicherungskonzern, dessen
  • 24:16 - 24:21
    Geschäftsführung eng verbunden ist mit
    einer der Leave-Kampagnen, oder war mit
  • 24:21 - 24:25
    einer der Leave-Kampagnen, die unter
    anderem dann die Kundenlisten dieses
  • 24:25 - 24:31
    Versicherungskonzerns eingesetzt haben, um
    zielgerichtet Menschen anzurufen und
  • 24:31 - 24:36
    mit...oder mit Wahlkampfbotschaften Pro-
    Leave zu bombardieren.
  • 24:36 - 24:40
    C: Typisch kann man noch sagen, etwa eine
    ganz klassische oder mehr ebige
  • 24:40 - 24:43
    Desinformationskampagne. Also die
    Wahrhaftigkeit der Nachrichten die
  • 24:43 - 24:47
    ausgespielt wurde war fragwürdig. Da sind
    aber auch immer noch Gruppen dran die
  • 24:47 - 24:51
    daran auswerten und auch - wir haben
    vorhin schon erwähnt - die
  • 24:51 - 24:55
    parlamentarische Untersuchung und die
    Untersuchung des ICO - sozusagen wie so
  • 24:55 - 24:58
    eine Bundesdatenschutzbehörde vergleichbar
    kann man sagen in Großbritannien - ist
  • 24:58 - 25:03
    noch immer nicht abgeschlossen.
    I: Genau...in Anbetracht der Zeit machen
  • 25:03 - 25:06
    wir die folgenden Beispiele, die diesen
    Blick so mal ein bisschen erweitern, mal
  • 25:06 - 25:11
    eher kurz. Aber wir wollen sie doch
    zumindest einmal erwähnen, damit man es
  • 25:11 - 25:17
    mal gehört hat. In Irland hat in diesem
    Jahr ein Referendum über das, bis dato
  • 25:17 - 25:26
    sehr straffe und scharfe Abtreibungsrecht
    stattgefunden. Mit einer hochgradig
  • 25:26 - 25:32
    polarisierten und in der Öffentlichkeit
    umkämpften Kampagne oder Kampagnen. Und
  • 25:32 - 25:38
    unter anderem konnten wir feststellen,
    dass in diesem politischen Kampf um
  • 25:38 - 25:43
    die... um das Abtreibungsreferendum nicht
    nur Akteure aus Irland mitgespielt haben,
  • 25:43 - 25:48
    sondern es ist öffentlich geworden, dass
    auch religiöse Fundamentalistengruppen aus
  • 25:48 - 25:53
    den USA, beispielsweise die irische
    Bevölkerung, mit Microtargeting versucht
  • 25:53 - 25:57
    haben zu erreichen. Haben unter anderem
    sogenannte Aufklärungswebseiten,
  • 25:57 - 26:01
    Facebookkampagnen und so weiter
    aufgesetzt, um vermeintlich Unentschiedene
  • 26:01 - 26:08
    zu erreichen und mit vermeintlichen Fakten
    eben aufzuklären. Facebook hat, als es
  • 26:08 - 26:12
    öffentlich wurde, dann irgendwann auch
    unterbunden, dass Akteure (oder zumindest
  • 26:12 - 26:16
    versucht zu unterbinden), dass Akteure aus
    dem Ausland hier mitmischen dürfen.
  • 26:16 - 26:20
    C: Also...Typisch ist eben, weil wir daran
    nur festhalten wollen, ist, dass man mit
  • 26:20 - 26:25
    relativ kleinen Summen, also Summen, die
    für finanzstarke Länder einfach überhaupt
  • 26:25 - 26:30
    keine Rolle spielen, in hohem Maße
    Einfluss nehmen kann auf 'ne ausländische
  • 26:30 - 26:33
    Referendum oder eine Wahl.
    Das ist natürlich auch nicht neu.
  • 26:33 - 26:36
    Aber, ich glaube,
    auf diese heimliche
  • 26:36 - 26:40
    Hinterrücks-Art-und-Weise
    und möglicherweise unbemerkt von
  • 26:40 - 26:45
    denjenigen, die betroffen sind, oder erst
    später bemerkt, ist natürlich insofern ein
  • 26:45 - 26:49
    neues Phänomen. Aber et wird sozusagen
    noch schlimmer, wenn man einen Blick nach
  • 26:49 - 26:53
    Afrika wirft.
    I: Genau... In Kenia hat 2017 ein
  • 26:53 - 26:58
    ebenfalls hochgradig polarisierter
    Wahlkampf... Präsidentschaftswahlkampf
  • 26:58 - 27:02
    zwischen, im Wesentlichen zwei Parteien
    oder Parteiengruppierungen, stattgefunden.
  • 27:02 - 27:09
    Und was wir sehen können, ist, dass das in
    Kenia, wie in vielen afrikanischen
  • 27:09 - 27:13
    Staaten, die Datenschutzgesetze natürlich
    deutlich schwächer sind und die Parteien
  • 27:13 - 27:18
    über einen erheblichen... erhebliches Maß
    an eigenen Datenbanken verfügen,
  • 27:18 - 27:22
    gleichzeitig Zugriff auf Wahlregister
    haben, mit Ausweisnummern, Telefonnummern,
  • 27:22 - 27:28
    Namen und biometrischen Angaben, von den
    zum Wahlen Registrierten. Und auch dort
  • 27:28 - 27:33
    haben wir ein gezieltes, groß angelegtes
    Negative Campaigning gesehen. Unter
  • 27:33 - 27:43
    anderem auf oder durch die Kampagne des
    damaligen Präsidenten und auch heute oder
  • 27:43 - 27:49
    dann wiedergewählten Präsidenten Uhuru
    Kenyatta. Unter Nutzung beispielsweise der
  • 27:49 - 27:53
    auch in Deutschland und den USA nicht ganz
    unbekannten Negative-Campaigning-
  • 27:53 - 27:58
    Organisationen Harris Media aus den USA.
    Und was wir da gesehen haben in Kenia ist,
  • 27:58 - 28:05
    dass eine Entwicklung, die wahrscheinlich
    so ein bisschen vorwegnimmt, was wir auch
  • 28:05 - 28:09
    in europäischen Wahlkämpfen erleben
    werden, nämlich dass sich dort sehr viel
  • 28:09 - 28:14
    verlagert hat in Messenger-Gruppen und
    dass dort sozusagen auch das
  • 28:14 - 28:20
    zielgerichtete Werben, vor allen Dingen
    dann in zugeschnittenen Messenger-Gruppen,
  • 28:20 - 28:25
    WhatsApp-Gruppen,
    stattgefunden hat, in
  • 28:25 - 28:29
    denen dann eben auch gezielt,
    ja, mobilisiert wurde
  • 28:29 - 28:33
    und Menschen dann einfach, weil ihre
    Telefonnummern bei den wahlwerbenden
  • 28:33 - 28:37
    Akteuren bekannt waren, hinzugefügt wurden
    ohne gefragt zu werden, und dann dort
  • 28:37 - 28:41
    bombardiert wurden mit Nachrichten.
    C: Ich denke, wir können; Wir wissen ja
  • 28:41 - 28:44
    bereits, dass 2019 so
    ein bisschen über 20 Wahlen
  • 28:44 - 28:48
    in Europa stattfinden und die EU-Wahl...
  • 28:48 - 28:51
    Ist glaube ich interessant, auf die neuen
    Kanäle zu blicken. Betrifft dann
  • 28:51 - 28:55
    natürlich nicht nur WhatsApp, sondern da
    muss man glaube ich auch Instagram im Auge
  • 28:55 - 29:00
    behalten. Man kann eigentlich so dieses
    Follow-the-Money-Modell ganz gut fahren.
  • 29:00 - 29:06
    Man kann also gucken, wo gehen die oder wo
    steigen die Zahlen für Advertisement und
  • 29:06 - 29:11
    dann kann man immer ungefähr sehen, wo die
    nächsten technisch interessanten für diese
  • 29:11 - 29:15
    Manipulationszwecke ebenfalls benutzten
    Plattformen sind. Das hat sich so ein
  • 29:15 - 29:19
    bisschen kapriziert auf Facebook. Es liegt
    aber auch daran, dass natürlich die
  • 29:19 - 29:22
    Nutzung in den verschiedenen Kontinenten
    sehr unterschiedlich ist.
  • 29:22 - 29:24
    In Afrika ist halt
    Facebook enorm verbreitet,
  • 29:24 - 29:27
    aber auch die
    Twitter-Nutzung relativ stark. Wir könnten
  • 29:27 - 29:31
    jetzt noch andere Beispiele nennen, die
    wir jetzt mal weglassen. In Frankreich ist
  • 29:31 - 29:34
    es sehr intensiv debattiert worden. Wir
    haben südamerikanische Fälle.
  • 29:34 - 29:37
    I: Brasilien.
    C: Wir haben Fälle wie in Kenia, wo,
  • 29:37 - 29:40
    also internationale Fälle, wo sozusagen so
    polarisiert war, dass es zu
  • 29:40 - 29:44
    Gewaltausbrüchen geführt hat, was wir
    jetzt so in Europa noch nicht gesehen
  • 29:44 - 29:48
    haben. Wir wollen uns aber jetzt nochmal
    auf das eine Beispiel in Österreich
  • 29:48 - 29:50
    nochmal stürzen,
    weil auch so ein typischer Fall ist,
  • 29:50 - 29:52
    wo man, glaube ich,
    so Muster erkennen kann.
  • 29:52 - 29:57
    I: Genau. Das fühlt sich ja immer so weit
    weg an, oder kann man sich für manche
  • 29:57 - 30:01
    jedenfalls. Im österreichischen Wahlkampf,
    Parlamentswahl und
  • 30:01 - 30:05
    Präsidentschaftswahlkampf, haben wir unter
    anderem erleben können,
  • 30:05 - 30:12
    wie ein Berater und Wahlkampfmanager
    der Sozialdemokratischen Partei,
  • 30:12 - 30:17
    Tal Silberstein,
    so ganz tief in
  • 30:17 - 30:21
    den Methodenkoffer der Desinformation oder
    eigentlich der digitalen Manipulation
  • 30:21 - 30:26
    gegriffen hat. Hat nämlich Facebook-
    Seiten, gefakte Facebook-Seiten aufgesetzt
  • 30:26 - 30:35
    u.a. die Seite "Wir für Sebastian Kurz",
    also der SPÖ Wahlkampfmanager oder
  • 30:35 - 30:40
    Wahlkämpfer setzt eine Seite auf "Wir für
    Sebastian Kurz", die so den Anschein
  • 30:40 - 30:45
    vermitteln sollte, dass dahinter eine ÖVP
    Kampagne, die Partei von Sebastian Kurz,
  • 30:45 - 30:56
    steht. Einerseits um die Kampagne in ...
    Okay Constanze weist auf die Zeit hin ...
  • 30:56 - 31:02
    u.a. auch um Daten zu sammeln sozusagen um
    eine Facebook-Seite mit, ich glaube, 15
  • 31:02 - 31:10
    bis 20 Tausend Followern am Ende gewesen,
    u.a. um wiederum Informationen über ÖVP
  • 31:10 - 31:14
    Sympathisanten auf Facebook zu bekommen,
    die dann mit gezielter Negativkampagne
  • 31:14 - 31:18
    erreicht werden können. Die andere Seite
    "Die Wahrheit über Sebastian Kurz" ging
  • 31:18 - 31:24
    dann in die andere Richtung. Da wurde dann
    versucht einen FPÖ-Schlag zu geben.
  • 31:24 - 31:29
    C: Also auch hier ist natürlich heftig
    debattiert worden, kann man sich
  • 31:29 - 31:36
    vorstellen, die Opposition ... auch im
    Parlament, auch hier ist es nicht wirklich
  • 31:36 - 31:44
    im Ergebnis klar, ob diese Form der
    versuchten Kampagnen im Ergebnis wirklich
  • 31:44 - 31:47
    das Ziel erreicht haben.
    I: Genau. Aber ohnehin muss man
  • 31:47 - 31:50
    tatsächlich sagen, dass in Österreich der
    Einsatz von Microtargeting und auch
  • 31:50 - 31:55
    verdeckten Microtargeting deutlich stärker
    gewesen ist. Das Tal-Silberstein Beispiel
  • 31:55 - 31:59
    ist jetzt natürlich ein besonders krasses
    aber eben auch natürlich die anderen
  • 31:59 - 32:03
    politischen Akteure haben das eingesetzt.
    Deutschland, das können wir ganz kurz
  • 32:03 - 32:07
    machen tatsächlich, wir haben...
    C: Wo die Angst war groß, muss man sagen.
  • 32:07 - 32:10
    Einfach weil die Debatte ja schon
    losgegangen war und dann gab es noch, wenn
  • 32:10 - 32:15
    ihr euch erinnert, den Bundestags-Hack,
    also die Angst war relativ groß, dass man
  • 32:15 - 32:18
    eine Form von Manipulation von Innen oder
    von Außen nicht so richtig beherrschen
  • 32:18 - 32:23
    könnte, dass die Leaks, die ja auch im US-
    Wahlkampf eine große Rolle gespielt haben,
  • 32:23 - 32:26
    der E-Mails möglicherweise durch den
    Bundestags-Hack auch noch eine Rolle
  • 32:26 - 32:30
    spielen, also es gab eine große Angst und
    Unsicherheit im Bundestag vor der Wahl.
  • 32:30 - 32:35
    I: Man muss sagen, dass die Parteien außer
    einer relativ Wischiwaschi Selbsterklärung
  • 32:35 - 32:38
    C: Genau
    I: Oder Selbstverpflichtung nicht viel
  • 32:38 - 32:42
    dazu beigetragen haben diese Angst
    beiseite zu schieben zumindest nicht,
  • 32:42 - 32:46
    indem sie aufgeklärt haben.
    Wir haben versucht bei netzpolitik.org in
  • 32:46 - 32:50
    einer längeren Recherche so ein bisschen
    zu zeigen, welche Methoden setzen
  • 32:50 - 32:54
    eigentlich die Parteien ein, auch wie viel
    Geld setzen sie ein für Online-Campaigning
  • 32:54 - 32:57
    beispielsweise und für Targeted
    Advertising. Man muss es sagen wir sind da
  • 32:57 - 33:01
    eigentlich gegen Wände gerannt.
    C: Ingo hat die einfach mal gefragt. Die
  • 33:01 - 33:04
    sind ja nicht nur diejenigen die die
    Regulierung entscheiden, sondern auch
  • 33:04 - 33:08
    selber dafür Gelder einsetzen. Also hat
    sich Ingo hingesetzt und hat die alle mal
  • 33:08 - 33:12
    angeschrieben hat er gesagt: "Ey Freunde
    sach mal, leg die mal offen" nicht nur wie
  • 33:12 - 33:16
    viel, sondern auch wem und mit welchem
    Ziel ihr versucht diese Kampagnen zu
  • 33:16 - 33:19
    fahren, die sich Desinformation nennen
    will sollen erst mal Wahlwerbung. Die
  • 33:19 - 33:25
    Ergebnisse sind relativ eindeutig nämlich
    fast Null. I: Genau fast null. Man muss
  • 33:25 - 33:28
    eben sagen, die Grünen sind diejenigen die
    tatsächlich Aufklärung oder die am
  • 33:28 - 33:33
    offensten waren in der Kommunikation. Die
    Linken haben auch relativ viel Einblick
  • 33:33 - 33:38
    gegeben und haben relativ offen darüber
    gesprochen. Aber FDP, AfD, CDU und SPD
  • 33:38 - 33:42
    waren extrem verschlossen darüber und
    haben eben wenig dazu beigetragen
  • 33:42 - 33:47
    eigentlich für Aufklärung zu sorgen an der
    Stelle. Wir wollen es noch mal runter
  • 33:47 - 33:51
    dampfen weil wir eben gesagt haben es geht
    ja eigentlich nicht um die Beispiele und
  • 33:51 - 33:56
    einzelnen Akteure sondern es geht um die
    Methoden mit welchen Methoden der
  • 33:56 - 34:00
    Manipulation müssen wir denn rechnen.
    Worauf müssen wir achten oder worauf
  • 34:00 - 34:05
    sollte man es einstellen, wenn wir an die
    Europawahl 2019 denken. Haben Sie einfach
  • 34:05 - 34:09
    nochmal so ein bisschen versucht
    aufzuschreiben das Verführen also die auf
  • 34:09 - 34:12
    individuelle Persönlichkeitsprofile
    zugeschnittenen Botschaften.
  • 34:12 - 34:17
    C: Wir wollen damit nicht unbedingt sagen,
    dass irgendwie der Einzelne weder jetzt
  • 34:17 - 34:21
    plötzlich die Aufgabe kriegt. So sind doch
    unsere Forderungen die wir bringen wollen
  • 34:21 - 34:26
    nicht gestaltet aber auch diejenigen, die
    darüber berichten oder die betroffen sind
  • 34:26 - 34:30
    müssen sich natürlich irgendwie mit den
    Methoden der versuchten Manipulation
  • 34:30 - 34:35
    auseinandersetzen. Also soll ich jetzt
    nicht sagen der Einzelne soll darauf
  • 34:35 - 34:39
    achten, sondern wir sind schon dafür dass
    wir eine politische Lösung dafür brauchen
  • 34:39 - 34:43
    und auch eine gezielte
    Informationssendung. I: Genau diese Liste
  • 34:43 - 34:47
    kann helfen. Wir gehen jetzt nicht nur im
    Einzelnen durch. Lasst uns mal kurz gucken
  • 34:47 - 34:52
    auf die Maßnahmen, die in der EU bereits
    ergriffen wurden weil natürlich das Thema
  • 34:52 - 34:57
    in der politischen Debatte auch ankommen
    ist. C: Zum einen gibt es seit Dezember
  • 34:57 - 35:02
    gerade erst einen sogenannten Aktionsplan.
    Der ist natürlich ein bisschen größer
  • 35:02 - 35:07
    geraten als nur Gegenmaßnahmen für
    Desinformationskampagnen zu finden, aber
  • 35:07 - 35:11
    der Aktionsplan ist von der EU-Kommission
    der hat natürlich erst einmal überhaupt
  • 35:11 - 35:18
    Maßnahmen ausgerollt und vorgeschlagen.
    Dabei blieb es dann. Denn es ist ja nicht
  • 35:18 - 35:23
    so dass eine EU Regulierung jetzt eine
    Richtlinie oder Verordnung oder so wäre
  • 35:23 - 35:29
    schnell durchzudrücken sei man hat quasi
    so eine Art Vorschläge unterbreitet und
  • 35:29 - 35:33
    fordert die einzelnen Länder auf die
    umzusetzen, die sind aber größer als nur
  • 35:33 - 35:37
    Desinformationen. Da geht es natürlich
    auch um IT-Sicherheit gar keine Frage weil
  • 35:37 - 35:40
    man aus den vergangenen
    Desinformationskampagne natürlich auch
  • 35:40 - 35:45
    schließen kann, dass strategische Hacks
    benutzt werden. Da geht es um die
  • 35:45 - 35:48
    Schaffung von Stellen. Das heißt man
    versucht Informationen zu sammeln aber
  • 35:48 - 35:53
    auch ganz gezielte Gegenpropaganda zu
    bezahlen das ist gerade aktuell den Briten
  • 35:53 - 35:57
    auf die Nase gefallen. Denn in
    Großbritannien wird ganz intensiv darüber
  • 35:57 - 36:03
    gestritten, dass einer von der britischen
    Regierung bezahlte Klitsche gegen den
  • 36:03 - 36:07
    Oppositionschef eine Kampagne fährt man
    hat eigentlich Gegenpropaganda machen
  • 36:07 - 36:16
    wollen und plötzlich hat man Jeremy Corbyn
    den Oppositionsführer quasi sein Ziel hat
  • 36:16 - 36:21
    ihn als Putin-Versteher diskreditiert. Wo
    es große Aufregung im britischen Parlament
  • 36:21 - 36:28
    gab es dieses Vorhaben jetzt bauen wir
    dieselben Strukturen zur Gegenpropaganda
  • 36:28 - 36:32
    ist in mehreren Ländern schon gescheitert
    und im britischen Fall kurz ansprach hat,
  • 36:32 - 36:36
    kann man auch gerne nachlesen, dass die
    Institute of Statecraft gab es auch eine
  • 36:36 - 36:40
    parlamentarische Debatte darüber im
    Dezember hat schon Auswirkungen auf andere
  • 36:40 - 36:44
    Länder denn die haben auch gleich noch
    Spanien getargetet wo ihnen von der
  • 36:44 - 36:47
    Regierung benannte Geheimdienstchef nicht
    gepasst hat da haben sie dieselben
  • 36:47 - 36:52
    Methoden für ein auslãndische Land
    angewandt. Wir sehen Der Aktionsplan ist
  • 36:52 - 36:57
    erst mal schön gemeint besteht auch aus
    Methoden die ausgesprochen fragwürdig sind
  • 36:57 - 37:01
    und ist natürlich in keiner Weise bindend
    sondern ist erst mal ein Vorschlag und
  • 37:01 - 37:04
    wird viele politischen Parteien überhaupt
    nicht interessieren weil sie diese
  • 37:04 - 37:08
    Maßnahmen selber nämlich benutzen wollen.
    I: Was man mal positiv an der Stelle
  • 37:08 - 37:12
    zumindest bei diesem Aktionsplan sagen
    muss, natürlich die EU-Kommission ja die
  • 37:12 - 37:18
    EU hat überhaupt wenige Befugnisse in dem
    Bereich. Aber ein erster Schritt natürlich
  • 37:18 - 37:25
    viel zu spät ist aber überhaupt erst
    einmal ein Monitoring der sozusagen dieser
  • 37:25 - 37:29
    Manipulation Mehoden und des Themas
    Desinformation zu machen. Bei einem ersten
  • 37:29 - 37:36
    Treffen im Jahr im Frühjahr 2018 musste
    die EU feststellen die Wahlbehörden
  • 37:36 - 37:39
    beispielsweise in den Ländern sind
    vollkommen blank bei diesem Thema, das
  • 37:39 - 37:42
    findet einfach nicht statt.
    C: Das wurde teilweise nicht beantwortet,
  • 37:42 - 37:46
    den Katalog, die haben manchmal gar nicht
    antwortet auf die Fragen. Nicht nur, dass
  • 37:46 - 37:51
    sie nichts hatten, sie haben auch keine
    Fragen beantwortet oder Maßnahmen
  • 37:51 - 37:55
    angekündigt. Dazu sagen wir wollen mal auf
    die Forderungen. I: Wir nennen noch einmal
  • 37:55 - 37:59
    der Vollständigkeit halber dass das EU-
    Parlament auch Forderungen allerdings
  • 37:59 - 38:03
    unverbindliche zu dem Themenkomplex
    verabschiedet hat die finden sich in
  • 38:03 - 38:07
    unserer Leseliste aber auf die gehen wir
    nicht mehr ein sondern wir kommen jetzt
  • 38:07 - 38:12
    mal auf unsere Forderungen zum Schluss.
    Was... C: Die erste ...es müssen wir
  • 38:12 - 38:16
    angesichts der doch ziemlich
    polarisierender Debatte um die
  • 38:16 - 38:21
    Datenschutzgrundverordnung nochmal
    feststellen. Diese Form von in Europa
  • 38:21 - 38:25
    harmonisiert im Datenschutz ist ein
    Manipulation Schutz. Denn wenn die
  • 38:25 - 38:29
    einzelnen Länder in Europa feststellen,
    dass die Art wie politische Campaigning
  • 38:29 - 38:34
    mit den verschiedenen Daten Arten über die
    Werbeplattform durchgeführt wird jetzt
  • 38:34 - 38:38
    nicht mehr rechtmäßig ist, das ist ein
    strategischer Vorteil in Europa, wo wir so
  • 38:38 - 38:41
    viele Wahlen haben um zumindest eine
    Möglichkeit zu haben aufzudecken wenn
  • 38:41 - 38:45
    jemand hintenrum manipulieren will mit
    einer politischen Kampagne. Und so müssen
  • 38:45 - 38:50
    wir den Datenschutz auch anders sehen als
    früher. Ist Manipulation Schutz und wird
  • 38:50 - 38:54
    es in Zukunft sogar noch stärker werden
    denn unsere Profile dazu Tracking werden
  • 38:54 - 38:57
    wir bei Frederike gestern gelernt. Er
    nimmt ja in einem Maße zu auch dann wenn
  • 38:57 - 39:01
    wir keine Facebook-Opfer sind uns da keine
    Kunasek gelegt haben. Und wer von euch
  • 39:01 - 39:05
    Google frei ist sind wahrscheinlich nicht
    so viele in diesem Raum. Da hat sich das
  • 39:05 - 39:09
    glaube ich verschoben in der Wahrnehmung
    und da sollten wir auch darauf bestehen,
  • 39:09 - 39:13
    dass wir diesen Datenschutz so sehen. Aber
    wir haben natürlich noch ein paar
  • 39:13 - 39:17
    konkretere Forderungen die wir ganz gerne
    in Europa hätten I: Die wir in den letzten
  • 39:17 - 39:24
    zwei Minuten bekommen noch durchgehen. Ein
    großer Block ist natürlich das Thema
  • 39:24 - 39:29
    Transparenz, weil wir feststellen können,
    dass Wahlkampf hat natürlich immer oder
  • 39:29 - 39:33
    politische Kommunikation hat natürlich
    immer etwas mit Manipulation oder
  • 39:33 - 39:36
    zumindest was mit Überzeugung zu tun. Aber
    was wir sehen können ist, dass die
  • 39:36 - 39:43
    digitalen Plattformen mit ihren Tools es
    ermöglichen, dass eine ganz krasse
  • 39:43 - 39:48
    Asymmetrie entsteht zwischen denjenigen
    die politische Kommunikation betreiben und
  • 39:48 - 39:51
    manipulieren wollen und denjenigen die
    manipuliert werden. Deshalb ist es
  • 39:51 - 39:55
    unbedingt notwendig für Transparenz zu
    sorgen, also beispielsweise dass
  • 39:55 - 40:00
    politische Werbung entsprechend
    gekennzeichnet ist da wo sie ausgespielt
  • 40:00 - 40:04
    wird, für alle immer nachvollziehbar. Mit
    einer Kennzeichnung oder zumindest der
  • 40:04 - 40:07
    Möglichkeit sich das anzuschauen. Wer ist
    eigentlich die Person die mich hier
  • 40:07 - 40:11
    erreicht. Wer finanziert diese Anzeige.
    C: Und dazu würde natürlich auch eine
  • 40:11 - 40:15
    Information-Sammlung zählen nicht nur
    sondern umfassend Transparenz-Register
  • 40:15 - 40:22
    sondern auch welche Anbieter bieten
    Dienstleistungen auf der Anbieterseite an,
  • 40:22 - 40:26
    welche sind das und welche einzelne
    Dienste werden benutzt mit welchen
  • 40:26 - 40:29
    Geldern. Es gibt in manchen Ländern, die
    Briten haben wir etwa erhoben. Das ist
  • 40:29 - 40:34
    ganz interessant weil man auch über die
    Daten von 2016/17/18 sieht wohin die
  • 40:34 - 40:41
    Gelder verschoben werden und ob zum
    Beispiel unter Crossdevicing fällt und
  • 40:41 - 40:45
    bei welchem Konzern es landet mit welchen
    Summen wir reden etwa zuletzt von 3,2
  • 40:45 - 40:50
    Millionen Pfund also gar nicht so wenig.
    Diese Daten gibt es in Deutschland nicht.
  • 40:50 - 40:54
    Wir wissen nicht die Anbieterseite und wir
    wissen in Deutschland zum Beispiel nicht
  • 40:54 - 40:58
    wie viel wofür ausgegeben wird. Sollten
    wir ändern würde aber bedeuten, dass man
  • 40:58 - 41:02
    in Deutschland insbesonders Parteiengesetz
    ändern muss. Denn da stehen die
  • 41:02 - 41:06
    wesentlichen Regelungen drin für die
    Transparenz bei der Parteienfinanzierung.
  • 41:06 - 41:11
    Die sind ja okay in Deutschland aber
    beziehen sich ja nicht so sehr darauf
  • 41:11 - 41:18
    wohin diese ganze Gleichheit zwischen
    Kandidaten, sodass man ihnen wie man es im
  • 41:18 - 41:22
    Fernsehen hat, gleiche Möglichkeiten
    einräumt die sind in Deutschland im
  • 41:22 - 41:26
    Rundfunkstaatsvertrag geregelt. Der
    umfasst aber diese Werbekonzerne gar
  • 41:26 - 41:31
    nicht. Diese Gleichheit der Kandidaten,
    dass sie also in gleicher Weise an die
  • 41:31 - 41:37
    Wähler herankommen ist so nicht gegeben
    bei diesen Werbeplattformen. Genau das
  • 41:37 - 41:40
    Recht ist das eine. Das andere ist aber
    auch dass wir als Wählerinnen und Wähler
  • 41:40 - 41:44
    die Parteien in die Pflicht nehmen
    sollten. Also es kann eigentlich nicht
  • 41:44 - 41:48
    sein dass sie icht darüber Auskunft geben
    wie viel Geld sie und woher das Geld kommt
  • 41:48 - 41:51
    aber wie viel Geld sie ausgeben für
    bestimmte Maßnahmen und nach welchen
  • 41:51 - 41:56
    Kriterien sie welche Gruppen eigentlich
    ansprechen mit welchen Botschaften. Dass
  • 41:56 - 42:00
    man denen da immer hinterherlaufen muss,
    dass man kaum dazu kommt, kann nicht sein
  • 42:00 - 42:04
    sondern sie müssen proaktiv dazu gebracht
    werden Transparenz und Fakten
  • 42:04 - 42:08
    voranzubringen. Genau, zu psychometrisches
    Profiling im politischen Kontext ohnehin
  • 42:08 - 42:13
    schwierig.
    C: Diese Art von Verhaltensauswertung;
  • 42:13 - 42:16
    Ich hätte nichts dagegen
  • 42:16 - 42:20
    wenn das vor allen Dingen
    politische Campaigning vor allem für
  • 42:20 - 42:23
    bestimmte besonders anfällige
    Bevölkerungsgruppen die besonders
  • 42:23 - 42:26
    schutzbedürftig sind einfach nicht mehr
    erlaubt wird.
  • 42:26 - 42:34
    I: Wir machen den letzten Punkt insgesamt
    das Ökosystem, dieses Informationökosystem
  • 42:34 - 42:38
    indem die politische Öffentlichkeit heute
    stattfindet auf den digitalen Plattformen
  • 42:38 - 42:45
    wie Facebook und Google bilden inzwischen
    eine Form der Manipulations-Industrie die
  • 42:45 - 42:48
    nicht durch kleinere Maßnahmen. Sicherlich
    ist es wichtig in kleineren Maßnahmen
  • 42:48 - 42:53
    Transparenz und Verantwortlichkeit
    herzustellen, aber das Grundproblem ist
  • 42:53 - 42:59
    diese Manipulations-Industrie die diese
    Tools von vornherein mitliefert und die
  • 42:59 - 43:03
    ein hohes Missbrauchspotenzial haben die
    in die Verantwortung genommen werden muss
  • 43:03 - 43:05
    und eigentlich überwunden werden muss.
  • 43:05 - 43:06
    klatschen
  • 43:06 - 43:08
    C: Im übrigen
    Applaus
  • 43:08 - 43:12
    Und jetzt der letzte Satz
    Applaus
  • 43:12 - 43:16
    C: Weil wir jetzt an Ende hetzen müssen,
    wir werden noch einmal darüber
  • 43:16 - 43:20
    schreiben und über die Forderung die wir
    jetzt nicht so genau beschrieben haben
  • 43:20 - 43:23
    schriftlich uns bei
    netzpolitik.org äußern.
  • 43:23 - 43:25
    Im übrigen sind wir der Meinung, dass
  • 43:25 - 43:28
    Facebook und Google zerschlagen werden
    müssen. Vielen Dank!
  • 43:28 - 43:29
    klatschen
  • 43:29 - 43:45
    35C3 Outro
  • 43:45 - 43:52
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
35C3 - Microtargeting und Manipulation
Description:

more » « less
Video Language:
German
Duration:
43:53

German subtitles

Revisions