Return to Video

34C3 - Social Bots, Fake News und Filterblasen

  • 0:00 - 0:15
    Intro Musik
  • 0:15 - 0:19
    Herald: Ihr findet das ja wahrscheinlich
    alle völlig normal mit großen Datenmengen
  • 0:19 - 0:24
    umzugehen. So Typen wie ich, die
    herkömmliche Journalisten sind, ich bin im
  • 0:24 - 0:27
    Hauptberuf Hörfunkjournalist, die
    verzweifeln regelmäßig daran. Also wir
  • 0:27 - 0:31
    haben gelernt, damals, Leute zu fragen,
    die sich mit irgendwas auskennen.
  • 0:31 - 0:33
    Jetzt ist Leute fragen,
    die sich mit großen
  • 0:33 - 0:35
    Datenmengen auskennen auch nicht unbedingt
  • 0:35 - 0:40
    zielführend für unserein, dafür gibts aber
    neuerdings einen relativ frischen Beruf,
  • 0:40 - 0:44
    dieser Beruf nennt sich Datenjournalist.
    Datenjournalisten sind diese Menschen, die
  • 0:44 - 0:47
    aus aberwitzig großen Datenmengen
    Zusammenhänge rauspopeln und diese
  • 0:47 - 0:50
    Zusammenhänge dann idealerweise auch noch
    so visualisieren,
  • 0:50 - 0:52
    dass solche Noobs wie ich das dann
  • 0:52 - 0:55
    auch verstehen und hinterher
    kompetent drüber reden können, oder
  • 0:55 - 0:58
    jedenfalls so aussehen können, als würden
    sie kompetent drüber reden und einer der
  • 0:58 - 1:02
    so Leute wie uns sehr dabei unterstützt,
    ist Datenjournalist. Das ist nämlich der
  • 1:02 - 1:06
    Michael Kreil und seinen Vortrag seht ihr
    jetzt. Viel Spaß.
  • 1:06 - 1:17
    Applaus
    Michael: Guten Morgen. Ihr habt gut
  • 1:17 - 1:23
    geschlafen, ich nicht, weil erstens halte
    ich jetzt einen Vortrag vor vielen Leuten
  • 1:23 - 1:27
    und zum anderen werde ich mich in ein--
    mit einem Thema beschäftigen, das zu sehr
  • 1:27 - 1:31
    hitzigen Debatten und Shitstorms geführt
    hat und da möchte ich auch nicht im
  • 1:31 - 1:37
    Zentrum sein. Deswegen ist auch meine
    erste Folie der Disclaimer. Ich würde mich
  • 1:37 - 1:41
    politisch als links einordnen. Ich
    distanziere mich hiermit ausdrücklich
  • 1:41 - 1:45
    gegen jegliche Form von Rassismus,
    Sexismus, Antisemitismus,
  • 1:45 - 1:48
    Fremdenfeindlichkeit, Islamfeindlichkeit
    und allgemein gegen jede Form von
  • 1:48 - 1:57
    gruppenbezogener Menschlichkeit (Applaus)
    - Menschenfeindlichkeit. Und im Rahmen
  • 1:57 - 2:00
    dieses Vortrags bin ich Wissenschaftler
    und Beobachter einer hitzigen
  • 2:00 - 2:04
    Gesellschaftsdebatte und sehe mich somit
    der Neutralität verpflichtet. Ich möchte
  • 2:04 - 2:08
    die Debatte beobachten und nicht Teil von
    ihr sein. Es geht also nicht um meine
  • 2:08 - 2:12
    politische Position sondern um eine
    neutrale Analyse von Daten. Und dafür habe
  • 2:12 - 2:17
    ich mal 150 Folien vorbereitet. Ich hab
    den Übersetzungsengeln schon Bier
  • 2:17 - 2:23
    versprochen. Ähm ... genau, dann lass uns
    direkt reinschmeißen. Das erste ist die
  • 2:23 - 2:28
    Methodik. Das möchte ich gerne nochmal
    vorher erzählen, damit die Leute auch
  • 2:28 - 2:32
    wissen, wie es funktioniert und mir ist es
    auch wichtig, dass es reproduzierbar ist.
  • 2:32 - 2:38
    Es gibt ne Twitter-API, in der man Status
    und Tweets abfragen kann,
  • 2:38 - 2:41
    User abfragen kann,
    welche Listen veröffentlicht wurden.
  • 2:41 - 2:44
    Man kann danach suchen,
    gucken, welche Follower sie haben
  • 2:44 - 2:47
    und so weiter und so fort. Dann
    setzt man sich hin und dann baut man sich
  • 2:47 - 2:51
    son Interface für die API, wenn man
    sich ein bisschen Mühe gibt, packt man
  • 2:51 - 2:54
    auch noch einen Cache dazwischen. Das
    heißt wenn ich Anfragen an die Twitter-API
  • 2:54 - 2:58
    stelle und eine Anfrage kommt
    zweimal, dann holt er sie aus der
  • 2:58 - 3:03
    Datenbank und so weiter. Und wenn man sich
    richtig Mühe gibt und vielleicht auch ein
  • 3:03 - 3:08
    paar Tage oder Wochen investiert, dann
    skaliert man das in einer Art und Weise,
  • 3:08 - 3:12
    dass man nicht ein Interface hat, sondern
    ganz viele und jedes Einzelne davon steht
  • 3:12 - 3:16
    für einen anderen Twitter-Nutzer. Die Idee
    ist, dass ich nicht als einzelner Nutzer
  • 3:16 - 3:19
    abfrage, sondern ganz viele Nutzer können
    parallel die Twitter-API abfragen. Und
  • 3:19 - 3:26
    darüber gibt es so eine Art Load-Balancer,
    der guckt ob-- sozusagen, wie die Last
  • 3:26 - 3:31
    verteilt wird. Ziel der Aktion ist, die
    Twitter API ist nämlich limitiert. Ich
  • 3:31 - 3:34
    kann wenn ich zum Beispiel wissen möchte,
    wer wie wem folgt, darf ich pro Minute
  • 3:34 - 3:40
    durchschnittlich nur eine Anfrage stellen.
    Wenn aber ich von ganz vielen Leuten die
  • 3:40 - 3:44
    Autorisierung habe, in deren Namen
    Anfragen zu stellen, darf ich entsprechend
  • 3:44 - 3:48
    mehr Anfragen stellen. Das ist so eine Art
    demokratischer Prozess, finde ich da drin,
  • 3:48 - 3:54
    dass die Ressourcen von Twitter aufgeteilt
    werden. Umso mehr Leute mich bei meiner
  • 3:54 - 3:58
    API-Anfrage unterstützen, um so mehr
    Anfragen darf ich machen und umso mehr
  • 3:58 - 4:02
    Last darf ich verursachen. Finde ich sehr
    spann-- sympathisch. Mein Kollege jetzt
  • 4:02 - 4:06
    hat dann mal ein Interface aufgebaut, wo
    man einen Token spenden kann. Da klickt
  • 4:06 - 4:10
    man da halt drauf und dann kriegt man--
    kriegen wir sozusagen einen langen Code,
  • 4:10 - 4:14
    der uns dann ermöglicht zusätzliche
    Anfragen an die API von Twitter zu
  • 4:14 - 4:19
    stellen. Großes Danke geht hier nochmal an
    Logbuch Netzpolitik, insbesondere Tim und
  • 4:19 - 4:23
    Linus, und natürlich an die fast 700
    Spender und Spenderinnen, die uns Tokens
  • 4:23 - 4:29
    zur Verfügung gestellt haben. Das war not-
    wendig, um große Datenmengen aus Twitter
  • 4:29 - 4:33
    herauszuholen. Genau, damit kann ich dann
    sozusagen ...
  • 4:33 - 4:42
    Applaus
    Schon bei mir zu Hause kann ich dann über
  • 4:42 - 4:46
    Kabel Deutschland 10 Requests pro Sekunde
    absetzen, mal zum Vergleich, wenn ich
  • 4:46 - 4:51
    jetzt zum Beispiel mal die Metadaten aller
    330 Millionen Twitter-Accounts abfragen
  • 4:51 - 4:56
    möchte, braucht man etwa vier Tage dafür.
    Das ist dann auch machbar, ohne die Tokens
  • 4:56 - 5:00
    kann es sich um Monate oder sogar um Jahre
    handeln. Das mal so ein bisschen erklärt,
  • 5:00 - 5:04
    technisch, wie das im Hintergrund
    funktioniert. Im Prinzip auch sehr stark
  • 5:04 - 5:10
    auf Twitter fokussiert, die Analysen.
    Genau. Erstes Thema, Fake News. Fake News
  • 5:10 - 5:15
    ist ein komplexes Thema. Ich habe jetzt
    mal eine Grafik übernommen von der
  • 5:15 - 5:19
    Stiftung Neue Verantwortung, ich finde die
    haben da die besten Kategorisierungen
  • 5:19 - 5:23
    gemacht, was Fake News sind und was Fake
    News nicht sind. Auf der linken Seite was
  • 5:23 - 5:27
    nicht Fake News sind, ist schlechte
    Politik, also Fake News als politischer
  • 5:27 - 5:32
    Kampfbegriff, zum Beispiel Trump gegen die
    New York Times oder so was, aber auch
  • 5:32 - 5:36
    Satire sind keine Fake News, schlechter
    Journalismus, Clickbaiting oder auch
  • 5:36 - 5:41
    Zeitungsenten sollen eigentlich nicht zu
    Fake News gezählt werden, Fake News sein--
  • 5:41 - 5:50
    oder sind gezielte Desinformation, falsch
    verstandene Inhalte und manipulierte
  • 5:50 - 5:53
    Inhalte, also oft sieht man, dass zum
    Beispiel Bilder beschnitten sind oder
  • 5:53 - 6:00
    retuschiert sind und so weiter oder völlig
    frei erfundene Inhalte. Ich habe leider
  • 6:00 - 6:04
    nur ne Stunde Zeit, deswegen kann ich
    mich jetzt nicht mit mehreren Fake News-
  • 6:04 - 6:07
    Wellen auseinandersetzen. Deswegen habe
    ich eine herausgenommen, die ich ganz
  • 6:07 - 6:14
    typisch und eindrucksvoll fand und zwar
    die Fake News über eine Reisewarnung nach
  • 6:14 - 6:19
    Schweden des Auswärtigen Amtes. Hier ist
    ein Tweet von der AfD Magdeburg, die sagt:
  • 6:19 - 6:23
    „Das Auswärtige Amt - Erhöhte
    Terrorwarnstufe für Schweden. Das hat
  • 6:23 - 6:27
    natürlich nichts mit irgendwas zu tun.
    Hashtag AfD wählen". Direkt danach-- naja
  • 6:27 - 6:33
    nicht direkt danach, einige Stunden oder
    Tage später kam ein Tweet des Auswärtigen
  • 6:33 - 6:37
    Amtes, die dann die Gegendarstellung
    veröffentlicht haben: „Es gibt keine
  • 6:37 - 6:42
    Reisewarnung für Schweden. Hashtag Fake
    News". Fast 2000 Tweets wurden zu diesem
  • 6:42 - 6:46
    Thema veröffentlicht und die kann ich
    jetzt nun mit diesem Twitter-Framework
  • 6:46 - 6:51
    runterladen, analysieren und mir ein paar
    Visualisierungen dazu ausdenken. Ich hab
  • 6:51 - 6:57
    mal die Eine gemacht, das ist jetzt ein
    Zeitstrahl. Auf der x-Achse sieht man die
  • 6:57 - 7:04
    Zeit. Hier geht's vom 2. März bis zum-- 0
    Uhr bis zum 9. März 0 Uhr. Oben, die
  • 7:04 - 7:08
    Roten, das sind die Fake News-Verbreiter.
    Unten, das sind diejenigen, die die
  • 7:08 - 7:12
    Gegendarstellungen verbreiten. Auf dem
    Zeitstrahl sind -- viel zu klein, das kann
  • 7:12 - 7:16
    man jetzt drauf nicht sehen -- der
    Zeitpunkt, wann ein Tweet veröffentlicht
  • 7:16 - 7:17
    wurde und wenn er retweetet wurde,
  • 7:17 - 7:19
    kriegt er sozusagen
    einen Bogen,
  • 7:19 - 7:21
    zu dem Zeitpunkt,
    wohin er retweetet wurde.
  • 7:21 - 7:22
    Das hat den Vorteil,
  • 7:22 - 7:23
    dass ich nicht nur
    sehe, wie viele Tweets
  • 7:23 - 7:25
    veröffentlicht wurden,
    sondern auch sehen kann,
  • 7:25 - 7:27
    welchen Impact dieser Tweet hat.
  • 7:27 - 7:29
    Wenn er also, zum Beispiel
    veröffentlicht wird und keiner
  • 7:29 - 7:33
    geht damit um, dann ist es halt nur ein
    Punkt, aber wenn es viele Leute retweeten,
  • 7:33 - 7:39
    gibts dann halt große Bögen dazu. Das--
    Den ersten Tweet, den ich finden konnte,
  • 7:39 - 7:44
    zu der Fake News, dass es eine
    Reisewarnung nach Schweden gibt, war-- ist
  • 7:44 - 7:49
    bereits am 28. September veröffentlicht
    worden, wurde aber nicht beachtet. Keine
  • 7:49 - 7:55
    Favs, keine Retweets, obwohl der Account
    aktuell 481 Follower hat. Am--, im Februar
  • 7:55 - 8:02
    gab es dann nochmal einen Tweet dazu. Der
    Account hat jetzt aber nur einen Follower
  • 8:02 - 8:06
    und der Tweet hat keine Retweets. Das
    heißt also die Themen kamen schon mal
  • 8:06 - 8:12
    vorher hoch, aber sie wurden nicht
    weitergetragen. Noch ein Beispiel aus dem
  • 8:12 - 8:17
    1. März 2017. Also jetzt gehen wir mal
    rüber zu unserem Zeitstrahl, da gibt's
  • 8:17 - 8:25
    dann den ersten, der dazu was twittert,
    einen Screenshot von einem Bot, der
  • 8:25 - 8:30
    Reisewarnungen veröffentlicht. Der Tweet
    hat immerhin 6 Tweets und 6 Favs-- 6
  • 8:30 - 8:38
    Retweets und 6 Favs erreicht und hat damit
    sozusagen den ersten kleinen Impact. Dann
  • 8:38 - 8:44
    steigert es sich immer mehr, dann gibt's
    die Reisewarnung für Schweden mit 29
  • 8:44 - 8:48
    Retweets. Der nächste Tweet, kann ich
    leider nicht mehr anzeigen, weil der
  • 8:48 - 8:52
    Account inzwischen gesperrt wurde, das ist
    auch ein Phänomen, das man immer wieder
  • 8:52 - 8:56
    sieht, dass in diesem Bereich Accounts
    gesperrt werden von Twitter. „Trump hatte
  • 8:56 - 9:02
    recht, Auswärtiges Amt gibt Reisewarnung
    für Schweden heraus". Genau, und verweist
  • 9:02 - 9:11
    auf einen Artikel von zuerst.de. 45
    Retweets und es steigert sich immer mehr.
  • 9:11 - 9:21
    „Doch nicht alles ruhig in Schweden".
    Holger Ewald. „Islamterror". Und dann zum
  • 9:21 - 9:26
    Schluss die AfD Magdeburg mit--, die dann
    aufspringt und dann das erste AfD-Hashtag
  • 9:26 - 9:29
    dran setzt und „Multikulturell scheint es
    nicht so richtig zu laufen in Schweden".
  • 9:29 - 9:33
    Man sieht, dass es eine Steigerung gibt
    von fängt an mit Reisehinweisen und endet
  • 9:33 - 9:40
    mit Islamterror. Ich springe jetzt mal
    ganz weit nach vorne zu den Antworten.
  • 9:40 - 9:44
    Diejenigen, die also dann die
    Gegendarstellung veröffentlichen, da
  • 9:44 - 9:49
    fing's, oder der Startschuss war da das
    Auswärtige Amt, die in einem-- die dann
  • 9:49 - 9:54
    erklären, dass es sich um Fake News
    handelt und relativ schnell springen dann
  • 9:54 - 10:01
    halt auch die Medien mit auf, die das
    sozusagen weiterverbreiten. Und zum
  • 10:01 - 10:07
    Schluss sieht man den gesamten Zeitstrahl
    nochmal und das Interessante ist dabei,
  • 10:07 - 10:11
    dass das Thema gar nicht sozusagen, dass
    ne Fake News veröffentlicht wird und dann
  • 10:11 - 10:15
    schlägt die total ein und alle sind total
    empört, sondern man stottert sich
  • 10:15 - 10:19
    sozusagen förmlich in die Fake News rein.
    Also es fängt klein an und dann werden sie
  • 10:19 - 10:25
    nochmal weiter überspitzt und man hat eher
    den Eindruck, als ob da rumexperimentiert
  • 10:25 - 10:30
    wird, bis das Netzwerk eine Resonanz
    hervorruft. Ich würde persönlich
  • 10:30 - 10:34
    behaupten, Fake News sind eigentlich Meme,
    die sich im Internet verbreiten. Oft
  • 10:34 - 10:39
    haben sie keine singuläre Quelle, sondern
    sie bilden sich erst im Netzwerk oder
  • 10:39 - 10:43
    anders formuliert, das Kern-Phänomen an
    Fake News ist nicht deren Existenz,
  • 10:43 - 10:47
    sondern, dass sie sich so gut verbreiten
    können, also das Problem ist nicht die
  • 10:47 - 10:53
    Quelle, die sie erzeugt, sondern dass sie
    eine so große Resonanz im Netzwerk findet.
  • 10:53 - 10:58
    Würde man also Fake-News-Quellen
    verbieten, würden sie trotzdem weiterhin
  • 10:58 - 11:02
    entstehen, im Netzwerk. Und das ist halt
    wichtig, da Fake News als Meme eine große
  • 11:02 - 11:06
    Reichweite haben, kann man aus ihnen
    Kapital schlagen, politisches oder
  • 11:06 - 11:10
    monetäres Kapital. Und da möchte ich mal
    aus dem amerikanischen Raum, zum Beispiel
  • 11:10 - 11:16
    Breitband News und-- Breitbart News und
    Trump erwähnen, die monetäres Kapital oder
  • 11:16 - 11:20
    politisches Kapital daraus schlagen. Aber
    zurück zu den Reisewarnungen. Man kann
  • 11:20 - 11:26
    sie nicht nur im zeitlichen Verlauf sich
    anschauen, sondern man kann tiefer
  • 11:26 - 11:29
    einsteigen. Man kann halt gucken, welche
    Accounts haben denn jetzt die
  • 11:29 - 11:34
    Gegendarstellungen und die Fake News
    verbreitet und kann gucken, wie die sich
  • 11:34 - 11:42
    gegenseitig folgen. Und daraus baut man
    dann so ein Netzwerk. Die Blauen sind die
  • 11:42 - 11:47
    Gegendarstellungensverbreiter und die
    Roten sind die Fake-News-Verbreiter. Um so
  • 11:47 - 11:51
    näher sie grafisch dargestellt werden,
    umso also-- folgen die sich. Also
  • 11:51 - 11:55
    sozusagen, alle Kugel stoßen sich ab und
    die, die sich folgen, ziehen sich an und
  • 11:55 - 11:59
    daraus kann man halt solche komplexen
    Netzwerke grafisch darstellen. Das
  • 11:59 - 12:03
    Interessante ist, dass die Fake-News-
    Verbreiter sich in einer Gruppe fast
  • 12:03 - 12:10
    außerhalb befinden und eigentlich nur noch
    über die Massenmedien verbunden sind mit
  • 12:10 - 12:15
    der Gesellschaft. Man sieht natürlich
    auch noch Tendenzen, dass viele Fake-News-
  • 12:15 - 12:18
    Verbreiter dann mit Lügenpresse usw.
    versuchen sich weiter von diesen--
  • 12:18 - 12:23
    von den Medien zu distanzieren. Aber
    tatsächlich sind es zwei verschiedene
  • 12:23 - 12:29
    Gruppen, die man hier sehen kann und das
    erste Mal, als ich das Bild gesehen habe,
  • 12:29 - 12:32
    habe ich gedacht: "Oh, das ist eine
    Filterblase oder eine Echokammer oder
  • 12:32 - 12:38
    sowas." Das Schöne ist, weil wir mit
    Twitter-APIs tiefer in die Daten rein-
  • 12:38 - 12:44
    gucken können, können wir von jedem ein--
    die die Timeline rekonstruieren. Also ich
  • 12:44 - 12:50
    hab jetzt mal so schematisch dargestellt
    die Gegendarsteller und die Fake-News-
  • 12:50 - 12:56
    Verbreiter und man sieht, dass von den
    Fake-News-Verbreitern 89% die
  • 12:56 - 13:01
    Gegendarstellungen mitbekommen haben, aber
    sie nicht weiter teilen. Und nur 45%
  • 13:01 - 13:04
    derjenigen, die die Gegendarstellung
    verbreitet haben, haben
  • 13:04 - 13:08
    die tatsächliche ursprüngliche Fake News
    eigentlich mitbekommen. Das Ergebnis
  • 13:08 - 13:14
    daraus ist, es gibt eine Filterblase und
    zwar bekommen wir die Fake News nicht mit.
  • 13:14 - 13:18
    Gelächter
    Was ist jetzt eigentlich tatsächlich
  • 13:18 - 13:23
    dieser Impact dieser Gruppe. Und dann
    hab' ich ganz ganz schweres Geschütz
  • 13:23 - 13:28
    aufgefahren und habe 1,6 Millionen
    Twitter-Accounts, die angegeben haben,
  • 13:28 - 13:32
    dass sie Deutsch sprechen, extrahiert und
    geguckt, wie die sich gegenseitig folgen.
  • 13:32 - 13:36
    Also ähnlich wie diese Filterblasengrafik
    gerade sieht man hier jetzt das gesamte
  • 13:36 - 13:39
    deutschsprachige Twitternetzwerk,
    eingefärbt nach Herkunftsland. Also hier
  • 13:39 - 13:43
    unten haben wir die Schweiz und da haben
    wir Österreich, wenn man ein bisschen
  • 13:43 - 13:46
    klickt, sieht man das so wer
    sich dahinter befindet.
  • 13:46 - 13:47
    Und das Schöne ist, ...
  • 13:47 - 13:50
    das ist son Tool was ich gebastelt habe
    Man kann das unterschiedlich einfärben.
  • 13:50 - 13:54
    Hier kann man zum Beispiel
    mal das Alter des Accounts einfärben. Rot
  • 13:54 - 13:58
    sind die alten, grün sind die eher
    neueren Accounts. Hier oben sind die
  • 13:58 - 14:03
    Jugendlichen, da ist viel Justin Bieber
    und YouTube und Let's Play dabei. Hier
  • 14:03 - 14:09
    haben wir eine Blase, die sich mit Porn
    beschäftigt (Lachen), nicht drauf klicken.
  • 14:09 - 14:13
    Hier haben wir eine Gruppe, die sich mit
    Marketing beschäftigt, so würde ich das
  • 14:13 - 14:19
    mal umschreiben, größtenteils SEO und
    keine Ahnung was. Und das sind die Leute,
  • 14:19 - 14:23
    die sich eigentlich mit Politik und Medien
    beschäftigen und vielleicht auch die, die
  • 14:23 - 14:27
    jetzt hier auch hier im Raum auf Twitter
    sind, wahrscheinlich am meisten
  • 14:27 - 14:32
    mitbekommen. Man kann aber diese Grafik
    auch anders einfärben und zwar kann ich
  • 14:32 - 14:39
    mal einfärben, welche
    Bundestagsabgeordneten oder Kandidaten von
  • 14:39 - 14:43
    Parteien wo sich in diesem Netzwerk
    befinden und entsprechend einfärben. Und
  • 14:43 - 14:48
    man sieht zum Beispiel Gelb FDP, Schwarz,
    Rot, Grün, Blau, Rot, Grün befinden sich
  • 14:48 - 14:54
    alle so in einer verteilten Gruppe und es
    gibt eine sehr enge Gruppe aus Leuten, die
  • 14:54 - 14:59
    Mitglieder der AfD sind und auf Twitter
    aktiv sind. Ich vergrößer das mal so ein
  • 14:59 - 15:03
    bisschen. Und jetzt verändere ich wieder
    diese Färbung und zwar als erstes
  • 15:03 - 15:07
    die Fake-News-Verbreiter. Ja.
    Gelächter
  • 15:07 - 15:15
    Der Witz ist.
    Applaus
  • 15:15 - 15:19
    Der Witz ist, dass es nicht die AfD-
    Abgeordneten selber sind, die das Fake-
  • 15:19 - 15:23
    News verbreiten, aber sie befinden sich in
    einer gleichen Gruppe da drin. Man kann
  • 15:23 - 15:27
    auch einfärben nach Alter. Man sieht, dass
    die Accounts dieser Gruppe eher jung sind,
  • 15:27 - 15:32
    also relativ frisch auf Twitter. Sie haben
    eine sehr hohe Aktivität. Rot heißt viele
  • 15:32 - 15:35
    Tweets pro Tag veröffentlicht werden.
    Und man kann von dieser Gruppe auch
  • 15:35 - 15:40
    schauen, welche typischen Begriffe sie
    verwenden, um zu vergleichen, mit was das
  • 15:40 - 15:44
    restliche Twitter-Netzwerk für Begriffe
    verwendet. Und die Begriffe, die am
  • 15:44 - 15:48
    häufigsten in dieser Gruppe verwendet
    werden, im Vergleich zu anderen
  • 15:48 - 15:52
    Twitter-Accounts, sind Islam, Deutschland,
    Migranten, Merkel, Maas, Politik,
  • 15:52 - 15:57
    Freiheitskampf, Flüchtlinge, SPD,
    Netzdurchsetzungsgesetz, NPD, Antifa,
  • 15:57 - 16:03
    Zensur, PEGIDA, Syrer, Asylbewerber. Man
    sieht relativ klar, dass diese Gruppe auch
  • 16:03 - 16:08
    eher monothematisch unterwegs ist. Also,
    was ist das für eine Gruppe? Und ich sehe
  • 16:08 - 16:13
    wir müssen uns beeilen. Sie sind relativ
    neu auf Twitter. Sie stehen der AfD nah.
  • 16:13 - 16:20
    Sie teilen oft Fake News. Sie sind auf
    Twitter sehr aktiv. Und sie befassen sich
  • 16:20 - 16:26
    fast monothematisch mit Migrations- und
    Asylpolitik. Und ich komme auf diese
  • 16:26 - 16:30
    Gruppe wieder zurück, denn den ersten- die
    erste Theorie, die man jetzt reinwerfen
  • 16:30 - 16:37
    würde, sind Social Bots. Und da es in
    diesem Vortrag auch darum geht, ist der
  • 16:37 - 16:42
    nächste Block sich mal das Thema Social
    Bots genauer anzuschauen. Zu Social Bots
  • 16:42 - 16:47
    wurde eine Menge veröffentlicht, auch in
    den Medien. „Warum Meinungsroboter die
  • 16:47 - 16:51
    Gefahr für die Demokratie werden.“,
    „Digitale Dreckschleudern“, „Angriff der
  • 16:51 - 16:58
    Meinungsroboter“. Jeder hat da irgendwie
    auch seine Meinung und seine Gefahr
  • 16:58 - 17:02
    hervorgebracht. Was sind eigentlich Social
    Bots? Es gibt aus dem Büro für
  • 17:02 - 17:07
    Technikfolgen-Abschätzung beim Deutschen
    Bundestag einen Absatz, den ich mal
  • 17:07 - 17:11
    herausgegriffen habe. Social Bots, die
    Computerprogramme, die uns irgendwie in
  • 17:11 - 17:15
    den sozialen Medien manipulieren können.
    „Echte Menschen, die mit dem Social Bot
  • 17:15 - 17:19
    kommunizieren, nehmen diese nicht als
    durch Algorithmen ausgelöste automatische
  • 17:19 - 17:22
    Kommunikation, sondern als echte Internet-
    teilnehmer wahr und sind sich der
  • 17:22 - 17:26
    Manipulation nicht bewusst." Konkret, was
    diese Social Bots angeblich machen sollen
  • 17:26 - 17:31
    können, sind, sie können den Turing-Test
    bestehen. Das heißt, Die Idee eines Turing
  • 17:31 - 17:35
    Tests ist, ich interagiere mit etwas und
    kann hinterher sagen,
  • 17:35 - 17:37
    ob es ein Mensch,
    oder ein Computer ist.
  • 17:37 - 17:40
    Und diese Social Bots sollen
    jetzt magischer Weise diesen Turing-Test
  • 17:40 - 17:45
    bestehen können und können nicht nur so
    tun als wären sie ein Mensch, sondern sie
  • 17:45 - 17:49
    können angeblich sogar noch unsere Meinung
    beeinflussen. Naja, zumindest hat der
  • 17:49 - 17:50
    Bundestag veröffentlicht:
  • 17:50 - 17:53
    "Wirkung von Social Bots ist
    unter Sachverständigen strittig."
  • 17:53 - 17:58
    Ich hab mal extra das vorgespult, wo
    Linus Neumann zu sehen ist. Aber, da ich
  • 17:58 - 18:02
    ja so ein Framework habe, kann ich jetzt
    auch selber mal reinschauen. Was sind denn
  • 18:02 - 18:06
    diese Social Bots? Da kommt man schnell in
    so einen Teufelskreis. Wenn ich Social
  • 18:06 - 18:11
    Bots auf Twitter finden möchte, dann muss
    ich sie erstmal suchen. Und dazu muss ich
  • 18:11 - 18:15
    erst mal wissen, wie sie denn eigentlich
    aussehen. Und um zu wissen, wie sie
  • 18:15 - 18:18
    aussehen, muss ich sie erst mal
    analysieren können und dazu brauche ich
  • 18:18 - 18:22
    erst mal welche. Also, zu sagen „Okay, da
    gibts irgendwelche.", das bringt nichts.
  • 18:22 - 18:27
    Ich muss entweder eine Gruppe haben, um
    sie analysieren zu können, damit ich die
  • 18:27 - 18:31
    Eigenschaften rauskriegen kann, oder
    andersrum. Und diesen Teufelskreis
  • 18:31 - 18:34
    durchbrechen, gibt unterschiedliche
    Möglichkeiten. Ich habe mich mal für den
  • 18:34 - 18:39
    folgenden Weg entschlossen. Ich kaufe
    jetzt einfach mal Social Bots.
  • 18:39 - 18:40
    Gelächter
  • 18:40 - 18:43
    Kleine Anmerkung, Moment, Moment.
  • 18:43 - 18:45
    Es sind nicht wirklich Social Bots
    im dem engeren Sinne,
  • 18:45 - 18:50
    sondern ich hab mir einfach 4.500 Bots
    gekauft. Ob die jetzt tatsächlich dann
  • 18:50 - 18:54
    auch mit den Leuten sozial interagieren
    usw., weiß ich ja nicht. Aber im
  • 18:54 - 18:58
    Kern hab ich mir einen Twitter-Account
    Software Team Berlin geholt. Habe keinem
  • 18:58 - 19:01
    gesagt, damit ich also weiß, dass kein
    realer Mensch diesem Account folgt und
  • 19:01 - 19:07
    habe dann auf Google gesucht „buy Twitter
    Bots". Genau. Und dann gibt's dann 4.500
  • 19:07 - 19:10
    Follower und davon sind 100% Bots.
    Das ist nur um zu gucken, welche
  • 19:10 - 19:14
    Technologien werden dann eingesetzt,
    obs dann Follower Bots sind usw. Um zu
  • 19:14 - 19:18
    gucken, sehe ich dann bestimmte
    Eigenschaften, die ich bei Menschen nicht
  • 19:18 - 19:24
    sehe. Also sozusagen eher eine
    Trockenübung, ja. Also wieder das große
  • 19:24 - 19:28
    Twitter-Framework draufgeworfen und die
    Metadaten analysiert. Und raus kommt
  • 19:28 - 19:35
    folgende Grafik: Jeder einzelne Punkt ist
    eines dieser eingekauften Follower. 4.500
  • 19:35 - 19:39
    Punkte, und ich weiß 100 % Bots
    dabei. Und ich versuche die nun zu
  • 19:39 - 19:43
    sortieren nach ihren Eigenschaften. Alles,
    was eher wie ein Bot aussieht, ist auf der
  • 19:43 - 19:47
    linken Seite und alles ,was eher wie ein
    Mensch aussieht, auf der rechten Seite.
  • 19:47 - 19:50
    Ich kann jetzt auf die einzelnen drauf
    klicken; ich klicke jetzt mal auf den ganz
  • 19:50 - 19:56
    linken unteren drauf, dann hab ich einen
    Asus D5B23, und habe unterschiedliche
  • 19:56 - 20:00
    Eigenschaften von dem, die ich von ihm
    überprüft habe, wie zum Beispiel, ob er
  • 20:00 - 20:07
    immer noch sozusagen ein Egg ist, also ob
    er noch gar kein Avatar Bild hochgeladen
  • 20:07 - 20:13
    hat, ob er weniger als 10 Follower hat,
    wieviele Favs er hat, abgesetzt hat. Ob er
  • 20:13 - 20:19
    noch gar keine Beschreibungstext für sich
    angegeben hat und ob er keine Zeitzone
  • 20:19 - 20:22
    angegeben hat. Also so die ganzen
    Metadaten, die man halt aus Twitter
  • 20:22 - 20:24
    herausbekommt zum analysieren,
    um zu gucken,
  • 20:24 - 20:27
    ob die sich denn irgendwie strukturieren
    und gruppieren.
  • 20:27 - 20:29
    Man sieht auch ganz
    links, das sind so ein Bisschen die sehr
  • 20:29 - 20:33
    dummen Bots. Die sind jung und teilweise
    tun sie auch gar nichts, sondern folgen
  • 20:33 - 20:37
    nur Leuten. Dann gibt es einen großen und
    breiten Bereich, teilweise sehr
  • 20:37 - 20:42
    realistische Bots dabei, teilweise sind es
    sogar reale Accounts die verwaist sind,
  • 20:42 - 20:46
    also die seit drei Jahren inaktiv sind und
    auf irgendeiner Art, also aus irgendeinem
  • 20:46 - 20:50
    Grund übernommen wurden. Wahrscheinlich
    hat sich da einer mal mit Passwort
  • 20:50 - 20:55
    durchprobieren massenhaft versucht
    verwaiste Accounts zu übernehmen. Und
  • 20:55 - 20:59
    die dritte, und das fand ich sehr
    interessant, das sind Accounts die
  • 20:59 - 21:03
    teilweise sogar verifizierte Menschen
    sind. Also ich habe jetzt mal schonmal
  • 21:03 - 21:10
    Peggy, die ist Moderatorin aus den Staaten
    irgendwo, Jeff Zausch ist ein Survival
  • 21:10 - 21:15
    Spezialist und Chris Glorioso. Das sind,
    das sind reale Personen, die mir gefolgt
  • 21:15 - 21:20
    sind weil ich dafür bezahlt habe, als Bot,
    und das fand ich sehr merkwürdig. Ich habe
  • 21:20 - 21:23
    versucht mit den Leuten Kontakt
    aufzunehmen; nicht alle haben mir
  • 21:23 - 21:26
    geantwortet. Der Grund dafür ist, dass ihr
    Account gehijacked wurde und sie haben
  • 21:26 - 21:29
    dann eigentlich nur noch DMs von
    irgendwelchen fremden Accounts bekommen.
  • 21:29 - 21:33
    Die haben auf DMS auch gar nicht mehr so
    richtig reagiert. Ich habe auch versucht
  • 21:33 - 21:37
    herauszubekommen, auf welchem Wege das
    passiert ist – ob sie sich dort irgendwie
  • 21:37 - 21:42
    einen Twitter Service eingetreten haben
    der in ihrem Namen postet. Ich weiß es
  • 21:42 - 21:47
    nicht. Laut eigenen Aussagen ging es dann
    aber weniger um politische Inhalte,
  • 21:47 - 21:50
    sondern Zitat, es war eher "Sex Scheisse"
    die dann in ihren Twitter Timelines
  • 21:50 - 21:54
    veröffentlicht wurde. Was ich aber
    spannend finde, ist wenn man so eine CDU
  • 21:54 - 21:58
    Forderung, Kennzeichnung von Social Bots.
    Ja was ist denn, wenn der eigene Account
  • 21:58 - 22:02
    übernommen wurde. Also der wird dann, der
    eigene Account ist mit einmal halb
  • 22:02 - 22:06
    automatisiert, ob man es will oder nicht.
    Eine Fragestellung die ich dann auch
  • 22:06 - 22:11
    nochmal jetzt kurz im Vortrag hatte weil
    die Daten ja jetzt 11 Monate alt sind:
  • 22:11 - 22:16
    Welche Accounts gibts denn heute noch? Und
    man sieht grün, die Accounts gibt's heute
  • 22:16 - 22:20
    noch, elf, gelb sind die Accounts die in
    der Zwischenzeit von Twitter gesperrt
  • 22:20 - 22:25
    wurden, und rot die Accounts die von sich
    aus sich gelöscht haben. Genau. Also man
  • 22:25 - 22:30
    sieht zumindest dass da Bewegung von
    Seiten Twitter passiert. Was man jetzt an
  • 22:30 - 22:34
    diesen Bots auch noch analysieren kann,
    ist die Follower Netzwerke, wie die sich
  • 22:34 - 22:40
    also gegenseitig folgen. Da habe ich mal
    folgende Grafik gemacht. Das sind so die
  • 22:40 - 22:45
    4.5 Tausend Bots und wem sie folgen und
    von wem sie gefolgt werden. Rot
  • 22:45 - 22:53
    Trinken rot sind die Bots, 4.5 Tausend,
    und blau sind die anderen Nutzer, andere
  • 22:53 - 22:57
    Accounts oder so weiter. Da kann man auch
    mal ein Bisschen rein zoomen hier, sieht
  • 22:57 - 23:06
    auch ganz hübsch aus. Fast wie fliegende
    Spaghetti Monster, fand ich. Die Blauen,
  • 23:06 - 23:11
    das scheinen mir Jugendliche zu sein, die
    sich einfach Twitter-Bots oder Follower
  • 23:11 - 23:14
    gekauft haben, was eigentlich ganz
    interessant ist dass ich dann damit
  • 23:14 - 23:18
    eigentlich die Kunden die analysieren
    kann. Wobei man vorsichtig sein muss,
  • 23:18 - 23:23
    jemandem 10,000 Bots oder Follower
    künstlich anzuhängen ist halt relativ
  • 23:23 - 23:28
    einfach zu machen und ist auch gar nicht
    so teuer. 50,000 Bots gibt es so für 60
  • 23:28 - 23:35
    Dollar. Wie könnte man Bots noch
    erkennen? Und da gibt es halt so eine
  • 23:35 - 23:40
    Tweet-App Analyse. Ich weiß nicht ob ihr
    euch noch erinnern könnt, vor einigen
  • 23:40 - 23:44
    Jahren stand unter jedem Tweet noch
    drunter, mit welcher App man diesen Tweet
  • 23:44 - 23:49
    veröffentlicht hat. Das steht leider jetzt
    nicht mehr drunter, aber die Daten sind
  • 23:49 - 23:54
    noch in der API drin. So sieht übrigens so
    eine API Antwort von Twitter aus, und da
  • 23:54 - 23:59
    steht unter anderem auch Source drin, d.h.
    also mit welchem Service man das
  • 23:59 - 24:03
    veröffentlicht hat. Habe ich mal über die
    Bots rüber laufen lassen. Twitter für
  • 24:03 - 24:08
    iPhone, Android, Web Client, aber auch
    Facebook, die automatisch dann sozusagen
  • 24:08 - 24:12
    das heisst den Post als Tweet
    veröffentlichen und Instagram. Und
  • 24:12 - 24:18
    interessant fand ich halt 350 weitere
    Services, ja. So sehen die aus. Genau.
  • 24:18 - 24:25
    Also es ist ein riesen Potpourri,
    Koreanisch Japanisch alles dabei. Genau.
  • 24:25 - 24:29
    Das war mir ja auch gar nicht so richtig
    klar vorher, dass es eigentlich ein
  • 24:29 - 24:34
    riesiges enormes Ökosystem gibt von
    Skripten die auf Twitter Sachen
  • 24:34 - 24:42
    veröffentlichen. Und wie gesagt, halt in
    meiner Probe sind es allein 350. Um den
  • 24:42 - 24:47
    Leuten auch zu zeigen, was das denn jetzt
    eigentlich für Services sind, die dahinter
  • 24:47 - 24:51
    stecken, habe ich mal so ein paar
    herausgegriffen. Hier ist zum Beispiel
  • 24:51 - 24:55
    FeedBlitz. Das ist eigentlich ein Bot der
    nichts weiter macht als einen RSS Feed in
  • 24:55 - 25:00
    Twitter zu posten. Haben wir twittbot.net,
    das ist irgendwie was selber gebasteltes.
  • 25:00 - 25:04
    Der twittert aber irgendwie nur Käse, das
    hat sich wahrscheinlich einer mal ein
  • 25:04 - 25:08
    Bisschen herumexperimentiert oder sowas.
    Es gibt aber auch den Kim Kardashian:
  • 25:08 - 25:12
    Hollywood Service, der dir dann
    wahrscheinlich die neuen Spielestände
  • 25:12 - 25:18
    veröffentlich. Interessant fand ich
    auch, es gab 9 gelöschte Services, die
  • 25:18 - 25:21
    dann umbenannt wurden in "Erased" und eine
    lange Nummer. Ich würde mich mal
  • 25:21 - 25:25
    interessieren ob die Nummer fortlaufend
    ist, denn sie endet mit 5.6 Millionen.
  • 25:25 - 25:30
    Sind das jetzt 5.6 Millionen gelöschte
    Services, oder sind insgesamt bei Twitter
  • 25:30 - 25:33
    schon 5.6 Millionen angemeldet worden. Ich
    weiß es nicht. Aber wir können darüber
  • 25:33 - 25:37
    sprechen oder wir können sagen, dass auf
    Twitter nicht mehr nur Menschen unterwegs
  • 25:37 - 25:43
    sind sondern halt auch Services die wir
    nutzen. Genau. Bots sind auch nicht nur
  • 25:43 - 25:46
    böse. Ich habe mal ein paar
    herausgegriffen. Ich weiß nicht ob jemand
  • 25:46 - 25:52
    die Rathausuhr Neukölln kennt. Applaus &
    Lachen Ist der Entwickler da? Nein. Der
  • 25:52 - 25:56
    Entwickler der das Rathaus Uhrwerk
    Neukölln als Service benutzt, also der
  • 25:56 - 26:05
    veröffentlicht sowas wie acht bämm bämm
    bämm bämm bämm bämm bämm bämm.
  • 26:05 - 26:09
    Vor kurzem bin ich übrigens auf den
    Wichser Bot gestoßen. Wenn man einen Tweet
  • 26:09 - 26:13
    veröffentlicht wo das Wort Wichser drin
    vorkommt, dann retweetet der einen.
  • 26:13 - 26:20
    Spiegelonline Top benutzt den Service if
    this than that, zu 100%, also nicht
  • 26:20 - 26:26
    normal SpiegelOnline sondern Top. Und ZEIT
    ONLINE Digital hat sich auch einen Service
  • 26:26 - 26:30
    gebaut, ich weiß nicht ob der eingekauft
    oder selbst entwickelt ist, aber der ist
  • 26:30 - 26:36
    registriert als ZEIT ONLINE. Ich fasse
    zusammen: Woran könnte man Bots erkennen?
  • 26:36 - 26:41
    Ist das Profil vollständig? Ist ein Avatar
    Bild und Beschreibungstext dran? Ist der
  • 26:41 - 26:47
    Account Teil eines Netzwerkes? Von welcher
    App werden die Tweets abgeschickt und wie
  • 26:47 - 26:52
    sehen die anderen Metadaten des Accounts
    oder der Tweets aus? Interessant ist,
  • 26:52 - 26:56
    dass das aber alles Indizien Beweise sind.
    Wenn man anfängt, sich tatsächlich mal
  • 26:56 - 27:00
    hinzusetzen und zu gucken, ist das nun ein
    Bot oder nicht, kommt man relativ schnell
  • 27:00 - 27:05
    ins Grübeln. Jegliche Bot Erscheinung
    könnte auch gut menschlich erklärt sein
  • 27:05 - 27:07
    und andersherum. Man kann aber auch
  • 27:07 - 27:10
    rangehen, dass man jedes
    menschliche Verhalten in
  • 27:10 - 27:15
    die Sphäre, das könnte und natürlich auch
    ein hochintelligente KI sein schien.
  • 27:15 - 27:18
    Egal, auf jeden Fall mit diesem
    Kenntnisstand sag ich mal lasst uns jetzt
  • 27:18 - 27:22
    mal Bots finden. Ich habe gesucht. Ich hab
    lange lange lange gesucht und ich kürz es
  • 27:22 - 27:28
    mal ab mit: ich habe gefunden inaktive
    Accounts, Service Accounts, Trolle welche
  • 27:28 - 27:33
    Teenager, Rassisten und Hater und Spam mit
    links zu YouTube Polen und Bitcoin schickt
  • 27:33 - 27:37
    und so weiter. Aber was ich nicht gefunden
    habe ist diese politisch aktiven Social
  • 27:37 - 27:41
    Bot Netzwerke, und dafür gibt es zwei
    Erklärungen: Entweder die gibts nicht oder
  • 27:41 - 27:50
    Ich bin zu doof. Also fragen wir mal die
    Profis wie machen die das denn. Und einer
  • 27:50 - 27:55
    davon ist zum Beispiel Professor Dr. Simon
    Hegelich, Forschungsfeld Political Data
  • 27:55 - 28:02
    Science, Forschungsmethoden Machine
    Learning plus X. Ist das VELTINS, die mit
  • 28:02 - 28:07
    plus X ist Alkohol, ne, ich weiß nicht,
    keine Ahnung. Der veröffentlicht Studien
  • 28:07 - 28:11
    zum Beispiel für die Konrad-Adenauer-
    Stiftung mit dem Titel "Invasion der
  • 28:11 - 28:16
    Meinungs-Roboter". Leider wird in dieser
    Studie die Methodik nicht beschrieben.
  • 28:16 - 28:21
    Hegelich hatte selber damals mit Professor
    Dietmar Jaresko eine Studie veröffentlicht
  • 28:21 - 28:26
    wo sie tatsächlich ein Bot-Netzwerk
    gefunden haben in der Ukraine. Was sie
  • 28:26 - 28:30
    dabei identifizieren konnten ist dass
    diese Accounts unter einem Service
  • 28:30 - 28:36
    "twifarm" prorussische Meldungen
    veröffentlicht haben, insgesamt 1740 Bots
  • 28:36 - 28:42
    haben sie darunter gefunden. Und genau das
    ist auf jeden Fall, das kann man glaube
  • 28:42 - 28:47
    ich sagen, ein Bot-Netzwerk, was dort in
    der Ukraine gefunden wurde. Aber wie sieht
  • 28:47 - 28:51
    das eigentlich mit der deutschen Debatte
    aus? Und dazu hab ich, vielleicht habs ich
  • 28:51 - 28:54
    auch nicht gefunden aber ich habe
    zumindest keine Studie von Prof. Hegelich
  • 28:54 - 28:58
    dazu gefunden, mit einer nachprüfbaren
    Methodik. Was ich aber gefunden habe ist
  • 28:58 - 29:04
    ein ZDF Bericht, ZDF Zoom "Alles nur Lüge?
    Wie im Netz getäuscht wird". Professor
  • 29:04 - 29:10
    Simon Hegelich hatte hier die Aufgabe, aus
    Gigabytes an Daten Social Bots zu suchen.
  • 29:10 - 29:15
    Und er hatte einen möglichen Kandidaten
    gefunden, und zwar Egon Dombrowski, der
  • 29:15 - 29:23
    136 Posts am Tag veröffentlich mit ganz
    klarer Tendenz zu Pegida und AfD. Nun ist
  • 29:23 - 29:27
    natürlich spannend: Ist das vielleicht ein
    gesteuerter Bot? Oder handelt es sich
  • 29:27 - 29:30
    dabei um einen realen Menschen? Die
    Redaktion hat ihn einfach mal
  • 29:30 - 29:37
    angeschrieben, und der potenzielle Social
    Bot heißt Egon Dombrowski. Ist 50 Jahre
  • 29:37 - 29:43
    alt, berufsunfähig Rentner, lebt in Erfurt
    und war in einem Gemeinderat für die SPD.
  • 29:43 - 29:50
    Und jetzt ist er auf Facebook sehr aktiv.
    Medien bezeichnet er als Propaganda-
  • 29:50 - 29:55
    Presse, und er macht Werbung für die AfD
    und wird laut eigener Aussage nicht von
  • 29:55 - 30:00
    der AfD oder anderen bezahlt, er macht das
    aus eigener überzeugung. Gut, also der
  • 30:00 - 30:04
    Versuch, hier einen Social Bot zu finden,
    ist missglückt, wir haben leider nur eine
  • 30:04 - 30:09
    reale Person gefunden. Aber es gibt auch
    andere die sich damit beschäftigen,
  • 30:09 - 30:14
    beispielsweise botswatch.de, die
    versuchen, parallel zu wichtigen Events in
  • 30:14 - 30:20
    Deutschland zu gucken, wie viel sich auf
    Twitter nun Social Bots einmischen,
  • 30:20 - 30:24
    veröffentlichen auch das Bot-Barometer und
    so weiter. Und da gibts auch einen Link
  • 30:24 - 30:28
    zur Methode wie sie das machen, und da
    steht dann drin "Accounts die
  • 30:28 - 30:32
    durchschnittlich gleich oder mehr als 50
    Tweets am Tag veröffentlichen". Hab ich
  • 30:32 - 30:38
    ihnen gesagt "Naja, Dombrowski schafft 136
    Posts am Tag." Ich hatte, weil
  • 30:38 - 30:43
    wir die Bundestagswahl beobachtet haben
    eine lange Liste von Accounts
  • 30:43 - 30:46
    zusammengestellt, die irgendwie beim
    Thema Bundestagswahl mitmischten
  • 30:46 - 30:48
    und bin die einfach mal durchgegangen,
  • 30:48 - 30:51
    an welchen Tagen haben die
    mehr als 50 Tweets abgesetzt und hier ist
  • 30:51 - 30:56
    mal so ein bisschen Zusammenfassung: sogar
    eine CDU/CSU und FDP haben das geschafft.
  • 30:56 - 31:03
    Genau. Also, 50 Tweets am Tag und schon
    ist man Social Bot, mit drunter sind
  • 31:03 - 31:10
    Medien wie Welt, die schaffen 190 am Tag,
    Focus Online 97 am Tag. Auch Christopher
  • 31:10 - 31:16
    Lauer 72. Anja Schillhaneck von den
    Bündnes 90 / Die Grünen im Berliner
  • 31:16 - 31:19
    Abgeordnetenhaus schafft fast die Grenze
    mit 50 am Tag. Und natürlich auch die
  • 31:19 - 31:23
    Parteien vor den Bundestagswahlen, die
    dann natürlich in den sozialen Netzwerken
  • 31:23 - 31:28
    besonders aktiv sind, schaffen mehr als
    50, und dann noch Hipster, Aktivisten,
  • 31:28 - 31:32
    AfD-Anhänger darunter geschrieben. Also 50
    Tweets am Tag als Kriterium für Social
  • 31:32 - 31:37
    Bots ist wissenschaftlich unseriös. Da
    frage ich mich natürlich: Wie kommen die
  • 31:37 - 31:41
    da drauf? Und davor steht es auch: Das sei
    das Social Bot-Kriterium der Oxford-
  • 31:41 - 31:47
    Universität. Das finde ich natürlich
    spannend, und habe dann angefangen, die
  • 31:47 - 31:54
    ganzen Studien und wissenschaftlichen
    Paper dazu durchgelesen wie deren Methode
  • 31:54 - 32:00
    ist. Und ich hab nur zwei herausgegriffen,
    weil es wirklich eine Menge ist, die
  • 32:00 - 32:09
    besonders das deutlich machen. Social Bots
    bei den US-Wahlen. Das ist ein Paper was
  • 32:09 - 32:13
    veröffentlicht wurde mit dem Titel "Bots
    and Automation over Twitter during the
  • 32:13 - 32:19
    U.S. Election" und ich spule mal vor was
    an welcher Stelle Sie das definieren. Da
  • 32:19 - 32:25
    muss ich mal kurz sagen: Sie fangen halt
    an, von Social Bots zu reden. Dann heißt
  • 32:25 - 32:29
    es irgendwann "Social Bot like" und dann
    steht dann so etwas wie "Heavy Automated
  • 32:29 - 32:34
    Bots". Und dann steht dann zum Schluss "we
    define a high level of automation as
  • 32:34 - 32:38
    accounts that post at least 50 times a day
    using one of these election-related
  • 32:38 - 32:44
    hashtags". Das heißt also, wer mehr als 50
    Mal am Tag ein bestimmtes Hashtag
  • 32:44 - 32:48
    veröffentlicht, wird als social Bot
    kategorisiert. Die Hashtags sind die hier.
  • 32:48 - 32:53
    Der erste Block sind die pro-Trump-
    Hashtags, zweite Block die pro-Clinton-
  • 32:53 - 32:56
    Hashtags, und der dritte Block sind
    Hashtags, die sich generell um die
  • 32:56 - 33:02
    amerikanische Wahl beschäftigen. Aber zu
    dieser Definition von Social Bots habe ich
  • 33:02 - 33:07
    mal ein paar Fragen: Also erstens, warum
    sind das 50 und nicht 30 oder 100 Tweets
  • 33:07 - 33:13
    am Tag? Und gilt das dann für alle Länder,
    also kann man jetzt dieses Kriterium aus
  • 33:13 - 33:17
    Amerika eins zu eins übernehmen für
    Deutschland? Und was für Accounts sind das
  • 33:17 - 33:21
    eigentlich? Ich meine wenn ich die wenn
    ich die identifizieren kann, dann kann ich
  • 33:21 - 33:24
    die ja auch mal genauer anschauen, wie
    viele Follower haben die? Wie viele Favs
  • 33:24 - 33:28
    und retweets haben sie? Vielleicht
    veröffentlichen sie ja wahnsinnig viele
  • 33:28 - 33:32
    Tweets aber keiner liest es. Und über
    welches Service posten sie? Das hatte ich
  • 33:32 - 33:36
    vorhin gezeigt, dass man das nachschauen
    kann. Und klar kann ich verstehen, dass es
  • 33:36 - 33:39
    halt eine Menge Accounts sind,
    aber es gibt eine
  • 33:39 - 33:41
    wissenschaftlich statistisch
    saubere Methode:
  • 33:41 - 33:43
    Man nimmt einfach eine
    Stichprobe, man wählt einfach mal zufällig
  • 33:43 - 33:46
    100 aus und guckt sich halt an, was das
    für Accounts sind, um zu gucken, ob sie
  • 33:46 - 33:51
    tatsächlichen politischen Einfluss haben.
    Dazu gibts aber in dieser Studie keine und
  • 33:51 - 33:55
    auch den anderen keine Antwort. Leider
    kann ich das auch nicht überprüfen, weil
  • 33:55 - 33:59
    die Universität Oxford die Daten dazu
    nicht veröffentlicht hat. Das liegt
  • 33:59 - 34:05
    teilweise an der Developer API von, oder
    den Guidelines von Twitter. Das liegt aber
  • 34:05 - 34:10
    auch daran, oder gibt es einen Ausweg da
    drauß: Und zwar kann man nämlich die Liste
  • 34:10 - 34:14
    der Twitter IDs veröffentlichen, das darf
    man nämlich, und kann sich dann sozusagen
  • 34:14 - 34:19
    nachträglich den Tweet nochmal holen und
    genauer analysieren. Zum Glück gibt es von
  • 34:19 - 34:25
    der George Washington Universität eine
    Veröffentlichung "2016 United States
  • 34:25 - 34:29
    Presidential Election Tweet IDs". Da gibt
    es unter anderem auch eine Liste von
  • 34:29 - 34:34
    Tweets, die den Hashtag "Election Day"
    verwendet haben. Das heißt ich hab jetzt
  • 34:34 - 34:38
    leider nicht die gleiche Datenbasis wie
    die Universität Oxford. Ich kann aber
  • 34:38 - 34:42
    einen kleinen Ausschnitt rausnehmen und
    zwar mir nur angucken, wer hat am Wahltag
  • 34:42 - 34:48
    mehr als 100 mal eines von diesen Hashtags
    verwendet plus den Hashtag "Election Day".
  • 34:48 - 34:57
    Und diejenigen, die sogar mehr als 100 Mal
    am Wahltag getwittert haben sind diese 12,
  • 34:57 - 35:02
    das sind sozusagen die laut Social Both
    Kriterien die die am deutlichsten als
  • 35:02 - 35:08
    Social Bots sich definieren. Und wenn ihr
    jetzt mal wissen wollt, wer denn dieses
  • 35:08 - 35:12
    Social Bots wirklich sind: Nehmen wir uns
    mal Zeit und gucken uns jeden einzelnen
  • 35:12 - 35:22
    von diesen 12 an. Das erste ist ein
    @dreamedofdust, der 437 Tweets am Wahltag
  • 35:22 - 35:26
    veröffentlicht hat (mit diesen erwähnten
    Hashtags), und was er macht: er twittert
  • 35:26 - 35:31
    Links zu reddit.com/r/The_Donald zu diesen
    einzelnen Kommentaren. Und er benutzt
  • 35:31 - 35:38
    dabei If This Then That. Und bot: klares
    Ja, auf jeden Fall. Was er aber dabei tut
  • 35:38 - 35:42
    ist bereits veröffentlichte Kommentare im
    Reddit-Forum einfach nochmal in diesem
  • 35:42 - 35:45
    Account zu spiegeln, und ich lehne mich
    mal aus dem Fenster wenn ich sage:
  • 35:45 - 35:50
    Einfluss? Kaum. Also völlig kommentarlos,
    wie gesagt, spiegelt einfach nur Reddit-
  • 35:50 - 35:56
    Kommentare. Der nächste Account, ITX
    News, twittert Screenshots von Texten,
  • 35:56 - 36:00
    völlig abgedrehter Verschwörungsquark,
    also da ist, da sind Sachen dabei, die
  • 36:00 - 36:06
    Queen wurde von Hindus vergiftet. Und,
    also wirklich, find ich völlig abgedreht.
  • 36:06 - 36:10
    Und er benutzt für seine für seine
    Screenshots, die er dann veröffentlicht,
  • 36:10 - 36:18
    immer die aktuellen trending Hashtags. Er
    hat vier Follower, und er ist ganz klar
  • 36:18 - 36:25
    kein Bot. Der nächste Account: Er ist
    Trump-Supporter weil er Clinton furchtbar
  • 36:25 - 36:31
    findet. Er nutzt intensiv Hashtags, lebt
    auf Hawaii, schläft sechs Stunden, macht
  • 36:31 - 36:35
    Mittagspause - das sieht man an den an den
    Zeiten, wann er twittert. Und der ist auf
  • 36:35 - 36:42
    jeden Fall kein Bot. Der nächste.
    Offensichtlich liebt er Bernie Sanders, er
  • 36:42 - 36:45
    hasst Donald Trump, Hillary Clinton, die
    Demokraten (weil sie nämlich Hillary
  • 36:45 - 36:49
    Clinton aufgestellt haben statt Bernie
    Sanders), Bill und Chelsea Clinton, und er
  • 36:49 - 36:54
    hasst Expedia, weil Chelsea Clinton jetzt
    im Board sitzt. Aber ein Bot ist er nicht.
  • 36:54 - 36:59
    Der nächste. Der sieht mir doch sehr
    fischig aus. Ich vermute mal, dass es eine
  • 36:59 - 37:05
    spanischsprachige Click-Farm ist, die
    versucht, User auf Werbeseiten zu locken.
  • 37:05 - 37:10
    Die machen dann Werbung für was weiß ich,
    irgendwelche Apps oder sowas, überhaupt
  • 37:10 - 37:14
    gar keine politischen Inhalte, denn sie
    nutzen einfach nur Training Hashtags um
  • 37:14 - 37:18
    sich in politischen Diskussionen sozusagen
    da noch nochmal ihre Links zu
  • 37:18 - 37:23
    veröffentlichen, haben einen Follower. Ob
    es ein Bot ist oder nicht? Ich sag mal,
  • 37:23 - 37:28
    vermutlich nicht. Da sind halt Tippfehler
    drin, das wäre eigentlich ein schlecht
  • 37:28 - 37:32
    programmierter Bot (oder besonders
    schlau). Im Zweifelsfall könnt ihr ihn
  • 37:32 - 37:35
    gern als Bot definieren, aber impact hat
    er keinen. Jetzt wird es ein bisschen
  • 37:35 - 37:40
    spannender. Ave Hurley ist eine Oma aus
    Brooklyn, sie ist eine Künstlerin, malt
  • 37:40 - 37:43
    Bilder, macht Schmuck, verkauft sie in
    einem Shop und hat vor kurzem mit dem
  • 37:43 - 37:50
    Rauchen aufgehört. An dem Wahltag hat sie
    wie wild für Trump getwittert und hat ihn
  • 37:50 - 37:53
    unterstützt und hat versucht, Leute zu
    überzeugen. Aber ein Bot ist sie auch
  • 37:53 - 37:59
    nicht. Dann hab ich hier noch den hier.
    Der ist aus Tokio. Ich vermute es ist ein
  • 37:59 - 38:03
    Student, der twittert auf Japanisch und ab
    dem Moment war ich so ein bisschen Lost in
  • 38:03 - 38:08
    Translation um herauszukriegen, was er da
    möchte. Aber ich vermute, dass er Toru
  • 38:08 - 38:13
    Hashimoto und Kazuma Ieri hasst, das eine
    ist ein Politiker, das andere ein
  • 38:13 - 38:19
    Internet Entrepreneur. Er hat am Wahlabend
    auf einen Tweet zu Kazuma gefeuert, muss
  • 38:19 - 38:23
    man sagen, und hat da einfach die
    aktuellen Trending hashtags genommen, und
  • 38:23 - 38:29
    da war natürlich auch die Election dabei,
    aber ein Bot ist es nicht. Der nächste:
  • 38:29 - 38:34
    Paolo. Paolo kann 13 Tweets in drei
    Sekunden schicken.
  • 38:34 - 38:44
    Gelächter
    Applaus
  • 38:44 - 38:49
    Er nutzt dafür drei unbekannte
    italienische Twitter-Services, einer davon
  • 38:49 - 38:53
    ist in der Zwischenzeit gesperrt. Pro
    Hillary. Tweets werden so gut wie gar
  • 38:53 - 38:58
    nicht gefavt und retweetet. Ein Bot ist er
    auf jeden Fall, aber einen Einfluss hat
  • 38:58 - 39:03
    er, glaube ich zumindest, keinen. Dann
    haben wir noch den hier. Er liebt Jesus,
  • 39:03 - 39:08
    Die Familie, Trump, Wikileaks, Fox News,
    und Waffen.
  • 39:08 - 39:13
    Gelächter
    Hasst Abtreibung, Feminismus, Hillary
  • 39:13 - 39:19
    Clinton, CNN, und Obamacare. Aber ein Bot
    ist es nicht. Dann haben wir auch
  • 39:19 - 39:26
    PresidentDrumf. Der ist ein Satire-
    Account. Teilweise witzig, hat trotzdem
  • 39:26 - 39:28
    nur einen Follower.
    Gelächter
  • 39:28 - 39:36
    Aber ein Bot ist es auch nicht. Dann haben
    wir noch Maryke. Sie ist Journalistin aus
  • 39:36 - 39:41
    Südafrika, arbeitet für die französische
    Presseagentur AFP, und hat über Election
  • 39:41 - 39:48
    Day live getwittert an dem Abend. Und sie
    ist auch kein Bot. Dann haben wir noch ein
  • 39:48 - 39:53
    Dr. Van Nostrand. Ich habe leider kein
    Bild von ihm gefunden, aber er liebt
  • 39:53 - 40:01
    Baseball, American Football, Fox News und
    Trump. Er hasst Hillary und Bill Clinton,
  • 40:01 - 40:07
    CNN, Islam, Feministen, und Linke. Und er
    verfolgte Trumps' Sieg live. Hat den
  • 40:07 - 40:13
    Wahltag intensiv verfolgt und begleitet,
    aber ein Bot ist er auch nicht. So, und
  • 40:13 - 40:19
    das war jetzt der zwölfte von den zwölf.
    Fassen wir mal zusammen. Ich habe ja mal
  • 40:19 - 40:23
    so ein kleines Tabelle gemacht,
    spaltenweise pro Clinton, neutral, pro
  • 40:23 - 40:28
    Trump, und zeilenweise ist es ein Mensch,
    sind wir uns nicht ganz sicher, oder ist
  • 40:28 - 40:32
    es ein Social Bot. Wir haben auf jeden
    Fall ein Social Bot gefunden der pro-
  • 40:32 - 40:35
    Clinton ist, und wir haben einen Social
    Bot gefunden von pro-Trump ist, ob es sich
  • 40:35 - 40:39
    tatsächlich um einen Social Bot handelt
    wäre ich sehr vorsichtig denn sie haben ja
  • 40:39 - 40:43
    keine soziale Interaktion bewiesen,
    sondern alles was sie gemacht haben ist
  • 40:43 - 40:47
    automatisiert Links und Nachrichten zu
    veröffentlichen, und hatten auch dabei
  • 40:47 - 40:51
    nicht wirklich einen Impact weil keiner
    sie retweetet oder gefavt hat. Eine große
  • 40:51 - 40:59
    Gruppe die wir gefunden haben waren pro-
    Trump-Menschen, die alle, auf der pro-
  • 40:59 - 41:04
    Clinton Seite haben wir nur einen Satire-
    Account gefunden. Und dazwischen im
  • 41:04 - 41:08
    neutralen Bereich einen Bernie Sanders-
    Fan, eine Journalistin, einen Japaner und
  • 41:08 - 41:16
    einen Verschwörungstheoretiker. Und dann
    haben wir noch hier unsure derjenige der
  • 41:16 - 41:20
    seine Links zu App-Webseiten vertreibt.
    Wenn ich jetzt mal hervorhebe von denen
  • 41:20 - 41:23
    Accounts von denen ich glaube dass sie
    tatsächlich an einer politischen
  • 41:23 - 41:27
    Diskussion teilgenommen haben... sind das
    die hier und das sind alles Menschen. Ist
  • 41:27 - 41:42
    nur die Hälfte, aber ja. Die Studie "Bots
    and Automation over Twitter during U.S.
  • 41:42 - 41:46
    Election" müsste eigentlich heißen "Highly
    active Twitter users during US Election".
  • 41:47 - 41:51
    Social Bots, oder als was wir sie
    bezeichnet haben, sind politisch aktive
  • 41:51 - 41:58
    Bürger, Hashtag-Spam, Medien und
    Journalisten, und einige simple Bots. Auf
  • 41:58 - 42:03
    Vollständigkeit halber habe ich versucht
    noch eine Studie zu finden die eine andere
  • 42:03 - 42:09
    Methodik verwendet. Und da gibt es von der
    University of South California "Social
  • 42:09 - 42:16
    bots distort the 2016 U.S. Presidential
    election online discussion", und was sie
  • 42:16 - 42:20
    zur Identifizierung von Social Bots
    verwenden ist ein Service der nennt sich
  • 42:20 - 42:25
    BotOrNot, in der Zwischenzeit umbenannt in
    Botometer. Und ich will da nicht zu tief
  • 42:25 - 42:29
    einsteigen, da gibt's auch nochmal ein
    Paper dazu, aber was sie im Kern machen
  • 42:29 - 42:32
    ist im Prinzip das was ich am Anfang
    gemacht habe – sie versuchen die ganzen
  • 42:32 - 42:36
    Metadaten rund um einen Account zu
    kategorisieren, und dann kommt da Machine
  • 42:36 - 42:40
    Learning oben drauf, und dann wird
    versucht mit einer Wahrscheinlichkeit
  • 42:40 - 42:44
    abzuschätzen ob nun ein Account nun ein
    Bot ist oder nicht, und das ist die Basis
  • 42:44 - 42:48
    dieser Studie. Ich hab das mal... Unten
    ist noch mal der Link dazu, falls einer da
  • 42:48 - 42:53
    selber mit spielen möchte. Vorsichtig, man
    muss dazu seinen Twitter-Account
  • 42:53 - 42:56
    autorisieren und das ist dann... der im
    Gegensatz zu uns keine Leserechte haben
  • 42:56 - 43:00
    möchte, sondern er möchte auch
    Schreibrechte haben; für den Fall falls
  • 43:00 - 43:03
    die gehackt werden, werdet ihr also auch
    irgendwie Scheiße twittern. Ich hab
  • 43:03 - 43:06
    einfach mal ein paar Accounts rein
    geworfen um zu gucken wie vertrauenswürdig
  • 43:06 - 43:10
    das ist; da habe ich jetzt einfach mal
    einen erdgeist und einen Frank Rieger und
  • 43:10 - 43:14
    einen Linuzifer rein geworfen. Das
    Kriterium übrigens der Studie ist 50%,
  • 43:14 - 43:17
    alle die unter 50% sind,
    sind Menschen, alle die über 50%
  • 43:17 - 43:23
    sind, sind Bots. Gegenübergestellt hab ich
    nochmal das BMVI, das Bundesministerium
  • 43:23 - 43:32
    für Justiz und Verbraucherschutz – 55
    Prozent, das BKA ist ein Social Bot.
  • 43:32 - 43:37
    Applaus
    Und vielleicht liegt das an den deutschen
  • 43:37 - 43:41
    Accounts, da die Studie sich im Speziellen
    mit den US-Wahlen beschäftigt haben, hab
  • 43:41 - 43:45
    ich da mal stichprobenartig ein paar rein
    geworfen. Da haben wir das Wall Street
  • 43:45 - 43:49
    Journal, LA Times ist ein Bot, CNN und Fox
    News ist ein Bot, realDonaldTrump ist ein
  • 43:49 - 43:52
    Bot, und der amerikanische Präsident.
    Lachen
  • 43:52 - 44:00
    Applaus
    Das könnt ihr ja auch alles selber
  • 44:00 - 44:04
    ausprobieren. Also wissenschaftlich ist
    das alles nicht haltbar.
  • 44:05 - 44:07
    Und wen das noch nicht überzeugt,
  • 44:07 - 44:13
    Hegelich erwartet keine große
    Gefahr durch Social Bots im Wahlkampf.
  • 44:13 - 44:20
    Zusammenfassung. Social Bot,
    Filterblasen, Fake News. Ich versuche
  • 44:20 - 44:24
    versuch's mal vorsichtig zu formulieren:
    die Forschung ist noch in den Anfängen.
  • 44:24 - 44:28
    Die Methodiken sind neu, teilweise
    experimentell, und müssen noch überprüft
  • 44:28 - 44:32
    werden. Und im Speziellen müssen die
    wissenschaftlichen Publikation überprüft
  • 44:32 - 44:37
    werden. Falls einer irgendwie in dem Thema
    gerade arbeitet, den kann ich das ans Herz
  • 44:37 - 44:42
    legen, als Bachelor- oder Masterarbeit mal
    ans Herz zu legen, diese Studien
  • 44:42 - 44:46
    tatsächlich zu überprüfen. Was ich bei
    Social Bots, Filterblase und Fake News
  • 44:46 - 44:53
    gefunden habe sind exemplarisch: Egon
    Dombrowski und Ave Hurley. Wir haben in
  • 44:53 - 44:59
    den Diskursen die Leute als Nazis,
    bildungsfern, sozial abgehängt,
  • 44:59 - 45:04
    Mittelschicht mit Verlustängsten und jetzt
    auch neu als Social Bots bezeichnet.
  • 45:04 - 45:06
    Aber was sie alle gemeinsam haben:
  • 45:06 - 45:08
    Sie haben Angst und sie sind wütend.
  • 45:08 - 45:10
    Und sie haben Vertrauensverlust
    in die Institutionen.
  • 45:10 - 45:13

    Und was wir beobachten ist das neue
  • 45:13 - 45:18
    gesellschaftliche Gruppen in die sozialen
    Netzwerke betreten, und sie nutzen ihr
  • 45:18 - 45:23
    Recht und die Möglichkeit ihrer
    Meinungsäußerung. Und im Zweifelsfall
  • 45:23 - 45:30
    greifen sie auch auf Fake News zurück wenn
    es ihre Ansichten bestätigt.
  • 45:30 - 45:33
    Was wir aber beobachten ist, dass die
    sozialen Netzwerke nicht geeignet sind, um
  • 45:33 - 45:37
    gesellschaftliche Lösungen zu entwickeln.
    Vielleicht gibt es irgendwann technische
  • 45:37 - 45:42
    Lösungen. Wer weiß. Vielleicht gehört es
    aber in Zukunft auch zur Medienkompetenz,
  • 45:42 - 45:48
    eine gewisse Debattenkultur zu entwickeln.
    Ich weiß es nicht. Das ist auf jeden Fall,
  • 45:48 - 45:51
    ich will jetzt den Begriff "Neuland" nicht
    verwenden, das auf jeden Fall ein neues
  • 45:51 - 45:56
    Forschungsgebiet. Wir sehen glaube ich
    dass hier eine neue Wissenschaft beginnt
  • 45:56 - 46:00
    zu entstehen. Sie steckt noch in den
    Kinderschuhen, aber sie macht gerade einen
  • 46:00 - 46:04
    fundamentalen Wandel mit, von einer
    ideographischen Wissenschaft, also einer
  • 46:04 - 46:08
    reinen Phänomen beschreibenden, wie
    Sozialwissenschaft, Kulturwissenschaft
  • 46:08 - 46:12
    oder Politikwissenschaften, hin zu einer
    nomothetischen Wissenschaft, die versucht
  • 46:12 - 46:16
    Regeln zu erkennen, Gesetze zu entdecken,
    reproduzierbare Ergebnisse zu entwickeln,
  • 46:16 - 46:21
    so wie man das aus den Naturwissenschaften
    kennt. Ähnliche Entwicklungen haben wir
  • 46:21 - 46:25
    auch gesehen, die Astrologie, das war die
    Lehre von den Sternen, bis dann das
  • 46:25 - 46:29
    Teleskop erfunden wurde und wir nun
    anfangen konnten, Gesetze in der Bewegung
  • 46:29 - 46:33
    von Planeten und Sternen zu entdecken, die
    reproduzierbar sind. Und aus der
  • 46:33 - 46:39
    Astrologie wurde dann die Astronomie. Ich
    sehe, dass wir in den Debatten, die jetzt
  • 46:39 - 46:44
    in den sozialen Netzwerken stattfinden,
    eine neue Wissenschaft haben können die
  • 46:44 - 46:49
    sich mit diesem Thema beschäftigt. Und ich
    glaube das ist nicht nur möglich ist,
  • 46:49 - 46:53
    sozusagen als Teleskop oder Mikroskop die
    für die Gesellschaft, sondern dass es auch
  • 46:53 - 46:58
    notwendig ist. Und dazu ist viel Forschung
    nötig und ich animiere jeden, der nicht so
  • 46:58 - 47:02
    richtig weiß ob er jetzt in dem
    geisteswissenschaftlichen Bereich oder im
  • 47:02 - 47:05
    Data Science-Bereich arbeiten möchte,
    diese beiden Welten miteinander zu
  • 47:05 - 47:12
    verbinden. Bachelor und Master sind,
    Arbeiten sind da gut definitiv
  • 47:12 - 47:17
    prädestiniert um diese wissenschaftlichen
    Ausarbeitungen zu reproduzieren. Und diese
  • 47:17 - 47:22
    Studien von der Oxford-Universität oder
    von South California zu reproduzieren
  • 47:22 - 47:26
    und zu validieren. Und ich würde das gerne
    unterstützen, und ich hoffe, die nächsten
  • 47:26 - 47:29
    zweieinhalb Tage noch Zeit zu finden,
    Teile meines Frameworks und auch der
  • 47:29 - 47:37
    Rohdaten zu veröffentlichen. Ansonsten bin
    ich die nächsten zweieinhalb Tage zu
  • 47:37 - 47:41
    erreichen: DECT Telefonnummer 360, 3600
    Entschuldigung, und Twitter-Account,
  • 47:41 - 47:46
    @michaelkreil. Ich würde gerne andere
    Leute, die in dem Bereich forschen oder
  • 47:46 - 47:53
    sowas zusammenbringen um zu gucken ob wir
    zum Thema Social Bot da nicht mal eine
  • 47:53 - 48:10
    Wissenschaftssprache Debatte starten
    können. Danke schön.
  • 48:10 - 48:16
    Applaus
    Herald: Mindestens das will ich nachher
  • 48:16 - 48:20
    nochmal hören. Jetzt haben wir noch, ja,
    etwas über ne Viertelstunde Zeit für
  • 48:20 - 48:25
    Fragen und Antworten. Habt ihr Fragen an
    Michael Kreil? Positioniert euch bitte an
  • 48:25 - 48:30
    den Mikrophonen, ich versuche einigermaßen
    ausgeglichen auszuwählen. Falls schon
  • 48:30 - 48:33
    irgendwo jemand steht, steht schon
    irgendwo jemand, hebt mal die Hand? Ah, da
  • 48:33 - 48:37
    hinten. Mikrophon 4, fang an.
    Mikrophon 4: Jawohl. Ich hab eine Frage
  • 48:37 - 48:46
    bezüglich State-sponsored Propaganda, also
    die sind wirklich Leute, die bezahlt
  • 48:46 - 48:52
    werden von Staaten, damit die Propaganda
    betreiben. Habt ihr auch in der Forschung
  • 48:52 - 48:56
    diebezüglich was rausgefunden, oder habt
    ihr das überhaupt untersucht?
  • 48:56 - 49:01
    MK: Wir haben versucht, Leute zu finden,
    die an den Bots, die an den politischen
  • 49:01 - 49:05
    Diskursen teilnehmen. Ob sie jetzt
    tatsächlich dafür bezahlt werden oder
  • 49:05 - 49:10
    nicht ist unmöglich festzustellen. Wir
    sehen aber, wenn jetzt zum Beispiel jemand
  • 49:10 - 49:15
    bei der US-Wahl was postet und dann aber
    in den nächsten Monaten bis heute noch
  • 49:15 - 49:19
    ganz normales Leben auf den, in den
    sozialen Netzwerken führt, und parallel
  • 49:19 - 49:22
    dann auch noch auf Facebook oder sowas,
    gehen wir eher davon aus, dass es sich
  • 49:22 - 49:27
    nicht um einen bezahlten Akteur oder
    Akteure handelt. Die große Frage, die ich
  • 49:27 - 49:31
    mir eigentlich auch stelle ist dabei: Was
    ist der tatsächliche impact, also die
  • 49:31 - 49:36
    Unterstellung mit jemand bezahlt da
    irgendwie, kann ich wirklich auf Twitter
  • 49:36 - 49:39
    durch soziale Interaktion Leute davon
    überzeugen, die politische Richtung zu
  • 49:39 - 49:43
    wechseln? Das ist eine bisherige
    Unterstellung, die noch nicht überprüft
  • 49:43 - 49:47
    wurde, und deswegen finde ich das
    vorsichtig, bin ich da vorsichtig, sowas
  • 49:47 - 49:50
    anzunehmen.
    H: Mikro 2.
  • 49:50 - 49:54
    M2: Vielen, vielen Dank für den
    großartigen Vortrag, ich fand' das super
  • 49:54 - 49:58
    wichtig, anhand von dem kann man
    eigentlich sehen, was sich wirklich an
  • 49:58 - 50:01
    wissenschaftlichen Methodiken verändern
    muss, und von daher vielen, vielen Dank.
  • 50:01 - 50:05
    Ich habe eine Frage, ich habe mich gerade
    gefragt, ob man wirklich von Fake News
  • 50:05 - 50:09
    sprechen sollte, weil offensichtlich
    spiegeln diese Nachrichten ja nur, was die
  • 50:09 - 50:14
    Verbreiter und weiteren Re-tweeter der
    Nachrichten hören oder sehen oder wissen
  • 50:14 - 50:18
    wollen, also das, was sie eigentlich schon
    denken, wird quasi nur gespiegelt. Und ich
  • 50:18 - 50:22
    hab mich gefragt, ob es nicht irreführend
    ist, dieses Wort "News", und ob man nicht
  • 50:22 - 50:26
    ein neues Wort dafür finden müsste.
    MK: Auf jeden Fall, auf jeden Fall. Wir
  • 50:26 - 50:31
    haben auch zum Beispiel gesehen, dass bei
    der US-Wahl relativ viele Fake News aus
  • 50:31 - 50:35
    einer Stadt aus Osteuropa kommt, die aber
    gar keine politische Agenda haben, sondern
  • 50:35 - 50:38
    einfach nur Geld damit verdient haben,
    dass ihre Posts sich so weit verbreitet
  • 50:38 - 50:42
    haben, und damit klick-Werbung, verstanden
    haben, Geld gewonnen haben. Da war
  • 50:42 - 50:48
    überhaupt kein politischer, gar kein
    politisches Ziel dahinter, im Gegenteil,
  • 50:48 - 50:52
    laut eigener Aussage haben sie erst pro-
    Clinton probiert, aber das hat einfach
  • 50:52 - 50:56
    nicht so gut eingeschlagen wie pro-Trump-
    Sachen. Deswegen halte ich auch den
  • 50:56 - 51:00
    Begriff von Fake News dann auch nicht mehr
    für angebracht.
  • 51:00 - 51:04
    H: So, aus dem Internet haben wir auch
    eine Frage.
  • 51:04 - 51:08
    Signal-Engel: Ja, zuerst auch aus dem IRC
    großes Lob an den Vortrag, es wurde
  • 51:08 - 51:13
    angemerkt, es sei sehr interessant, mal
    den Hashtag #34c3 zu analysieren und
  • 51:13 - 51:18
    Trolle aufzudecken. Cyberrichter und Afdex
    lässt fragen: Gibt es schon schlaue Bots
  • 51:18 - 51:22
    mit Einfluss, ist irgendwas über die
    Interaktion untereinander bekannt, gibt es
  • 51:22 - 51:33
    bald Bot Wars?
    MK: Äh. Flame-Bots, ja, äh. Das sind alles
  • 51:33 - 51:39
    theoretische Konzepte. Wenn man sich die
    Studien dazu durchliest, das sind alles
  • 51:39 - 51:43
    Konzepte "es könne irgendwann mal so
    sein". Ich stehe auch nicht hier und sage
  • 51:43 - 51:47
    "sowas wird nie passieren" oder sowas.
    Keine Ahnung, was es für Entwicklungen mit
  • 51:47 - 51:52
    KI in den nächsten Tagen oder Monaten oder
    so gibt. Aber das, was wir jetzt bisher
  • 51:52 - 51:57
    sehen konnten, waren jetzt nicht
    irgendwelche KI's, die durchs Internet
  • 51:57 - 52:00
    laufen.
    H: Die 3.
  • 52:00 - 52:07
    M3: Servus. Wunderbar, funktioniert. Das
    erste harte Kriterium, das mir einfallen
  • 52:07 - 52:11
    würde, um Bot-Accounts von Menschen-
    Accounts zu trennen wäre die posting-
  • 52:11 - 52:15
    Frequenz, und die hat jetzt hier nur
    einmal Einfluss gefunden - woran liegt
  • 52:15 - 52:17
    das?
    MK: Weil sie tatsächlich auch nur einmal
  • 52:17 - 52:26
    auffällig war. Also, die anderen Accounts,
    also ich meine, wenn ich jetzt nen Social
  • 52:26 - 52:30
    Bot entwickle, dann wäre ich jetzt auch
    schlau zu sagen okay, dann haut der jetzt
  • 52:30 - 52:35
    nicht alle halbe Sekunde nen tweet raus,
    wenn ich sowas bauen würde. Aber in diesem
  • 52:35 - 52:39
    Fall ist es tatsächlich nur einmal
    aufgetreten, das ein Bot sozusagen den Bug
  • 52:39 - 52:43
    hatte, das zu tun.
    M3: Okay, taugt also nicht. Super, danke.
  • 52:43 - 52:48
    H: Und MIkro 1.
    M1: Hallo erstmal, ja, jetzt geht's. Ich
  • 52:48 - 52:51
    wollte fragen ob, weil du ja gesagt
    hattest dass bei den Social Bots ja
  • 52:51 - 52:55
    eigentlich der Einfluss sich verliert, ob
    das dann wiederum heißen könnte, dass die
  • 52:55 - 52:59
    eigentliche Gefahr von Filterblasen, dass
    kein Meinungsdiskurs entsteht, oder dass
  • 52:59 - 53:04
    der halt eingedämmt wird, ob das sich dann
    verliert oder ob du in den Forschungen
  • 53:04 - 53:07
    gesehen hast, dass die Gefahr gar nicht so
    da ist, wie sie irgendwie überall
  • 53:07 - 53:12
    propagiert wird? Ja.
    MK: Also, zum Einen: Ich glaube, es gibt
  • 53:12 - 53:16
    so einen Satz, den man in den letzten 10
    Jahren immer wieder gehört hat, das
  • 53:16 - 53:18
    Internet ist nicht an bestimmten Sachen
    schuld, sondern das Internet macht nur
  • 53:18 - 53:22
    einfach wieder Sachen sichtbar. Und ich
    glaube, dass es eine Menge Leute gibt, die
  • 53:22 - 53:27
    sich gerne an einem politischen Diskurs
    beteiligen wollen und nicht die
  • 53:27 - 53:31
    Möglichkeit hatten, und jetzt nun mit den
    sozialen Netzen diese Möglichkeit haben,
  • 53:31 - 53:34
    und dann als Bots klassifiziert werden.
    Problem ist, dass ich deine Frage
  • 53:34 - 53:36
    vergessen habe.
  • 53:36 - 53:38
    M1: Ich wollte eigentlich nur wissen, ob
  • 53:38 - 53:41
    diese Gefahr, dass man halt sagt, der
    Diskurs ist so ein bisschen eingedämmt,
  • 53:41 - 53:45
    weil jeder in seiner eigenen Blase lebt,
    ob sich das nicht dadurch verliert, weil
  • 53:45 - 53:49
    du ja gesagt hattest, Social Bots sind
    unwirksam so wirklich, ob das nicht dann
  • 53:49 - 53:53
    sich auch sozusagen auf das andere
    übertragen lässt für unsere, für unseren
  • 53:53 - 53:57
    normane Gebrauch.
    MK: Genau, also, ich, kann ich, kann ich
  • 53:57 - 54:01
    keine abschließende Meinung zu abgeben.
    Ich weiß aber dass, oder man merkt es
  • 54:01 - 54:05
    halt, dass die sozialen Netze oft, oder
    fast immer nicht dazu geeignet sind,
  • 54:05 - 54:09
    tatsächlich einen Diskurs zu führen,
    sondern es gibt halt, es ist halt,
  • 54:09 - 54:12
    endet immer in einem Flame War, sind
    sozusagen, "du bist, ihr seid die Bösen,
  • 54:12 - 54:16
    und wir sind die Guten." Aber tatsächlich
    irgendwie eine Lösung zu entwickeln,
  • 54:16 - 54:18
    eignet sich nicht dafür, vielleicht ist
    der Mensch auch nicht dafür gemacht.
  • 54:18 - 54:22
    Vielleicht haben Netzwerke nen, nen
    bestimmten flaw, den wir halt noch nicht
  • 54:22 - 54:25
    kennen, man darf ja auch nicht vergessen,
    das ist eine extrem experimentelle
  • 54:25 - 54:30
    Technologie. Noch nie gab es ein Netzwerk,
    das weltübergreifend so vielen Menschen
  • 54:30 - 54:33
    die Möglichkeit gibt, miteinander zu
    kommunizieren und Diskurse zu führen.
  • 54:33 - 54:35
    M1: Danke.
    H: Mikro 4.
  • 54:35 - 54:41
    M4: Ja, Hallo. Erstmal Kompliment für
    diesen superwichtigen und sehr coolen
  • 54:41 - 54:45
    Vortrag. Meine Frage: Du hattest ja jetzt
    ausschließlich über Twitter gesprochen -
  • 54:45 - 54:48
    habt ihr mal Analysen gefahren über andere
    soziale Netze, die ja durchaus auch
  • 54:48 - 54:54
    Verbreitung haben, speziell dazu, auch
    nicht nur über die Anzahl der Tweets
  • 54:54 - 54:58
    sondern auch über den Impact, weil die
    Frage ist ja, die hattest du ja mehrfach
  • 54:58 - 55:01
    aufgeworfen, was wirkt eigentlich eine
    Tweet, wenn die, wenn die einen
  • 55:01 - 55:05
    veröffentlichen, also ein Tweet auf 10.000
    Follower könnte möglicherweise wichtiger
  • 55:05 - 55:10
    sein als 10.000 Tweets mit einem Follower.
    MK: Genau, da kann man sich halt Metriken
  • 55:10 - 55:15
    überlegen. Normalerweise ist es für mich
    halt ein Ausschlusskriterium, wenn ein
  • 55:15 - 55:19
    Tweet nur, nicht gefavt wird und nicht
    retweetet wird, das ist für mich, das ist
  • 55:19 - 55:22
    ein Ausschlusskriterium. Was der
    tatsächliche Impact ist, obs dafür ne
  • 55:22 - 55:28
    Metrik gibt, weiß ich nicht. Kann man sich
    überlegen, wie gesagt, neue Wissenschaft.
  • 55:28 - 55:33
    Das andere ist, andere soziale Netzwerke.
    Man sieht, dass auf YouTube ne Menge
  • 55:33 - 55:38
    passiert. Ganz viele Leute packen im
    Wohnzimmer die Kamera aus und teilen ihre
  • 55:38 - 55:42
    politischen Meinungen im Wohnzimmer und
    veröffentlichen das auf YouTube, es gibt
  • 55:42 - 55:48
    auch dieses russische Social Network, wie
    heißt das? VKan... VKan-irgendwas, ja.
  • 55:48 - 55:54
    Genau, da gibt es - VKontakte, genau - da
    gibt es auch, kenne ich eine Gruppe die
  • 55:54 - 55:58
    sich damit beschäftigt hat, wie das da
    aussieht, das ist aber ein sehr kleiner
  • 55:58 - 56:04
    Teil, der große Brocken ist natürlich
    Facebook, und Facebook hat zwei Probleme:
  • 56:04 - 56:09
    Erstens gibt es eine Menge geschlossene
    Gruppen wo viel stattfindet, da habe ich
  • 56:09 - 56:12
    mal rein geguckt, sind die gleichen
    Themen, es geht halt auch um Asylpolitik
  • 56:12 - 56:16
    und so weiter. Und das andere Problem mit
    Facebook ist, die API ist leider nicht so
  • 56:16 - 56:20
    offen. Es gibt Schwierigkeiten, da große
    Mengen an Daten rauszuholen. Ich glaube
  • 56:20 - 56:26
    dass Facebook in diesem Bereich wahnsinnig
    viel Datenmaterial hat und Forschung dazu
  • 56:26 - 56:30
    betreiben könnte, aber leider halt nur
    innerhalb eines Konzerns und nicht
  • 56:30 - 56:32
    innerhalb der Forschungsgemeindschaft.
    M4: Okay, danke.
  • 56:32 - 56:36
    H: Unser Social Bot hat auch noch eine
    Frage.
  • 56:36 - 56:41
    Signal: Mie lässt fragen, ob es Studien zu
    dem realen Ausmaß und dem realen Impact
  • 56:41 - 56:45
    von Fake News in den sozialen Medien, und
    wurden die eventuell zur Legitimation des
  • 56:45 - 56:49
    NetzDGs herangezogen?
    MK: Habe ich akustisch nicht verstanden.
  • 56:49 - 56:54
    Signal: Gibt es Studien über das reale
    Ausmaß von Fake News und wurden die
  • 56:54 - 56:56
    herangezogen zur Legitimisierung des
    NetzDGs?
  • 56:56 - 57:03
    MK: Soweit ich weiß ist mir, mir ist keine
    Studie bekannt, aus meiner Erfahrung würde
  • 57:03 - 57:07
    ich sagen: Sie haben keinen Einfluss, weil
    sie halt erstmal nicht Leute überzeugen,
  • 57:07 - 57:11
    ich glaube die Leute kommen schon mit
    einer Überzeugung in die Netzwerke und
  • 57:11 - 57:15
    werden einfach nur noch weiter zusätzlich
    bestätigt. Ich glaube, dass es einen
  • 57:15 - 57:20
    gewissen Impact gibt mit Leuten, die
    sozusagen Latent ne Sorge um
  • 57:20 - 57:25
    Flüchtlingspolitik haben und dann nur noch
    in einer Filterblase stecken und nur noch
  • 57:25 - 57:29
    mit Flüchtlingskriminalität bombardiert
    werden. Dass sie dazu dann auch neigen,
  • 57:29 - 57:32
    eine Angst gegen beispielsweise Migranten
    zu entwickeln. Aber eine Studie dazu ist
  • 57:32 - 57:36
    mir noch nicht bekannt, wie das
    tatsächlich, ob das psychologische
  • 57:36 - 57:39
    Auswirkungen auf die Menschen hat.
    H: Und die 2.
  • 57:39 - 57:46
    Frage M2: Ja hallo, danke für den Vortrag.
    Du hattest am Anfang so einen schöne
  • 57:46 - 57:50
    Karte, wo verschiedene Gruppen aus dem
    Twitternetzwerk aufgezeigt wurden, und
  • 57:50 - 57:54
    dann hast du gezeigt, da sitzt die AfD und
    dann kam der Switch und da sind die
  • 57:54 - 57:58
    Fakenews. Wie hast du denn ermittelt, dass
    diese Tweets Fakenews waren?
  • 57:58 - 58:02
    Antwort: Also konkret, ich habe mir
    Fakenews ausgesucht und hab geguckt wer
  • 58:02 - 58:06
    sie auf Twitter teilt. Also andersrum, ich
    hab mir sozusagen Geschichten rausgesucht,
  • 58:06 - 58:10
    von denen ich weiß dass es Fakenews sind
    und habe dann beispielsweise Blogpost und
  • 58:10 - 58:14
    so weiter die es verbreitet haben und
    diese URL... also wer twittert im Prinzip
  • 58:14 - 58:18
    Fakenews und genau, dadurch kam dann diese
    Einfärbung zustande.
  • 58:18 - 58:23
    H: Mikro 3.
    M3: Ja ich hab noch ein Frage zu
  • 58:23 - 58:27
    Antworten, also ich hab oft gehört von
    Journalisten die sich beschwert haben,
  • 58:27 - 58:31
    wenn sie über ein bestimmtes Thema
    berichtet haben, dass da irgendwelche Bots
  • 58:31 - 58:34
    sie mit Antworten zumüllen oder sowas.
    Hast du sowas beobachten können wird das
  • 58:34 - 58:38
    irgendwie als Megafon eingesetzt um dann
    einfach nochmal ein bisschen mehr Bums
  • 58:38 - 58:41
    oder Druck zu machen auf solche Accounts?
    Gibt's das was oder ist das auch
  • 58:41 - 58:45
    eigentlich alles echte Menschen die
    wirklich wütend sind?
  • 58:45 - 58:49
    MK: Ich sag noch nicht, dass das alles
    echte Menschen sind, also ich kann mit
  • 58:49 - 58:57
    einem Bot zum Beispiel immer einen Hashtag
    unbenutzbar machen. Ich kann mir einen
  • 58:57 - 59:01
    Hashtag raussuchen und kann das dann mit
    Bots vollmüllen, aber das ist dann
  • 59:01 - 59:06
    eigentlich mehr ein Spam oder um den
    Diskurs zu stören, aber nicht wirklich
  • 59:06 - 59:13
    einen Einfluss zu haben dabei. Zu den
    Journalisten, ich kenne da einige
  • 59:13 - 59:20
    Journalisten, die auf Twitter aktiv sind
    und dann immer wieder mit einer großen
  • 59:20 - 59:24
    Anzahl Accounts konfrontiert werden. Ich
    bin mir da auch nicht sicher,
  • 59:24 - 59:27
    ob es tatsächlich sich um Botnetzwerke
    handelt, denn es sind immer wieder
  • 59:27 - 59:31
    vereinzelt Leute die unterschiedliche
    Tweets machen, es ist ja schon wahnsinnig
  • 59:31 - 59:35
    schwierig 100.000 künstliche Tweets zu
    erzeugen mit einer künstlichen Intelligenz
  • 59:35 - 59:39
    zu erzeugen, die aber unterschiedlich
    sind. Das ist schon ein relativ hartes
  • 59:39 - 59:43
    Problem, ich weiß nicht ob das bereits
    gelöst ist, ich glaube nämlich nicht.
  • 59:43 - 59:48
    H: Nummer 4 bitte.
    M4: Eine Frage zu einem Kriterium, bei dem
  • 59:48 - 59:53
    ich nicht weiß, ob es aufgetaucht ist oder
    nicht, oder ob ich nur nicht aufmerksam
  • 59:53 - 59:58
    genug war. Und zwar geht es um
    gleichlautende Nachrichten in Tweets zum
  • 59:58 - 60:04
    Beispiel. Also ich weiß, dass bei Fakenews
    teilweise ganze absatzweise Texte 1 zu 1
  • 60:04 - 60:10
    kopiert werden und auch manuell sozusagen,
    trotzdem kommt mir das auch als ein
  • 60:10 - 60:15
    wichtiges Kriterium vor um, wie gesagt,
    einen Einflussfaktor, ist es ein Bot oder
  • 60:15 - 60:20
    nicht festzustellen. Spielt das in den
    Studien irgend eine Rolle, die Du
  • 60:20 - 60:25
    untersucht hast oder für Deine Arbeit?
    MK: In den Studien kann ich es nicht
  • 60:25 - 60:29
    sagen, die hatten jetzt immer nur ihre
    Kriterien mit den Hashtags und so weiter.
  • 60:29 - 60:36
    Was in meiner Arbeit aufgefallen ist, dass
    ist immer wieder, zum einen es gibt
  • 60:36 - 60:39
    natürlich Leute die sagen, ich will das
    jetzt nicht retweeten sondern ich kopiere
  • 60:39 - 60:43
    den Tweet und sage sozusagen, dass das
    mein Eigener ist. Aber es gibt tatsächlich
  • 60:43 - 60:48
    bestimmte Formulierungen die zu
    10.000-en identisch auftauchen, aber es
  • 60:48 - 60:53
    sind tatsächlich nur Textdatenbanken, die
    da einfach abgespielt werden, auch nicht
  • 60:53 - 60:57
    mit politischen Inhalten, sondern ... ich
    weiß nicht vielleicht sind die dormant
  • 60:57 - 61:02
    oder sowas, aber keinerlei politische
    Aktivität zu sehen dort.
  • 61:02 - 61:05
    H: Und die 2 bitte.
    Lachen
  • 61:05 - 61:12
    M2: Ja hallo, auch nochmal vielen Dank für
    den Vortrag. Eine Frage zu dem Thema
  • 61:12 - 61:20
    Schweden-Reisewarnung, was am Anfang kam.
    Wie viel Handarbeit war dabei die Tweets
  • 61:20 - 61:24
    quasi rauszufinden, die zu dieser Story
    gehören, und wie kannst Du Dir sicher
  • 61:24 - 61:27
    sein, dass Du alle gefunden hast?
    MK: Ich kann mir nicht sicher sein, dass
  • 61:27 - 61:31
    ich alle gefunden habe, insbesondere weil
    immer wieder Tweets gelöscht werden oder
  • 61:31 - 61:35
    ganze Accounts. Das hat man auch gesehen,
    wenn man sich die Daten mal ein halbes
  • 61:35 - 61:39
    Jahr später anschaut, oder wie viele
    Accounts in der Zwischenzeit weg sind. Ich
  • 61:39 - 61:42
    kann mir nicht sicher sein, dass ich alle
    Tweets gefunden habe, natürlich nicht. Was
  • 61:42 - 61:45
    man halt machen kann ist sich
    durchzuhangeln. Man fängt dann an mit
  • 61:45 - 61:49
    sowas wie "Schweden Reisewarnung" und dann
    sieht man die ersten, und dann kommen da
  • 61:49 - 61:53
    aber auch noch andere Begriffe zusammen
    und hier finde ich nochmal einen Link auf
  • 61:53 - 61:56
    einen Blogpost und dann suche ich mal nach
    dem und so weiter, und so wird die
  • 61:56 - 62:00
    Datenbank immer größer und so habe ich
    glaube ich 1800 Tweets oder sowas gefunden
  • 62:00 - 62:03
    und versuch die dann so halbautomatisiert
    zu kategorisieren mit Fakenews und so
  • 62:03 - 62:07
    weiter. Das ist sozusagen die Methodik,
    das ist eigentlich so halbautomatisierte
  • 62:07 - 62:10
    Handarbeit.
    H: Jetzt aber, Fefe.
  • 62:10 - 62:14
    Frage M1 [???]: Ich hab eine
    H: Die eins ist das bitte.
  • 62:14 - 62:19
    Frage M1: Hallo, hallo. Also ich hab eine
    kurze Frage und eine Bitte um weitere
  • 62:19 - 62:22
    Daten. Erstens würde ich gerne wissen, wie
    viele von Deinen Rohdaten Du
  • 62:22 - 62:27
    veröffentlichen kannst und tust. Und
    zweitens Dein Beispiel am Anfang mit der
  • 62:27 - 62:31
    Twitter-Timeline da ging's irgendwie um
    2.000 Tweets oder 2.000 Leute und das ist
  • 62:31 - 62:35
    eine Größenordnung, die man häufiger sieht
    in diesen Debatten und da frage ich mich
  • 62:35 - 62:39
    immer, ich hab mehr ungelesene Mails in
    meiner Inbox, wieso interessieren mich
  • 62:39 - 62:44
    2000 Leute? Ist das irgendwie, wieso ist
    das jetzt eine relevante Größenordnung?
  • 62:44 - 62:47
    Kannst du da vielleicht noch etwas dazu
    sagen?
  • 62:47 - 62:51
    A: Okay, also das erste war, ob ich meine
    Daten veröffentlichen kann. Es gibt
  • 62:51 - 62:55
    tatsächlich eine Guideline von Twitter,
    die es mir nicht erlaubt beispielsweise
  • 62:55 - 62:58
    von einem bestimmten Account zehntausende
    von Tweets zu veröffentlichen. Es gibt
  • 62:58 - 63:02
    bestimmte Sachen, die man machen darf. Da
    würde ich mich halt, sonst hätte ich es
  • 63:02 - 63:06
    jetzt einfach mal so "Rechtsklick
    veröffentlichen" gemacht. Ich würde es mir
  • 63:06 - 63:11
    jetzt mal nochmal genauer anschauen, was
    ich machen darf und so weiter. Gerade
  • 63:11 - 63:15
    "hydrated Tweets" heißt das, also
    sozusagen nicht nur Twitter-IDs zu haben,
  • 63:15 - 63:17
    sondern wirklich eine große csv-Datei oder
    sowas, die man dann sich in Excel mal
  • 63:17 - 63:21
    durchklicken kann, kann glaube ich bei dem
    ein oder anderen, der da frisch mit dem
  • 63:21 - 63:25
    Thema ist schon weiterhelfen. Muss ich
    halt mal kucken in den nächsten Tagen. Und
  • 63:25 - 63:29
    die zweite Frage war, inwieweit
    zweitausend Accounts einen Einfluss haben?
  • 63:29 - 63:33
    F: Genau, vielleicht ein bisschen Kontext
    geben. Ist das irgendwie besonders viel
  • 63:33 - 63:37
    oder ist das üblich oder findest du das
    eine relavante Größe? Wieso müssen wir
  • 63:37 - 63:41
    über 2.000 reden, weil mir kommt es
    intuitiv nicht so viel vor, frage ich
  • 63:41 - 63:44
    mich. Bei 80 Millionen Leuten sind 2.000
    Leute nicht so.
  • 63:44 - 63:49
    A: Das ist halt auch ein klassisches
    wichtiges Argument. Ich meine, erstens es
  • 63:49 - 63:52
    sind nicht alle Leute in sozialen
    Netzwerken, dann sind eine Menge Leute in
  • 63:52 - 63:56
    Facebook. Es ist nur ein winzig kleiner
    Teil davon auf Twitter und inwieweit da
  • 63:56 - 64:00
    dann irgendwie 2.000 Leute tatsächlich
    einen Impact haben auf einen politischen
  • 64:00 - 64:05
    Diskurs in Deutschand, da wird dann immer
    gesagt: ja aber in den sozialen Netzwerken
  • 64:05 - 64:10
    sind aber die Aktivisten, die Journalisten
    usw. und wenn die beeinflusst werden,
  • 64:10 - 64:16
    irgendwie sowas. Tatsächlich halte ich die
    Twitter-Diskussion nicht für politisch,
  • 64:16 - 64:19
    gesellschaftlich relevant in Deutschland.
    F: Lachen
  • 64:19 - 64:21
    H: So, eine Frage schaffen wir noch. Das
    ist die 4.
  • 64:21 - 64:30
    Frage M4: Hallo! Erst kurz Danke, weil
    Dein Projekt mir im Studium, mich ziemlich
  • 64:30 - 64:40
    gerettet hat, also Danke. Und dann ist mir
    halt aufgefallen, gerade bei diesen Troll-
  • 64:40 - 64:47
    Armeen, keine Ahnung, diese bezahlten, ob
    Du mal gekuckt hast in den Accounts, wie
  • 64:47 - 64:53
    oft sich besitmmte Sachen wiederholen? Zum
    Beispiel haben die ja oft dasselbe
  • 64:53 - 64:59
    Profilbild und dann Accounts mit
    fortlaufenden Nummern, wenn der erste
  • 64:59 - 65:03
    gelöscht wird oder gesperrt?
    A: Dieses Phänomen sieht man auch
  • 65:03 - 65:06
    generell. Das sieht man auch bei wütenden
    Bürgern, die in den sozialen Netzwerken
  • 65:06 - 65:10
    sind. Dann von beispielsweise Twitter
    gesperrt werden, dann wieder rauf kommen
  • 65:10 - 65:14
    und dann packen sie sich hinter ihren
    alten Usernamen einfach noch eine Zahl
  • 65:14 - 65:18
    hinten dran. Aber ob die Leute tatsächlich
    bezahlt werden oder nicht, das kriege ich
  • 65:18 - 65:22
    über eine Twitter-API auch nicht heraus.
    Eigentlich müsste man dann fast wie ein
  • 65:22 - 65:26
    Ethnologe sich mit den Leuten unterhalten
    und kucken, was sie da für eine Agenda
  • 65:26 - 65:32
    haben. Ich finde es aber gefährlich dann
    von vornherein zu sagen, die sind bezaht
  • 65:32 - 65:36
    oder sind vom Kreml gesteuert oder sind
    künstliche Intelligenzen oder keine Ahnung
  • 65:36 - 65:39
    was. Das muss auf jeden Fall wieder eine
    Debatte sein, die auf evidenzbasierter
  • 65:39 - 65:42
    Forschung basiert.
    F: Ja ich hab die auch nur. Bin ich noch
  • 65:42 - 65:44
    da?
    H: Ja.
  • 65:44 - 65:52
    F: Ich hab die auch nur zufällig gefunden,
    weil ich das halt gemacht hab damals zur
  • 65:52 - 65:59
    Türkei-Wahl und es halt sehr viele
    Accounts gab, die immer so türkischen Spam
  • 65:59 - 66:03
    gepostet haben, sich dann aber plötzlich
    in sehr schlechtem Deutsch in deutsche
  • 66:03 - 66:07
    Debatten eingemischt hatten.
    A: Super, dann sollten wir auf jeden Fall
  • 66:07 - 66:10
    mal unterhalten, ich glaube da können wir
    uns gegenseitig helfen.
  • 66:10 - 66:13
    H: Unterhalten könnt ihr euch gleich neben
    der Bühne, die Zeit ist nämlich jetzt
  • 66:13 - 66:18
    leider um. Vielen Dank Michael Kreil! Da
    geht mehr!
  • 66:18 - 66:26
    Applaus
  • 66:26 - 66:31
    Abspannmusik
  • 66:31 - 66:43
    Untertitel erstellt von c3subtitles.de
    im Jahr 2019. Mach mit und hilf uns!
Title:
34C3 - Social Bots, Fake News und Filterblasen
Description:

more » « less
Video Language:
German
Duration:
01:06:43
  • roll back to rev. 2 with correct time stamps.

German subtitles

Revisions