< Return to Video

35C3 - Desinformation und Fake News - Bekämpfung und Verifizierung leicht gemacht

  • 0:01 - 0:18
    35C3 Vorspannmusik
  • 0:18 - 0:24
    Engel: Herzlich willkommen zu unserem
    nächsten Talk: Desinformation und Fake
  • 0:24 - 0:26
    News - Bekämpfung und Verifizierung leicht
    gemacht mit unserem Speaker Robert
  • 0:26 - 0:30
    Clausen. In letzter Zeit - aber was heißt
    in letzter Zeit, das ist in den letzten
  • 0:30 - 0:33
    Jahren oft vorgekommen wenn irgendein
    Ereignis war, was die Leute emotional
  • 0:33 - 0:37
    besonders aufgewühlt hat, dann tauchen ja
    häufig irgendwelche Videos oder Fotos auf
  • 0:37 - 0:41
    wo jemand sagt: "Oh, das ist Bildmaterial
    von diesem Ereignis". Und alle die nicht
  • 0:41 - 0:44
    dabei waren, können das nicht beurteilen.
    Und dann stellt sich raus, das ist
  • 0:44 - 0:48
    Bildmaterial das irgendwie von ein paar
    Jahren vorher am anderen Ende der Welt
  • 0:48 - 0:52
    ist. Aber das muss man ja erstmal rausfinden.
    Und da gibt es verschiedene Möglichkeiten,
  • 0:52 - 0:55
    da wirds gleich drum gehen.
    Kurze Frage: Wer von Euch hat schon mal
  • 0:55 - 0:58
    Image Research benutzt um irgendwie
    rauszufinden, ob ein Bild irgendwo anders
  • 0:58 - 1:03
    schonmal vorgekommen ist? Kurzes
    Handzeichen. Sehr gut. Ich würde sagen,
  • 1:03 - 1:06
    das ist so ein Drittel im Publikum. Ich
    hab das vor kurzem erst gemacht als ich
  • 1:06 - 1:09
    Videos von meinem Talk rausgesucht hab. Es
    ist sehr nützlich damit man da keine
  • 1:09 - 1:15
    Fehler begeht. Und... gerade in unseren
    aktuellen Zeiten, wo immer sehr viel die
  • 1:15 - 1:19
    Lügenpresse und Fake-News-Keule rausgeholt
    wird, wird es um so wichtiger, dass man
  • 1:19 - 1:23
    rausfindet was wirklich echt ist und was
    vielleicht nicht echt ist. Gleichzeitig
  • 1:23 - 1:26
    wissen wir, die technischen Möglichkeiten
    werden immer besser. Es gibt jetzt auch
  • 1:26 - 1:30
    schon Deep Fakes. Und vor dem Hintergrund
    ist es gut, dass wir einen Experten hier
  • 1:30 - 1:34
    haben. Robert ist nämlich Producer beim
    Fernsehen und arbeitet seit zweieinhalb
  • 1:34 - 1:38
    Jahren in einem Verifizierungsteam. Und
    der wird uns jetzt erzählen wie eigentlich
  • 1:38 - 1:42
    die Verifizierung von Bildmaterial
    funktioniert und wie Verifizierungsteams
  • 1:42 - 1:47
    arbeiten. Ganz viel Spaß dabei und einen
    ganz herzlichen Applaus für Robert. Viel
  • 1:47 - 1:49
    Spaß!
    Applaus
  • 1:49 - 1:54
    Robert: Ja. - Vielen Dank ???? (Legune?).
    Schön, dass es doch zu später Stunde noch
  • 1:54 - 1:58
    einige hierhin verschlagen hat. Es hat mir
    auf jeden Fall sehr gute Laune gemacht,
  • 1:58 - 2:01
    dass ich gerade gesehen habe wie viele von
    euch zumindest schon 'mal so ein bisschen
  • 2:01 - 2:07
    Ahnung davon haben, bisschen Reverse Image
    Search gemacht haben. Das lässt auf jeden
  • 2:07 - 2:12
    Fall hoffen und hier möchte ich jetzt auch
    erklären was für weitere Möglichkeiten und
  • 2:12 - 2:15
    was für weitere Tools es vor allem gibt,
    die einem das Leben bei so etwas deutlich
  • 2:15 - 2:19
    leichter machen. Denn Verifizierung und
    generell so Online Recherche ist halt
  • 2:19 - 2:24
    keine Rocket Science, das kann im Grunde
    genommen jeder. Und ich fang' erstmal an
  • 2:24 - 2:29
    mit dem Begriff Fake News, warum ich den
    eigentlich nicht besonders gerne mag,
  • 2:29 - 2:32
    warum er aber manchmal doch geeignet sein
    kann. Mach dann einen kleinen
  • 2:32 - 2:37
    theoretischen Teil, welche Arten von
    Fälschungen gibt's überhaupt. Womit hat
  • 2:37 - 2:40
    man so am meisten zu tun? Welche
    Motivationen stecken dahinter? Und habe
  • 2:40 - 2:43
    dann auch noch ein paar ganz schöne
    Praxisbeispiele um zu zeigen, wie man
  • 2:43 - 2:49
    diesen Leuten dann eben auf die Schliche
    kommen kann. Da fangen wir mal an mit der
  • 2:49 - 2:51
    Definition, da habe ich eine sehr nette
    gefunden.
  • 2:51 - 2:54
    "Fake News sind Falsch- und
    Fehlinformationen, die häufig über
  • 2:54 - 2:59
    elektronische Kanäle vor allem soziale
    Medien verbreitet werden. Sie gehen von
  • 2:59 - 3:04
    Einzelnen oder Gruppen aus, die in eigenem
    oder fremden Auftrag handeln." Joa, ist
  • 3:04 - 3:09
    schön zusammengefasst, aber genau darin
    liegt halt eben auch das Problem. Dieser
  • 3:09 - 3:12
    Begriff 'Fake News' ist erstmal nur ein
    supergroßer Sammelbegriff für viele
  • 3:12 - 3:17
    verschiedene Arten von Fälschungen, von
    Lügen, die man früher doch so ein bisschen
  • 3:17 - 3:21
    präziser bezeichnet hat. Propaganda ist
    auch weiterhin Propaganda, das ist nicht
  • 3:21 - 3:27
    zwingend Fake News. Ne Lüge ist weiterhin
    eine Lüge und ja, deswegen... es ist ganz
  • 3:27 - 3:30
    praktisch, wenn man sich jetzt dem gesamten
    Themengebiet nähern will. Dass man das
  • 3:30 - 3:35
    zusammenfasst, aber so für die wirkliche
    Analyse eigentlich nicht. Denn es enthält
  • 3:35 - 3:39
    halt eben keine Information über die
    Urheber, die Art der Fälschung oder deren
  • 3:39 - 3:44
    Motivation. Wie gesagt, das ist aber eben
    wichtig für diese Bekämpfung und am besten
  • 3:44 - 3:49
    verwendet man da präzisere Begriffe.
    Der Grund, warum das jetzt in den letzten
  • 3:49 - 3:53
    Jahren so hochgekocht ist, dieses ganze
    Thema, ist natürlich, dass die Erstellung
  • 3:53 - 3:57
    und die Verbreitung davon noch nie so
    einfach war wie heute. Also, klar.. wir
  • 3:57 - 4:01
    haben jetzt irgendwie in der westlichen
    Welt - sag ich mal - schon länger
  • 4:01 - 4:05
    irgendwie Internetanschlüsse und
    Smartphones. Jetzt auch seit ungefähr elf
  • 4:05 - 4:10
    Jahren. Aber andere Teile der Welt halt
    eben nicht. Aber weltweit nimmt diese
  • 4:10 - 4:13
    Verbreitung eben zu. Auch in
    Krisengebieten, vor allem wenn ich mir
  • 4:13 - 4:17
    Syrien anschaue. Das ist wahrscheinlich
    der erste Krieg in dem es so viel
  • 4:17 - 4:22
    Bildmaterial gibt, dass man den Überblick
    einfach verliert. Es ist schwierig
  • 4:22 - 4:26
    geworden das einzuordnen, es ist kaum ein
    professioneller Journalist vor Ort. Und...
  • 4:26 - 4:30
    Ein Kollege vom Spiegel hat es schon mal
    bezeichnet als den ersten post-faktischen
  • 4:30 - 4:34
    Krieg. Find ich ist ein sehr schöner
    Begriff dafür, weil egal welche
  • 4:34 - 4:39
    vorgefertigte Meinung man hat, man wird
    mit dieser Meinung halt eben beliefert.
  • 4:39 - 4:43
    Egal ob man jetzt glaubt ob jetzt
    ausländische Mächte dahinter stehen, ob
  • 4:43 - 4:47
    Assad das eigene Volk angreift, ob die
    Rebellen alles Terroristen sind, man wird
  • 4:47 - 4:51
    halt mit dieser Meinung eben in dieser
    Meinung bestärkt. Man wird mit den
  • 4:51 - 4:56
    entsprechenden Fakten beliefert. Diese
    Verbreitung wird natürlich durch Soziale
  • 4:56 - 5:00
    Netzwerke nochmal enorm beschleunigt. Es
    ist halt eben einfach geworden heutzutage
  • 5:00 - 5:04
    brauchst du nur noch ein Handy mit einer
    Kamera, den Twitter-Account dazu und du
  • 5:04 - 5:07
    bist dein eigener Nachrichtenproduzent.
    Und hast im Zweifelsfall sogar noch eine
  • 5:07 - 5:12
    höhere Reichweite als die traditionellen
    Medien. Das gab's halt vorher so nicht und
  • 5:12 - 5:15
    sorgt natürlich dafür, dass diese
    Realitätsfilter durch traditionelle Medien
  • 5:15 - 5:20
    wegfallen. Wer sich mal so ein bisschen
    mit der Gatekeeper-Theorie beschäftigt
  • 5:20 - 5:25
    hat, der weiß, dass die traditionellen
    Medien den Menschen eher nicht sagen,
  • 5:25 - 5:29
    'was' sie zu denken haben oder 'wie' sie zu
    einem Thema zu denken haben, aber das sie
  • 5:29 - 5:32
    zumindest mit beeinflussen, worüber die
    Leute sich überhaupt Gedanken machen und
  • 5:32 - 5:36
    mit was sie sich überhaupt beschäftigen.
    Und dieser Filter ist halt einfach
  • 5:36 - 5:42
    komplett weggebrochen. Ja, und als
    Journalist oder als jemand der in den
  • 5:42 - 5:46
    Medien arbeitet, der hat natürlich eine
    absolute Diversifizierung von
  • 5:46 - 5:52
    Nachrichtenquellen. Gerade im
    Bewegtbildbereich - vor 10, 20, 25 Jahren
  • 5:52 - 5:57
    war Bewegtbild entweder eigen-produziert
    von den eigenen Leuten, es wurde von
  • 5:57 - 6:02
    anderen Sendern eingekauft oder es kam
    über die Agenturen rein. Aber man kannte
  • 6:02 - 6:06
    halt seine Quellen. Das gibt's halt 'so'
    nicht mehr und das sind halt mal grob
  • 6:06 - 6:11
    zusammengefasst die Gründe, warum es jetzt
    halt eben so ein großes Thema ist. Aber
  • 6:11 - 6:14
    wir wollen uns hier mal anschauen, was
    denn überhaupt dahinter steht und was die
  • 6:14 - 6:21
    Motivation der Leute sein kann. Das erste
    ist jetzt 'Unterhaltung'. Kann sein - hab
  • 6:21 - 6:24
    ich gleich in der zweiten Folie auch noch
    was dazu. Das typische Beispiel dafür wäre
  • 6:24 - 6:29
    halt Satire. Es ist auch etwas, was nicht
    wahr ist. Es gibt auch da manipulierte
  • 6:29 - 6:33
    Fotos, manipulierte Videos, aber es sind
    halt eben nicht erstellt worden, um jetzt
  • 6:33 - 6:36
    jemandem zu schaden, sondern der
    hauptsächliche Zweck ist erstmal die
  • 6:36 - 6:41
    Unterhaltung. Dann gibt’s natürlich, wie
    gerade schon erwähnt, 'politischer
  • 6:41 - 6:45
    Einfluss' oder 'Propaganda'. Das kann von
    Staaten gemacht werden, das kann von
  • 6:45 - 6:49
    Privatpersonen, von Parteien gemacht
    werden. Ich erinner' mich da an ein
  • 6:49 - 6:54
    schönes Foto aus dem Iran, vom iranischen
    Militär. Die waren mit ihrem Raketenstart
  • 6:54 - 6:58
    leider nicht ganz so zufrieden. Es sind
    nicht alle abgehoben. Das sah auf dem Foto
  • 6:58 - 7:02
    natürlich blöd aus, also hat man einfach
    Photoshop aufgemacht, zwei Raketen rüber
  • 7:02 - 7:05
    kopiert, die Rauchschweife der Raketen
    eins zu eins rüber kopiert und schon hatte
  • 7:05 - 7:10
    man eine wunderbare
    Propagandainszenierung, nur halt leider
  • 7:10 - 7:16
    falsch. Dann - 'Profit'. Profit steckt
    eigentlich hinter dem was wir so aus dem
  • 7:16 - 7:20
    amerikanischen Wahlkampf unter dieser Fake-
    News-Debatte gehört haben: wirklich
  • 7:20 - 7:25
    gefälschte Nachrichtenseiten mit großen
    reißerischen Schlagzeilen, die meist eher
  • 7:25 - 7:29
    pro-republikanisch und anti-demokratisch
    waren. Ja, dahinter steckte zu einem nicht
  • 7:29 - 7:34
    geringen Teil mazedonische Jugendliche,
    die halt festgestellt haben: damit lässt
  • 7:34 - 7:39
    sich ganz gut Geld machen. Und, ja.. die
    Republikaner sind halt eher auf diese Art
  • 7:39 - 7:43
    der Schlagzeilen angesprungen, deswegen
    gab es halt eher diese Arten von Seiten
  • 7:43 - 7:47
    und weniger pro-demokratische. Das ist
    jetzt in Deutschland noch nicht so das
  • 7:47 - 7:51
    große Problem - verglichen jetzt mit dem
    amerikanischen Wahlkampf. Aber auch hier
  • 7:51 - 7:55
    muss man sich natürlich die Frage stellen:
    Wo zieht man die Grenze? Diese Seiten aus
  • 7:55 - 7:59
    dem amerikanischen Wahlkampf waren jetzt
    vielleicht Extrembeispiel, weil es halt
  • 7:59 - 8:05
    wirklich 100% erfunden und erstunken und
    erlogen war. Aber auch hier.. wie sieht es
  • 8:05 - 8:10
    denn aus mit clickbait? Sachen, die halt
    einfach massiv aufgebauscht werden, die
  • 8:10 - 8:14
    teilweise ja auch von traditionellen
    Medien benutzt werden - aber es steckt
  • 8:14 - 8:20
    halt am Ende nicht das hinter, als was es
    angekündigt war. Und natürlich -
  • 8:20 - 8:25
    'Aufmerksamkeit', gerade online. Wenn
    irgendwo eine Breaking News passiert und
  • 8:25 - 8:30
    auf einmal 20'000 Twitter-Accounts
    irgendwelche Bilder raushauen, die freuen
  • 8:30 - 8:34
    sich wahnsinnig über 500 Retweets, über
    1000 Facebook-Likes. Die machen das
  • 8:34 - 8:38
    einfach, weil sie es dann vielleicht mal
    schaffen irgendwie im Fernsehen zu landen,
  • 8:38 - 8:42
    bei einer Zeitung zitiert zu werden. Denen
    geht es hauptsächlich um Spaß und um
  • 8:42 - 8:48
    Aufmerksamkeit. Ja, die Unterteilung der
    Arten - wie eben schon erwähnt - die
  • 8:48 - 8:52
    'Satire': für jemanden der es versteht,
    jetzt vielleicht nicht unbedingt eine Art
  • 8:52 - 8:57
    der Fälschung. Aber ich hab mir hier eine
    schöne Geschichte rausgesucht von 'The
  • 8:57 - 9:00
    Onion', vielleicht kennt das ja einer von
    euch. Das ist quasi der große
  • 9:00 - 9:07
    amerikanische Bruder vom 'Postillon'. Die
    haben 2012 einen Artikel veröffentlicht,
  • 9:07 - 9:11
    der quasi eins zu eins von einer
    iranischen Nachrichtenagentur übernommen
  • 9:11 - 9:16
    wurde. Und zwar war der Titel: "Gallup-
    Umfrage: Weiße Landbevölkerung bevorzugt
  • 9:16 - 9:21
    Ahmadinejad gegenüber Obama". Laut dem
    Artikel würden "77 Prozent der weißen
  • 9:21 - 9:26
    Landbevölkerung lieber mit Ahmadinejad
    zu einem Baseballspiel oder auf ein Bier
  • 9:26 - 9:30
    gehen". So stand es dann in der iranischen
    Nachrichtenagentur. Für die Leute, die
  • 9:30 - 9:33
    diese Satire jetzt nicht verstanden haben:
    es ist auch erst mal eine Art der
  • 9:33 - 9:39
    Falschinformation. Dann das, was
    wahrscheinlich am häufigsten auftaucht:
  • 9:39 - 9:45
    das ist altes Bildmaterial einfach in
    einen falschen Kontext gesetzt wird. Liegt
  • 9:45 - 9:48
    wahrscheinlich daran, dass es einfach die
    einfachste, die simpelste Art ist, so eine
  • 9:48 - 9:52
    Fälschung zu veröffentlichen. Man muss
    kein Photoshop-Profi sein, man muss nicht
  • 9:52 - 9:55
    irgendetwas komplett inszenieren. Es
    reicht, wenn man Google bedienen kann,
  • 9:55 - 9:59
    sich das erste Bild aus der Bildersuche
    klaut von einem anderen Ereignis und das
  • 9:59 - 10:04
    veröffentlicht. Dann haben wir
    bearbeitetes Bildmaterial, das
  • 10:04 - 10:09
    grundsätzlich authentisch ist, aber wo
    nachgeholfen wurde. Ich erinnere mich da
  • 10:09 - 10:14
    an ein Foto aus dem Libanon, das Beirut
    zeigt mit großen Rauchschwaden nachdem es
  • 10:14 - 10:18
    von Kampfjets bombardiert wurde. Da wurde
    auch nachgeholfen; die Rauchwolken wurden
  • 10:18 - 10:22
    etwas dichter gemacht, etwas dunkler, damit
    ein beklemmenderes Bild entsteht. Sowas
  • 10:22 - 10:28
    hat in Nachrichten auch nichts verloren!
    Und zu guter Letzt natürlich komplett
  • 10:28 - 10:33
    inszenierte Sachen, die keinerlei realen
    Bezug - sag ich mal - haben, wo vielleicht
  • 10:33 - 10:37
    sogar mit Schauspielern gearbeitet wurde.
    Sowas hatten wir in der Vergangenheit auch
  • 10:37 - 10:41
    bei uns zur Prüfung. Da stellte sich dann
    halt heraus, dass das von so einem Viral-
  • 10:41 - 10:45
    Vermarktungsnetzwerk halt eben gefakt
    wurde, die damit natürlich auch eben
  • 10:45 - 10:49
    Profit machen wollen. Das Video ist auch
    viral gegangen, aber war halt komplett
  • 10:49 - 10:55
    inszeniert. So. Wie gerade schon gesagt
    wurde, seit ungefähr zweieinhalb Jahren
  • 10:55 - 11:00
    bin ich in diesem Verifizierungsteam und
    der Anlass dafür war der Amoklauf in
  • 11:00 - 11:05
    München 2016. Da erinnern sich ja
    vielleicht auch noch einige dran. Da
  • 11:05 - 11:10
    konnten wir das erste Mal so wirklich in
    geballter Kraft sehen, was da alles zu
  • 11:10 - 11:13
    einem einzelnen Ereignis an
    Falschmeldungen kursiert. Ich habe hier
  • 11:13 - 11:18
    mal ein paar Sachen mitgebracht. Das hier
    wurde zum Beispiel von einem großen
  • 11:18 - 11:21
    deutschen Sender auch getwittert. Ich hab
    das hier mal so ein bisschen unkenntlich
  • 11:21 - 11:25
    gemacht, die Details. Die schreiben dazu:
    "Ein Student hat ein Foto gepostet."
  • 11:25 - 11:30
    Soweit erst mal nicht falsch, das hat
    bestimmt irgendein Student gemacht. Aber
  • 11:30 - 11:36
    der Amoklauf am Olympia-Einkaufszentrum,
    der ist das nicht. Hier können wir sehen
  • 11:36 - 11:39
    ein Artikel aus der Daily Mail. Ist.. war
    zu diesem Zeitpunkt bereits ein Jahr alt
  • 11:39 - 11:43
    und zeigt eigentlich einen Raubüberfall,
    der schiefgegangen ist auf ein
  • 11:43 - 11:47
    Einkaufszentrum in Südafrika. Hätte man
    jetzt mit so einer einfachen Bilder-
  • 11:47 - 11:51
    Rückwärtssuche, die ja am Anfang auch
    erwähnt wurde, rausfinden können. Es ist
  • 11:51 - 11:56
    halt schade, weil das einfach vermeidbar
    ist. Dann gab's auch den seriösen Twitter-
  • 11:56 - 12:00
    Account "TRUNEWS TM". Entferntes
    Gelächter hörbar
  • 12:00 - 12:05
    'Your Trusted News Source', die in Frage
    gestellt haben, ob das Ganze denn
  • 12:05 - 12:08
    überhaupt stattgefunden hat oder ob das
    nicht auch inszeniert ist oder vielleicht
  • 12:08 - 12:14
    eine Übung ist. "You be the judge." - Yes,
    I am. Es sind tatsächlich Darsteller und
  • 12:14 - 12:18
    zwar in Manchester. Dort gab's eine Anti-
    Terror-Einheiten für die Polizei. Auch
  • 12:18 - 12:22
    hier, wie bei dem anderen einfach ein
    altes Bild im neuen Kontext gesetzt und -
  • 12:22 - 12:28
    damit halt gelogen. Hier haben wir so ein
    schönes Beispiel für das 'manipulierte'.
  • 12:28 - 12:33
    Das ist tatsächlich das Dach vom Olympia-
    Einkaufszentrum, das Parkdeck. Aber die
  • 12:33 - 12:36
    Person da drin - vielleicht kann das der
    eine oder andere schon erkennen oder
  • 12:36 - 12:41
    erkennt ihn hier. Es ist - er ist quasi
    verantwortlich für jede Massenschießerei,
  • 12:41 - 12:45
    für jeden Anschlag der letzten Jahre. Es
    ist einfach zum Meme geworden ihm das
  • 12:45 - 12:50
    anzuhängen. Das ist ein Sam Hyde, ein
    eigentlich amerikanischer YouTube-
  • 12:50 - 12:55
    Comedian, der nur dafür berühmt wurde halt
    eben mit solchen Ereignissen in Verbindung
  • 12:55 - 13:03
    gebracht zu werden. Ja, alles furchtbar.
    Aber, was tun? Am besten glaubt man erst
  • 13:03 - 13:07
    'mal gar nichts. Und vor allem muss man
    sich zurückhalten, wenn Geschichten oder
  • 13:07 - 13:11
    Bilder zu gut sind, um wahr zu sein. Da
    muss man auch wirklich die Distanz
  • 13:11 - 13:17
    bewahren und.. ja. Weil, wenn es zu gut
    ist um wahr zu sein und gerade kurz nach
  • 13:17 - 13:20
    so einem Ereignis auftaucht, dann besteht
    zumindest eine gute Chance, dass es
  • 13:20 - 13:26
    vielleicht nicht ganz so wahr ist, wie es
    uns verkauft wird. Gesunder
  • 13:26 - 13:31
    Menschenverstand ist immer eine super
    Sache und achten auf: Details, Details,
  • 13:31 - 13:36
    Details. Das können zum Beispiel Sachen im
    Hintergrund sein. Welche Kennzeichen sind
  • 13:36 - 13:41
    zu sehen? Oder gibt es dort Werbetafeln?
    Das hat uns zum Beispiel weitergeholfen
  • 13:41 - 13:46
    bei dem Video aus Chemnitz, wo ja
    behauptet wurde es hätte keine Hetzjagden
  • 13:46 - 13:50
    gegeben. Andere haben gesagt, die Szenen
    sind eigentlich aus dem letzten Jahr. In
  • 13:50 - 13:53
    dem Video konnte man im Hintergrund eine
    Werbetafel sehen und aus anderen
  • 13:53 - 13:57
    Perspektiven konnte man auch sehen,
    welches Plakat da drauf war. Da haben sie
  • 13:57 - 14:00
    nämlich für ein Theaterstück geworben, das
    erst Anfang dieses Jahres angelaufen ist.
  • 14:00 - 14:05
    Also kann es zumindest nicht aus den
    letzten Jahren gewesen sein. Und.. da
  • 14:05 - 14:10
    empfiehlt es sich einfach wirklich nur an
    dieses Video ranzugehen und zu gucken: was
  • 14:10 - 14:14
    sehe ich? Also nicht: was möchten die mir
    dazu sagen? Was soll es darstellen,
  • 14:14 - 14:18
    sondern: was sehe ich? Und, wenn man das
    dann übereinander legt mit dem, was es
  • 14:18 - 14:22
    halt eben versucht zu sein, oder die
    Details vor Ort vielleicht schon kennt,
  • 14:22 - 14:26
    dann erkennt man da auch so ein paar
    Unstimmigkeiten. Als nächstes Video habe
  • 14:26 - 14:31
    ich hier eins mitgebracht, das aus
    Thailand stammen soll. Vielleicht erinnern
  • 14:31 - 14:35
    sich noch ein paar daran: die jugendliche
    Fußball-Mannschaft, die wochenlang in der
  • 14:35 - 14:38
    Höhle eingeschlossen war, dann von
    Tauchern rausgebracht werden musste - was
  • 14:38 - 14:41
    ja zum Glück auch alles gut geklappt hat.
    Auch da gab es dann während der
  • 14:41 - 14:49
    Bergungsaktion ein Video, das wir uns mal
    angucken. Sehen halt schon Engstellen;
  • 14:49 - 14:58
    Taucher, die eine Trage entlang schieben.
    Ein Taucher, der den Weg frei räumt. Aber
  • 14:58 - 15:05
    so runde Kieselsteine auf dem Grund von
    einer Höhle, die unregelmäßig verläuft und
  • 15:05 - 15:09
    eigentlich im tiefsten Inneren eines
    Berges ist. Da liegen keine runden
  • 15:09 - 15:12
    Kieselsteine, die sich im Laufe der Zeit
    in einem Flussbett oder wo auch immer rund
  • 15:12 - 15:15
    geschliffen haben. Das kann also schon mal
    nicht sein. Und eigentlich zeigt es auch
  • 15:15 - 15:20
    eine Übung aus der Schweiz von Höhlen-
    Rettungstaucher; wie dann im Nachhinein
  • 15:20 - 15:24
    festgestellt wurde. Aber dieses Video
    hatte auch - glaube ich - über 10'000
  • 15:24 - 15:31
    Views. Das weiß ich gerade nicht mehr.
    Wenn man sich dann sowas anguckt, kann man
  • 15:31 - 15:35
    z.B. überprüfen, ob es markante Ortsmarken
    gibt. Gibt es besonders herausstechende
  • 15:35 - 15:41
    Gebäude? Gibt es Straßenzüge, die
    ungewöhnlich aussehen? Denkmäler oder auch
  • 15:41 - 15:47
    Felsformationen im Hintergrund? Stimmt das
    Wetter mit der Aufnahme überein? Wenn ich
  • 15:47 - 15:51
    ein Video sehe, das im Winter spielen soll
    und die Menschen rennen da alle nur in
  • 15:51 - 15:54
    T-Shirts rum - ist das schon mal
    vielleicht ein Indiz dafür, dass das alles
  • 15:54 - 15:58
    nicht ganz so hundertprozentig stimmt.
    Aber da kann man ja, zum Glück, irgendwie
  • 15:58 - 16:02
    sich auch die Wettervorhersagen von allen
    Orten angucken. Man kann sich historische
  • 16:02 - 16:06
    Wetteraufzeichnungen angucken; war der
    Himmel an dem Tag bedeckt? War es sonnig?
  • 16:06 - 16:10
    Wie warm war es? Hat es geregnet? Das kann
    man auch bei - wie gesagt - historischen
  • 16:10 - 16:15
    Aufnahmen machen. Die Kennzeichen,
    Straßenschilder und Werbetafeln, die ich
  • 16:15 - 16:20
    eben erwähnt habe. Und man kann auch
    überprüfen, ob der Schattenwurf denn
  • 16:20 - 16:25
    überhaupt zur angegebenen Uhrzeit passt.
    Da habe ich gleich nochmal - ganz am Ende,
  • 16:25 - 16:28
    stelle ich ein paar Tools vor, die einem
    das so ein bisschen erleichtern. Ich habe
  • 16:28 - 16:32
    auch noch in der Beschreibung, im
    Fahrplan, ist eine Linkliste drin, kann
  • 16:32 - 16:34
    ich dann auch nur empfehlen. Wer das jetzt
    - wem das jetzt ein bisschen zu schnell
  • 16:34 - 16:38
    geht, sich das alles noch mal anzugucken.
    Die Tools, die ich da vorstelle, die sind
  • 16:38 - 16:42
    auch alle darin verlinkt, inklusive noch
    einem relativ dicken 'Verifikation
  • 16:42 - 16:48
    Handbook'. Es lohnt sich auf jeden Fall
    mal durchzulesen. Der nächste Schritt wäre
  • 16:48 - 16:53
    dann, die Primärquelle des Bildmaterials
    zu finden. Gerade bei so einem Ereignis,
  • 16:53 - 16:56
    wie einem Amoklauf oder auch
    Naturkatastrophen oder allen anderen
  • 16:56 - 17:01
    schönen Dingen, taucht ein Video auf und
    Minuten später ist es von Dutzenden
  • 17:01 - 17:05
    Accounts halt eben noch einmal wieder
    runtergeladen, wieder hochgeleitet worden.
  • 17:05 - 17:09
    Manchmal noch irgendwie an Bekannte bei
    WhatsApp verschickt oder wo auch immer.
  • 17:09 - 17:13
    Und wichtig ist es halt eben, die
    Primärquelle des Bildmaterials zu finden,
  • 17:13 - 17:18
    um eventuell Rückschlüsse ziehen zu
    können. Wir hatten eins, dass ein Erdbeben
  • 17:18 - 17:22
    auf einer griechischen Insel zeigen
    sollte. Dort haben wir uns dann den
  • 17:22 - 17:25
    original Uploader angeguckt und haben
    gesehen, dass er zum Beispiel auf seinem
  • 17:25 - 17:30
    Instagram-Account Tage vorher Videos und
    Fotos von diesem Urlaubsort gepostet hat.
  • 17:30 - 17:34
    Das wir halt wissen: er ist wirklich da
    vor Ort gewesen und hat diese Videos und
  • 17:34 - 17:39
    Bilder gemacht. Rückwärtssuche, aber nicht
    nur bei Google, sondern über mehrere
  • 17:39 - 17:43
    Plattformen. Auch das eine Tool, dass
    ich am Ende vorstelle, hat diese
  • 17:43 - 17:46
    Möglichkeit, direkt über sämtliche
    Suchmaschinen eine Rückwärtssuche zu
  • 17:46 - 17:52
    machen. Der Personencheck - wie gesagt -
    und die Prüfung, wo die Szene
  • 17:52 - 17:56
    stattgefunden hat. Das kann auch hilfreich
    sein, wenn man jetzt vielleicht die
  • 17:56 - 18:01
    Primärquelle nicht unbedingt findet. Aber
    man weiß ja zum Beispiel: wie oft hat es
  • 18:01 - 18:04
    jetzt in München am Olympia-
    Einkaufszentrum vorher eine Explosion
  • 18:04 - 18:10
    gegeben oder woanders. Da kann man
    zumindest die Sachen etwas eingrenzen. Und
  • 18:10 - 18:16
    es hilft lokal zu denken. Gibt es
    irgendwelche lokalen Besonderheiten vor
  • 18:16 - 18:20
    Ort? Wie sehen vielleicht bei Videos von
    der Armee, von der Polizei, von der
  • 18:20 - 18:24
    Feuerwehr die Uniformen aus? Die
    Abzeichen, die sie auf ihren Schultern und
  • 18:24 - 18:29
    auf ihren Ärmeln haben? Und die Kfz-
    Kennzeichen vor Ort. Gibt es lokale
  • 18:29 - 18:34
    Experten? Das kann auch hilfreich sein.
    Vielleicht, wenn es in Deutschland spielt,
  • 18:34 - 18:37
    in irgendeinem kleinen Ort, wo sich jetzt
    niemand großartig auskennt, gibt es aber
  • 18:37 - 18:41
    vielleicht einen Heimatforscher, der
    irgendwann mal erwähnt wurde oder so einen
  • 18:41 - 18:45
    Heimatforscherungsverein, einen
    Kulturverein, die einem eventuell auch
  • 18:45 - 18:49
    historisches Bildmaterial zur Verfügung
    stellen können. Und - die bei uns
  • 18:49 - 18:53
    bekannten Seiten und Tools sind nicht
    immer die besten. Damit meine ich jetzt
  • 18:53 - 18:58
    vor allem Google, Google Maps und andere
    Sachen - und warum können wir im nächsten
  • 18:58 - 19:04
    Video sehen. Das zeigt die Explosion vor
    der US-Botschaft in Peking in diesem Jahr.
  • 19:04 - 19:11
    Ist auch auf Twitter gepostet worden. Viel
    erkennen kann man da nicht, man sieht ein
  • 19:11 - 19:16
    bisschen die Häuser, ein Straßenschild und
    ein Geländer. Eben konnte man noch
  • 19:16 - 19:19
    Stromleitungen sehen, die über die Straße
    verlegt wurden. Und das soll die Szenerie
  • 19:19 - 19:25
    eben vor der US-Botschaft sein. Da habe
    ich erst mal geguckt, natürlich auf Google
  • 19:25 - 19:29
    Maps ist diese Botschaft. Gut. Schön. Dann
    gucken wir uns einmal das Satellitenbild
  • 19:29 - 19:36
    an. Ouh! Das passt so nicht ganz. Straßen,
    die irgendwie durch Häuserblocks gehen,
  • 19:36 - 19:39
    die durch Seen durchgehen, durch Parks.
    Und ich war mir jetzt erst nicht sicher,
  • 19:39 - 19:42
    ob die Chinesen so schnell bauen, dass
    Google mit der Aktualisierung nicht
  • 19:42 - 19:47
    hinterher kommt. Das gleiche Problem hatte
    auch Bing. Am Ende hat sich halt nur
  • 19:47 - 19:51
    herausgestellt: es ist halt ein Offset von
    mehreren hundert Metern auf beiden Achsen
  • 19:51 - 19:56
    und somit nicht wirklich zu gebrauchen.
    Und Streetview in China bei Google kann
  • 19:56 - 20:02
    man sowieso vergessen. Aber es gibt hier
    noch ein chinesisches Google: Baidu. Die
  • 20:02 - 20:05
    haben dieses komische Offset nicht drin.
    Die haben die deutlich schöneren
  • 20:05 - 20:10
    Satellitenbilder und sie haben auch ein
    Street View. Und hier kann man eben sehen,
  • 20:10 - 20:14
    das Schild, das da im Video zu erkennen
    war. Das Haus dahinten, mit der Spitze,
  • 20:14 - 20:19
    die übers Dach etwas hinausragt. Das
    Geländer, die Stromleitung. Also kann man
  • 20:19 - 20:22
    sich ziemlich sicher sein, dass es
    tatsächlich dort aufgenommen wurde, wo es
  • 20:22 - 20:26
    eben vorgab, aufgenommen worden zu sein.
    Und, das meine ich halt eben: nicht immer
  • 20:26 - 20:31
    auf das Erstbeste verlassen, nicht immer
    nur irgendwie eurozentristisch dran gehen
  • 20:31 - 20:34
    und denken "Bei uns hat doch Google alles".
    Ne! Es gibt Teile in der Welt, da sind
  • 20:34 - 20:44
    andere Anbieter einfach besser. Dieses
    Video zeigt den Tsunami auf Sulawesi,
  • 20:44 - 20:49
    einen kleinen Ausschnitt davon habe ich
    einmal hier. Der vor einigen Monaten. Hier
  • 20:49 - 20:56
    sehen wir im Hintergrund eine Moschee, die
    schon ziemlich mitgenommen aussieht. Eine
  • 20:56 - 20:59
    bunte Wand und im Teil, den ich
    rausgeschnitten hab, weil er sonst zu lang
  • 20:59 - 21:03
    gewesen wäre, kann man erkennen, dass es
    halt in einem runden Raum aufgenommen
  • 21:03 - 21:08
    wurde. Man kann halt im Hintergrund die
    Biegung der Wand erkennen. Nur wo genau -
  • 21:08 - 21:13
    das stand halt eben nicht dran. Und auch
    auf Sulawesi ist die indonesische Küste
  • 21:13 - 21:17
    sehr lang und da mühsam nur mit Google
    Maps die Küste abzusuchen, wo eine Moschee
  • 21:17 - 21:23
    eventuell ein ähnlich farbiges Dach hat.
    Ja - das dauert sehr lange. Aber zum Glück
  • 21:23 - 21:29
    gibt's auch Programme wie Wikimapia. Die
    haben sich als Motto gesetzt, dass sie
  • 21:29 - 21:33
    alles kategorisieren wollen. Und so kann
    man sich den ungefähren Küstenabschnitt
  • 21:33 - 21:38
    raussuchen und eine Kategorie auswählen -
    in dem Fall halt: Moschee. Sie haben aber
  • 21:38 - 21:44
    auch Kategorien wie: Kirchen, Denkmäler,
    Schulen, Regierungsgebäude. Was auch sehr
  • 21:44 - 21:49
    hilfreich sein kann - das hatten wir
    einmal bei einem Video aus Syrien. Da war
  • 21:49 - 21:53
    im Video-Beschreibungstext die Angabe,
    dass es angeblich an - zwischen einer
  • 21:53 - 21:57
    Schule und einem Regierungsgebäude
    aufgenommen worden sein soll. Hier kann
  • 21:57 - 22:01
    man sich beide Layer anzeigen und gucken,
    ob es tatsächlich stimmt. Und es ist
  • 22:01 - 22:05
    deutlich angenehmer, als die ganze Küste
    nur mit Google Maps abzufahren und auf
  • 22:05 - 22:12
    Hausdächerfarben zu achten. Ja. Warum
    sollte das jetzt eigentlich jeder können?
  • 22:12 - 22:18
    Man will Gegenöffentlichkeit schaffen.
    Diese Videos verbreiten sich so
  • 22:18 - 22:23
    superschnell und jeder der kann, sollte -
    und die Möglichkeit hat - der sollte die
  • 22:23 - 22:27
    Leute aufklären und halt sagen, dass es
    eine Fälschung ist. Das Ganze waren jetzt
  • 22:27 - 22:34
    halt noch vergleichsweise harmlose Sachen.
    Aber auch da gilt: die Verbreitung sollte
  • 22:34 - 22:40
    möglichst eingedämmt werden. Denn, diese
    Fakes können eben auch falsche Narrative
  • 22:40 - 22:44
    bilden. Also klar, ob jetzt der Tsunami
    unbedingt 'da' ist, das ist jetzt
  • 22:44 - 22:49
    vielleicht für die öffentliche Debatte
    nicht so wirklich wichtig. Aber wir hatten
  • 22:49 - 22:52
    auch Bilder vom Olympia-Einkaufszentrum da
    in München, die ich jetzt hier nicht
  • 22:52 - 22:57
    zeigen möchte. Die einfach komplett andere
    Tatorte dargestellt haben. Und es gab
  • 22:57 - 23:03
    Videos und Fotos von einem vermeintlichen
    Täter, der nicht der Täter war. So schnell
  • 23:03 - 23:07
    wie die sich im Netz verteilen, kostet das
    im Zweifelsfall den falschen Menschen das
  • 23:07 - 23:10
    Leben, wenn er mit seinem Leben nicht mehr
    froh wird, wenn dieses Bild nicht mehr aus
  • 23:10 - 23:15
    dem Netz verschwindet und er ständig als
    der Täter gehalten wird. Und.. im
  • 23:15 - 23:18
    Zweifelsfall, als worst-case, kann das
    natürlich auch gesellschaftliche Debatten
  • 23:18 - 23:23
    beeinflussen. Wenn halt versucht wird,
    einem einen falschen Täter unterzuschieben
  • 23:23 - 23:27
    oder ein besonders grausames Bild, weil es
    klickt sich besser, als vermeintlichen
  • 23:27 - 23:33
    Tatort zu präsentieren. So, wie macht man
    das jetzt am besten, welche Tools gibt's
  • 23:33 - 23:38
    denn da. Hab ich hier eine kleine
    Übersicht - die Links stehen immer unten
  • 23:38 - 23:43
    dran. Sehr praktisch bei Videos zum
    Beispiel aus Syrien ist die unten genannte
  • 23:43 - 23:48
    Website. Fast sämtliche Rebellengruppen
    veröffentlichen ihre Videos immer mit
  • 23:48 - 23:52
    ihren Logos im Bild. Ich kann kein
    Arabisch, viele andere Leute können kein
  • 23:52 - 23:56
    Arabisch und mit den Logos kann ich,
    ehrlich gesagt, nichts anfangen. Ein paar
  • 23:56 - 23:58
    hat man mal gesehen, aber welche Art von
    Gruppe da jetzt wirklich hinter steht -
  • 23:58 - 24:03
    keine Ahnung. Bei der Webseite kann man
    einfach seine Bilder oder seine Videos
  • 24:03 - 24:07
    hochladen oder den Link dahin schicken,
    sie extrahieren dir das Logo, sagen dir zu
  • 24:07 - 24:10
    welcher Gruppe das gehört und bieten dir
    praktischerweise direkt noch den passenden
  • 24:10 - 24:15
    Wikipedia-Artikel dazu an. Das machen sie
    nicht nur für diese Gruppen, es sind auch
  • 24:15 - 24:18
    noch die verschiedensten Logos von
    Fernsehsendern aus der ganzen Welt
  • 24:18 - 24:21
    hinterlegt. Wenn man jetzt also nicht
    weiß, welcher Fernsehsender aus welchem
  • 24:21 - 24:23
    Land so ein Bild eventuell immer
    ausgestrahlt hat und wo man da
  • 24:23 - 24:27
    weiterforschen will, ist das auf jeden
    Fall ein sehr praktischer und spannender
  • 24:27 - 24:36
    Ansatz. Die Details im Hintergrund. Wer
    weiß denn, wie afghanische Nummernschilder
  • 24:36 - 24:41
    1950 ausgesehen haben? Diese Website hat
    auch zu sämtlichen afrikanischen Ländern
  • 24:41 - 24:45
    die Nummernschilder und zwar die
    historischen, die aktuellen und alles
  • 24:45 - 24:50
    irgendwie dazwischen. Wenn man jetzt also
    weiß, dass ein - oder vermutet - dass ein
  • 24:50 - 24:53
    Video an einem bestimmten Ort aufgenommen
    wurde und kann so etwas im Hintergrund
  • 24:53 - 24:57
    irgendwie identifizieren, kann man dort
    einfach schauen, ob die Kennzeichen dort
  • 24:57 - 25:04
    wirklich so aussehen. Den Sonnenstand zum
    Beispiel kann man mit diesem Tool hier
  • 25:04 - 25:09
    ganz gut berechnen. Man gibt einfach einen
    Ort ein, ein Datum und halt eben eine
  • 25:09 - 25:14
    entsprechende Uhrzeit. Bei dem Ereignis,
    von dem man weiß, wann es stattgefunden
  • 25:14 - 25:18
    hat, hat man natürlich auch die Uhrzeit.
    Wenn da jetzt bestimmte Schatten im Bild
  • 25:18 - 25:22
    zu sehen sind, kann man zumindest
    überprüfen ob es halbwegs hinkommt. Sowohl
  • 25:22 - 25:26
    von der Länge - hier wird ja angezeigt: an
    diesem Ort, zu der Uhrzeit, in der
  • 25:26 - 25:31
    Jahreszeit, wirft ein Objekt mit einem
    Meter Größe einen Schatten von 1,71m. Kann
  • 25:31 - 25:35
    man ungefähr überprüfen, wenn man
    Anhaltspunkte hat. Man kann auf jeden Fall
  • 25:35 - 25:37
    gucken, ob die Richtung des Schattens
    stimmt und ob es wirklich um diese Uhrzeit
  • 25:37 - 25:45
    aufgenommen wurde. Ja, auch gut
    abgeschirmte Facebook-Accounts bieten doch
  • 25:45 - 25:49
    irgendwie so ein bisschen mehr Hinweise,
    als Facebook dich ich jetzt vielleicht
  • 25:49 - 25:53
    glauben lassen will. Auch wenn du dir das
    Profil aus der Sicht eines fremden
  • 25:53 - 25:58
    angucken kannst oder von dem eines
    Freundes. Was nämlich nicht privat ist,
  • 25:58 - 26:02
    sondern was öffentlich ist, ist das was du
    gelikt hast, was du kommentiert hast.
  • 26:02 - 26:05
    Weil, das ist ja nicht nur mit deinem
    Account verknüpft, sondern eben auch mit
  • 26:05 - 26:08
    einem Account von.. der vielleicht offen
    ist oder mit einer Seite. Da steht ja dein
  • 26:08 - 26:12
    Name und dein Kommentar öffentlich
    einsehbar für jeden. Und.. gewisse
  • 26:12 - 26:18
    Websites können halt eben diese Sachen für
    dich herausfinden. Du kannst halt gucken
  • 26:18 - 26:22
    nach Posts, hier: 'Photos tagged with Mark
    Zuckerberg'. Du kannst gucken, welche ihm
  • 26:22 - 26:26
    gefallen, wo er kommentiert hat. Du kannst
    gucken, welche Orte jemanden.. jemand
  • 26:26 - 26:30
    besucht hat oder mit jemandem zusammen
    besucht hat. Kannst gucken welche
  • 26:30 - 26:34
    Beziehungen zwischen den Leuten halt eben
    bestehen oder wann, welche Personen die
  • 26:34 - 26:40
    andere Person in einem Beitrag erwähnt
    hat. Das sind halt Sachen, die siehst du
  • 26:40 - 26:43
    nicht bei Facebook in der normalen
    Ansicht, selbst wenn du deinen Account
  • 26:43 - 26:48
    komplett dicht gemacht hast. Und für
    englischsprachige Accounts gibt's diese
  • 26:48 - 26:53
    Suchfunktion bereits, aber da muss man
    sich mit der nicht so logischen, nicht so
  • 26:53 - 27:00
    einfachen -ja, wie soll ich's nennen. Nicht
    so einfachen Suche einfach
  • 27:00 - 27:06
    auseinandersetzen. Zum Beispiel kann man
    auch suchen nach 'Users, who liked', aber
  • 27:06 - 27:09
    ist es dann wirklich Users oder ist es
    People. Bei dem einen gibt er dir halt
  • 27:09 - 27:12
    keine Fehlermeldung, sondern nur keine
    Ergebnisse; bei dem anderen gibt er dir
  • 27:12 - 27:16
    die Ergebnisse. Und sich das alles
    auswendig zu merken, das alles zu behalten
  • 27:16 - 27:20
    ist halt doch ein bisschen kompliziert,
    deswegen gibt's da gute Seiten, die das
  • 27:20 - 27:26
    für einen übernehmen. Kommentiert Das
    war zurück. So. Wieder ans Publikum Ein
  • 27:26 - 27:31
    Plugin, das ich auch noch jedem ans Herz
    legen möchte, ist InVid. Bietet viele
  • 27:31 - 27:37
    Funktionen, zum Beispiel das Auslesen von
    Keyframes aus YouTube-Videos, die Anzeige
  • 27:37 - 27:44
    des Originalload-Datums. Weil, Upload-
    Daten und Zeitzonen sind nie schön. Bei
  • 27:44 - 27:47
    ganz vielen Plattformen gibt es
    Unterschiede: bist du eingeloggt, bist du
  • 27:47 - 27:50
    nicht eingeloggt, beim einen ist es
    irgendwie UTC, die anderen machen dir dann
  • 27:50 - 27:53
    Pacific Time, die anderen machen deine
    lokale Zeitzone, wenn du eingeloggt bist.
  • 27:53 - 27:57
    Weil es halt auch niemals die Zeitzone des
    Uploaders. Hier gibt es halt irgendwie
  • 27:57 - 28:02
    einen Standard, der eben vergleichbar ist.
    Das bietet die Möglichkeit 'Magnifier' -
  • 28:02 - 28:06
    Lupe. Gut, das kann man jetzt im
    Zweifelsfall auch noch selbst auf dem
  • 28:06 - 28:10
    Rechner machen. Bietet hier die
    Möglichkeit über alle Plattformen hinweg
  • 28:10 - 28:14
    zu suchen. Eine Bild-Rückwärtssuche zu
    machen und mit einem Klick auch direkt die
  • 28:14 - 28:18
    gespiegelte Variante davon zu suchen.
    Manche Leute denken, ja sie sind schlau
  • 28:18 - 28:20
    und spiegeln einfach das Bild und
    schneiden es ein bisschen zu, dann wird es
  • 28:20 - 28:24
    in der Rückwärtssuche nämlich nicht mehr
    gefunden. Hier ist das halt alles sehr
  • 28:24 - 28:29
    schön in einem - wie Sie selbst nennen -
    Schweizer Taschenmesser für diese Arbeit
  • 28:29 - 28:35
    zusammengefasst. So, ich hoffe ich konnte
    zeigen, dass Verifizierung jetzt nicht so
  • 28:35 - 28:41
    großartig die Raketenwissenschaft ist.
    Neugier, Geduld und Training sind aber
  • 28:41 - 28:46
    schon nötig. Aber es gibt halt eben super
    viele Programme, Websites und Plugins, die
  • 28:46 - 28:49
    einen dabei unterstützen. Es gibt gute
    Literatur dazu, es ist gut dokumentiert.
  • 28:49 - 28:54
    Es würde mich also freuen, wenn ich hier
    den einen oder anderen vielleicht so ein
  • 28:54 - 28:57
    bisschen.. oder in dem einen oder anderen
    so ein bisschen das Interesse daran
  • 28:57 - 29:04
    geweckt habe. Wer Übung braucht, dem kann
    ich nur empfehlen: folgt '@quiztime'. Das
  • 29:04 - 29:08
    ist ein Account von - einmal Journalisten
    der Deutschen Welle, von Journalisten vom
  • 29:08 - 29:14
    NDR und von anderen Medien, die das halt
    in ihrer Freizeit machen. Dort regelmäßig
  • 29:14 - 29:17
    Quize und Rätsel posten, wo man halt
    selber irgendwie ein bisschen aktiv werden
  • 29:17 - 29:20
    muss, sich selber nochmal auf den neuesten
    Stand bringen kann, was für Programme es
  • 29:20 - 29:24
    gibt. Welche Schritte muss ich machen, um
    zum Ergebnis zu kommen. Und das ist
  • 29:24 - 29:30
    eigentlich immer ein ganz netter
    Zeitvertreib für zwischendurch. So, 26
  • 29:30 - 29:34
    Minuten sehe ich hier, dann bin ich auch
    schon fast am Ende. Wenn es denn noch
  • 29:34 - 29:35
    Fragen gibt.
  • 29:35 - 29:37
    Applaus
  • 29:37 - 29:50
    Engel: Genau. Wir haben tatsächlich noch
    ungefähr zehn Minuten Zeit für Fragen. Und
  • 29:50 - 29:53
    wenn ihr Fragen habt, dann könnt ihr euch
    an die Saal-Mikrofone stellen und wir
  • 29:53 - 29:55
    beginnen traditionell mit einer Frage aus
    dem Internet.
  • 29:55 - 29:58
    Sprecher (liest Frage aus dem Internet
    vor): Gibt es bestimmte Quellen, wo du aus
  • 29:58 - 30:04
    deiner Erfahrung sagst: da muss man mit
    Nachrichten vorsichtig sein? Und.. Würdest
  • 30:04 - 30:07
    du die nennen?
    Robert: Bestimmte Quellen?
  • 30:07 - 30:11
    Sprecher: Also Nachrichtenseiten oder so.
    Robert: Atmet geräuschvoll aus
  • 30:11 - 30:17
    Schwierig. Ich würde jetzt einfach mal
    generell sagen: das Internet. Ich hab ja
  • 30:17 - 30:22
    gesagt: im Grunde muss man halt eigentlich
    immer kritisch sein, weil.. Was wir bei
  • 30:22 - 30:25
    uns eben auch gesagt haben: nur weil jetzt
    ein anderes Medium - und sei es auch
  • 30:25 - 30:29
    irgendwie ein Medium, das man selbst für
    vertrauenswürdig hält - darüber berichtet,
  • 30:29 - 30:32
    heißt es nicht, dass die Leute nicht auch
    auf die gleiche Sache reingefallen sein
  • 30:32 - 30:36
    können. Und sich einfach nur auf andere
    Medien zu berufen ist da halt einfach
  • 30:36 - 30:39
    nicht genug. Weil, jeder macht Fehler,
    warum sollte es denen nicht auch
  • 30:39 - 30:43
    passieren. Und das einfach nur zu
    übernehmen, das ist zumindest bei uns -
  • 30:43 - 30:46
    und ich kenn's auch von anderen
    Redaktionen, von anderen Sendern, von
  • 30:46 - 30:50
    anderen Medien so, dass sie sagen: Das ist
    jetzt kein Argument auf der Pro-Seite, das
  • 30:50 - 30:54
    es schon mal woanders erwähnt wurde.
    Engel: So, wenn wir jetzt mit den Fragen
  • 30:54 - 30:57
    aus dem Saal weitermachen, dann denkt
    bitte dran, dass ihr immer ganz nah an die
  • 30:57 - 31:00
    Mikrofone ran geht und da direkt rein
    sprecht. Die beißen euch nicht in die
  • 31:00 - 31:05
    Nase. Die erste Frage kommt vom Mikrofon
    Nr. 7. Ganz nah ran bitte.
  • 31:05 - 31:08
    Sprecher: Es gibt ja einen Wettstreit
    zwischen dem Verbreiten von
  • 31:08 - 31:11
    Fehlinformationen und dem Gegen-
    Recherchieren und man läuft da ins
  • 31:11 - 31:16
    Skalierungsproblem. Es ist im Zweifel
    aufwendiger Falschheit zu belegen, als die
  • 31:16 - 31:18
    Lüge einfach weiter zu verbreiten. Glaubst
    du, dass ist eine ausreichende
  • 31:18 - 31:24
    Gegenstrategie?
    Robert: Atmet geräuschvoll aus Naja, ich
  • 31:24 - 31:28
    sag mal selber als Journalist bist du ja
    jetzt erst mal ein Filter. Dein Anspruch
  • 31:28 - 31:34
    ist ja nicht, das du jetzt selbst jede
    einzelne Lüge im Internet widerlegst. Aber
  • 31:34 - 31:37
    wenn du dich mit einem bestimmten Thema
    beschäftigst und dafür zum Beispiel Bilder
  • 31:37 - 31:42
    suchst und Bildmaterial brauchst, dann
    kannst du natürlich auswählen, welches du
  • 31:42 - 31:45
    nimmst. Und so erfolgt halt die
    Verifizierung. Ist ja jetzt nicht so, dass
  • 31:45 - 31:49
    dein Anspruch quasi ist, jede einzelne
    Lüge im Internet widerlegen zu können.
  • 31:49 - 31:51
    Hat, glaube ich, niemand die Kapazitäten
    für
  • 31:51 - 31:55
    Engel: Mikrofon Nr. 5 bitte.
    Sprecher: (OffMikro Für) wie
  • 31:55 - 31:59
    vertrauenswürdig hältst du deine
    Verifizierungstools? Und benutzt du immer
  • 31:59 - 32:04
    mehrere, um es zu korrelieren?
    Robert: Vertrauenswürdigkeit - würde ich
  • 32:04 - 32:08
    sagen, im Rahmen von dem was sie können,
    sind sie gut. Bei einigen Sachen ist halt
  • 32:08 - 32:14
    auch so ein bisschen Interpretation und,
    ja, Erfahrung nötig. Oftmals hilft aber
  • 32:14 - 32:18
    eben auch der gesunde Menschenverstand.
    Wovon ich jetzt zum Beispiel nicht so viel
  • 32:18 - 32:24
    halte, sind diese Foto-Forensics-Tools,
    die dir mit der ELA Analyse zeigen, ob
  • 32:24 - 32:27
    jetzt angeb-.. oder zeigen 'wollen', ob
    dir da angeblich was rein geshoppt wurde
  • 32:27 - 32:31
    oder nicht. Weil, das ist halt nicht
    wissenschaftlich, da gibt es keine
  • 32:31 - 32:35
    wissenschaftliche Begründung. Du siehst
    dann halt dieses Foto, mit dieser drüber
  • 32:35 - 32:38
    gelegten Analyse. Aber es ist deine
    Interpretation: ist das jetzt dieses
  • 32:38 - 32:42
    Muster, das sich da abzeichnet; ist das
    eine Fälschung oder ist es nicht. Das
  • 32:42 - 32:45
    taugt eigentlich noch nicht mal als
    Anhaltspunkt, weil selbst bei besonders
  • 32:45 - 32:49
    starken Kontrasten oder ungünstigen
    Lichtverhältnissen es eine Fälschung zeigt
  • 32:49 - 32:53
    und wenn halt eine Fälschung gut gemacht
    ist, es das eigentlich nicht anzeigt.
  • 32:53 - 32:56
    Also, den anderen Programmen, wo du halt
    wirklich noch selber was machen musst,
  • 32:56 - 33:01
    denen vertraue ich soweit, so wie ich sie
    da vorgestellt habe. Aber den.. diesen
  • 33:01 - 33:03
    Sachen eher nicht.
    Engel: Mikrofon Nr. 4 bitte.
  • 33:03 - 33:10
    Sprecher: Ja, vielen Dank. War super
    informativ. Du hast nicht so viel dazu
  • 33:10 - 33:16
    gesagt, wie man die Primär-Quelle finden
    könnte. Macht man das, hast du da so..
  • 33:16 - 33:20
    Robert: Also, ja. Der erste Schritt wäre
    halt zum Beispiel so eine Rückwärtssuche.
  • 33:20 - 33:24
    Weil die meisten Fälschungen, denen wir
    jetzt eben so begegnest eben dieses
  • 33:24 - 33:29
    recycelte Material ist. Findest du da halt
    super schnell dann eben heraus, dass ein
  • 33:29 - 33:32
    Video jetzt fünf Jahre alt ist. Dann musst
    du jetzt auch nicht gucken, wer es vor
  • 33:32 - 33:35
    fünf Jahren als erstes gepostet hat. Da
    reicht dir halt die Info, dass es eben
  • 33:35 - 33:41
    fünf Jahre alt ist und nicht von heute
    oder von gestern. Und ansonsten einfach
  • 33:41 - 33:46
    deskriptiv gucken was.. was.. was zeigt es
    denn. Dann kann man auch auf den.. auf
  • 33:46 - 33:50
    Plattformen, auch auf anderen Plattformen
    einfach mal nach den Wörtern suchen, die
  • 33:50 - 33:55
    einem dazu in den Sinn kommen, wenn... Wir
    hatten da ein Video aus dem ägyptischen
  • 33:55 - 33:58
    Frühling, das angeblich damit.. das
    angeblich zeigen sollte, wie Demonstranten
  • 33:58 - 34:02
    ein Polizeiauto von der Brücke werfen. War
    falsch. der hat einfach einen
  • 34:02 - 34:05
    Rückwärtsgang eingelegt und hat sich
    verfahren und ist von der Brücke gefallen.
  • 34:05 - 34:12
    Aber da kann man halt eben auch nach
    Stichwörtern suchen, wie: police, car,
  • 34:12 - 34:16
    bridge, demonstrants. Das Ganze halt eben
    dann auf Arabisch übersetzen, einfach
  • 34:16 - 34:20
    diese Stichwörter in die Suchmaschinen
    reinpumpen und gucken, was einem da eben
  • 34:20 - 34:23
    zuerst auffällt. Wer das zuerst
    hochgeladen hat.
  • 34:23 - 34:25
    Engel: Mikrofon Nr. 2, bitte.
    Sprecher: Danke noch mal für den
  • 34:25 - 34:27
    spannenden Talk. Engel sagt etwas
    unverständliches
  • 34:27 - 34:33
    Sprecher: Ich bin ich. Engel: Es geht
    immer noch mehr. Sprecher: lacht Jawohl.
  • 34:33 - 34:35
    Engel: Siehst du.
    Sprecher: Reuters...
  • 34:35 - 34:38
    Publikum lacht und applaudiert
    Robert lacht
  • 34:38 - 34:44
    Sprecher: Zu der Frage: Reuters hatte -
    ich vor einigen Jahren - einen 'ban' auf
  • 34:44 - 34:48
    Rohmaterial ausgesprochen und hat gesagt:
    'Ab heute wollen wir nur noch JPEGs'. Du
  • 34:48 - 34:51
    hattest vorhin das Beispiel mit den
    Raketen. Robert stimmt zu Kannste dir
  • 34:51 - 34:54
    das erklären, warum man plötzlich ein -
    sagen wir Mal - schwieriger zu fälschendes
  • 34:54 - 34:58
    Medium ablehnt und sagt: 'Ich möchte jetzt
    doch lieber die Billigdaten haben.
  • 34:58 - 35:02
    Robert: Ganz ehrlich: keine Ahnung. Ich
    kann es mir nicht erklären. Ich wusste bis
  • 35:02 - 35:07
    jetzt auch ehrlich gesagt diese Policy von
    Reuters nicht. Aber ich kann es mir auch
  • 35:07 - 35:11
    nicht wirklich erklären. Nein.
    Engel: Mikrofon Nr. 3, bitte.
  • 35:11 - 35:15
    Sprecher: Ja, auch räuspern noch von
    meiner Seite vielen Dank. Es war in
  • 35:15 - 35:19
    letzter Zeit viel die Rede von diesen Deep
    Fakes. Hast du sowas dann auch schon mal
  • 35:19 - 35:23
    in freier Wildbahn dann selber gesehen.
    Also außer jetzt diese bekannten,
  • 35:23 - 35:28
    einschlägigen Beispiele.
    Robert: Ne, in freier Wildbahn so noch
  • 35:28 - 35:31
    nicht. Also zumindest nicht so, dass es
    halt irgendwie auffällig genug und
  • 35:31 - 35:35
    relevant für uns ist. Da gibt's so ein
    paar Sachen irgendwie, die die Zukunft
  • 35:35 - 35:39
    bringen kann, wie zum Beispiel Deep
    Fakes. Die kann man noch irgendwie - noch,
  • 35:39 - 35:43
    finde ich - relativ gut irgendwie
    unterscheiden. Wenn man sich halt eben auf
  • 35:43 - 35:46
    die Details konzentriert, ob der
    Hintergrund auf einmal anfängt zu wackeln
  • 35:46 - 35:51
    oder ob die gerade Linie auch wirklich
    gerade bleibt. Aber das ist jetzt noch
  • 35:51 - 35:55
    nicht so das Riesenthema für uns. Genauso
    wie die Software von Adobe mit der du
  • 35:55 - 35:59
    Stimmen fälschen kannst - oder können
    sollst. Die vor zwei Jahren da vorgestellt
  • 35:59 - 36:03
    wurde. Da hat man auch nichts wieder von
    gehört. Das ist jetzt... bringt vielleicht
  • 36:03 - 36:07
    die Zukunft. Da müssen wir gucken, wie man
    damit umgeht. Aber aktuell noch nicht.
  • 36:07 - 36:10
    Engel: Jetzt ist das Internet wieder mit
    einer Frage am Zug.
  • 36:10 - 36:14
    Sprecher: Hast du Beispiele für Recherchen
    oder Material, was im schulischen Kontext
  • 36:14 - 36:19
    genutzt wurde um Schülerinnen und Schüler
    zu sensibilisieren für das Thema.
  • 36:19 - 36:25
    Robert: Ne. Also, natürlich irgendwie wäre
    es eine super Sache, aber ich glaube bis
  • 36:25 - 36:28
    sowas in den Schulen ankommen wird es
    wahrscheinlich leider auch noch etwas
  • 36:28 - 36:33
    dauern. Das geht ja schon fast ein
    bisschen über das allgemeine Thema
  • 36:33 - 36:39
    Medienkompetenz hinaus - wäre zumindest
    eine große Ergänzung dazu. Aber, da weiß
  • 36:39 - 36:42
    ich bisher noch nicht, ob das so in der
    Art stattgefunden hat.
  • 36:42 - 36:48
    Engel: Mikrofon Nr. 2, bitte.
    Sprecher: Jo, Moin und 'Höllö'. Eine Frage
  • 36:48 - 36:52
    - erst mal Dankeschön für deinen Vortrag.
    Super klasse.
  • 36:52 - 36:59
    Robert: Danke. Sprecher: Wie weit ist das
    Thema Algorithmen und das was man ja in
  • 36:59 - 37:03
    vielerlei Hinsichten kennt - gerade von
    seinen FB-Freunden und so wat - ein Thema
  • 37:03 - 37:10
    für dich, für euch? Weil da ja auf eine
    ganz andere Weise Fake News produziert
  • 37:10 - 37:15
    werden, weil sie ja eben aus bestimmten
    Interessenslagen gesteuert werden und
  • 37:15 - 37:21
    nicht so ganz nachzuvollziehen ist, was
    jetzt, wo ich welche Algorithmen, wie denn,
  • 37:21 - 37:26
    hervorkommt. Ist das ein Thema für euch.
    Robert: Ich weiß jetzt nicht ganz, was du
  • 37:26 - 37:29
    meinst. Meinste die Strukturierung, wie
    z.B. Facebook seinen Newsfeed
  • 37:29 - 37:33
    strukturiert. Dass dir Beiträge angezeigt
    werden, die eher deinen Sachen entsprechen
  • 37:33 - 37:38
    oder was meinst du? Sprecher: Aber Hallo!
    Genau. Ja. Genau das.
  • 37:38 - 37:40
    Robert: Ja, ist auf jeden Fall
    problematisch, ne. Sprecher: Sehr!
  • 37:40 - 37:42
    Robert: Das ist auch eine der Sachen,
    warum sich diese Beiträge eben so
  • 37:42 - 37:47
    verbreiten. Diese Echokammern, diese
    Strukturierung auch eben durch die
  • 37:47 - 37:50
    sozialen Netzwerke, die meinen, dir den
    Content präsentieren zu müssen, der für
  • 37:50 - 37:55
    dich interessant ist. Da ist es natürlich
    schwer irgendwie die ganze Sache zu
  • 37:55 - 37:57
    durchdringen.
    Sprecher: Aber einen Tipp hättest du
  • 37:57 - 38:00
    nicht? Wie man dagegen oder wie man das
    transparenter machen kann oder...
  • 38:00 - 38:03
    Robert: Atmet geräuschvoll aus Also, wie
    man das jetzt als Medien transparenter
  • 38:03 - 38:08
    machen kann, würde ich sagen: Da haben wir
    jetzt nicht die Möglichkeit. Also, es muss
  • 38:08 - 38:10
    halt aufgeklärt werden, klar. Aber im
    Endeffekt entscheidet halt auch jeder
  • 38:10 - 38:14
    Nutzer selbst, ob er seine Nachrichten
    irgendwie nur darüber konsumieren möchte
  • 38:14 - 38:19
    oder ob er auch noch andere Quellen nimmt.
    Sprecher: Klar. Danke.
  • 38:19 - 38:23
    Engel: Mikrofon Nr.4, bitte.
    Sprecher: Hallo. Im Internet gibt's
  • 38:23 - 38:29
    verschiedene Bestrebungen Webseiten zu
    klassifizieren, zum Beispiel als Satire,
  • 38:29 - 38:36
    rechts, links oder auch als problematisch.
    Und dass dem Nutzer sehr direkt
  • 38:36 - 38:42
    anzuzeigen. Was hältst du davon?
    Robert: Schnauft aus Schwieriges Thema.
  • 38:42 - 38:46
    Also, bei Facebook.. ich bin mir noch
    nicht ganz sicher. Es gab ja diese
  • 38:46 - 38:50
    Vorschläge das zumindest, wenn jetzt viele
    Leute einen entsprechenden Link, der
  • 38:50 - 38:53
    irgendwie herumgereicht wird, als Fake
    klassifiziert haben oder es halt von einer
  • 38:53 - 38:58
    - ich sag mal - Expertengruppe als Fake
    eingestuft wurde. Das es halt zumindest
  • 38:58 - 39:02
    irgendwie mit dran steht: 'Dieser Beitrag
    ist umstritten, klicke hier um mehr zu
  • 39:02 - 39:07
    erfahren.'. Damit kann ich mich im
    Zweifelsfall noch mehr anfreunden, als
  • 39:07 - 39:11
    jetzt Websites irgendwie dazu zu
    verpflichten, sich zu klassifizieren oder
  • 39:11 - 39:15
    von anderen klassifiziert zu werden.
    Weil,.. ich mein, auch so etwas wie
  • 39:15 - 39:18
    Satire, selbst wenn es manche Leute nicht
    verstehen und das für Sie eine Art von
  • 39:18 - 39:23
    Fälschung ist, lebt halt eben auch davon,
    dass es nicht in roten Lettern oben drüber
  • 39:23 - 39:28
    prangt.
    Engel: Mikrofon 2 hat die vorletzte Frage
  • 39:28 - 39:30
    für heute Abend.
    Sprecher: Ja, danke nochmal für den
  • 39:30 - 39:37
    Vortrag. Frage und vielleicht ein
    Vorschlag: wie sieht das aus. Vor der
  • 39:37 - 39:41
    Recherche ist klar - jedes einzelne Medium
    arbeitet für sich - klar Konkurrenzdruck.
  • 39:41 - 39:44
    Aber wenn ihr ein Ergebnis habt und ihr
    habt ganz klar ein Fake gefunden, wie
  • 39:44 - 39:48
    sieht es mit dem Austausch mit anderen
    Medien aus? Und, Zusatzfrage: wäre das
  • 39:48 - 39:52
    nicht was so im Sinne der Öffentlichkeit
    auch genau diese Ergebnisse dann zu
  • 39:52 - 39:54
    veröffentlichen, damit alle wissen, dass
    ist nicht koscher.
  • 39:54 - 40:00
    Robert: stimmt zu Also, ich kenne das so
    von anderen Medien. Wir haben auch
  • 40:00 - 40:03
    regelmäßig Konferenzen, wo man sich
    natürlich auch irgendwie mit den Kollegen
  • 40:03 - 40:07
    austauscht. Da gibt's dann eben auch
    entsprechend größere Gruppen, in denen man
  • 40:07 - 40:11
    sich irgendwie mal über diese Themen
    unterhält. Und.. ich weiß zum Beispiel,
  • 40:11 - 40:15
    dass es halt bei den.. bei größeren
    Medienhäusern, sag ich jetzt mal, die mehr
  • 40:15 - 40:21
    als nur ein einziges Produkt haben, das es
    da auch durchaus zusammengefasst ist. Das
  • 40:21 - 40:23
    da eben auch die Kollegen von
    verschiedenen Marken sitzen und sich
  • 40:23 - 40:26
    austauschen und alle halt alle Infos dann
    lesen.
  • 40:26 - 40:30
    Engel: Und wie so oft im Leben hat das
    Internet das letzte Wort.
  • 40:30 - 40:35
    Sprecher: Jemand hat auf einen Talk vom
    letzten Jahr hingewiesen, wo die These
  • 40:35 - 40:38
    vertreten wurde, dass Fake News
    Problematik gar nicht so groß sei, als es
  • 40:38 - 40:43
    damals in den Medien der Fall gewesen sei.
    Und jetzt war die Frage an dich, ob du das
  • 40:43 - 40:46
    Gefühl, dass es sich im letzten Jahr
    verändert hat, ob es mehr, weniger oder
  • 40:46 - 40:51
    anders geworden ist.
    Robert: Hm, wirklich anders würde ich
  • 40:51 - 40:55
    sagen: nein. Also die Muster sind halt
    immer noch die gleichen, die Motivation
  • 40:55 - 40:59
    der Leute ist noch die gleiche. Leute, die
    halt Aufmerksamkeit wollen oder die Profit
  • 40:59 - 41:04
    machen wollen. Das hat sich nicht
    großartig verändert. Was wir halt so
  • 41:04 - 41:08
    gemerkt haben: es gab halt jetzt in diesem
    Jahr zum Glück deutlich weniger Breaking
  • 41:08 - 41:15
    News Lagen, wo halt irgendwie ein Anschlag
    hier in Europa passiert. Das war ja 2016,
  • 41:15 - 41:19
    sage ich mal aus der Hinsicht ein sehr
    schlimmes und auch sehr anstrengendes
  • 41:19 - 41:22
    Jahr. Und da kann man halt merken, gerade
    wenn es halt irgendwie was hoch
  • 41:22 - 41:26
    emotionalisierendes ist. Bei
    Naturkatastrophen natürlich auch, aber vor
  • 41:26 - 41:31
    allem halt bei solchen Sachen wie
    Anschlägen in Europa. Da ist halt der
  • 41:31 - 41:35
    Output an gefälschten Sachen einfach viel,
    viel höher als so das normale
  • 41:35 - 41:38
    Grundrauschen. Deswegen war 2018 ein eher
    ruhigeres Jahr.
  • 41:38 - 41:42
    Engel: Vielen Dank für die Einschätzung.
    Damit sind wir am Ende. Vielen Dank
  • 41:42 - 41:44
    nochmal an eure vielen Fragen und ganz
    besonders vielen Dank nochmal an Robert,
  • 41:44 - 41:48
    für diesen sehr informativen Talk. Gebt
    ihm noch mal einen großen Applaus bitte.
  • 41:48 - 41:55
    Applaus Robert: Vielen Dank.
  • 41:55 - 42:04
    Abspannmusik
  • 42:04 - 42:18
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
35C3 - Desinformation und Fake News - Bekämpfung und Verifizierung leicht gemacht
Description:

more » « less
Video Language:
German
Duration:
42:18

German subtitles

Revisions