35C3 - Desinformation und Fake News - Bekämpfung und Verifizierung leicht gemacht
-
0:01 - 0:1835C3 Vorspannmusik
-
0:18 - 0:24Engel: Herzlich willkommen zu unserem
nächsten Talk: Desinformation und Fake -
0:24 - 0:26News - Bekämpfung und Verifizierung leicht
gemacht mit unserem Speaker Robert -
0:26 - 0:30Clausen. In letzter Zeit - aber was heißt
in letzter Zeit, das ist in den letzten -
0:30 - 0:33Jahren oft vorgekommen wenn irgendein
Ereignis war, was die Leute emotional -
0:33 - 0:37besonders aufgewühlt hat, dann tauchen ja
häufig irgendwelche Videos oder Fotos auf -
0:37 - 0:41wo jemand sagt: "Oh, das ist Bildmaterial
von diesem Ereignis". Und alle die nicht -
0:41 - 0:44dabei waren, können das nicht beurteilen.
Und dann stellt sich raus, das ist -
0:44 - 0:48Bildmaterial das irgendwie von ein paar
Jahren vorher am anderen Ende der Welt -
0:48 - 0:52ist. Aber das muss man ja erstmal rausfinden.
Und da gibt es verschiedene Möglichkeiten, -
0:52 - 0:55da wirds gleich drum gehen.
Kurze Frage: Wer von Euch hat schon mal -
0:55 - 0:58Image Research benutzt um irgendwie
rauszufinden, ob ein Bild irgendwo anders -
0:58 - 1:03schonmal vorgekommen ist? Kurzes
Handzeichen. Sehr gut. Ich würde sagen, -
1:03 - 1:06das ist so ein Drittel im Publikum. Ich
hab das vor kurzem erst gemacht als ich -
1:06 - 1:09Videos von meinem Talk rausgesucht hab. Es
ist sehr nützlich damit man da keine -
1:09 - 1:15Fehler begeht. Und... gerade in unseren
aktuellen Zeiten, wo immer sehr viel die -
1:15 - 1:19Lügenpresse und Fake-News-Keule rausgeholt
wird, wird es um so wichtiger, dass man -
1:19 - 1:23rausfindet was wirklich echt ist und was
vielleicht nicht echt ist. Gleichzeitig -
1:23 - 1:26wissen wir, die technischen Möglichkeiten
werden immer besser. Es gibt jetzt auch -
1:26 - 1:30schon Deep Fakes. Und vor dem Hintergrund
ist es gut, dass wir einen Experten hier -
1:30 - 1:34haben. Robert ist nämlich Producer beim
Fernsehen und arbeitet seit zweieinhalb -
1:34 - 1:38Jahren in einem Verifizierungsteam. Und
der wird uns jetzt erzählen wie eigentlich -
1:38 - 1:42die Verifizierung von Bildmaterial
funktioniert und wie Verifizierungsteams -
1:42 - 1:47arbeiten. Ganz viel Spaß dabei und einen
ganz herzlichen Applaus für Robert. Viel -
1:47 - 1:49Spaß!
Applaus -
1:49 - 1:54Robert: Ja. - Vielen Dank ???? (Legune?).
Schön, dass es doch zu später Stunde noch -
1:54 - 1:58einige hierhin verschlagen hat. Es hat mir
auf jeden Fall sehr gute Laune gemacht, -
1:58 - 2:01dass ich gerade gesehen habe wie viele von
euch zumindest schon 'mal so ein bisschen -
2:01 - 2:07Ahnung davon haben, bisschen Reverse Image
Search gemacht haben. Das lässt auf jeden -
2:07 - 2:12Fall hoffen und hier möchte ich jetzt auch
erklären was für weitere Möglichkeiten und -
2:12 - 2:15was für weitere Tools es vor allem gibt,
die einem das Leben bei so etwas deutlich -
2:15 - 2:19leichter machen. Denn Verifizierung und
generell so Online Recherche ist halt -
2:19 - 2:24keine Rocket Science, das kann im Grunde
genommen jeder. Und ich fang' erstmal an -
2:24 - 2:29mit dem Begriff Fake News, warum ich den
eigentlich nicht besonders gerne mag, -
2:29 - 2:32warum er aber manchmal doch geeignet sein
kann. Mach dann einen kleinen -
2:32 - 2:37theoretischen Teil, welche Arten von
Fälschungen gibt's überhaupt. Womit hat -
2:37 - 2:40man so am meisten zu tun? Welche
Motivationen stecken dahinter? Und habe -
2:40 - 2:43dann auch noch ein paar ganz schöne
Praxisbeispiele um zu zeigen, wie man -
2:43 - 2:49diesen Leuten dann eben auf die Schliche
kommen kann. Da fangen wir mal an mit der -
2:49 - 2:51Definition, da habe ich eine sehr nette
gefunden. -
2:51 - 2:54"Fake News sind Falsch- und
Fehlinformationen, die häufig über -
2:54 - 2:59elektronische Kanäle vor allem soziale
Medien verbreitet werden. Sie gehen von -
2:59 - 3:04Einzelnen oder Gruppen aus, die in eigenem
oder fremden Auftrag handeln." Joa, ist -
3:04 - 3:09schön zusammengefasst, aber genau darin
liegt halt eben auch das Problem. Dieser -
3:09 - 3:12Begriff 'Fake News' ist erstmal nur ein
supergroßer Sammelbegriff für viele -
3:12 - 3:17verschiedene Arten von Fälschungen, von
Lügen, die man früher doch so ein bisschen -
3:17 - 3:21präziser bezeichnet hat. Propaganda ist
auch weiterhin Propaganda, das ist nicht -
3:21 - 3:27zwingend Fake News. Ne Lüge ist weiterhin
eine Lüge und ja, deswegen... es ist ganz -
3:27 - 3:30praktisch, wenn man sich jetzt dem gesamten
Themengebiet nähern will. Dass man das -
3:30 - 3:35zusammenfasst, aber so für die wirkliche
Analyse eigentlich nicht. Denn es enthält -
3:35 - 3:39halt eben keine Information über die
Urheber, die Art der Fälschung oder deren -
3:39 - 3:44Motivation. Wie gesagt, das ist aber eben
wichtig für diese Bekämpfung und am besten -
3:44 - 3:49verwendet man da präzisere Begriffe.
Der Grund, warum das jetzt in den letzten -
3:49 - 3:53Jahren so hochgekocht ist, dieses ganze
Thema, ist natürlich, dass die Erstellung -
3:53 - 3:57und die Verbreitung davon noch nie so
einfach war wie heute. Also, klar.. wir -
3:57 - 4:01haben jetzt irgendwie in der westlichen
Welt - sag ich mal - schon länger -
4:01 - 4:05irgendwie Internetanschlüsse und
Smartphones. Jetzt auch seit ungefähr elf -
4:05 - 4:10Jahren. Aber andere Teile der Welt halt
eben nicht. Aber weltweit nimmt diese -
4:10 - 4:13Verbreitung eben zu. Auch in
Krisengebieten, vor allem wenn ich mir -
4:13 - 4:17Syrien anschaue. Das ist wahrscheinlich
der erste Krieg in dem es so viel -
4:17 - 4:22Bildmaterial gibt, dass man den Überblick
einfach verliert. Es ist schwierig -
4:22 - 4:26geworden das einzuordnen, es ist kaum ein
professioneller Journalist vor Ort. Und... -
4:26 - 4:30Ein Kollege vom Spiegel hat es schon mal
bezeichnet als den ersten post-faktischen -
4:30 - 4:34Krieg. Find ich ist ein sehr schöner
Begriff dafür, weil egal welche -
4:34 - 4:39vorgefertigte Meinung man hat, man wird
mit dieser Meinung halt eben beliefert. -
4:39 - 4:43Egal ob man jetzt glaubt ob jetzt
ausländische Mächte dahinter stehen, ob -
4:43 - 4:47Assad das eigene Volk angreift, ob die
Rebellen alles Terroristen sind, man wird -
4:47 - 4:51halt mit dieser Meinung eben in dieser
Meinung bestärkt. Man wird mit den -
4:51 - 4:56entsprechenden Fakten beliefert. Diese
Verbreitung wird natürlich durch Soziale -
4:56 - 5:00Netzwerke nochmal enorm beschleunigt. Es
ist halt eben einfach geworden heutzutage -
5:00 - 5:04brauchst du nur noch ein Handy mit einer
Kamera, den Twitter-Account dazu und du -
5:04 - 5:07bist dein eigener Nachrichtenproduzent.
Und hast im Zweifelsfall sogar noch eine -
5:07 - 5:12höhere Reichweite als die traditionellen
Medien. Das gab's halt vorher so nicht und -
5:12 - 5:15sorgt natürlich dafür, dass diese
Realitätsfilter durch traditionelle Medien -
5:15 - 5:20wegfallen. Wer sich mal so ein bisschen
mit der Gatekeeper-Theorie beschäftigt -
5:20 - 5:25hat, der weiß, dass die traditionellen
Medien den Menschen eher nicht sagen, -
5:25 - 5:29'was' sie zu denken haben oder 'wie' sie zu
einem Thema zu denken haben, aber das sie -
5:29 - 5:32zumindest mit beeinflussen, worüber die
Leute sich überhaupt Gedanken machen und -
5:32 - 5:36mit was sie sich überhaupt beschäftigen.
Und dieser Filter ist halt einfach -
5:36 - 5:42komplett weggebrochen. Ja, und als
Journalist oder als jemand der in den -
5:42 - 5:46Medien arbeitet, der hat natürlich eine
absolute Diversifizierung von -
5:46 - 5:52Nachrichtenquellen. Gerade im
Bewegtbildbereich - vor 10, 20, 25 Jahren -
5:52 - 5:57war Bewegtbild entweder eigen-produziert
von den eigenen Leuten, es wurde von -
5:57 - 6:02anderen Sendern eingekauft oder es kam
über die Agenturen rein. Aber man kannte -
6:02 - 6:06halt seine Quellen. Das gibt's halt 'so'
nicht mehr und das sind halt mal grob -
6:06 - 6:11zusammengefasst die Gründe, warum es jetzt
halt eben so ein großes Thema ist. Aber -
6:11 - 6:14wir wollen uns hier mal anschauen, was
denn überhaupt dahinter steht und was die -
6:14 - 6:21Motivation der Leute sein kann. Das erste
ist jetzt 'Unterhaltung'. Kann sein - hab -
6:21 - 6:24ich gleich in der zweiten Folie auch noch
was dazu. Das typische Beispiel dafür wäre -
6:24 - 6:29halt Satire. Es ist auch etwas, was nicht
wahr ist. Es gibt auch da manipulierte -
6:29 - 6:33Fotos, manipulierte Videos, aber es sind
halt eben nicht erstellt worden, um jetzt -
6:33 - 6:36jemandem zu schaden, sondern der
hauptsächliche Zweck ist erstmal die -
6:36 - 6:41Unterhaltung. Dann gibt’s natürlich, wie
gerade schon erwähnt, 'politischer -
6:41 - 6:45Einfluss' oder 'Propaganda'. Das kann von
Staaten gemacht werden, das kann von -
6:45 - 6:49Privatpersonen, von Parteien gemacht
werden. Ich erinner' mich da an ein -
6:49 - 6:54schönes Foto aus dem Iran, vom iranischen
Militär. Die waren mit ihrem Raketenstart -
6:54 - 6:58leider nicht ganz so zufrieden. Es sind
nicht alle abgehoben. Das sah auf dem Foto -
6:58 - 7:02natürlich blöd aus, also hat man einfach
Photoshop aufgemacht, zwei Raketen rüber -
7:02 - 7:05kopiert, die Rauchschweife der Raketen
eins zu eins rüber kopiert und schon hatte -
7:05 - 7:10man eine wunderbare
Propagandainszenierung, nur halt leider -
7:10 - 7:16falsch. Dann - 'Profit'. Profit steckt
eigentlich hinter dem was wir so aus dem -
7:16 - 7:20amerikanischen Wahlkampf unter dieser Fake-
News-Debatte gehört haben: wirklich -
7:20 - 7:25gefälschte Nachrichtenseiten mit großen
reißerischen Schlagzeilen, die meist eher -
7:25 - 7:29pro-republikanisch und anti-demokratisch
waren. Ja, dahinter steckte zu einem nicht -
7:29 - 7:34geringen Teil mazedonische Jugendliche,
die halt festgestellt haben: damit lässt -
7:34 - 7:39sich ganz gut Geld machen. Und, ja.. die
Republikaner sind halt eher auf diese Art -
7:39 - 7:43der Schlagzeilen angesprungen, deswegen
gab es halt eher diese Arten von Seiten -
7:43 - 7:47und weniger pro-demokratische. Das ist
jetzt in Deutschland noch nicht so das -
7:47 - 7:51große Problem - verglichen jetzt mit dem
amerikanischen Wahlkampf. Aber auch hier -
7:51 - 7:55muss man sich natürlich die Frage stellen:
Wo zieht man die Grenze? Diese Seiten aus -
7:55 - 7:59dem amerikanischen Wahlkampf waren jetzt
vielleicht Extrembeispiel, weil es halt -
7:59 - 8:05wirklich 100% erfunden und erstunken und
erlogen war. Aber auch hier.. wie sieht es -
8:05 - 8:10denn aus mit clickbait? Sachen, die halt
einfach massiv aufgebauscht werden, die -
8:10 - 8:14teilweise ja auch von traditionellen
Medien benutzt werden - aber es steckt -
8:14 - 8:20halt am Ende nicht das hinter, als was es
angekündigt war. Und natürlich - -
8:20 - 8:25'Aufmerksamkeit', gerade online. Wenn
irgendwo eine Breaking News passiert und -
8:25 - 8:30auf einmal 20'000 Twitter-Accounts
irgendwelche Bilder raushauen, die freuen -
8:30 - 8:34sich wahnsinnig über 500 Retweets, über
1000 Facebook-Likes. Die machen das -
8:34 - 8:38einfach, weil sie es dann vielleicht mal
schaffen irgendwie im Fernsehen zu landen, -
8:38 - 8:42bei einer Zeitung zitiert zu werden. Denen
geht es hauptsächlich um Spaß und um -
8:42 - 8:48Aufmerksamkeit. Ja, die Unterteilung der
Arten - wie eben schon erwähnt - die -
8:48 - 8:52'Satire': für jemanden der es versteht,
jetzt vielleicht nicht unbedingt eine Art -
8:52 - 8:57der Fälschung. Aber ich hab mir hier eine
schöne Geschichte rausgesucht von 'The -
8:57 - 9:00Onion', vielleicht kennt das ja einer von
euch. Das ist quasi der große -
9:00 - 9:07amerikanische Bruder vom 'Postillon'. Die
haben 2012 einen Artikel veröffentlicht, -
9:07 - 9:11der quasi eins zu eins von einer
iranischen Nachrichtenagentur übernommen -
9:11 - 9:16wurde. Und zwar war der Titel: "Gallup-
Umfrage: Weiße Landbevölkerung bevorzugt -
9:16 - 9:21Ahmadinejad gegenüber Obama". Laut dem
Artikel würden "77 Prozent der weißen -
9:21 - 9:26Landbevölkerung lieber mit Ahmadinejad
zu einem Baseballspiel oder auf ein Bier -
9:26 - 9:30gehen". So stand es dann in der iranischen
Nachrichtenagentur. Für die Leute, die -
9:30 - 9:33diese Satire jetzt nicht verstanden haben:
es ist auch erst mal eine Art der -
9:33 - 9:39Falschinformation. Dann das, was
wahrscheinlich am häufigsten auftaucht: -
9:39 - 9:45das ist altes Bildmaterial einfach in
einen falschen Kontext gesetzt wird. Liegt -
9:45 - 9:48wahrscheinlich daran, dass es einfach die
einfachste, die simpelste Art ist, so eine -
9:48 - 9:52Fälschung zu veröffentlichen. Man muss
kein Photoshop-Profi sein, man muss nicht -
9:52 - 9:55irgendetwas komplett inszenieren. Es
reicht, wenn man Google bedienen kann, -
9:55 - 9:59sich das erste Bild aus der Bildersuche
klaut von einem anderen Ereignis und das -
9:59 - 10:04veröffentlicht. Dann haben wir
bearbeitetes Bildmaterial, das -
10:04 - 10:09grundsätzlich authentisch ist, aber wo
nachgeholfen wurde. Ich erinnere mich da -
10:09 - 10:14an ein Foto aus dem Libanon, das Beirut
zeigt mit großen Rauchschwaden nachdem es -
10:14 - 10:18von Kampfjets bombardiert wurde. Da wurde
auch nachgeholfen; die Rauchwolken wurden -
10:18 - 10:22etwas dichter gemacht, etwas dunkler, damit
ein beklemmenderes Bild entsteht. Sowas -
10:22 - 10:28hat in Nachrichten auch nichts verloren!
Und zu guter Letzt natürlich komplett -
10:28 - 10:33inszenierte Sachen, die keinerlei realen
Bezug - sag ich mal - haben, wo vielleicht -
10:33 - 10:37sogar mit Schauspielern gearbeitet wurde.
Sowas hatten wir in der Vergangenheit auch -
10:37 - 10:41bei uns zur Prüfung. Da stellte sich dann
halt heraus, dass das von so einem Viral- -
10:41 - 10:45Vermarktungsnetzwerk halt eben gefakt
wurde, die damit natürlich auch eben -
10:45 - 10:49Profit machen wollen. Das Video ist auch
viral gegangen, aber war halt komplett -
10:49 - 10:55inszeniert. So. Wie gerade schon gesagt
wurde, seit ungefähr zweieinhalb Jahren -
10:55 - 11:00bin ich in diesem Verifizierungsteam und
der Anlass dafür war der Amoklauf in -
11:00 - 11:05München 2016. Da erinnern sich ja
vielleicht auch noch einige dran. Da -
11:05 - 11:10konnten wir das erste Mal so wirklich in
geballter Kraft sehen, was da alles zu -
11:10 - 11:13einem einzelnen Ereignis an
Falschmeldungen kursiert. Ich habe hier -
11:13 - 11:18mal ein paar Sachen mitgebracht. Das hier
wurde zum Beispiel von einem großen -
11:18 - 11:21deutschen Sender auch getwittert. Ich hab
das hier mal so ein bisschen unkenntlich -
11:21 - 11:25gemacht, die Details. Die schreiben dazu:
"Ein Student hat ein Foto gepostet." -
11:25 - 11:30Soweit erst mal nicht falsch, das hat
bestimmt irgendein Student gemacht. Aber -
11:30 - 11:36der Amoklauf am Olympia-Einkaufszentrum,
der ist das nicht. Hier können wir sehen -
11:36 - 11:39ein Artikel aus der Daily Mail. Ist.. war
zu diesem Zeitpunkt bereits ein Jahr alt -
11:39 - 11:43und zeigt eigentlich einen Raubüberfall,
der schiefgegangen ist auf ein -
11:43 - 11:47Einkaufszentrum in Südafrika. Hätte man
jetzt mit so einer einfachen Bilder- -
11:47 - 11:51Rückwärtssuche, die ja am Anfang auch
erwähnt wurde, rausfinden können. Es ist -
11:51 - 11:56halt schade, weil das einfach vermeidbar
ist. Dann gab's auch den seriösen Twitter- -
11:56 - 12:00Account "TRUNEWS TM". Entferntes
Gelächter hörbar -
12:00 - 12:05'Your Trusted News Source', die in Frage
gestellt haben, ob das Ganze denn -
12:05 - 12:08überhaupt stattgefunden hat oder ob das
nicht auch inszeniert ist oder vielleicht -
12:08 - 12:14eine Übung ist. "You be the judge." - Yes,
I am. Es sind tatsächlich Darsteller und -
12:14 - 12:18zwar in Manchester. Dort gab's eine Anti-
Terror-Einheiten für die Polizei. Auch -
12:18 - 12:22hier, wie bei dem anderen einfach ein
altes Bild im neuen Kontext gesetzt und - -
12:22 - 12:28damit halt gelogen. Hier haben wir so ein
schönes Beispiel für das 'manipulierte'. -
12:28 - 12:33Das ist tatsächlich das Dach vom Olympia-
Einkaufszentrum, das Parkdeck. Aber die -
12:33 - 12:36Person da drin - vielleicht kann das der
eine oder andere schon erkennen oder -
12:36 - 12:41erkennt ihn hier. Es ist - er ist quasi
verantwortlich für jede Massenschießerei, -
12:41 - 12:45für jeden Anschlag der letzten Jahre. Es
ist einfach zum Meme geworden ihm das -
12:45 - 12:50anzuhängen. Das ist ein Sam Hyde, ein
eigentlich amerikanischer YouTube- -
12:50 - 12:55Comedian, der nur dafür berühmt wurde halt
eben mit solchen Ereignissen in Verbindung -
12:55 - 13:03gebracht zu werden. Ja, alles furchtbar.
Aber, was tun? Am besten glaubt man erst -
13:03 - 13:07'mal gar nichts. Und vor allem muss man
sich zurückhalten, wenn Geschichten oder -
13:07 - 13:11Bilder zu gut sind, um wahr zu sein. Da
muss man auch wirklich die Distanz -
13:11 - 13:17bewahren und.. ja. Weil, wenn es zu gut
ist um wahr zu sein und gerade kurz nach -
13:17 - 13:20so einem Ereignis auftaucht, dann besteht
zumindest eine gute Chance, dass es -
13:20 - 13:26vielleicht nicht ganz so wahr ist, wie es
uns verkauft wird. Gesunder -
13:26 - 13:31Menschenverstand ist immer eine super
Sache und achten auf: Details, Details, -
13:31 - 13:36Details. Das können zum Beispiel Sachen im
Hintergrund sein. Welche Kennzeichen sind -
13:36 - 13:41zu sehen? Oder gibt es dort Werbetafeln?
Das hat uns zum Beispiel weitergeholfen -
13:41 - 13:46bei dem Video aus Chemnitz, wo ja
behauptet wurde es hätte keine Hetzjagden -
13:46 - 13:50gegeben. Andere haben gesagt, die Szenen
sind eigentlich aus dem letzten Jahr. In -
13:50 - 13:53dem Video konnte man im Hintergrund eine
Werbetafel sehen und aus anderen -
13:53 - 13:57Perspektiven konnte man auch sehen,
welches Plakat da drauf war. Da haben sie -
13:57 - 14:00nämlich für ein Theaterstück geworben, das
erst Anfang dieses Jahres angelaufen ist. -
14:00 - 14:05Also kann es zumindest nicht aus den
letzten Jahren gewesen sein. Und.. da -
14:05 - 14:10empfiehlt es sich einfach wirklich nur an
dieses Video ranzugehen und zu gucken: was -
14:10 - 14:14sehe ich? Also nicht: was möchten die mir
dazu sagen? Was soll es darstellen, -
14:14 - 14:18sondern: was sehe ich? Und, wenn man das
dann übereinander legt mit dem, was es -
14:18 - 14:22halt eben versucht zu sein, oder die
Details vor Ort vielleicht schon kennt, -
14:22 - 14:26dann erkennt man da auch so ein paar
Unstimmigkeiten. Als nächstes Video habe -
14:26 - 14:31ich hier eins mitgebracht, das aus
Thailand stammen soll. Vielleicht erinnern -
14:31 - 14:35sich noch ein paar daran: die jugendliche
Fußball-Mannschaft, die wochenlang in der -
14:35 - 14:38Höhle eingeschlossen war, dann von
Tauchern rausgebracht werden musste - was -
14:38 - 14:41ja zum Glück auch alles gut geklappt hat.
Auch da gab es dann während der -
14:41 - 14:49Bergungsaktion ein Video, das wir uns mal
angucken. Sehen halt schon Engstellen; -
14:49 - 14:58Taucher, die eine Trage entlang schieben.
Ein Taucher, der den Weg frei räumt. Aber -
14:58 - 15:05so runde Kieselsteine auf dem Grund von
einer Höhle, die unregelmäßig verläuft und -
15:05 - 15:09eigentlich im tiefsten Inneren eines
Berges ist. Da liegen keine runden -
15:09 - 15:12Kieselsteine, die sich im Laufe der Zeit
in einem Flussbett oder wo auch immer rund -
15:12 - 15:15geschliffen haben. Das kann also schon mal
nicht sein. Und eigentlich zeigt es auch -
15:15 - 15:20eine Übung aus der Schweiz von Höhlen-
Rettungstaucher; wie dann im Nachhinein -
15:20 - 15:24festgestellt wurde. Aber dieses Video
hatte auch - glaube ich - über 10'000 -
15:24 - 15:31Views. Das weiß ich gerade nicht mehr.
Wenn man sich dann sowas anguckt, kann man -
15:31 - 15:35z.B. überprüfen, ob es markante Ortsmarken
gibt. Gibt es besonders herausstechende -
15:35 - 15:41Gebäude? Gibt es Straßenzüge, die
ungewöhnlich aussehen? Denkmäler oder auch -
15:41 - 15:47Felsformationen im Hintergrund? Stimmt das
Wetter mit der Aufnahme überein? Wenn ich -
15:47 - 15:51ein Video sehe, das im Winter spielen soll
und die Menschen rennen da alle nur in -
15:51 - 15:54T-Shirts rum - ist das schon mal
vielleicht ein Indiz dafür, dass das alles -
15:54 - 15:58nicht ganz so hundertprozentig stimmt.
Aber da kann man ja, zum Glück, irgendwie -
15:58 - 16:02sich auch die Wettervorhersagen von allen
Orten angucken. Man kann sich historische -
16:02 - 16:06Wetteraufzeichnungen angucken; war der
Himmel an dem Tag bedeckt? War es sonnig? -
16:06 - 16:10Wie warm war es? Hat es geregnet? Das kann
man auch bei - wie gesagt - historischen -
16:10 - 16:15Aufnahmen machen. Die Kennzeichen,
Straßenschilder und Werbetafeln, die ich -
16:15 - 16:20eben erwähnt habe. Und man kann auch
überprüfen, ob der Schattenwurf denn -
16:20 - 16:25überhaupt zur angegebenen Uhrzeit passt.
Da habe ich gleich nochmal - ganz am Ende, -
16:25 - 16:28stelle ich ein paar Tools vor, die einem
das so ein bisschen erleichtern. Ich habe -
16:28 - 16:32auch noch in der Beschreibung, im
Fahrplan, ist eine Linkliste drin, kann -
16:32 - 16:34ich dann auch nur empfehlen. Wer das jetzt
- wem das jetzt ein bisschen zu schnell -
16:34 - 16:38geht, sich das alles noch mal anzugucken.
Die Tools, die ich da vorstelle, die sind -
16:38 - 16:42auch alle darin verlinkt, inklusive noch
einem relativ dicken 'Verifikation -
16:42 - 16:48Handbook'. Es lohnt sich auf jeden Fall
mal durchzulesen. Der nächste Schritt wäre -
16:48 - 16:53dann, die Primärquelle des Bildmaterials
zu finden. Gerade bei so einem Ereignis, -
16:53 - 16:56wie einem Amoklauf oder auch
Naturkatastrophen oder allen anderen -
16:56 - 17:01schönen Dingen, taucht ein Video auf und
Minuten später ist es von Dutzenden -
17:01 - 17:05Accounts halt eben noch einmal wieder
runtergeladen, wieder hochgeleitet worden. -
17:05 - 17:09Manchmal noch irgendwie an Bekannte bei
WhatsApp verschickt oder wo auch immer. -
17:09 - 17:13Und wichtig ist es halt eben, die
Primärquelle des Bildmaterials zu finden, -
17:13 - 17:18um eventuell Rückschlüsse ziehen zu
können. Wir hatten eins, dass ein Erdbeben -
17:18 - 17:22auf einer griechischen Insel zeigen
sollte. Dort haben wir uns dann den -
17:22 - 17:25original Uploader angeguckt und haben
gesehen, dass er zum Beispiel auf seinem -
17:25 - 17:30Instagram-Account Tage vorher Videos und
Fotos von diesem Urlaubsort gepostet hat. -
17:30 - 17:34Das wir halt wissen: er ist wirklich da
vor Ort gewesen und hat diese Videos und -
17:34 - 17:39Bilder gemacht. Rückwärtssuche, aber nicht
nur bei Google, sondern über mehrere -
17:39 - 17:43Plattformen. Auch das eine Tool, dass
ich am Ende vorstelle, hat diese -
17:43 - 17:46Möglichkeit, direkt über sämtliche
Suchmaschinen eine Rückwärtssuche zu -
17:46 - 17:52machen. Der Personencheck - wie gesagt -
und die Prüfung, wo die Szene -
17:52 - 17:56stattgefunden hat. Das kann auch hilfreich
sein, wenn man jetzt vielleicht die -
17:56 - 18:01Primärquelle nicht unbedingt findet. Aber
man weiß ja zum Beispiel: wie oft hat es -
18:01 - 18:04jetzt in München am Olympia-
Einkaufszentrum vorher eine Explosion -
18:04 - 18:10gegeben oder woanders. Da kann man
zumindest die Sachen etwas eingrenzen. Und -
18:10 - 18:16es hilft lokal zu denken. Gibt es
irgendwelche lokalen Besonderheiten vor -
18:16 - 18:20Ort? Wie sehen vielleicht bei Videos von
der Armee, von der Polizei, von der -
18:20 - 18:24Feuerwehr die Uniformen aus? Die
Abzeichen, die sie auf ihren Schultern und -
18:24 - 18:29auf ihren Ärmeln haben? Und die Kfz-
Kennzeichen vor Ort. Gibt es lokale -
18:29 - 18:34Experten? Das kann auch hilfreich sein.
Vielleicht, wenn es in Deutschland spielt, -
18:34 - 18:37in irgendeinem kleinen Ort, wo sich jetzt
niemand großartig auskennt, gibt es aber -
18:37 - 18:41vielleicht einen Heimatforscher, der
irgendwann mal erwähnt wurde oder so einen -
18:41 - 18:45Heimatforscherungsverein, einen
Kulturverein, die einem eventuell auch -
18:45 - 18:49historisches Bildmaterial zur Verfügung
stellen können. Und - die bei uns -
18:49 - 18:53bekannten Seiten und Tools sind nicht
immer die besten. Damit meine ich jetzt -
18:53 - 18:58vor allem Google, Google Maps und andere
Sachen - und warum können wir im nächsten -
18:58 - 19:04Video sehen. Das zeigt die Explosion vor
der US-Botschaft in Peking in diesem Jahr. -
19:04 - 19:11Ist auch auf Twitter gepostet worden. Viel
erkennen kann man da nicht, man sieht ein -
19:11 - 19:16bisschen die Häuser, ein Straßenschild und
ein Geländer. Eben konnte man noch -
19:16 - 19:19Stromleitungen sehen, die über die Straße
verlegt wurden. Und das soll die Szenerie -
19:19 - 19:25eben vor der US-Botschaft sein. Da habe
ich erst mal geguckt, natürlich auf Google -
19:25 - 19:29Maps ist diese Botschaft. Gut. Schön. Dann
gucken wir uns einmal das Satellitenbild -
19:29 - 19:36an. Ouh! Das passt so nicht ganz. Straßen,
die irgendwie durch Häuserblocks gehen, -
19:36 - 19:39die durch Seen durchgehen, durch Parks.
Und ich war mir jetzt erst nicht sicher, -
19:39 - 19:42ob die Chinesen so schnell bauen, dass
Google mit der Aktualisierung nicht -
19:42 - 19:47hinterher kommt. Das gleiche Problem hatte
auch Bing. Am Ende hat sich halt nur -
19:47 - 19:51herausgestellt: es ist halt ein Offset von
mehreren hundert Metern auf beiden Achsen -
19:51 - 19:56und somit nicht wirklich zu gebrauchen.
Und Streetview in China bei Google kann -
19:56 - 20:02man sowieso vergessen. Aber es gibt hier
noch ein chinesisches Google: Baidu. Die -
20:02 - 20:05haben dieses komische Offset nicht drin.
Die haben die deutlich schöneren -
20:05 - 20:10Satellitenbilder und sie haben auch ein
Street View. Und hier kann man eben sehen, -
20:10 - 20:14das Schild, das da im Video zu erkennen
war. Das Haus dahinten, mit der Spitze, -
20:14 - 20:19die übers Dach etwas hinausragt. Das
Geländer, die Stromleitung. Also kann man -
20:19 - 20:22sich ziemlich sicher sein, dass es
tatsächlich dort aufgenommen wurde, wo es -
20:22 - 20:26eben vorgab, aufgenommen worden zu sein.
Und, das meine ich halt eben: nicht immer -
20:26 - 20:31auf das Erstbeste verlassen, nicht immer
nur irgendwie eurozentristisch dran gehen -
20:31 - 20:34und denken "Bei uns hat doch Google alles".
Ne! Es gibt Teile in der Welt, da sind -
20:34 - 20:44andere Anbieter einfach besser. Dieses
Video zeigt den Tsunami auf Sulawesi, -
20:44 - 20:49einen kleinen Ausschnitt davon habe ich
einmal hier. Der vor einigen Monaten. Hier -
20:49 - 20:56sehen wir im Hintergrund eine Moschee, die
schon ziemlich mitgenommen aussieht. Eine -
20:56 - 20:59bunte Wand und im Teil, den ich
rausgeschnitten hab, weil er sonst zu lang -
20:59 - 21:03gewesen wäre, kann man erkennen, dass es
halt in einem runden Raum aufgenommen -
21:03 - 21:08wurde. Man kann halt im Hintergrund die
Biegung der Wand erkennen. Nur wo genau - -
21:08 - 21:13das stand halt eben nicht dran. Und auch
auf Sulawesi ist die indonesische Küste -
21:13 - 21:17sehr lang und da mühsam nur mit Google
Maps die Küste abzusuchen, wo eine Moschee -
21:17 - 21:23eventuell ein ähnlich farbiges Dach hat.
Ja - das dauert sehr lange. Aber zum Glück -
21:23 - 21:29gibt's auch Programme wie Wikimapia. Die
haben sich als Motto gesetzt, dass sie -
21:29 - 21:33alles kategorisieren wollen. Und so kann
man sich den ungefähren Küstenabschnitt -
21:33 - 21:38raussuchen und eine Kategorie auswählen -
in dem Fall halt: Moschee. Sie haben aber -
21:38 - 21:44auch Kategorien wie: Kirchen, Denkmäler,
Schulen, Regierungsgebäude. Was auch sehr -
21:44 - 21:49hilfreich sein kann - das hatten wir
einmal bei einem Video aus Syrien. Da war -
21:49 - 21:53im Video-Beschreibungstext die Angabe,
dass es angeblich an - zwischen einer -
21:53 - 21:57Schule und einem Regierungsgebäude
aufgenommen worden sein soll. Hier kann -
21:57 - 22:01man sich beide Layer anzeigen und gucken,
ob es tatsächlich stimmt. Und es ist -
22:01 - 22:05deutlich angenehmer, als die ganze Küste
nur mit Google Maps abzufahren und auf -
22:05 - 22:12Hausdächerfarben zu achten. Ja. Warum
sollte das jetzt eigentlich jeder können? -
22:12 - 22:18Man will Gegenöffentlichkeit schaffen.
Diese Videos verbreiten sich so -
22:18 - 22:23superschnell und jeder der kann, sollte -
und die Möglichkeit hat - der sollte die -
22:23 - 22:27Leute aufklären und halt sagen, dass es
eine Fälschung ist. Das Ganze waren jetzt -
22:27 - 22:34halt noch vergleichsweise harmlose Sachen.
Aber auch da gilt: die Verbreitung sollte -
22:34 - 22:40möglichst eingedämmt werden. Denn, diese
Fakes können eben auch falsche Narrative -
22:40 - 22:44bilden. Also klar, ob jetzt der Tsunami
unbedingt 'da' ist, das ist jetzt -
22:44 - 22:49vielleicht für die öffentliche Debatte
nicht so wirklich wichtig. Aber wir hatten -
22:49 - 22:52auch Bilder vom Olympia-Einkaufszentrum da
in München, die ich jetzt hier nicht -
22:52 - 22:57zeigen möchte. Die einfach komplett andere
Tatorte dargestellt haben. Und es gab -
22:57 - 23:03Videos und Fotos von einem vermeintlichen
Täter, der nicht der Täter war. So schnell -
23:03 - 23:07wie die sich im Netz verteilen, kostet das
im Zweifelsfall den falschen Menschen das -
23:07 - 23:10Leben, wenn er mit seinem Leben nicht mehr
froh wird, wenn dieses Bild nicht mehr aus -
23:10 - 23:15dem Netz verschwindet und er ständig als
der Täter gehalten wird. Und.. im -
23:15 - 23:18Zweifelsfall, als worst-case, kann das
natürlich auch gesellschaftliche Debatten -
23:18 - 23:23beeinflussen. Wenn halt versucht wird,
einem einen falschen Täter unterzuschieben -
23:23 - 23:27oder ein besonders grausames Bild, weil es
klickt sich besser, als vermeintlichen -
23:27 - 23:33Tatort zu präsentieren. So, wie macht man
das jetzt am besten, welche Tools gibt's -
23:33 - 23:38denn da. Hab ich hier eine kleine
Übersicht - die Links stehen immer unten -
23:38 - 23:43dran. Sehr praktisch bei Videos zum
Beispiel aus Syrien ist die unten genannte -
23:43 - 23:48Website. Fast sämtliche Rebellengruppen
veröffentlichen ihre Videos immer mit -
23:48 - 23:52ihren Logos im Bild. Ich kann kein
Arabisch, viele andere Leute können kein -
23:52 - 23:56Arabisch und mit den Logos kann ich,
ehrlich gesagt, nichts anfangen. Ein paar -
23:56 - 23:58hat man mal gesehen, aber welche Art von
Gruppe da jetzt wirklich hinter steht - -
23:58 - 24:03keine Ahnung. Bei der Webseite kann man
einfach seine Bilder oder seine Videos -
24:03 - 24:07hochladen oder den Link dahin schicken,
sie extrahieren dir das Logo, sagen dir zu -
24:07 - 24:10welcher Gruppe das gehört und bieten dir
praktischerweise direkt noch den passenden -
24:10 - 24:15Wikipedia-Artikel dazu an. Das machen sie
nicht nur für diese Gruppen, es sind auch -
24:15 - 24:18noch die verschiedensten Logos von
Fernsehsendern aus der ganzen Welt -
24:18 - 24:21hinterlegt. Wenn man jetzt also nicht
weiß, welcher Fernsehsender aus welchem -
24:21 - 24:23Land so ein Bild eventuell immer
ausgestrahlt hat und wo man da -
24:23 - 24:27weiterforschen will, ist das auf jeden
Fall ein sehr praktischer und spannender -
24:27 - 24:36Ansatz. Die Details im Hintergrund. Wer
weiß denn, wie afghanische Nummernschilder -
24:36 - 24:411950 ausgesehen haben? Diese Website hat
auch zu sämtlichen afrikanischen Ländern -
24:41 - 24:45die Nummernschilder und zwar die
historischen, die aktuellen und alles -
24:45 - 24:50irgendwie dazwischen. Wenn man jetzt also
weiß, dass ein - oder vermutet - dass ein -
24:50 - 24:53Video an einem bestimmten Ort aufgenommen
wurde und kann so etwas im Hintergrund -
24:53 - 24:57irgendwie identifizieren, kann man dort
einfach schauen, ob die Kennzeichen dort -
24:57 - 25:04wirklich so aussehen. Den Sonnenstand zum
Beispiel kann man mit diesem Tool hier -
25:04 - 25:09ganz gut berechnen. Man gibt einfach einen
Ort ein, ein Datum und halt eben eine -
25:09 - 25:14entsprechende Uhrzeit. Bei dem Ereignis,
von dem man weiß, wann es stattgefunden -
25:14 - 25:18hat, hat man natürlich auch die Uhrzeit.
Wenn da jetzt bestimmte Schatten im Bild -
25:18 - 25:22zu sehen sind, kann man zumindest
überprüfen ob es halbwegs hinkommt. Sowohl -
25:22 - 25:26von der Länge - hier wird ja angezeigt: an
diesem Ort, zu der Uhrzeit, in der -
25:26 - 25:31Jahreszeit, wirft ein Objekt mit einem
Meter Größe einen Schatten von 1,71m. Kann -
25:31 - 25:35man ungefähr überprüfen, wenn man
Anhaltspunkte hat. Man kann auf jeden Fall -
25:35 - 25:37gucken, ob die Richtung des Schattens
stimmt und ob es wirklich um diese Uhrzeit -
25:37 - 25:45aufgenommen wurde. Ja, auch gut
abgeschirmte Facebook-Accounts bieten doch -
25:45 - 25:49irgendwie so ein bisschen mehr Hinweise,
als Facebook dich ich jetzt vielleicht -
25:49 - 25:53glauben lassen will. Auch wenn du dir das
Profil aus der Sicht eines fremden -
25:53 - 25:58angucken kannst oder von dem eines
Freundes. Was nämlich nicht privat ist, -
25:58 - 26:02sondern was öffentlich ist, ist das was du
gelikt hast, was du kommentiert hast. -
26:02 - 26:05Weil, das ist ja nicht nur mit deinem
Account verknüpft, sondern eben auch mit -
26:05 - 26:08einem Account von.. der vielleicht offen
ist oder mit einer Seite. Da steht ja dein -
26:08 - 26:12Name und dein Kommentar öffentlich
einsehbar für jeden. Und.. gewisse -
26:12 - 26:18Websites können halt eben diese Sachen für
dich herausfinden. Du kannst halt gucken -
26:18 - 26:22nach Posts, hier: 'Photos tagged with Mark
Zuckerberg'. Du kannst gucken, welche ihm -
26:22 - 26:26gefallen, wo er kommentiert hat. Du kannst
gucken, welche Orte jemanden.. jemand -
26:26 - 26:30besucht hat oder mit jemandem zusammen
besucht hat. Kannst gucken welche -
26:30 - 26:34Beziehungen zwischen den Leuten halt eben
bestehen oder wann, welche Personen die -
26:34 - 26:40andere Person in einem Beitrag erwähnt
hat. Das sind halt Sachen, die siehst du -
26:40 - 26:43nicht bei Facebook in der normalen
Ansicht, selbst wenn du deinen Account -
26:43 - 26:48komplett dicht gemacht hast. Und für
englischsprachige Accounts gibt's diese -
26:48 - 26:53Suchfunktion bereits, aber da muss man
sich mit der nicht so logischen, nicht so -
26:53 - 27:00einfachen -ja, wie soll ich's nennen. Nicht
so einfachen Suche einfach -
27:00 - 27:06auseinandersetzen. Zum Beispiel kann man
auch suchen nach 'Users, who liked', aber -
27:06 - 27:09ist es dann wirklich Users oder ist es
People. Bei dem einen gibt er dir halt -
27:09 - 27:12keine Fehlermeldung, sondern nur keine
Ergebnisse; bei dem anderen gibt er dir -
27:12 - 27:16die Ergebnisse. Und sich das alles
auswendig zu merken, das alles zu behalten -
27:16 - 27:20ist halt doch ein bisschen kompliziert,
deswegen gibt's da gute Seiten, die das -
27:20 - 27:26für einen übernehmen. Kommentiert Das
war zurück. So. Wieder ans Publikum Ein -
27:26 - 27:31Plugin, das ich auch noch jedem ans Herz
legen möchte, ist InVid. Bietet viele -
27:31 - 27:37Funktionen, zum Beispiel das Auslesen von
Keyframes aus YouTube-Videos, die Anzeige -
27:37 - 27:44des Originalload-Datums. Weil, Upload-
Daten und Zeitzonen sind nie schön. Bei -
27:44 - 27:47ganz vielen Plattformen gibt es
Unterschiede: bist du eingeloggt, bist du -
27:47 - 27:50nicht eingeloggt, beim einen ist es
irgendwie UTC, die anderen machen dir dann -
27:50 - 27:53Pacific Time, die anderen machen deine
lokale Zeitzone, wenn du eingeloggt bist. -
27:53 - 27:57Weil es halt auch niemals die Zeitzone des
Uploaders. Hier gibt es halt irgendwie -
27:57 - 28:02einen Standard, der eben vergleichbar ist.
Das bietet die Möglichkeit 'Magnifier' - -
28:02 - 28:06Lupe. Gut, das kann man jetzt im
Zweifelsfall auch noch selbst auf dem -
28:06 - 28:10Rechner machen. Bietet hier die
Möglichkeit über alle Plattformen hinweg -
28:10 - 28:14zu suchen. Eine Bild-Rückwärtssuche zu
machen und mit einem Klick auch direkt die -
28:14 - 28:18gespiegelte Variante davon zu suchen.
Manche Leute denken, ja sie sind schlau -
28:18 - 28:20und spiegeln einfach das Bild und
schneiden es ein bisschen zu, dann wird es -
28:20 - 28:24in der Rückwärtssuche nämlich nicht mehr
gefunden. Hier ist das halt alles sehr -
28:24 - 28:29schön in einem - wie Sie selbst nennen -
Schweizer Taschenmesser für diese Arbeit -
28:29 - 28:35zusammengefasst. So, ich hoffe ich konnte
zeigen, dass Verifizierung jetzt nicht so -
28:35 - 28:41großartig die Raketenwissenschaft ist.
Neugier, Geduld und Training sind aber -
28:41 - 28:46schon nötig. Aber es gibt halt eben super
viele Programme, Websites und Plugins, die -
28:46 - 28:49einen dabei unterstützen. Es gibt gute
Literatur dazu, es ist gut dokumentiert. -
28:49 - 28:54Es würde mich also freuen, wenn ich hier
den einen oder anderen vielleicht so ein -
28:54 - 28:57bisschen.. oder in dem einen oder anderen
so ein bisschen das Interesse daran -
28:57 - 29:04geweckt habe. Wer Übung braucht, dem kann
ich nur empfehlen: folgt '@quiztime'. Das -
29:04 - 29:08ist ein Account von - einmal Journalisten
der Deutschen Welle, von Journalisten vom -
29:08 - 29:14NDR und von anderen Medien, die das halt
in ihrer Freizeit machen. Dort regelmäßig -
29:14 - 29:17Quize und Rätsel posten, wo man halt
selber irgendwie ein bisschen aktiv werden -
29:17 - 29:20muss, sich selber nochmal auf den neuesten
Stand bringen kann, was für Programme es -
29:20 - 29:24gibt. Welche Schritte muss ich machen, um
zum Ergebnis zu kommen. Und das ist -
29:24 - 29:30eigentlich immer ein ganz netter
Zeitvertreib für zwischendurch. So, 26 -
29:30 - 29:34Minuten sehe ich hier, dann bin ich auch
schon fast am Ende. Wenn es denn noch -
29:34 - 29:35Fragen gibt.
-
29:35 - 29:37Applaus
-
29:37 - 29:50Engel: Genau. Wir haben tatsächlich noch
ungefähr zehn Minuten Zeit für Fragen. Und -
29:50 - 29:53wenn ihr Fragen habt, dann könnt ihr euch
an die Saal-Mikrofone stellen und wir -
29:53 - 29:55beginnen traditionell mit einer Frage aus
dem Internet. -
29:55 - 29:58Sprecher (liest Frage aus dem Internet
vor): Gibt es bestimmte Quellen, wo du aus -
29:58 - 30:04deiner Erfahrung sagst: da muss man mit
Nachrichten vorsichtig sein? Und.. Würdest -
30:04 - 30:07du die nennen?
Robert: Bestimmte Quellen? -
30:07 - 30:11Sprecher: Also Nachrichtenseiten oder so.
Robert: Atmet geräuschvoll aus -
30:11 - 30:17Schwierig. Ich würde jetzt einfach mal
generell sagen: das Internet. Ich hab ja -
30:17 - 30:22gesagt: im Grunde muss man halt eigentlich
immer kritisch sein, weil.. Was wir bei -
30:22 - 30:25uns eben auch gesagt haben: nur weil jetzt
ein anderes Medium - und sei es auch -
30:25 - 30:29irgendwie ein Medium, das man selbst für
vertrauenswürdig hält - darüber berichtet, -
30:29 - 30:32heißt es nicht, dass die Leute nicht auch
auf die gleiche Sache reingefallen sein -
30:32 - 30:36können. Und sich einfach nur auf andere
Medien zu berufen ist da halt einfach -
30:36 - 30:39nicht genug. Weil, jeder macht Fehler,
warum sollte es denen nicht auch -
30:39 - 30:43passieren. Und das einfach nur zu
übernehmen, das ist zumindest bei uns - -
30:43 - 30:46und ich kenn's auch von anderen
Redaktionen, von anderen Sendern, von -
30:46 - 30:50anderen Medien so, dass sie sagen: Das ist
jetzt kein Argument auf der Pro-Seite, das -
30:50 - 30:54es schon mal woanders erwähnt wurde.
Engel: So, wenn wir jetzt mit den Fragen -
30:54 - 30:57aus dem Saal weitermachen, dann denkt
bitte dran, dass ihr immer ganz nah an die -
30:57 - 31:00Mikrofone ran geht und da direkt rein
sprecht. Die beißen euch nicht in die -
31:00 - 31:05Nase. Die erste Frage kommt vom Mikrofon
Nr. 7. Ganz nah ran bitte. -
31:05 - 31:08Sprecher: Es gibt ja einen Wettstreit
zwischen dem Verbreiten von -
31:08 - 31:11Fehlinformationen und dem Gegen-
Recherchieren und man läuft da ins -
31:11 - 31:16Skalierungsproblem. Es ist im Zweifel
aufwendiger Falschheit zu belegen, als die -
31:16 - 31:18Lüge einfach weiter zu verbreiten. Glaubst
du, dass ist eine ausreichende -
31:18 - 31:24Gegenstrategie?
Robert: Atmet geräuschvoll aus Naja, ich -
31:24 - 31:28sag mal selber als Journalist bist du ja
jetzt erst mal ein Filter. Dein Anspruch -
31:28 - 31:34ist ja nicht, das du jetzt selbst jede
einzelne Lüge im Internet widerlegst. Aber -
31:34 - 31:37wenn du dich mit einem bestimmten Thema
beschäftigst und dafür zum Beispiel Bilder -
31:37 - 31:42suchst und Bildmaterial brauchst, dann
kannst du natürlich auswählen, welches du -
31:42 - 31:45nimmst. Und so erfolgt halt die
Verifizierung. Ist ja jetzt nicht so, dass -
31:45 - 31:49dein Anspruch quasi ist, jede einzelne
Lüge im Internet widerlegen zu können. -
31:49 - 31:51Hat, glaube ich, niemand die Kapazitäten
für -
31:51 - 31:55Engel: Mikrofon Nr. 5 bitte.
Sprecher: (OffMikro Für) wie -
31:55 - 31:59vertrauenswürdig hältst du deine
Verifizierungstools? Und benutzt du immer -
31:59 - 32:04mehrere, um es zu korrelieren?
Robert: Vertrauenswürdigkeit - würde ich -
32:04 - 32:08sagen, im Rahmen von dem was sie können,
sind sie gut. Bei einigen Sachen ist halt -
32:08 - 32:14auch so ein bisschen Interpretation und,
ja, Erfahrung nötig. Oftmals hilft aber -
32:14 - 32:18eben auch der gesunde Menschenverstand.
Wovon ich jetzt zum Beispiel nicht so viel -
32:18 - 32:24halte, sind diese Foto-Forensics-Tools,
die dir mit der ELA Analyse zeigen, ob -
32:24 - 32:27jetzt angeb-.. oder zeigen 'wollen', ob
dir da angeblich was rein geshoppt wurde -
32:27 - 32:31oder nicht. Weil, das ist halt nicht
wissenschaftlich, da gibt es keine -
32:31 - 32:35wissenschaftliche Begründung. Du siehst
dann halt dieses Foto, mit dieser drüber -
32:35 - 32:38gelegten Analyse. Aber es ist deine
Interpretation: ist das jetzt dieses -
32:38 - 32:42Muster, das sich da abzeichnet; ist das
eine Fälschung oder ist es nicht. Das -
32:42 - 32:45taugt eigentlich noch nicht mal als
Anhaltspunkt, weil selbst bei besonders -
32:45 - 32:49starken Kontrasten oder ungünstigen
Lichtverhältnissen es eine Fälschung zeigt -
32:49 - 32:53und wenn halt eine Fälschung gut gemacht
ist, es das eigentlich nicht anzeigt. -
32:53 - 32:56Also, den anderen Programmen, wo du halt
wirklich noch selber was machen musst, -
32:56 - 33:01denen vertraue ich soweit, so wie ich sie
da vorgestellt habe. Aber den.. diesen -
33:01 - 33:03Sachen eher nicht.
Engel: Mikrofon Nr. 4 bitte. -
33:03 - 33:10Sprecher: Ja, vielen Dank. War super
informativ. Du hast nicht so viel dazu -
33:10 - 33:16gesagt, wie man die Primär-Quelle finden
könnte. Macht man das, hast du da so.. -
33:16 - 33:20Robert: Also, ja. Der erste Schritt wäre
halt zum Beispiel so eine Rückwärtssuche. -
33:20 - 33:24Weil die meisten Fälschungen, denen wir
jetzt eben so begegnest eben dieses -
33:24 - 33:29recycelte Material ist. Findest du da halt
super schnell dann eben heraus, dass ein -
33:29 - 33:32Video jetzt fünf Jahre alt ist. Dann musst
du jetzt auch nicht gucken, wer es vor -
33:32 - 33:35fünf Jahren als erstes gepostet hat. Da
reicht dir halt die Info, dass es eben -
33:35 - 33:41fünf Jahre alt ist und nicht von heute
oder von gestern. Und ansonsten einfach -
33:41 - 33:46deskriptiv gucken was.. was.. was zeigt es
denn. Dann kann man auch auf den.. auf -
33:46 - 33:50Plattformen, auch auf anderen Plattformen
einfach mal nach den Wörtern suchen, die -
33:50 - 33:55einem dazu in den Sinn kommen, wenn... Wir
hatten da ein Video aus dem ägyptischen -
33:55 - 33:58Frühling, das angeblich damit.. das
angeblich zeigen sollte, wie Demonstranten -
33:58 - 34:02ein Polizeiauto von der Brücke werfen. War
falsch. der hat einfach einen -
34:02 - 34:05Rückwärtsgang eingelegt und hat sich
verfahren und ist von der Brücke gefallen. -
34:05 - 34:12Aber da kann man halt eben auch nach
Stichwörtern suchen, wie: police, car, -
34:12 - 34:16bridge, demonstrants. Das Ganze halt eben
dann auf Arabisch übersetzen, einfach -
34:16 - 34:20diese Stichwörter in die Suchmaschinen
reinpumpen und gucken, was einem da eben -
34:20 - 34:23zuerst auffällt. Wer das zuerst
hochgeladen hat. -
34:23 - 34:25Engel: Mikrofon Nr. 2, bitte.
Sprecher: Danke noch mal für den -
34:25 - 34:27spannenden Talk. Engel sagt etwas
unverständliches -
34:27 - 34:33Sprecher: Ich bin ich. Engel: Es geht
immer noch mehr. Sprecher: lacht Jawohl. -
34:33 - 34:35Engel: Siehst du.
Sprecher: Reuters... -
34:35 - 34:38Publikum lacht und applaudiert
Robert lacht -
34:38 - 34:44Sprecher: Zu der Frage: Reuters hatte -
ich vor einigen Jahren - einen 'ban' auf -
34:44 - 34:48Rohmaterial ausgesprochen und hat gesagt:
'Ab heute wollen wir nur noch JPEGs'. Du -
34:48 - 34:51hattest vorhin das Beispiel mit den
Raketen. Robert stimmt zu Kannste dir -
34:51 - 34:54das erklären, warum man plötzlich ein -
sagen wir Mal - schwieriger zu fälschendes -
34:54 - 34:58Medium ablehnt und sagt: 'Ich möchte jetzt
doch lieber die Billigdaten haben. -
34:58 - 35:02Robert: Ganz ehrlich: keine Ahnung. Ich
kann es mir nicht erklären. Ich wusste bis -
35:02 - 35:07jetzt auch ehrlich gesagt diese Policy von
Reuters nicht. Aber ich kann es mir auch -
35:07 - 35:11nicht wirklich erklären. Nein.
Engel: Mikrofon Nr. 3, bitte. -
35:11 - 35:15Sprecher: Ja, auch räuspern noch von
meiner Seite vielen Dank. Es war in -
35:15 - 35:19letzter Zeit viel die Rede von diesen Deep
Fakes. Hast du sowas dann auch schon mal -
35:19 - 35:23in freier Wildbahn dann selber gesehen.
Also außer jetzt diese bekannten, -
35:23 - 35:28einschlägigen Beispiele.
Robert: Ne, in freier Wildbahn so noch -
35:28 - 35:31nicht. Also zumindest nicht so, dass es
halt irgendwie auffällig genug und -
35:31 - 35:35relevant für uns ist. Da gibt's so ein
paar Sachen irgendwie, die die Zukunft -
35:35 - 35:39bringen kann, wie zum Beispiel Deep
Fakes. Die kann man noch irgendwie - noch, -
35:39 - 35:43finde ich - relativ gut irgendwie
unterscheiden. Wenn man sich halt eben auf -
35:43 - 35:46die Details konzentriert, ob der
Hintergrund auf einmal anfängt zu wackeln -
35:46 - 35:51oder ob die gerade Linie auch wirklich
gerade bleibt. Aber das ist jetzt noch -
35:51 - 35:55nicht so das Riesenthema für uns. Genauso
wie die Software von Adobe mit der du -
35:55 - 35:59Stimmen fälschen kannst - oder können
sollst. Die vor zwei Jahren da vorgestellt -
35:59 - 36:03wurde. Da hat man auch nichts wieder von
gehört. Das ist jetzt... bringt vielleicht -
36:03 - 36:07die Zukunft. Da müssen wir gucken, wie man
damit umgeht. Aber aktuell noch nicht. -
36:07 - 36:10Engel: Jetzt ist das Internet wieder mit
einer Frage am Zug. -
36:10 - 36:14Sprecher: Hast du Beispiele für Recherchen
oder Material, was im schulischen Kontext -
36:14 - 36:19genutzt wurde um Schülerinnen und Schüler
zu sensibilisieren für das Thema. -
36:19 - 36:25Robert: Ne. Also, natürlich irgendwie wäre
es eine super Sache, aber ich glaube bis -
36:25 - 36:28sowas in den Schulen ankommen wird es
wahrscheinlich leider auch noch etwas -
36:28 - 36:33dauern. Das geht ja schon fast ein
bisschen über das allgemeine Thema -
36:33 - 36:39Medienkompetenz hinaus - wäre zumindest
eine große Ergänzung dazu. Aber, da weiß -
36:39 - 36:42ich bisher noch nicht, ob das so in der
Art stattgefunden hat. -
36:42 - 36:48Engel: Mikrofon Nr. 2, bitte.
Sprecher: Jo, Moin und 'Höllö'. Eine Frage -
36:48 - 36:52- erst mal Dankeschön für deinen Vortrag.
Super klasse. -
36:52 - 36:59Robert: Danke. Sprecher: Wie weit ist das
Thema Algorithmen und das was man ja in -
36:59 - 37:03vielerlei Hinsichten kennt - gerade von
seinen FB-Freunden und so wat - ein Thema -
37:03 - 37:10für dich, für euch? Weil da ja auf eine
ganz andere Weise Fake News produziert -
37:10 - 37:15werden, weil sie ja eben aus bestimmten
Interessenslagen gesteuert werden und -
37:15 - 37:21nicht so ganz nachzuvollziehen ist, was
jetzt, wo ich welche Algorithmen, wie denn, -
37:21 - 37:26hervorkommt. Ist das ein Thema für euch.
Robert: Ich weiß jetzt nicht ganz, was du -
37:26 - 37:29meinst. Meinste die Strukturierung, wie
z.B. Facebook seinen Newsfeed -
37:29 - 37:33strukturiert. Dass dir Beiträge angezeigt
werden, die eher deinen Sachen entsprechen -
37:33 - 37:38oder was meinst du? Sprecher: Aber Hallo!
Genau. Ja. Genau das. -
37:38 - 37:40Robert: Ja, ist auf jeden Fall
problematisch, ne. Sprecher: Sehr! -
37:40 - 37:42Robert: Das ist auch eine der Sachen,
warum sich diese Beiträge eben so -
37:42 - 37:47verbreiten. Diese Echokammern, diese
Strukturierung auch eben durch die -
37:47 - 37:50sozialen Netzwerke, die meinen, dir den
Content präsentieren zu müssen, der für -
37:50 - 37:55dich interessant ist. Da ist es natürlich
schwer irgendwie die ganze Sache zu -
37:55 - 37:57durchdringen.
Sprecher: Aber einen Tipp hättest du -
37:57 - 38:00nicht? Wie man dagegen oder wie man das
transparenter machen kann oder... -
38:00 - 38:03Robert: Atmet geräuschvoll aus Also, wie
man das jetzt als Medien transparenter -
38:03 - 38:08machen kann, würde ich sagen: Da haben wir
jetzt nicht die Möglichkeit. Also, es muss -
38:08 - 38:10halt aufgeklärt werden, klar. Aber im
Endeffekt entscheidet halt auch jeder -
38:10 - 38:14Nutzer selbst, ob er seine Nachrichten
irgendwie nur darüber konsumieren möchte -
38:14 - 38:19oder ob er auch noch andere Quellen nimmt.
Sprecher: Klar. Danke. -
38:19 - 38:23Engel: Mikrofon Nr.4, bitte.
Sprecher: Hallo. Im Internet gibt's -
38:23 - 38:29verschiedene Bestrebungen Webseiten zu
klassifizieren, zum Beispiel als Satire, -
38:29 - 38:36rechts, links oder auch als problematisch.
Und dass dem Nutzer sehr direkt -
38:36 - 38:42anzuzeigen. Was hältst du davon?
Robert: Schnauft aus Schwieriges Thema. -
38:42 - 38:46Also, bei Facebook.. ich bin mir noch
nicht ganz sicher. Es gab ja diese -
38:46 - 38:50Vorschläge das zumindest, wenn jetzt viele
Leute einen entsprechenden Link, der -
38:50 - 38:53irgendwie herumgereicht wird, als Fake
klassifiziert haben oder es halt von einer -
38:53 - 38:58- ich sag mal - Expertengruppe als Fake
eingestuft wurde. Das es halt zumindest -
38:58 - 39:02irgendwie mit dran steht: 'Dieser Beitrag
ist umstritten, klicke hier um mehr zu -
39:02 - 39:07erfahren.'. Damit kann ich mich im
Zweifelsfall noch mehr anfreunden, als -
39:07 - 39:11jetzt Websites irgendwie dazu zu
verpflichten, sich zu klassifizieren oder -
39:11 - 39:15von anderen klassifiziert zu werden.
Weil,.. ich mein, auch so etwas wie -
39:15 - 39:18Satire, selbst wenn es manche Leute nicht
verstehen und das für Sie eine Art von -
39:18 - 39:23Fälschung ist, lebt halt eben auch davon,
dass es nicht in roten Lettern oben drüber -
39:23 - 39:28prangt.
Engel: Mikrofon 2 hat die vorletzte Frage -
39:28 - 39:30für heute Abend.
Sprecher: Ja, danke nochmal für den -
39:30 - 39:37Vortrag. Frage und vielleicht ein
Vorschlag: wie sieht das aus. Vor der -
39:37 - 39:41Recherche ist klar - jedes einzelne Medium
arbeitet für sich - klar Konkurrenzdruck. -
39:41 - 39:44Aber wenn ihr ein Ergebnis habt und ihr
habt ganz klar ein Fake gefunden, wie -
39:44 - 39:48sieht es mit dem Austausch mit anderen
Medien aus? Und, Zusatzfrage: wäre das -
39:48 - 39:52nicht was so im Sinne der Öffentlichkeit
auch genau diese Ergebnisse dann zu -
39:52 - 39:54veröffentlichen, damit alle wissen, dass
ist nicht koscher. -
39:54 - 40:00Robert: stimmt zu Also, ich kenne das so
von anderen Medien. Wir haben auch -
40:00 - 40:03regelmäßig Konferenzen, wo man sich
natürlich auch irgendwie mit den Kollegen -
40:03 - 40:07austauscht. Da gibt's dann eben auch
entsprechend größere Gruppen, in denen man -
40:07 - 40:11sich irgendwie mal über diese Themen
unterhält. Und.. ich weiß zum Beispiel, -
40:11 - 40:15dass es halt bei den.. bei größeren
Medienhäusern, sag ich jetzt mal, die mehr -
40:15 - 40:21als nur ein einziges Produkt haben, das es
da auch durchaus zusammengefasst ist. Das -
40:21 - 40:23da eben auch die Kollegen von
verschiedenen Marken sitzen und sich -
40:23 - 40:26austauschen und alle halt alle Infos dann
lesen. -
40:26 - 40:30Engel: Und wie so oft im Leben hat das
Internet das letzte Wort. -
40:30 - 40:35Sprecher: Jemand hat auf einen Talk vom
letzten Jahr hingewiesen, wo die These -
40:35 - 40:38vertreten wurde, dass Fake News
Problematik gar nicht so groß sei, als es -
40:38 - 40:43damals in den Medien der Fall gewesen sei.
Und jetzt war die Frage an dich, ob du das -
40:43 - 40:46Gefühl, dass es sich im letzten Jahr
verändert hat, ob es mehr, weniger oder -
40:46 - 40:51anders geworden ist.
Robert: Hm, wirklich anders würde ich -
40:51 - 40:55sagen: nein. Also die Muster sind halt
immer noch die gleichen, die Motivation -
40:55 - 40:59der Leute ist noch die gleiche. Leute, die
halt Aufmerksamkeit wollen oder die Profit -
40:59 - 41:04machen wollen. Das hat sich nicht
großartig verändert. Was wir halt so -
41:04 - 41:08gemerkt haben: es gab halt jetzt in diesem
Jahr zum Glück deutlich weniger Breaking -
41:08 - 41:15News Lagen, wo halt irgendwie ein Anschlag
hier in Europa passiert. Das war ja 2016, -
41:15 - 41:19sage ich mal aus der Hinsicht ein sehr
schlimmes und auch sehr anstrengendes -
41:19 - 41:22Jahr. Und da kann man halt merken, gerade
wenn es halt irgendwie was hoch -
41:22 - 41:26emotionalisierendes ist. Bei
Naturkatastrophen natürlich auch, aber vor -
41:26 - 41:31allem halt bei solchen Sachen wie
Anschlägen in Europa. Da ist halt der -
41:31 - 41:35Output an gefälschten Sachen einfach viel,
viel höher als so das normale -
41:35 - 41:38Grundrauschen. Deswegen war 2018 ein eher
ruhigeres Jahr. -
41:38 - 41:42Engel: Vielen Dank für die Einschätzung.
Damit sind wir am Ende. Vielen Dank -
41:42 - 41:44nochmal an eure vielen Fragen und ganz
besonders vielen Dank nochmal an Robert, -
41:44 - 41:48für diesen sehr informativen Talk. Gebt
ihm noch mal einen großen Applaus bitte. -
41:48 - 41:55Applaus Robert: Vielen Dank.
-
41:55 - 42:04Abspannmusik
-
42:04 - 42:18Untertitel erstellt von c3subtitles.de
im Jahr 2020. Mach mit und hilf uns!
Show all