Die moralische Befangenheit hinter Ihren Suchergebnissen
-
0:01 - 0:05Wann immer ich eine Schule besuche
und mit den Schülern spreche, -
0:05 - 0:06frage ich immer das Gleiche:
-
0:07 - 0:08"Warum googelt ihr?
-
0:09 - 0:12Warum benutzt ihr Google
als Suchmaschine?" -
0:13 - 0:16Jedes Mal bekomme ich
die gleichen drei Antworten. -
0:16 - 0:17Erstens: "Weil es funktioniert."
-
0:17 - 0:20Das stimmt, deshalb google ich ja auch.
-
0:20 - 0:22Zweitens:
-
0:22 - 0:25"Ich kenne keine gute Alternative."
-
0:25 - 0:29Das ist nicht so eine gute Antwort,
und meistens erwidere ich dann: -
0:29 - 0:31"Google doch mal 'Suchmaschine',
-
0:31 - 0:33dann findest du bestimmt eine."
-
0:33 - 0:35Und drittens,
-
0:35 - 0:39das wird immer ein Schüler sagen:
-
0:39 - 0:42"Mit Google kann ich mir sicher sein,
-
0:42 - 0:45immer das beste,
wertneutralste Ergebnis zu bekommen." -
0:45 - 0:52Sicher sein, immer das beste,
wertfreie Suchergebnis zu bekommen. -
0:53 - 0:56Da ich aus den
Geisteswissenschaften komme, -
0:56 - 0:58wenn auch aus den digitalen,
-
0:58 - 1:00läuft mir bei dieser Antwort
ein Schauer über den Rücken. -
1:00 - 1:04Ich verstehe zwar, dass diese Sicherheit,
die Idee des wertneutralen Ergebnisses, -
1:04 - 1:09der Grundstein unserer Liebe
und Wertschätzung für Google ist. -
1:09 - 1:13Aber ich werde Ihnen zeigen, warum das
schon rein theoretisch nicht möglich ist. -
1:13 - 1:16Zuerst müssen wir uns dafür
ein Prinzip genauer anschauen, -
1:16 - 1:19das hinter jedem Suchvorgang steckt
und das wir gerne vergessen. -
1:20 - 1:22Wann immer Sie etwas googeln,
-
1:22 - 1:26fragen Sie sich zuerst:
"Suche ich nach einem isolierten Fakt?" -
1:26 - 1:29Was ist die Hauptstadt von Frankreich?
-
1:30 - 1:32Was sind die Teile eines Wassermoleküls?
-
1:32 - 1:34Super -- dann können Sie googeln.
-
1:34 - 1:37Es gibt keine Wissenschaftler,
die kurz davor stehen, zu beweisen, -
1:37 - 1:40dass das in Wirklichkeit
London und H3O ist. -
1:40 - 1:42Hier gibt es keine Uneinigkeiten.
-
1:42 - 1:46Wir sind uns alle einig, was die Antworten
auf diese isolierten Fakten sind. -
1:46 - 1:49Wenn Sie jetzt Ihre Frage
ein wenig komplizierter stellen -
1:49 - 1:51und zum Beispiel fragen:
-
1:51 - 1:54"Warum gibt es einen Konflikt
zwischen Israel und Palästina?" -
1:54 - 1:57suchen Sie nicht mehr nach einem Fakt,
-
1:57 - 1:59sondern nach Wissen,
-
1:59 - 2:02das viel komplizierter und heikler ist.
-
2:02 - 2:05Um Wissen zu erlangen,
-
2:05 - 2:07müssen Sie 10, 20, 100 Fakten sammeln,
-
2:07 - 2:10ihnen zustimmen und sagen können,
"Ja, die sind alle wahr." -
2:10 - 2:12Aber durch das, was ich bin,
-
2:12 - 2:15jung oder alt, weiß oder schwarz,
homo- oder heterosexuell, -
2:15 - 2:17bewerte ich jeden Fakt unterschiedlich.
-
2:17 - 2:19Ich werde sagen: "Ja, das stimmt,
-
2:19 - 2:20aber das hier ist wichtiger für mich."
-
2:20 - 2:22Ab da wird's interessant,
-
2:22 - 2:24weil wir ab dem Punkt menschlich werden.
-
2:24 - 2:28An diesem Punkt fangen wir an,
zu diskutieren, Gesellschaften zu formen. -
2:28 - 2:31Um wirklich etwas zu erreichen,
müssen wir alle Fakten filtern, -
2:31 - 2:34durch unsere Freunde und Nachbarn,
Eltern und Kinder, Kollegen, -
2:34 - 2:35Zeitungen und Zeitschriften.
-
2:35 - 2:38Erst dann haben wir echtes Wissen,
-
2:38 - 2:43bei dem uns eine Suchmaschine
eigentlich nicht helfen kann. -
2:43 - 2:48Ich sprach von einem Beispiel,
um zu zeigen, warum es so schwierig ist, -
2:48 - 2:53dieses objektive, reine,
wahre Wissen zu erlangen -- -
2:53 - 2:54sozusagen als Denkanstoß.
-
2:54 - 2:58Ich werde einfache Suchanfragen starten.
-
2:58 - 3:02Fangen wir mit "Michelle Obama" an,
-
3:02 - 3:04der First Lady der USA.
-
3:04 - 3:06Wir suchen nach Bildern.
-
3:06 - 3:09Das funktioniert super, wie man sieht.
-
3:09 - 3:12Es sind ziemlich perfekte Suchergebnisse.
-
3:12 - 3:15Nur Michelle ist im Bild,
nicht mal der Präsident. -
3:16 - 3:17Wie funktioniert das?
-
3:17 - 3:19Erstaunlich einfach:
-
3:19 - 3:22Google ist dabei sehr clever,
aber um es einfach zu erklären: -
3:22 - 3:24Sie schauen sich zwei Dinge an.
-
3:24 - 3:29Erstens: Was sagt die Bildunterschrift?
-
3:30 - 3:32Steht "Michelle Obama" unter dem Bild?
-
3:32 - 3:34Ein gutes Zeichen,
dass wirklich sie im Bild ist. -
3:34 - 3:37Zweitens schaut sich Google
den Dateinamen an, -
3:37 - 3:40also den Namen, unter
dem das Foto hochgeladen wurde. -
3:40 - 3:43Heißt es "MichelleObama.jpeg"?
-
3:43 - 3:45Ein gutes Indiz dafür,
dass es nicht Clint Eastwood ist. -
3:45 - 3:50Man hat also diese beiden Kriterien
und bekommt dieses Ergebnis -- fast. -
3:50 - 3:562009 wurde Michelle Obama
Opfer einer rassistischen Kampagne, -
3:56 - 4:01in der sie durch ihre Suchergebnisse
beleidigt werden sollte. -
4:01 - 4:04Es gab ein weit verbreitetes Bild,
-
4:04 - 4:07in dem ihr Gesicht so entstellt war,
dass sie aussah wie ein Affe. -
4:07 - 4:10Das Bild wurde überall hochgeladen.
-
4:10 - 4:13Man hat das sehr strategisch getan,
-
4:13 - 4:16um es in die Suchergebnisse zu bekommen.
-
4:16 - 4:18Es wurde "Michelle Obama" betitelt,
-
4:18 - 4:23und man lud es als "MichelleObama.jpeg"
oder etwas ähnliches hoch. -
4:23 - 4:26Sie verstehen, warum --
um die Suchergebnisse zu manipulieren. -
4:26 - 4:28Und das hat tatsächlich funktioniert.
-
4:28 - 4:31Wenn man also 2009
"Michelle Obama" gegoogelt hat, -
4:31 - 4:33fand man unter den ersten Bildern
auch dieses Affen-Bild. -
4:33 - 4:36Die Ergebnisse bereinigen sich selbst,
-
4:36 - 4:38und das ist das Schöne dabei,
-
4:38 - 4:41weil Google jede Stunde, jeden Tag,
die Relevanz der Ergebnisse misst. -
4:41 - 4:45Dieses Mal ging Google aber weiter,
-
4:45 - 4:48da sie fanden: "Das ist rassistisch
und ein schlechtes Suchergebnis. -
4:48 - 4:50Wir entfernen das manuell.
-
4:50 - 4:53Wir müssen einen Code schreiben,
und das Ganze reparieren." -
4:53 - 4:56Und das taten sie.
-
4:56 - 4:59Ich glaube, niemand hier denkt,
dass das eine schlechte Idee war. -
4:59 - 5:01Ich auch nicht.
-
5:03 - 5:05Aber dann, ein paar Jahre später,
-
5:05 - 5:08tat der meist gegoogelte Anders,
-
5:08 - 5:11Anders Behring Breivik,
-
5:11 - 5:12was er tat.
-
5:12 - 5:15Das war am 22. Juli 2011,
-
5:15 - 5:17einem schrecklichen Tag für Norwegen.
-
5:17 - 5:21Dieser Mann, ein Terrorist,
jagte einige Regierungsgebäude hoch, -
5:21 - 5:24in Gehweite von hier, wo wir grade sind,
in Oslo, Norwegen, -
5:24 - 5:26und fuhr dann auf die Insel Utøya,
-
5:26 - 5:29schoss auf und tötete eine Gruppe Kinder.
-
5:29 - 5:32Fast 80 Menschen starben an diesem Tag.
-
5:32 - 5:37Viele würden diesen Terrorakt
in zwei Schritten beschreiben: -
5:37 - 5:40Er jagte die Gebäude in die Luft
und erschoss die Kinder. -
5:40 - 5:42Aber das stimmt nicht.
-
5:42 - 5:44Es gab drei Schritte.
-
5:44 - 5:47Er jagte die Gebäude in die Luft,
erschoss die Kinder, -
5:47 - 5:50und wartete, dass die Welt ihn googelt.
-
5:51 - 5:54Jeden dieser Schritte
bereitete er sorgfältig vor. -
5:54 - 5:57Und wenn das einer sofort verstanden hat,
-
5:57 - 5:59dann war das ein
schwedischer Webentwickler -
5:59 - 6:03und Suchmaschinen-Optimierungs-Experte
aus Stockholm, Nikke Linqvist. -
6:03 - 6:04Er ist auch politisch engagiert
-
6:04 - 6:08und war an jenem Tag in seinem Blog
und auf Facebook sehr aktiv. -
6:08 - 6:09Er sagte allen:
-
6:09 - 6:11"Wenn es eines gibt, was dieser Kerl will,
-
6:11 - 6:14dann ist es, sein Bild zu kontrollieren.
-
6:14 - 6:17Mal sehen, ob wir es verzerren können.
-
6:17 - 6:21Mal sehen, ob wir, die Zivilisierten,
gegen das, was er getan hat, -
6:21 - 6:24protestieren können, indem wir ihn
durch seine Suchergebnisse beleidigen." -
6:24 - 6:26Wie ging das?
-
6:26 - 6:29Er sagte all seinen Lesern Folgendes:
-
6:29 - 6:31"Geht ins Internet,
-
6:31 - 6:34sucht Bilder von Hundehaufen --
-
6:34 - 6:36sucht Bilder von Hundehaufen --
-
6:36 - 6:41und ladet sie bei euch hoch,
auf euren Websites und Blogs. -
6:41 - 6:43Stellt sicher, dass ihr seinen Namen
als Überschrift benutzt, -
6:43 - 6:47und die Datei "Breivik.jpeg" nennt.
-
6:47 - 6:52Lasst uns Google beibringen, dass das
das Gesicht des Terroristen ist." -
6:54 - 6:55Es hat funktioniert.
-
6:56 - 6:58Zwei Jahre nach Michelle Obama
-
6:58 - 7:02funktionierte diese Kampagne
gegen Anders Behring Breivik. -
7:02 - 7:06Googelte man ihn in den Wochen danach,
-
7:06 - 7:11sah man unter den ersten Bild-Ergebnissen
diese Hundehaufen als Protest. -
7:14 - 7:18Seltsamerweise schritt Google
dieses Mal nicht ein. -
7:18 - 7:22Die Suchergebnisse wurden
nicht manuell bereinigt. -
7:24 - 7:26Die Eine-Millionen-Dollar-Frage ist:
-
7:26 - 7:30Gibt es irgendeinen Unterschied
zwischen den beiden Kampagnen? -
7:30 - 7:32Ist das, was Michelle Obama passierte,
-
7:32 - 7:35anders als das, was Anders
Behring Breivik passierte? -
7:35 - 7:37Natürlich nicht.
-
7:37 - 7:39Es ist genau das Gleiche,
-
7:39 - 7:41aber Google schritt nur in einem Fall ein.
-
7:41 - 7:44Warum?
-
7:44 - 7:46Weil Michelle Obama
eine ehrhafte Person ist, -
7:46 - 7:50und Anders Behring Breivik
eine verabscheuenswürdige. -
7:50 - 7:52Sehen Sie, was passiert?
-
7:52 - 7:54Es findet eine Bewertung statt,
-
7:54 - 7:58und es gibt nur einen
Power-Player in der Welt, -
7:58 - 8:01der die Autorität hat, zu sagen,
wer gut und wer schlecht ist. -
8:01 - 8:04"Wir mögen dich. Dich mögen wir nicht.
-
8:04 - 8:06Wir glauben an dich, aber nicht an dich."
-
8:06 - 8:07"Du hast Recht, du nicht.
-
8:07 - 8:09Du bist Obama, und du bist Breivik."
-
8:10 - 8:13Das ist wahre Macht.
-
8:15 - 8:19Ich möchte, dass Ihnen bewusst wird,
dass hinter jedem Algorithmus -
8:19 - 8:21immer eine Person sitzt,
-
8:21 - 8:24eine Person mit individuellen Meinungen,
-
8:24 - 8:26die kein Code jemals entfernen kann.
-
8:26 - 8:28Meine Botschaft gilt nicht nur Google,
-
8:28 - 8:31sondern allen, die fest an Codes glauben.
-
8:31 - 8:34Sie müssen Ihre eigenen Neigungen einsehen
-
8:34 - 8:37und verstehen, dass Sie ein Mensch sind
-
8:37 - 8:39und dementsprechend handeln.
-
8:40 - 8:44Ich bin der Meinung, dass wir
an einem Punkt angelangt sind, -
8:44 - 8:46an dem es absolut notwendig wird,
-
8:46 - 8:48dass wir diese Verknüpfungen
immer enger machen: -
8:48 - 8:50Technik und Geisteswissenschaften.
-
8:51 - 8:53Enger als je zuvor,
-
8:53 - 8:57nicht zuletzt, um uns daran zu erinnern,
dass diese so verlockende Idee, -
8:57 - 9:01eines wertfreien Suchergebnisses
ein Mythos ist, -
9:01 - 9:02und wahrscheinlich auch bleiben wird.
-
9:02 - 9:04Vielen Dank.
-
9:04 - 9:06(Applaus)
- Title:
- Die moralische Befangenheit hinter Ihren Suchergebnissen
- Speaker:
- Andreas Ekström
- Description:
-
Suchmaschinen sind zu unserer beliebtesten Quelle für Informationen und Wissen geworden. Aber kann man jemals ein wertfreies Suchergebnis bekommen? Der schwedische Autor und Journalist Andreas Ekström behauptet, dass das philosophisch gesehen nicht möglich ist. In seinem Vortrag fordert er uns auf, Geisteswissenschaften und Technologie stärker miteinander zu verbinden, und erinnert uns daran, dass hinter jedem Algorithmus auch eine Reihe an persönlichen Neigungen und Vorstellungen stecken, die kein Code je neutralisieren könnte.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
Nadine Hennig edited German subtitles for The moral bias behind your search results | ||
David S approved German subtitles for The moral bias behind your search results | ||
David S edited German subtitles for The moral bias behind your search results | ||
David S edited German subtitles for The moral bias behind your search results | ||
David S edited German subtitles for The moral bias behind your search results | ||
Angelika Lueckert Leon accepted German subtitles for The moral bias behind your search results | ||
Angelika Lueckert Leon edited German subtitles for The moral bias behind your search results | ||
Angelika Lueckert Leon edited German subtitles for The moral bias behind your search results |