Return to Video

Die moralische Befangenheit hinter Ihren Suchergebnissen

  • 0:01 - 0:05
    Wann immer ich eine Schule besuche
    und mit den Schülern spreche,
  • 0:05 - 0:06
    frage ich immer das Gleiche:
  • 0:07 - 0:08
    "Warum googelt ihr?
  • 0:09 - 0:12
    Warum benutzt ihr Google
    als Suchmaschine?"
  • 0:13 - 0:16
    Jedes Mal bekomme ich
    die gleichen drei Antworten.
  • 0:16 - 0:17
    Erstens: "Weil es funktioniert."
  • 0:17 - 0:20
    Das stimmt, deshalb google ich ja auch.
  • 0:20 - 0:22
    Zweitens:
  • 0:22 - 0:25
    "Ich kenne keine gute Alternative."
  • 0:25 - 0:29
    Das ist nicht so eine gute Antwort,
    und meistens erwidere ich dann:
  • 0:29 - 0:31
    "Google doch mal 'Suchmaschine',
  • 0:31 - 0:33
    dann findest du bestimmt eine."
  • 0:33 - 0:35
    Und drittens,
  • 0:35 - 0:39
    das wird immer ein Schüler sagen:
  • 0:39 - 0:42
    "Mit Google kann ich mir sicher sein,
  • 0:42 - 0:45
    immer das beste,
    wertneutralste Ergebnis zu bekommen."
  • 0:45 - 0:52
    Sicher sein, immer das beste,
    wertfreie Suchergebnis zu bekommen.
  • 0:53 - 0:56
    Da ich aus den
    Geisteswissenschaften komme,
  • 0:56 - 0:58
    wenn auch aus den digitalen,
  • 0:58 - 1:00
    läuft mir bei dieser Antwort
    ein Schauer über den Rücken.
  • 1:00 - 1:04
    Ich verstehe zwar, dass diese Sicherheit,
    die Idee des wertneutralen Ergebnisses,
  • 1:04 - 1:09
    der Grundstein unserer Liebe
    und Wertschätzung für Google ist.
  • 1:09 - 1:13
    Aber ich werde Ihnen zeigen, warum das
    schon rein theoretisch nicht möglich ist.
  • 1:13 - 1:16
    Zuerst müssen wir uns dafür
    ein Prinzip genauer anschauen,
  • 1:16 - 1:19
    das hinter jedem Suchvorgang steckt
    und das wir gerne vergessen.
  • 1:20 - 1:22
    Wann immer Sie etwas googeln,
  • 1:22 - 1:26
    fragen Sie sich zuerst:
    "Suche ich nach einem isolierten Fakt?"
  • 1:26 - 1:29
    Was ist die Hauptstadt von Frankreich?
  • 1:30 - 1:32
    Was sind die Teile eines Wassermoleküls?
  • 1:32 - 1:34
    Super -- dann können Sie googeln.
  • 1:34 - 1:37
    Es gibt keine Wissenschaftler,
    die kurz davor stehen, zu beweisen,
  • 1:37 - 1:40
    dass das in Wirklichkeit
    London und H3O ist.
  • 1:40 - 1:42
    Hier gibt es keine Uneinigkeiten.
  • 1:42 - 1:46
    Wir sind uns alle einig, was die Antworten
    auf diese isolierten Fakten sind.
  • 1:46 - 1:49
    Wenn Sie jetzt Ihre Frage
    ein wenig komplizierter stellen
  • 1:49 - 1:51
    und zum Beispiel fragen:
  • 1:51 - 1:54
    "Warum gibt es einen Konflikt
    zwischen Israel und Palästina?"
  • 1:54 - 1:57
    suchen Sie nicht mehr nach einem Fakt,
  • 1:57 - 1:59
    sondern nach Wissen,
  • 1:59 - 2:02
    das viel komplizierter und heikler ist.
  • 2:02 - 2:05
    Um Wissen zu erlangen,
  • 2:05 - 2:07
    müssen Sie 10, 20, 100 Fakten sammeln,
  • 2:07 - 2:10
    ihnen zustimmen und sagen können,
    "Ja, die sind alle wahr."
  • 2:10 - 2:12
    Aber durch das, was ich bin,
  • 2:12 - 2:15
    jung oder alt, weiß oder schwarz,
    homo- oder heterosexuell,
  • 2:15 - 2:17
    bewerte ich jeden Fakt unterschiedlich.
  • 2:17 - 2:19
    Ich werde sagen: "Ja, das stimmt,
  • 2:19 - 2:20
    aber das hier ist wichtiger für mich."
  • 2:20 - 2:22
    Ab da wird's interessant,
  • 2:22 - 2:24
    weil wir ab dem Punkt menschlich werden.
  • 2:24 - 2:28
    An diesem Punkt fangen wir an,
    zu diskutieren, Gesellschaften zu formen.
  • 2:28 - 2:31
    Um wirklich etwas zu erreichen,
    müssen wir alle Fakten filtern,
  • 2:31 - 2:34
    durch unsere Freunde und Nachbarn,
    Eltern und Kinder, Kollegen,
  • 2:34 - 2:35
    Zeitungen und Zeitschriften.
  • 2:35 - 2:38
    Erst dann haben wir echtes Wissen,
  • 2:38 - 2:43
    bei dem uns eine Suchmaschine
    eigentlich nicht helfen kann.
  • 2:43 - 2:48
    Ich sprach von einem Beispiel,
    um zu zeigen, warum es so schwierig ist,
  • 2:48 - 2:53
    dieses objektive, reine,
    wahre Wissen zu erlangen --
  • 2:53 - 2:54
    sozusagen als Denkanstoß.
  • 2:54 - 2:58
    Ich werde einfache Suchanfragen starten.
  • 2:58 - 3:02
    Fangen wir mit "Michelle Obama" an,
  • 3:02 - 3:04
    der First Lady der USA.
  • 3:04 - 3:06
    Wir suchen nach Bildern.
  • 3:06 - 3:09
    Das funktioniert super, wie man sieht.
  • 3:09 - 3:12
    Es sind ziemlich perfekte Suchergebnisse.
  • 3:12 - 3:15
    Nur Michelle ist im Bild,
    nicht mal der Präsident.
  • 3:16 - 3:17
    Wie funktioniert das?
  • 3:17 - 3:19
    Erstaunlich einfach:
  • 3:19 - 3:22
    Google ist dabei sehr clever,
    aber um es einfach zu erklären:
  • 3:22 - 3:24
    Sie schauen sich zwei Dinge an.
  • 3:24 - 3:29
    Erstens: Was sagt die Bildunterschrift?
  • 3:30 - 3:32
    Steht "Michelle Obama" unter dem Bild?
  • 3:32 - 3:34
    Ein gutes Zeichen,
    dass wirklich sie im Bild ist.
  • 3:34 - 3:37
    Zweitens schaut sich Google
    den Dateinamen an,
  • 3:37 - 3:40
    also den Namen, unter
    dem das Foto hochgeladen wurde.
  • 3:40 - 3:43
    Heißt es "MichelleObama.jpeg"?
  • 3:43 - 3:45
    Ein gutes Indiz dafür,
    dass es nicht Clint Eastwood ist.
  • 3:45 - 3:50
    Man hat also diese beiden Kriterien
    und bekommt dieses Ergebnis -- fast.
  • 3:50 - 3:56
    2009 wurde Michelle Obama
    Opfer einer rassistischen Kampagne,
  • 3:56 - 4:01
    in der sie durch ihre Suchergebnisse
    beleidigt werden sollte.
  • 4:01 - 4:04
    Es gab ein weit verbreitetes Bild,
  • 4:04 - 4:07
    in dem ihr Gesicht so entstellt war,
    dass sie aussah wie ein Affe.
  • 4:07 - 4:10
    Das Bild wurde überall hochgeladen.
  • 4:10 - 4:13
    Man hat das sehr strategisch getan,
  • 4:13 - 4:16
    um es in die Suchergebnisse zu bekommen.
  • 4:16 - 4:18
    Es wurde "Michelle Obama" betitelt,
  • 4:18 - 4:23
    und man lud es als "MichelleObama.jpeg"
    oder etwas ähnliches hoch.
  • 4:23 - 4:26
    Sie verstehen, warum --
    um die Suchergebnisse zu manipulieren.
  • 4:26 - 4:28
    Und das hat tatsächlich funktioniert.
  • 4:28 - 4:31
    Wenn man also 2009
    "Michelle Obama" gegoogelt hat,
  • 4:31 - 4:33
    fand man unter den ersten Bildern
    auch dieses Affen-Bild.
  • 4:33 - 4:36
    Die Ergebnisse bereinigen sich selbst,
  • 4:36 - 4:38
    und das ist das Schöne dabei,
  • 4:38 - 4:41
    weil Google jede Stunde, jeden Tag,
    die Relevanz der Ergebnisse misst.
  • 4:41 - 4:45
    Dieses Mal ging Google aber weiter,
  • 4:45 - 4:48
    da sie fanden: "Das ist rassistisch
    und ein schlechtes Suchergebnis.
  • 4:48 - 4:50
    Wir entfernen das manuell.
  • 4:50 - 4:53
    Wir müssen einen Code schreiben,
    und das Ganze reparieren."
  • 4:53 - 4:56
    Und das taten sie.
  • 4:56 - 4:59
    Ich glaube, niemand hier denkt,
    dass das eine schlechte Idee war.
  • 4:59 - 5:01
    Ich auch nicht.
  • 5:03 - 5:05
    Aber dann, ein paar Jahre später,
  • 5:05 - 5:08
    tat der meist gegoogelte Anders,
  • 5:08 - 5:11
    Anders Behring Breivik,
  • 5:11 - 5:12
    was er tat.
  • 5:12 - 5:15
    Das war am 22. Juli 2011,
  • 5:15 - 5:17
    einem schrecklichen Tag für Norwegen.
  • 5:17 - 5:21
    Dieser Mann, ein Terrorist,
    jagte einige Regierungsgebäude hoch,
  • 5:21 - 5:24
    in Gehweite von hier, wo wir grade sind,
    in Oslo, Norwegen,
  • 5:24 - 5:26
    und fuhr dann auf die Insel Utøya,
  • 5:26 - 5:29
    schoss auf und tötete eine Gruppe Kinder.
  • 5:29 - 5:32
    Fast 80 Menschen starben an diesem Tag.
  • 5:32 - 5:37
    Viele würden diesen Terrorakt
    in zwei Schritten beschreiben:
  • 5:37 - 5:40
    Er jagte die Gebäude in die Luft
    und erschoss die Kinder.
  • 5:40 - 5:42
    Aber das stimmt nicht.
  • 5:42 - 5:44
    Es gab drei Schritte.
  • 5:44 - 5:47
    Er jagte die Gebäude in die Luft,
    erschoss die Kinder,
  • 5:47 - 5:50
    und wartete, dass die Welt ihn googelt.
  • 5:51 - 5:54
    Jeden dieser Schritte
    bereitete er sorgfältig vor.
  • 5:54 - 5:57
    Und wenn das einer sofort verstanden hat,
  • 5:57 - 5:59
    dann war das ein
    schwedischer Webentwickler
  • 5:59 - 6:03
    und Suchmaschinen-Optimierungs-Experte
    aus Stockholm, Nikke Linqvist.
  • 6:03 - 6:04
    Er ist auch politisch engagiert
  • 6:04 - 6:08
    und war an jenem Tag in seinem Blog
    und auf Facebook sehr aktiv.
  • 6:08 - 6:09
    Er sagte allen:
  • 6:09 - 6:11
    "Wenn es eines gibt, was dieser Kerl will,
  • 6:11 - 6:14
    dann ist es, sein Bild zu kontrollieren.
  • 6:14 - 6:17
    Mal sehen, ob wir es verzerren können.
  • 6:17 - 6:21
    Mal sehen, ob wir, die Zivilisierten,
    gegen das, was er getan hat,
  • 6:21 - 6:24
    protestieren können, indem wir ihn
    durch seine Suchergebnisse beleidigen."
  • 6:24 - 6:26
    Wie ging das?
  • 6:26 - 6:29
    Er sagte all seinen Lesern Folgendes:
  • 6:29 - 6:31
    "Geht ins Internet,
  • 6:31 - 6:34
    sucht Bilder von Hundehaufen --
  • 6:34 - 6:36
    sucht Bilder von Hundehaufen --
  • 6:36 - 6:41
    und ladet sie bei euch hoch,
    auf euren Websites und Blogs.
  • 6:41 - 6:43
    Stellt sicher, dass ihr seinen Namen
    als Überschrift benutzt,
  • 6:43 - 6:47
    und die Datei "Breivik.jpeg" nennt.
  • 6:47 - 6:52
    Lasst uns Google beibringen, dass das
    das Gesicht des Terroristen ist."
  • 6:54 - 6:55
    Es hat funktioniert.
  • 6:56 - 6:58
    Zwei Jahre nach Michelle Obama
  • 6:58 - 7:02
    funktionierte diese Kampagne
    gegen Anders Behring Breivik.
  • 7:02 - 7:06
    Googelte man ihn in den Wochen danach,
  • 7:06 - 7:11
    sah man unter den ersten Bild-Ergebnissen
    diese Hundehaufen als Protest.
  • 7:14 - 7:18
    Seltsamerweise schritt Google
    dieses Mal nicht ein.
  • 7:18 - 7:22
    Die Suchergebnisse wurden
    nicht manuell bereinigt.
  • 7:24 - 7:26
    Die Eine-Millionen-Dollar-Frage ist:
  • 7:26 - 7:30
    Gibt es irgendeinen Unterschied
    zwischen den beiden Kampagnen?
  • 7:30 - 7:32
    Ist das, was Michelle Obama passierte,
  • 7:32 - 7:35
    anders als das, was Anders
    Behring Breivik passierte?
  • 7:35 - 7:37
    Natürlich nicht.
  • 7:37 - 7:39
    Es ist genau das Gleiche,
  • 7:39 - 7:41
    aber Google schritt nur in einem Fall ein.
  • 7:41 - 7:44
    Warum?
  • 7:44 - 7:46
    Weil Michelle Obama
    eine ehrhafte Person ist,
  • 7:46 - 7:50
    und Anders Behring Breivik
    eine verabscheuenswürdige.
  • 7:50 - 7:52
    Sehen Sie, was passiert?
  • 7:52 - 7:54
    Es findet eine Bewertung statt,
  • 7:54 - 7:58
    und es gibt nur einen
    Power-Player in der Welt,
  • 7:58 - 8:01
    der die Autorität hat, zu sagen,
    wer gut und wer schlecht ist.
  • 8:01 - 8:04
    "Wir mögen dich. Dich mögen wir nicht.
  • 8:04 - 8:06
    Wir glauben an dich, aber nicht an dich."
  • 8:06 - 8:07
    "Du hast Recht, du nicht.
  • 8:07 - 8:09
    Du bist Obama, und du bist Breivik."
  • 8:10 - 8:13
    Das ist wahre Macht.
  • 8:15 - 8:19
    Ich möchte, dass Ihnen bewusst wird,
    dass hinter jedem Algorithmus
  • 8:19 - 8:21
    immer eine Person sitzt,
  • 8:21 - 8:24
    eine Person mit individuellen Meinungen,
  • 8:24 - 8:26
    die kein Code jemals entfernen kann.
  • 8:26 - 8:28
    Meine Botschaft gilt nicht nur Google,
  • 8:28 - 8:31
    sondern allen, die fest an Codes glauben.
  • 8:31 - 8:34
    Sie müssen Ihre eigenen Neigungen einsehen
  • 8:34 - 8:37
    und verstehen, dass Sie ein Mensch sind
  • 8:37 - 8:39
    und dementsprechend handeln.
  • 8:40 - 8:44
    Ich bin der Meinung, dass wir
    an einem Punkt angelangt sind,
  • 8:44 - 8:46
    an dem es absolut notwendig wird,
  • 8:46 - 8:48
    dass wir diese Verknüpfungen
    immer enger machen:
  • 8:48 - 8:50
    Technik und Geisteswissenschaften.
  • 8:51 - 8:53
    Enger als je zuvor,
  • 8:53 - 8:57
    nicht zuletzt, um uns daran zu erinnern,
    dass diese so verlockende Idee,
  • 8:57 - 9:01
    eines wertfreien Suchergebnisses
    ein Mythos ist,
  • 9:01 - 9:02
    und wahrscheinlich auch bleiben wird.
  • 9:02 - 9:04
    Vielen Dank.
  • 9:04 - 9:06
    (Applaus)
Title:
Die moralische Befangenheit hinter Ihren Suchergebnissen
Speaker:
Andreas Ekström
Description:

Suchmaschinen sind zu unserer beliebtesten Quelle für Informationen und Wissen geworden. Aber kann man jemals ein wertfreies Suchergebnis bekommen? Der schwedische Autor und Journalist Andreas Ekström behauptet, dass das philosophisch gesehen nicht möglich ist. In seinem Vortrag fordert er uns auf, Geisteswissenschaften und Technologie stärker miteinander zu verbinden, und erinnert uns daran, dass hinter jedem Algorithmus auch eine Reihe an persönlichen Neigungen und Vorstellungen stecken, die kein Code je neutralisieren könnte.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18

German subtitles

Revisions Compare revisions