Return to Video

Les préjugés moraux derrière les résultats de recherche | Andreas Ekstrøm | TEDxOslo

  • 0:04 - 0:07
    A chaque fois que j'interviens
    dans une école,
  • 0:07 - 0:09
    je pose toujours la même question
    aux élèves :
  • 0:10 - 0:12
    Pourquoi allez-vous sur Google ?
  • 0:12 - 0:15
    Pourquoi ce moteur de recherche
    plutôt qu'un autre ?
  • 0:16 - 0:19
    Et bizarrement, j'obtiens toujours
    trois mêmes réponses.
  • 0:19 - 0:21
    Premièrement,
    « Parce que ça marche » ;
  • 0:21 - 0:23
    c'est une bonne raison,
    c'est pour ça que j'y vais aussi.
  • 0:23 - 0:26
    Deuxièmement, on me dit,
  • 0:26 - 0:29
    « Je ne saurais vraiment pas
    quoi utiliser d'autre. »
  • 0:29 - 0:32
    C'est un peu moins convaincant,
    et j'ai tendance à répondre
  • 0:32 - 0:34
    « Tapez 'moteur de recherche'
    sur Google,
  • 0:34 - 0:37
    cela vous donnera quelques idées. »
  • 0:37 - 0:39
    Et troisièmement, inévitablement,
  • 0:39 - 0:43
    un ou une élève
    lève la main et dit :
  • 0:43 - 0:48
    « Sur Google, j'ai la certitude d'obtenir
    des informations impartiales. »
  • 0:49 - 0:55
    La certitude d'obtenir
    des informations impartiales.
  • 0:57 - 0:59
    Je suis passionné d'humanités numériques,
  • 0:59 - 1:01
    et entendre cette phrase
  • 1:01 - 1:03
    me donne la chair de poule,
  • 1:03 - 1:08
    même si je vois bien que cette confiance
    en l'impartialité des résultats
  • 1:08 - 1:12
    est au fondement du crédit
    que l'on donne à Google.
  • 1:12 - 1:16
    Je vais vous montrer en quoi
    c'est pratiquement impossible.
  • 1:16 - 1:19
    Mais tout d'abord, rappelons
    une règle de base
  • 1:19 - 1:23
    qui vaut pour toutes les requêtes,
    et qu'il nous arrive d'oublier.
  • 1:23 - 1:25
    Quand vous vous apprêtez
    à faire une recherche
  • 1:25 - 1:29
    demandez-vous d'abord : « La réponse
    est-elle une information élémentaire ? »
  • 1:30 - 1:33
    Quelle est la capitale de la France ?
  • 1:33 - 1:35
    Quelles atomes constituent
    une molécule d'eau ?
  • 1:35 - 1:38
    Si c'est le cas, allez-y.
  • 1:38 - 1:41
    Aucun chercheur n'essaie de prouver
    qu'il s'agit de Londres
  • 1:41 - 1:43
    et de 30 atomes d'hydrogène.
  • 1:43 - 1:45
    Pas de mystère derrière
    ces simples questions.
  • 1:45 - 1:47
    Leurs réponses font l'objet
  • 1:47 - 1:50
    d'un consensus général.
  • 1:50 - 1:55
    Mais si on ajoute un degré de complexité,
    en demandant par exemple
  • 1:55 - 1:58
    « A quoi est dû
    le conflit israélo-palestinien ? »
  • 1:58 - 2:01
    on n'est plus à la recherche
    d'une simple information,
  • 2:01 - 2:03
    mais d'une connaissance,
  • 2:03 - 2:06
    ce qui est bien plus compliqué
    et délicat à obtenir.
  • 2:06 - 2:08
    Pour construire une connaissance,
  • 2:08 - 2:11
    il faut rassembler 10, 20 ou 100
    informations factuelles,
  • 2:11 - 2:13
    les étudier et se dire
    « D'accord, tout cela est vrai. »
  • 2:13 - 2:15
    Mais en fonction de qui je suis,
  • 2:15 - 2:18
    jeune ou vieux, Noir ou Blanc,
    gay ou hétéro,
  • 2:18 - 2:19
    je les envisagerai différemment.
  • 2:19 - 2:21
    Je me dirai « Oui, tout est vrai,
  • 2:21 - 2:23
    mais cet aspect me parle plus
    que celui-là. »
  • 2:23 - 2:25
    Et c'est là que ça devient intéressant,
  • 2:25 - 2:27
    car c'est ce qui fait de nous
    des humains
  • 2:27 - 2:30
    capables de débattre et
    de prendre part à la société.
  • 2:30 - 2:33
    Et pour digérer tous ces faits,
    il faut les confronter
  • 2:33 - 2:36
    à nos amis, voisins,
    famille, enfants,
  • 2:36 - 2:38
    collègues, journaux, magazines,
  • 2:38 - 2:41
    et alors seulement,
    on parvient à une vraie connaissance,
  • 2:41 - 2:46
    chose qu'un moteur de recherche
    est incapable de faire.
  • 2:47 - 2:52
    Comme promis, voici un exemple qui montre
    comme il est difficile de parvenir
  • 2:53 - 2:57
    à une connaissance pure,
    impartiale et parfaite.
  • 2:57 - 2:58
    Pour nourrir notre réflexion,
  • 2:58 - 3:02
    je vais effectuer deux requêtes
    très simples.
  • 3:02 - 3:05
    Pour commencer, « Michelle Obama »,
  • 3:06 - 3:08
    la Première Dame des Etats-Unis.
  • 3:08 - 3:10
    Cliquons sur l'onglet « Images ».
  • 3:11 - 3:13
    Comme vous le voyez,
    ça fonctionne très bien.
  • 3:13 - 3:16
    Somme toute, de parfaits
    résultats de recherche.
  • 3:16 - 3:19
    Elle est seule sur les photos,
    sans même le Président.
  • 3:19 - 3:21
    Comment ça marche ?
  • 3:21 - 3:23
    C'est très simple.
  • 3:23 - 3:26
    Google procède de manière astucieuse
    et très simple à la fois :
  • 3:26 - 3:29
    il se base essentiellement
    sur deux éléments.
  • 3:29 - 3:34
    Primo, qu'est-il écrit
    dans la légende de l'image ?
  • 3:34 - 3:36
    A-t-on marqué « Michelle Obama »
    sous la photo ?
  • 3:36 - 3:38
    Si oui, on peut déduire que
    c'est bien elle.
  • 3:38 - 3:41
    Secondo, Google examine
    le nom du fichier image
  • 3:41 - 3:44
    que l'on a téléchargé sur le site.
  • 3:44 - 3:46
    Le fichier s'appelle
    « MichelleObama.jpeg » ?
  • 3:46 - 3:49
    Si oui, ce n'est sans doute pas
    une photo de Clint Eastwood.
  • 3:49 - 3:53
    Les deux éléments renseignés, on obtient
    (presque toujours) de bons résultats.
  • 3:53 - 3:59
    Mais en 2009, Michelle Obama
    a été victime d'une campagne raciste,
  • 4:00 - 4:04
    où des personnes ont commencé à l'insulter
    via ses résultats de recherche.
  • 4:05 - 4:08
    On a diffusé sur toute la toile
    une photo d'elle retouchée
  • 4:08 - 4:10
    où son visage ressemblait
    à celui d'un singe.
  • 4:10 - 4:13
    Cette photo a fait le buzz.
  • 4:14 - 4:17
    Les gens la publiaient expressément
  • 4:17 - 4:19
    pour entacher ses résultats de recherche.
  • 4:19 - 4:22
    Ils s'assuraient d'indiquer
    « Michelle Obama » dans la légende
  • 4:22 - 4:26
    et de nommer leur fichier image
    « MichelleObama.jpeg »,
  • 4:26 - 4:29
    avec pour but de manipuler les résultats.
  • 4:29 - 4:30
    Et ça a marché.
  • 4:30 - 4:33
    Quand vous cherchiez sur Google
    une photo d'elle en 2009,
  • 4:33 - 4:36
    c'était un visage déformé de singe
    qui apparaissait.
  • 4:36 - 4:40
    Les résultats de recherche
    s'auto-régulent donc,
  • 4:40 - 4:42
    en somme, c'est leur grande force,
  • 4:42 - 4:45
    parce que Google réévalue
    sans arrêt leur pertinence.
  • 4:45 - 4:48
    Mais cette fois, cela n'a pas suffi
  • 4:48 - 4:51
    Google s'est dit : « Ce résultat
    est raciste et non pertinent,
  • 4:51 - 4:54
    faisons marche arrière et
    supprimons-le manuellement.
  • 4:54 - 4:57
    Ecrivons un bout de code
    pour régler le problème. »
  • 4:57 - 4:58
    Et c'est ce qui s'est passé.
  • 4:59 - 5:03
    Je pense qu'aucun d'entre vous
    ne désapprouve cette décision.
  • 5:03 - 5:05
    Et moi non plus.
  • 5:06 - 5:09
    Mais plusieurs années après,
    un homme nommé Anders
  • 5:09 - 5:12
    (sans doute le Anders le plus
    recherché sur Google),
  • 5:12 - 5:15
    Anders Behring Breivik,
  • 5:15 - 5:16
    a fait ce qu'il a fait.
  • 5:16 - 5:19
    C'était le 22 juillet 2011,
  • 5:19 - 5:21
    une terrible journée
    dans l'histoire de la Norvège.
  • 5:21 - 5:25
    Ce terroriste a fait sauter
    des immeubles gouvernementaux
  • 5:25 - 5:28
    tout près de là où nous sommes,
    à Oslo,
  • 5:28 - 5:30
    puis s'est rendu sur l'île d'Utøya
  • 5:30 - 5:32
    où il a massacré des adolescents.
  • 5:32 - 5:34
    Il y a eu près de 80 morts ce jour-là.
  • 5:36 - 5:41
    Et on dit souvent que cet acte terroriste
    s'est déroulé en deux temps :
  • 5:41 - 5:44
    d'abord l'explosion,
    puis la fusillade,
  • 5:44 - 5:46
    mais c'est faux.
  • 5:46 - 5:48
    Il y a trois temps.
  • 5:48 - 5:50
    Il a fait sauter les immeubles,
    tué les adolescents,
  • 5:50 - 5:54
    puis il a attendu que le monde
    le recherche sur Google.
  • 5:55 - 5:57
    Chacun de ces trois temps a été
    minutieusement préparé.
  • 5:58 - 6:01
    Et il y a une personne
    qui s'en est aperçu tout de suite :
  • 6:01 - 6:03
    Nikke Lindqvist, un développeur web
  • 6:03 - 6:06
    expert en référencement
    vivant à Stockholm, en Suède.
  • 6:06 - 6:08
    Très engagé politiquement,
  • 6:08 - 6:11
    il a tout de suite réagi sur les réseaux,
    son blog et Facebook,
  • 6:11 - 6:13
    en disant à tout le monde :
  • 6:13 - 6:15
    « En ce moment,
    ce mec n'a qu'une idée en tête,
  • 6:15 - 6:18
    c'est contrôler son image.
  • 6:18 - 6:20
    Voyons comment on peut la ternir.
  • 6:21 - 6:25
    Voyons si nous, personnes civilisées,
    pouvons protester contre son acte
  • 6:25 - 6:29
    en l'injuriant
    via ses résultats de recherche. »
  • 6:29 - 6:30
    Et de quelle façon ?
  • 6:30 - 6:33
    Il demanda ceci à tous ses lecteurs :
  • 6:33 - 6:34
    « Allez sur Internet,
  • 6:34 - 6:37
    trouvez des photos de crottes de chien
    sur des trottoirs --
  • 6:38 - 6:41
    trouvez des photos de crottes de chien
    sur des trottoirs --
  • 6:41 - 6:44
    publiez-les sur vos comptes,
    vos sites web et vos blogs,
  • 6:44 - 6:47
    mettez bien le nom du terroriste
    dans la légende,
  • 6:47 - 6:51
    et nommez bien le fichier image
    'Breivik.jpeg'.
  • 6:51 - 6:55
    Faisons croire à Google
    que c'est le visage de ce terroriste. »
  • 6:57 - 6:59
    Et ça a marché.
  • 7:00 - 7:02
    Deux ans après la campagne raciste
    contre Michelle Obama,
  • 7:02 - 7:06
    une même campagne
    contre Anders Behring Breivik a eu lieu.
  • 7:06 - 7:10
    En Suède, quelques semaines
    après les événements du 22 juillet,
  • 7:10 - 7:14
    ses résultats de recherche affichaient
    une photo de crotte de chien
  • 7:14 - 7:16
    en signe de protestation.
  • 7:17 - 7:21
    Il est à noter que cette fois,
    Google n'est pas intervenu.
  • 7:22 - 7:26
    Il ne s'est pas donné la peine
    de nettoyer ces résultats manuellement.
  • 7:27 - 7:29
    Et maintenant,
    la question à mille euros :
  • 7:29 - 7:33
    quelle est la différence
    entre ces deux anecdotes ?
  • 7:33 - 7:36
    Michelle Obama a-t-elle subi une attaque
    de nature différente
  • 7:36 - 7:38
    de celle subie
    par Anders Behring Breivik ?
  • 7:38 - 7:40
    Bien sûr que non.
  • 7:40 - 7:42
    C'est exactement la même chose,
  • 7:42 - 7:45
    mais Google intervient dans un cas
    mais pas dans l'autre.
  • 7:45 - 7:46
    Pourquoi ?
  • 7:47 - 7:50
    Parce que Michelle Obama
    est une personne respectable,
  • 7:50 - 7:53
    et que Anders Behring Breivik
    est une personne méprisable.
  • 7:54 - 7:55
    Vous voyez jusqu'où ça va ?
  • 7:55 - 7:58
    Quand on se met à
    juger une personne
  • 7:58 - 8:02
    il existe une instance
    unique et toute puissante
  • 8:02 - 8:05
    capable d'avoir le dernier mot.
  • 8:06 - 8:08
    « Toi on t'aime,
    toi on ne t'aime pas.
  • 8:08 - 8:10
    On croit en toi,
    mais pas en toi.
  • 8:10 - 8:12
    Tu as tort, tu as raison.
    Tu es vrai, tu es faux.
  • 8:12 - 8:14
    Tu es Obama,
    et toi tu es Breivik. »
  • 8:14 - 8:17
    Et c'est, je pense,
    l'essence même du pouvoir.
  • 8:19 - 8:23
    Souvenez-vous donc que
    derrière tout algorithme
  • 8:23 - 8:24
    se cache toujours
    une personne
  • 8:24 - 8:27
    dont la trame de
    convictions personnelles
  • 8:27 - 8:29
    transparaîtra quel que soit
    le code du programme.
  • 8:29 - 8:32
    Et l'objet de mon propos
    va bien au-delà de Google,
  • 8:32 - 8:35
    et concerne tous ceux
    qui font confiance au code.
  • 8:35 - 8:38
    Il faut identifier
    ses propres préjugés moraux.
  • 8:38 - 8:40
    Il faut reconnaître
    qu'en tant qu'humains
  • 8:40 - 8:43
    nous devons prendre
    nos responsabilités.
  • 8:44 - 8:46
    D'autant plus que que je pense
    que nous avons atteint un point
  • 8:46 - 8:48
    où il est absolument
    nécessaire
  • 8:48 - 8:51
    de renforcer
    les liens qui unissent
  • 8:51 - 8:54
    les sciences humaines
    et la technologie.
  • 8:54 - 8:56
    Plus que jamais.
  • 8:56 - 8:59
    Ou du moins de se souvenir
    que la séduisante hypothèse
  • 8:59 - 9:02
    de résultats de recherche
    parfaitement impartiaux
  • 9:02 - 9:05
    est et restera sans doute
    un mythe.
  • 9:05 - 9:07
    Merci pour votre attention.
  • 9:07 - 9:09
    (Applaudissements)
Title:
Les préjugés moraux derrière les résultats de recherche | Andreas Ekstrøm | TEDxOslo
Description:

De nos jours, lorsque l'on cherche une information, c'est aux moteurs de recherche que nous faisons le plus confiance. Mais est-il possible d'obtenir des résultats de recherche impartiaux ? Pour Andreas Ekström, auteur et journaliste suédois, cela relève de l'impossibilité. Dans ce brillant exposé, il incite à renforcer les liens entre les sciences humaines et la technologie et nous rappelle que derrière tout algorithme se cache un réseau de convictions personnelles, que nul code ne peut entièrement éclipser.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:16

French subtitles

Revisions