Return to Video

Les préjugés éthiques des moteurs de recherche

  • 0:01 - 0:04
    Quand je visite une école
    et parle aux élèves,
  • 0:04 - 0:06
    je leur demande toujours la même chose :
  • 0:07 - 0:09
    Pourquoi utiliser Google ?
  • 0:09 - 0:12
    Pourquoi Google est-il
    votre moteur de recherche préféré ?
  • 0:13 - 0:15
    Curieusement, j'obtiens toujours
    trois réponses.
  • 0:15 - 0:17
    Premièrement : « Parce que ça marche. »
  • 0:17 - 0:20
    Bonne réponse ; c'est pour ça
    que moi aussi, je google.
  • 0:20 - 0:22
    Ensuite, quelqu'un d'autre dira :
  • 0:22 - 0:26
    « Je ne connais pas
    d'autres alternatives. »
  • 0:26 - 0:29
    Cette réponse est moins bonne.
    J'y réponds d'habitude par :
  • 0:29 - 0:31
    « Tape moteur de recherche
    dans Google,
  • 0:31 - 0:33
    tu trouveras sûrement
    des alternatives valables. »
  • 0:33 - 0:35
    Enfin et surtout,
  • 0:35 - 0:39
    inévitablement, un élève
    lèvera la main pour dire :
  • 0:39 - 0:44
    « Avec Google, je suis sûr de toujours
    obtenir le meilleur résultat impartial. »
  • 0:45 - 0:52
    Sûr de toujours obtenir
    un résultat impartial.
  • 0:53 - 0:55
    En tant qu'humaniste,
  • 0:55 - 0:58
    quoiqu'humaniste numérique,
  • 0:58 - 1:00
    ça me fait grincer des dents.
  • 1:00 - 1:04
    Je me rends certes compte
    que notre confiance en un résultat neutre
  • 1:04 - 1:09
    est la clef de voûte de notre amour
    et de notre estime pour Google.
  • 1:09 - 1:13
    Je vais cependant vous démontrer
    pourquoi c'est une utopie philosophique.
  • 1:13 - 1:16
    En préambule, je vais esquisser
    le principe de base, souvent oublié,
  • 1:16 - 1:20
    qui rend possible
    chacune de nos recherches.
  • 1:20 - 1:22
    Quand on fait une recherche sur Google,
  • 1:22 - 1:26
    on doit se demander si on est
    à la recherche d’un fait isolé ou pas.
  • 1:26 - 1:29
    Quelle est la capitale de la France ?
  • 1:29 - 1:32
    Quels sont les éléments
    d'une molécule d'eau ?
  • 1:32 - 1:34
    Super - on lance la recherche.
  • 1:34 - 1:37
    Le groupe de scientifiques
    qui vous prouvera
  • 1:37 - 1:40
    que c'est Londres et H3O
    n'est pas encore né.
  • 1:40 - 1:42
    Pas de conspiration à l'horizon.
  • 1:42 - 1:44
    Le monde entier accepte ces réponses
  • 1:44 - 1:46
    à des questions qui portent
    sur des faits isolés.
  • 1:46 - 1:50
    Mais quand les questions sont complexes,
  • 1:50 - 1:55
    « Pourquoi y a-t-il un conflit
    israélo-palestinien ? », par exemple,
  • 1:55 - 1:58
    on n'est plus à la recherche
    d'un fait unique.
  • 1:58 - 2:00
    On est à la recherche d'intelligence,
  • 2:00 - 2:03
    ce qui est plus complexe et plus délicat.
  • 2:03 - 2:04
    Pour acquérir ce savoir,
  • 2:04 - 2:07
    il faut réunir et recouper
    10, 20 ou 100 données,
  • 2:07 - 2:10
    les reconnaître, les accepter :
    « Oui, tout ça est exact. »
  • 2:10 - 2:13
    Cependant, je vais leur accorder
    une importance variable,
  • 2:13 - 2:16
    selon qui je suis, jeune, âgé,
    noir, blanc, gay ou hétéro.
  • 2:16 - 2:17
    Je reconnais l'exactitude des faits,
  • 2:17 - 2:20
    mais ceci est plus important
    à mes yeux que ça.
  • 2:20 - 2:22
    C'est là que ça devient intéressant,
  • 2:22 - 2:24
    car c'est là que l'on devient humain.
  • 2:24 - 2:27
    C'est à cet instant que l'on commence
    à délibérer et former une société.
  • 2:27 - 2:30
    Pour y réussir, on doit filtrer
    tous les faits,
  • 2:30 - 2:33
    à travers nos amis et voisins,
    nos parents et enfants,
  • 2:33 - 2:35
    nos collègues, les journaux et magazines.
  • 2:35 - 2:38
    Tous ces filtres nous aident à transformer
    les données en intelligence,
  • 2:38 - 2:42
    ce qui est le point faible
    d'un moteur de recherche.
  • 2:43 - 2:50
    Je vous ai promis un exemple illustratif
    de la difficulté de créer un vrai savoir,
  • 2:50 - 2:53
    pur et objectif.
  • 2:53 - 2:55
    J'espère que ça vous fera réfléchir.
  • 2:55 - 2:58
    Réalisons quelques recherches ensemble.
  • 2:58 - 3:03
    Commençons avec « Michelle Obama »,
  • 3:03 - 3:04
    la Première Dame des États-Unis.
  • 3:04 - 3:06
    On va cliquer sur les photos.
  • 3:07 - 3:09
    Ça fonctionne très bien,
    comme vous le voyez.
  • 3:09 - 3:12
    C'est un résultat parfait
    pour notre recherche.
  • 3:12 - 3:15
    Elle est seule sur la photo,
    sans même le Président.
  • 3:16 - 3:18
    Comment ça fonctionne ?
  • 3:18 - 3:19
    En fait, c'est assez simple.
  • 3:19 - 3:22
    Google est très malin,
    mais la manière est simple.
  • 3:22 - 3:25
    Le système recherche
    avant tout deux choses.
  • 3:25 - 3:30
    D'abord, le libellé de la légende
    des photos sur chaque site web.
  • 3:30 - 3:32
    Est-ce « Michelle Obama » ?
  • 3:32 - 3:34
    Voilà une bonne indication
    sur son identité.
  • 3:34 - 3:38
    Ensuite, Google regarde
    le nom du fichier lui-même,
  • 3:38 - 3:40
    tel qu'il est téléchargé sur le site.
  • 3:40 - 3:43
    Dans ce cas aussi, ça s'appelle
    « MichelleObama.jpeg ».
  • 3:43 - 3:46
    Un indice nous laissant penser
    que ce n'est pas Clint Eastwood.
  • 3:46 - 3:50
    Les deux indices croisés permettent donc
    d'obtenir un résultat comme celui-ci.
  • 3:50 - 3:57
    En 2009, Michelle Obama a été
    la victime d'une campagne raciste.
  • 3:57 - 4:01
    Des gens l'ont insultée
    à travers les résultats de recherche.
  • 4:01 - 4:04
    Une photo a été publiée sur internet
  • 4:04 - 4:07
    dans laquelle son visage a été déformé
    pour ressembler à un singe.
  • 4:07 - 4:10
    Cette photo a été publiée partout.
  • 4:10 - 4:13
    Les gens l'ont postée délibérément,
  • 4:13 - 4:15
    pour qu'elle s'affiche
    en haut des résultats.
  • 4:15 - 4:19
    Ils se sont assurés que la légende
    soit « Michelle Obama »,
  • 4:19 - 4:23
    et que le nom du fichier téléchargé soit
    « MichelleObama.jpeg ».
  • 4:23 - 4:26
    Dans un seul but :
    manipuler le résultat des recherches.
  • 4:26 - 4:27
    Et ça a fonctionné.
  • 4:27 - 4:29
    Quand on cherchait une image
    d'elle sur Google en 2009,
  • 4:29 - 4:33
    cette photo de singe déformée
    arrivait dans les premiers résultats.
  • 4:33 - 4:36
    Les résultats sont en fait
    auto-correctifs.
  • 4:36 - 4:38
    C'est ça qui fait la beauté du système.
  • 4:38 - 4:42
    Google mesure la pertinence
    des données en continu.
  • 4:42 - 4:44
    Or, dans ce cas précis,
    Google est allé plus loin.
  • 4:44 - 4:48
    Ils ont pensé : « C'est un acte raciste,
    et le résultat est erroné.
  • 4:48 - 4:51
    Revenons en arrière,
    et corrigeons manuellement.
  • 4:51 - 4:54
    On va écrire un code et corriger ça ! »
  • 4:54 - 4:55
    Aussitôt dit, aussitôt fait.
  • 4:55 - 4:59
    Je suis absolument sûr que
    tout le monde ici trouve l'idée bonne.
  • 5:00 - 5:01
    Moi aussi.
  • 5:03 - 5:06
    Cependant, quelques années plus tard,
  • 5:06 - 5:09
    l'Anders le plus recherché sur Google,
  • 5:09 - 5:11
    Anders Behring Breivik,
  • 5:11 - 5:13
    a commis les actes que l'on sait.
  • 5:13 - 5:17
    Le 22 Juillet 2011 restera un jour
    noir dans l'histoire de la Norvège.
  • 5:17 - 5:21
    Cet homme, un terroriste, a fait sauter
    quelques bâtiments administratifs,
  • 5:21 - 5:24
    à un jet de pierre d'Oslo, où nous sommes.
  • 5:24 - 5:26
    Il s'est ensuite rendu dans l'ile d'Utøya
  • 5:26 - 5:29
    et a tiré sur un groupe d'enfants.
  • 5:29 - 5:32
    Presque 80 personnes
    sont mortes ce jour-là.
  • 5:32 - 5:37
    La plupart des gens pensent
    que cet acte horrible a deux étapes.
  • 5:37 - 5:40
    Un, il fait sauter les immeubles ;
    et deux, il tue ces enfants.
  • 5:40 - 5:42
    Ce n'est pas exact.
  • 5:42 - 5:44
    Il y a 3 étapes à son plan.
  • 5:44 - 5:47
    Il fait sauter les immeubles,
    il tue les enfants,
  • 5:47 - 5:50
    et trois, il attend
    que le monde entier le google.
  • 5:51 - 5:55
    Et il a préparé les 3 étapes
    minutieusement.
  • 5:55 - 5:57
    Quelqu'un a compris ça immédiatement :
  • 5:57 - 6:00
    un développeur web Suédois,
    Nikke Lindqvist,
  • 6:00 - 6:03
    spécialisé dans l’optimisation
    des moteurs de recherche.
  • 6:03 - 6:04
    Il s’intéresse aussi à la politique.
  • 6:04 - 6:07
    Il s'est immédiatement connecté
    aux réseaux sociaux, son blog, FB.
  • 6:07 - 6:09
    Voici ce qu'il a dit :
  • 6:09 - 6:12
    « Cet homme veut avant tout
    contrôler son image.
  • 6:12 - 6:15
    C'est son objectif principal.
  • 6:15 - 6:17
    Tentons de déformer ça.
  • 6:17 - 6:21
    Voyons si on peut, dans la monde civilisé,
    protester les actes qu'il a commis,
  • 6:21 - 6:25
    en l'insultant
    dans les résultats de recherche. »
  • 6:25 - 6:27
    Comment faire ?
  • 6:27 - 6:29
    Il a demandé à tous ses lecteurs :
  • 6:29 - 6:31
    « Allez sur Internet,
  • 6:31 - 6:34
    trouvez des photos de crottes de chien
    sur les trottoirs,
  • 6:35 - 6:37
    des crottes de chien,
  • 6:37 - 6:40
    et postez-les sur vos sites web,
    sur vos blogs.
  • 6:40 - 6:43
    Mentionnez le nom du terroriste
    dans la légende de la photo,
  • 6:43 - 6:48
    et donnez au fichier le nom
    « Brievik.jpeg. »
  • 6:48 - 6:52
    Apprenons à Google que tel est le visage
    d'un terroriste. »
  • 6:54 - 6:55
    Ça a marché.
  • 6:56 - 6:59
    Deux ans après la campagne
    contre Michelle Obama,
  • 6:59 - 7:02
    cette campagne manipulatrice
    contre Anders Behring Breivik a marché.
  • 7:02 - 7:07
    Quand on faisait une recherche
    des semaines après ce 22 Juillet,
  • 7:07 - 7:11
    cette photo de crottes de chien
    apparaissait en haut des résultats.
  • 7:11 - 7:12
    Une petite protestation.
  • 7:13 - 7:18
    Curieusement, Google n'est pas
    intervenu cette fois-ci.
  • 7:18 - 7:23
    Ils n'ont pas nettoyé ces résultats
    manuellement.
  • 7:24 - 7:26
    La question à cent balles
    consiste à savoir
  • 7:26 - 7:29
    s'il y a une différence
    entre ces deux événements.
  • 7:29 - 7:32
    Y a-t-il une différence
    entre ce qui est arrivé à Michelle Obama
  • 7:32 - 7:34
    et ce qui est arrivé à Anders Breivik ?
  • 7:34 - 7:36
    Bien sûr que non.
  • 7:37 - 7:38
    C'est exactement la même chose.
  • 7:38 - 7:41
    Cependant, Google est intervenu
    dans un cas et non dans l'autre.
  • 7:41 - 7:42
    Pourquoi ?
  • 7:43 - 7:47
    Parce que Michelle Obama
    est une personne honorable,
  • 7:47 - 7:49
    et Anders Breivik
    est une personne ignoble.
  • 7:50 - 7:52
    Vous comprenez ce qui se passe ?
  • 7:52 - 7:55
    On a porté un jugement de valeur
    sur une personne.
  • 7:55 - 7:59
    Il n'y a qu'une puissance au monde
  • 7:59 - 8:01
    pourvue de l'autorité
    de décider qui est qui.
  • 8:02 - 8:04
    « On vous aime, on ne vous aime pas.
  • 8:04 - 8:06
    On croit en vous, on ne croit pas en vous.
  • 8:06 - 8:08
    Vous avez raison, vous avez tort.
  • 8:08 - 8:10
    Vous êtes Obama,
    et vous êtes Breivik. »
  • 8:11 - 8:13
    Voilà le pouvoir à l'état brut.
  • 8:15 - 8:18
    C'est pour ça que je vous demande
    de vous rappeler
  • 8:18 - 8:21
    que derrière chaque algorithme,
    il y a toujours une personne,
  • 8:21 - 8:23
    avec des croyances personnelles,
  • 8:23 - 8:26
    qu'aucun code ne pourra jamais
    complètement effacer.
  • 8:26 - 8:28
    J'adresse mon message à Google,
  • 8:28 - 8:31
    et à tous les croyants
    en la programmation.
  • 8:31 - 8:34
    Vous devez identifier
    vos propres préjugés.
  • 8:34 - 8:36
    Vous devez comprendre
    que vous êtes humain,
  • 8:36 - 8:39
    et prendre vos responsabilités
    en conséquence.
  • 8:40 - 8:44
    Je crois que nous avons atteint
    un moment où il est impératif
  • 8:44 - 8:50
    que nous resserrions les liens
    entre l'humanisme et la technologie,
  • 8:50 - 8:52
    et que nous les cultivions
    comme jamais auparavant.
  • 8:52 - 8:55
    Si vous ne deviez retenir
    qu'une seule idée :
  • 8:55 - 8:58
    l'idée séductrice du résultat
    de recherche neutre, et objectif,
  • 8:58 - 9:01
    est et restera, un mythe.
  • 9:02 - 9:03
    Merci pour votre temps.
  • 9:03 - 9:06
    (Applaudissements)
Title:
Les préjugés éthiques des moteurs de recherche
Speaker:
Andreas Ekström
Description:

Les moteurs de recherche sont devenus nos sources d'information, des arbitres de la vérité. Est-il vraiment possible d'obtenir un résultat de recherche impartial ? Le journaliste suédois Andreas Ekström nous explique pourquoi un résultat dépourvu de jugement est une impossibilité philosophique. Il nous invite à réfléchir aux liens entre la technologie et l'humanisme et nous rappelle que derrière chaque algorithme se trouve un choix de croyances personnelles qu'aucun code ne pourra jamais effacer.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18

French subtitles

Revisions