French subtitles

← Les préjugés éthiques des moteurs de recherche

Get Embed Code
36 Languages

Showing Revision 13 created 11/14/2015 by eric vautier.

  1. Quand je visite une école
    et parle aux élèves,
  2. je leur demande toujours la même chose :
  3. Pourquoi utiliser Google ?
  4. Pourquoi Google est-il
    votre moteur de recherche préféré ?
  5. Curieusement, j'obtiens toujours
    trois réponses.
  6. Premièrement : « Parce que ça marche. »
  7. Bonne réponse ; c'est pour ça
    que moi aussi, je google.
  8. Ensuite, quelqu'un d'autre dira :
  9. « Je ne connais pas
    d'autres alternatives. »
  10. Cette réponse est moins bonne.
    J'y réponds d'habitude par :
  11. « Tape moteur de recherche
    dans Google,
  12. tu trouveras sûrement
    des alternatives valables. »
  13. Enfin et surtout,
  14. inévitablement, un élève
    lèvera la main pour dire :
  15. « Avec Google, je suis sûr de toujours
    obtenir le meilleur résultat impartial. »
  16. Sûr de toujours obtenir
    un résultat impartial.
  17. En tant qu'humaniste,

  18. quoiqu'humaniste numérique,
  19. ça me fait grincer des dents.
  20. Je me rends certes compte
    que notre confiance en un résultat neutre
  21. est la clef de voûte de notre amour
    et de notre estime pour Google.
  22. Je vais cependant vous démontrer
    pourquoi c'est une utopie philosophique.
  23. En préambule, je vais esquisser
    le principe de base, souvent oublié,

  24. qui rend possible
    chacune de nos recherches.
  25. Quand on fait une recherche sur Google,
  26. on doit se demander si on est
    à la recherche d’un fait isolé ou pas.
  27. Quelle est la capitale de la France ?
  28. Quels sont les éléments
    d'une molécule d'eau ?
  29. Super - on lance la recherche.
  30. Le groupe de scientifiques
    qui vous prouvera
  31. que c'est Londres et H3O
    n'est pas encore né.
  32. Pas de conspiration à l'horizon.
  33. Le monde entier accepte ces réponses
  34. à des questions qui portent
    sur des faits isolés.
  35. Mais quand les questions sont complexes,

  36. « Pourquoi y a-t-il un conflit
    israélo-palestinien ? », par exemple,
  37. on n'est plus à la recherche
    d'un fait unique.
  38. On est à la recherche d'intelligence,
  39. ce qui est plus complexe et plus délicat.
  40. Pour acquérir ce savoir,
  41. il faut réunir et recouper
    10, 20 ou 100 données,
  42. les reconnaître, les accepter :
    « Oui, tout ça est exact. »
  43. Cependant, je vais leur accorder
    une importance variable,
  44. selon qui je suis, jeune, âgé,
    noir, blanc, gay ou hétéro.

  45. Je reconnais l'exactitude des faits,
  46. mais ceci est plus important
    à mes yeux que ça.
  47. C'est là que ça devient intéressant,
  48. car c'est là que l'on devient humain.
  49. C'est à cet instant que l'on commence
    à délibérer et former une société.
  50. Pour y réussir, on doit filtrer
    tous les faits,
  51. à travers nos amis et voisins,
    nos parents et enfants,
  52. nos collègues, les journaux et magazines.
  53. Tous ces filtres nous aident à transformer
    les données en intelligence,
  54. ce qui est le point faible
    d'un moteur de recherche.
  55. Je vous ai promis un exemple illustratif
    de la difficulté de créer un vrai savoir,

  56. pur et objectif.
  57. J'espère que ça vous fera réfléchir.
  58. Réalisons quelques recherches ensemble.
  59. Commençons avec « Michelle Obama »,
  60. la Première Dame des États-Unis.
  61. On va cliquer sur les photos.
  62. Ça fonctionne très bien,
    comme vous le voyez.
  63. C'est un résultat parfait
    pour notre recherche.
  64. Elle est seule sur la photo,
    sans même le Président.
  65. Comment ça fonctionne ?

  66. En fait, c'est assez simple.
  67. Google est très malin,
    mais la manière est simple.
  68. Le système recherche
    avant tout deux choses.
  69. D'abord, le libellé de la légende
    des photos sur chaque site web.
  70. Est-ce « Michelle Obama » ?
  71. Voilà une bonne indication
    sur son identité.
  72. Ensuite, Google regarde
    le nom du fichier lui-même,
  73. tel qu'il est téléchargé sur le site.
  74. Dans ce cas aussi, ça s'appelle
    « MichelleObama.jpeg ».
  75. Un indice nous laissant penser
    que ce n'est pas Clint Eastwood.
  76. Les deux indices croisés permettent donc
    d'obtenir un résultat comme celui-ci.
  77. En 2009, Michelle Obama a été
    la victime d'une campagne raciste.

  78. Des gens l'ont insultée
    à travers les résultats de recherche.
  79. Une photo a été publiée sur internet
  80. dans laquelle son visage a été déformé
    pour ressembler à un singe.
  81. Cette photo a été publiée partout.
  82. Les gens l'ont postée délibérément,
  83. pour qu'elle s'affiche
    en haut des résultats.
  84. Ils se sont assurés que la légende
    soit « Michelle Obama »,
  85. et que le nom du fichier téléchargé soit
    « MichelleObama.jpeg ».
  86. Dans un seul but :
    manipuler le résultat des recherches.
  87. Et ça a fonctionné.
  88. Quand on cherchait une image
    d'elle sur Google en 2009,
  89. cette photo de singe déformée
    arrivait dans les premiers résultats.
  90. Les résultats sont en fait
    auto-correctifs.

  91. C'est ça qui fait la beauté du système.
  92. Google mesure la pertinence
    des données en continu.
  93. Or, dans ce cas précis,
    Google est allé plus loin.
  94. Ils ont pensé : « C'est un acte raciste,
    et le résultat est erroné.
  95. Revenons en arrière,
    et corrigeons manuellement.
  96. On va écrire un code et corriger ça ! »
  97. Aussitôt dit, aussitôt fait.
  98. Je suis absolument sûr que
    tout le monde ici trouve l'idée bonne.
  99. Moi aussi.
  100. Cependant, quelques années plus tard,

  101. l'Anders le plus recherché sur Google,
  102. Anders Behring Breivik,
  103. a commis les actes que l'on sait.
  104. Le 22 Juillet 2011 restera un jour
    noir dans l'histoire de la Norvège.
  105. Cet homme, un terroriste, a fait sauter
    quelques bâtiments administratifs,
  106. à un jet de pierre d'Oslo, où nous sommes.
  107. Il s'est ensuite rendu dans l'ile d'Utøya
  108. et a tiré sur un groupe d'enfants.
  109. Presque 80 personnes
    sont mortes ce jour-là.
  110. La plupart des gens pensent
    que cet acte horrible a deux étapes.

  111. Un, il fait sauter les immeubles ;
    et deux, il tue ces enfants.
  112. Ce n'est pas exact.
  113. Il y a 3 étapes à son plan.
  114. Il fait sauter les immeubles,
    il tue les enfants,
  115. et trois, il attend
    que le monde entier le google.
  116. Et il a préparé les 3 étapes
    minutieusement.
  117. Quelqu'un a compris ça immédiatement :

  118. un développeur web Suédois,
    Nikke Lindqvist,
  119. spécialisé dans l’optimisation
    des moteurs de recherche.
  120. Il s’intéresse aussi à la politique.

  121. Il s'est immédiatement connecté
    aux réseaux sociaux, son blog, FB.
  122. Voici ce qu'il a dit :
  123. « Cet homme veut avant tout
    contrôler son image.
  124. C'est son objectif principal.
  125. Tentons de déformer ça.
  126. Voyons si on peut, dans la monde civilisé,
    protester les actes qu'il a commis,
  127. en l'insultant
    dans les résultats de recherche. »
  128. Comment faire ?

  129. Il a demandé à tous ses lecteurs :
  130. « Allez sur Internet,
  131. trouvez des photos de crottes de chien
    sur les trottoirs,
  132. des crottes de chien,
  133. et postez-les sur vos sites web,
    sur vos blogs.
  134. Mentionnez le nom du terroriste
    dans la légende de la photo,
  135. et donnez au fichier le nom
    « Brievik.jpeg. »
  136. Apprenons à Google que tel est le visage
    d'un terroriste. »
  137. Ça a marché.
  138. Deux ans après la campagne
    contre Michelle Obama,
  139. cette campagne manipulatrice
    contre Anders Behring Breivik a marché.
  140. Quand on faisait une recherche
    des semaines après ce 22 Juillet,
  141. cette photo de crottes de chien
    apparaissait en haut des résultats.
  142. Une petite protestation.
  143. Curieusement, Google n'est pas
    intervenu cette fois-ci.

  144. Ils n'ont pas nettoyé ces résultats
    manuellement.
  145. La question à cent balles
    consiste à savoir
  146. s'il y a une différence
    entre ces deux événements.
  147. Y a-t-il une différence
    entre ce qui est arrivé à Michelle Obama
  148. et ce qui est arrivé à Anders Breivik ?
  149. Bien sûr que non.
  150. C'est exactement la même chose.
  151. Cependant, Google est intervenu
    dans un cas et non dans l'autre.
  152. Pourquoi ?

  153. Parce que Michelle Obama
    est une personne honorable,
  154. et Anders Breivik
    est une personne ignoble.
  155. Vous comprenez ce qui se passe ?
  156. On a porté un jugement de valeur
    sur une personne.
  157. Il n'y a qu'une puissance au monde
  158. pourvue de l'autorité
    de décider qui est qui.
  159. « On vous aime, on ne vous aime pas.
  160. On croit en vous, on ne croit pas en vous.
  161. Vous avez raison, vous avez tort.
  162. Vous êtes Obama,
    et vous êtes Breivik. »
  163. Voilà le pouvoir à l'état brut.
  164. C'est pour ça que je vous demande
    de vous rappeler

  165. que derrière chaque algorithme,
    il y a toujours une personne,
  166. avec des croyances personnelles,
  167. qu'aucun code ne pourra jamais
    complètement effacer.
  168. J'adresse mon message à Google,
  169. et à tous les croyants
    en la programmation.
  170. Vous devez identifier
    vos propres préjugés.
  171. Vous devez comprendre
    que vous êtes humain,
  172. et prendre vos responsabilités
    en conséquence.
  173. Je crois que nous avons atteint
    un moment où il est impératif

  174. que nous resserrions les liens
    entre l'humanisme et la technologie,
  175. et que nous les cultivions
    comme jamais auparavant.
  176. Si vous ne deviez retenir
    qu'une seule idée :
  177. l'idée séductrice du résultat
    de recherche neutre, et objectif,
  178. est et restera, un mythe.
  179. Merci pour votre temps.

  180. (Applaudissements)