Les préjugés éthiques des moteurs de recherche
-
0:01 - 0:04Quand je visite une école
et parle aux élèves, -
0:04 - 0:06je leur demande toujours la même chose :
-
0:07 - 0:09Pourquoi utiliser Google ?
-
0:09 - 0:12Pourquoi Google est-il
votre moteur de recherche préféré ? -
0:13 - 0:15Curieusement, j'obtiens toujours
trois réponses. -
0:15 - 0:17Premièrement : « Parce que ça marche. »
-
0:17 - 0:20Bonne réponse ; c'est pour ça
que moi aussi, je google. -
0:20 - 0:22Ensuite, quelqu'un d'autre dira :
-
0:22 - 0:26« Je ne connais pas
d'autres alternatives. » -
0:26 - 0:29Cette réponse est moins bonne.
J'y réponds d'habitude par : -
0:29 - 0:31« Tape moteur de recherche
dans Google, -
0:31 - 0:33tu trouveras sûrement
des alternatives valables. » -
0:33 - 0:35Enfin et surtout,
-
0:35 - 0:39inévitablement, un élève
lèvera la main pour dire : -
0:39 - 0:44« Avec Google, je suis sûr de toujours
obtenir le meilleur résultat impartial. » -
0:45 - 0:52Sûr de toujours obtenir
un résultat impartial. -
0:53 - 0:55En tant qu'humaniste,
-
0:55 - 0:58quoiqu'humaniste numérique,
-
0:58 - 1:00ça me fait grincer des dents.
-
1:00 - 1:04Je me rends certes compte
que notre confiance en un résultat neutre -
1:04 - 1:09est la clef de voûte de notre amour
et de notre estime pour Google. -
1:09 - 1:13Je vais cependant vous démontrer
pourquoi c'est une utopie philosophique. -
1:13 - 1:16En préambule, je vais esquisser
le principe de base, souvent oublié, -
1:16 - 1:20qui rend possible
chacune de nos recherches. -
1:20 - 1:22Quand on fait une recherche sur Google,
-
1:22 - 1:26on doit se demander si on est
à la recherche d’un fait isolé ou pas. -
1:26 - 1:29Quelle est la capitale de la France ?
-
1:29 - 1:32Quels sont les éléments
d'une molécule d'eau ? -
1:32 - 1:34Super - on lance la recherche.
-
1:34 - 1:37Le groupe de scientifiques
qui vous prouvera -
1:37 - 1:40que c'est Londres et H3O
n'est pas encore né. -
1:40 - 1:42Pas de conspiration à l'horizon.
-
1:42 - 1:44Le monde entier accepte ces réponses
-
1:44 - 1:46à des questions qui portent
sur des faits isolés. -
1:46 - 1:50Mais quand les questions sont complexes,
-
1:50 - 1:55« Pourquoi y a-t-il un conflit
israélo-palestinien ? », par exemple, -
1:55 - 1:58on n'est plus à la recherche
d'un fait unique. -
1:58 - 2:00On est à la recherche d'intelligence,
-
2:00 - 2:03ce qui est plus complexe et plus délicat.
-
2:03 - 2:04Pour acquérir ce savoir,
-
2:04 - 2:07il faut réunir et recouper
10, 20 ou 100 données, -
2:07 - 2:10les reconnaître, les accepter :
« Oui, tout ça est exact. » -
2:10 - 2:13Cependant, je vais leur accorder
une importance variable, -
2:13 - 2:16selon qui je suis, jeune, âgé,
noir, blanc, gay ou hétéro. -
2:16 - 2:17Je reconnais l'exactitude des faits,
-
2:17 - 2:20mais ceci est plus important
à mes yeux que ça. -
2:20 - 2:22C'est là que ça devient intéressant,
-
2:22 - 2:24car c'est là que l'on devient humain.
-
2:24 - 2:27C'est à cet instant que l'on commence
à délibérer et former une société. -
2:27 - 2:30Pour y réussir, on doit filtrer
tous les faits, -
2:30 - 2:33à travers nos amis et voisins,
nos parents et enfants, -
2:33 - 2:35nos collègues, les journaux et magazines.
-
2:35 - 2:38Tous ces filtres nous aident à transformer
les données en intelligence, -
2:38 - 2:42ce qui est le point faible
d'un moteur de recherche. -
2:43 - 2:50Je vous ai promis un exemple illustratif
de la difficulté de créer un vrai savoir, -
2:50 - 2:53pur et objectif.
-
2:53 - 2:55J'espère que ça vous fera réfléchir.
-
2:55 - 2:58Réalisons quelques recherches ensemble.
-
2:58 - 3:03Commençons avec « Michelle Obama »,
-
3:03 - 3:04la Première Dame des États-Unis.
-
3:04 - 3:06On va cliquer sur les photos.
-
3:07 - 3:09Ça fonctionne très bien,
comme vous le voyez. -
3:09 - 3:12C'est un résultat parfait
pour notre recherche. -
3:12 - 3:15Elle est seule sur la photo,
sans même le Président. -
3:16 - 3:18Comment ça fonctionne ?
-
3:18 - 3:19En fait, c'est assez simple.
-
3:19 - 3:22Google est très malin,
mais la manière est simple. -
3:22 - 3:25Le système recherche
avant tout deux choses. -
3:25 - 3:30D'abord, le libellé de la légende
des photos sur chaque site web. -
3:30 - 3:32Est-ce « Michelle Obama » ?
-
3:32 - 3:34Voilà une bonne indication
sur son identité. -
3:34 - 3:38Ensuite, Google regarde
le nom du fichier lui-même, -
3:38 - 3:40tel qu'il est téléchargé sur le site.
-
3:40 - 3:43Dans ce cas aussi, ça s'appelle
« MichelleObama.jpeg ». -
3:43 - 3:46Un indice nous laissant penser
que ce n'est pas Clint Eastwood. -
3:46 - 3:50Les deux indices croisés permettent donc
d'obtenir un résultat comme celui-ci. -
3:50 - 3:57En 2009, Michelle Obama a été
la victime d'une campagne raciste. -
3:57 - 4:01Des gens l'ont insultée
à travers les résultats de recherche. -
4:01 - 4:04Une photo a été publiée sur internet
-
4:04 - 4:07dans laquelle son visage a été déformé
pour ressembler à un singe. -
4:07 - 4:10Cette photo a été publiée partout.
-
4:10 - 4:13Les gens l'ont postée délibérément,
-
4:13 - 4:15pour qu'elle s'affiche
en haut des résultats. -
4:15 - 4:19Ils se sont assurés que la légende
soit « Michelle Obama », -
4:19 - 4:23et que le nom du fichier téléchargé soit
« MichelleObama.jpeg ». -
4:23 - 4:26Dans un seul but :
manipuler le résultat des recherches. -
4:26 - 4:27Et ça a fonctionné.
-
4:27 - 4:29Quand on cherchait une image
d'elle sur Google en 2009, -
4:29 - 4:33cette photo de singe déformée
arrivait dans les premiers résultats. -
4:33 - 4:36Les résultats sont en fait
auto-correctifs. -
4:36 - 4:38C'est ça qui fait la beauté du système.
-
4:38 - 4:42Google mesure la pertinence
des données en continu. -
4:42 - 4:44Or, dans ce cas précis,
Google est allé plus loin. -
4:44 - 4:48Ils ont pensé : « C'est un acte raciste,
et le résultat est erroné. -
4:48 - 4:51Revenons en arrière,
et corrigeons manuellement. -
4:51 - 4:54On va écrire un code et corriger ça ! »
-
4:54 - 4:55Aussitôt dit, aussitôt fait.
-
4:55 - 4:59Je suis absolument sûr que
tout le monde ici trouve l'idée bonne. -
5:00 - 5:01Moi aussi.
-
5:03 - 5:06Cependant, quelques années plus tard,
-
5:06 - 5:09l'Anders le plus recherché sur Google,
-
5:09 - 5:11Anders Behring Breivik,
-
5:11 - 5:13a commis les actes que l'on sait.
-
5:13 - 5:17Le 22 Juillet 2011 restera un jour
noir dans l'histoire de la Norvège. -
5:17 - 5:21Cet homme, un terroriste, a fait sauter
quelques bâtiments administratifs, -
5:21 - 5:24à un jet de pierre d'Oslo, où nous sommes.
-
5:24 - 5:26Il s'est ensuite rendu dans l'ile d'Utøya
-
5:26 - 5:29et a tiré sur un groupe d'enfants.
-
5:29 - 5:32Presque 80 personnes
sont mortes ce jour-là. -
5:32 - 5:37La plupart des gens pensent
que cet acte horrible a deux étapes. -
5:37 - 5:40Un, il fait sauter les immeubles ;
et deux, il tue ces enfants. -
5:40 - 5:42Ce n'est pas exact.
-
5:42 - 5:44Il y a 3 étapes à son plan.
-
5:44 - 5:47Il fait sauter les immeubles,
il tue les enfants, -
5:47 - 5:50et trois, il attend
que le monde entier le google. -
5:51 - 5:55Et il a préparé les 3 étapes
minutieusement. -
5:55 - 5:57Quelqu'un a compris ça immédiatement :
-
5:57 - 6:00un développeur web Suédois,
Nikke Lindqvist, -
6:00 - 6:03spécialisé dans l’optimisation
des moteurs de recherche. -
6:03 - 6:04Il s’intéresse aussi à la politique.
-
6:04 - 6:07Il s'est immédiatement connecté
aux réseaux sociaux, son blog, FB. -
6:07 - 6:09Voici ce qu'il a dit :
-
6:09 - 6:12« Cet homme veut avant tout
contrôler son image. -
6:12 - 6:15C'est son objectif principal.
-
6:15 - 6:17Tentons de déformer ça.
-
6:17 - 6:21Voyons si on peut, dans la monde civilisé,
protester les actes qu'il a commis, -
6:21 - 6:25en l'insultant
dans les résultats de recherche. » -
6:25 - 6:27Comment faire ?
-
6:27 - 6:29Il a demandé à tous ses lecteurs :
-
6:29 - 6:31« Allez sur Internet,
-
6:31 - 6:34trouvez des photos de crottes de chien
sur les trottoirs, -
6:35 - 6:37des crottes de chien,
-
6:37 - 6:40et postez-les sur vos sites web,
sur vos blogs. -
6:40 - 6:43Mentionnez le nom du terroriste
dans la légende de la photo, -
6:43 - 6:48et donnez au fichier le nom
« Brievik.jpeg. » -
6:48 - 6:52Apprenons à Google que tel est le visage
d'un terroriste. » -
6:54 - 6:55Ça a marché.
-
6:56 - 6:59Deux ans après la campagne
contre Michelle Obama, -
6:59 - 7:02cette campagne manipulatrice
contre Anders Behring Breivik a marché. -
7:02 - 7:07Quand on faisait une recherche
des semaines après ce 22 Juillet, -
7:07 - 7:11cette photo de crottes de chien
apparaissait en haut des résultats. -
7:11 - 7:12Une petite protestation.
-
7:13 - 7:18Curieusement, Google n'est pas
intervenu cette fois-ci. -
7:18 - 7:23Ils n'ont pas nettoyé ces résultats
manuellement. -
7:24 - 7:26La question à cent balles
consiste à savoir -
7:26 - 7:29s'il y a une différence
entre ces deux événements. -
7:29 - 7:32Y a-t-il une différence
entre ce qui est arrivé à Michelle Obama -
7:32 - 7:34et ce qui est arrivé à Anders Breivik ?
-
7:34 - 7:36Bien sûr que non.
-
7:37 - 7:38C'est exactement la même chose.
-
7:38 - 7:41Cependant, Google est intervenu
dans un cas et non dans l'autre. -
7:41 - 7:42Pourquoi ?
-
7:43 - 7:47Parce que Michelle Obama
est une personne honorable, -
7:47 - 7:49et Anders Breivik
est une personne ignoble. -
7:50 - 7:52Vous comprenez ce qui se passe ?
-
7:52 - 7:55On a porté un jugement de valeur
sur une personne. -
7:55 - 7:59Il n'y a qu'une puissance au monde
-
7:59 - 8:01pourvue de l'autorité
de décider qui est qui. -
8:02 - 8:04« On vous aime, on ne vous aime pas.
-
8:04 - 8:06On croit en vous, on ne croit pas en vous.
-
8:06 - 8:08Vous avez raison, vous avez tort.
-
8:08 - 8:10Vous êtes Obama,
et vous êtes Breivik. » -
8:11 - 8:13Voilà le pouvoir à l'état brut.
-
8:15 - 8:18C'est pour ça que je vous demande
de vous rappeler -
8:18 - 8:21que derrière chaque algorithme,
il y a toujours une personne, -
8:21 - 8:23avec des croyances personnelles,
-
8:23 - 8:26qu'aucun code ne pourra jamais
complètement effacer. -
8:26 - 8:28J'adresse mon message à Google,
-
8:28 - 8:31et à tous les croyants
en la programmation. -
8:31 - 8:34Vous devez identifier
vos propres préjugés. -
8:34 - 8:36Vous devez comprendre
que vous êtes humain, -
8:36 - 8:39et prendre vos responsabilités
en conséquence. -
8:40 - 8:44Je crois que nous avons atteint
un moment où il est impératif -
8:44 - 8:50que nous resserrions les liens
entre l'humanisme et la technologie, -
8:50 - 8:52et que nous les cultivions
comme jamais auparavant. -
8:52 - 8:55Si vous ne deviez retenir
qu'une seule idée : -
8:55 - 8:58l'idée séductrice du résultat
de recherche neutre, et objectif, -
8:58 - 9:01est et restera, un mythe.
-
9:02 - 9:03Merci pour votre temps.
-
9:03 - 9:06(Applaudissements)
- Title:
- Les préjugés éthiques des moteurs de recherche
- Speaker:
- Andreas Ekström
- Description:
-
Les moteurs de recherche sont devenus nos sources d'information, des arbitres de la vérité. Est-il vraiment possible d'obtenir un résultat de recherche impartial ? Le journaliste suédois Andreas Ekström nous explique pourquoi un résultat dépourvu de jugement est une impossibilité philosophique. Il nous invite à réfléchir aux liens entre la technologie et l'humanisme et nous rappelle que derrière chaque algorithme se trouve un choix de croyances personnelles qu'aucun code ne pourra jamais effacer.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
eric vautier approved French subtitles for The moral bias behind your search results | ||
eric vautier edited French subtitles for The moral bias behind your search results | ||
eric vautier edited French subtitles for The moral bias behind your search results | ||
eric vautier edited French subtitles for The moral bias behind your search results | ||
Claire Ghyselen accepted French subtitles for The moral bias behind your search results | ||
Claire Ghyselen edited French subtitles for The moral bias behind your search results | ||
Claire Ghyselen edited French subtitles for The moral bias behind your search results | ||
Claire Ghyselen edited French subtitles for The moral bias behind your search results |