Les préjugés moraux derrière les résultats de recherche | Andreas Ekstrøm | TEDxOslo
-
0:04 - 0:07A chaque fois que j'interviens
dans une école, -
0:07 - 0:09je pose toujours la même question
aux élèves : -
0:10 - 0:12Pourquoi allez-vous sur Google ?
-
0:12 - 0:15Pourquoi ce moteur de recherche
plutôt qu'un autre ? -
0:16 - 0:19Et bizarrement, j'obtiens toujours
trois mêmes réponses. -
0:19 - 0:21Premièrement,
« Parce que ça marche » ; -
0:21 - 0:23c'est une bonne raison,
c'est pour ça que j'y vais aussi. -
0:23 - 0:26Deuxièmement, on me dit,
-
0:26 - 0:29« Je ne saurais vraiment pas
quoi utiliser d'autre. » -
0:29 - 0:32C'est un peu moins convaincant,
et j'ai tendance à répondre -
0:32 - 0:34« Tapez 'moteur de recherche'
sur Google, -
0:34 - 0:37cela vous donnera quelques idées. »
-
0:37 - 0:39Et troisièmement, inévitablement,
-
0:39 - 0:43un ou une élève
lève la main et dit : -
0:43 - 0:48« Sur Google, j'ai la certitude d'obtenir
des informations impartiales. » -
0:49 - 0:55La certitude d'obtenir
des informations impartiales. -
0:57 - 0:59Je suis passionné d'humanités numériques,
-
0:59 - 1:01et entendre cette phrase
-
1:01 - 1:03me donne la chair de poule,
-
1:03 - 1:08même si je vois bien que cette confiance
en l'impartialité des résultats -
1:08 - 1:12est au fondement du crédit
que l'on donne à Google. -
1:12 - 1:16Je vais vous montrer en quoi
c'est pratiquement impossible. -
1:16 - 1:19Mais tout d'abord, rappelons
une règle de base -
1:19 - 1:23qui vaut pour toutes les requêtes,
et qu'il nous arrive d'oublier. -
1:23 - 1:25Quand vous vous apprêtez
à faire une recherche -
1:25 - 1:29demandez-vous d'abord : « La réponse
est-elle une information élémentaire ? » -
1:30 - 1:33Quelle est la capitale de la France ?
-
1:33 - 1:35Quelles atomes constituent
une molécule d'eau ? -
1:35 - 1:38Si c'est le cas, allez-y.
-
1:38 - 1:41Aucun chercheur n'essaie de prouver
qu'il s'agit de Londres -
1:41 - 1:43et de 30 atomes d'hydrogène.
-
1:43 - 1:45Pas de mystère derrière
ces simples questions. -
1:45 - 1:47Leurs réponses font l'objet
-
1:47 - 1:50d'un consensus général.
-
1:50 - 1:55Mais si on ajoute un degré de complexité,
en demandant par exemple -
1:55 - 1:58« A quoi est dû
le conflit israélo-palestinien ? » -
1:58 - 2:01on n'est plus à la recherche
d'une simple information, -
2:01 - 2:03mais d'une connaissance,
-
2:03 - 2:06ce qui est bien plus compliqué
et délicat à obtenir. -
2:06 - 2:08Pour construire une connaissance,
-
2:08 - 2:11il faut rassembler 10, 20 ou 100
informations factuelles, -
2:11 - 2:13les étudier et se dire
« D'accord, tout cela est vrai. » -
2:13 - 2:15Mais en fonction de qui je suis,
-
2:15 - 2:18jeune ou vieux, Noir ou Blanc,
gay ou hétéro, -
2:18 - 2:19je les envisagerai différemment.
-
2:19 - 2:21Je me dirai « Oui, tout est vrai,
-
2:21 - 2:23mais cet aspect me parle plus
que celui-là. » -
2:23 - 2:25Et c'est là que ça devient intéressant,
-
2:25 - 2:27car c'est ce qui fait de nous
des humains -
2:27 - 2:30capables de débattre et
de prendre part à la société. -
2:30 - 2:33Et pour digérer tous ces faits,
il faut les confronter -
2:33 - 2:36à nos amis, voisins,
famille, enfants, -
2:36 - 2:38collègues, journaux, magazines,
-
2:38 - 2:41et alors seulement,
on parvient à une vraie connaissance, -
2:41 - 2:46chose qu'un moteur de recherche
est incapable de faire. -
2:47 - 2:52Comme promis, voici un exemple qui montre
comme il est difficile de parvenir -
2:53 - 2:57à une connaissance pure,
impartiale et parfaite. -
2:57 - 2:58Pour nourrir notre réflexion,
-
2:58 - 3:02je vais effectuer deux requêtes
très simples. -
3:02 - 3:05Pour commencer, « Michelle Obama »,
-
3:06 - 3:08la Première Dame des Etats-Unis.
-
3:08 - 3:10Cliquons sur l'onglet « Images ».
-
3:11 - 3:13Comme vous le voyez,
ça fonctionne très bien. -
3:13 - 3:16Somme toute, de parfaits
résultats de recherche. -
3:16 - 3:19Elle est seule sur les photos,
sans même le Président. -
3:19 - 3:21Comment ça marche ?
-
3:21 - 3:23C'est très simple.
-
3:23 - 3:26Google procède de manière astucieuse
et très simple à la fois : -
3:26 - 3:29il se base essentiellement
sur deux éléments. -
3:29 - 3:34Primo, qu'est-il écrit
dans la légende de l'image ? -
3:34 - 3:36A-t-on marqué « Michelle Obama »
sous la photo ? -
3:36 - 3:38Si oui, on peut déduire que
c'est bien elle. -
3:38 - 3:41Secondo, Google examine
le nom du fichier image -
3:41 - 3:44que l'on a téléchargé sur le site.
-
3:44 - 3:46Le fichier s'appelle
« MichelleObama.jpeg » ? -
3:46 - 3:49Si oui, ce n'est sans doute pas
une photo de Clint Eastwood. -
3:49 - 3:53Les deux éléments renseignés, on obtient
(presque toujours) de bons résultats. -
3:53 - 3:59Mais en 2009, Michelle Obama
a été victime d'une campagne raciste, -
4:00 - 4:04où des personnes ont commencé à l'insulter
via ses résultats de recherche. -
4:05 - 4:08On a diffusé sur toute la toile
une photo d'elle retouchée -
4:08 - 4:10où son visage ressemblait
à celui d'un singe. -
4:10 - 4:13Cette photo a fait le buzz.
-
4:14 - 4:17Les gens la publiaient expressément
-
4:17 - 4:19pour entacher ses résultats de recherche.
-
4:19 - 4:22Ils s'assuraient d'indiquer
« Michelle Obama » dans la légende -
4:22 - 4:26et de nommer leur fichier image
« MichelleObama.jpeg », -
4:26 - 4:29avec pour but de manipuler les résultats.
-
4:29 - 4:30Et ça a marché.
-
4:30 - 4:33Quand vous cherchiez sur Google
une photo d'elle en 2009, -
4:33 - 4:36c'était un visage déformé de singe
qui apparaissait. -
4:36 - 4:40Les résultats de recherche
s'auto-régulent donc, -
4:40 - 4:42en somme, c'est leur grande force,
-
4:42 - 4:45parce que Google réévalue
sans arrêt leur pertinence. -
4:45 - 4:48Mais cette fois, cela n'a pas suffi
-
4:48 - 4:51Google s'est dit : « Ce résultat
est raciste et non pertinent, -
4:51 - 4:54faisons marche arrière et
supprimons-le manuellement. -
4:54 - 4:57Ecrivons un bout de code
pour régler le problème. » -
4:57 - 4:58Et c'est ce qui s'est passé.
-
4:59 - 5:03Je pense qu'aucun d'entre vous
ne désapprouve cette décision. -
5:03 - 5:05Et moi non plus.
-
5:06 - 5:09Mais plusieurs années après,
un homme nommé Anders -
5:09 - 5:12(sans doute le Anders le plus
recherché sur Google), -
5:12 - 5:15Anders Behring Breivik,
-
5:15 - 5:16a fait ce qu'il a fait.
-
5:16 - 5:19C'était le 22 juillet 2011,
-
5:19 - 5:21une terrible journée
dans l'histoire de la Norvège. -
5:21 - 5:25Ce terroriste a fait sauter
des immeubles gouvernementaux -
5:25 - 5:28tout près de là où nous sommes,
à Oslo, -
5:28 - 5:30puis s'est rendu sur l'île d'Utøya
-
5:30 - 5:32où il a massacré des adolescents.
-
5:32 - 5:34Il y a eu près de 80 morts ce jour-là.
-
5:36 - 5:41Et on dit souvent que cet acte terroriste
s'est déroulé en deux temps : -
5:41 - 5:44d'abord l'explosion,
puis la fusillade, -
5:44 - 5:46mais c'est faux.
-
5:46 - 5:48Il y a trois temps.
-
5:48 - 5:50Il a fait sauter les immeubles,
tué les adolescents, -
5:50 - 5:54puis il a attendu que le monde
le recherche sur Google. -
5:55 - 5:57Chacun de ces trois temps a été
minutieusement préparé. -
5:58 - 6:01Et il y a une personne
qui s'en est aperçu tout de suite : -
6:01 - 6:03Nikke Lindqvist, un développeur web
-
6:03 - 6:06expert en référencement
vivant à Stockholm, en Suède. -
6:06 - 6:08Très engagé politiquement,
-
6:08 - 6:11il a tout de suite réagi sur les réseaux,
son blog et Facebook, -
6:11 - 6:13en disant à tout le monde :
-
6:13 - 6:15« En ce moment,
ce mec n'a qu'une idée en tête, -
6:15 - 6:18c'est contrôler son image.
-
6:18 - 6:20Voyons comment on peut la ternir.
-
6:21 - 6:25Voyons si nous, personnes civilisées,
pouvons protester contre son acte -
6:25 - 6:29en l'injuriant
via ses résultats de recherche. » -
6:29 - 6:30Et de quelle façon ?
-
6:30 - 6:33Il demanda ceci à tous ses lecteurs :
-
6:33 - 6:34« Allez sur Internet,
-
6:34 - 6:37trouvez des photos de crottes de chien
sur des trottoirs -- -
6:38 - 6:41trouvez des photos de crottes de chien
sur des trottoirs -- -
6:41 - 6:44publiez-les sur vos comptes,
vos sites web et vos blogs, -
6:44 - 6:47mettez bien le nom du terroriste
dans la légende, -
6:47 - 6:51et nommez bien le fichier image
'Breivik.jpeg'. -
6:51 - 6:55Faisons croire à Google
que c'est le visage de ce terroriste. » -
6:57 - 6:59Et ça a marché.
-
7:00 - 7:02Deux ans après la campagne raciste
contre Michelle Obama, -
7:02 - 7:06une même campagne
contre Anders Behring Breivik a eu lieu. -
7:06 - 7:10En Suède, quelques semaines
après les événements du 22 juillet, -
7:10 - 7:14ses résultats de recherche affichaient
une photo de crotte de chien -
7:14 - 7:16en signe de protestation.
-
7:17 - 7:21Il est à noter que cette fois,
Google n'est pas intervenu. -
7:22 - 7:26Il ne s'est pas donné la peine
de nettoyer ces résultats manuellement. -
7:27 - 7:29Et maintenant,
la question à mille euros : -
7:29 - 7:33quelle est la différence
entre ces deux anecdotes ? -
7:33 - 7:36Michelle Obama a-t-elle subi une attaque
de nature différente -
7:36 - 7:38de celle subie
par Anders Behring Breivik ? -
7:38 - 7:40Bien sûr que non.
-
7:40 - 7:42C'est exactement la même chose,
-
7:42 - 7:45mais Google intervient dans un cas
mais pas dans l'autre. -
7:45 - 7:46Pourquoi ?
-
7:47 - 7:50Parce que Michelle Obama
est une personne respectable, -
7:50 - 7:53et que Anders Behring Breivik
est une personne méprisable. -
7:54 - 7:55Vous voyez jusqu'où ça va ?
-
7:55 - 7:58Quand on se met à
juger une personne -
7:58 - 8:02il existe une instance
unique et toute puissante -
8:02 - 8:05capable d'avoir le dernier mot.
-
8:06 - 8:08« Toi on t'aime,
toi on ne t'aime pas. -
8:08 - 8:10On croit en toi,
mais pas en toi. -
8:10 - 8:12Tu as tort, tu as raison.
Tu es vrai, tu es faux. -
8:12 - 8:14Tu es Obama,
et toi tu es Breivik. » -
8:14 - 8:17Et c'est, je pense,
l'essence même du pouvoir. -
8:19 - 8:23Souvenez-vous donc que
derrière tout algorithme -
8:23 - 8:24se cache toujours
une personne -
8:24 - 8:27dont la trame de
convictions personnelles -
8:27 - 8:29transparaîtra quel que soit
le code du programme. -
8:29 - 8:32Et l'objet de mon propos
va bien au-delà de Google, -
8:32 - 8:35et concerne tous ceux
qui font confiance au code. -
8:35 - 8:38Il faut identifier
ses propres préjugés moraux. -
8:38 - 8:40Il faut reconnaître
qu'en tant qu'humains -
8:40 - 8:43nous devons prendre
nos responsabilités. -
8:44 - 8:46D'autant plus que que je pense
que nous avons atteint un point -
8:46 - 8:48où il est absolument
nécessaire -
8:48 - 8:51de renforcer
les liens qui unissent -
8:51 - 8:54les sciences humaines
et la technologie. -
8:54 - 8:56Plus que jamais.
-
8:56 - 8:59Ou du moins de se souvenir
que la séduisante hypothèse -
8:59 - 9:02de résultats de recherche
parfaitement impartiaux -
9:02 - 9:05est et restera sans doute
un mythe. -
9:05 - 9:07Merci pour votre attention.
-
9:07 - 9:09(Applaudissements)
- Title:
- Les préjugés moraux derrière les résultats de recherche | Andreas Ekstrøm | TEDxOslo
- Description:
-
De nos jours, lorsque l'on cherche une information, c'est aux moteurs de recherche que nous faisons le plus confiance. Mais est-il possible d'obtenir des résultats de recherche impartiaux ? Pour Andreas Ekström, auteur et journaliste suédois, cela relève de l'impossibilité. Dans ce brillant exposé, il incite à renforcer les liens entre les sciences humaines et la technologie et nous rappelle que derrière tout algorithme se cache un réseau de convictions personnelles, que nul code ne peut entièrement éclipser.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:16
Shadia Ramsahye approved French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye accepted French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Shadia Ramsahye edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Zoé Thivet edited French subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo |