Comment pouvons-nous transformer l'Internet en un lieu de confiance ?
-
0:02 - 0:04Peu importe qui vous êtes
ou où vous habitez, -
0:04 - 0:06je suis convaincue que vous avez
au moins un parent -
0:06 - 0:09qui adore transférer ces courriels.
-
0:09 - 0:11Vous savez de quoi je parle,
-
0:11 - 0:14ceux avec des affirmations douteuses
ou des vidéos de conspiration. -
0:14 - 0:17Vous les avez sans doute bloqués
sur Facebook -
0:17 - 0:19parce qu'ils partagent ce genre de posts.
-
0:19 - 0:21C'est l'illustration d'une banane
-
0:21 - 0:23avec une étrange croix rouge
en son cœur. -
0:23 - 0:26Le message avertit le lecteur
-
0:26 - 0:28d'éviter de manger un fruit pareil
-
0:28 - 0:30car on y aurait injecté du sang
-
0:30 - 0:32contaminé par le virus du VIH.
-
0:32 - 0:35L'intitulé du message est simplement :
-
0:35 - 0:37« Transférez pour sauver des vies ! »
-
0:38 - 0:41Les vérificateurs de faits tentent
de le désamorcer depuis des années -
0:41 - 0:44mais c'est le genre de rumeurs
qui ne veulent pas s'éteindre. -
0:44 - 0:45Une rumeur zombie.
-
0:46 - 0:48Naturellement, totalement fausse.
-
0:48 - 0:51Cela pourrait être risible
et on pourrait se demander -
0:51 - 0:53qui va bien pouvoir croire ça.
-
0:53 - 0:55C'est précisément une rumeur zombie
-
0:55 - 0:59car elle se nourrit des peurs les plus
profondes des gens quant à leur sécurité -
0:59 - 1:01et celles des personnes
qui leur sont chères. -
1:02 - 1:05Quand on passe autant de temps
que moi à étudier la désinformation, -
1:05 - 1:08on comprend vite qu'il s'agit d'un exemple
parmi tant d'autres -
1:08 - 1:11qui fait appel aux craintes
et vulnérabilités des gens. -
1:11 - 1:16Tous les jours, partout dans le monde,
des nouveaux mèmes sur Instagram -
1:16 - 1:19encouragent les parents
à ne pas vacciner leurs enfants, -
1:19 - 1:23des vidéos sur YouTube expliquent
que le changement climatique est un hoax. -
1:23 - 1:28Sur toutes les plateformes, un nombre
infini de messages diabolisent l'autre -
1:28 - 1:31sur base de leur race, de leur religion
ou de leur orientation sexuelle. -
1:32 - 1:35Bienvenue au cœur d'un des plus
grands défis de notre temps. -
1:36 - 1:40Comment perpétuer un Internet
fondé sur la liberté d'expression -
1:40 - 1:43tout en garantissant que le contenu
qui y est propagé -
1:43 - 1:47ne cause pas de préjudice irréversible
à nos démocraties, à nos communautés -
1:47 - 1:49et à notre bien-être physique et mental ?
-
1:50 - 1:52Nous vivons en effet
dans l'ère de l'information -
1:52 - 1:56et pourtant notre devise principale,
celle dont on dépend tous, l'information, -
1:56 - 1:58n'est plus considérée totalement fiable
-
1:58 - 2:00et semble parfois même
franchement dangereuse. -
2:01 - 2:05C'est partiellement dû à la croissance
monstrueuse des plateformes sociales -
2:05 - 2:06qui nous permettent de parcourir
-
2:06 - 2:09contenus mensongers et des faits
l'un à côté de l'autre -
2:09 - 2:12mais sans les signaux traditionnels
de véracité. -
2:12 - 2:16Et bon dieu, notre langage à ce sujet
est affreusement confus. -
2:16 - 2:19On est encore obsédé
par le terme « intox », -
2:19 - 2:22même s'il est particulièrement obscur
-
2:22 - 2:25et utilisé pour décrire
des phénomènes très différents : -
2:25 - 2:28mensonges, rumeurs, hoax,
conspirations et propagande. -
2:29 - 2:32Je souhaite tant qu'on cesse
d'utiliser cette expression -
2:32 - 2:35adoptée par les politiciens
partout dans le monde, -
2:35 - 2:36de gauche comme de droite,
-
2:36 - 2:39et brandie comme une arme
contre une presse libre et indépendante. -
2:40 - 2:45(Applaudissements)
-
2:45 - 2:48Car un journalisme professionnel
est plus que jamais indispensable. -
2:49 - 2:52De plus, la plupart de ces contenus
ne se déguisent même pas en info. -
2:52 - 2:55Ce sont des mèmes, des vidéos
et des posts sociaux. -
2:55 - 2:58La plupart ne sont pas faux,
ils sont trompeurs. -
2:58 - 3:01On a tendance à se concentrer
sur ce qui est vrai ou faux. -
3:01 - 3:05Toutefois, la préoccupation principale
est le détournement abusif du contexte. -
3:07 - 3:09Car la désinformation la plus efficace
-
3:09 - 3:12contient toujours une part de vérité.
-
3:12 - 3:14Prenons l'exemple de Londres.
-
3:14 - 3:17Un tweet circule largement
depuis mars 2017, -
3:17 - 3:21juste après l'attentat terroriste
sur le pont de Westminster. -
3:21 - 3:23Cette photo est vraie,
ce n'est pas un montage. -
3:23 - 3:26On a interviewé la femme
qui apparaît sur la photo par la suite -
3:26 - 3:29et elle a expliqué qu'elle était
tétanisée de peur. -
3:29 - 3:30Elle parlait à une personne chère
-
3:30 - 3:33et détournait le regard
de la victime par respect. -
3:33 - 3:37Mais la photo a circulé largement
avec un titre islamophobe -
3:37 - 3:40et de multiples hashtags dont : #BanIslam.
-
3:40 - 3:43Si vous étiez employé par Twitter,
comment réagiriez-vous ? -
3:43 - 3:46Vous le supprimeriez ou le laisseriez ?
-
3:47 - 3:50Ma réaction viscérale et émotionnelle
serait de le supprimer. -
3:50 - 3:52Je déteste le choix de l'angle.
-
3:53 - 3:55Mais la liberté d'expression
est un droit de l'homme. -
3:55 - 3:58Et si on commence à censurer
les propos qui nous mettent mal à l'aise, -
3:58 - 4:00c'est le début des problèmes.
-
4:00 - 4:02Ce cas semble évident
-
4:02 - 4:04mais la plupart ne le sont pas.
-
4:04 - 4:06La ligne de démarcation est floue.
-
4:06 - 4:08Qu'est-ce qui sépare
une décision bien intentionnée -
4:08 - 4:10de la censure ?
-
4:11 - 4:14Nous savons à présent
que ce compte, Texas Lone Star, -
4:14 - 4:17faisait partie d'une campagne
russe de désinformation -
4:17 - 4:19qui a été démantelée depuis lors.
-
4:19 - 4:21Cela change-t-il votre opinion ?
-
4:21 - 4:23Ça influencerait la mienne
-
4:23 - 4:25car il s'agit d'une campagne orchestrée
-
4:25 - 4:26pour semer la zizanie.
-
4:26 - 4:28Et pour ceux et celles qui pensent
-
4:28 - 4:31que l'intelligence artificielle
va résoudre tous nos problèmes, -
4:31 - 4:33Nous sommes tous d'accord pour dire
-
4:33 - 4:36que le temps où l'IA pourra comprendre ça
n'est pas encore venu. -
4:37 - 4:40Je vais d'abord vous présenter
trois enjeux entrelacés -
4:40 - 4:42qui rendent tout ça si compliqué.
-
4:42 - 4:45Ensuite, je vous proposerai quelques
manières de réfléchir à ces défis. -
4:45 - 4:49D'abord, notre relation à l'information
n'est pas rationnelle, -
4:49 - 4:51elle est émotionnelle.
-
4:51 - 4:55Il n'est pas vrai que davantage de faits
vont amender les choses -
4:55 - 4:58car les algorithmes déterminent
ce que nous voyons, -
4:58 - 5:01ils sont conçus pour récompenser
nos réactions émotionnelles. -
5:01 - 5:02Or, quand on a peur,
-
5:02 - 5:05les narrations simplifiées à outrance,
les théories de conspiration -
5:05 - 5:09et les termes qui diabolisent l'autre
sont encore plus efficaces. -
5:10 - 5:12De surcroît, le modèle
de fonctionnement de ces plateformes -
5:12 - 5:14est basé sur l'attention.
-
5:14 - 5:18Ça signifie que leurs algorithmes
sont conçus pour favoriser l'émotion. -
5:18 - 5:23Ensuite, la plupart des discours
que j'évoque sont légaux. -
5:23 - 5:25La situation serait différente
-
5:25 - 5:27si on parlait d'images de pédophilie
-
5:27 - 5:29ou de contenu incitant à la violence.
-
5:29 - 5:32Il est parfaitement légal
de poster un mensonge patent. -
5:33 - 5:37Toutefois, on continue de censurer
les contenus problématiques ou nuisibles -
5:37 - 5:40sans définition claire
de ce que ça signifie. -
5:40 - 5:41Mark Zuckerberg n'y échappe pas
-
5:41 - 5:45quand il plaide en faveur d'une
réglementation mondiale des discours. -
5:45 - 5:47Je crains que les gouvernements
-
5:47 - 5:48partout dans le monde
-
5:48 - 5:51mettent en place
des décisions politiques précipitées -
5:51 - 5:54qui pourraient en réalité générer
des conséquences bien plus graves -
5:54 - 5:56en matière d'expression.
-
5:56 - 6:00Même si nous pouvions décider
quels contenus conserver ou éliminer, -
6:00 - 6:02nous n'avons jamais eu tant de contenus.
-
6:02 - 6:04Chaque seconde, des millions de contenus
-
6:04 - 6:06sont téléchargés partout dans le monde,
-
6:06 - 6:08dans des langues différentes
-
6:08 - 6:10et basés sur des contextes
culturels multiples. -
6:10 - 6:13Nous n'avons aucun mécanisme efficace
-
6:13 - 6:15pour modérer les discours à cette échelle,
-
6:15 - 6:17que ce soit avec des humains
ou de la technologie. -
6:18 - 6:22Troisièmement, ces sociétés,
Google, Twitter, Facebook, WhatsApp, -
6:22 - 6:25font part d'un écosystème
d'information plus vaste. -
6:25 - 6:28On a tendance à leur faire
porter le blâme mais en fait, -
6:28 - 6:32les médias et les représentants politiques
peuvent jouer un rôle aussi important -
6:32 - 6:35pour amplifier les rumeurs
et les conspirations qui les arrangent. -
6:36 - 6:41Nous aussi, nous sommes susceptibles
de diffuser du contenu trompeur -
6:41 - 6:42sans le vouloir.
-
6:42 - 6:44On accentue la pollution.
-
6:45 - 6:48Nous cherchons tous un remède miracle.
-
6:48 - 6:50Mais ça n'existe pas.
-
6:50 - 6:54Toute solution devra être mise en place
à une échelle massive, celle d'Internet, -
6:54 - 6:58et les plateformes en fait,
sont habituées à cette échelle. -
6:58 - 7:01Mais pouvons-nous et devrions-nous
les autoriser à gérer ces problèmes ? -
7:02 - 7:03Certes, elles essaient.
-
7:03 - 7:07Nous sommes presque tous d'accord de
ne pas souhaiter voir des multinationales -
7:07 - 7:10devenir les gardiens de la vérité
et de l'équité sur Internet. -
7:10 - 7:12Les plateformes seront
d'accord aussi, je crois. -
7:12 - 7:15Actuellement, elles sont en train
de s'accorder des bons points. -
7:15 - 7:16Elles nous disent
-
7:16 - 7:19que leurs interventions sont efficaces.
-
7:19 - 7:22Mais elles rédigent elles-mêmes
leurs rapports sur leur transparence. -
7:22 - 7:25Il n'y a donc aucun moyen indépendant
pour vérifier les faits. -
7:26 - 7:30(Applaudissements)
-
7:30 - 7:33Pour être franche, la plupart
des changements que nous observons -
7:33 - 7:36ont lieu après une enquête journalistique
-
7:36 - 7:37et la mise à nu de preuves de biais
-
7:37 - 7:41ou de contenus qui enfreignent
les règles de fonctionnement. -
7:41 - 7:45Bien sûr, ces entreprises doivent jouer
un rôle crucial dans le processus -
7:45 - 7:47mais elles ne peuvent pas le contrôler.
-
7:48 - 7:50Qu'en est-il alors des gouvernements ?
-
7:50 - 7:53Beaucoup fondent leur dernier espoir
dans une réglementation mondiale -
7:53 - 7:56pour rendre notre écosystème propre.
-
7:56 - 7:59Mais les politiciens
peinent à rester à jour -
7:59 - 8:01avec la vélocité
de l'évolution technologique. -
8:01 - 8:03Pire, ils travaillent dans le noir
-
8:03 - 8:05car ils n'ont pas accès aux données
-
8:05 - 8:08pour comprendre ce qu'il se passe
sur ces plateformes. -
8:08 - 8:11Et puis, en quel gouvernement
pourrions-nous faire confiance ? -
8:11 - 8:14La réaction doit être mondiale
et pas au niveau national. -
8:15 - 8:18Le maillon manquant, c'est nous.
-
8:18 - 8:21Nous, femmes et hommes qui
utilisons ces technologies tous les jours. -
8:21 - 8:24Saurons-nous concevoir
une nouvelle infrastructure -
8:24 - 8:26pour véhiculer
une information de qualité ? -
8:26 - 8:28Je pense que oui.
-
8:28 - 8:31J'ai quelques idées pour y arriver.
-
8:31 - 8:34D'abord, si nous sommes
déterminés à engager le public, -
8:34 - 8:37Wikipedia pourrait
être une source d'inspiration. -
8:37 - 8:38Ils ont montré que c'est faisable.
-
8:38 - 8:40Ce n'est pas parfait
-
8:40 - 8:42mais ils ont démontré
qu'avec les structures adéquates, -
8:42 - 8:45une vision mondiale
et une transparence totale, -
8:45 - 8:48on peut construire quelque chose
qui gagnera la confiance du public. -
8:48 - 8:51Nous devons trouver un moyen
de puiser dans la sagesse collective -
8:51 - 8:53et l'expérience de tous les utilisateurs,
-
8:54 - 8:56particulièrement les femmes,
les personnes de couleur -
8:56 - 8:58et les minorités.
-
8:58 - 8:58Pourquoi ?
-
8:58 - 9:01Parce qu'ils sont spécialisés
dans la haine et la désinformation -
9:02 - 9:05dès lors qu'ils sont la cible
de ces campagnes depuis si longtemps. -
9:05 - 9:07Cela fait des années
qu'ils sonnent l'alarme -
9:07 - 9:09mais personne ne les écoute.
-
9:09 - 9:10Cela doit changer.
-
9:11 - 9:15Est-il possible de construire
un Wikipedia de la confiance ? -
9:15 - 9:19Comment les utilisateurs pourraient-ils
nous nourrir de leurs idées ? -
9:19 - 9:23Des idées au sujet des décisions complexes
de la modération de contenu. -
9:23 - 9:28Un retour quand les plateformes décident
de mettre en œuvre des changements. -
9:28 - 9:32Ensuite, l'expérience que les gens ont
de l'information est personnalisée. -
9:32 - 9:35Mon fil de Facebook
est différent du vôtre. -
9:35 - 9:38Vos recommandations Youtube
sont différentes des miennes. -
9:38 - 9:40Ceci rend impossible
l'analyse en profondeur -
9:40 - 9:42des informations vues par les gens.
-
9:43 - 9:44On pourrait imaginer
-
9:44 - 9:49de créer une sorte de répertoire ouvert
pour les données anonymisées -
9:49 - 9:52qui prenne en considération
vie privée et éthique. -
9:52 - 9:54Imaginez le potentiel de compréhension
-
9:54 - 9:57issu de la création d'un réseau mondial
de citoyens engagés -
9:57 - 10:01qui souhaitent faire don
de leurs données sociales à la science. -
10:01 - 10:03Nous ignorons en effet
-
10:03 - 10:06les conséquences à long terme
de la haine et de la désinformation -
10:06 - 10:08sur l'état d'esprit et les comportements.
-
10:08 - 10:09Et ce que nous en savons
-
10:09 - 10:12provient d'études
réalisées aux États-Unis, -
10:12 - 10:14alors que le problème est mondial.
-
10:14 - 10:16Nous devons aussi remédier à ça.
-
10:16 - 10:17Troisièmement,
-
10:17 - 10:20comment relier toutes les parties ?
-
10:20 - 10:23Aucun secteur seul, encore moins une ONG,
une start-up ou un gouvernement -
10:23 - 10:25ne pourra résoudre ça.
-
10:25 - 10:27Mais de nombreuses personnes
intelligentes dans le monde -
10:27 - 10:30s'attaquent à ces défis
dans les salles de rédaction, -
10:30 - 10:33la société civile, le monde académique,
les communautés activistes. -
10:33 - 10:34En voici quelques-uns.
-
10:34 - 10:37Certains élaborent des indicateurs
de crédibilité des contenus. -
10:37 - 10:38D'autres vérifient les faits
-
10:38 - 10:42pour dégrader le taux de référencement
des allégations, vidéos et images fausses. -
10:42 - 10:45J'ai participé à la création
d'une ONG, First Draft, -
10:45 - 10:47qui collabore avec des salles
de rédaction dans le monde -
10:47 - 10:51pour les aider à élaborer des programmes
collaboratifs d'investigation. -
10:51 - 10:54Dennis Hillis, un programmateur,
-
10:54 - 10:56conçoit un nouveau système appelé
The Underlay, -
10:56 - 10:59qui sera l'archive de toutes
les déclarations publiques de faits -
10:59 - 11:02reliées à leurs sources
afin que le public et les algorithmes -
11:02 - 11:04puissent mieux évaluer
ce qui est crédible. -
11:05 - 11:08Des éducateurs dans le monde
testent diverses techniques -
11:08 - 11:12pour aiguiser l'esprit critique des gens
par rapport aux contenus. -
11:13 - 11:16Tous ces efforts sont impressionnants
mais ils sont dans des silos -
11:16 - 11:18et la plupart sont lamentablement
sous-financés. -
11:19 - 11:21Des centaines de personnes brillantes
-
11:21 - 11:22travaillent dans ces entreprises
-
11:22 - 11:25mais à nouveau, leurs efforts
ne sont pas consolidés -
11:25 - 11:29car ils développent des solutions
différentes aux mêmes problèmes. -
11:29 - 11:31Comment associer ces personnes
-
11:31 - 11:35dans un seul lieu physique,
pendant quelques jours ou semaines, -
11:35 - 11:38pour leur permettre de réfléchir
ensemble à ces problèmes -
11:38 - 11:39mais avec leur propre perspective ?
-
11:39 - 11:40Est-ce possible ?
-
11:40 - 11:44Est-il possible de créer une réponse
ambitieuse et coordonnée, -
11:44 - 11:47à la hauteur de l'échelle
et de la complexité de ce problème ? -
11:48 - 11:49J'en suis convaincue.
-
11:49 - 11:53Ensemble, reconstruisons
nos fondations communes de l'information. -
11:53 - 11:54Merci.
-
11:54 - 11:58(Applaudissements)
- Title:
- Comment pouvons-nous transformer l'Internet en un lieu de confiance ?
- Speaker:
- Claire Wardle
- Description:
-
Comment empêcher la diffusion de contenus mensongers et parfois dangereux sur Internet tout en perpétuant sa liberté d'expression ?
Claire Wardle est spécialiste en désinformation et elle explore les défis récents liés à la pollution de notre environnement en ligne. Elle trace les lignes pour transformer l'Internet en un espace de confiance, avec la contribution de tous ses usagers. « Ensemble, reconstruisons nos bases communes de l'information, » nous propose-t-elle.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
eric vautier approved French subtitles for How you can help transform the internet into a place of trust | ||
eric vautier edited French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie accepted French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie edited French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie edited French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie edited French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie edited French subtitles for How you can help transform the internet into a place of trust | ||
Anne-Sophie edited French subtitles for How you can help transform the internet into a place of trust |