Comment nous pouvons protéger la vérité à l'ère de la désinformation
-
0:01 - 0:07Le 23 avril 2013,
-
0:07 - 0:12l'Associated Press a publié
le tweet suivant sur Twitter. -
0:12 - 0:15Il disait : « Flash info :
-
0:15 - 0:17deux explosions à la Maison-Blanche
-
0:17 - 0:20et Barack Obama a été blessé. »
-
0:20 - 0:26Ce tweet a été retweeté 4 000 fois
en moins de cinq minutes -
0:26 - 0:28et est ensuite devenu viral.
-
0:29 - 0:33Ce tweet n'était pas une vraie info
publiée par l'Associated Press. -
0:33 - 0:36C'était une fausse info, ou une infox,
-
0:36 - 0:39qui a été propagée par des pirates syriens
-
0:39 - 0:44qui avaient piraté le compte
de l'Associated Press sur Twitter. -
0:44 - 0:46Leur objectif était
de perturber la société, -
0:46 - 0:48mais ils ont perturbé bien plus que cela.
-
0:48 - 0:51Car les algorithmes automatisés de trading
-
0:51 - 0:54ont immédiatement saisi
le sentiment de ce tweet -
0:54 - 0:57et ont commencé à faire des opérations
basées sur la possibilité -
0:57 - 1:01que le président des États-Unis
ait été blessé ou tué -
1:01 - 1:02dans une explosion.
-
1:02 - 1:04Alors qu'ils ont commencé à tweeter,
-
1:04 - 1:08ils ont immédiatement causé
l’écroulement du cours de la bourse, -
1:08 - 1:13anéantissant 140 milliards de dollars
de valeur de fonds propres en un jour. -
1:13 - 1:18Robert Mueller,
procureur spécial aux États-Unis, -
1:18 - 1:21a prononcé des chefs d'accusation
contre trois entreprises russes -
1:21 - 1:24et 13 ressortissants russes
-
1:24 - 1:27au sujet d'un complot
pour escroquer les États-Unis -
1:27 - 1:31via une ingérence durant les élections
présidentielles de 2016. -
1:32 - 1:35L'histoire que raconte
ce chef d'accusation -
1:35 - 1:39est celle de l'Internet Research Agency,
-
1:39 - 1:42le bras armé du Kremlin
sur les réseaux sociaux. -
1:43 - 1:46Durant les élections
présidentielles uniquement, -
1:46 - 1:48les efforts de l'Internet Agency
-
1:48 - 1:53ont touché 126 millions de personnes
sur Facebook aux États-Unis, -
1:53 - 1:56ont publié trois millions de tweets
-
1:56 - 2:00et 43 heures de contenu sur YouTube.
-
2:00 - 2:02Tout cela était faux --
-
2:02 - 2:05de la désinformation
conçue pour semer la discorde -
2:05 - 2:08au sein des élections
présidentielles américaines. -
2:09 - 2:12Une étude récente de l'université d'Oxford
-
2:12 - 2:15a montré que durant
les récentes élections suédoises, -
2:15 - 2:19un tiers de toutes les informations
se propageant sur les réseaux sociaux -
2:19 - 2:21au sujet des élections
-
2:21 - 2:23étaient fausses ou de la désinformation.
-
2:23 - 2:28De plus, ce genre de campagne
de désinformation sur les réseaux sociaux -
2:28 - 2:32peut propager ce qu’on en est venu à
appeler de la « propagande génocidaire », -
2:32 - 2:35par exemple contre
les Rohingyas en Birmanie, -
2:35 - 2:38ou entraînant des massacres
collectifs en Inde. -
2:38 - 2:39Nous avons étudié l'infox
-
2:39 - 2:43et avons commencé à l'étudier
avant que ce ne soit un terme populaire. -
2:43 - 2:48Nous avons récemment publié la plus longue
étude longitudinale qui soit -
2:48 - 2:50sur la propagation de l'infox en ligne
-
2:50 - 2:54en couverture de « Science »
en mars cette année. -
2:55 - 2:59Nous avons étudié toutes les infos
confirmées comme étant vraies ou fausses -
2:59 - 3:00qui se sont propagées sur Twitter,
-
3:00 - 3:04depuis son lancement en 2006 jusqu'à 2017.
-
3:05 - 3:07Quand nous avons étudié ces informations,
-
3:07 - 3:10nous avons étudié des informations
-
3:10 - 3:11qui avaient été vérifiées
-
3:11 - 3:14par six organisations
de vérification indépendantes. -
3:14 - 3:17Nous savions donc
quelles informations étaient vraies -
3:17 - 3:19et quelles informations étaient fausses.
-
3:19 - 3:21Nous pouvons mesurer leur diffusion,
-
3:21 - 3:22la vitesse de leur diffusion,
-
3:22 - 3:24la portée et l'ampleur de leur diffusion,
-
3:24 - 3:29combien de gens se sont empêtrés
dans cette cascade d'informations, etc. -
3:29 - 3:30Dans cette publication,
-
3:30 - 3:34nous avons comparé la propagation
d'informations vraies et d'infox. -
3:34 - 3:36Voici ce que nous avons découvert.
-
3:36 - 3:37Nous avons découvert
-
3:37 - 3:40que l'infox se diffusait plus loin,
plus vite, plus profondément -
3:40 - 3:42et plus largement que la vérité
-
3:42 - 3:45dans chacune des catégories d'informations
que nous avons étudiées, -
3:45 - 3:47la différence étant parfois
d'un ordre de grandeur. -
3:48 - 3:51Les infox politiques
étaient les plus virales. -
3:51 - 3:55Elles se diffusaient plus loin, vite,
profondément et largement -
3:55 - 3:57que n'importe quel autre type d'infox.
-
3:57 - 3:59Quand nous avons vu cela,
-
3:59 - 4:02nous étions à la fois inquiets
mais aussi curieux. -
4:02 - 4:03Pourquoi ?
-
4:03 - 4:06Pourquoi est-ce que l'infox circule
tellement plus loin, vite, profondément -
4:06 - 4:08et largement que la vérité ?
-
4:08 - 4:11Notre première hypothèse était :
-
4:11 - 4:14« Peut-être que les gens
diffusant de l'infox -
4:14 - 4:16ont plus de suiveurs
ou suivent plus de monde, -
4:16 - 4:18tweetent plus souvent,
-
4:18 - 4:21peut-être sont-ils plus souvent
des utilisateurs « vérifiés » de Twitter, -
4:21 - 4:22avec plus de crédibilité,
-
4:22 - 4:24ou sont-ils là depuis plus longtemps. »
-
4:24 - 4:26Nous avons vérifié
chacune de ces hypothèses. -
4:27 - 4:30Nous avons découvert
exactement le contraire. -
4:30 - 4:32Les diffuseurs d'infox
avaient moins de suiveurs, -
4:32 - 4:34suivaient moins de gens,
étaient moins actifs, -
4:34 - 4:36moins souvent « vérifiés »
-
4:36 - 4:39et étaient sur Twitter
depuis moins longtemps. -
4:39 - 4:40Et pourtant,
-
4:40 - 4:43les infox avaient
70% de probabilités de plus -
4:43 - 4:45d'être retweetées par rapport à la vérité,
-
4:45 - 4:48en contrôlant ces facteurs
et de nombreux autres. -
4:48 - 4:51Nous devions trouver
d'autres explications. -
4:51 - 4:52Nous avons formulé
-
4:52 - 4:55ce que nous avons appelé
« l'hypothèse de la nouveauté ». -
4:55 - 4:57Si vous lisez la littérature,
-
4:57 - 5:01il est bien connu que l'attention humaine
est attirée par la nouveauté, -
5:01 - 5:03les choses nouvelles dans l'environnement.
-
5:03 - 5:05Si vous lisez la littérature sociologique,
-
5:05 - 5:10vous savez que nous aimons partager
des informations nouvelles. -
5:10 - 5:14Cela nous donne l'impression d'avoir
un accès privilégié à des informations -
5:14 - 5:17et nous gagnons en statut
en diffusant ce genre d'informations. -
5:18 - 5:24Nous avons alors mesuré la nouveauté
d'un tweet, qu'il soit vrai ou faux, -
5:24 - 5:28l'avons comparé au corpus
de ce que l'individu avait vu -
5:28 - 5:31sur Twitter les 60 derniers jours.
-
5:31 - 5:34Mais cela ne suffisait pas
car nous avons pensé : -
5:34 - 5:37« Peut-être que l'infox
représente plus de nouveauté -
5:37 - 5:38dans un sens théorique,
-
5:38 - 5:41mais peut-être que les gens
n'y perçoivent pas plus de nouveauté. » -
5:42 - 5:46Pour comprendre la perception
que les gens avaient des infox, -
5:46 - 5:49nous avons considéré
l'information et le sentiment -
5:50 - 5:54que les réponses des tweets
vrais et faux incluaient. -
5:54 - 5:55Nous avons découvert
-
5:55 - 5:59que parmi tout un tas
de mesures différentes des sentiments -- -
5:59 - 6:03la surprise, le dégoût,
la peur, la tristesse, -
6:03 - 6:05l'anticipation, la joie et la confiance --
-
6:05 - 6:11les infox présentaient notablement
plus de surprise et de dégoût -
6:11 - 6:14dans les réponses aux tweets.
-
6:14 - 6:18Les informations avérées présentaient
notablement plus d'anticipation, -
6:18 - 6:20de joie et de confiance
-
6:20 - 6:22dans les réponses aux tweets.
-
6:22 - 6:26La surprise corrobore
notre hypothèse de la nouveauté. -
6:26 - 6:28C'est nouveau et surprenant,
-
6:28 - 6:31nous allons donc
plus probablement le partager. -
6:31 - 6:34En même temps, il y avait
un témoignage au Congrès, -
6:34 - 6:37devant les deux chambres
du Congrès des États-Unis, -
6:37 - 6:41considérant le rôle des robots
dans la diffusion de la désinformation. -
6:41 - 6:42Nous l'avons envisagé --
-
6:42 - 6:43nous avons utilisé
-
6:43 - 6:46de multiples algorithmes sophistiqués
de détection de robots -
6:46 - 6:49pour trouver les robots
dans nos données et les en extraire. -
6:49 - 6:52Nous les en avons extraits,
les avons inclus à nouveau -
6:52 - 6:55et avons comparé
ce qu'il arrivait à nos mesures. -
6:55 - 6:57Nous avons découvert que oui, en effet,
-
6:57 - 7:01les robots accéléraient
la diffusion d'infox en ligne, -
7:01 - 7:04mais ils accéléraient
la diffusion d'informations avérées -
7:04 - 7:06approximativement au même rythme.
-
7:06 - 7:09Ce que signifie que les robots
ne sont pas responsables -
7:09 - 7:14pour l'écart dans la diffusion
de la vérité et de la fausseté en ligne. -
7:14 - 7:17Nous ne pouvons pas
refuser cette responsabilité -
7:17 - 7:21car nous, êtres humains,
sommes responsables de cette diffusion. -
7:22 - 7:26Tout ce que je vous ai dit jusqu'ici,
-
7:26 - 7:28malheureusement pour nous tous,
-
7:28 - 7:29ce sont les bonnes nouvelles.
-
7:31 - 7:35La raison en est que cela
va bientôt devenir bien pire. -
7:36 - 7:40Deux technologies en particulier
vont rendre cela bien pire. -
7:40 - 7:45Nous allons voir la montée
d'une énorme vague de média synthétiques : -
7:45 - 7:51de fausses vidéos, de faux enregistrements
très convaincants pour l’œil humain. -
7:51 - 7:54Cela sera propulsé par deux technologies.
-
7:54 - 7:58La première est connue sous le nom
de « réseaux adverses génératifs ». -
7:58 - 8:01C'est un modèle d'apprentissage
automatique avec deux réseaux : -
8:01 - 8:02un discriminateur,
-
8:02 - 8:06dont le rôle est de déterminer
si quelque chose est vrai ou faux, -
8:06 - 8:08et un générateur,
-
8:08 - 8:11dont le rôle est de générer
des médias synthétiques. -
8:11 - 8:16Le générateur synthétique génère une vidéo
ou un enregistrement audio synthétique -
8:16 - 8:21et le discriminateur essaye de dire
s'il est réel ou falsifié. -
8:21 - 8:24La tâche du générateur
-
8:24 - 8:28consiste à maximiser la probabilité
de faire croire au discriminateur -
8:28 - 8:33que la vidéo et l'enregistrement audio
qu'il crée sont réels. -
8:33 - 8:36Imaginez une machine
dans une boucle infinie -
8:36 - 8:39et essayant d'améliorer
sa capacité à nous tromper. -
8:39 - 8:42Cela, en combinaison
avec la deuxième technologie, -
8:42 - 8:47qui est essentiellement la démocratisation
de l'intelligence artificielle, -
8:47 - 8:50la capacité offerte à tous,
-
8:50 - 8:52sans aucune formation
en intelligence artificielle -
8:52 - 8:54ou en apprentissage automatique,
-
8:54 - 8:58de déployer ce genre d'algorithmes
pour générer des médias synthétiques -
8:58 - 9:02rendant cela tellement plus simple
de créer des vidéos. -
9:02 - 9:07La Maison-Blanche a publié
une vidéo falsifiée, truquée -
9:07 - 9:10d'un journaliste interagissant
avec une stagiaire -
9:10 - 9:11et essayant de prendre son micro.
-
9:11 - 9:13Ils ont enlevé des images de cette vidéo
-
9:13 - 9:17afin que ces actes
paraissent plus percutants. -
9:17 - 9:21Quand des vidéastes,
des cascadeurs et des cascadeuses -
9:21 - 9:23ont été interrogés
sur ce genre de technique, -
9:23 - 9:27ils ont dit : « Oui, nous utilisons
constamment cela dans les films -
9:27 - 9:32pour que nos coups de poing et de pied
paraissent plus musclés et agressifs. » -
9:32 - 9:34Ils ont ensuite publié cette vidéo
-
9:34 - 9:37l'ont utilisée
comme justification partielle -
9:37 - 9:41pour révoquer la carte de presse
de Jim Acosta, le journaliste, -
9:41 - 9:42pour la Maison-Blanche.
-
9:42 - 9:47CNN a dû aller en justice pour faire
rétablir cette carte de presse. -
9:49 - 9:51Il y a environ cinq chemins différents
-
9:51 - 9:54que je peux imaginer
et que nous pourrions suivre -
9:54 - 9:58pour essayer de remédier
à ces problèmes très difficiles. -
9:58 - 10:00Chacun est prometteur
-
10:00 - 10:03mais chacun a des défis
qui lui sont propres. -
10:03 - 10:05Le premier est l'étiquetage.
-
10:05 - 10:07Réfléchissez-y :
-
10:07 - 10:10quand vous allez au supermarché
pour acheter de la nourriture, -
10:10 - 10:12elle est amplement étiquetée.
-
10:12 - 10:14Vous savez combien
de calories elle contient, -
10:14 - 10:16combien de graisses --
-
10:16 - 10:19et pourtant, quand
nous consommons des informations, -
10:19 - 10:20nous n'avons pas d'étiquettes.
-
10:20 - 10:22Que contient cette information ?
-
10:22 - 10:24La source est-elle crédible ?
-
10:24 - 10:26Où cette information
a-t-elle été recueillie ? -
10:26 - 10:28Nous n'avons aucune de ces informations
-
10:28 - 10:30quand nous consommons des informations.
-
10:30 - 10:33C'est une solution potentielle,
mais elle a ses défis. -
10:33 - 10:40Par exemple, qui décide, dans la société,
ce qui est vrai et ce qui est faux ? -
10:40 - 10:42Est-ce que ce sont les gouvernements ?
-
10:42 - 10:43Est-ce Facebook ?
-
10:44 - 10:47Est-ce un consortium indépendant
de vérificateurs d'informations ? -
10:47 - 10:50Et qui contrôle ceux
qui vérifient les informations ? -
10:50 - 10:54Une autre option possible,
ce sont les incitations. -
10:54 - 10:57Nous savons que durant les élections
présidentielles américaines, -
10:57 - 11:00il y a eu une vague de désinformation
venue de Macédoine du Nord -
11:00 - 11:02qui n'avait aucun mobile politique
-
11:02 - 11:05mais avait un mobile économique.
-
11:05 - 11:07Ce mobile économique existait
-
11:07 - 11:10car l'infox circule
tellement plus loin, plus vite -
11:10 - 11:12et plus profondément que la vérité
-
11:13 - 11:15et vous pouvez gagner de l'argent
dans la publicité -
11:15 - 11:17alors que vous recueillez
les regards et l'attention -
11:17 - 11:19avec ce genre d'informations.
-
11:19 - 11:23Mais si nous pouvons réduire
la diffusion de ces informations, -
11:23 - 11:29peut-être cela réduirait-il
l'incitation économique à les produire. -
11:29 - 11:32Troisièmement, nous pouvons
réfléchir à une réglementation -
11:32 - 11:34et nous devrions réfléchir à cette option.
-
11:34 - 11:35Actuellement aux États-Unis,
-
11:35 - 11:38nous explorons ce qu'il pourrait se passer
-
11:38 - 11:40si Facebook et les autres
étaient réglementés. -
11:40 - 11:44Si nous devrions considérer des choses
comme réglementer le discours politique, -
11:44 - 11:47l'étiqueter comme étant
du discours politique, -
11:47 - 11:49nous assurer que les acteurs étrangers
-
11:49 - 11:51ne puissent pas financer
un discours politique, -
11:51 - 11:53cela a aussi ses dangers.
-
11:54 - 11:58Par exemple, la Malaisie vient d'instituer
une peine de prison de six ans -
11:58 - 12:01pour quiconque diffusant
de la désinformation. -
12:02 - 12:04Dans les régimes autoritaires,
-
12:04 - 12:06ce genre de politiques
peuvent être utilisées -
12:06 - 12:08pour étouffer les opinions minoritaires
-
12:08 - 12:12et continuer à accroître la répression.
-
12:13 - 12:16La quatrième option possible
est la transparence. -
12:17 - 12:21Nous voulons savoir comment fonctionnent
les algorithmes de Facebook. -
12:21 - 12:23Comment les données
se combinent-elles aux algorithmes -
12:23 - 12:26pour générer les résultats
que nous observons ? -
12:26 - 12:29Nous voulons qu'ils ouvrent le kimono
-
12:29 - 12:33et nous montrent les rouages internes
du fonctionnement de Facebook. -
12:33 - 12:36Pour connaître les effets
des réseaux sociaux sur la société, -
12:36 - 12:38il faut que les scientifiques,
les chercheurs -
12:38 - 12:41et les autres aient accès
à ce genre d'informations. -
12:41 - 12:43Mais en même temps,
-
12:43 - 12:46nous demandons à Facebook
de tout verrouiller -
12:46 - 12:49pour assurer la sécurité des données.
-
12:49 - 12:52Facebook et les autres plateformes
de réseaux sociaux -
12:52 - 12:55font face à ce que j'appelle
un paradoxe de la transparence. -
12:55 - 12:58Nous leur demandons à la fois
-
12:58 - 13:03d'être ouverts et transparents
et, simultanément, d'être sécurisés. -
13:03 - 13:05Cela est difficile à accomplir,
-
13:06 - 13:07mais ils devront le faire
-
13:07 - 13:09si nous voulons
-
13:09 - 13:11que les technologies sociales
tiennent leurs promesses -
13:11 - 13:13tout en évitant les risques.
-
13:13 - 13:15Pour finir, nous pourrions réfléchir
-
13:15 - 13:18aux algorithmes
et à l'apprentissage automatique. -
13:18 - 13:23Une technologie conçue pour éradiquer
et comprendre l'infox, sa diffusion, -
13:23 - 13:25et essayer d'atténuer sa circulation.
-
13:26 - 13:29Les êtres humains doivent
jouer un rôle dans cette technologie -
13:29 - 13:31car nous ne pourrons jamais
échapper au fait -
13:31 - 13:35que pour toute solution
ou approche technologie, -
13:35 - 13:39il y a une question éthique
et philosophique fondamentale -
13:39 - 13:42quant à notre définition
du vrai et du faux, -
13:42 - 13:46à qui nous donnons le pouvoir
de définir le vrai et le faux -
13:46 - 13:48et quelles opinions sont légitimes,
-
13:48 - 13:52une rapidité de quel ordre de grandeur
devrait être autorisée et ainsi de suite. -
13:52 - 13:54La technologie n'est pas la solution.
-
13:54 - 13:58L'éthique et la philosophie le sont.
-
13:59 - 14:02Presque toutes les théories
sur la prise de décision humaine, -
14:02 - 14:05la coopération humaine
et la coordination humaine -
14:05 - 14:09ont une part de vérité en elles.
-
14:09 - 14:11Mais avec l'essor des infox,
-
14:11 - 14:13l'essor des vidéos truquées,
-
14:13 - 14:15l'essor des enregistrements
audios truqués, -
14:15 - 14:19nous vacillons au bord
de la fin de la réalité, -
14:19 - 14:23où nous ne pouvons pas discerner
ce qui est réel et ce qui est faux. -
14:23 - 14:26Cela est potentiellement
incroyablement dangereux. -
14:27 - 14:31Nous devons être vigilants
dans la défense de la vérité -
14:31 - 14:32face à la désinformation.
-
14:33 - 14:36Avec nos technologies, avec nos politiques
-
14:36 - 14:38et, peut-être surtout, individuellement,
-
14:38 - 14:42avec nos responsabilités, nos décisions,
-
14:42 - 14:45nos comportements
et nos actions. -
14:46 - 14:47Merci beaucoup.
-
14:47 - 14:51(Applaudissements)
- Title:
- Comment nous pouvons protéger la vérité à l'ère de la désinformation
- Speaker:
- Sinan Aral
- Description:
-
L'infox peut influencer des élections, faire couler des économies et semer la discorde dans la vie quotidienne. Le scientifique des données Sinan Aral démystifie comment et pourquoi elle se propage si rapidement -- citant l'une des plus grandes études sur la désinformation -- et identifie cinq stratégies pour nous aider à démêler l'enchevêtrement entre la vérité et le mensonge.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
eric vautier approved French subtitles for How we can protect truth in the age of misinformation | ||
eric vautier edited French subtitles for How we can protect truth in the age of misinformation | ||
eric vautier edited French subtitles for How we can protect truth in the age of misinformation | ||
Claire Ghyselen accepted French subtitles for How we can protect truth in the age of misinformation | ||
Claire Ghyselen edited French subtitles for How we can protect truth in the age of misinformation | ||
Claire Ghyselen edited French subtitles for How we can protect truth in the age of misinformation | ||
Morgane Quilfen edited French subtitles for How we can protect truth in the age of misinformation | ||
Morgane Quilfen edited French subtitles for How we can protect truth in the age of misinformation |