Comment les deepfakes mettent en danger la vérité et la démocratie
-
0:01 - 0:04[Cette intervention comporte
du contenu réservé aux adultes] -
0:06 - 0:09Rana Ayyub est journaliste en Inde.
-
0:09 - 0:11Elle a exposé
la corruption du gouvernement -
0:12 - 0:15et des violations des droits de l'homme.
-
0:15 - 0:16Et au fil des années,
-
0:16 - 0:19elle s'est habituée à la critique
et à la controverse sur son travail. -
0:20 - 0:25Mais rien n'aurait pu la préparer
à ce qu'il s'est passé en avril 2018. -
0:26 - 0:30Elle était dans un café avec un ami
quand elle a vu la vidéo : -
0:30 - 0:35une vidéo de deux minutes vingt
la montrant en plein ébat sexuel. -
0:35 - 0:38Elle n'en croyait pas ses yeux.
-
0:38 - 0:40Elle n'avait jamais tourné
une telle vidéo. -
0:41 - 0:44Mais malheureusement, des milliers de gens
-
0:44 - 0:46ont cru que c'était elle.
-
0:47 - 0:50J'ai interviewé Mme Ayyub
il y a trois mois, -
0:50 - 0:53dans le cadre de mon livre
sur la protection de l'intimité sexuelle. -
0:53 - 0:56Je suis professeur de droit,
juriste et avocate en droit civil. -
0:56 - 1:01Il est incroyablement frustrant,
sachant tout cela, -
1:01 - 1:03que la loi ne puisse pas beaucoup l'aider.
-
1:03 - 1:05Lors de notre conversation,
-
1:05 - 1:10elle m'a expliqué qu'elle aurait dû
voir venir cette fausse vidéo porno. -
1:10 - 1:13Elle m'a dit : « Après tout,
le sexe est si souvent utilisé -
1:13 - 1:16pour rabaisser les femmes
ou leur faire honte, -
1:16 - 1:18surtout les femmes issues des minorités,
-
1:18 - 1:22et surtout les femmes des minorités
qui osent défier des hommes puissants » - -
1:22 - 1:24ce qu'elle avait fait par son travail.
-
1:25 - 1:29En 48 heures, la vidéo truquée
est devenue virale. -
1:30 - 1:35Tous ses comptes ont été bombardés
d'images de cette vidéo, -
1:35 - 1:38accompagnées de menaces de viol,
de menaces de mort, -
1:38 - 1:41et d'insultes à sa foi de musulmane.
-
1:41 - 1:46Des posts en ligne suggéraient
qu'elle était « disponible » sexuellement. -
1:46 - 1:48Et elle a été « doxée » :
-
1:48 - 1:50son adresse personnelle
et son numéro de portable -
1:50 - 1:52ont été dévoilés sur Internet.
-
1:53 - 1:57La vidéo a été partagée
plus de 40 000 fois. -
1:58 - 2:02Quand quelqu'un est visé
par ce genre de cyber-harcèlement, -
2:02 - 2:04les conséquences sont
immensément douloureuses. -
2:04 - 2:08La vie de Rana Ayyub a été chamboulée.
-
2:08 - 2:12Pendant des semaines, elle arrivait
à peine à manger ou à parler. -
2:12 - 2:16Elle a arrêté d'écrire et a fermé
tous ses comptes sur les réseaux sociaux, -
2:16 - 2:19ce qui, vous savez, est un acte difficile
quand vous êtes journaliste. -
2:19 - 2:23Elle avait peur de sortir de chez elle.
-
2:23 - 2:26Et si les harceleurs voulaient
mettre leurs menaces à exécution ? -
2:26 - 2:31Le Conseil de l'ONU pour les droits de
l'homme ont confirmé qu'elle avait raison. -
2:31 - 2:35Il a publié une déclaration disant
qu'il s'inquiétait pour sa sécurité. -
2:37 - 2:41Rana Ayyub a été la cible
de ce qu'on appelle un deepfake : -
2:41 - 2:44une technologie basée
sur l'apprentissage automatique -
2:44 - 2:48qui manipule ou fabrique
des enregistrements audio et vidéo -
2:48 - 2:50qui montrent des gens faisant
ou disant des choses -
2:50 - 2:52qu'ils n'ont jamais faites ou dites.
-
2:53 - 2:56Les deepfakes semblent authentiques
et réalistes, mais ne le sont pas ; -
2:56 - 2:58ce sont des falsifications complètes.
-
2:59 - 3:03Bien que la technologie soit encore
dans une phase d'amélioration, -
3:03 - 3:05elle est déjà largement accessible.
-
3:05 - 3:08les deepfakes ont tout
récemment attiré l'attention, -
3:08 - 3:11comme tant de choses sur Internet,
-
3:11 - 3:12grâce à la pornographie.
-
3:12 - 3:15Début 2018,
-
3:15 - 3:17quelqu'un a posté un outil sur Reddit
-
3:17 - 3:22permettant à ses utilisateurs d'intégrer
des visages dans des vidéos pornos. -
3:22 - 3:25S'en est suivi un déluge
de fausses vidéos pornos -
3:25 - 3:28mettant en scène les célébrités
féminines préférées du public. -
3:29 - 3:32Aujourd'hui, vous pouvez faire défiler
sur Youtube les nombreux tutoriels -
3:32 - 3:34montrant pas à pas
-
3:35 - 3:38comment créer un deepfake
sur votre ordinateur personnel. -
3:38 - 3:42On dit qu'on pourrait même bientôt
le faire sur nos téléphones. -
3:43 - 3:48On est là au croisement de certaines
des plus basiques fragilités humaines -
3:48 - 3:50et des outils technologiques
-
3:50 - 3:53qui peuvent transformer
les deepfakes en armes. -
3:53 - 3:54Laissez-moi préciser.
-
3:55 - 3:59Les êtres humains ont une réaction
instinctive à l'audio et la vidéo. -
4:00 - 4:01On croit que c'est vrai,
-
4:01 - 4:03car, par principe, nous croyons évidemment
-
4:03 - 4:06ce que nos yeux
et nos oreilles nous disent. -
4:06 - 4:08Et c'est ce mécanisme
-
4:08 - 4:12qui peut saper notre
sens partagé de la réalité. -
4:12 - 4:15Bien que nous pensions que les deepfakes
soient vrais, ils ne le sont pas. -
4:16 - 4:20Et nous sommes attirés
par ce qui est salace, provoquant. -
4:20 - 4:23On a tendance à croire
et à diffuser des informations -
4:23 - 4:25qui sont négatives et nouvelles.
-
4:26 - 4:31Des chercheurs ont trouvé que les canulars
en ligne se répandent dix fois plus vite -
4:31 - 4:32que les histoires vraies.
-
4:34 - 4:38De plus, nous sommes aussi attirés
par l'information -
4:38 - 4:40qui coïncide avec notre point de vue.
-
4:41 - 4:45Les psychologues appellent cela
un biais de confirmation. -
4:45 - 4:50Les réseaux sociaux amplifient
cette tendance, -
4:50 - 4:54en nous permettant de partager une
information instantanément et largement, -
4:54 - 4:56si elle correspond à notre point de vue.
-
4:57 - 4:59Mais les deepfakes ont le potentiel
-
4:59 - 5:02de causer de graves dommages
individuels et sociétaux. -
5:03 - 5:05Imaginez un deepfake
-
5:05 - 5:09qui montrerait des soldats américains
brûlant un Coran en Afghanistan. -
5:11 - 5:14On imagine bien qu'une telle
vidéo déclencherait des violences -
5:14 - 5:15contre ces soldats.
-
5:16 - 5:19Et imaginons que le lendemain
-
5:19 - 5:21tombe un nouveau deepfake
-
5:21 - 5:24montrant un imam de Londres bien connu
-
5:24 - 5:27appelant à attaquer ces soldats.
-
5:28 - 5:31Ça pourrait déclencher
des violences et des troubles civils, -
5:31 - 5:34pas seulement en Afghanistan
ou au Royaume-Uni, -
5:34 - 5:36mais partout dans le monde.
-
5:36 - 5:40Vous pourriez me répondre :
« Allons, c'est tiré par les cheveux. » -
5:40 - 5:41Mais ce n'est pas le cas.
-
5:41 - 5:43On a vu des mensonges se répandre
-
5:44 - 5:46sur WhatsApp et d'autres
services de messagerie en ligne -
5:46 - 5:49et mener à des violences
envers des minorités ethniques. -
5:49 - 5:51Et ce n'était que du texte -
-
5:51 - 5:53imaginez si ça avait été des vidéos.
-
5:55 - 6:00Les deepfakes ont le potentiel
d'entamer la confiance que nous avons -
6:00 - 6:02dans les institutions démocratiques.
-
6:03 - 6:06Imaginez qu'à la veille d'une élection,
-
6:06 - 6:09on voit un deepfake montrant
un des candidats du parti majoritaire -
6:09 - 6:10gravement malade.
-
6:11 - 6:14Ce deepfake pourrait
faire basculer l'élection -
6:14 - 6:17et mettre en doute la légitimité
qu'on attribue à l'élection. -
6:19 - 6:22Imaginez qu'à la veille
de l'entrée en bourse -
6:22 - 6:24d'une banque importante,
-
6:24 - 6:27il y ait un deepfake
montrant le PDG de la banque -
6:27 - 6:30complètement saoûl,
soutenant des théories complotistes. -
6:31 - 6:34Ce deepfake pourrait couler
cette introduction en bourse, -
6:34 - 6:38et pire encore, nous faire douter
de la stabilité des marchés financiers. -
6:39 - 6:43Les deepfakes savent
exploiter et amplifier -
6:43 - 6:46la méfiance profonde que nous avons déjà
-
6:46 - 6:51dans les politiciens, les patrons
et les autres leaders influents. -
6:51 - 6:54Ils rencontrent un public
tout prêt à les croire. -
6:55 - 6:58La recherche de la vérité
est en danger également. -
6:59 - 7:03Les experts en technologie s'attendent
à ce qu'avec les avancées de l'IA, -
7:03 - 7:06il soit bientôt difficile,
sinon impossible, -
7:06 - 7:10de faire la différence entre une vraie
et une fausse vidéo. -
7:11 - 7:13Comment la vérité pourrait donc émerger
-
7:13 - 7:16sur une scène des idées
contaminée par les deepfakes ? -
7:17 - 7:20Suivrons-nous juste
la voie de moindre résistance -
7:20 - 7:23pour croire ce que nous voulons croire,
-
7:23 - 7:24et au diable la vérité ?
-
7:25 - 7:28Non seulement nous risquons
de croire les mensonges, -
7:28 - 7:31mais aussi de douter de la vérité.
-
7:32 - 7:36Nous avons déjà vu des gens utiliser
ce phénomène des deepfakes -
7:36 - 7:40pour mettre en doute des preuves
tangibles de leurs agissements. -
7:40 - 7:46Nous avons entendu des politiciens
dire de certains enregistrements : -
7:46 - 7:48« Allez, ce sont des fake news.
-
7:48 - 7:52Vous ne pouvez pas croire ce que
vos yeux et vos oreilles vous disent. » -
7:52 - 7:54Et c'est ce risque
-
7:54 - 8:00que le professeur Robert Chesney et moi
appelons le « dividende du menteur » : -
8:00 - 8:03le risque qu'un menteur
invoque les deepfakes -
8:03 - 8:06pour échapper aux conséquences
de ses malversations. -
8:07 - 8:10Nous avons donc du pain
sur la planche, sans aucun doute. -
8:11 - 8:14Nous allons avoir besoin
d'une solution proactive -
8:14 - 8:17de la part des sociétés de technologie,
des législateurs, -
8:17 - 8:19des forces de l'ordre et des media.
-
8:20 - 8:24Et nous allons avoir besoin
d'une bonne dose de résilience sociale. -
8:26 - 8:29Nous sommes déjà engagés en ce moment
dans une large conversation publique -
8:29 - 8:32sur la responsabilité
des sociétés de technologies. -
8:33 - 8:36J'ai déjà suggéré aux réseaux sociaux
-
8:36 - 8:40de changer leurs conditions d'utilisation
et leurs règles d'usage -
8:40 - 8:42pour interdire ces deepfakes dangereux.
-
8:43 - 8:47Cette détermination va nécessiter
une évaluation par des humains -
8:47 - 8:48et va coûter cher.
-
8:49 - 8:51Mais il faut que des humains
-
8:51 - 8:55étudient le contenu
et le contexte d'un deepfake -
8:55 - 8:59pour déterminer s'il s'agit
une utilisation dangereuse -
8:59 - 9:03ou, au contraire, d'une satire, d'une
œuvre d'art ou d'un contenu éducatif. -
9:04 - 9:06Et au fait, que dit la loi ?
-
9:07 - 9:09Nous devons apprendre de la loi.
-
9:10 - 9:14Elle nous dit
ce qui est dangereux et ce qui est mal. -
9:14 - 9:18Et elle réprime les comportements
interdits en punissant les coupables -
9:18 - 9:20et en prenant soin des victimes.
-
9:21 - 9:25A ce jour, la loi n'est pas à la hauteur
du défi posé par les deepfakes. -
9:26 - 9:28Dans le monde entier,
-
9:28 - 9:30on manque de lois adaptées
-
9:30 - 9:34qui permettraient d'empêcher
ces mises en scène numériques -
9:34 - 9:36qui violent l'intimité,
-
9:36 - 9:37qui détruisent des réputations
-
9:37 - 9:39et qui causent des dommages émotionnels.
-
9:40 - 9:44Ce qui est arrivé à Rana Ayyub
devient de plus en plus courant. -
9:44 - 9:46Quand elle s'est rendue
à la police à Delhi, -
9:46 - 9:48on lui a dit qu'on ne pouvait rien faire.
-
9:49 - 9:52Et la triste vérité est
que c'est la même chose -
9:52 - 9:55aux États-Unis et en Europe.
-
9:55 - 10:00Il y a là un vide juridique
qu'il faut combler. -
10:00 - 10:04Ma collègue le Dr Mary Anne Franks et moi
travaillons avec le législateur étasunien -
10:04 - 10:06pour mettre sur pied des lois
-
10:06 - 10:09qui interdiraient ces mises
en scène numériques blessantes -
10:09 - 10:12qui s'apparentent à du vol d'identité.
-
10:12 - 10:14On constate des démarches similaires
-
10:14 - 10:18en Islande, au Royaume-Uni
et en Australie. -
10:18 - 10:22Mais bien sûr, il ne s'agit que d'une
petite pièce dans le puzzle réglementaire. -
10:23 - 10:26Je sais bien que la loi
n'est pas la panacée. -
10:26 - 10:28C'est un instrument brutal.
-
10:28 - 10:30Nous devons nous en servir subtilement.
-
10:30 - 10:33Il y a également
quelques problèmes pratiques. -
10:34 - 10:36On ne peut pas exercer
de sanctions contre quelqu'un -
10:36 - 10:39qu'on ne peut pas identifier ni trouver.
-
10:39 - 10:43Et si un coupable vit en dehors du pays
-
10:43 - 10:45où vit la victime,
-
10:45 - 10:46il pourrait être impossible
-
10:46 - 10:49que le coupable comparaisse
devant la justice -
10:49 - 10:50dans le pays de la victime.
-
10:50 - 10:54Nous allons donc avoir besoin
d'une réponse internationale coordonnée. -
10:56 - 10:59Sans oublier l'éducation.
-
11:00 - 11:05Les forces de l'ordre n'interviendront pas
si elles ne connaissent pas ces lois -
11:05 - 11:08et ne régleront pas des problèmes
qu'elles ne comprennent pas. -
11:08 - 11:11Dans mes recherches
sur le cyberharcèlement, -
11:11 - 11:14j'ai constaté que les forces de l'ordre
n'avaient pas la formation -
11:14 - 11:17pour comprendre les lois
dont elles disposent -
11:17 - 11:19et les problèmes sur Internet.
-
11:19 - 11:22Et elles disent souvent aux victimes :
-
11:22 - 11:26« Éteignez votre ordinateur.
Ignorez ça. Ça va disparaître. » -
11:26 - 11:29C'est qu'on a vu
dans le cas de Rana Ayyub. -
11:29 - 11:33On lui a dit : « Allez,
vous faites toute une histoire. -
11:33 - 11:35C'est juste des garçons qui s'amusent. »
-
11:35 - 11:41Il faut donc accompagner
les nouvelles lois avec de la formation. -
11:42 - 11:45Cette formation doit aussi être
dispensée aux media. -
11:46 - 11:50Les journalistes doivent être formés
au phénomène des deepfakes, -
11:50 - 11:54pour qu'ils ne relaient pas,
ni ne les amplifient. -
11:55 - 11:57Et c'est là où nous sommes tous concernés.
-
11:57 - 12:01Chacun d'entre nous doit être formé.
-
12:01 - 12:05On clique, on partage, on like
sans même y réfléchir. -
12:06 - 12:07Nous devons nous améliorer.
-
12:08 - 12:11Nous avons besoin
de meilleurs radars contre les faux. -
12:14 - 12:18Et pendant que nous
essayerons d'y voir clair, -
12:18 - 12:20il y aura encore
beaucoup de souffrance générée. -
12:21 - 12:24Rana Ayyub se bat toujours
contre les conséquences du deepfake. -
12:25 - 12:27Elle ne se sent toujours
pas libre de s'exprimer - -
12:27 - 12:29en ligne et dans la vraie vie.
-
12:30 - 12:31Elle m'a dit
-
12:31 - 12:36qu'elle avait toujours l'impression
que des milliers d'yeux la voyaient nue, -
12:36 - 12:40même si, intellectuellement,
elle sait que ce n'était pas son corps. -
12:40 - 12:43Elle a souvent des crises de panique,
-
12:43 - 12:47surtout quand quelqu'un qu'elle ne
connaît pas essaie de la prendre en photo. -
12:47 - 12:50« Est-ce qu'ils vont en faire
un autre deepfake ? » se demande-t-elle. -
12:51 - 12:55Et donc, pour le bien
de personnes comme Rana Ayyub, -
12:55 - 12:57et pour le bien de nos démocraties,
-
12:57 - 13:00nous devons agir maintenant.
-
13:00 - 13:01Merci.
-
13:01 - 13:03(Applaudissements)
- Title:
- Comment les deepfakes mettent en danger la vérité et la démocratie
- Speaker:
- Danielle Citron
- Description:
-
L'utilisation de la technologie « deepfake » pour manipuler la vidéo et l'audio à des fins malveillantes - que ce soit pour attiser la violence ou pour diffamer les politiciens et les journalistes - devient une menace réelle. À mesure que ces outils deviendront plus accessibles et que les résultats deviendront plus réalistes, comment vont-ils façonner ce que nous croyons ? Danielle Citron, professeure de droit, révèle dans un discours épouvantable comment les deepfakes augmentent notre méfiance - et suggère des approches pour préserver la vérité.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:16
eric vautier approved French subtitles for How deepfakes undermine truth and threaten democracy | ||
Claire Ghyselen accepted French subtitles for How deepfakes undermine truth and threaten democracy | ||
Claire Ghyselen edited French subtitles for How deepfakes undermine truth and threaten democracy | ||
Claire Ghyselen edited French subtitles for How deepfakes undermine truth and threaten democracy | ||
Claire Ghyselen edited French subtitles for How deepfakes undermine truth and threaten democracy | ||
Claire Ghyselen edited French subtitles for How deepfakes undermine truth and threaten democracy | ||
eric vautier edited French subtitles for How deepfakes undermine truth and threaten democracy | ||
eric vautier edited French subtitles for How deepfakes undermine truth and threaten democracy |