Return to Video

Comment les deepfakes mettent en danger la vérité et la démocratie

  • 0:01 - 0:04
    [Cette intervention comporte
    du contenu réservé aux adultes]
  • 0:06 - 0:09
    Rana Ayyub est journaliste en Inde.
  • 0:09 - 0:11
    Elle a exposé
    la corruption du gouvernement
  • 0:12 - 0:15
    et des violations des droits de l'homme.
  • 0:15 - 0:16
    Et au fil des années,
  • 0:16 - 0:19
    elle s'est habituée à la critique
    et à la controverse sur son travail.
  • 0:20 - 0:25
    Mais rien n'aurait pu la préparer
    à ce qu'il s'est passé en avril 2018.
  • 0:26 - 0:30
    Elle était dans un café avec un ami
    quand elle a vu la vidéo :
  • 0:30 - 0:35
    une vidéo de deux minutes vingt
    la montrant en plein ébat sexuel.
  • 0:35 - 0:38
    Elle n'en croyait pas ses yeux.
  • 0:38 - 0:40
    Elle n'avait jamais tourné
    une telle vidéo.
  • 0:41 - 0:44
    Mais malheureusement, des milliers de gens
  • 0:44 - 0:46
    ont cru que c'était elle.
  • 0:47 - 0:50
    J'ai interviewé Mme Ayyub
    il y a trois mois,
  • 0:50 - 0:53
    dans le cadre de mon livre
    sur la protection de l'intimité sexuelle.
  • 0:53 - 0:56
    Je suis professeur de droit,
    juriste et avocate en droit civil.
  • 0:56 - 1:01
    Il est incroyablement frustrant,
    sachant tout cela,
  • 1:01 - 1:03
    que la loi ne puisse pas beaucoup l'aider.
  • 1:03 - 1:05
    Lors de notre conversation,
  • 1:05 - 1:10
    elle m'a expliqué qu'elle aurait dû
    voir venir cette fausse vidéo porno.
  • 1:10 - 1:13
    Elle m'a dit : « Après tout,
    le sexe est si souvent utilisé
  • 1:13 - 1:16
    pour rabaisser les femmes
    ou leur faire honte,
  • 1:16 - 1:18
    surtout les femmes issues des minorités,
  • 1:18 - 1:22
    et surtout les femmes des minorités
    qui osent défier des hommes puissants » -
  • 1:22 - 1:24
    ce qu'elle avait fait par son travail.
  • 1:25 - 1:29
    En 48 heures, la vidéo truquée
    est devenue virale.
  • 1:30 - 1:35
    Tous ses comptes ont été bombardés
    d'images de cette vidéo,
  • 1:35 - 1:38
    accompagnées de menaces de viol,
    de menaces de mort,
  • 1:38 - 1:41
    et d'insultes à sa foi de musulmane.
  • 1:41 - 1:46
    Des posts en ligne suggéraient
    qu'elle était « disponible » sexuellement.
  • 1:46 - 1:48
    Et elle a été « doxée » :
  • 1:48 - 1:50
    son adresse personnelle
    et son numéro de portable
  • 1:50 - 1:52
    ont été dévoilés sur Internet.
  • 1:53 - 1:57
    La vidéo a été partagée
    plus de 40 000 fois.
  • 1:58 - 2:02
    Quand quelqu'un est visé
    par ce genre de cyber-harcèlement,
  • 2:02 - 2:04
    les conséquences sont
    immensément douloureuses.
  • 2:04 - 2:08
    La vie de Rana Ayyub a été chamboulée.
  • 2:08 - 2:12
    Pendant des semaines, elle arrivait
    à peine à manger ou à parler.
  • 2:12 - 2:16
    Elle a arrêté d'écrire et a fermé
    tous ses comptes sur les réseaux sociaux,
  • 2:16 - 2:19
    ce qui, vous savez, est un acte difficile
    quand vous êtes journaliste.
  • 2:19 - 2:23
    Elle avait peur de sortir de chez elle.
  • 2:23 - 2:26
    Et si les harceleurs voulaient
    mettre leurs menaces à exécution ?
  • 2:26 - 2:31
    Le Conseil de l'ONU pour les droits de
    l'homme ont confirmé qu'elle avait raison.
  • 2:31 - 2:35
    Il a publié une déclaration disant
    qu'il s'inquiétait pour sa sécurité.
  • 2:37 - 2:41
    Rana Ayyub a été la cible
    de ce qu'on appelle un deepfake :
  • 2:41 - 2:44
    une technologie basée
    sur l'apprentissage automatique
  • 2:44 - 2:48
    qui manipule ou fabrique
    des enregistrements audio et vidéo
  • 2:48 - 2:50
    qui montrent des gens faisant
    ou disant des choses
  • 2:50 - 2:52
    qu'ils n'ont jamais faites ou dites.
  • 2:53 - 2:56
    Les deepfakes semblent authentiques
    et réalistes, mais ne le sont pas ;
  • 2:56 - 2:58
    ce sont des falsifications complètes.
  • 2:59 - 3:03
    Bien que la technologie soit encore
    dans une phase d'amélioration,
  • 3:03 - 3:05
    elle est déjà largement accessible.
  • 3:05 - 3:08
    les deepfakes ont tout
    récemment attiré l'attention,
  • 3:08 - 3:11
    comme tant de choses sur Internet,
  • 3:11 - 3:12
    grâce à la pornographie.
  • 3:12 - 3:15
    Début 2018,
  • 3:15 - 3:17
    quelqu'un a posté un outil sur Reddit
  • 3:17 - 3:22
    permettant à ses utilisateurs d'intégrer
    des visages dans des vidéos pornos.
  • 3:22 - 3:25
    S'en est suivi un déluge
    de fausses vidéos pornos
  • 3:25 - 3:28
    mettant en scène les célébrités
    féminines préférées du public.
  • 3:29 - 3:32
    Aujourd'hui, vous pouvez faire défiler
    sur Youtube les nombreux tutoriels
  • 3:32 - 3:34
    montrant pas à pas
  • 3:35 - 3:38
    comment créer un deepfake
    sur votre ordinateur personnel.
  • 3:38 - 3:42
    On dit qu'on pourrait même bientôt
    le faire sur nos téléphones.
  • 3:43 - 3:48
    On est là au croisement de certaines
    des plus basiques fragilités humaines
  • 3:48 - 3:50
    et des outils technologiques
  • 3:50 - 3:53
    qui peuvent transformer
    les deepfakes en armes.
  • 3:53 - 3:54
    Laissez-moi préciser.
  • 3:55 - 3:59
    Les êtres humains ont une réaction
    instinctive à l'audio et la vidéo.
  • 4:00 - 4:01
    On croit que c'est vrai,
  • 4:01 - 4:03
    car, par principe, nous croyons évidemment
  • 4:03 - 4:06
    ce que nos yeux
    et nos oreilles nous disent.
  • 4:06 - 4:08
    Et c'est ce mécanisme
  • 4:08 - 4:12
    qui peut saper notre
    sens partagé de la réalité.
  • 4:12 - 4:15
    Bien que nous pensions que les deepfakes
    soient vrais, ils ne le sont pas.
  • 4:16 - 4:20
    Et nous sommes attirés
    par ce qui est salace, provoquant.
  • 4:20 - 4:23
    On a tendance à croire
    et à diffuser des informations
  • 4:23 - 4:25
    qui sont négatives et nouvelles.
  • 4:26 - 4:31
    Des chercheurs ont trouvé que les canulars
    en ligne se répandent dix fois plus vite
  • 4:31 - 4:32
    que les histoires vraies.
  • 4:34 - 4:38
    De plus, nous sommes aussi attirés
    par l'information
  • 4:38 - 4:40
    qui coïncide avec notre point de vue.
  • 4:41 - 4:45
    Les psychologues appellent cela
    un biais de confirmation.
  • 4:45 - 4:50
    Les réseaux sociaux amplifient
    cette tendance,
  • 4:50 - 4:54
    en nous permettant de partager une
    information instantanément et largement,
  • 4:54 - 4:56
    si elle correspond à notre point de vue.
  • 4:57 - 4:59
    Mais les deepfakes ont le potentiel
  • 4:59 - 5:02
    de causer de graves dommages
    individuels et sociétaux.
  • 5:03 - 5:05
    Imaginez un deepfake
  • 5:05 - 5:09
    qui montrerait des soldats américains
    brûlant un Coran en Afghanistan.
  • 5:11 - 5:14
    On imagine bien qu'une telle
    vidéo déclencherait des violences
  • 5:14 - 5:15
    contre ces soldats.
  • 5:16 - 5:19
    Et imaginons que le lendemain
  • 5:19 - 5:21
    tombe un nouveau deepfake
  • 5:21 - 5:24
    montrant un imam de Londres bien connu
  • 5:24 - 5:27
    appelant à attaquer ces soldats.
  • 5:28 - 5:31
    Ça pourrait déclencher
    des violences et des troubles civils,
  • 5:31 - 5:34
    pas seulement en Afghanistan
    ou au Royaume-Uni,
  • 5:34 - 5:36
    mais partout dans le monde.
  • 5:36 - 5:40
    Vous pourriez me répondre :
    « Allons, c'est tiré par les cheveux. »
  • 5:40 - 5:41
    Mais ce n'est pas le cas.
  • 5:41 - 5:43
    On a vu des mensonges se répandre
  • 5:44 - 5:46
    sur WhatsApp et d'autres
    services de messagerie en ligne
  • 5:46 - 5:49
    et mener à des violences
    envers des minorités ethniques.
  • 5:49 - 5:51
    Et ce n'était que du texte -
  • 5:51 - 5:53
    imaginez si ça avait été des vidéos.
  • 5:55 - 6:00
    Les deepfakes ont le potentiel
    d'entamer la confiance que nous avons
  • 6:00 - 6:02
    dans les institutions démocratiques.
  • 6:03 - 6:06
    Imaginez qu'à la veille d'une élection,
  • 6:06 - 6:09
    on voit un deepfake montrant
    un des candidats du parti majoritaire
  • 6:09 - 6:10
    gravement malade.
  • 6:11 - 6:14
    Ce deepfake pourrait
    faire basculer l'élection
  • 6:14 - 6:17
    et mettre en doute la légitimité
    qu'on attribue à l'élection.
  • 6:19 - 6:22
    Imaginez qu'à la veille
    de l'entrée en bourse
  • 6:22 - 6:24
    d'une banque importante,
  • 6:24 - 6:27
    il y ait un deepfake
    montrant le PDG de la banque
  • 6:27 - 6:30
    complètement saoûl,
    soutenant des théories complotistes.
  • 6:31 - 6:34
    Ce deepfake pourrait couler
    cette introduction en bourse,
  • 6:34 - 6:38
    et pire encore, nous faire douter
    de la stabilité des marchés financiers.
  • 6:39 - 6:43
    Les deepfakes savent
    exploiter et amplifier
  • 6:43 - 6:46
    la méfiance profonde que nous avons déjà
  • 6:46 - 6:51
    dans les politiciens, les patrons
    et les autres leaders influents.
  • 6:51 - 6:54
    Ils rencontrent un public
    tout prêt à les croire.
  • 6:55 - 6:58
    La recherche de la vérité
    est en danger également.
  • 6:59 - 7:03
    Les experts en technologie s'attendent
    à ce qu'avec les avancées de l'IA,
  • 7:03 - 7:06
    il soit bientôt difficile,
    sinon impossible,
  • 7:06 - 7:10
    de faire la différence entre une vraie
    et une fausse vidéo.
  • 7:11 - 7:13
    Comment la vérité pourrait donc émerger
  • 7:13 - 7:16
    sur une scène des idées
    contaminée par les deepfakes ?
  • 7:17 - 7:20
    Suivrons-nous juste
    la voie de moindre résistance
  • 7:20 - 7:23
    pour croire ce que nous voulons croire,
  • 7:23 - 7:24
    et au diable la vérité ?
  • 7:25 - 7:28
    Non seulement nous risquons
    de croire les mensonges,
  • 7:28 - 7:31
    mais aussi de douter de la vérité.
  • 7:32 - 7:36
    Nous avons déjà vu des gens utiliser
    ce phénomène des deepfakes
  • 7:36 - 7:40
    pour mettre en doute des preuves
    tangibles de leurs agissements.
  • 7:40 - 7:46
    Nous avons entendu des politiciens
    dire de certains enregistrements :
  • 7:46 - 7:48
    « Allez, ce sont des fake news.
  • 7:48 - 7:52
    Vous ne pouvez pas croire ce que
    vos yeux et vos oreilles vous disent. »
  • 7:52 - 7:54
    Et c'est ce risque
  • 7:54 - 8:00
    que le professeur Robert Chesney et moi
    appelons le « dividende du menteur » :
  • 8:00 - 8:03
    le risque qu'un menteur
    invoque les deepfakes
  • 8:03 - 8:06
    pour échapper aux conséquences
    de ses malversations.
  • 8:07 - 8:10
    Nous avons donc du pain
    sur la planche, sans aucun doute.
  • 8:11 - 8:14
    Nous allons avoir besoin
    d'une solution proactive
  • 8:14 - 8:17
    de la part des sociétés de technologie,
    des législateurs,
  • 8:17 - 8:19
    des forces de l'ordre et des media.
  • 8:20 - 8:24
    Et nous allons avoir besoin
    d'une bonne dose de résilience sociale.
  • 8:26 - 8:29
    Nous sommes déjà engagés en ce moment
    dans une large conversation publique
  • 8:29 - 8:32
    sur la responsabilité
    des sociétés de technologies.
  • 8:33 - 8:36
    J'ai déjà suggéré aux réseaux sociaux
  • 8:36 - 8:40
    de changer leurs conditions d'utilisation
    et leurs règles d'usage
  • 8:40 - 8:42
    pour interdire ces deepfakes dangereux.
  • 8:43 - 8:47
    Cette détermination va nécessiter
    une évaluation par des humains
  • 8:47 - 8:48
    et va coûter cher.
  • 8:49 - 8:51
    Mais il faut que des humains
  • 8:51 - 8:55
    étudient le contenu
    et le contexte d'un deepfake
  • 8:55 - 8:59
    pour déterminer s'il s'agit
    une utilisation dangereuse
  • 8:59 - 9:03
    ou, au contraire, d'une satire, d'une
    œuvre d'art ou d'un contenu éducatif.
  • 9:04 - 9:06
    Et au fait, que dit la loi ?
  • 9:07 - 9:09
    Nous devons apprendre de la loi.
  • 9:10 - 9:14
    Elle nous dit
    ce qui est dangereux et ce qui est mal.
  • 9:14 - 9:18
    Et elle réprime les comportements
    interdits en punissant les coupables
  • 9:18 - 9:20
    et en prenant soin des victimes.
  • 9:21 - 9:25
    A ce jour, la loi n'est pas à la hauteur
    du défi posé par les deepfakes.
  • 9:26 - 9:28
    Dans le monde entier,
  • 9:28 - 9:30
    on manque de lois adaptées
  • 9:30 - 9:34
    qui permettraient d'empêcher
    ces mises en scène numériques
  • 9:34 - 9:36
    qui violent l'intimité,
  • 9:36 - 9:37
    qui détruisent des réputations
  • 9:37 - 9:39
    et qui causent des dommages émotionnels.
  • 9:40 - 9:44
    Ce qui est arrivé à Rana Ayyub
    devient de plus en plus courant.
  • 9:44 - 9:46
    Quand elle s'est rendue
    à la police à Delhi,
  • 9:46 - 9:48
    on lui a dit qu'on ne pouvait rien faire.
  • 9:49 - 9:52
    Et la triste vérité est
    que c'est la même chose
  • 9:52 - 9:55
    aux États-Unis et en Europe.
  • 9:55 - 10:00
    Il y a là un vide juridique
    qu'il faut combler.
  • 10:00 - 10:04
    Ma collègue le Dr Mary Anne Franks et moi
    travaillons avec le législateur étasunien
  • 10:04 - 10:06
    pour mettre sur pied des lois
  • 10:06 - 10:09
    qui interdiraient ces mises
    en scène numériques blessantes
  • 10:09 - 10:12
    qui s'apparentent à du vol d'identité.
  • 10:12 - 10:14
    On constate des démarches similaires
  • 10:14 - 10:18
    en Islande, au Royaume-Uni
    et en Australie.
  • 10:18 - 10:22
    Mais bien sûr, il ne s'agit que d'une
    petite pièce dans le puzzle réglementaire.
  • 10:23 - 10:26
    Je sais bien que la loi
    n'est pas la panacée.
  • 10:26 - 10:28
    C'est un instrument brutal.
  • 10:28 - 10:30
    Nous devons nous en servir subtilement.
  • 10:30 - 10:33
    Il y a également
    quelques problèmes pratiques.
  • 10:34 - 10:36
    On ne peut pas exercer
    de sanctions contre quelqu'un
  • 10:36 - 10:39
    qu'on ne peut pas identifier ni trouver.
  • 10:39 - 10:43
    Et si un coupable vit en dehors du pays
  • 10:43 - 10:45
    où vit la victime,
  • 10:45 - 10:46
    il pourrait être impossible
  • 10:46 - 10:49
    que le coupable comparaisse
    devant la justice
  • 10:49 - 10:50
    dans le pays de la victime.
  • 10:50 - 10:54
    Nous allons donc avoir besoin
    d'une réponse internationale coordonnée.
  • 10:56 - 10:59
    Sans oublier l'éducation.
  • 11:00 - 11:05
    Les forces de l'ordre n'interviendront pas
    si elles ne connaissent pas ces lois
  • 11:05 - 11:08
    et ne régleront pas des problèmes
    qu'elles ne comprennent pas.
  • 11:08 - 11:11
    Dans mes recherches
    sur le cyberharcèlement,
  • 11:11 - 11:14
    j'ai constaté que les forces de l'ordre
    n'avaient pas la formation
  • 11:14 - 11:17
    pour comprendre les lois
    dont elles disposent
  • 11:17 - 11:19
    et les problèmes sur Internet.
  • 11:19 - 11:22
    Et elles disent souvent aux victimes :
  • 11:22 - 11:26
    « Éteignez votre ordinateur.
    Ignorez ça. Ça va disparaître. »
  • 11:26 - 11:29
    C'est qu'on a vu
    dans le cas de Rana Ayyub.
  • 11:29 - 11:33
    On lui a dit : « Allez,
    vous faites toute une histoire.
  • 11:33 - 11:35
    C'est juste des garçons qui s'amusent. »
  • 11:35 - 11:41
    Il faut donc accompagner
    les nouvelles lois avec de la formation.
  • 11:42 - 11:45
    Cette formation doit aussi être
    dispensée aux media.
  • 11:46 - 11:50
    Les journalistes doivent être formés
    au phénomène des deepfakes,
  • 11:50 - 11:54
    pour qu'ils ne relaient pas,
    ni ne les amplifient.
  • 11:55 - 11:57
    Et c'est là où nous sommes tous concernés.
  • 11:57 - 12:01
    Chacun d'entre nous doit être formé.
  • 12:01 - 12:05
    On clique, on partage, on like
    sans même y réfléchir.
  • 12:06 - 12:07
    Nous devons nous améliorer.
  • 12:08 - 12:11
    Nous avons besoin
    de meilleurs radars contre les faux.
  • 12:14 - 12:18
    Et pendant que nous
    essayerons d'y voir clair,
  • 12:18 - 12:20
    il y aura encore
    beaucoup de souffrance générée.
  • 12:21 - 12:24
    Rana Ayyub se bat toujours
    contre les conséquences du deepfake.
  • 12:25 - 12:27
    Elle ne se sent toujours
    pas libre de s'exprimer -
  • 12:27 - 12:29
    en ligne et dans la vraie vie.
  • 12:30 - 12:31
    Elle m'a dit
  • 12:31 - 12:36
    qu'elle avait toujours l'impression
    que des milliers d'yeux la voyaient nue,
  • 12:36 - 12:40
    même si, intellectuellement,
    elle sait que ce n'était pas son corps.
  • 12:40 - 12:43
    Elle a souvent des crises de panique,
  • 12:43 - 12:47
    surtout quand quelqu'un qu'elle ne
    connaît pas essaie de la prendre en photo.
  • 12:47 - 12:50
    « Est-ce qu'ils vont en faire
    un autre deepfake ? » se demande-t-elle.
  • 12:51 - 12:55
    Et donc, pour le bien
    de personnes comme Rana Ayyub,
  • 12:55 - 12:57
    et pour le bien de nos démocraties,
  • 12:57 - 13:00
    nous devons agir maintenant.
  • 13:00 - 13:01
    Merci.
  • 13:01 - 13:03
    (Applaudissements)
Title:
Comment les deepfakes mettent en danger la vérité et la démocratie
Speaker:
Danielle Citron
Description:

L'utilisation de la technologie « deepfake » pour manipuler la vidéo et l'audio à des fins malveillantes - que ce soit pour attiser la violence ou pour diffamer les politiciens et les journalistes - devient une menace réelle. À mesure que ces outils deviendront plus accessibles et que les résultats deviendront plus réalistes, comment vont-ils façonner ce que nous croyons ? Danielle Citron, professeure de droit, révèle dans un discours épouvantable comment les deepfakes augmentent notre méfiance - et suggère des approches pour préserver la vérité.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

French subtitles

Revisions