[Cette intervention comporte
du contenu réservé aux adultes]
Rana Ayyub est journaliste en Inde.
Elle a exposé
la corruption du gouvernement
et des violations des droits de l'homme.
Et au fil des années,
elle s'est habituée à la critique
et à la controverse sur son travail.
Mais rien n'aurait pu la préparer
à ce qu'il s'est passé en avril 2018.
Elle était dans un café avec un ami
quand elle a vu la vidéo :
une vidéo de deux minutes vingt
la montrant en plein ébat sexuel.
Elle n'en croyait pas ses yeux.
Elle n'avait jamais tourné
une telle vidéo.
Mais malheureusement, des milliers de gens
ont cru que c'était elle.
J'ai interviewé Mme Ayyub
il y a trois mois,
dans le cadre de mon livre
sur la protection de l'intimité sexuelle.
Je suis professeur de droit,
juriste et avocate en droit civil.
Il est incroyablement frustrant,
sachant tout cela,
que la loi ne puisse pas beaucoup l'aider.
Lors de notre conversation,
elle m'a expliqué qu'elle aurait dû
voir venir cette fausse vidéo porno.
Elle m'a dit : « Après tout,
le sexe est si souvent utilisé
pour rabaisser les femmes
ou leur faire honte,
surtout les femmes issues des minorités,
et surtout les femmes des minorités
qui osent défier des hommes puissants » -
ce qu'elle avait fait par son travail.
En 48 heures, la vidéo truquée
est devenue virale.
Tous ses comptes ont été bombardés
d'images de cette vidéo,
accompagnées de menaces de viol,
de menaces de mort,
et d'insultes à sa foi de musulmane.
Des posts en ligne suggéraient
qu'elle était « disponible » sexuellement.
Et elle a été « doxée » :
son adresse personnelle
et son numéro de portable
ont été dévoilés sur Internet.
La vidéo a été partagée
plus de 40 000 fois.
Quand quelqu'un est visé
par ce genre de cyber-harcèlement,
les conséquences sont
immensément douloureuses.
La vie de Rana Ayyub a été chamboulée.
Pendant des semaines, elle arrivait
à peine à manger ou à parler.
Elle a arrêté d'écrire et a fermé
tous ses comptes sur les réseaux sociaux,
ce qui, vous savez, est un acte difficile
quand vous êtes journaliste.
Elle avait peur de sortir de chez elle.
Et si les harceleurs voulaient
mettre leurs menaces à exécution ?
Le Conseil de l'ONU pour les droits de
l'homme ont confirmé qu'elle avait raison.
Il a publié une déclaration disant
qu'il s'inquiétait pour sa sécurité.
Rana Ayyub a été la cible
de ce qu'on appelle un deepfake :
une technologie basée
sur l'apprentissage automatique
qui manipule ou fabrique
des enregistrements audio et vidéo
qui montrent des gens faisant
ou disant des choses
qu'ils n'ont jamais faites ou dites.
Les deepfakes semblent authentiques
et réalistes, mais ne le sont pas ;
ce sont des falsifications complètes.
Bien que la technologie soit encore
dans une phase d'amélioration,
elle est déjà largement accessible.
les deepfakes ont tout
récemment attiré l'attention,
comme tant de choses sur Internet,
grâce à la pornographie.
Début 2018,
quelqu'un a posté un outil sur Reddit
permettant à ses utilisateurs d'intégrer
des visages dans des vidéos pornos.
S'en est suivi un déluge
de fausses vidéos pornos
mettant en scène les célébrités
féminines préférées du public.
Aujourd'hui, vous pouvez faire défiler
sur Youtube les nombreux tutoriels
montrant pas à pas
comment créer un deepfake
sur votre ordinateur personnel.
On dit qu'on pourrait même bientôt
le faire sur nos téléphones.
On est là au croisement de certaines
des plus basiques fragilités humaines
et des outils technologiques
qui peuvent transformer
les deepfakes en armes.
Laissez-moi préciser.
Les êtres humains ont une réaction
instinctive à l'audio et la vidéo.
On croit que c'est vrai,
car, par principe, nous croyons évidemment
ce que nos yeux
et nos oreilles nous disent.
Et c'est ce mécanisme
qui peut saper notre
sens partagé de la réalité.
Bien que nous pensions que les deepfakes
soient vrais, ils ne le sont pas.
Et nous sommes attirés
par ce qui est salace, provoquant.
On a tendance à croire
et à diffuser des informations
qui sont négatives et nouvelles.
Des chercheurs ont trouvé que les canulars
en ligne se répandent dix fois plus vite
que les histoires vraies.
De plus, nous sommes aussi attirés
par l'information
qui coïncide avec notre point de vue.
Les psychologues appellent cela
un biais de confirmation.
Les réseaux sociaux amplifient
cette tendance,
en nous permettant de partager une
information instantanément et largement,
si elle correspond à notre point de vue.
Mais les deepfakes ont le potentiel
de causer de graves dommages
individuels et sociétaux.
Imaginez un deepfake
qui montrerait des soldats américains
brûlant un Coran en Afghanistan.
On imagine bien qu'une telle
vidéo déclencherait des violences
contre ces soldats.
Et imaginons que le lendemain
tombe un nouveau deepfake
montrant un imam de Londres bien connu
appelant à attaquer ces soldats.
Ça pourrait déclencher
des violences et des troubles civils,
pas seulement en Afghanistan
ou au Royaume-Uni,
mais partout dans le monde.
Vous pourriez me répondre :
« Allons, c'est tiré par les cheveux. »
Mais ce n'est pas le cas.
On a vu des mensonges se répandre
sur WhatsApp et d'autres
services de messagerie en ligne
et mener à des violences
envers des minorités ethniques.
Et ce n'était que du texte -
imaginez si ça avait été des vidéos.
Les deepfakes ont le potentiel
d'entamer la confiance que nous avons
dans les institutions démocratiques.
Imaginez qu'à la veille d'une élection,
on voit un deepfake montrant
un des candidats du parti majoritaire
gravement malade.
Ce deepfake pourrait
faire basculer l'élection
et mettre en doute la légitimité
qu'on attribue à l'élection.
Imaginez qu'à la veille
de l'entrée en bourse
d'une banque importante,
il y ait un deepfake
montrant le PDG de la banque
complètement saoûl,
soutenant des théories complotistes.
Ce deepfake pourrait couler
cette introduction en bourse,
et pire encore, nous faire douter
de la stabilité des marchés financiers.
Les deepfakes savent
exploiter et amplifier
la méfiance profonde que nous avons déjà
dans les politiciens, les patrons
et les autres leaders influents.
Ils rencontrent un public
tout prêt à les croire.
La recherche de la vérité
est en danger également.
Les experts en technologie s'attendent
à ce qu'avec les avancées de l'IA,
il soit bientôt difficile,
sinon impossible,
de faire la différence entre une vraie
et une fausse vidéo.
Comment la vérité pourrait donc émerger
sur une scène des idées
contaminée par les deepfakes ?
Suivrons-nous juste
la voie de moindre résistance
pour croire ce que nous voulons croire,
et au diable la vérité ?
Non seulement nous risquons
de croire les mensonges,
mais aussi de douter de la vérité.
Nous avons déjà vu des gens utiliser
ce phénomène des deepfakes
pour mettre en doute des preuves
tangibles de leurs agissements.
Nous avons entendu des politiciens
dire de certains enregistrements :
« Allez, ce sont des fake news.
Vous ne pouvez pas croire ce que
vos yeux et vos oreilles vous disent. »
Et c'est ce risque
que le professeur Robert Chesney et moi
appelons le « dividende du menteur » :
le risque qu'un menteur
invoque les deepfakes
pour échapper aux conséquences
de ses malversations.
Nous avons donc du pain
sur la planche, sans aucun doute.
Nous allons avoir besoin
d'une solution proactive
de la part des sociétés de technologie,
des législateurs,
des forces de l'ordre et des media.
Et nous allons avoir besoin
d'une bonne dose de résilience sociale.
Nous sommes déjà engagés en ce moment
dans une large conversation publique
sur la responsabilité
des sociétés de technologies.
J'ai déjà suggéré aux réseaux sociaux
de changer leurs conditions d'utilisation
et leurs règles d'usage
pour interdire ces deepfakes dangereux.
Cette détermination va nécessiter
une évaluation par des humains
et va coûter cher.
Mais il faut que des humains
étudient le contenu
et le contexte d'un deepfake
pour déterminer s'il s'agit
une utilisation dangereuse
ou, au contraire, d'une satire, d'une
œuvre d'art ou d'un contenu éducatif.
Et au fait, que dit la loi ?
Nous devons apprendre de la loi.
Elle nous dit
ce qui est dangereux et ce qui est mal.
Et elle réprime les comportements
interdits en punissant les coupables
et en prenant soin des victimes.
A ce jour, la loi n'est pas à la hauteur
du défi posé par les deepfakes.
Dans le monde entier,
on manque de lois adaptées
qui permettraient d'empêcher
ces mises en scène numériques
qui violent l'intimité,
qui détruisent des réputations
et qui causent des dommages émotionnels.
Ce qui est arrivé à Rana Ayyub
devient de plus en plus courant.
Quand elle s'est rendue
à la police à Delhi,
on lui a dit qu'on ne pouvait rien faire.
Et la triste vérité est
que c'est la même chose
aux États-Unis et en Europe.
Il y a là un vide juridique
qu'il faut combler.
Ma collègue le Dr Mary Anne Franks et moi
travaillons avec le législateur étasunien
pour mettre sur pied des lois
qui interdiraient ces mises
en scène numériques blessantes
qui s'apparentent à du vol d'identité.
On constate des démarches similaires
en Islande, au Royaume-Uni
et en Australie.
Mais bien sûr, il ne s'agit que d'une
petite pièce dans le puzzle réglementaire.
Je sais bien que la loi
n'est pas la panacée.
C'est un instrument brutal.
Nous devons nous en servir subtilement.
Il y a également
quelques problèmes pratiques.
On ne peut pas exercer
de sanctions contre quelqu'un
qu'on ne peut pas identifier ni trouver.
Et si un coupable vit en dehors du pays
où vit la victime,
il pourrait être impossible
que le coupable comparaisse
devant la justice
dans le pays de la victime.
Nous allons donc avoir besoin
d'une réponse internationale coordonnée.
Sans oublier l'éducation.
Les forces de l'ordre n'interviendront pas
si elles ne connaissent pas ces lois
et ne régleront pas des problèmes
qu'elles ne comprennent pas.
Dans mes recherches
sur le cyberharcèlement,
j'ai constaté que les forces de l'ordre
n'avaient pas la formation
pour comprendre les lois
dont elles disposent
et les problèmes sur Internet.
Et elles disent souvent aux victimes :
« Éteignez votre ordinateur.
Ignorez ça. Ça va disparaître. »
C'est qu'on a vu
dans le cas de Rana Ayyub.
On lui a dit : « Allez,
vous faites toute une histoire.
C'est juste des garçons qui s'amusent. »
Il faut donc accompagner
les nouvelles lois avec de la formation.
Cette formation doit aussi être
dispensée aux media.
Les journalistes doivent être formés
au phénomène des deepfakes,
pour qu'ils ne relaient pas,
ni ne les amplifient.
Et c'est là où nous sommes tous concernés.
Chacun d'entre nous doit être formé.
On clique, on partage, on like
sans même y réfléchir.
Nous devons nous améliorer.
Nous avons besoin
de meilleurs radars contre les faux.
Et pendant que nous
essayerons d'y voir clair,
il y aura encore
beaucoup de souffrance générée.
Rana Ayyub se bat toujours
contre les conséquences du deepfake.
Elle ne se sent toujours
pas libre de s'exprimer -
en ligne et dans la vraie vie.
Elle m'a dit
qu'elle avait toujours l'impression
que des milliers d'yeux la voyaient nue,
même si, intellectuellement,
elle sait que ce n'était pas son corps.
Elle a souvent des crises de panique,
surtout quand quelqu'un qu'elle ne
connaît pas essaie de la prendre en photo.
« Est-ce qu'ils vont en faire
un autre deepfake ? » se demande-t-elle.
Et donc, pour le bien
de personnes comme Rana Ayyub,
et pour le bien de nos démocraties,
nous devons agir maintenant.
Merci.
(Applaudissements)