[Cette intervention comporte du contenu réservé aux adultes] Rana Ayyub est journaliste en Inde. Elle a exposé la corruption du gouvernement et des violations des droits de l'homme. Et au fil des années, elle s'est habituée à la critique et à la controverse sur son travail. Mais rien n'aurait pu la préparer à ce qu'il s'est passé en avril 2018. Elle était dans un café avec un ami quand elle a vu la vidéo : une vidéo de deux minutes vingt la montrant en plein ébat sexuel. Elle n'en croyait pas ses yeux. Elle n'avait jamais tourné une telle vidéo. Mais malheureusement, des milliers de gens ont cru que c'était elle. J'ai interviewé Mme Ayyub il y a trois mois, dans le cadre de mon livre sur la protection de l'intimité sexuelle. Je suis professeur de droit, juriste et avocate en droit civil. Il est incroyablement frustrant, sachant tout cela, que la loi ne puisse pas beaucoup l'aider. Lors de notre conversation, elle m'a expliqué qu'elle aurait dû voir venir cette fausse vidéo porno. Elle m'a dit : « Après tout, le sexe est si souvent utilisé pour rabaisser les femmes ou leur faire honte, surtout les femmes issues des minorités, et surtout les femmes des minorités qui osent défier des hommes puissants » - ce qu'elle avait fait par son travail. En 48 heures, la vidéo truquée est devenue virale. Tous ses comptes ont été bombardés d'images de cette vidéo, accompagnées de menaces de viol, de menaces de mort, et d'insultes à sa foi de musulmane. Des posts en ligne suggéraient qu'elle était « disponible » sexuellement. Et elle a été « doxée » : son adresse personnelle et son numéro de portable ont été dévoilés sur Internet. La vidéo a été partagée plus de 40 000 fois. Quand quelqu'un est visé par ce genre de cyber-harcèlement, les conséquences sont immensément douloureuses. La vie de Rana Ayyub a été chamboulée. Pendant des semaines, elle arrivait à peine à manger ou à parler. Elle a arrêté d'écrire et a fermé tous ses comptes sur les réseaux sociaux, ce qui, vous savez, est un acte difficile quand vous êtes journaliste. Elle avait peur de sortir de chez elle. Et si les harceleurs voulaient mettre leurs menaces à exécution ? Le Conseil de l'ONU pour les droits de l'homme ont confirmé qu'elle avait raison. Il a publié une déclaration disant qu'il s'inquiétait pour sa sécurité. Rana Ayyub a été la cible de ce qu'on appelle un deepfake : une technologie basée sur l'apprentissage automatique qui manipule ou fabrique des enregistrements audio et vidéo qui montrent des gens faisant ou disant des choses qu'ils n'ont jamais faites ou dites. Les deepfakes semblent authentiques et réalistes, mais ne le sont pas ; ce sont des falsifications complètes. Bien que la technologie soit encore dans une phase d'amélioration, elle est déjà largement accessible. les deepfakes ont tout récemment attiré l'attention, comme tant de choses sur Internet, grâce à la pornographie. Début 2018, quelqu'un a posté un outil sur Reddit permettant à ses utilisateurs d'intégrer des visages dans des vidéos pornos. S'en est suivi un déluge de fausses vidéos pornos mettant en scène les célébrités féminines préférées du public. Aujourd'hui, vous pouvez faire défiler sur Youtube les nombreux tutoriels montrant pas à pas comment créer un deepfake sur votre ordinateur personnel. On dit qu'on pourrait même bientôt le faire sur nos téléphones. On est là au croisement de certaines des plus basiques fragilités humaines et des outils technologiques qui peuvent transformer les deepfakes en armes. Laissez-moi préciser. Les êtres humains ont une réaction instinctive à l'audio et la vidéo. On croit que c'est vrai, car, par principe, nous croyons évidemment ce que nos yeux et nos oreilles nous disent. Et c'est ce mécanisme qui peut saper notre sens partagé de la réalité. Bien que nous pensions que les deepfakes soient vrais, ils ne le sont pas. Et nous sommes attirés par ce qui est salace, provoquant. On a tendance à croire et à diffuser des informations qui sont négatives et nouvelles. Des chercheurs ont trouvé que les canulars en ligne se répandent dix fois plus vite que les histoires vraies. De plus, nous sommes aussi attirés par l'information qui coïncide avec notre point de vue. Les psychologues appellent cela un biais de confirmation. Les réseaux sociaux amplifient cette tendance, en nous permettant de partager une information instantanément et largement, si elle correspond à notre point de vue. Mais les deepfakes ont le potentiel de causer de graves dommages individuels et sociétaux. Imaginez un deepfake qui montrerait des soldats américains brûlant un Coran en Afghanistan. On imagine bien qu'une telle vidéo déclencherait des violences contre ces soldats. Et imaginons que le lendemain tombe un nouveau deepfake montrant un imam de Londres bien connu appelant à attaquer ces soldats. Ça pourrait déclencher des violences et des troubles civils, pas seulement en Afghanistan ou au Royaume-Uni, mais partout dans le monde. Vous pourriez me répondre : « Allons, c'est tiré par les cheveux. » Mais ce n'est pas le cas. On a vu des mensonges se répandre sur WhatsApp et d'autres services de messagerie en ligne et mener à des violences envers des minorités ethniques. Et ce n'était que du texte - imaginez si ça avait été des vidéos. Les deepfakes ont le potentiel d'entamer la confiance que nous avons dans les institutions démocratiques. Imaginez qu'à la veille d'une élection, on voit un deepfake montrant un des candidats du parti majoritaire gravement malade. Ce deepfake pourrait faire basculer l'élection et mettre en doute la légitimité qu'on attribue à l'élection. Imaginez qu'à la veille de l'entrée en bourse d'une banque importante, il y ait un deepfake montrant le PDG de la banque complètement saoûl, soutenant des théories complotistes. Ce deepfake pourrait couler cette introduction en bourse, et pire encore, nous faire douter de la stabilité des marchés financiers. Les deepfakes savent exploiter et amplifier la méfiance profonde que nous avons déjà dans les politiciens, les patrons et les autres leaders influents. Ils rencontrent un public tout prêt à les croire. La recherche de la vérité est en danger également. Les experts en technologie s'attendent à ce qu'avec les avancées de l'IA, il soit bientôt difficile, sinon impossible, de faire la différence entre une vraie et une fausse vidéo. Comment la vérité pourrait donc émerger sur une scène des idées contaminée par les deepfakes ? Suivrons-nous juste la voie de moindre résistance pour croire ce que nous voulons croire, et au diable la vérité ? Non seulement nous risquons de croire les mensonges, mais aussi de douter de la vérité. Nous avons déjà vu des gens utiliser ce phénomène des deepfakes pour mettre en doute des preuves tangibles de leurs agissements. Nous avons entendu des politiciens dire de certains enregistrements : « Allez, ce sont des fake news. Vous ne pouvez pas croire ce que vos yeux et vos oreilles vous disent. » Et c'est ce risque que le professeur Robert Chesney et moi appelons le « dividende du menteur » : le risque qu'un menteur invoque les deepfakes pour échapper aux conséquences de ses malversations. Nous avons donc du pain sur la planche, sans aucun doute. Nous allons avoir besoin d'une solution proactive de la part des sociétés de technologie, des législateurs, des forces de l'ordre et des media. Et nous allons avoir besoin d'une bonne dose de résilience sociale. Nous sommes déjà engagés en ce moment dans une large conversation publique sur la responsabilité des sociétés de technologies. J'ai déjà suggéré aux réseaux sociaux de changer leurs conditions d'utilisation et leurs règles d'usage pour interdire ces deepfakes dangereux. Cette détermination va nécessiter une évaluation par des humains et va coûter cher. Mais il faut que des humains étudient le contenu et le contexte d'un deepfake pour déterminer s'il s'agit une utilisation dangereuse ou, au contraire, d'une satire, d'une œuvre d'art ou d'un contenu éducatif. Et au fait, que dit la loi ? Nous devons apprendre de la loi. Elle nous dit ce qui est dangereux et ce qui est mal. Et elle réprime les comportements interdits en punissant les coupables et en prenant soin des victimes. A ce jour, la loi n'est pas à la hauteur du défi posé par les deepfakes. Dans le monde entier, on manque de lois adaptées qui permettraient d'empêcher ces mises en scène numériques qui violent l'intimité, qui détruisent des réputations et qui causent des dommages émotionnels. Ce qui est arrivé à Rana Ayyub devient de plus en plus courant. Quand elle s'est rendue à la police à Delhi, on lui a dit qu'on ne pouvait rien faire. Et la triste vérité est que c'est la même chose aux États-Unis et en Europe. Il y a là un vide juridique qu'il faut combler. Ma collègue le Dr Mary Anne Franks et moi travaillons avec le législateur étasunien pour mettre sur pied des lois qui interdiraient ces mises en scène numériques blessantes qui s'apparentent à du vol d'identité. On constate des démarches similaires en Islande, au Royaume-Uni et en Australie. Mais bien sûr, il ne s'agit que d'une petite pièce dans le puzzle réglementaire. Je sais bien que la loi n'est pas la panacée. C'est un instrument brutal. Nous devons nous en servir subtilement. Il y a également quelques problèmes pratiques. On ne peut pas exercer de sanctions contre quelqu'un qu'on ne peut pas identifier ni trouver. Et si un coupable vit en dehors du pays où vit la victime, il pourrait être impossible que le coupable comparaisse devant la justice dans le pays de la victime. Nous allons donc avoir besoin d'une réponse internationale coordonnée. Sans oublier l'éducation. Les forces de l'ordre n'interviendront pas si elles ne connaissent pas ces lois et ne régleront pas des problèmes qu'elles ne comprennent pas. Dans mes recherches sur le cyberharcèlement, j'ai constaté que les forces de l'ordre n'avaient pas la formation pour comprendre les lois dont elles disposent et les problèmes sur Internet. Et elles disent souvent aux victimes : « Éteignez votre ordinateur. Ignorez ça. Ça va disparaître. » C'est qu'on a vu dans le cas de Rana Ayyub. On lui a dit : « Allez, vous faites toute une histoire. C'est juste des garçons qui s'amusent. » Il faut donc accompagner les nouvelles lois avec de la formation. Cette formation doit aussi être dispensée aux media. Les journalistes doivent être formés au phénomène des deepfakes, pour qu'ils ne relaient pas, ni ne les amplifient. Et c'est là où nous sommes tous concernés. Chacun d'entre nous doit être formé. On clique, on partage, on like sans même y réfléchir. Nous devons nous améliorer. Nous avons besoin de meilleurs radars contre les faux. Et pendant que nous essayerons d'y voir clair, il y aura encore beaucoup de souffrance générée. Rana Ayyub se bat toujours contre les conséquences du deepfake. Elle ne se sent toujours pas libre de s'exprimer - en ligne et dans la vraie vie. Elle m'a dit qu'elle avait toujours l'impression que des milliers d'yeux la voyaient nue, même si, intellectuellement, elle sait que ce n'était pas son corps. Elle a souvent des crises de panique, surtout quand quelqu'un qu'elle ne connaît pas essaie de la prendre en photo. « Est-ce qu'ils vont en faire un autre deepfake ? » se demande-t-elle. Et donc, pour le bien de personnes comme Rana Ayyub, et pour le bien de nos démocraties, nous devons agir maintenant. Merci. (Applaudissements)