WEBVTT 00:00:00.535 --> 00:00:03.592 [Cette intervention comporte du contenu réservé aux adultes] 00:00:05.762 --> 00:00:08.754 Rana Ayyub est journaliste en Inde. 00:00:08.778 --> 00:00:11.380 Elle a exposé la corruption du gouvernement 00:00:12.411 --> 00:00:14.568 et des violations des droits de l'homme. 00:00:14.990 --> 00:00:16.157 Et au fil des années, 00:00:16.181 --> 00:00:19.484 elle s'est habituée à la critique et à la controverse sur son travail. 00:00:20.149 --> 00:00:25.258 Mais rien n'aurait pu la préparer à ce qu'il s'est passé en avril 2018. 00:00:26.125 --> 00:00:29.776 Elle était dans un café avec un ami quand elle a vu la vidéo : 00:00:29.800 --> 00:00:34.743 une vidéo de deux minutes vingt la montrant en plein ébat sexuel. 00:00:35.188 --> 00:00:37.537 Elle n'en croyait pas ses yeux. 00:00:37.561 --> 00:00:39.834 Elle n'avait jamais tourné une telle vidéo. 00:00:40.506 --> 00:00:43.971 Mais malheureusement, des milliers de gens 00:00:43.995 --> 00:00:45.661 ont cru que c'était elle. 00:00:46.673 --> 00:00:49.617 J'ai interviewé Mme Ayyub il y a trois mois, 00:00:49.617 --> 00:00:52.811 dans le cadre de mon livre sur la protection de l'intimité sexuelle. 00:00:52.811 --> 00:00:55.879 Je suis professeur de droit, juriste et avocate en droit civil. 00:00:56.204 --> 00:01:00.815 Il est incroyablement frustrant, sachant tout cela, 00:01:00.839 --> 00:01:03.077 que la loi ne puisse pas beaucoup l'aider. 00:01:03.458 --> 00:01:05.004 Lors de notre conversation, 00:01:05.029 --> 00:01:09.541 elle m'a expliqué qu'elle aurait dû voir venir cette fausse vidéo porno. 00:01:10.038 --> 00:01:13.336 Elle m'a dit : « Après tout, le sexe est si souvent utilisé 00:01:13.336 --> 00:01:15.634 pour rabaisser les femmes ou leur faire honte, 00:01:15.658 --> 00:01:18.086 surtout les femmes issues des minorités, 00:01:18.110 --> 00:01:22.422 et surtout les femmes des minorités qui osent défier des hommes puissants » - 00:01:22.446 --> 00:01:24.439 ce qu'elle avait fait par son travail. 00:01:25.191 --> 00:01:29.167 En 48 heures, la vidéo truquée est devenue virale. 00:01:30.064 --> 00:01:35.371 Tous ses comptes ont été bombardés d'images de cette vidéo, 00:01:35.395 --> 00:01:38.022 accompagnées de menaces de viol, de menaces de mort, 00:01:38.046 --> 00:01:40.579 et d'insultes à sa foi de musulmane. 00:01:41.426 --> 00:01:45.990 Des posts en ligne suggéraient qu'elle était « disponible » sexuellement. 00:01:46.014 --> 00:01:47.624 Et elle a été « doxée » : 00:01:47.648 --> 00:01:50.426 son adresse personnelle et son numéro de portable 00:01:50.450 --> 00:01:52.196 ont été dévoilés sur Internet. 00:01:52.879 --> 00:01:56.963 La vidéo a été partagée plus de 40 000 fois. 00:01:57.760 --> 00:02:01.696 Quand quelqu'un est visé par ce genre de cyber-harcèlement, 00:02:01.720 --> 00:02:04.063 les conséquences sont immensément douloureuses. 00:02:04.482 --> 00:02:07.521 La vie de Rana Ayyub a été chamboulée. 00:02:08.211 --> 00:02:11.545 Pendant des semaines, elle arrivait à peine à manger ou à parler. 00:02:11.919 --> 00:02:15.608 Elle a arrêté d'écrire et a fermé tous ses comptes sur les réseaux sociaux, 00:02:15.632 --> 00:02:18.990 ce qui, vous savez, est un acte difficile quand vous êtes journaliste. 00:02:19.188 --> 00:02:22.672 Elle avait peur de sortir de chez elle. 00:02:22.672 --> 00:02:25.834 Et si les harceleurs voulaient mettre leurs menaces à exécution ? 00:02:26.395 --> 00:02:30.760 Le Conseil de l'ONU pour les droits de l'homme ont confirmé qu'elle avait raison. 00:02:30.784 --> 00:02:35.421 Il a publié une déclaration disant qu'il s'inquiétait pour sa sécurité. 00:02:36.776 --> 00:02:41.005 Rana Ayyub a été la cible de ce qu'on appelle un deepfake : 00:02:41.029 --> 00:02:43.569 une technologie basée sur l'apprentissage automatique 00:02:43.593 --> 00:02:47.704 qui manipule ou fabrique des enregistrements audio et vidéo 00:02:47.728 --> 00:02:50.451 qui montrent des gens faisant ou disant des choses 00:02:50.475 --> 00:02:52.341 qu'ils n'ont jamais faites ou dites. 00:02:52.807 --> 00:02:56.168 Les deepfakes semblent authentiques et réalistes, mais ne le sont pas ; 00:02:56.192 --> 00:02:57.964 ce sont des falsifications complètes. 00:02:59.228 --> 00:03:03.022 Bien que la technologie soit encore dans une phase d'amélioration, 00:03:03.022 --> 00:03:04.796 elle est déjà largement accessible. 00:03:05.371 --> 00:03:08.443 les deepfakes ont tout récemment attiré l'attention, 00:03:08.467 --> 00:03:10.628 comme tant de choses sur Internet, 00:03:10.652 --> 00:03:11.907 grâce à la pornographie. 00:03:12.498 --> 00:03:14.609 Début 2018, 00:03:14.633 --> 00:03:17.101 quelqu'un a posté un outil sur Reddit 00:03:17.125 --> 00:03:21.537 permettant à ses utilisateurs d'intégrer des visages dans des vidéos pornos. 00:03:21.561 --> 00:03:25.001 S'en est suivi un déluge de fausses vidéos pornos 00:03:25.025 --> 00:03:28.162 mettant en scène les célébrités féminines préférées du public. 00:03:28.712 --> 00:03:32.189 Aujourd'hui, vous pouvez faire défiler sur Youtube les nombreux tutoriels 00:03:32.213 --> 00:03:34.499 montrant pas à pas 00:03:34.523 --> 00:03:37.686 comment créer un deepfake sur votre ordinateur personnel. 00:03:38.260 --> 00:03:41.966 On dit qu'on pourrait même bientôt le faire sur nos téléphones. 00:03:43.072 --> 00:03:48.454 On est là au croisement de certaines des plus basiques fragilités humaines 00:03:48.478 --> 00:03:50.160 et des outils technologiques 00:03:50.184 --> 00:03:52.850 qui peuvent transformer les deepfakes en armes. 00:03:52.874 --> 00:03:54.074 Laissez-moi préciser. 00:03:54.875 --> 00:03:59.441 Les êtres humains ont une réaction instinctive à l'audio et la vidéo. 00:03:59.860 --> 00:04:01.348 On croit que c'est vrai, 00:04:01.372 --> 00:04:03.450 car, par principe, nous croyons évidemment 00:04:03.474 --> 00:04:05.952 ce que nos yeux et nos oreilles nous disent. 00:04:06.476 --> 00:04:08.175 Et c'est ce mécanisme 00:04:08.199 --> 00:04:11.897 qui peut saper notre sens partagé de la réalité. 00:04:11.897 --> 00:04:15.484 Bien que nous pensions que les deepfakes soient vrais, ils ne le sont pas. 00:04:15.604 --> 00:04:19.761 Et nous sommes attirés par ce qui est salace, provoquant. 00:04:20.365 --> 00:04:23.412 On a tendance à croire et à diffuser des informations 00:04:23.436 --> 00:04:25.459 qui sont négatives et nouvelles. 00:04:25.809 --> 00:04:30.828 Des chercheurs ont trouvé que les canulars en ligne se répandent dix fois plus vite 00:04:30.852 --> 00:04:32.479 que les histoires vraies. 00:04:34.015 --> 00:04:38.395 De plus, nous sommes aussi attirés par l'information 00:04:38.419 --> 00:04:40.311 qui coïncide avec notre point de vue. 00:04:40.950 --> 00:04:44.511 Les psychologues appellent cela un biais de confirmation. 00:04:45.300 --> 00:04:49.687 Les réseaux sociaux amplifient cette tendance, 00:04:49.711 --> 00:04:53.592 en nous permettant de partager une information instantanément et largement, 00:04:53.616 --> 00:04:55.708 si elle correspond à notre point de vue. 00:04:56.735 --> 00:04:58.969 Mais les deepfakes ont le potentiel 00:04:58.969 --> 00:05:02.303 de causer de graves dommages individuels et sociétaux. 00:05:03.204 --> 00:05:05.228 Imaginez un deepfake 00:05:05.252 --> 00:05:09.434 qui montrerait des soldats américains brûlant un Coran en Afghanistan. 00:05:10.807 --> 00:05:13.831 On imagine bien qu'une telle vidéo déclencherait des violences 00:05:13.855 --> 00:05:15.388 contre ces soldats. 00:05:15.847 --> 00:05:18.720 Et imaginons que le lendemain 00:05:18.744 --> 00:05:20.998 tombe un nouveau deepfake 00:05:21.022 --> 00:05:24.339 montrant un imam de Londres bien connu 00:05:24.363 --> 00:05:26.830 appelant à attaquer ces soldats. 00:05:27.617 --> 00:05:30.780 Ça pourrait déclencher des violences et des troubles civils, 00:05:30.804 --> 00:05:34.053 pas seulement en Afghanistan ou au Royaume-Uni, 00:05:34.077 --> 00:05:35.592 mais partout dans le monde. 00:05:36.251 --> 00:05:39.679 Vous pourriez me répondre : « Allons, c'est tiré par les cheveux. » 00:05:39.704 --> 00:05:41.114 Mais ce n'est pas le cas. 00:05:41.293 --> 00:05:43.484 On a vu des mensonges se répandre 00:05:43.508 --> 00:05:46.230 sur WhatsApp et d'autres services de messagerie en ligne 00:05:46.254 --> 00:05:49.015 et mener à des violences envers des minorités ethniques. 00:05:49.039 --> 00:05:50.926 Et ce n'était que du texte - 00:05:50.950 --> 00:05:52.974 imaginez si ça avait été des vidéos. 00:05:54.593 --> 00:05:59.950 Les deepfakes ont le potentiel d'entamer la confiance que nous avons 00:05:59.974 --> 00:06:01.966 dans les institutions démocratiques. 00:06:03.006 --> 00:06:05.673 Imaginez qu'à la veille d'une élection, 00:06:05.996 --> 00:06:09.234 on voit un deepfake montrant un des candidats du parti majoritaire 00:06:09.258 --> 00:06:10.408 gravement malade. 00:06:11.202 --> 00:06:13.535 Ce deepfake pourrait faire basculer l'élection 00:06:13.559 --> 00:06:16.934 et mettre en doute la légitimité qu'on attribue à l'élection. 00:06:18.515 --> 00:06:21.841 Imaginez qu'à la veille de l'entrée en bourse 00:06:21.865 --> 00:06:24.198 d'une banque importante, 00:06:24.222 --> 00:06:27.371 il y ait un deepfake montrant le PDG de la banque 00:06:27.395 --> 00:06:30.092 complètement saoûl, soutenant des théories complotistes. 00:06:30.887 --> 00:06:33.934 Ce deepfake pourrait couler cette introduction en bourse, 00:06:33.958 --> 00:06:38.073 et pire encore, nous faire douter de la stabilité des marchés financiers. 00:06:39.385 --> 00:06:43.189 Les deepfakes savent exploiter et amplifier 00:06:43.189 --> 00:06:46.374 la méfiance profonde que nous avons déjà 00:06:46.398 --> 00:06:50.612 dans les politiciens, les patrons et les autres leaders influents. 00:06:50.945 --> 00:06:54.229 Ils rencontrent un public tout prêt à les croire. 00:06:55.287 --> 00:06:58.052 La recherche de la vérité est en danger également. 00:06:59.077 --> 00:07:02.641 Les experts en technologie s'attendent à ce qu'avec les avancées de l'IA, 00:07:02.665 --> 00:07:06.347 il soit bientôt difficile, sinon impossible, 00:07:06.371 --> 00:07:10.140 de faire la différence entre une vraie et une fausse vidéo. 00:07:11.022 --> 00:07:13.402 Comment la vérité pourrait donc émerger 00:07:13.402 --> 00:07:16.363 sur une scène des idées contaminée par les deepfakes ? 00:07:16.752 --> 00:07:20.172 Suivrons-nous juste la voie de moindre résistance 00:07:20.196 --> 00:07:22.633 pour croire ce que nous voulons croire, 00:07:22.657 --> 00:07:23.807 et au diable la vérité ? 00:07:24.831 --> 00:07:28.006 Non seulement nous risquons de croire les mensonges, 00:07:28.030 --> 00:07:31.356 mais aussi de douter de la vérité. 00:07:31.887 --> 00:07:35.966 Nous avons déjà vu des gens utiliser ce phénomène des deepfakes 00:07:35.990 --> 00:07:39.910 pour mettre en doute des preuves tangibles de leurs agissements. 00:07:39.934 --> 00:07:45.903 Nous avons entendu des politiciens dire de certains enregistrements : 00:07:45.927 --> 00:07:47.673 « Allez, ce sont des fake news. 00:07:47.697 --> 00:07:51.617 Vous ne pouvez pas croire ce que vos yeux et vos oreilles vous disent. » 00:07:52.402 --> 00:07:54.133 Et c'est ce risque 00:07:54.157 --> 00:07:59.593 que le professeur Robert Chesney et moi appelons le « dividende du menteur » : 00:07:59.617 --> 00:08:02.974 le risque qu'un menteur invoque les deepfakes 00:08:02.998 --> 00:08:05.903 pour échapper aux conséquences de ses malversations. 00:08:06.963 --> 00:08:10.034 Nous avons donc du pain sur la planche, sans aucun doute. 00:08:10.606 --> 00:08:13.931 Nous allons avoir besoin d'une solution proactive 00:08:13.955 --> 00:08:17.466 de la part des sociétés de technologie, des législateurs, 00:08:17.490 --> 00:08:19.474 des forces de l'ordre et des media. 00:08:20.093 --> 00:08:24.109 Et nous allons avoir besoin d'une bonne dose de résilience sociale. 00:08:25.506 --> 00:08:29.402 Nous sommes déjà engagés en ce moment dans une large conversation publique 00:08:29.426 --> 00:08:32.339 sur la responsabilité des sociétés de technologies. 00:08:32.926 --> 00:08:35.957 J'ai déjà suggéré aux réseaux sociaux 00:08:35.982 --> 00:08:39.855 de changer leurs conditions d'utilisation et leurs règles d'usage 00:08:39.879 --> 00:08:42.215 pour interdire ces deepfakes dangereux. 00:08:42.712 --> 00:08:46.672 Cette détermination va nécessiter une évaluation par des humains 00:08:46.696 --> 00:08:48.267 et va coûter cher. 00:08:48.673 --> 00:08:50.958 Mais il faut que des humains 00:08:50.982 --> 00:08:54.855 étudient le contenu et le contexte d'un deepfake 00:08:54.879 --> 00:08:58.561 pour déterminer s'il s'agit une utilisation dangereuse 00:08:58.585 --> 00:09:02.967 ou, au contraire, d'une satire, d'une œuvre d'art ou d'un contenu éducatif. 00:09:04.118 --> 00:09:05.613 Et au fait, que dit la loi ? 00:09:06.666 --> 00:09:09.015 Nous devons apprendre de la loi. 00:09:09.515 --> 00:09:13.553 Elle nous dit ce qui est dangereux et ce qui est mal. 00:09:13.577 --> 00:09:18.132 Et elle réprime les comportements interdits en punissant les coupables 00:09:18.156 --> 00:09:20.423 et en prenant soin des victimes. 00:09:21.148 --> 00:09:25.428 A ce jour, la loi n'est pas à la hauteur du défi posé par les deepfakes. 00:09:26.116 --> 00:09:27.506 Dans le monde entier, 00:09:27.530 --> 00:09:29.974 on manque de lois adaptées 00:09:29.998 --> 00:09:33.568 qui permettraient d'empêcher ces mises en scène numériques 00:09:33.592 --> 00:09:35.823 qui violent l'intimité, 00:09:35.847 --> 00:09:37.284 qui détruisent des réputations 00:09:37.284 --> 00:09:39.209 et qui causent des dommages émotionnels. 00:09:39.725 --> 00:09:43.598 Ce qui est arrivé à Rana Ayyub devient de plus en plus courant. 00:09:44.074 --> 00:09:46.288 Quand elle s'est rendue à la police à Delhi, 00:09:46.312 --> 00:09:48.447 on lui a dit qu'on ne pouvait rien faire. 00:09:49.101 --> 00:09:52.284 Et la triste vérité est que c'est la même chose 00:09:52.308 --> 00:09:54.574 aux États-Unis et en Europe. 00:09:55.300 --> 00:09:59.656 Il y a là un vide juridique qu'il faut combler. 00:10:00.292 --> 00:10:04.384 Ma collègue le Dr Mary Anne Franks et moi travaillons avec le législateur étasunien 00:10:04.408 --> 00:10:06.200 pour mettre sur pied des lois 00:10:06.200 --> 00:10:09.212 qui interdiraient ces mises en scène numériques blessantes 00:10:09.236 --> 00:10:11.769 qui s'apparentent à du vol d'identité. 00:10:12.252 --> 00:10:14.378 On constate des démarches similaires 00:10:14.402 --> 00:10:17.703 en Islande, au Royaume-Uni et en Australie. 00:10:18.157 --> 00:10:22.026 Mais bien sûr, il ne s'agit que d'une petite pièce dans le puzzle réglementaire. 00:10:22.911 --> 00:10:26.080 Je sais bien que la loi n'est pas la panacée. 00:10:26.104 --> 00:10:27.704 C'est un instrument brutal. 00:10:28.346 --> 00:10:30.255 Nous devons nous en servir subtilement. 00:10:30.411 --> 00:10:33.223 Il y a également quelques problèmes pratiques. 00:10:33.657 --> 00:10:36.179 On ne peut pas exercer de sanctions contre quelqu'un 00:10:36.179 --> 00:10:38.701 qu'on ne peut pas identifier ni trouver. 00:10:39.463 --> 00:10:42.749 Et si un coupable vit en dehors du pays 00:10:42.773 --> 00:10:44.527 où vit la victime, 00:10:44.551 --> 00:10:46.180 il pourrait être impossible 00:10:46.204 --> 00:10:48.553 que le coupable comparaisse devant la justice 00:10:48.577 --> 00:10:50.057 dans le pays de la victime. 00:10:50.236 --> 00:10:54.299 Nous allons donc avoir besoin d'une réponse internationale coordonnée. 00:10:55.819 --> 00:10:59.152 Sans oublier l'éducation. 00:10:59.803 --> 00:11:05.034 Les forces de l'ordre n'interviendront pas si elles ne connaissent pas ces lois 00:11:05.040 --> 00:11:07.956 et ne régleront pas des problèmes qu'elles ne comprennent pas. 00:11:08.376 --> 00:11:10.567 Dans mes recherches sur le cyberharcèlement, 00:11:10.591 --> 00:11:14.090 j'ai constaté que les forces de l'ordre n'avaient pas la formation 00:11:14.114 --> 00:11:16.696 pour comprendre les lois dont elles disposent 00:11:16.720 --> 00:11:19.069 et les problèmes sur Internet. 00:11:19.093 --> 00:11:21.775 Et elles disent souvent aux victimes : 00:11:21.799 --> 00:11:25.770 « Éteignez votre ordinateur. Ignorez ça. Ça va disparaître. » 00:11:26.261 --> 00:11:28.727 C'est qu'on a vu dans le cas de Rana Ayyub. 00:11:29.102 --> 00:11:32.570 On lui a dit : « Allez, vous faites toute une histoire. 00:11:32.594 --> 00:11:34.647 C'est juste des garçons qui s'amusent. » 00:11:35.268 --> 00:11:40.520 Il faut donc accompagner les nouvelles lois avec de la formation. 00:11:42.053 --> 00:11:45.482 Cette formation doit aussi être dispensée aux media. 00:11:46.180 --> 00:11:50.440 Les journalistes doivent être formés au phénomène des deepfakes, 00:11:50.464 --> 00:11:53.503 pour qu'ils ne relaient pas, ni ne les amplifient. 00:11:54.583 --> 00:11:56.751 Et c'est là où nous sommes tous concernés. 00:11:56.775 --> 00:12:00.630 Chacun d'entre nous doit être formé. 00:12:01.375 --> 00:12:05.050 On clique, on partage, on like sans même y réfléchir. 00:12:05.551 --> 00:12:07.098 Nous devons nous améliorer. 00:12:07.726 --> 00:12:10.535 Nous avons besoin de meilleurs radars contre les faux. 00:12:13.744 --> 00:12:17.585 Et pendant que nous essayerons d'y voir clair, 00:12:17.609 --> 00:12:20.172 il y aura encore beaucoup de souffrance générée. 00:12:21.093 --> 00:12:24.169 Rana Ayyub se bat toujours contre les conséquences du deepfake. 00:12:24.669 --> 00:12:27.433 Elle ne se sent toujours pas libre de s'exprimer - 00:12:27.433 --> 00:12:29.108 en ligne et dans la vraie vie. 00:12:29.566 --> 00:12:30.931 Elle m'a dit 00:12:30.955 --> 00:12:36.029 qu'elle avait toujours l'impression que des milliers d'yeux la voyaient nue, 00:12:36.053 --> 00:12:39.714 même si, intellectuellement, elle sait que ce n'était pas son corps. 00:12:40.371 --> 00:12:42.720 Elle a souvent des crises de panique, 00:12:42.744 --> 00:12:46.844 surtout quand quelqu'un qu'elle ne connaît pas essaie de la prendre en photo. 00:12:46.868 --> 00:12:50.379 « Est-ce qu'ils vont en faire un autre deepfake ? » se demande-t-elle. 00:12:51.082 --> 00:12:55.003 Et donc, pour le bien de personnes comme Rana Ayyub, 00:12:55.027 --> 00:12:57.333 et pour le bien de nos démocraties, 00:12:57.357 --> 00:12:59.539 nous devons agir maintenant. 00:12:59.563 --> 00:13:00.714 Merci. 00:13:00.738 --> 00:13:03.246 (Applaudissements)