YouTube

Got a YouTube account?

New: enable viewer-created translations and captions on your YouTube channel!

French subtitles

← Comment les deepfakes mettent en danger la vérité et la démocratie

Get Embed Code
16 Languages

Showing Revision 7 created 09/23/2019 by Claire Ghyselen.

  1. [Cette intervention comporte
    du contenu réservé aux adultes]
  2. Rana Ayyub est journaliste en Inde.
  3. Elle a exposé
    la corruption du gouvernement
  4. et des violations des droits de l'homme.
  5. Et au fil des années,
  6. elle s'est habituée à la critique
    et à la controverse sur son travail.
  7. Mais rien n'aurait pu la préparer
    à ce qu'il s'est passé en avril 2018.
  8. Elle était dans un café avec un ami
    quand elle a vu la vidéo :
  9. une vidéo de deux minutes vingt
    la montrant en plein ébat sexuel.
  10. Elle n'en croyait pas ses yeux.
  11. Elle n'avait jamais tourné
    une telle vidéo.
  12. Mais malheureusement, des milliers de gens
  13. ont cru que c'était elle.
  14. J'ai interviewé Mme Ayyub
    il y a trois mois,
  15. dans le cadre de mon livre
    sur la protection de l'intimité sexuelle.
  16. Je suis professeur de droit,
    juriste et avocate en droit civil.
  17. Il est incroyablement frustrant,
    sachant tout cela,
  18. que la loi ne puisse pas beaucoup l'aider.
  19. Lors de notre conversation,
  20. elle m'a expliqué qu'elle aurait dû
    voir venir cette fausse vidéo porno.
  21. Elle m'a dit : « Après tout,
    le sexe est si souvent utilisé
  22. pour rabaisser les femmes
    ou leur faire honte,
  23. surtout les femmes issues des minorités,
  24. et surtout les femmes des minorités
    qui osent défier des hommes puissants » -
  25. ce qu'elle avait fait par son travail.
  26. En 48 heures, la vidéo truquée
    est devenue virale.
  27. Tous ses comptes ont été bombardés
    d'images de cette vidéo,
  28. accompagnées de menaces de viol,
    de menaces de mort,
  29. et d'insultes à sa foi de musulmane.
  30. Des posts en ligne suggéraient
    qu'elle était « disponible » sexuellement.
  31. Et elle a été « doxée » :
  32. son adresse personnelle
    et son numéro de portable
  33. ont été dévoilés sur Internet.
  34. La vidéo a été partagée
    plus de 40 000 fois.
  35. Quand quelqu'un est visé
    par ce genre de cyber-harcèlement,
  36. les conséquences sont
    immensément douloureuses.
  37. La vie de Rana Ayyub a été chamboulée.
  38. Pendant des semaines, elle arrivait
    à peine à manger ou à parler.
  39. Elle a arrêté d'écrire et a fermé
    tous ses comptes sur les réseaux sociaux,
  40. ce qui, vous savez, est un acte difficile
    quand vous êtes journaliste.
  41. Elle avait peur de sortir de chez elle.
  42. Et si les harceleurs voulaient
    mettre leurs menaces à exécution ?
  43. Le Conseil de l'ONU pour les droits de
    l'homme ont confirmé qu'elle avait raison.
  44. Il a publié une déclaration disant
    qu'il s'inquiétait pour sa sécurité.
  45. Rana Ayyub a été la cible
    de ce qu'on appelle un deepfake :
  46. une technologie basée
    sur l'apprentissage automatique
  47. qui manipule ou fabrique
    des enregistrements audio et vidéo
  48. qui montrent des gens faisant
    ou disant des choses
  49. qu'ils n'ont jamais faites ou dites.
  50. Les deepfakes semblent authentiques
    et réalistes, mais ne le sont pas ;
  51. ce sont des falsifications complètes.
  52. Bien que la technologie soit encore
    dans une phase d'amélioration,
  53. elle est déjà largement accessible.
  54. les deepfakes ont tout
    récemment attiré l'attention,
  55. comme tant de choses sur Internet,
  56. grâce à la pornographie.
  57. Début 2018,
  58. quelqu'un a posté un outil sur Reddit
  59. permettant à ses utilisateurs d'intégrer
    des visages dans des vidéos pornos.
  60. S'en est suivi un déluge
    de fausses vidéos pornos
  61. mettant en scène les célébrités
    féminines préférées du public.
  62. Aujourd'hui, vous pouvez faire défiler
    sur Youtube les nombreux tutoriels
  63. montrant pas à pas
  64. comment créer un deepfake
    sur votre ordinateur personnel.
  65. On dit qu'on pourrait même bientôt
    le faire sur nos téléphones.
  66. On est là au croisement de certaines
    des plus basiques fragilités humaines
  67. et des outils technologiques
  68. qui peuvent transformer
    les deepfakes en armes.
  69. Laissez-moi préciser.
  70. Les êtres humains ont une réaction
    instinctive à l'audio et la vidéo.
  71. On croit que c'est vrai,
  72. car, par principe, nous croyons évidemment
  73. ce que nos yeux
    et nos oreilles nous disent.
  74. Et c'est ce mécanisme
  75. qui peut saper notre
    sens partagé de la réalité.
  76. Bien que nous pensions que les deepfakes
    soient vrais, ils ne le sont pas.
  77. Et nous sommes attirés
    par ce qui est salace, provoquant.
  78. On a tendance à croire
    et à diffuser des informations
  79. qui sont négatives et nouvelles.
  80. Des chercheurs ont trouvé que les canulars
    en ligne se répandent dix fois plus vite
  81. que les histoires vraies.
  82. De plus, nous sommes aussi attirés
    par l'information
  83. qui coïncide avec notre point de vue.
  84. Les psychologues appellent cela
    un biais de confirmation.
  85. Les réseaux sociaux amplifient
    cette tendance,
  86. en nous permettant de partager une
    information instantanément et largement,
  87. si elle correspond à notre point de vue.
  88. Mais les deepfakes ont le potentiel
  89. de causer de graves dommages
    individuels et sociétaux.
  90. Imaginez un deepfake
  91. qui montrerait des soldats américains
    brûlant un Coran en Afghanistan.
  92. On imagine bien qu'une telle
    vidéo déclencherait des violences
  93. contre ces soldats.
  94. Et imaginons que le lendemain
  95. tombe un nouveau deepfake
  96. montrant un imam de Londres bien connu
  97. appelant à attaquer ces soldats.
  98. Ça pourrait déclencher
    des violences et des troubles civils,
  99. pas seulement en Afghanistan
    ou au Royaume-Uni,
  100. mais partout dans le monde.
  101. Vous pourriez me répondre :
    « Allons, c'est tiré par les cheveux. »
  102. Mais ce n'est pas le cas.
  103. On a vu des mensonges se répandre
  104. sur WhatsApp et d'autres
    services de messagerie en ligne
  105. et mener à des violences
    envers des minorités ethniques.
  106. Et ce n'était que du texte -
  107. imaginez si ça avait été des vidéos.
  108. Les deepfakes ont le potentiel
    d'entamer la confiance que nous avons
  109. dans les institutions démocratiques.
  110. Imaginez qu'à la veille d'une élection,
  111. on voit un deepfake montrant
    un des candidats du parti majoritaire
  112. gravement malade.
  113. Ce deepfake pourrait
    faire basculer l'élection
  114. et mettre en doute la légitimité
    qu'on attribue à l'élection.
  115. Imaginez qu'à la veille
    de l'entrée en bourse
  116. d'une banque importante,
  117. il y ait un deepfake
    montrant le PDG de la banque
  118. complètement saoûl,
    soutenant des théories complotistes.
  119. Ce deepfake pourrait couler
    cette introduction en bourse,
  120. et pire encore, nous faire douter
    de la stabilité des marchés financiers.
  121. Les deepfakes savent
    exploiter et amplifier
  122. la méfiance profonde que nous avons déjà
  123. dans les politiciens, les patrons
    et les autres leaders influents.
  124. Ils rencontrent un public
    tout prêt à les croire.
  125. La recherche de la vérité
    est en danger également.
  126. Les experts en technologie s'attendent
    à ce qu'avec les avancées de l'IA,
  127. il soit bientôt difficile,
    sinon impossible,
  128. de faire la différence entre une vraie
    et une fausse vidéo.
  129. Comment la vérité pourrait donc émerger
  130. sur une scène des idées
    contaminée par les deepfakes ?
  131. Suivrons-nous juste
    la voie de moindre résistance
  132. pour croire ce que nous voulons croire,
  133. et au diable la vérité ?
  134. Non seulement nous risquons
    de croire les mensonges,
  135. mais aussi de douter de la vérité.
  136. Nous avons déjà vu des gens utiliser
    ce phénomène des deepfakes
  137. pour mettre en doute des preuves
    tangibles de leurs agissements.
  138. Nous avons entendu des politiciens
    dire de certains enregistrements :
  139. « Allez, ce sont des fake news.
  140. Vous ne pouvez pas croire ce que
    vos yeux et vos oreilles vous disent. »
  141. Et c'est ce risque
  142. que le professeur Robert Chesney et moi
    appelons le « dividende du menteur » :
  143. le risque qu'un menteur
    invoque les deepfakes
  144. pour échapper aux conséquences
    de ses malversations.
  145. Nous avons donc du pain
    sur la planche, sans aucun doute.
  146. Nous allons avoir besoin
    d'une solution proactive
  147. de la part des sociétés de technologie,
    des législateurs,
  148. des forces de l'ordre et des media.
  149. Et nous allons avoir besoin
    d'une bonne dose de résilience sociale.
  150. Nous sommes déjà engagés en ce moment
    dans une large conversation publique
  151. sur la responsabilité
    des sociétés de technologies.
  152. J'ai déjà suggéré aux réseaux sociaux
  153. de changer leurs conditions d'utilisation
    et leurs règles d'usage
  154. pour interdire ces deepfakes dangereux.
  155. Cette détermination va nécessiter
    une évaluation par des humains
  156. et va coûter cher.
  157. Mais il faut que des humains
  158. étudient le contenu
    et le contexte d'un deepfake
  159. pour déterminer s'il s'agit
    une utilisation dangereuse
  160. ou, au contraire, d'une satire, d'une
    œuvre d'art ou d'un contenu éducatif.
  161. Et au fait, que dit la loi ?
  162. Nous devons apprendre de la loi.
  163. Elle nous dit
    ce qui est dangereux et ce qui est mal.
  164. Et elle réprime les comportements
    interdits en punissant les coupables
  165. et en prenant soin des victimes.
  166. A ce jour, la loi n'est pas à la hauteur
    du défi posé par les deepfakes.
  167. Dans le monde entier,
  168. on manque de lois adaptées
  169. qui permettraient d'empêcher
    ces mises en scène numériques
  170. qui violent l'intimité,
  171. qui détruisent des réputations
  172. et qui causent des dommages émotionnels.
  173. Ce qui est arrivé à Rana Ayyub
    devient de plus en plus courant.
  174. Quand elle s'est rendue
    à la police à Delhi,
  175. on lui a dit qu'on ne pouvait rien faire.
  176. Et la triste vérité est
    que c'est la même chose
  177. aux États-Unis et en Europe.
  178. Il y a là un vide juridique
    qu'il faut combler.
  179. Ma collègue le Dr Mary Anne Franks et moi
    travaillons avec le législateur étasunien
  180. pour mettre sur pied des lois
  181. qui interdiraient ces mises
    en scène numériques blessantes
  182. qui s'apparentent à du vol d'identité.
  183. On constate des démarches similaires
  184. en Islande, au Royaume-Uni
    et en Australie.
  185. Mais bien sûr, il ne s'agit que d'une
    petite pièce dans le puzzle réglementaire.
  186. Je sais bien que la loi
    n'est pas la panacée.
  187. C'est un instrument brutal.
  188. Nous devons nous en servir subtilement.
  189. Il y a également
    quelques problèmes pratiques.
  190. On ne peut pas exercer
    de sanctions contre quelqu'un
  191. qu'on ne peut pas identifier ni trouver.
  192. Et si un coupable vit en dehors du pays
  193. où vit la victime,
  194. il pourrait être impossible
  195. que le coupable comparaisse
    devant la justice
  196. dans le pays de la victime.
  197. Nous allons donc avoir besoin
    d'une réponse internationale coordonnée.
  198. Sans oublier l'éducation.
  199. Les forces de l'ordre n'interviendront pas
    si elles ne connaissent pas ces lois
  200. et ne régleront pas des problèmes
    qu'elles ne comprennent pas.
  201. Dans mes recherches
    sur le cyberharcèlement,
  202. j'ai constaté que les forces de l'ordre
    n'avaient pas la formation
  203. pour comprendre les lois
    dont elles disposent
  204. et les problèmes sur Internet.
  205. Et elles disent souvent aux victimes :
  206. « Éteignez votre ordinateur.
    Ignorez ça. Ça va disparaître. »
  207. C'est qu'on a vu
    dans le cas de Rana Ayyub.
  208. On lui a dit : « Allez,
    vous faites toute une histoire.
  209. C'est juste des garçons qui s'amusent. »
  210. Il faut donc accompagner
    les nouvelles lois avec de la formation.
  211. Cette formation doit aussi être
    dispensée aux media.
  212. Les journalistes doivent être formés
    au phénomène des deepfakes,
  213. pour qu'ils ne relaient pas,
    ni ne les amplifient.
  214. Et c'est là où nous sommes tous concernés.
  215. Chacun d'entre nous doit être formé.
  216. On clique, on partage, on like
    sans même y réfléchir.
  217. Nous devons nous améliorer.
  218. Nous avons besoin
    de meilleurs radars contre les faux.
  219. Et pendant que nous
    essayerons d'y voir clair,
  220. il y aura encore
    beaucoup de souffrance générée.
  221. Rana Ayyub se bat toujours
    contre les conséquences du deepfake.
  222. Elle ne se sent toujours
    pas libre de s'exprimer -
  223. en ligne et dans la vraie vie.
  224. Elle m'a dit
  225. qu'elle avait toujours l'impression
    que des milliers d'yeux la voyaient nue,
  226. même si, intellectuellement,
    elle sait que ce n'était pas son corps.
  227. Elle a souvent des crises de panique,
  228. surtout quand quelqu'un qu'elle ne
    connaît pas essaie de la prendre en photo.
  229. « Est-ce qu'ils vont en faire
    un autre deepfake ? » se demande-t-elle.
  230. Et donc, pour le bien
    de personnes comme Rana Ayyub,
  231. et pour le bien de nos démocraties,
  232. nous devons agir maintenant.
  233. Merci.
  234. (Applaudissements)