1 00:00:01,468 --> 00:00:06,690 Le 23 avril 2013, 2 00:00:06,714 --> 00:00:12,228 l'Associated Press a publié le tweet suivant sur Twitter. 3 00:00:12,252 --> 00:00:14,649 Il disait : « Flash info : 4 00:00:14,673 --> 00:00:17,244 deux explosions à la Maison-Blanche 5 00:00:17,268 --> 00:00:19,601 et Barack Obama a été blessé. » 6 00:00:20,212 --> 00:00:25,637 Ce tweet a été retweeté 4 000 fois en moins de cinq minutes 7 00:00:25,661 --> 00:00:27,878 et est ensuite devenu viral. 8 00:00:28,760 --> 00:00:33,110 Ce tweet n'était pas une vraie info publiée par l'Associated Press. 9 00:00:33,134 --> 00:00:36,467 C'était une fausse info, ou une infox, 10 00:00:36,491 --> 00:00:39,316 qui a été propagée par des pirates syriens 11 00:00:39,340 --> 00:00:44,034 qui avaient piraté le compte de l'Associated Press sur Twitter. 12 00:00:44,407 --> 00:00:46,450 Leur objectif était de perturber la société, 13 00:00:46,450 --> 00:00:48,420 mais ils ont perturbé bien plus que cela. 14 00:00:48,420 --> 00:00:50,796 Car les algorithmes automatisés de trading 15 00:00:50,820 --> 00:00:54,180 ont immédiatement saisi le sentiment de ce tweet 16 00:00:54,204 --> 00:00:57,226 et ont commencé à faire des opérations basées sur la possibilité 17 00:00:57,226 --> 00:01:00,577 que le président des États-Unis ait été blessé ou tué 18 00:01:00,601 --> 00:01:01,801 dans une explosion. 19 00:01:02,188 --> 00:01:04,180 Alors qu'ils ont commencé à tweeter, 20 00:01:04,204 --> 00:01:07,553 ils ont immédiatement causé l’écroulement du cours de la bourse, 21 00:01:07,577 --> 00:01:12,744 anéantissant 140 milliards de dollars de valeur de fonds propres en un jour. 22 00:01:13,062 --> 00:01:17,538 Robert Mueller, procureur spécial aux États-Unis, 23 00:01:17,562 --> 00:01:21,454 a prononcé des chefs d'accusation contre trois entreprises russes 24 00:01:21,478 --> 00:01:24,097 et 13 ressortissants russes 25 00:01:24,121 --> 00:01:27,288 au sujet d'un complot pour escroquer les États-Unis 26 00:01:27,312 --> 00:01:31,092 via une ingérence durant les élections présidentielles de 2016. 27 00:01:31,855 --> 00:01:35,419 L'histoire que raconte ce chef d'accusation 28 00:01:35,443 --> 00:01:38,585 est celle de l'Internet Research Agency, 29 00:01:38,609 --> 00:01:42,203 le bras armé du Kremlin sur les réseaux sociaux. 30 00:01:42,815 --> 00:01:45,592 Durant les élections présidentielles uniquement, 31 00:01:45,616 --> 00:01:47,505 les efforts de l'Internet Agency 32 00:01:47,529 --> 00:01:52,696 ont touché 126 millions de personnes sur Facebook aux États-Unis, 33 00:01:52,720 --> 00:01:55,997 ont publié trois millions de tweets 34 00:01:56,021 --> 00:01:59,863 et 43 heures de contenu sur YouTube. 35 00:01:59,887 --> 00:02:01,539 Tout cela était faux -- 36 00:02:01,563 --> 00:02:05,152 de la désinformation conçue pour semer la discorde 37 00:02:05,152 --> 00:02:07,941 au sein des élections présidentielles américaines. 38 00:02:08,996 --> 00:02:11,646 Une étude récente de l'université d'Oxford 39 00:02:11,670 --> 00:02:14,940 a montré que durant les récentes élections suédoises, 40 00:02:14,964 --> 00:02:19,339 un tiers de toutes les informations se propageant sur les réseaux sociaux 41 00:02:19,363 --> 00:02:20,561 au sujet des élections 42 00:02:20,585 --> 00:02:22,672 étaient fausses ou de la désinformation. 43 00:02:23,037 --> 00:02:28,115 De plus, ce genre de campagne de désinformation sur les réseaux sociaux 44 00:02:28,139 --> 00:02:32,290 peut propager ce qu’on en est venu à appeler de la « propagande génocidaire », 45 00:02:32,314 --> 00:02:35,425 par exemple contre les Rohingyas en Birmanie, 46 00:02:35,449 --> 00:02:37,752 ou entraînant des massacres collectifs en Inde. 47 00:02:37,776 --> 00:02:39,270 Nous avons étudié l'infox 48 00:02:39,294 --> 00:02:42,773 et avons commencé à l'étudier avant que ce ne soit un terme populaire. 49 00:02:43,030 --> 00:02:48,070 Nous avons récemment publié la plus longue étude longitudinale qui soit 50 00:02:48,094 --> 00:02:50,380 sur la propagation de l'infox en ligne 51 00:02:50,404 --> 00:02:53,608 en couverture de « Science » en mars cette année. 52 00:02:54,523 --> 00:02:58,684 Nous avons étudié toutes les infos confirmées comme étant vraies ou fausses 53 00:02:58,708 --> 00:03:00,461 qui se sont propagées sur Twitter, 54 00:03:00,485 --> 00:03:04,303 depuis son lancement en 2006 jusqu'à 2017. 55 00:03:04,612 --> 00:03:06,926 Quand nous avons étudié ces informations, 56 00:03:06,950 --> 00:03:09,826 nous avons étudié des informations 57 00:03:09,850 --> 00:03:11,272 qui avaient été vérifiées 58 00:03:11,272 --> 00:03:13,792 par six organisations de vérification indépendantes. 59 00:03:13,792 --> 00:03:16,554 Nous savions donc quelles informations étaient vraies 60 00:03:16,578 --> 00:03:18,704 et quelles informations étaient fausses. 61 00:03:18,728 --> 00:03:20,601 Nous pouvons mesurer leur diffusion, 62 00:03:20,625 --> 00:03:22,276 la vitesse de leur diffusion, 63 00:03:22,300 --> 00:03:24,395 la portée et l'ampleur de leur diffusion, 64 00:03:24,419 --> 00:03:28,561 combien de gens se sont empêtrés dans cette cascade d'informations, etc. 65 00:03:28,942 --> 00:03:30,426 Dans cette publication, 66 00:03:30,450 --> 00:03:34,315 nous avons comparé la propagation d'informations vraies et d'infox. 67 00:03:34,339 --> 00:03:36,022 Voici ce que nous avons découvert. 68 00:03:36,046 --> 00:03:37,029 Nous avons découvert 69 00:03:37,029 --> 00:03:40,049 que l'infox se diffusait plus loin, plus vite, plus profondément 70 00:03:40,049 --> 00:03:41,855 et plus largement que la vérité 71 00:03:41,879 --> 00:03:45,026 dans chacune des catégories d'informations que nous avons étudiées, 72 00:03:45,026 --> 00:03:47,405 la différence étant parfois d'un ordre de grandeur. 73 00:03:47,842 --> 00:03:51,366 Les infox politiques étaient les plus virales. 74 00:03:51,390 --> 00:03:54,537 Elles se diffusaient plus loin, vite, profondément et largement 75 00:03:54,561 --> 00:03:57,363 que n'importe quel autre type d'infox. 76 00:03:57,387 --> 00:03:58,680 Quand nous avons vu cela, 77 00:03:58,704 --> 00:04:01,545 nous étions à la fois inquiets mais aussi curieux. 78 00:04:01,569 --> 00:04:02,720 Pourquoi ? 79 00:04:02,744 --> 00:04:06,271 Pourquoi est-ce que l'infox circule tellement plus loin, vite, profondément 80 00:04:06,271 --> 00:04:08,005 et largement que la vérité ? 81 00:04:08,339 --> 00:04:11,300 Notre première hypothèse était : 82 00:04:11,324 --> 00:04:13,550 « Peut-être que les gens diffusant de l'infox 83 00:04:13,550 --> 00:04:16,140 ont plus de suiveurs ou suivent plus de monde, 84 00:04:16,140 --> 00:04:17,557 tweetent plus souvent, 85 00:04:17,557 --> 00:04:20,981 peut-être sont-ils plus souvent des utilisateurs « vérifiés » de Twitter, 86 00:04:20,981 --> 00:04:22,201 avec plus de crédibilité, 87 00:04:22,201 --> 00:04:24,167 ou sont-ils là depuis plus longtemps. » 88 00:04:24,167 --> 00:04:26,375 Nous avons vérifié chacune de ces hypothèses. 89 00:04:26,691 --> 00:04:29,611 Nous avons découvert exactement le contraire. 90 00:04:29,635 --> 00:04:32,071 Les diffuseurs d'infox avaient moins de suiveurs, 91 00:04:32,095 --> 00:04:34,349 suivaient moins de gens, étaient moins actifs, 92 00:04:34,373 --> 00:04:35,833 moins souvent « vérifiés » 93 00:04:35,857 --> 00:04:38,817 et étaient sur Twitter depuis moins longtemps. 94 00:04:38,841 --> 00:04:40,030 Et pourtant, 95 00:04:40,054 --> 00:04:42,945 les infox avaient 70% de probabilités de plus 96 00:04:42,945 --> 00:04:45,111 d'être retweetées par rapport à la vérité, 97 00:04:45,111 --> 00:04:48,474 en contrôlant ces facteurs et de nombreux autres. 98 00:04:48,498 --> 00:04:51,188 Nous devions trouver d'autres explications. 99 00:04:51,212 --> 00:04:52,258 Nous avons formulé 100 00:04:52,258 --> 00:04:55,038 ce que nous avons appelé « l'hypothèse de la nouveauté ». 101 00:04:55,038 --> 00:04:56,998 Si vous lisez la littérature, 102 00:04:57,022 --> 00:05:00,776 il est bien connu que l'attention humaine est attirée par la nouveauté, 103 00:05:00,800 --> 00:05:03,319 les choses nouvelles dans l'environnement. 104 00:05:03,343 --> 00:05:05,352 Si vous lisez la littérature sociologique, 105 00:05:05,352 --> 00:05:09,652 vous savez que nous aimons partager des informations nouvelles. 106 00:05:09,676 --> 00:05:13,514 Cela nous donne l'impression d'avoir un accès privilégié à des informations 107 00:05:13,538 --> 00:05:17,323 et nous gagnons en statut en diffusant ce genre d'informations. 108 00:05:17,792 --> 00:05:24,244 Nous avons alors mesuré la nouveauté d'un tweet, qu'il soit vrai ou faux, 109 00:05:24,268 --> 00:05:28,323 l'avons comparé au corpus de ce que l'individu avait vu 110 00:05:28,347 --> 00:05:31,299 sur Twitter les 60 derniers jours. 111 00:05:31,323 --> 00:05:33,982 Mais cela ne suffisait pas car nous avons pensé : 112 00:05:34,006 --> 00:05:36,848 « Peut-être que l'infox représente plus de nouveauté 113 00:05:36,848 --> 00:05:38,238 dans un sens théorique, 114 00:05:38,238 --> 00:05:41,496 mais peut-être que les gens n'y perçoivent pas plus de nouveauté. » 115 00:05:41,849 --> 00:05:45,776 Pour comprendre la perception que les gens avaient des infox, 116 00:05:45,800 --> 00:05:49,490 nous avons considéré l'information et le sentiment 117 00:05:49,514 --> 00:05:53,720 que les réponses des tweets vrais et faux incluaient. 118 00:05:54,022 --> 00:05:55,228 Nous avons découvert 119 00:05:55,252 --> 00:05:59,466 que parmi tout un tas de mesures différentes des sentiments -- 120 00:05:59,490 --> 00:06:02,791 la surprise, le dégoût, la peur, la tristesse, 121 00:06:02,815 --> 00:06:05,299 l'anticipation, la joie et la confiance -- 122 00:06:05,323 --> 00:06:11,180 les infox présentaient notablement plus de surprise et de dégoût 123 00:06:11,204 --> 00:06:14,010 dans les réponses aux tweets. 124 00:06:14,392 --> 00:06:18,181 Les informations avérées présentaient notablement plus d'anticipation, 125 00:06:18,205 --> 00:06:19,752 de joie et de confiance 126 00:06:19,776 --> 00:06:22,323 dans les réponses aux tweets. 127 00:06:22,347 --> 00:06:26,133 La surprise corrobore notre hypothèse de la nouveauté. 128 00:06:26,157 --> 00:06:28,342 C'est nouveau et surprenant, 129 00:06:28,342 --> 00:06:31,092 nous allons donc plus probablement le partager. 130 00:06:31,092 --> 00:06:34,017 En même temps, il y avait un témoignage au Congrès, 131 00:06:34,041 --> 00:06:37,077 devant les deux chambres du Congrès des États-Unis, 132 00:06:37,101 --> 00:06:40,839 considérant le rôle des robots dans la diffusion de la désinformation. 133 00:06:40,863 --> 00:06:42,217 Nous l'avons envisagé -- 134 00:06:42,241 --> 00:06:43,193 nous avons utilisé 135 00:06:43,193 --> 00:06:46,033 de multiples algorithmes sophistiqués de détection de robots 136 00:06:46,033 --> 00:06:48,937 pour trouver les robots dans nos données et les en extraire. 137 00:06:49,347 --> 00:06:52,006 Nous les en avons extraits, les avons inclus à nouveau 138 00:06:52,030 --> 00:06:55,149 et avons comparé ce qu'il arrivait à nos mesures. 139 00:06:55,173 --> 00:06:57,466 Nous avons découvert que oui, en effet, 140 00:06:57,490 --> 00:07:01,172 les robots accéléraient la diffusion d'infox en ligne, 141 00:07:01,196 --> 00:07:03,871 mais ils accéléraient la diffusion d'informations avérées 142 00:07:03,871 --> 00:07:06,276 approximativement au même rythme. 143 00:07:06,300 --> 00:07:09,158 Ce que signifie que les robots ne sont pas responsables 144 00:07:09,182 --> 00:07:13,895 pour l'écart dans la diffusion de la vérité et de la fausseté en ligne. 145 00:07:13,919 --> 00:07:16,768 Nous ne pouvons pas refuser cette responsabilité 146 00:07:16,792 --> 00:07:21,051 car nous, êtres humains, sommes responsables de cette diffusion. 147 00:07:22,472 --> 00:07:25,806 Tout ce que je vous ai dit jusqu'ici, 148 00:07:25,830 --> 00:07:27,584 malheureusement pour nous tous, 149 00:07:27,608 --> 00:07:29,489 ce sont les bonnes nouvelles. 150 00:07:30,670 --> 00:07:35,120 La raison en est que cela va bientôt devenir bien pire. 151 00:07:35,850 --> 00:07:39,532 Deux technologies en particulier vont rendre cela bien pire. 152 00:07:40,207 --> 00:07:45,379 Nous allons voir la montée d'une énorme vague de média synthétiques : 153 00:07:45,403 --> 00:07:51,434 de fausses vidéos, de faux enregistrements très convaincants pour l’œil humain. 154 00:07:51,458 --> 00:07:54,212 Cela sera propulsé par deux technologies. 155 00:07:54,236 --> 00:07:58,069 La première est connue sous le nom de « réseaux adverses génératifs ». 156 00:07:58,093 --> 00:08:01,060 C'est un modèle d'apprentissage automatique avec deux réseaux : 157 00:08:01,060 --> 00:08:02,227 un discriminateur, 158 00:08:02,251 --> 00:08:06,451 dont le rôle est de déterminer si quelque chose est vrai ou faux, 159 00:08:06,475 --> 00:08:07,642 et un générateur, 160 00:08:07,666 --> 00:08:10,816 dont le rôle est de générer des médias synthétiques. 161 00:08:10,840 --> 00:08:15,942 Le générateur synthétique génère une vidéo ou un enregistrement audio synthétique 162 00:08:15,966 --> 00:08:20,641 et le discriminateur essaye de dire s'il est réel ou falsifié. 163 00:08:20,665 --> 00:08:23,539 La tâche du générateur 164 00:08:23,563 --> 00:08:27,998 consiste à maximiser la probabilité de faire croire au discriminateur 165 00:08:28,022 --> 00:08:33,359 que la vidéo et l'enregistrement audio qu'il crée sont réels. 166 00:08:33,387 --> 00:08:35,760 Imaginez une machine dans une boucle infinie 167 00:08:35,784 --> 00:08:38,587 et essayant d'améliorer sa capacité à nous tromper. 168 00:08:39,114 --> 00:08:41,614 Cela, en combinaison avec la deuxième technologie, 169 00:08:41,638 --> 00:08:47,360 qui est essentiellement la démocratisation de l'intelligence artificielle, 170 00:08:47,384 --> 00:08:49,573 la capacité offerte à tous, 171 00:08:49,597 --> 00:08:52,427 sans aucune formation en intelligence artificielle 172 00:08:52,427 --> 00:08:53,967 ou en apprentissage automatique, 173 00:08:53,967 --> 00:08:57,760 de déployer ce genre d'algorithmes pour générer des médias synthétiques 174 00:08:57,784 --> 00:09:02,331 rendant cela tellement plus simple de créer des vidéos. 175 00:09:02,355 --> 00:09:06,776 La Maison-Blanche a publié une vidéo falsifiée, truquée 176 00:09:06,800 --> 00:09:09,707 d'un journaliste interagissant avec une stagiaire 177 00:09:09,707 --> 00:09:11,427 et essayant de prendre son micro. 178 00:09:11,427 --> 00:09:13,426 Ils ont enlevé des images de cette vidéo 179 00:09:13,450 --> 00:09:16,737 afin que ces actes paraissent plus percutants. 180 00:09:17,157 --> 00:09:20,542 Quand des vidéastes, des cascadeurs et des cascadeuses 181 00:09:20,566 --> 00:09:22,993 ont été interrogés sur ce genre de technique, 182 00:09:23,017 --> 00:09:26,845 ils ont dit : « Oui, nous utilisons constamment cela dans les films 183 00:09:26,869 --> 00:09:31,632 pour que nos coups de poing et de pied paraissent plus musclés et agressifs. » 184 00:09:32,268 --> 00:09:34,135 Ils ont ensuite publié cette vidéo 185 00:09:34,159 --> 00:09:36,659 l'ont utilisée comme justification partielle 186 00:09:36,683 --> 00:09:40,682 pour révoquer la carte de presse de Jim Acosta, le journaliste, 187 00:09:40,706 --> 00:09:42,045 pour la Maison-Blanche. 188 00:09:42,069 --> 00:09:46,878 CNN a dû aller en justice pour faire rétablir cette carte de presse. 189 00:09:48,538 --> 00:09:51,109 Il y a environ cinq chemins différents 190 00:09:51,109 --> 00:09:54,165 que je peux imaginer et que nous pourrions suivre 191 00:09:54,165 --> 00:09:57,904 pour essayer de remédier à ces problèmes très difficiles. 192 00:09:58,379 --> 00:10:00,189 Chacun est prometteur 193 00:10:00,213 --> 00:10:03,212 mais chacun a des défis qui lui sont propres. 194 00:10:03,236 --> 00:10:05,244 Le premier est l'étiquetage. 195 00:10:05,268 --> 00:10:06,625 Réfléchissez-y : 196 00:10:06,649 --> 00:10:10,260 quand vous allez au supermarché pour acheter de la nourriture, 197 00:10:10,284 --> 00:10:12,188 elle est amplement étiquetée. 198 00:10:12,212 --> 00:10:14,318 Vous savez combien de calories elle contient, 199 00:10:14,318 --> 00:10:16,029 combien de graisses -- 200 00:10:16,053 --> 00:10:18,665 et pourtant, quand nous consommons des informations, 201 00:10:18,665 --> 00:10:20,355 nous n'avons pas d'étiquettes. 202 00:10:20,355 --> 00:10:22,283 Que contient cette information ? 203 00:10:22,307 --> 00:10:23,760 La source est-elle crédible ? 204 00:10:23,784 --> 00:10:26,101 Où cette information a-t-elle été recueillie ? 205 00:10:26,125 --> 00:10:28,034 Nous n'avons aucune de ces informations 206 00:10:28,034 --> 00:10:30,077 quand nous consommons des informations. 207 00:10:30,101 --> 00:10:33,339 C'est une solution potentielle, mais elle a ses défis. 208 00:10:33,363 --> 00:10:39,814 Par exemple, qui décide, dans la société, ce qui est vrai et ce qui est faux ? 209 00:10:40,387 --> 00:10:42,213 Est-ce que ce sont les gouvernements ? 210 00:10:42,213 --> 00:10:43,203 Est-ce Facebook ? 211 00:10:43,601 --> 00:10:47,363 Est-ce un consortium indépendant de vérificateurs d'informations ? 212 00:10:47,387 --> 00:10:50,003 Et qui contrôle ceux qui vérifient les informations ? 213 00:10:50,427 --> 00:10:53,511 Une autre option possible, ce sont les incitations. 214 00:10:53,535 --> 00:10:56,583 Nous savons que durant les élections présidentielles américaines, 215 00:10:56,583 --> 00:10:59,883 il y a eu une vague de désinformation venue de Macédoine du Nord 216 00:10:59,907 --> 00:11:02,244 qui n'avait aucun mobile politique 217 00:11:02,268 --> 00:11:04,728 mais avait un mobile économique. 218 00:11:04,752 --> 00:11:06,900 Ce mobile économique existait 219 00:11:06,924 --> 00:11:10,448 car l'infox circule tellement plus loin, plus vite 220 00:11:10,472 --> 00:11:12,482 et plus profondément que la vérité 221 00:11:12,506 --> 00:11:14,940 et vous pouvez gagner de l'argent dans la publicité 222 00:11:14,940 --> 00:11:17,490 alors que vous recueillez les regards et l'attention 223 00:11:17,490 --> 00:11:19,450 avec ce genre d'informations. 224 00:11:19,474 --> 00:11:23,307 Mais si nous pouvons réduire la diffusion de ces informations, 225 00:11:23,331 --> 00:11:28,938 peut-être cela réduirait-il l'incitation économique à les produire. 226 00:11:28,966 --> 00:11:31,680 Troisièmement, nous pouvons réfléchir à une réglementation 227 00:11:31,680 --> 00:11:33,815 et nous devrions réfléchir à cette option. 228 00:11:33,839 --> 00:11:35,450 Actuellement aux États-Unis, 229 00:11:35,474 --> 00:11:38,166 nous explorons ce qu'il pourrait se passer 230 00:11:38,166 --> 00:11:40,346 si Facebook et les autres étaient réglementés. 231 00:11:40,346 --> 00:11:44,147 Si nous devrions considérer des choses comme réglementer le discours politique, 232 00:11:44,171 --> 00:11:46,679 l'étiqueter comme étant du discours politique, 233 00:11:46,703 --> 00:11:48,596 nous assurer que les acteurs étrangers 234 00:11:48,596 --> 00:11:50,786 ne puissent pas financer un discours politique, 235 00:11:50,786 --> 00:11:53,093 cela a aussi ses dangers. 236 00:11:53,522 --> 00:11:58,400 Par exemple, la Malaisie vient d'instituer une peine de prison de six ans 237 00:11:58,424 --> 00:12:01,158 pour quiconque diffusant de la désinformation. 238 00:12:01,696 --> 00:12:03,775 Dans les régimes autoritaires, 239 00:12:03,799 --> 00:12:06,169 ce genre de politiques peuvent être utilisées 240 00:12:06,169 --> 00:12:08,489 pour étouffer les opinions minoritaires 241 00:12:08,489 --> 00:12:11,997 et continuer à accroître la répression. 242 00:12:12,680 --> 00:12:16,223 La quatrième option possible est la transparence. 243 00:12:16,843 --> 00:12:20,557 Nous voulons savoir comment fonctionnent les algorithmes de Facebook. 244 00:12:20,581 --> 00:12:23,461 Comment les données se combinent-elles aux algorithmes 245 00:12:23,485 --> 00:12:26,323 pour générer les résultats que nous observons ? 246 00:12:26,347 --> 00:12:28,696 Nous voulons qu'ils ouvrent le kimono 247 00:12:28,720 --> 00:12:32,934 et nous montrent les rouages internes du fonctionnement de Facebook. 248 00:12:32,934 --> 00:12:35,801 Pour connaître les effets des réseaux sociaux sur la société, 249 00:12:35,801 --> 00:12:37,931 il faut que les scientifiques, les chercheurs 250 00:12:37,931 --> 00:12:41,014 et les autres aient accès à ce genre d'informations. 251 00:12:41,038 --> 00:12:42,585 Mais en même temps, 252 00:12:42,609 --> 00:12:46,410 nous demandons à Facebook de tout verrouiller 253 00:12:46,434 --> 00:12:48,607 pour assurer la sécurité des données. 254 00:12:48,631 --> 00:12:51,790 Facebook et les autres plateformes de réseaux sociaux 255 00:12:51,814 --> 00:12:54,948 font face à ce que j'appelle un paradoxe de la transparence. 256 00:12:55,266 --> 00:12:57,940 Nous leur demandons à la fois 257 00:12:57,964 --> 00:13:02,773 d'être ouverts et transparents et, simultanément, d'être sécurisés. 258 00:13:02,797 --> 00:13:05,488 Cela est difficile à accomplir, 259 00:13:05,512 --> 00:13:07,425 mais ils devront le faire 260 00:13:07,449 --> 00:13:08,590 si nous voulons 261 00:13:08,590 --> 00:13:11,260 que les technologies sociales tiennent leurs promesses 262 00:13:11,260 --> 00:13:12,902 tout en évitant les risques. 263 00:13:12,926 --> 00:13:15,341 Pour finir, nous pourrions réfléchir 264 00:13:15,341 --> 00:13:17,641 aux algorithmes et à l'apprentissage automatique. 265 00:13:17,641 --> 00:13:22,918 Une technologie conçue pour éradiquer et comprendre l'infox, sa diffusion, 266 00:13:22,942 --> 00:13:25,273 et essayer d'atténuer sa circulation. 267 00:13:25,824 --> 00:13:28,745 Les êtres humains doivent jouer un rôle dans cette technologie 268 00:13:28,745 --> 00:13:31,023 car nous ne pourrons jamais échapper au fait 269 00:13:31,047 --> 00:13:35,085 que pour toute solution ou approche technologie, 270 00:13:35,109 --> 00:13:39,156 il y a une question éthique et philosophique fondamentale 271 00:13:39,180 --> 00:13:42,450 quant à notre définition du vrai et du faux, 272 00:13:42,474 --> 00:13:45,654 à qui nous donnons le pouvoir de définir le vrai et le faux 273 00:13:45,678 --> 00:13:48,138 et quelles opinions sont légitimes, 274 00:13:48,162 --> 00:13:51,952 une rapidité de quel ordre de grandeur devrait être autorisée et ainsi de suite. 275 00:13:51,952 --> 00:13:54,220 La technologie n'est pas la solution. 276 00:13:54,244 --> 00:13:57,942 L'éthique et la philosophie le sont. 277 00:13:58,950 --> 00:14:02,268 Presque toutes les théories sur la prise de décision humaine, 278 00:14:02,292 --> 00:14:05,053 la coopération humaine et la coordination humaine 279 00:14:05,077 --> 00:14:08,751 ont une part de vérité en elles. 280 00:14:09,347 --> 00:14:11,403 Mais avec l'essor des infox, 281 00:14:11,427 --> 00:14:12,870 l'essor des vidéos truquées, 282 00:14:12,894 --> 00:14:14,900 l'essor des enregistrements audios truqués, 283 00:14:14,900 --> 00:14:18,724 nous vacillons au bord de la fin de la réalité, 284 00:14:18,748 --> 00:14:22,637 où nous ne pouvons pas discerner ce qui est réel et ce qui est faux. 285 00:14:22,661 --> 00:14:25,700 Cela est potentiellement incroyablement dangereux. 286 00:14:26,931 --> 00:14:30,879 Nous devons être vigilants dans la défense de la vérité 287 00:14:30,903 --> 00:14:32,437 face à la désinformation. 288 00:14:32,919 --> 00:14:36,355 Avec nos technologies, avec nos politiques 289 00:14:36,379 --> 00:14:38,299 et, peut-être surtout, individuellement, 290 00:14:38,323 --> 00:14:41,537 avec nos responsabilités, nos décisions, 291 00:14:41,561 --> 00:14:45,116 nos comportements et nos actions. 292 00:14:45,553 --> 00:14:46,990 Merci beaucoup. 293 00:14:47,014 --> 00:14:50,531 (Applaudissements)