1 00:00:01,548 --> 00:00:04,064 Peu importe qui vous êtes ou où vous habitez, 2 00:00:04,064 --> 00:00:06,480 je suis convaincue que vous avez au moins un parent 3 00:00:06,480 --> 00:00:08,802 qui adore transférer ces courriels. 4 00:00:09,206 --> 00:00:11,106 Vous savez de quoi je parle, 5 00:00:11,106 --> 00:00:14,330 ceux avec des affirmations douteuses ou des vidéos de conspiration. 6 00:00:14,330 --> 00:00:16,983 Vous les avez sans doute bloqués sur Facebook 7 00:00:17,007 --> 00:00:19,355 parce qu'ils partagent ce genre de posts. 8 00:00:19,355 --> 00:00:20,939 C'est l'illustration d'une banane 9 00:00:20,939 --> 00:00:23,474 avec une étrange croix rouge en son cœur. 10 00:00:23,498 --> 00:00:25,637 Le message avertit le lecteur 11 00:00:25,661 --> 00:00:27,819 d'éviter de manger un fruit pareil 12 00:00:27,843 --> 00:00:29,871 car on y aurait injecté du sang 13 00:00:29,895 --> 00:00:32,025 contaminé par le virus du VIH. 14 00:00:32,049 --> 00:00:34,652 L'intitulé du message est simplement : 15 00:00:34,676 --> 00:00:36,857 « Transférez pour sauver des vies ! » 16 00:00:37,672 --> 00:00:40,966 Les vérificateurs de faits tentent de le désamorcer depuis des années 17 00:00:40,966 --> 00:00:43,823 mais c'est le genre de rumeurs qui ne veulent pas s'éteindre. 18 00:00:43,823 --> 00:00:45,094 Une rumeur zombie. 19 00:00:45,513 --> 00:00:47,606 Naturellement, totalement fausse. 20 00:00:48,180 --> 00:00:51,139 Cela pourrait être risible et on pourrait se demander 21 00:00:51,163 --> 00:00:53,047 qui va bien pouvoir croire ça. 22 00:00:53,419 --> 00:00:55,135 C'est précisément une rumeur zombie 23 00:00:55,135 --> 00:00:58,958 car elle se nourrit des peurs les plus profondes des gens quant à leur sécurité 24 00:00:58,982 --> 00:01:01,157 et celles des personnes qui leur sont chères. 25 00:01:01,783 --> 00:01:05,056 Quand on passe autant de temps que moi à étudier la désinformation, 26 00:01:05,056 --> 00:01:07,996 on comprend vite qu'il s'agit d'un exemple parmi tant d'autres 27 00:01:07,996 --> 00:01:10,571 qui fait appel aux craintes et vulnérabilités des gens. 28 00:01:11,214 --> 00:01:15,583 Tous les jours, partout dans le monde, des nouveaux mèmes sur Instagram 29 00:01:15,607 --> 00:01:18,646 encouragent les parents à ne pas vacciner leurs enfants, 30 00:01:18,670 --> 00:01:23,202 des vidéos sur YouTube expliquent que le changement climatique est un hoax. 31 00:01:23,226 --> 00:01:27,528 Sur toutes les plateformes, un nombre infini de messages diabolisent l'autre 32 00:01:27,552 --> 00:01:31,053 sur base de leur race, de leur religion ou de leur orientation sexuelle. 33 00:01:32,314 --> 00:01:35,344 Bienvenue au cœur d'un des plus grands défis de notre temps. 34 00:01:35,647 --> 00:01:39,672 Comment perpétuer un Internet fondé sur la liberté d'expression 35 00:01:39,696 --> 00:01:42,999 tout en garantissant que le contenu qui y est propagé 36 00:01:43,023 --> 00:01:46,909 ne cause pas de préjudice irréversible à nos démocraties, à nos communautés 37 00:01:46,933 --> 00:01:49,171 et à notre bien-être physique et mental ? 38 00:01:49,998 --> 00:01:52,265 Nous vivons en effet dans l'ère de l'information 39 00:01:52,265 --> 00:01:55,926 et pourtant notre devise principale, celle dont on dépend tous, l'information, 40 00:01:55,926 --> 00:01:58,037 n'est plus considérée totalement fiable 41 00:01:58,061 --> 00:02:00,389 et semble parfois même franchement dangereuse. 42 00:02:00,811 --> 00:02:04,748 C'est partiellement dû à la croissance monstrueuse des plateformes sociales 43 00:02:04,772 --> 00:02:06,414 qui nous permettent de parcourir 44 00:02:06,414 --> 00:02:08,986 contenus mensongers et des faits l'un à côté de l'autre 45 00:02:08,986 --> 00:02:11,755 mais sans les signaux traditionnels de véracité. 46 00:02:12,268 --> 00:02:15,887 Et bon dieu, notre langage à ce sujet est affreusement confus. 47 00:02:15,911 --> 00:02:19,014 On est encore obsédé par le terme « intox », 48 00:02:19,038 --> 00:02:21,569 même s'il est particulièrement obscur 49 00:02:21,593 --> 00:02:25,053 et utilisé pour décrire des phénomènes très différents : 50 00:02:25,077 --> 00:02:28,463 mensonges, rumeurs, hoax, conspirations et propagande. 51 00:02:28,911 --> 00:02:31,823 Je souhaite tant qu'on cesse d'utiliser cette expression 52 00:02:31,847 --> 00:02:34,709 adoptée par les politiciens partout dans le monde, 53 00:02:34,733 --> 00:02:36,204 de gauche comme de droite, 54 00:02:36,228 --> 00:02:39,450 et brandie comme une arme contre une presse libre et indépendante. 55 00:02:40,307 --> 00:02:45,009 (Applaudissements) 56 00:02:45,033 --> 00:02:48,495 Car un journalisme professionnel est plus que jamais indispensable. 57 00:02:48,882 --> 00:02:52,255 De plus, la plupart de ces contenus ne se déguisent même pas en info. 58 00:02:52,279 --> 00:02:54,921 Ce sont des mèmes, des vidéos et des posts sociaux. 59 00:02:54,945 --> 00:02:58,398 La plupart ne sont pas faux, ils sont trompeurs. 60 00:02:58,422 --> 00:03:01,437 On a tendance à se concentrer sur ce qui est vrai ou faux. 61 00:03:01,461 --> 00:03:05,493 Toutefois, la préoccupation principale est le détournement abusif du contexte. 62 00:03:06,855 --> 00:03:08,823 Car la désinformation la plus efficace 63 00:03:08,847 --> 00:03:11,895 contient toujours une part de vérité. 64 00:03:11,919 --> 00:03:13,969 Prenons l'exemple de Londres. 65 00:03:13,969 --> 00:03:16,959 Un tweet circule largement depuis mars 2017, 66 00:03:16,983 --> 00:03:20,570 juste après l'attentat terroriste sur le pont de Westminster. 67 00:03:20,594 --> 00:03:23,022 Cette photo est vraie, ce n'est pas un montage. 68 00:03:23,046 --> 00:03:26,215 On a interviewé la femme qui apparaît sur la photo par la suite 69 00:03:26,239 --> 00:03:28,648 et elle a expliqué qu'elle était tétanisée de peur. 70 00:03:28,672 --> 00:03:30,410 Elle parlait à une personne chère 71 00:03:30,434 --> 00:03:33,052 et détournait le regard de la victime par respect. 72 00:03:33,076 --> 00:03:37,036 Mais la photo a circulé largement avec un titre islamophobe 73 00:03:37,060 --> 00:03:40,106 et de multiples hashtags dont : #BanIslam. 74 00:03:40,425 --> 00:03:43,203 Si vous étiez employé par Twitter, comment réagiriez-vous ? 75 00:03:43,203 --> 00:03:45,609 Vous le supprimeriez ou le laisseriez ? 76 00:03:46,553 --> 00:03:49,982 Ma réaction viscérale et émotionnelle serait de le supprimer. 77 00:03:50,006 --> 00:03:52,148 Je déteste le choix de l'angle. 78 00:03:52,585 --> 00:03:55,103 Mais la liberté d'expression est un droit de l'homme. 79 00:03:55,103 --> 00:03:58,402 Et si on commence à censurer les propos qui nous mettent mal à l'aise, 80 00:03:58,402 --> 00:03:59,826 c'est le début des problèmes. 81 00:03:59,826 --> 00:04:01,794 Ce cas semble évident 82 00:04:01,818 --> 00:04:03,516 mais la plupart ne le sont pas. 83 00:04:03,540 --> 00:04:05,976 La ligne de démarcation est floue. 84 00:04:06,000 --> 00:04:08,421 Qu'est-ce qui sépare une décision bien intentionnée 85 00:04:08,421 --> 00:04:10,382 de la censure ? 86 00:04:10,759 --> 00:04:13,688 Nous savons à présent que ce compte, Texas Lone Star, 87 00:04:13,712 --> 00:04:16,942 faisait partie d'une campagne russe de désinformation 88 00:04:16,966 --> 00:04:19,117 qui a été démantelée depuis lors. 89 00:04:19,141 --> 00:04:20,704 Cela change-t-il votre opinion ? 90 00:04:21,322 --> 00:04:22,601 Ça influencerait la mienne 91 00:04:22,601 --> 00:04:24,806 car il s'agit d'une campagne orchestrée 92 00:04:24,830 --> 00:04:26,045 pour semer la zizanie. 93 00:04:26,069 --> 00:04:28,030 Et pour ceux et celles qui pensent 94 00:04:28,030 --> 00:04:30,991 que l'intelligence artificielle va résoudre tous nos problèmes, 95 00:04:30,991 --> 00:04:32,914 Nous sommes tous d'accord pour dire 96 00:04:32,914 --> 00:04:36,251 que le temps où l'IA pourra comprendre ça n'est pas encore venu. 97 00:04:36,856 --> 00:04:39,633 Je vais d'abord vous présenter trois enjeux entrelacés 98 00:04:39,633 --> 00:04:41,760 qui rendent tout ça si compliqué. 99 00:04:41,760 --> 00:04:45,152 Ensuite, je vous proposerai quelques manières de réfléchir à ces défis. 100 00:04:45,348 --> 00:04:49,238 D'abord, notre relation à l'information n'est pas rationnelle, 101 00:04:49,262 --> 00:04:50,730 elle est émotionnelle. 102 00:04:50,754 --> 00:04:54,548 Il n'est pas vrai que davantage de faits vont amender les choses 103 00:04:54,572 --> 00:04:57,672 car les algorithmes déterminent ce que nous voyons, 104 00:04:57,696 --> 00:05:00,823 ils sont conçus pour récompenser nos réactions émotionnelles. 105 00:05:00,847 --> 00:05:02,228 Or, quand on a peur, 106 00:05:02,252 --> 00:05:05,426 les narrations simplifiées à outrance, les théories de conspiration 107 00:05:05,450 --> 00:05:08,868 et les termes qui diabolisent l'autre sont encore plus efficaces. 108 00:05:09,538 --> 00:05:12,352 De surcroît, le modèle de fonctionnement de ces plateformes 109 00:05:12,352 --> 00:05:13,982 est basé sur l'attention. 110 00:05:14,006 --> 00:05:17,696 Ça signifie que leurs algorithmes sont conçus pour favoriser l'émotion. 111 00:05:18,371 --> 00:05:22,669 Ensuite, la plupart des discours que j'évoque sont légaux. 112 00:05:23,081 --> 00:05:24,527 La situation serait différente 113 00:05:24,551 --> 00:05:26,892 si on parlait d'images de pédophilie 114 00:05:26,916 --> 00:05:28,843 ou de contenu incitant à la violence. 115 00:05:28,867 --> 00:05:32,137 Il est parfaitement légal de poster un mensonge patent. 116 00:05:33,130 --> 00:05:37,164 Toutefois, on continue de censurer les contenus problématiques ou nuisibles 117 00:05:37,188 --> 00:05:39,797 sans définition claire de ce que ça signifie. 118 00:05:39,797 --> 00:05:41,361 Mark Zuckerberg n'y échappe pas 119 00:05:41,361 --> 00:05:44,651 quand il plaide en faveur d'une réglementation mondiale des discours. 120 00:05:44,870 --> 00:05:47,085 Je crains que les gouvernements 121 00:05:47,109 --> 00:05:48,401 partout dans le monde 122 00:05:48,425 --> 00:05:51,101 mettent en place des décisions politiques précipitées 123 00:05:51,101 --> 00:05:54,311 qui pourraient en réalité générer des conséquences bien plus graves 124 00:05:54,311 --> 00:05:55,609 en matière d'expression. 125 00:05:56,006 --> 00:05:59,712 Même si nous pouvions décider quels contenus conserver ou éliminer, 126 00:05:59,736 --> 00:06:01,910 nous n'avons jamais eu tant de contenus. 127 00:06:01,934 --> 00:06:04,065 Chaque seconde, des millions de contenus 128 00:06:04,065 --> 00:06:06,222 sont téléchargés partout dans le monde, 129 00:06:06,222 --> 00:06:07,598 dans des langues différentes 130 00:06:07,598 --> 00:06:10,180 et basés sur des contextes culturels multiples. 131 00:06:10,204 --> 00:06:12,736 Nous n'avons aucun mécanisme efficace 132 00:06:12,736 --> 00:06:14,754 pour modérer les discours à cette échelle, 133 00:06:14,754 --> 00:06:17,323 que ce soit avec des humains ou de la technologie. 134 00:06:18,284 --> 00:06:22,228 Troisièmement, ces sociétés, Google, Twitter, Facebook, WhatsApp, 135 00:06:22,252 --> 00:06:25,093 font part d'un écosystème d'information plus vaste. 136 00:06:25,117 --> 00:06:28,469 On a tendance à leur faire porter le blâme mais en fait, 137 00:06:28,493 --> 00:06:32,323 les médias et les représentants politiques peuvent jouer un rôle aussi important 138 00:06:32,323 --> 00:06:35,496 pour amplifier les rumeurs et les conspirations qui les arrangent. 139 00:06:35,800 --> 00:06:40,744 Nous aussi, nous sommes susceptibles de diffuser du contenu trompeur 140 00:06:40,768 --> 00:06:42,053 sans le vouloir. 141 00:06:42,077 --> 00:06:43,877 On accentue la pollution. 142 00:06:45,236 --> 00:06:47,854 Nous cherchons tous un remède miracle. 143 00:06:47,878 --> 00:06:49,545 Mais ça n'existe pas. 144 00:06:49,950 --> 00:06:54,395 Toute solution devra être mise en place à une échelle massive, celle d'Internet, 145 00:06:54,419 --> 00:06:57,680 et les plateformes en fait, sont habituées à cette échelle. 146 00:06:57,704 --> 00:07:01,176 Mais pouvons-nous et devrions-nous les autoriser à gérer ces problèmes ? 147 00:07:01,668 --> 00:07:02,900 Certes, elles essaient. 148 00:07:02,924 --> 00:07:07,010 Nous sommes presque tous d'accord de ne pas souhaiter voir des multinationales 149 00:07:07,010 --> 00:07:09,932 devenir les gardiens de la vérité et de l'équité sur Internet. 150 00:07:09,932 --> 00:07:12,317 Les plateformes seront d'accord aussi, je crois. 151 00:07:12,317 --> 00:07:15,328 Actuellement, elles sont en train de s'accorder des bons points. 152 00:07:15,328 --> 00:07:16,360 Elles nous disent 153 00:07:16,384 --> 00:07:18,603 que leurs interventions sont efficaces. 154 00:07:18,603 --> 00:07:22,183 Mais elles rédigent elles-mêmes leurs rapports sur leur transparence. 155 00:07:22,183 --> 00:07:25,169 Il n'y a donc aucun moyen indépendant pour vérifier les faits. 156 00:07:26,431 --> 00:07:29,773 (Applaudissements) 157 00:07:29,773 --> 00:07:32,795 Pour être franche, la plupart des changements que nous observons 158 00:07:32,795 --> 00:07:35,767 ont lieu après une enquête journalistique 159 00:07:35,767 --> 00:07:37,468 et la mise à nu de preuves de biais 160 00:07:37,468 --> 00:07:40,569 ou de contenus qui enfreignent les règles de fonctionnement. 161 00:07:40,815 --> 00:07:45,410 Bien sûr, ces entreprises doivent jouer un rôle crucial dans le processus 162 00:07:45,410 --> 00:07:47,400 mais elles ne peuvent pas le contrôler. 163 00:07:47,855 --> 00:07:49,663 Qu'en est-il alors des gouvernements ? 164 00:07:49,863 --> 00:07:53,159 Beaucoup fondent leur dernier espoir dans une réglementation mondiale 165 00:07:53,159 --> 00:07:55,863 pour rendre notre écosystème propre. 166 00:07:55,887 --> 00:07:59,053 Mais les politiciens peinent à rester à jour 167 00:07:59,077 --> 00:08:01,418 avec la vélocité de l'évolution technologique. 168 00:08:01,442 --> 00:08:03,346 Pire, ils travaillent dans le noir 169 00:08:03,370 --> 00:08:05,191 car ils n'ont pas accès aux données 170 00:08:05,215 --> 00:08:07,865 pour comprendre ce qu'il se passe sur ces plateformes. 171 00:08:08,260 --> 00:08:11,331 Et puis, en quel gouvernement pourrions-nous faire confiance ? 172 00:08:11,355 --> 00:08:14,125 La réaction doit être mondiale et pas au niveau national. 173 00:08:15,419 --> 00:08:17,696 Le maillon manquant, c'est nous. 174 00:08:17,696 --> 00:08:21,149 Nous, femmes et hommes qui utilisons ces technologies tous les jours. 175 00:08:21,260 --> 00:08:23,801 Saurons-nous concevoir une nouvelle infrastructure 176 00:08:23,801 --> 00:08:26,371 pour véhiculer une information de qualité ? 177 00:08:26,371 --> 00:08:27,601 Je pense que oui. 178 00:08:27,625 --> 00:08:30,982 J'ai quelques idées pour y arriver. 179 00:08:31,006 --> 00:08:34,109 D'abord, si nous sommes déterminés à engager le public, 180 00:08:34,109 --> 00:08:36,520 Wikipedia pourrait être une source d'inspiration. 181 00:08:36,520 --> 00:08:38,482 Ils ont montré que c'est faisable. 182 00:08:38,482 --> 00:08:39,537 Ce n'est pas parfait 183 00:08:39,561 --> 00:08:42,195 mais ils ont démontré qu'avec les structures adéquates, 184 00:08:42,219 --> 00:08:44,854 une vision mondiale et une transparence totale, 185 00:08:44,854 --> 00:08:48,050 on peut construire quelque chose qui gagnera la confiance du public. 186 00:08:48,050 --> 00:08:51,160 Nous devons trouver un moyen de puiser dans la sagesse collective 187 00:08:51,184 --> 00:08:53,493 et l'expérience de tous les utilisateurs, 188 00:08:53,517 --> 00:08:56,163 particulièrement les femmes, les personnes de couleur 189 00:08:56,187 --> 00:08:57,533 et les minorités. 190 00:08:57,557 --> 00:08:58,483 Pourquoi ? 191 00:08:58,483 --> 00:09:01,482 Parce qu'ils sont spécialisés dans la haine et la désinformation 192 00:09:01,506 --> 00:09:05,022 dès lors qu'ils sont la cible de ces campagnes depuis si longtemps. 193 00:09:05,046 --> 00:09:07,396 Cela fait des années qu'ils sonnent l'alarme 194 00:09:07,420 --> 00:09:09,085 mais personne ne les écoute. 195 00:09:09,109 --> 00:09:10,389 Cela doit changer. 196 00:09:10,807 --> 00:09:15,133 Est-il possible de construire un Wikipedia de la confiance ? 197 00:09:15,157 --> 00:09:19,346 Comment les utilisateurs pourraient-ils nous nourrir de leurs idées ? 198 00:09:19,370 --> 00:09:23,067 Des idées au sujet des décisions complexes de la modération de contenu. 199 00:09:23,091 --> 00:09:27,636 Un retour quand les plateformes décident de mettre en œuvre des changements. 200 00:09:28,241 --> 00:09:32,403 Ensuite, l'expérience que les gens ont de l'information est personnalisée. 201 00:09:32,427 --> 00:09:35,070 Mon fil de Facebook est différent du vôtre. 202 00:09:35,094 --> 00:09:37,839 Vos recommandations Youtube sont différentes des miennes. 203 00:09:37,863 --> 00:09:40,355 Ceci rend impossible l'analyse en profondeur 204 00:09:40,379 --> 00:09:42,402 des informations vues par les gens. 205 00:09:42,815 --> 00:09:44,204 On pourrait imaginer 206 00:09:44,228 --> 00:09:49,006 de créer une sorte de répertoire ouvert pour les données anonymisées 207 00:09:49,030 --> 00:09:51,894 qui prenne en considération vie privée et éthique. 208 00:09:52,220 --> 00:09:54,052 Imaginez le potentiel de compréhension 209 00:09:54,052 --> 00:09:57,283 issu de la création d'un réseau mondial de citoyens engagés 210 00:09:57,307 --> 00:10:00,601 qui souhaitent faire don de leurs données sociales à la science. 211 00:10:01,141 --> 00:10:02,863 Nous ignorons en effet 212 00:10:02,863 --> 00:10:06,157 les conséquences à long terme de la haine et de la désinformation 213 00:10:06,157 --> 00:10:08,217 sur l'état d'esprit et les comportements. 214 00:10:08,236 --> 00:10:09,403 Et ce que nous en savons 215 00:10:09,427 --> 00:10:11,620 provient d'études réalisées aux États-Unis, 216 00:10:11,644 --> 00:10:14,025 alors que le problème est mondial. 217 00:10:14,049 --> 00:10:15,684 Nous devons aussi remédier à ça. 218 00:10:16,192 --> 00:10:17,342 Troisièmement, 219 00:10:17,366 --> 00:10:19,676 comment relier toutes les parties ? 220 00:10:19,700 --> 00:10:23,138 Aucun secteur seul, encore moins une ONG, une start-up ou un gouvernement 221 00:10:23,138 --> 00:10:24,560 ne pourra résoudre ça. 222 00:10:24,560 --> 00:10:27,196 Mais de nombreuses personnes intelligentes dans le monde 223 00:10:27,196 --> 00:10:29,667 s'attaquent à ces défis dans les salles de rédaction, 224 00:10:29,667 --> 00:10:32,831 la société civile, le monde académique, les communautés activistes. 225 00:10:32,831 --> 00:10:34,099 En voici quelques-uns. 226 00:10:34,099 --> 00:10:37,050 Certains élaborent des indicateurs de crédibilité des contenus. 227 00:10:37,050 --> 00:10:38,404 D'autres vérifient les faits 228 00:10:38,404 --> 00:10:42,219 pour dégrader le taux de référencement des allégations, vidéos et images fausses. 229 00:10:42,219 --> 00:10:44,656 J'ai participé à la création d'une ONG, First Draft, 230 00:10:44,656 --> 00:10:47,308 qui collabore avec des salles de rédaction dans le monde 231 00:10:47,308 --> 00:10:50,691 pour les aider à élaborer des programmes collaboratifs d'investigation. 232 00:10:51,231 --> 00:10:53,540 Dennis Hillis, un programmateur, 233 00:10:53,564 --> 00:10:55,835 conçoit un nouveau système appelé The Underlay, 234 00:10:55,835 --> 00:10:58,898 qui sera l'archive de toutes les déclarations publiques de faits 235 00:10:58,898 --> 00:11:01,859 reliées à leurs sources afin que le public et les algorithmes 236 00:11:01,859 --> 00:11:04,330 puissent mieux évaluer ce qui est crédible. 237 00:11:04,720 --> 00:11:08,156 Des éducateurs dans le monde testent diverses techniques 238 00:11:08,180 --> 00:11:11,664 pour aiguiser l'esprit critique des gens par rapport aux contenus. 239 00:11:12,633 --> 00:11:15,774 Tous ces efforts sont impressionnants mais ils sont dans des silos 240 00:11:15,798 --> 00:11:18,478 et la plupart sont lamentablement sous-financés. 241 00:11:18,502 --> 00:11:20,555 Des centaines de personnes brillantes 242 00:11:20,579 --> 00:11:22,231 travaillent dans ces entreprises 243 00:11:22,231 --> 00:11:24,684 mais à nouveau, leurs efforts ne sont pas consolidés 244 00:11:24,684 --> 00:11:28,541 car ils développent des solutions différentes aux mêmes problèmes. 245 00:11:29,205 --> 00:11:31,474 Comment associer ces personnes 246 00:11:31,498 --> 00:11:34,776 dans un seul lieu physique, pendant quelques jours ou semaines, 247 00:11:34,800 --> 00:11:37,520 pour leur permettre de réfléchir ensemble à ces problèmes 248 00:11:37,520 --> 00:11:39,222 mais avec leur propre perspective ? 249 00:11:39,222 --> 00:11:40,402 Est-ce possible ? 250 00:11:40,426 --> 00:11:43,665 Est-il possible de créer une réponse ambitieuse et coordonnée, 251 00:11:43,689 --> 00:11:47,398 à la hauteur de l'échelle et de la complexité de ce problème ? 252 00:11:47,819 --> 00:11:49,192 J'en suis convaincue. 253 00:11:49,216 --> 00:11:52,515 Ensemble, reconstruisons nos fondations communes de l'information. 254 00:11:52,819 --> 00:11:54,009 Merci. 255 00:11:54,033 --> 00:11:57,761 (Applaudissements)