1 00:00:00,360 --> 00:00:03,581 [Cette intervention contient du contenu réservé aux adultes] 2 00:00:04,913 --> 00:00:09,365 Moritz Riesewieck : Le 23 mars 2013, 3 00:00:09,389 --> 00:00:13,446 des utilisateurs du monde entier ont découvert dans leur fil d'actualités 4 00:00:13,470 --> 00:00:18,533 la vidéo d'une jeune fille se faisant violer par un homme plus âgé. 5 00:00:19,478 --> 00:00:23,334 Avant que cette vidéo ne soit retirée de Facebook, 6 00:00:23,358 --> 00:00:27,974 elle avait déjà été partagée 16 000 fois 7 00:00:27,998 --> 00:00:31,640 et avait même été aimée 4 000 fois. 8 00:00:33,268 --> 00:00:36,931 La vidéo est devenue virale et a infecté internet. 9 00:00:37,873 --> 00:00:40,968 Hans Block : C'est le moment où nous nous sommes demandé : 10 00:00:40,992 --> 00:00:43,770 comment une telle chose a-t-elle pu arriver sur Facebook ? 11 00:00:43,794 --> 00:00:45,060 Et en même temps, 12 00:00:45,060 --> 00:00:48,220 pourquoi ne voyons-nous pas des contenus similaires plus souvent ? 13 00:00:48,220 --> 00:00:51,903 Il y a beaucoup de contenus révoltants en ligne, 14 00:00:51,927 --> 00:00:54,128 mais pourquoi voyons-nous si rarement 15 00:00:54,128 --> 00:00:56,958 de telles merdes sur Facebook, Twitter ou Google ? 16 00:00:56,958 --> 00:00:59,313 MR : Si les logiciels de reconnaissance des images 17 00:00:59,313 --> 00:01:03,506 peuvent identifier l’esquisse d'organes sexuels, 18 00:01:03,530 --> 00:01:08,458 de sang ou de peau nue dans des images et des vidéos, 19 00:01:08,482 --> 00:01:14,022 ils ont d'immenses difficultés à distinguer du contenu pornographique 20 00:01:14,046 --> 00:01:18,394 de photos de vacances, de statues d'Adonis 21 00:01:18,418 --> 00:01:21,116 ou de campagnes de dépistage du cancer du sein. 22 00:01:21,140 --> 00:01:25,395 Ils ne peuvent pas distinguer Roméo et Juliette mourant sur scène 23 00:01:25,419 --> 00:01:27,974 d'une vraie attaque au couteau. 24 00:01:27,998 --> 00:01:33,220 Ils ne peuvent pas distinguer la satire de la propagande 25 00:01:33,244 --> 00:01:37,212 ou l'ironie de la haine et ainsi de suite. 26 00:01:38,077 --> 00:01:42,155 Par conséquent, des êtres humains sont nécessaires pour décider 27 00:01:42,179 --> 00:01:46,180 quels contenus suspicieux doivent être supprimés 28 00:01:46,204 --> 00:01:48,154 et lesquels doivent être conservés. 29 00:01:48,909 --> 00:01:51,864 Des êtres humains au sujet desquels nous ne savons presque rien 30 00:01:51,864 --> 00:01:53,611 car ils travaillent dans le secret. 31 00:01:54,053 --> 00:01:56,072 Ils signent des accords de confidentialité 32 00:01:56,072 --> 00:01:58,935 qui leur interdisent de parler ou de partager 33 00:01:58,959 --> 00:02:02,544 ce qu'ils voient sur leur écran et ce que ce travail leur fait. 34 00:02:02,887 --> 00:02:07,157 Ils sont obligés d'utiliser des codes pour dissimuler pour qui ils travaillent. 35 00:02:07,585 --> 00:02:10,490 Ils sont surveillés par des sociétés de sécurité privée 36 00:02:10,514 --> 00:02:14,024 afin d'assurer qu'ils ne parlent pas à des journalistes. 37 00:02:14,048 --> 00:02:17,587 Ils sont menacés d'amende s'ils parlent. 38 00:02:18,421 --> 00:02:22,183 Tout cela semble être une histoire policière étrange, 39 00:02:22,207 --> 00:02:23,537 mais c'est vrai. 40 00:02:23,561 --> 00:02:25,053 Ces gens existent 41 00:02:25,633 --> 00:02:29,814 et ils sont appelés modérateurs de contenu. 42 00:02:30,942 --> 00:02:34,387 HB : Nous sommes les réalisateurs du documentaire « The Cleaners » 43 00:02:34,411 --> 00:02:36,371 et nous aimerions vous emmener 44 00:02:36,395 --> 00:02:38,982 dans un monde que beaucoup ne connaissent pas encore. 45 00:02:39,006 --> 00:02:41,139 Voici un court extrait de notre film. 46 00:02:46,639 --> 00:02:50,259 (Musique) 47 00:02:52,400 --> 00:02:56,086 (Vidéo) Modérateur : Je dois être anonyme car nous avons signé un contrat. 48 00:02:57,784 --> 00:03:01,405 Nous n'avons pas le droit de déclarer avec qui nous travaillons. 49 00:03:02,807 --> 00:03:04,570 Je vous parle 50 00:03:04,594 --> 00:03:08,974 car le monde devrait savoir que nous existons. 51 00:03:10,544 --> 00:03:13,347 Il y a quelqu'un qui vérifie les réseaux sociaux. 52 00:03:14,317 --> 00:03:17,921 Nous faisons de notre mieux pour rendre cette plateforme 53 00:03:17,945 --> 00:03:19,735 sûre pour tous. 54 00:03:30,438 --> 00:03:31,588 Supprimer. 55 00:03:32,278 --> 00:03:33,572 Ignorer. 56 00:03:33,596 --> 00:03:34,746 Supprimer. 57 00:03:35,279 --> 00:03:36,576 Ignorer. 58 00:03:36,600 --> 00:03:37,751 Supprimer. 59 00:03:38,680 --> 00:03:39,831 Ignorer. 60 00:03:39,855 --> 00:03:41,005 Ignorer. 61 00:03:41,625 --> 00:03:42,775 Supprimer. 62 00:03:46,030 --> 00:03:48,031 HB : Les soi-disant modérateurs de contenu 63 00:03:48,031 --> 00:03:52,031 ne reçoivent leur salaire de Facebook, Twitter ou Google, 64 00:03:52,055 --> 00:03:54,372 mais d'entreprises de sous-traitance 65 00:03:54,396 --> 00:03:56,673 afin de maintenir leurs rémunérations basses. 66 00:03:56,833 --> 00:03:58,800 Des dizaines de milliers de jeunes gens 67 00:03:58,824 --> 00:04:02,037 qui regardent tout ce que nous ne sommes pas censés voir. 68 00:04:02,061 --> 00:04:05,609 Nous parlons de décapitations, de mutilations, 69 00:04:05,633 --> 00:04:09,329 d'exécutions, de nécrophilie, de torture, de maltraitance des enfants. 70 00:04:09,743 --> 00:04:12,017 Des milliers d'images chaque jour -- 71 00:04:12,041 --> 00:04:14,956 ignorer, supprimer, jour et nuit. 72 00:04:15,393 --> 00:04:18,791 La plupart de ce travail est réalisé à Manille, 73 00:04:18,815 --> 00:04:22,117 où les déchets toxiques analogiques du monde occidental 74 00:04:22,141 --> 00:04:24,923 étaient transportés pendant des années par porte-conteneurs 75 00:04:24,923 --> 00:04:27,800 et on s'y débarrasse maintenant de nos déchets numériques 76 00:04:27,800 --> 00:04:28,800 par fibre optique. 77 00:04:28,800 --> 00:04:31,847 Tout comme les éboueurs 78 00:04:31,871 --> 00:04:35,347 fouillent de gigantesques décharges en lisière de la ville, 79 00:04:35,371 --> 00:04:40,204 les modérateurs de contenu cliquent dans un océan toxique et intarissable 80 00:04:40,228 --> 00:04:44,315 d'images et de vidéos et de tous genres de déchets intellectuels 81 00:04:44,339 --> 00:04:46,641 pour que nous n'ayons pas à les regarder. 82 00:04:46,665 --> 00:04:50,205 MR : Mais contrairement aux plaies des éboueurs, 83 00:04:50,229 --> 00:04:53,680 celles des modérateurs de contenu demeurent invisibles. 84 00:04:54,117 --> 00:04:57,197 Pleines de contenus choquants et dérangeants, 85 00:04:57,221 --> 00:05:00,484 ces images et vidéos s'enfouissent dans leurs souvenirs 86 00:05:00,508 --> 00:05:03,953 où, n'importe quand, elles peuvent avoir des effets imprévisibles : 87 00:05:03,977 --> 00:05:07,334 troubles alimentaires, perte de la libido, 88 00:05:07,358 --> 00:05:10,617 troubles de l'anxiété, alcoolisme, 89 00:05:10,641 --> 00:05:13,553 dépression, pouvant même mener au suicide. 90 00:05:14,100 --> 00:05:16,545 Les images et vidéos les infectent 91 00:05:16,569 --> 00:05:18,958 et souvent ne les laissent jamais s'en tirer. 92 00:05:18,982 --> 00:05:23,823 S'ils sont malchanceux, ils développent un trouble du stress post-traumatique 93 00:05:23,847 --> 00:05:26,237 comme les soldats après des opératons de guerre. 94 00:05:27,445 --> 00:05:31,088 Dans notre film, nous racontons l'histoire d'un jeune homme 95 00:05:31,112 --> 00:05:33,834 qui a dû contrôler des diffusions en direct 96 00:05:33,834 --> 00:05:36,334 d'automutilation et de tentatives de suicide, 97 00:05:36,334 --> 00:05:38,009 à répétition, 98 00:05:38,033 --> 00:05:41,099 et qui a fini par se suicider. 99 00:05:41,787 --> 00:05:44,527 Ce n'est pas un cas isolé, d'après ce que l'on nous a dit. 100 00:05:45,184 --> 00:05:49,164 C'est le prix que nous payons tous 101 00:05:49,188 --> 00:05:52,066 pour nos environnements sur les réseaux sociaux 102 00:05:52,066 --> 00:05:56,823 soi-disant propres, sûrs et « sains ». 103 00:05:58,482 --> 00:06:01,077 Jamais auparavant dans l'histoire de l'humanité, 104 00:06:01,101 --> 00:06:04,527 il n'a été plus simple de toucher des millions de gens à travers le monde 105 00:06:04,527 --> 00:06:06,124 en quelques secondes. 106 00:06:06,148 --> 00:06:10,093 Ce qui est posté sur les réseaux sociaux se propage si rapidement, 107 00:06:10,117 --> 00:06:14,053 cela devient viral et excite l'esprit de gens à travers le monde. 108 00:06:14,450 --> 00:06:16,514 Avant que ce ne soit supprimé, 109 00:06:16,538 --> 00:06:18,471 il est souvent déjà trop tard. 110 00:06:18,966 --> 00:06:21,196 Des millions de gens ont déjà été infectés 111 00:06:21,220 --> 00:06:23,077 par la haine et la colère 112 00:06:23,101 --> 00:06:25,831 et soit ils deviennent actifs en ligne 113 00:06:25,855 --> 00:06:28,998 en diffusant ou en amplifiant la haine 114 00:06:29,022 --> 00:06:32,815 ou ils descendent dans les rues et prennent les armes. 115 00:06:33,236 --> 00:06:35,860 HB : Par conséquent, une armée de modérateurs de contenu 116 00:06:35,860 --> 00:06:39,695 s'assoient devant un écran pour éviter de nouveaux dégâts collatéraux. 117 00:06:40,434 --> 00:06:42,553 Ils décident dès que possible 118 00:06:42,577 --> 00:06:46,672 si le contenu demeure sur la plateforme -- ignorer -- 119 00:06:46,696 --> 00:06:49,036 ou disparaît -- supprimer. 120 00:06:49,823 --> 00:06:52,450 Mais chaque décision n'est pas aussi claire 121 00:06:52,474 --> 00:06:55,371 que pour une vidéo de maltraitance d'enfants. 122 00:06:55,395 --> 00:06:58,172 Qu'en est-il de contenu controversé, ambivalent, 123 00:06:58,196 --> 00:07:00,538 téléchargé par des activistes des droits civils 124 00:07:00,538 --> 00:07:02,048 ou des journalistes citoyens ? 125 00:07:02,048 --> 00:07:05,270 Les modérateurs de contenu prennent souvent de telles décisions 126 00:07:05,294 --> 00:07:08,027 à la même vitesse que pour les cas évidents. 127 00:07:09,515 --> 00:07:12,174 MR : Nous allons maintenant vous montrer une vidéo 128 00:07:12,198 --> 00:07:15,507 et nous aimerions que vous décidiez : 129 00:07:15,531 --> 00:07:19,041 est-ce que vous la supprimeriez ou pas ? 130 00:07:19,070 --> 00:07:20,737 (Vidéo) (Bruits de frappe aérienne) 131 00:07:21,100 --> 00:07:23,650 (Explosion) 132 00:07:28,076 --> 00:07:34,029 (Gens parlant en arabe) 133 00:07:34,053 --> 00:07:36,283 MR : Nous avons un peu flouté cela pour vous. 134 00:07:37,196 --> 00:07:40,951 Un enfant serait potentiellement dangereusement perturbé 135 00:07:40,975 --> 00:07:43,784 et extrêmement effrayé par un tel contenu. 136 00:07:43,808 --> 00:07:46,105 Préféreriez-vous le supprimer ? 137 00:07:47,610 --> 00:07:50,627 Mais... et si cette vidéo pouvait aider à enquêter 138 00:07:50,627 --> 00:07:52,717 sur les crimes de guerre en Syrie ? 139 00:07:52,717 --> 00:07:55,884 Et si personne n'entendait parler de cette frappe aérienne 140 00:07:55,908 --> 00:07:59,646 car Facebook, YouTube, Twitter avaient décidé de retirer ce contenu ? 141 00:08:00,895 --> 00:08:05,220 Airwars, une organisation non gouvernementale basée à Londres, 142 00:08:05,244 --> 00:08:08,141 essaye de trouver ces vidéos aussi vite que possible, 143 00:08:08,165 --> 00:08:10,725 dès qu'elles sont publiées sur les réseaux sociaux, 144 00:08:10,749 --> 00:08:12,349 afin de les archiver. 145 00:08:12,693 --> 00:08:15,526 Car ils savent que, tôt ou tard, 146 00:08:15,550 --> 00:08:18,860 Facebook, YouTube, Twitter retireront un tel contenu. 147 00:08:19,345 --> 00:08:21,553 Les gens armés de leur téléphone portable 148 00:08:21,577 --> 00:08:25,776 peuvent rendre visible ce à quoi les journalistes n'ont souvent pas accès. 149 00:08:25,800 --> 00:08:29,177 Les groupes pour les droits civils n'ont souvent pas de meilleure option 150 00:08:29,177 --> 00:08:32,688 pour rendre leurs enregistrements rapidement accessibles à un large public 151 00:08:32,712 --> 00:08:35,312 que de les publier sur les réseaux sociaux. 152 00:08:35,950 --> 00:08:40,236 N'est-ce pas le potentiel responsabilisant que le World Wide Web devait avoir ? 153 00:08:40,966 --> 00:08:42,926 N'était-ce pas les rêves 154 00:08:42,950 --> 00:08:47,061 que les gens avaient au début du World Wide Web ? 155 00:08:47,608 --> 00:08:50,403 De telles images et vidéos ne peuvent-elles pas 156 00:08:50,427 --> 00:08:55,561 persuader les gens qui sont devenus insensibles aux faits 157 00:08:55,585 --> 00:08:56,735 de réfléchir à nouveau ? 158 00:08:57,917 --> 00:09:01,529 HB : Mais au lieu de cela, tout ce qui pourrait être perturbant est supprimé. 159 00:09:01,543 --> 00:09:03,805 Il y a un changement généralisé dans la société. 160 00:09:03,805 --> 00:09:07,522 Les médias, par exemple, utilisent de plus en plus souvent des avertissements 161 00:09:07,546 --> 00:09:09,339 en haut des articles 162 00:09:09,363 --> 00:09:12,672 que certains pourraient percevoir comme blessants ou perturbants. 163 00:09:12,696 --> 00:09:16,610 De plus en plus d'étudiants dans les universités américaines 164 00:09:16,634 --> 00:09:19,451 exigent l'exclusion du programme de classiques antiques 165 00:09:19,475 --> 00:09:22,590 qui dépeignent de la violence ou une agression sexuelle. 166 00:09:22,991 --> 00:09:25,324 Jusqu'où devrions-nous aller ? 167 00:09:25,875 --> 00:09:29,255 L'intégrité physique est garantie comme un droit humain 168 00:09:29,279 --> 00:09:31,079 dans les constitutions du monde. 169 00:09:31,422 --> 00:09:35,176 Dans la Charte des droits fondamentaux de l'Union européenne, 170 00:09:35,200 --> 00:09:38,554 ce droit est expressément appliqué à l'intégrité mentale. 171 00:09:39,347 --> 00:09:42,005 Mais même si les effets potentiellement traumatiques 172 00:09:42,029 --> 00:09:44,855 des images et des vidéos est difficile à prédire, 173 00:09:44,879 --> 00:09:46,836 voulons-nous devenir si prudents 174 00:09:46,860 --> 00:09:50,587 que nous risquons de perdre la conscience sociale de l'injustice ? 175 00:09:51,203 --> 00:09:52,353 Alors que faire ? 176 00:09:52,942 --> 00:09:55,934 Mark Zuckerberg a récemment déclaré qu'à l'avenir, 177 00:09:55,958 --> 00:09:59,760 les utilisateurs, nous ou presque tout le monde, 178 00:09:59,784 --> 00:10:02,045 décideraient individuellement 179 00:10:02,069 --> 00:10:04,231 de ce qu'ils aimeraient voir sur la plateforme 180 00:10:04,231 --> 00:10:06,172 en paramétrant des filtres personnels. 181 00:10:06,196 --> 00:10:09,268 Tout le monde pourrait facilement prétendre demeurer non perturbé 182 00:10:09,292 --> 00:10:13,031 par des images de guerre et d'autres conflits violents, comme... 183 00:10:13,849 --> 00:10:18,295 MR : Je suis le genre de gars qui n'est pas gêné par la vue de seins 184 00:10:18,319 --> 00:10:22,085 et je suis très intéressé par le réchauffement climatique, 185 00:10:22,109 --> 00:10:24,673 mais je n'aime pas trop la guerre. 186 00:10:25,109 --> 00:10:27,065 HB : Pour moi, c'est plutôt le contraire, 187 00:10:27,065 --> 00:10:30,908 je n'ai aucun intérêt pour les seins et corps nus. 188 00:10:31,209 --> 00:10:34,120 Mais pourquoi pas des armes ? J'aime les armes, oui. 189 00:10:34,901 --> 00:10:38,646 MR : Allons, si nous ne partageons pas une conscience sociale similaire, 190 00:10:38,670 --> 00:10:41,413 comment sommes-nous censés discuter de problèmes sociaux ? 191 00:10:41,413 --> 00:10:43,760 Comment appeler les gens à agir ? 192 00:10:43,784 --> 00:10:47,069 Des bulles encore plus isolées émergeraient. 193 00:10:47,665 --> 00:10:50,896 Une des questions centrales est : « Comment, à l'avenir, 194 00:10:50,920 --> 00:10:55,823 la liberté d'expression sera considérée face au besoin de protection des gens ? » 195 00:10:56,441 --> 00:10:58,028 C'est une question de principes. 196 00:10:58,602 --> 00:11:02,850 Voulons-nous concevoir une société ouverte ou fermée 197 00:11:02,874 --> 00:11:04,513 pour l'espace numérique ? 198 00:11:05,054 --> 00:11:10,966 Au cœur de la question, il y a « la liberté contre la sécurité ». 199 00:11:12,388 --> 00:11:16,872 Facebook a toujours voulu être une plateforme « saine ». 200 00:11:16,896 --> 00:11:20,594 Avant tout, les utilisateurs devraient se sentir en sécurité. 201 00:11:20,618 --> 00:11:22,738 C'est le même choix de mots 202 00:11:22,762 --> 00:11:25,720 que les modérateurs de contenu aux Philippines ont utilisés 203 00:11:25,744 --> 00:11:27,544 dans nombre de nos interviews. 204 00:11:28,188 --> 00:11:30,569 (Vidéo) Le monde dans lequel nous vivons, 205 00:11:30,593 --> 00:11:32,759 à mon sens, n'est pas vraiment sain. 206 00:11:32,783 --> 00:11:34,331 (Musique) 207 00:11:34,355 --> 00:11:37,513 Dans ce monde, le mal existe vraiment. 208 00:11:37,537 --> 00:11:40,775 (Musique) 209 00:11:40,799 --> 00:11:42,862 Nous devons le surveiller. 210 00:11:42,886 --> 00:11:44,768 (Musique) 211 00:11:44,792 --> 00:11:48,042 Nous devons le contrôler -- bon ou mauvais. 212 00:11:48,646 --> 00:11:55,646 (Musique) 213 00:11:58,193 --> 00:12:02,296 [Lève la tête, jeune homme ! -- Dieu] 214 00:12:02,952 --> 00:12:05,254 MR : Pour les jeunes modérateurs de contenu 215 00:12:05,254 --> 00:12:07,784 vivant dans un pays pratiquant un catholicisme strict, 216 00:12:07,784 --> 00:12:10,047 cela s'apparente à une mission chrétienne. 217 00:12:10,833 --> 00:12:13,799 Contrer les péchés du monde 218 00:12:13,823 --> 00:12:15,997 qui se propagent sur internet. 219 00:12:16,641 --> 00:12:20,053 « La propreté est proche de la piété » 220 00:12:20,077 --> 00:12:23,511 est un proverbe que tout le monde connaît aux Philippines. 221 00:12:24,035 --> 00:12:25,694 HB : D'autres se motivent 222 00:12:25,718 --> 00:12:29,449 en se comparant à leur président, Rodrigo Duterte. 223 00:12:29,837 --> 00:12:33,328 Il dirige les Philippines depuis 2016 224 00:12:33,352 --> 00:12:37,345 et il a gagné les élections avec la promesse : « Je nettoierai ». 225 00:12:37,892 --> 00:12:41,209 Cela signifie éliminer tous genres de problèmes 226 00:12:41,233 --> 00:12:43,688 en tuant littéralement des gens dans les rues, 227 00:12:43,712 --> 00:12:46,577 des gens censés être des criminels, quoi que cela signifie. 228 00:12:46,601 --> 00:12:47,871 Depuis qu'il a été élu, 229 00:12:47,895 --> 00:12:51,331 on estime que 20 000 personnes ont été tuées. 230 00:12:51,655 --> 00:12:54,156 Dans notre film, un modérateur dit : 231 00:12:54,180 --> 00:12:56,235 « Ce que Duterte fait dans les rues, 232 00:12:56,259 --> 00:12:57,973 je le fais pour Internet. » 233 00:12:58,934 --> 00:13:02,498 Et les voilà, nos super-héros autoproclamés 234 00:13:02,522 --> 00:13:05,522 qui font respecter la loi et l'ordre dans notre monde numérique. 235 00:13:05,522 --> 00:13:07,903 Ils nettoient, ils astiquent tout, 236 00:13:07,927 --> 00:13:10,260 ils nous libèrent de tout ce qui est mauvais. 237 00:13:10,284 --> 00:13:14,013 Des tâches auparavant réservées aux autorités gouvernementales 238 00:13:14,037 --> 00:13:17,712 ont été reprises par des jeunes diplômés qui ont la vingtaine 239 00:13:17,736 --> 00:13:20,629 et sont préparés via une formation de trois à cinq jours -- 240 00:13:20,653 --> 00:13:22,589 c'est la qualification -- 241 00:13:22,613 --> 00:13:25,680 qui travaillent pour rien de moins que secourir le monde. 242 00:13:26,756 --> 00:13:30,975 MR : Les souverainetés nationales ont été sous-traitées à des entreprises privées 243 00:13:30,999 --> 00:13:35,007 qui refilent leurs responsabilités à des prestataires. 244 00:13:35,031 --> 00:13:38,094 C'est de la sous-traitance de sous-traitance de sous-traitance 245 00:13:38,118 --> 00:13:39,268 qui a lieu. 246 00:13:39,618 --> 00:13:41,014 Avec les réseaux sociaux, 247 00:13:41,038 --> 00:13:44,053 nous faisons face à une structure complètement nouvelle 248 00:13:44,077 --> 00:13:45,593 avec ses propres mécanismes, 249 00:13:45,617 --> 00:13:47,300 sa propre logique de fonctionnement 250 00:13:47,300 --> 00:13:52,465 et de ce fait, également ses propres dangers 251 00:13:52,489 --> 00:13:56,514 qui n'existaient pas encore dans la sphère publique pré-numérique. 252 00:13:56,538 --> 00:13:59,011 HB : Quand Mark Zuckerberg était au Congrès américain 253 00:13:59,011 --> 00:14:00,541 ou au Parlement européen, 254 00:14:00,565 --> 00:14:03,200 il a été confronté à tous genres de critiques. 255 00:14:03,224 --> 00:14:05,804 Sa réaction était toujours la même : 256 00:14:06,501 --> 00:14:07,969 « Nous arrangerons cela 257 00:14:07,993 --> 00:14:10,544 et je vais en assurer le suivi avec mon équipe. » 258 00:14:11,167 --> 00:14:14,945 Mais un tel débat ne devra pas se tenir dans une arrière-salle de Facebook, 259 00:14:14,969 --> 00:14:16,254 Twitter ou Google -- 260 00:14:16,278 --> 00:14:19,028 un tel débat devrait être ouvertement discuté 261 00:14:19,028 --> 00:14:21,118 dans de nouveaux parlements cosmopolites, 262 00:14:21,118 --> 00:14:25,978 dans de nouvelles institutions reflétant la diversité des gens 263 00:14:26,002 --> 00:14:30,544 contribuant au projet utopique d'un réseau mondial. 264 00:14:30,568 --> 00:14:33,945 Si cela peut sembler impossible de considérer les valeurs 265 00:14:33,969 --> 00:14:36,211 des utilisateurs à travers le monde, 266 00:14:36,235 --> 00:14:37,917 cela vaut la peine de croire 267 00:14:37,941 --> 00:14:41,367 qu'il y a plus de choses qui nous lient que de choses qui nous séparent. 268 00:14:41,624 --> 00:14:45,331 MR : A une époque où le populisme gagne en vigueur, 269 00:14:45,355 --> 00:14:48,553 il devient populaire de justifier les symptômes, 270 00:14:48,577 --> 00:14:49,855 de les éradiquer, 271 00:14:49,879 --> 00:14:51,767 de les rendre invisibles. 272 00:14:52,919 --> 00:14:56,268 Cette idéologie se propage à travers le monde, 273 00:14:56,292 --> 00:14:59,077 analogue ainsi que numérique, 274 00:14:59,903 --> 00:15:03,395 et il est de notre devoir de l'arrêter 275 00:15:03,419 --> 00:15:05,045 avant qu'il ne soit trop tard. 276 00:15:05,665 --> 00:15:09,649 La question de la liberté et de la démocratie 277 00:15:09,673 --> 00:15:12,640 ne doit pas avoir seulement ces deux options. 278 00:15:13,053 --> 00:15:14,219 HB : Supprimer. 279 00:15:14,243 --> 00:15:16,390 MR : Ou ignorer. 280 00:15:17,300 --> 00:15:18,897 HB : Merci beaucoup. 281 00:15:18,921 --> 00:15:24,190 (Applaudissements)