Le prix d'un internet « propre »
-
0:00 - 0:04[Cette intervention contient
du contenu réservé aux adultes] -
0:05 - 0:09Moritz Riesewieck : Le 23 mars 2013,
-
0:09 - 0:13des utilisateurs du monde entier
ont découvert dans leur fil d'actualités -
0:13 - 0:19la vidéo d'une jeune fille
se faisant violer par un homme plus âgé. -
0:19 - 0:23Avant que cette vidéo
ne soit retirée de Facebook, -
0:23 - 0:28elle avait déjà été partagée 16 000 fois
-
0:28 - 0:32et avait même été aimée 4 000 fois.
-
0:33 - 0:37La vidéo est devenue virale
et a infecté internet. -
0:38 - 0:41Hans Block : C'est le moment
où nous nous sommes demandé : -
0:41 - 0:44comment une telle chose
a-t-elle pu arriver sur Facebook ? -
0:44 - 0:45Et en même temps,
-
0:45 - 0:48pourquoi ne voyons-nous pas
des contenus similaires plus souvent ? -
0:48 - 0:52Il y a beaucoup de contenus
révoltants en ligne, -
0:52 - 0:54mais pourquoi voyons-nous si rarement
-
0:54 - 0:57de telles merdes
sur Facebook, Twitter ou Google ? -
0:57 - 0:59MR : Si les logiciels
de reconnaissance des images -
0:59 - 1:04peuvent identifier l’esquisse
d'organes sexuels, -
1:04 - 1:08de sang ou de peau nue
dans des images et des vidéos, -
1:08 - 1:14ils ont d'immenses difficultés
à distinguer du contenu pornographique -
1:14 - 1:18de photos de vacances, de statues d'Adonis
-
1:18 - 1:21ou de campagnes de dépistage
du cancer du sein. -
1:21 - 1:25Ils ne peuvent pas distinguer
Roméo et Juliette mourant sur scène -
1:25 - 1:28d'une vraie attaque au couteau.
-
1:28 - 1:33Ils ne peuvent pas distinguer
la satire de la propagande -
1:33 - 1:37ou l'ironie de la haine et ainsi de suite.
-
1:38 - 1:42Par conséquent, des êtres humains
sont nécessaires pour décider -
1:42 - 1:46quels contenus suspicieux
doivent être supprimés -
1:46 - 1:48et lesquels doivent être conservés.
-
1:49 - 1:52Des êtres humains au sujet desquels
nous ne savons presque rien -
1:52 - 1:54car ils travaillent dans le secret.
-
1:54 - 1:56Ils signent des accords de confidentialité
-
1:56 - 1:59qui leur interdisent
de parler ou de partager -
1:59 - 2:03ce qu'ils voient sur leur écran
et ce que ce travail leur fait. -
2:03 - 2:07Ils sont obligés d'utiliser des codes
pour dissimuler pour qui ils travaillent. -
2:08 - 2:10Ils sont surveillés par des sociétés
de sécurité privée -
2:11 - 2:14afin d'assurer qu'ils ne parlent pas
à des journalistes. -
2:14 - 2:18Ils sont menacés d'amende s'ils parlent.
-
2:18 - 2:22Tout cela semble être
une histoire policière étrange, -
2:22 - 2:24mais c'est vrai.
-
2:24 - 2:25Ces gens existent
-
2:26 - 2:30et ils sont appelés
modérateurs de contenu. -
2:31 - 2:34HB : Nous sommes les réalisateurs
du documentaire « The Cleaners » -
2:34 - 2:36et nous aimerions vous emmener
-
2:36 - 2:39dans un monde que beaucoup
ne connaissent pas encore. -
2:39 - 2:41Voici un court extrait de notre film.
-
2:47 - 2:50(Musique)
-
2:52 - 2:56(Vidéo) Modérateur : Je dois être anonyme
car nous avons signé un contrat. -
2:58 - 3:01Nous n'avons pas le droit de déclarer
avec qui nous travaillons. -
3:03 - 3:05Je vous parle
-
3:05 - 3:09car le monde devrait savoir
que nous existons. -
3:11 - 3:13Il y a quelqu'un qui vérifie
les réseaux sociaux. -
3:14 - 3:18Nous faisons de notre mieux
pour rendre cette plateforme -
3:18 - 3:20sûre pour tous.
-
3:30 - 3:32Supprimer.
-
3:32 - 3:34Ignorer.
-
3:34 - 3:35Supprimer.
-
3:35 - 3:37Ignorer.
-
3:37 - 3:38Supprimer.
-
3:39 - 3:40Ignorer.
-
3:40 - 3:41Ignorer.
-
3:42 - 3:43Supprimer.
-
3:46 - 3:48HB : Les soi-disant modérateurs de contenu
-
3:48 - 3:52ne reçoivent leur salaire
de Facebook, Twitter ou Google, -
3:52 - 3:54mais d'entreprises de sous-traitance
-
3:54 - 3:57afin de maintenir
leurs rémunérations basses. -
3:57 - 3:59Des dizaines de milliers de jeunes gens
-
3:59 - 4:02qui regardent tout ce que
nous ne sommes pas censés voir. -
4:02 - 4:06Nous parlons de décapitations,
de mutilations, -
4:06 - 4:09d'exécutions, de nécrophilie,
de torture, de maltraitance des enfants. -
4:10 - 4:12Des milliers d'images chaque jour --
-
4:12 - 4:15ignorer, supprimer, jour et nuit.
-
4:15 - 4:19La plupart de ce travail
est réalisé à Manille, -
4:19 - 4:22où les déchets toxiques analogiques
du monde occidental -
4:22 - 4:25étaient transportés pendant des années
par porte-conteneurs -
4:25 - 4:28et on s'y débarrasse maintenant
de nos déchets numériques -
4:28 - 4:29par fibre optique.
-
4:29 - 4:32Tout comme les éboueurs
-
4:32 - 4:35fouillent de gigantesques décharges
en lisière de la ville, -
4:35 - 4:40les modérateurs de contenu cliquent
dans un océan toxique et intarissable -
4:40 - 4:44d'images et de vidéos et de tous genres
de déchets intellectuels -
4:44 - 4:47pour que nous n'ayons pas à les regarder.
-
4:47 - 4:50MR : Mais contrairement
aux plaies des éboueurs, -
4:50 - 4:54celles des modérateurs de contenu
demeurent invisibles. -
4:54 - 4:57Pleines de contenus
choquants et dérangeants, -
4:57 - 5:00ces images et vidéos
s'enfouissent dans leurs souvenirs -
5:01 - 5:04où, n'importe quand, elles peuvent
avoir des effets imprévisibles : -
5:04 - 5:07troubles alimentaires, perte de la libido,
-
5:07 - 5:11troubles de l'anxiété, alcoolisme,
-
5:11 - 5:14dépression, pouvant même mener au suicide.
-
5:14 - 5:17Les images et vidéos les infectent
-
5:17 - 5:19et souvent ne les laissent
jamais s'en tirer. -
5:19 - 5:24S'ils sont malchanceux, ils développent
un trouble du stress post-traumatique -
5:24 - 5:26comme les soldats
après des opératons de guerre. -
5:27 - 5:31Dans notre film, nous racontons
l'histoire d'un jeune homme -
5:31 - 5:34qui a dû contrôler
des diffusions en direct -
5:34 - 5:36d'automutilation
et de tentatives de suicide, -
5:36 - 5:38à répétition,
-
5:38 - 5:41et qui a fini par se suicider.
-
5:42 - 5:45Ce n'est pas un cas isolé,
d'après ce que l'on nous a dit. -
5:45 - 5:49C'est le prix que nous payons tous
-
5:49 - 5:52pour nos environnements
sur les réseaux sociaux -
5:52 - 5:57soi-disant propres, sûrs et « sains ».
-
5:58 - 6:01Jamais auparavant
dans l'histoire de l'humanité, -
6:01 - 6:05il n'a été plus simple de toucher
des millions de gens à travers le monde -
6:05 - 6:06en quelques secondes.
-
6:06 - 6:10Ce qui est posté sur les réseaux sociaux
se propage si rapidement, -
6:10 - 6:14cela devient viral et excite l'esprit
de gens à travers le monde. -
6:14 - 6:17Avant que ce ne soit supprimé,
-
6:17 - 6:18il est souvent déjà trop tard.
-
6:19 - 6:21Des millions de gens ont déjà été infectés
-
6:21 - 6:23par la haine et la colère
-
6:23 - 6:26et soit ils deviennent actifs en ligne
-
6:26 - 6:29en diffusant ou en amplifiant la haine
-
6:29 - 6:33ou ils descendent dans les rues
et prennent les armes. -
6:33 - 6:36HB : Par conséquent, une armée
de modérateurs de contenu -
6:36 - 6:40s'assoient devant un écran pour éviter
de nouveaux dégâts collatéraux. -
6:40 - 6:43Ils décident dès que possible
-
6:43 - 6:47si le contenu demeure
sur la plateforme -- ignorer -- -
6:47 - 6:49ou disparaît -- supprimer.
-
6:50 - 6:52Mais chaque décision
n'est pas aussi claire -
6:52 - 6:55que pour une vidéo
de maltraitance d'enfants. -
6:55 - 6:58Qu'en est-il de contenu
controversé, ambivalent, -
6:58 - 7:01téléchargé par des activistes
des droits civils -
7:01 - 7:02ou des journalistes citoyens ?
-
7:02 - 7:05Les modérateurs de contenu
prennent souvent de telles décisions -
7:05 - 7:08à la même vitesse
que pour les cas évidents. -
7:10 - 7:12MR : Nous allons maintenant
vous montrer une vidéo -
7:12 - 7:16et nous aimerions que vous décidiez :
-
7:16 - 7:19est-ce que vous la supprimeriez ou pas ?
-
7:19 - 7:21(Vidéo) (Bruits de frappe aérienne)
-
7:21 - 7:24(Explosion)
-
7:28 - 7:34(Gens parlant en arabe)
-
7:34 - 7:36MR : Nous avons
un peu flouté cela pour vous. -
7:37 - 7:41Un enfant serait potentiellement
dangereusement perturbé -
7:41 - 7:44et extrêmement effrayé par un tel contenu.
-
7:44 - 7:46Préféreriez-vous le supprimer ?
-
7:48 - 7:51Mais... et si cette vidéo
pouvait aider à enquêter -
7:51 - 7:53sur les crimes de guerre en Syrie ?
-
7:53 - 7:56Et si personne n'entendait parler
de cette frappe aérienne -
7:56 - 8:00car Facebook, YouTube, Twitter
avaient décidé de retirer ce contenu ? -
8:01 - 8:05Airwars, une organisation
non gouvernementale basée à Londres, -
8:05 - 8:08essaye de trouver ces vidéos
aussi vite que possible, -
8:08 - 8:11dès qu'elles sont publiées
sur les réseaux sociaux, -
8:11 - 8:12afin de les archiver.
-
8:13 - 8:16Car ils savent que, tôt ou tard,
-
8:16 - 8:19Facebook, YouTube, Twitter
retireront un tel contenu. -
8:19 - 8:22Les gens armés de leur téléphone portable
-
8:22 - 8:26peuvent rendre visible ce à quoi
les journalistes n'ont souvent pas accès. -
8:26 - 8:29Les groupes pour les droits civils
n'ont souvent pas de meilleure option -
8:29 - 8:33pour rendre leurs enregistrements
rapidement accessibles à un large public -
8:33 - 8:35que de les publier
sur les réseaux sociaux. -
8:36 - 8:40N'est-ce pas le potentiel responsabilisant
que le World Wide Web devait avoir ? -
8:41 - 8:43N'était-ce pas les rêves
-
8:43 - 8:47que les gens avaient au début
du World Wide Web ? -
8:48 - 8:50De telles images et vidéos
ne peuvent-elles pas -
8:50 - 8:56persuader les gens qui sont devenus
insensibles aux faits -
8:56 - 8:57de réfléchir à nouveau ?
-
8:58 - 9:02HB : Mais au lieu de cela, tout ce qui
pourrait être perturbant est supprimé. -
9:02 - 9:04Il y a un changement généralisé
dans la société. -
9:04 - 9:08Les médias, par exemple, utilisent
de plus en plus souvent des avertissements -
9:08 - 9:09en haut des articles
-
9:09 - 9:13que certains pourraient percevoir
comme blessants ou perturbants. -
9:13 - 9:17De plus en plus d'étudiants
dans les universités américaines -
9:17 - 9:19exigent l'exclusion du programme
de classiques antiques -
9:19 - 9:23qui dépeignent de la violence
ou une agression sexuelle. -
9:23 - 9:25Jusqu'où devrions-nous aller ?
-
9:26 - 9:29L'intégrité physique est garantie
comme un droit humain -
9:29 - 9:31dans les constitutions du monde.
-
9:31 - 9:35Dans la Charte des droits fondamentaux
de l'Union européenne, -
9:35 - 9:39ce droit est expressément appliqué
à l'intégrité mentale. -
9:39 - 9:42Mais même si les effets
potentiellement traumatiques -
9:42 - 9:45des images et des vidéos
est difficile à prédire, -
9:45 - 9:47voulons-nous devenir si prudents
-
9:47 - 9:51que nous risquons de perdre
la conscience sociale de l'injustice ? -
9:51 - 9:52Alors que faire ?
-
9:53 - 9:56Mark Zuckerberg a
récemment déclaré qu'à l'avenir, -
9:56 - 10:00les utilisateurs, nous
ou presque tout le monde, -
10:00 - 10:02décideraient individuellement
-
10:02 - 10:04de ce qu'ils aimeraient
voir sur la plateforme -
10:04 - 10:06en paramétrant des filtres personnels.
-
10:06 - 10:09Tout le monde pourrait facilement
prétendre demeurer non perturbé -
10:09 - 10:13par des images de guerre
et d'autres conflits violents, comme... -
10:14 - 10:18MR : Je suis le genre de gars
qui n'est pas gêné par la vue de seins -
10:18 - 10:22et je suis très intéressé
par le réchauffement climatique, -
10:22 - 10:25mais je n'aime pas trop la guerre.
-
10:25 - 10:27HB : Pour moi, c'est plutôt le contraire,
-
10:27 - 10:31je n'ai aucun intérêt
pour les seins et corps nus. -
10:31 - 10:34Mais pourquoi pas des armes ?
J'aime les armes, oui. -
10:35 - 10:39MR : Allons, si nous ne partageons pas
une conscience sociale similaire, -
10:39 - 10:41comment sommes-nous censés
discuter de problèmes sociaux ? -
10:41 - 10:44Comment appeler les gens à agir ?
-
10:44 - 10:47Des bulles encore plus isolées
émergeraient. -
10:48 - 10:51Une des questions centrales est :
« Comment, à l'avenir, -
10:51 - 10:56la liberté d'expression sera considérée
face au besoin de protection des gens ? » -
10:56 - 10:58C'est une question de principes.
-
10:59 - 11:03Voulons-nous concevoir
une société ouverte ou fermée -
11:03 - 11:05pour l'espace numérique ?
-
11:05 - 11:11Au cœur de la question,
il y a « la liberté contre la sécurité ». -
11:12 - 11:17Facebook a toujours voulu
être une plateforme « saine ». -
11:17 - 11:21Avant tout, les utilisateurs
devraient se sentir en sécurité. -
11:21 - 11:23C'est le même choix de mots
-
11:23 - 11:26que les modérateurs de contenu
aux Philippines ont utilisés -
11:26 - 11:28dans nombre de nos interviews.
-
11:28 - 11:31(Vidéo) Le monde dans lequel nous vivons,
-
11:31 - 11:33à mon sens, n'est pas vraiment sain.
-
11:33 - 11:34(Musique)
-
11:34 - 11:38Dans ce monde, le mal existe vraiment.
-
11:38 - 11:41(Musique)
-
11:41 - 11:43Nous devons le surveiller.
-
11:43 - 11:45(Musique)
-
11:45 - 11:48Nous devons le contrôler --
bon ou mauvais. -
11:49 - 11:56(Musique)
-
11:58 - 12:02[Lève la tête, jeune homme ! -- Dieu]
-
12:03 - 12:05MR : Pour les jeunes
modérateurs de contenu -
12:05 - 12:08vivant dans un pays
pratiquant un catholicisme strict, -
12:08 - 12:10cela s'apparente à une mission chrétienne.
-
12:11 - 12:14Contrer les péchés du monde
-
12:14 - 12:16qui se propagent sur internet.
-
12:17 - 12:20« La propreté est proche de la piété »
-
12:20 - 12:24est un proverbe que tout le monde
connaît aux Philippines. -
12:24 - 12:26HB : D'autres se motivent
-
12:26 - 12:29en se comparant à leur président,
Rodrigo Duterte. -
12:30 - 12:33Il dirige les Philippines depuis 2016
-
12:33 - 12:37et il a gagné les élections
avec la promesse : « Je nettoierai ». -
12:38 - 12:41Cela signifie éliminer
tous genres de problèmes -
12:41 - 12:44en tuant littéralement
des gens dans les rues, -
12:44 - 12:47des gens censés être des criminels,
quoi que cela signifie. -
12:47 - 12:48Depuis qu'il a été élu,
-
12:48 - 12:51on estime que 20 000 personnes
ont été tuées. -
12:52 - 12:54Dans notre film, un modérateur dit :
-
12:54 - 12:56« Ce que Duterte fait dans les rues,
-
12:56 - 12:58je le fais pour Internet. »
-
12:59 - 13:02Et les voilà, nos super-héros
autoproclamés -
13:03 - 13:06qui font respecter la loi et l'ordre
dans notre monde numérique. -
13:06 - 13:08Ils nettoient, ils astiquent tout,
-
13:08 - 13:10ils nous libèrent
de tout ce qui est mauvais. -
13:10 - 13:14Des tâches auparavant réservées
aux autorités gouvernementales -
13:14 - 13:18ont été reprises par des jeunes diplômés
qui ont la vingtaine -
13:18 - 13:21et sont préparés via une formation
de trois à cinq jours -- -
13:21 - 13:23c'est la qualification --
-
13:23 - 13:26qui travaillent pour rien de moins
que secourir le monde. -
13:27 - 13:31MR : Les souverainetés nationales ont été
sous-traitées à des entreprises privées -
13:31 - 13:35qui refilent leurs responsabilités
à des prestataires. -
13:35 - 13:38C'est de la sous-traitance
de sous-traitance de sous-traitance -
13:38 - 13:39qui a lieu.
-
13:40 - 13:41Avec les réseaux sociaux,
-
13:41 - 13:44nous faisons face à une structure
complètement nouvelle -
13:44 - 13:46avec ses propres mécanismes,
-
13:46 - 13:47sa propre logique de fonctionnement
-
13:47 - 13:52et de ce fait, également
ses propres dangers -
13:52 - 13:57qui n'existaient pas encore
dans la sphère publique pré-numérique. -
13:57 - 13:59HB : Quand Mark Zuckerberg
était au Congrès américain -
13:59 - 14:01ou au Parlement européen,
-
14:01 - 14:03il a été confronté
à tous genres de critiques. -
14:03 - 14:06Sa réaction était toujours la même :
-
14:07 - 14:08« Nous arrangerons cela
-
14:08 - 14:11et je vais en assurer le suivi
avec mon équipe. » -
14:11 - 14:15Mais un tel débat ne devra pas se tenir
dans une arrière-salle de Facebook, -
14:15 - 14:16Twitter ou Google --
-
14:16 - 14:19un tel débat devrait être
ouvertement discuté -
14:19 - 14:21dans de nouveaux parlements cosmopolites,
-
14:21 - 14:26dans de nouvelles institutions
reflétant la diversité des gens -
14:26 - 14:31contribuant au projet utopique
d'un réseau mondial. -
14:31 - 14:34Si cela peut sembler impossible
de considérer les valeurs -
14:34 - 14:36des utilisateurs à travers le monde,
-
14:36 - 14:38cela vaut la peine de croire
-
14:38 - 14:41qu'il y a plus de choses qui nous lient
que de choses qui nous séparent. -
14:42 - 14:45MR : A une époque
où le populisme gagne en vigueur, -
14:45 - 14:49il devient populaire
de justifier les symptômes, -
14:49 - 14:50de les éradiquer,
-
14:50 - 14:52de les rendre invisibles.
-
14:53 - 14:56Cette idéologie se propage
à travers le monde, -
14:56 - 14:59analogue ainsi que numérique,
-
15:00 - 15:03et il est de notre devoir de l'arrêter
-
15:03 - 15:05avant qu'il ne soit trop tard.
-
15:06 - 15:10La question de la liberté
et de la démocratie -
15:10 - 15:13ne doit pas avoir
seulement ces deux options. -
15:13 - 15:14HB : Supprimer.
-
15:14 - 15:16MR : Ou ignorer.
-
15:17 - 15:19HB : Merci beaucoup.
-
15:19 - 15:24(Applaudissements)
- Title:
- Le prix d'un internet « propre »
- Speaker:
- Hans Block et Moritz Riesewieck
- Description:
-
Des millions d'images et de vidéos sont publiées chaque jour sur internet, pourtant nous voyons rarement du contenu choquant et perturbant dans nos fils d'actualités sur les réseaux sociaux. Qui maintient internet « propre » pour nous ? Dans cette intervention révélatrice, les documentaristes Hans Block et Moritz Riesewieck nous emmènent au sein du monde ténébreux des modérateurs de contenu en ligne -- les gens engagés par de grandes plateformes comme Facebook, Twitter et Google pour débarrasser Internet des contenus toxiques. Apprenez-en plus sur les effets psychologiques de ce type de travail et comment le « nettoyage numérique » influence ce que nous voyons et pensons tous.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:37
eric vautier approved French subtitles for The price of a "clean" internet | ||
eric vautier accepted French subtitles for The price of a "clean" internet | ||
eric vautier edited French subtitles for The price of a "clean" internet | ||
Morgane Quilfen edited French subtitles for The price of a "clean" internet | ||
Morgane Quilfen edited French subtitles for The price of a "clean" internet | ||
Morgane Quilfen edited French subtitles for The price of a "clean" internet | ||
Morgane Quilfen edited French subtitles for The price of a "clean" internet | ||
Morgane Quilfen edited French subtitles for The price of a "clean" internet |