Return to Video

Le prix d'un internet « propre »

  • 0:00 - 0:04
    [Cette intervention contient
    du contenu réservé aux adultes]
  • 0:05 - 0:09
    Moritz Riesewieck : Le 23 mars 2013,
  • 0:09 - 0:13
    des utilisateurs du monde entier
    ont découvert dans leur fil d'actualités
  • 0:13 - 0:19
    la vidéo d'une jeune fille
    se faisant violer par un homme plus âgé.
  • 0:19 - 0:23
    Avant que cette vidéo
    ne soit retirée de Facebook,
  • 0:23 - 0:28
    elle avait déjà été partagée 16 000 fois
  • 0:28 - 0:32
    et avait même été aimée 4 000 fois.
  • 0:33 - 0:37
    La vidéo est devenue virale
    et a infecté internet.
  • 0:38 - 0:41
    Hans Block : C'est le moment
    où nous nous sommes demandé :
  • 0:41 - 0:44
    comment une telle chose
    a-t-elle pu arriver sur Facebook ?
  • 0:44 - 0:45
    Et en même temps,
  • 0:45 - 0:48
    pourquoi ne voyons-nous pas
    des contenus similaires plus souvent ?
  • 0:48 - 0:52
    Il y a beaucoup de contenus
    révoltants en ligne,
  • 0:52 - 0:54
    mais pourquoi voyons-nous si rarement
  • 0:54 - 0:57
    de telles merdes
    sur Facebook, Twitter ou Google ?
  • 0:57 - 0:59
    MR : Si les logiciels
    de reconnaissance des images
  • 0:59 - 1:04
    peuvent identifier l’esquisse
    d'organes sexuels,
  • 1:04 - 1:08
    de sang ou de peau nue
    dans des images et des vidéos,
  • 1:08 - 1:14
    ils ont d'immenses difficultés
    à distinguer du contenu pornographique
  • 1:14 - 1:18
    de photos de vacances, de statues d'Adonis
  • 1:18 - 1:21
    ou de campagnes de dépistage
    du cancer du sein.
  • 1:21 - 1:25
    Ils ne peuvent pas distinguer
    Roméo et Juliette mourant sur scène
  • 1:25 - 1:28
    d'une vraie attaque au couteau.
  • 1:28 - 1:33
    Ils ne peuvent pas distinguer
    la satire de la propagande
  • 1:33 - 1:37
    ou l'ironie de la haine et ainsi de suite.
  • 1:38 - 1:42
    Par conséquent, des êtres humains
    sont nécessaires pour décider
  • 1:42 - 1:46
    quels contenus suspicieux
    doivent être supprimés
  • 1:46 - 1:48
    et lesquels doivent être conservés.
  • 1:49 - 1:52
    Des êtres humains au sujet desquels
    nous ne savons presque rien
  • 1:52 - 1:54
    car ils travaillent dans le secret.
  • 1:54 - 1:56
    Ils signent des accords de confidentialité
  • 1:56 - 1:59
    qui leur interdisent
    de parler ou de partager
  • 1:59 - 2:03
    ce qu'ils voient sur leur écran
    et ce que ce travail leur fait.
  • 2:03 - 2:07
    Ils sont obligés d'utiliser des codes
    pour dissimuler pour qui ils travaillent.
  • 2:08 - 2:10
    Ils sont surveillés par des sociétés
    de sécurité privée
  • 2:11 - 2:14
    afin d'assurer qu'ils ne parlent pas
    à des journalistes.
  • 2:14 - 2:18
    Ils sont menacés d'amende s'ils parlent.
  • 2:18 - 2:22
    Tout cela semble être
    une histoire policière étrange,
  • 2:22 - 2:24
    mais c'est vrai.
  • 2:24 - 2:25
    Ces gens existent
  • 2:26 - 2:30
    et ils sont appelés
    modérateurs de contenu.
  • 2:31 - 2:34
    HB : Nous sommes les réalisateurs
    du documentaire « The Cleaners »
  • 2:34 - 2:36
    et nous aimerions vous emmener
  • 2:36 - 2:39
    dans un monde que beaucoup
    ne connaissent pas encore.
  • 2:39 - 2:41
    Voici un court extrait de notre film.
  • 2:47 - 2:50
    (Musique)
  • 2:52 - 2:56
    (Vidéo) Modérateur : Je dois être anonyme
    car nous avons signé un contrat.
  • 2:58 - 3:01
    Nous n'avons pas le droit de déclarer
    avec qui nous travaillons.
  • 3:03 - 3:05
    Je vous parle
  • 3:05 - 3:09
    car le monde devrait savoir
    que nous existons.
  • 3:11 - 3:13
    Il y a quelqu'un qui vérifie
    les réseaux sociaux.
  • 3:14 - 3:18
    Nous faisons de notre mieux
    pour rendre cette plateforme
  • 3:18 - 3:20
    sûre pour tous.
  • 3:30 - 3:32
    Supprimer.
  • 3:32 - 3:34
    Ignorer.
  • 3:34 - 3:35
    Supprimer.
  • 3:35 - 3:37
    Ignorer.
  • 3:37 - 3:38
    Supprimer.
  • 3:39 - 3:40
    Ignorer.
  • 3:40 - 3:41
    Ignorer.
  • 3:42 - 3:43
    Supprimer.
  • 3:46 - 3:48
    HB : Les soi-disant modérateurs de contenu
  • 3:48 - 3:52
    ne reçoivent leur salaire
    de Facebook, Twitter ou Google,
  • 3:52 - 3:54
    mais d'entreprises de sous-traitance
  • 3:54 - 3:57
    afin de maintenir
    leurs rémunérations basses.
  • 3:57 - 3:59
    Des dizaines de milliers de jeunes gens
  • 3:59 - 4:02
    qui regardent tout ce que
    nous ne sommes pas censés voir.
  • 4:02 - 4:06
    Nous parlons de décapitations,
    de mutilations,
  • 4:06 - 4:09
    d'exécutions, de nécrophilie,
    de torture, de maltraitance des enfants.
  • 4:10 - 4:12
    Des milliers d'images chaque jour --
  • 4:12 - 4:15
    ignorer, supprimer, jour et nuit.
  • 4:15 - 4:19
    La plupart de ce travail
    est réalisé à Manille,
  • 4:19 - 4:22
    où les déchets toxiques analogiques
    du monde occidental
  • 4:22 - 4:25
    étaient transportés pendant des années
    par porte-conteneurs
  • 4:25 - 4:28
    et on s'y débarrasse maintenant
    de nos déchets numériques
  • 4:28 - 4:29
    par fibre optique.
  • 4:29 - 4:32
    Tout comme les éboueurs
  • 4:32 - 4:35
    fouillent de gigantesques décharges
    en lisière de la ville,
  • 4:35 - 4:40
    les modérateurs de contenu cliquent
    dans un océan toxique et intarissable
  • 4:40 - 4:44
    d'images et de vidéos et de tous genres
    de déchets intellectuels
  • 4:44 - 4:47
    pour que nous n'ayons pas à les regarder.
  • 4:47 - 4:50
    MR : Mais contrairement
    aux plaies des éboueurs,
  • 4:50 - 4:54
    celles des modérateurs de contenu
    demeurent invisibles.
  • 4:54 - 4:57
    Pleines de contenus
    choquants et dérangeants,
  • 4:57 - 5:00
    ces images et vidéos
    s'enfouissent dans leurs souvenirs
  • 5:01 - 5:04
    où, n'importe quand, elles peuvent
    avoir des effets imprévisibles :
  • 5:04 - 5:07
    troubles alimentaires, perte de la libido,
  • 5:07 - 5:11
    troubles de l'anxiété, alcoolisme,
  • 5:11 - 5:14
    dépression, pouvant même mener au suicide.
  • 5:14 - 5:17
    Les images et vidéos les infectent
  • 5:17 - 5:19
    et souvent ne les laissent
    jamais s'en tirer.
  • 5:19 - 5:24
    S'ils sont malchanceux, ils développent
    un trouble du stress post-traumatique
  • 5:24 - 5:26
    comme les soldats
    après des opératons de guerre.
  • 5:27 - 5:31
    Dans notre film, nous racontons
    l'histoire d'un jeune homme
  • 5:31 - 5:34
    qui a dû contrôler
    des diffusions en direct
  • 5:34 - 5:36
    d'automutilation
    et de tentatives de suicide,
  • 5:36 - 5:38
    à répétition,
  • 5:38 - 5:41
    et qui a fini par se suicider.
  • 5:42 - 5:45
    Ce n'est pas un cas isolé,
    d'après ce que l'on nous a dit.
  • 5:45 - 5:49
    C'est le prix que nous payons tous
  • 5:49 - 5:52
    pour nos environnements
    sur les réseaux sociaux
  • 5:52 - 5:57
    soi-disant propres, sûrs et « sains ».
  • 5:58 - 6:01
    Jamais auparavant
    dans l'histoire de l'humanité,
  • 6:01 - 6:05
    il n'a été plus simple de toucher
    des millions de gens à travers le monde
  • 6:05 - 6:06
    en quelques secondes.
  • 6:06 - 6:10
    Ce qui est posté sur les réseaux sociaux
    se propage si rapidement,
  • 6:10 - 6:14
    cela devient viral et excite l'esprit
    de gens à travers le monde.
  • 6:14 - 6:17
    Avant que ce ne soit supprimé,
  • 6:17 - 6:18
    il est souvent déjà trop tard.
  • 6:19 - 6:21
    Des millions de gens ont déjà été infectés
  • 6:21 - 6:23
    par la haine et la colère
  • 6:23 - 6:26
    et soit ils deviennent actifs en ligne
  • 6:26 - 6:29
    en diffusant ou en amplifiant la haine
  • 6:29 - 6:33
    ou ils descendent dans les rues
    et prennent les armes.
  • 6:33 - 6:36
    HB : Par conséquent, une armée
    de modérateurs de contenu
  • 6:36 - 6:40
    s'assoient devant un écran pour éviter
    de nouveaux dégâts collatéraux.
  • 6:40 - 6:43
    Ils décident dès que possible
  • 6:43 - 6:47
    si le contenu demeure
    sur la plateforme -- ignorer --
  • 6:47 - 6:49
    ou disparaît -- supprimer.
  • 6:50 - 6:52
    Mais chaque décision
    n'est pas aussi claire
  • 6:52 - 6:55
    que pour une vidéo
    de maltraitance d'enfants.
  • 6:55 - 6:58
    Qu'en est-il de contenu
    controversé, ambivalent,
  • 6:58 - 7:01
    téléchargé par des activistes
    des droits civils
  • 7:01 - 7:02
    ou des journalistes citoyens ?
  • 7:02 - 7:05
    Les modérateurs de contenu
    prennent souvent de telles décisions
  • 7:05 - 7:08
    à la même vitesse
    que pour les cas évidents.
  • 7:10 - 7:12
    MR : Nous allons maintenant
    vous montrer une vidéo
  • 7:12 - 7:16
    et nous aimerions que vous décidiez :
  • 7:16 - 7:19
    est-ce que vous la supprimeriez ou pas ?
  • 7:19 - 7:21
    (Vidéo) (Bruits de frappe aérienne)
  • 7:21 - 7:24
    (Explosion)
  • 7:28 - 7:34
    (Gens parlant en arabe)
  • 7:34 - 7:36
    MR : Nous avons
    un peu flouté cela pour vous.
  • 7:37 - 7:41
    Un enfant serait potentiellement
    dangereusement perturbé
  • 7:41 - 7:44
    et extrêmement effrayé par un tel contenu.
  • 7:44 - 7:46
    Préféreriez-vous le supprimer ?
  • 7:48 - 7:51
    Mais... et si cette vidéo
    pouvait aider à enquêter
  • 7:51 - 7:53
    sur les crimes de guerre en Syrie ?
  • 7:53 - 7:56
    Et si personne n'entendait parler
    de cette frappe aérienne
  • 7:56 - 8:00
    car Facebook, YouTube, Twitter
    avaient décidé de retirer ce contenu ?
  • 8:01 - 8:05
    Airwars, une organisation
    non gouvernementale basée à Londres,
  • 8:05 - 8:08
    essaye de trouver ces vidéos
    aussi vite que possible,
  • 8:08 - 8:11
    dès qu'elles sont publiées
    sur les réseaux sociaux,
  • 8:11 - 8:12
    afin de les archiver.
  • 8:13 - 8:16
    Car ils savent que, tôt ou tard,
  • 8:16 - 8:19
    Facebook, YouTube, Twitter
    retireront un tel contenu.
  • 8:19 - 8:22
    Les gens armés de leur téléphone portable
  • 8:22 - 8:26
    peuvent rendre visible ce à quoi
    les journalistes n'ont souvent pas accès.
  • 8:26 - 8:29
    Les groupes pour les droits civils
    n'ont souvent pas de meilleure option
  • 8:29 - 8:33
    pour rendre leurs enregistrements
    rapidement accessibles à un large public
  • 8:33 - 8:35
    que de les publier
    sur les réseaux sociaux.
  • 8:36 - 8:40
    N'est-ce pas le potentiel responsabilisant
    que le World Wide Web devait avoir ?
  • 8:41 - 8:43
    N'était-ce pas les rêves
  • 8:43 - 8:47
    que les gens avaient au début
    du World Wide Web ?
  • 8:48 - 8:50
    De telles images et vidéos
    ne peuvent-elles pas
  • 8:50 - 8:56
    persuader les gens qui sont devenus
    insensibles aux faits
  • 8:56 - 8:57
    de réfléchir à nouveau ?
  • 8:58 - 9:02
    HB : Mais au lieu de cela, tout ce qui
    pourrait être perturbant est supprimé.
  • 9:02 - 9:04
    Il y a un changement généralisé
    dans la société.
  • 9:04 - 9:08
    Les médias, par exemple, utilisent
    de plus en plus souvent des avertissements
  • 9:08 - 9:09
    en haut des articles
  • 9:09 - 9:13
    que certains pourraient percevoir
    comme blessants ou perturbants.
  • 9:13 - 9:17
    De plus en plus d'étudiants
    dans les universités américaines
  • 9:17 - 9:19
    exigent l'exclusion du programme
    de classiques antiques
  • 9:19 - 9:23
    qui dépeignent de la violence
    ou une agression sexuelle.
  • 9:23 - 9:25
    Jusqu'où devrions-nous aller ?
  • 9:26 - 9:29
    L'intégrité physique est garantie
    comme un droit humain
  • 9:29 - 9:31
    dans les constitutions du monde.
  • 9:31 - 9:35
    Dans la Charte des droits fondamentaux
    de l'Union européenne,
  • 9:35 - 9:39
    ce droit est expressément appliqué
    à l'intégrité mentale.
  • 9:39 - 9:42
    Mais même si les effets
    potentiellement traumatiques
  • 9:42 - 9:45
    des images et des vidéos
    est difficile à prédire,
  • 9:45 - 9:47
    voulons-nous devenir si prudents
  • 9:47 - 9:51
    que nous risquons de perdre
    la conscience sociale de l'injustice ?
  • 9:51 - 9:52
    Alors que faire ?
  • 9:53 - 9:56
    Mark Zuckerberg a
    récemment déclaré qu'à l'avenir,
  • 9:56 - 10:00
    les utilisateurs, nous
    ou presque tout le monde,
  • 10:00 - 10:02
    décideraient individuellement
  • 10:02 - 10:04
    de ce qu'ils aimeraient
    voir sur la plateforme
  • 10:04 - 10:06
    en paramétrant des filtres personnels.
  • 10:06 - 10:09
    Tout le monde pourrait facilement
    prétendre demeurer non perturbé
  • 10:09 - 10:13
    par des images de guerre
    et d'autres conflits violents, comme...
  • 10:14 - 10:18
    MR : Je suis le genre de gars
    qui n'est pas gêné par la vue de seins
  • 10:18 - 10:22
    et je suis très intéressé
    par le réchauffement climatique,
  • 10:22 - 10:25
    mais je n'aime pas trop la guerre.
  • 10:25 - 10:27
    HB : Pour moi, c'est plutôt le contraire,
  • 10:27 - 10:31
    je n'ai aucun intérêt
    pour les seins et corps nus.
  • 10:31 - 10:34
    Mais pourquoi pas des armes ?
    J'aime les armes, oui.
  • 10:35 - 10:39
    MR : Allons, si nous ne partageons pas
    une conscience sociale similaire,
  • 10:39 - 10:41
    comment sommes-nous censés
    discuter de problèmes sociaux ?
  • 10:41 - 10:44
    Comment appeler les gens à agir ?
  • 10:44 - 10:47
    Des bulles encore plus isolées
    émergeraient.
  • 10:48 - 10:51
    Une des questions centrales est :
    « Comment, à l'avenir,
  • 10:51 - 10:56
    la liberté d'expression sera considérée
    face au besoin de protection des gens ? »
  • 10:56 - 10:58
    C'est une question de principes.
  • 10:59 - 11:03
    Voulons-nous concevoir
    une société ouverte ou fermée
  • 11:03 - 11:05
    pour l'espace numérique ?
  • 11:05 - 11:11
    Au cœur de la question,
    il y a « la liberté contre la sécurité ».
  • 11:12 - 11:17
    Facebook a toujours voulu
    être une plateforme « saine ».
  • 11:17 - 11:21
    Avant tout, les utilisateurs
    devraient se sentir en sécurité.
  • 11:21 - 11:23
    C'est le même choix de mots
  • 11:23 - 11:26
    que les modérateurs de contenu
    aux Philippines ont utilisés
  • 11:26 - 11:28
    dans nombre de nos interviews.
  • 11:28 - 11:31
    (Vidéo) Le monde dans lequel nous vivons,
  • 11:31 - 11:33
    à mon sens, n'est pas vraiment sain.
  • 11:33 - 11:34
    (Musique)
  • 11:34 - 11:38
    Dans ce monde, le mal existe vraiment.
  • 11:38 - 11:41
    (Musique)
  • 11:41 - 11:43
    Nous devons le surveiller.
  • 11:43 - 11:45
    (Musique)
  • 11:45 - 11:48
    Nous devons le contrôler --
    bon ou mauvais.
  • 11:49 - 11:56
    (Musique)
  • 11:58 - 12:02
    [Lève la tête, jeune homme ! -- Dieu]
  • 12:03 - 12:05
    MR : Pour les jeunes
    modérateurs de contenu
  • 12:05 - 12:08
    vivant dans un pays
    pratiquant un catholicisme strict,
  • 12:08 - 12:10
    cela s'apparente à une mission chrétienne.
  • 12:11 - 12:14
    Contrer les péchés du monde
  • 12:14 - 12:16
    qui se propagent sur internet.
  • 12:17 - 12:20
    « La propreté est proche de la piété »
  • 12:20 - 12:24
    est un proverbe que tout le monde
    connaît aux Philippines.
  • 12:24 - 12:26
    HB : D'autres se motivent
  • 12:26 - 12:29
    en se comparant à leur président,
    Rodrigo Duterte.
  • 12:30 - 12:33
    Il dirige les Philippines depuis 2016
  • 12:33 - 12:37
    et il a gagné les élections
    avec la promesse : « Je nettoierai ».
  • 12:38 - 12:41
    Cela signifie éliminer
    tous genres de problèmes
  • 12:41 - 12:44
    en tuant littéralement
    des gens dans les rues,
  • 12:44 - 12:47
    des gens censés être des criminels,
    quoi que cela signifie.
  • 12:47 - 12:48
    Depuis qu'il a été élu,
  • 12:48 - 12:51
    on estime que 20 000 personnes
    ont été tuées.
  • 12:52 - 12:54
    Dans notre film, un modérateur dit :
  • 12:54 - 12:56
    « Ce que Duterte fait dans les rues,
  • 12:56 - 12:58
    je le fais pour Internet. »
  • 12:59 - 13:02
    Et les voilà, nos super-héros
    autoproclamés
  • 13:03 - 13:06
    qui font respecter la loi et l'ordre
    dans notre monde numérique.
  • 13:06 - 13:08
    Ils nettoient, ils astiquent tout,
  • 13:08 - 13:10
    ils nous libèrent
    de tout ce qui est mauvais.
  • 13:10 - 13:14
    Des tâches auparavant réservées
    aux autorités gouvernementales
  • 13:14 - 13:18
    ont été reprises par des jeunes diplômés
    qui ont la vingtaine
  • 13:18 - 13:21
    et sont préparés via une formation
    de trois à cinq jours --
  • 13:21 - 13:23
    c'est la qualification --
  • 13:23 - 13:26
    qui travaillent pour rien de moins
    que secourir le monde.
  • 13:27 - 13:31
    MR : Les souverainetés nationales ont été
    sous-traitées à des entreprises privées
  • 13:31 - 13:35
    qui refilent leurs responsabilités
    à des prestataires.
  • 13:35 - 13:38
    C'est de la sous-traitance
    de sous-traitance de sous-traitance
  • 13:38 - 13:39
    qui a lieu.
  • 13:40 - 13:41
    Avec les réseaux sociaux,
  • 13:41 - 13:44
    nous faisons face à une structure
    complètement nouvelle
  • 13:44 - 13:46
    avec ses propres mécanismes,
  • 13:46 - 13:47
    sa propre logique de fonctionnement
  • 13:47 - 13:52
    et de ce fait, également
    ses propres dangers
  • 13:52 - 13:57
    qui n'existaient pas encore
    dans la sphère publique pré-numérique.
  • 13:57 - 13:59
    HB : Quand Mark Zuckerberg
    était au Congrès américain
  • 13:59 - 14:01
    ou au Parlement européen,
  • 14:01 - 14:03
    il a été confronté
    à tous genres de critiques.
  • 14:03 - 14:06
    Sa réaction était toujours la même :
  • 14:07 - 14:08
    « Nous arrangerons cela
  • 14:08 - 14:11
    et je vais en assurer le suivi
    avec mon équipe. »
  • 14:11 - 14:15
    Mais un tel débat ne devra pas se tenir
    dans une arrière-salle de Facebook,
  • 14:15 - 14:16
    Twitter ou Google --
  • 14:16 - 14:19
    un tel débat devrait être
    ouvertement discuté
  • 14:19 - 14:21
    dans de nouveaux parlements cosmopolites,
  • 14:21 - 14:26
    dans de nouvelles institutions
    reflétant la diversité des gens
  • 14:26 - 14:31
    contribuant au projet utopique
    d'un réseau mondial.
  • 14:31 - 14:34
    Si cela peut sembler impossible
    de considérer les valeurs
  • 14:34 - 14:36
    des utilisateurs à travers le monde,
  • 14:36 - 14:38
    cela vaut la peine de croire
  • 14:38 - 14:41
    qu'il y a plus de choses qui nous lient
    que de choses qui nous séparent.
  • 14:42 - 14:45
    MR : A une époque
    où le populisme gagne en vigueur,
  • 14:45 - 14:49
    il devient populaire
    de justifier les symptômes,
  • 14:49 - 14:50
    de les éradiquer,
  • 14:50 - 14:52
    de les rendre invisibles.
  • 14:53 - 14:56
    Cette idéologie se propage
    à travers le monde,
  • 14:56 - 14:59
    analogue ainsi que numérique,
  • 15:00 - 15:03
    et il est de notre devoir de l'arrêter
  • 15:03 - 15:05
    avant qu'il ne soit trop tard.
  • 15:06 - 15:10
    La question de la liberté
    et de la démocratie
  • 15:10 - 15:13
    ne doit pas avoir
    seulement ces deux options.
  • 15:13 - 15:14
    HB : Supprimer.
  • 15:14 - 15:16
    MR : Ou ignorer.
  • 15:17 - 15:19
    HB : Merci beaucoup.
  • 15:19 - 15:24
    (Applaudissements)
Title:
Le prix d'un internet « propre »
Speaker:
Hans Block et Moritz Riesewieck
Description:

Des millions d'images et de vidéos sont publiées chaque jour sur internet, pourtant nous voyons rarement du contenu choquant et perturbant dans nos fils d'actualités sur les réseaux sociaux. Qui maintient internet « propre » pour nous ? Dans cette intervention révélatrice, les documentaristes Hans Block et Moritz Riesewieck nous emmènent au sein du monde ténébreux des modérateurs de contenu en ligne -- les gens engagés par de grandes plateformes comme Facebook, Twitter et Google pour débarrasser Internet des contenus toxiques. Apprenez-en plus sur les effets psychologiques de ce type de travail et comment le « nettoyage numérique » influence ce que nous voyons et pensons tous.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:37

French subtitles

Revisions