Return to Video

Comment nous pouvons éliminer le matériel pédopornographique d'Internet

  • 0:01 - 0:03
    [Contient du contenu destiné aux adultes]
  • 0:06 - 0:07
    Il y a cinq ans,
  • 0:07 - 0:11
    J'ai reçu un appel qui allait
    changer ma vie.
  • 0:12 - 0:14
    Je me rappelle très bien cette journée.
  • 0:15 - 0:17
    C'était à cette période de l'année,
  • 0:17 - 0:19
    j'étais dans mon bureau.
  • 0:20 - 0:23
    Le soleil entrait par la fenêtre.
  • 0:24 - 0:25
    Mon téléphone a sonné.
  • 0:26 - 0:27
    J'ai décroché,
  • 0:28 - 0:32
    c'était deux agents fédéraux,
    me demandant de les aider
  • 0:32 - 0:34
    à identifier une petite fille
  • 0:34 - 0:40
    dans des centaines d'images d'abus
    sexuels d'enfants trouvées en ligne.
  • 0:41 - 0:44
    Ils venaient de commencer
    à travailler sur l'affaire,
  • 0:44 - 0:47
    mais ils savaient
  • 0:47 - 0:51
    que ses abus avaient été diffusés
    mondialement pendant des années
  • 0:51 - 0:57
    sur des sites du dark web dédiés
    aux abus sexuels sur des enfants.
  • 0:58 - 1:02
    Et son agresseur était incroyablement
    sophistiqué sur le plan technologique :
  • 1:02 - 1:07
    de nouvelles images et vidéos
    toutes les semaines,
  • 1:07 - 1:11
    mais très peu d'informations
    sur qui elle était
  • 1:11 - 1:12
    ou sa localisation.
  • 1:13 - 1:15
    Ils nous ont appelés,
  • 1:15 - 1:17
    car nous étions une association
  • 1:17 - 1:21
    créant des technologies
    pour lutter contre les abus d'enfants.
  • 1:22 - 1:24
    Mais nous n'existions que depuis deux ans,
  • 1:24 - 1:27
    et nous n'avions travaillé
    que sur le trafic d'enfants.
  • 1:28 - 1:30
    Et j'ai dû leur dire
  • 1:30 - 1:31
    que nous n'avions rien.
  • 1:32 - 1:36
    Nous n'avions rien pour les aider
    à mettre fin à cet abus.
  • 1:37 - 1:41
    Il leur a fallu un an de plus
  • 1:41 - 1:44
    pour enfin trouver cette enfant.
  • 1:45 - 1:47
    Lorsqu'elle a été sauvée,
  • 1:47 - 1:54
    des centaines d'images et vidéos
    de son viol avaient circulé,
  • 1:54 - 1:55
    du dark web
  • 1:55 - 1:58
    vers des réseaux peer-to-peer,
    des salons de chat privés
  • 1:58 - 2:04
    jusqu'aux sites Web
    que vous et moi consultons chaque jour.
  • 2:05 - 2:09
    Elle doit lutter pour s'en remettre,
  • 2:09 - 2:13
    sachant que des milliers
    de personnes dans le monde
  • 2:13 - 2:16
    continuent de regarder son viol.
  • 2:18 - 2:20
    Ces cinq dernières années,
    j'ai pu apprendre
  • 2:20 - 2:23
    que ce cas était loin d'être le seul.
  • 2:24 - 2:28
    Comment notre société
    en est-elle arrivée là ?
  • 2:29 - 2:33
    Dans la fin des années 80,
    la pédopornographie -
  • 2:33 - 2:39
    ou plutôt, l'exploitation
    sexuelle des enfants,
  • 2:39 - 2:40
    a été presque éliminée.
  • 2:41 - 2:44
    Les échanges par la poste étaient
    devenus trop risqués,
  • 2:44 - 2:47
    suite aux nouvelles lois,
    et à l'augmentation des poursuites.
  • 2:48 - 2:52
    L'arrivée d'internet a permis
    l'explosion du marché
  • 2:53 - 2:57
    La quantité de contenu
    qui circule aujourd'hui
  • 2:57 - 3:00
    est massive et en pleine croissance.
  • 3:00 - 3:04
    C'est un problème mondial,
  • 3:04 - 3:06
    mais en s'intéressant juste aux USA :
  • 3:06 - 3:08
    rien qu'aux USA l'année dernière,
  • 3:08 - 3:14
    plus de 45 millions d'images
    et vidéos pédopornographiques
  • 3:14 - 3:17
    ont été signalées au National Center
    for Missing and Exploited Children,
  • 3:17 - 3:22
    c'est presque le double
    de l'année précédente.
  • 3:23 - 3:28
    La réalité derrière ces chiffres
    est dure à imaginer.
  • 3:28 - 3:34
    Plus de 60% des images
    représentent des moins de 12 ans,
  • 3:34 - 3:38
    la plupart d'entre eux incluent des
    actes de violence sexuelle extrêmes.
  • 3:39 - 3:44
    Les agresseurs sont encouragés dans les
    chats dédiés à la maltraitance d'enfants,
  • 3:44 - 3:47
    où ils gagnent en rang et en notoriété
  • 3:47 - 3:50
    faisant plus de victimes.
  • 3:50 - 3:53
    Dans ce marché,
  • 3:53 - 3:57
    la monnaie est le contenu.
  • 3:58 - 4:02
    Les agresseurs ont rapidement
    tiré parti des nouvelles technologies,
  • 4:02 - 4:05
    mais notre réponse
    en tant que société est lente.
  • 4:06 - 4:10
    Les agresseurs ne lisent pas
    les CGU des sites Internet,
  • 4:10 - 4:14
    et le contenu ne respecte pas
    les frontières géographiques.
  • 4:15 - 4:21
    Ils gagnent quand nous regardons
    une chose à la fois,
  • 4:21 - 4:25
    ce qui est exactement la façon dont
    notre réponse est conçue aujourd'hui.
  • 4:25 - 4:28
    Les forces de l'ordre travaillent
    dans une seule juridiction.
  • 4:28 - 4:32
    Les entreprises ne surveillent que
    leurs propres plateformes.
  • 4:32 - 4:34
    Et quoi qu'ils apprennent,
  • 4:35 - 4:37
    ils le partagent rarement.
  • 4:37 - 4:43
    Il est évident que cette déconnexion
    ne fonctionne pas.
  • 4:44 - 4:48
    Nous devons repenser notre réponse
    à cette épidémie
  • 4:48 - 4:49
    de l'ère numérique.
  • 4:50 - 4:53
    Et c'est exactement ce que Thorn fait.
  • 4:53 - 4:57
    Nous construisons la technologie
    pour connecter ces points,
  • 4:57 - 4:59
    pour armer tous les acteurs -
  • 4:59 - 5:02
    les forces de l'ordre, les ONG
    et les entreprises -
  • 5:02 - 5:06
    avec les outils dont ils ont besoin
    pour éliminer définitivement
  • 5:06 - 5:08
    le contenu pédopornographique d'Internet.
  • 5:10 - 5:11
    Parlons un peu --
  • 5:11 - 5:12
    (Applaudissements)
  • 5:12 - 5:14
    Merci.
  • 5:14 - 5:16
    (Applaudissements)
  • 5:18 - 5:20
    Parlons un peu de ces points.
  • 5:21 - 5:25
    Vous l'imaginez, le contenu est atroce.
  • 5:25 - 5:28
    Si on n'y est pas obligé,
    on ne veut pas le voir.
  • 5:28 - 5:33
    La plupart des entreprises
    ou forces de l'ordre
  • 5:33 - 5:35
    qui ont accès à ce contenu
  • 5:35 - 5:39
    peuvent traduire chaque fichier
    en une suite de chiffres.
  • 5:39 - 5:40
    C'est un « hash ».
  • 5:40 - 5:42
    C'est surtout une empreinte digitale
  • 5:42 - 5:45
    par fichier ou vidéo.
  • 5:45 - 5:49
    Cela leur permet d'utiliser
    ces informations lors d'enquêtes,
  • 5:49 - 5:52
    ou aux entreprises de supprimer
    le contenu de leurs plateformes
  • 5:52 - 5:58
    sans avoir à revoir chaque image ou vidéo.
  • 5:58 - 6:00
    Le problème actuel est que
  • 6:00 - 6:04
    des centaines de millions de ces hash
  • 6:04 - 6:08
    traînent dans des silos de données
    autour du monde.
  • 6:08 - 6:09
    Dans ces silos,
  • 6:09 - 6:12
    cela a beau fonctionner pour
    l'agence qui en a le contrôle,
  • 6:12 - 6:17
    mais sans partager ces données,
    nous ne savons pas
  • 6:17 - 6:20
    lesquelles montrent des enfants
    qui ont été sauvés
  • 6:20 - 6:23
    ou ont toujours besoin d'être sauvés.
  • 6:23 - 6:27
    Notre but premier est donc de connecter
  • 6:27 - 6:30
    toutes ces données.
  • 6:30 - 6:36
    Il y a deux façons dont elles
    peuvent transformer cet espace,
  • 6:37 - 6:40
    combinées à des logiciels
    utilisés mondialement.
  • 6:40 - 6:43
    La première est pour la police :
  • 6:43 - 6:47
    identifier les victimes plus rapidement,
  • 6:47 - 6:48
    arrêter les abus,
  • 6:48 - 6:51
    et bloquer les créateurs de contenu.
  • 6:51 - 6:54
    La deuxième est pour les entreprises :
  • 6:54 - 6:58
    s'en servir comme indices pour
    identifier les millions de dossiers
  • 6:58 - 6:59
    qui circulent actuellement,
  • 6:59 - 7:01
    les retirer
  • 7:01 - 7:07
    puis empêcher la mise en ligne
    de contenu avant qu'il devienne viral.
  • 7:10 - 7:11
    Il y a quatre ans,
  • 7:11 - 7:13
    à la fin de l'affaire
  • 7:14 - 7:18
    notre équipe était là,
    ressentant un genre de...
  • 7:20 - 7:23
    sentiment profond d'échec, je dirais,
  • 7:23 - 7:27
    car nous avions observé toute cette année
  • 7:27 - 7:28
    quand ils la cherchaient.
  • 7:28 - 7:32
    Nous avons vu chaque étape de l'enquête
  • 7:32 - 7:34
    où ils auraient pu la retrouver
    plus rapidement
  • 7:34 - 7:37
    si la technologie avait existé.
  • 7:38 - 7:40
    Nous sommes partis de ça
  • 7:40 - 7:43
    pour commencer à faire la seule
    chose que nous savions faire :
  • 7:43 - 7:45
    nous avons créé des logiciels.
  • 7:46 - 7:48
    Nous avons commencé
    avec les forces de l'ordre.
  • 7:48 - 7:52
    Nous rêvions d'une alarme
    sur le bureau des policiers
  • 7:52 - 7:57
    pour que quelqu'un puisse commencer
    à mener l'enquête
  • 7:57 - 8:00
    dès que quelqu'un osait poster
    une nouvelle victime.
  • 8:01 - 8:04
    Je ne peux évidemment pas détailler
    ce logiciel,
  • 8:04 - 8:07
    mais il est utilisé dans 38 pays,
  • 8:07 - 8:10
    réduisant le temps de retrouver un enfant
  • 8:10 - 8:12
    de plus de 65%.
  • 8:12 - 8:17
    (Applaudissements)
  • 8:21 - 8:24
    Nous travaillons actuellement
    sur le second point :
  • 8:24 - 8:30
    créer le logiciel qui aide les entreprises
    à repérer et supprimer le contenu.
  • 8:31 - 8:34
    Parlons un instant de ces entreprises.
  • 8:34 - 8:40
    Je vous disais, 45 millions d'images
    et vidéos rien qu'aux US l'année dernière.
  • 8:40 - 8:44
    Qui venaient uniquement de 12 entreprises.
  • 8:46 - 8:52
    Douze entreprises, 45 millions
    de dossiers d'abus d'enfants.
  • 8:52 - 8:55
    Venant de ces entreprises
    ayant les moyens financiers
  • 8:55 - 9:00
    de créer les infrastructures nécessaires
    à la suppression de ce contenu.
  • 9:00 - 9:02
    Il y a des centaines d'autres entreprises,
  • 9:02 - 9:05
    petites à moyennes, tout autour du monde
  • 9:05 - 9:07
    qui doivent faire ce travail, mais qui :
  • 9:07 - 9:12
    1) soit n'imaginent pas leur plateforme
    utilisée pour ce contenu,
  • 9:12 - 9:18
    2) soit n'ont pas d'argent à investir si
    cela ne leur rapporte pas de bénéfices.
  • 9:19 - 9:22
    Nous avons pris l'initiative
    de le faire pour eux,
  • 9:22 - 9:27
    et plus il y a d'entreprises,
    plus ce système est performant.
  • 9:28 - 9:30
    Je vous donne un exemple.
  • 9:30 - 9:34
    Notre premier partenaire, Imgur -
    l'un des sites
  • 9:34 - 9:38
    les plus visités aux États-Unis -
    partage des millions
  • 9:38 - 9:43
    de contenus crées
    par les utilisateurs chaque jour
  • 9:43 - 9:45
    dans le but de faire d'Internet
    un endroit plus amusant.
  • 9:46 - 9:48
    Ils se sont associés à nous.
  • 9:48 - 9:51
    En 20 minutes d'utilisation
    de notre système,
  • 9:51 - 9:55
    quelqu'un a essayé de publier
    du contenu abusif.
  • 9:55 - 9:57
    Ils ont pu l'en empêcher, le supprimer,
  • 9:57 - 10:00
    et l'ont signalé au National Center
    for Missing and Exploited Children.
  • 10:00 - 10:02
    Mais ils sont allés plus loin,
  • 10:02 - 10:07
    et ont inspecté le compte de l'utilisateur
    qui l'avait publié.
  • 10:07 - 10:12
    Ils ont trouvé des centaines d'autres
    fichiers d'abus pédosexuels
  • 10:12 - 10:14
    qu'ils n'avaient jamais vus.
  • 10:14 - 10:18
    C'est là que nous commençons
    à voir l'impact exponentiel.
  • 10:18 - 10:19
    Nous retirons le contenu,
  • 10:20 - 10:23
    le signalons au National Center
    for Missing and Exploited Children
  • 10:23 - 10:26
    et ces hash sont sauvegardés
    par le système
  • 10:26 - 10:28
    et les autres entreprises en profitent.
  • 10:28 - 10:33
    Quand les millions de hash en créent
    d'autres, et qu'en temps réel,
  • 10:33 - 10:37
    les entreprises identifient
    et retirent le contenu,
  • 10:37 - 10:42
    nous augmentons drastiquement
    la vitesse à laquelle nous retirons
  • 10:42 - 10:46
    le contenu pédopornographique
    d'Internet autour du monde.
  • 10:46 - 10:52
    (Applaudissements)
  • 10:54 - 10:57
    Mais il ne peut pas s'agir que
    de logiciels et de données,
  • 10:57 - 10:59
    il faut que ce soit massif.
  • 10:59 - 11:03
    Nous devons engager
    des centaines de policiers,
  • 11:03 - 11:05
    des centaines d'entreprises
    autour du monde
  • 11:05 - 11:09
    lorsque la technologie nous permettra
    de distancer les agresseurs
  • 11:09 - 11:13
    et de démanteler les réseaux
    qui normalisent les abus pédosexuels
  • 11:13 - 11:15
    tout autour du monde.
  • 11:15 - 11:18
    Il faut faire cela maintenant.
  • 11:18 - 11:24
    Nous ne pouvons plus dire que nous n'en
    connaissons pas l'impact sur nos enfants.
  • 11:25 - 11:29
    La première génération d'enfants
    dont les abus sont devenus viraux
  • 11:29 - 11:31
    sont maintenant de jeunes adultes.
  • 11:31 - 11:34
    Le Centre Canadien
    de Protection de l'Enfance
  • 11:34 - 11:37
    a récemment étudié ces jeunes adultes
  • 11:37 - 11:41
    afin de comprendre le trauma unique
    dont ils doivent se remettre,
  • 11:41 - 11:44
    en sachant que leurs abus
    sont toujours en ligne.
  • 11:45 - 11:50
    80% de ces jeunes adultes
    ont pensé au suicide.
  • 11:51 - 11:55
    Plus de 60% ont tenté de se suicider.
  • 11:56 - 12:01
    La plupart d'entre eux vivent
    chaque jour dans la peur
  • 12:01 - 12:05
    de marcher dans la rue,
    de passer un entretien,
  • 12:05 - 12:08
    d'aller à l'école
  • 12:08 - 12:10
    ou de faire des rencontres en ligne,
  • 12:10 - 12:14
    et que leurs interlocuteurs
    aient vu les abus qu'ils ont subis.
  • 12:15 - 12:19
    C'est ce qui est arrivé à 30% d'entre eux.
  • 12:20 - 12:25
    Ils ont été reconnus de ces abus en ligne.
  • 12:26 - 12:29
    Cela ne va pas être facile,
  • 12:29 - 12:32
    mais ce n'est pas impossible.
  • 12:32 - 12:35
    Cela va nécessiter la volonté,
  • 12:35 - 12:36
    la volonté de notre société
  • 12:37 - 12:40
    de voir quelque chose
    qui est difficile à regarder,
  • 12:40 - 12:42
    de sortir quelque chose de l'obscurité
  • 12:42 - 12:45
    afin que ces enfants soient entendus ;
  • 12:46 - 12:51
    la volonté des entreprises d'agir
    et de s'assurer que leurs plateformes
  • 12:51 - 12:54
    ne sont pas complices de ces abus ;
  • 12:55 - 12:59
    la volonté du gouvernement
    et des forces de l'ordre d'investir
  • 12:59 - 13:04
    dans les outils nécessaires
    dans les premiers crimes numériques,
  • 13:04 - 13:08
    même quand les victimes
    ne peuvent pas parler.
  • 13:10 - 13:13
    Cet engagement audacieux s'inscrit
    dans cette volonté.
  • 13:14 - 13:20
    C'est une déclaration de guerre contre
    l'un des pires démons de l'humanité.
  • 13:20 - 13:22
    Ce à quoi je m'accroche,
  • 13:22 - 13:26
    c'est que c'est un investissement
    pour un avenir
  • 13:26 - 13:29
    où chaque enfant peut simplement
    être un enfant.
  • 13:29 - 13:31
    Merci.
  • 13:31 - 13:37
    (Applaudissements)
Title:
Comment nous pouvons éliminer le matériel pédopornographique d'Internet
Speaker:
Julie Cordua
Description:

Julie Cordua, entrepreneure sociale, travaille sur un problème dont il n'est pas facile de parler : l'abus sexuel des enfants en images et en vidéos sur Internet. Avec l'association Thorn, elle met au point une technologie pour relier l'industrie de la technologie, les organismes d'application de la loi et le gouvernement, afin que nous puissions rapidement mettre fin à la distribution virale de matériel pédopornographique et sauver les enfants plus rapidement. Apprenez-en davantage sur la façon dont cette solution évolutive pourrait aider à démanteler les communautés qui normalisent l'exploitation sexuelle des enfants dans le monde aujourd'hui. (Ce plan ambitieux s'inscrit dans le cadre du projet Audacious, l'initiative de TED visant à inspirer et à financer le changement mondial.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

French subtitles

Revisions