Comment nous pouvons éliminer le matériel pédopornographique d'Internet
-
0:01 - 0:03[Contient du contenu destiné aux adultes]
-
0:06 - 0:07Il y a cinq ans,
-
0:07 - 0:11J'ai reçu un appel qui allait
changer ma vie. -
0:12 - 0:14Je me rappelle très bien cette journée.
-
0:15 - 0:17C'était à cette période de l'année,
-
0:17 - 0:19j'étais dans mon bureau.
-
0:20 - 0:23Le soleil entrait par la fenêtre.
-
0:24 - 0:25Mon téléphone a sonné.
-
0:26 - 0:27J'ai décroché,
-
0:28 - 0:32c'était deux agents fédéraux,
me demandant de les aider -
0:32 - 0:34à identifier une petite fille
-
0:34 - 0:40dans des centaines d'images d'abus
sexuels d'enfants trouvées en ligne. -
0:41 - 0:44Ils venaient de commencer
à travailler sur l'affaire, -
0:44 - 0:47mais ils savaient
-
0:47 - 0:51que ses abus avaient été diffusés
mondialement pendant des années -
0:51 - 0:57sur des sites du dark web dédiés
aux abus sexuels sur des enfants. -
0:58 - 1:02Et son agresseur était incroyablement
sophistiqué sur le plan technologique : -
1:02 - 1:07de nouvelles images et vidéos
toutes les semaines, -
1:07 - 1:11mais très peu d'informations
sur qui elle était -
1:11 - 1:12ou sa localisation.
-
1:13 - 1:15Ils nous ont appelés,
-
1:15 - 1:17car nous étions une association
-
1:17 - 1:21créant des technologies
pour lutter contre les abus d'enfants. -
1:22 - 1:24Mais nous n'existions que depuis deux ans,
-
1:24 - 1:27et nous n'avions travaillé
que sur le trafic d'enfants. -
1:28 - 1:30Et j'ai dû leur dire
-
1:30 - 1:31que nous n'avions rien.
-
1:32 - 1:36Nous n'avions rien pour les aider
à mettre fin à cet abus. -
1:37 - 1:41Il leur a fallu un an de plus
-
1:41 - 1:44pour enfin trouver cette enfant.
-
1:45 - 1:47Lorsqu'elle a été sauvée,
-
1:47 - 1:54des centaines d'images et vidéos
de son viol avaient circulé, -
1:54 - 1:55du dark web
-
1:55 - 1:58vers des réseaux peer-to-peer,
des salons de chat privés -
1:58 - 2:04jusqu'aux sites Web
que vous et moi consultons chaque jour. -
2:05 - 2:09Elle doit lutter pour s'en remettre,
-
2:09 - 2:13sachant que des milliers
de personnes dans le monde -
2:13 - 2:16continuent de regarder son viol.
-
2:18 - 2:20Ces cinq dernières années,
j'ai pu apprendre -
2:20 - 2:23que ce cas était loin d'être le seul.
-
2:24 - 2:28Comment notre société
en est-elle arrivée là ? -
2:29 - 2:33Dans la fin des années 80,
la pédopornographie - -
2:33 - 2:39ou plutôt, l'exploitation
sexuelle des enfants, -
2:39 - 2:40a été presque éliminée.
-
2:41 - 2:44Les échanges par la poste étaient
devenus trop risqués, -
2:44 - 2:47suite aux nouvelles lois,
et à l'augmentation des poursuites. -
2:48 - 2:52L'arrivée d'internet a permis
l'explosion du marché -
2:53 - 2:57La quantité de contenu
qui circule aujourd'hui -
2:57 - 3:00est massive et en pleine croissance.
-
3:00 - 3:04C'est un problème mondial,
-
3:04 - 3:06mais en s'intéressant juste aux USA :
-
3:06 - 3:08rien qu'aux USA l'année dernière,
-
3:08 - 3:14plus de 45 millions d'images
et vidéos pédopornographiques -
3:14 - 3:17ont été signalées au National Center
for Missing and Exploited Children, -
3:17 - 3:22c'est presque le double
de l'année précédente. -
3:23 - 3:28La réalité derrière ces chiffres
est dure à imaginer. -
3:28 - 3:34Plus de 60% des images
représentent des moins de 12 ans, -
3:34 - 3:38la plupart d'entre eux incluent des
actes de violence sexuelle extrêmes. -
3:39 - 3:44Les agresseurs sont encouragés dans les
chats dédiés à la maltraitance d'enfants, -
3:44 - 3:47où ils gagnent en rang et en notoriété
-
3:47 - 3:50faisant plus de victimes.
-
3:50 - 3:53Dans ce marché,
-
3:53 - 3:57la monnaie est le contenu.
-
3:58 - 4:02Les agresseurs ont rapidement
tiré parti des nouvelles technologies, -
4:02 - 4:05mais notre réponse
en tant que société est lente. -
4:06 - 4:10Les agresseurs ne lisent pas
les CGU des sites Internet, -
4:10 - 4:14et le contenu ne respecte pas
les frontières géographiques. -
4:15 - 4:21Ils gagnent quand nous regardons
une chose à la fois, -
4:21 - 4:25ce qui est exactement la façon dont
notre réponse est conçue aujourd'hui. -
4:25 - 4:28Les forces de l'ordre travaillent
dans une seule juridiction. -
4:28 - 4:32Les entreprises ne surveillent que
leurs propres plateformes. -
4:32 - 4:34Et quoi qu'ils apprennent,
-
4:35 - 4:37ils le partagent rarement.
-
4:37 - 4:43Il est évident que cette déconnexion
ne fonctionne pas. -
4:44 - 4:48Nous devons repenser notre réponse
à cette épidémie -
4:48 - 4:49de l'ère numérique.
-
4:50 - 4:53Et c'est exactement ce que Thorn fait.
-
4:53 - 4:57Nous construisons la technologie
pour connecter ces points, -
4:57 - 4:59pour armer tous les acteurs -
-
4:59 - 5:02les forces de l'ordre, les ONG
et les entreprises - -
5:02 - 5:06avec les outils dont ils ont besoin
pour éliminer définitivement -
5:06 - 5:08le contenu pédopornographique d'Internet.
-
5:10 - 5:11Parlons un peu --
-
5:11 - 5:12(Applaudissements)
-
5:12 - 5:14Merci.
-
5:14 - 5:16(Applaudissements)
-
5:18 - 5:20Parlons un peu de ces points.
-
5:21 - 5:25Vous l'imaginez, le contenu est atroce.
-
5:25 - 5:28Si on n'y est pas obligé,
on ne veut pas le voir. -
5:28 - 5:33La plupart des entreprises
ou forces de l'ordre -
5:33 - 5:35qui ont accès à ce contenu
-
5:35 - 5:39peuvent traduire chaque fichier
en une suite de chiffres. -
5:39 - 5:40C'est un « hash ».
-
5:40 - 5:42C'est surtout une empreinte digitale
-
5:42 - 5:45par fichier ou vidéo.
-
5:45 - 5:49Cela leur permet d'utiliser
ces informations lors d'enquêtes, -
5:49 - 5:52ou aux entreprises de supprimer
le contenu de leurs plateformes -
5:52 - 5:58sans avoir à revoir chaque image ou vidéo.
-
5:58 - 6:00Le problème actuel est que
-
6:00 - 6:04des centaines de millions de ces hash
-
6:04 - 6:08traînent dans des silos de données
autour du monde. -
6:08 - 6:09Dans ces silos,
-
6:09 - 6:12cela a beau fonctionner pour
l'agence qui en a le contrôle, -
6:12 - 6:17mais sans partager ces données,
nous ne savons pas -
6:17 - 6:20lesquelles montrent des enfants
qui ont été sauvés -
6:20 - 6:23ou ont toujours besoin d'être sauvés.
-
6:23 - 6:27Notre but premier est donc de connecter
-
6:27 - 6:30toutes ces données.
-
6:30 - 6:36Il y a deux façons dont elles
peuvent transformer cet espace, -
6:37 - 6:40combinées à des logiciels
utilisés mondialement. -
6:40 - 6:43La première est pour la police :
-
6:43 - 6:47identifier les victimes plus rapidement,
-
6:47 - 6:48arrêter les abus,
-
6:48 - 6:51et bloquer les créateurs de contenu.
-
6:51 - 6:54La deuxième est pour les entreprises :
-
6:54 - 6:58s'en servir comme indices pour
identifier les millions de dossiers -
6:58 - 6:59qui circulent actuellement,
-
6:59 - 7:01les retirer
-
7:01 - 7:07puis empêcher la mise en ligne
de contenu avant qu'il devienne viral. -
7:10 - 7:11Il y a quatre ans,
-
7:11 - 7:13à la fin de l'affaire
-
7:14 - 7:18notre équipe était là,
ressentant un genre de... -
7:20 - 7:23sentiment profond d'échec, je dirais,
-
7:23 - 7:27car nous avions observé toute cette année
-
7:27 - 7:28quand ils la cherchaient.
-
7:28 - 7:32Nous avons vu chaque étape de l'enquête
-
7:32 - 7:34où ils auraient pu la retrouver
plus rapidement -
7:34 - 7:37si la technologie avait existé.
-
7:38 - 7:40Nous sommes partis de ça
-
7:40 - 7:43pour commencer à faire la seule
chose que nous savions faire : -
7:43 - 7:45nous avons créé des logiciels.
-
7:46 - 7:48Nous avons commencé
avec les forces de l'ordre. -
7:48 - 7:52Nous rêvions d'une alarme
sur le bureau des policiers -
7:52 - 7:57pour que quelqu'un puisse commencer
à mener l'enquête -
7:57 - 8:00dès que quelqu'un osait poster
une nouvelle victime. -
8:01 - 8:04Je ne peux évidemment pas détailler
ce logiciel, -
8:04 - 8:07mais il est utilisé dans 38 pays,
-
8:07 - 8:10réduisant le temps de retrouver un enfant
-
8:10 - 8:12de plus de 65%.
-
8:12 - 8:17(Applaudissements)
-
8:21 - 8:24Nous travaillons actuellement
sur le second point : -
8:24 - 8:30créer le logiciel qui aide les entreprises
à repérer et supprimer le contenu. -
8:31 - 8:34Parlons un instant de ces entreprises.
-
8:34 - 8:40Je vous disais, 45 millions d'images
et vidéos rien qu'aux US l'année dernière. -
8:40 - 8:44Qui venaient uniquement de 12 entreprises.
-
8:46 - 8:52Douze entreprises, 45 millions
de dossiers d'abus d'enfants. -
8:52 - 8:55Venant de ces entreprises
ayant les moyens financiers -
8:55 - 9:00de créer les infrastructures nécessaires
à la suppression de ce contenu. -
9:00 - 9:02Il y a des centaines d'autres entreprises,
-
9:02 - 9:05petites à moyennes, tout autour du monde
-
9:05 - 9:07qui doivent faire ce travail, mais qui :
-
9:07 - 9:121) soit n'imaginent pas leur plateforme
utilisée pour ce contenu, -
9:12 - 9:182) soit n'ont pas d'argent à investir si
cela ne leur rapporte pas de bénéfices. -
9:19 - 9:22Nous avons pris l'initiative
de le faire pour eux, -
9:22 - 9:27et plus il y a d'entreprises,
plus ce système est performant. -
9:28 - 9:30Je vous donne un exemple.
-
9:30 - 9:34Notre premier partenaire, Imgur -
l'un des sites -
9:34 - 9:38les plus visités aux États-Unis -
partage des millions -
9:38 - 9:43de contenus crées
par les utilisateurs chaque jour -
9:43 - 9:45dans le but de faire d'Internet
un endroit plus amusant. -
9:46 - 9:48Ils se sont associés à nous.
-
9:48 - 9:51En 20 minutes d'utilisation
de notre système, -
9:51 - 9:55quelqu'un a essayé de publier
du contenu abusif. -
9:55 - 9:57Ils ont pu l'en empêcher, le supprimer,
-
9:57 - 10:00et l'ont signalé au National Center
for Missing and Exploited Children. -
10:00 - 10:02Mais ils sont allés plus loin,
-
10:02 - 10:07et ont inspecté le compte de l'utilisateur
qui l'avait publié. -
10:07 - 10:12Ils ont trouvé des centaines d'autres
fichiers d'abus pédosexuels -
10:12 - 10:14qu'ils n'avaient jamais vus.
-
10:14 - 10:18C'est là que nous commençons
à voir l'impact exponentiel. -
10:18 - 10:19Nous retirons le contenu,
-
10:20 - 10:23le signalons au National Center
for Missing and Exploited Children -
10:23 - 10:26et ces hash sont sauvegardés
par le système -
10:26 - 10:28et les autres entreprises en profitent.
-
10:28 - 10:33Quand les millions de hash en créent
d'autres, et qu'en temps réel, -
10:33 - 10:37les entreprises identifient
et retirent le contenu, -
10:37 - 10:42nous augmentons drastiquement
la vitesse à laquelle nous retirons -
10:42 - 10:46le contenu pédopornographique
d'Internet autour du monde. -
10:46 - 10:52(Applaudissements)
-
10:54 - 10:57Mais il ne peut pas s'agir que
de logiciels et de données, -
10:57 - 10:59il faut que ce soit massif.
-
10:59 - 11:03Nous devons engager
des centaines de policiers, -
11:03 - 11:05des centaines d'entreprises
autour du monde -
11:05 - 11:09lorsque la technologie nous permettra
de distancer les agresseurs -
11:09 - 11:13et de démanteler les réseaux
qui normalisent les abus pédosexuels -
11:13 - 11:15tout autour du monde.
-
11:15 - 11:18Il faut faire cela maintenant.
-
11:18 - 11:24Nous ne pouvons plus dire que nous n'en
connaissons pas l'impact sur nos enfants. -
11:25 - 11:29La première génération d'enfants
dont les abus sont devenus viraux -
11:29 - 11:31sont maintenant de jeunes adultes.
-
11:31 - 11:34Le Centre Canadien
de Protection de l'Enfance -
11:34 - 11:37a récemment étudié ces jeunes adultes
-
11:37 - 11:41afin de comprendre le trauma unique
dont ils doivent se remettre, -
11:41 - 11:44en sachant que leurs abus
sont toujours en ligne. -
11:45 - 11:5080% de ces jeunes adultes
ont pensé au suicide. -
11:51 - 11:55Plus de 60% ont tenté de se suicider.
-
11:56 - 12:01La plupart d'entre eux vivent
chaque jour dans la peur -
12:01 - 12:05de marcher dans la rue,
de passer un entretien, -
12:05 - 12:08d'aller à l'école
-
12:08 - 12:10ou de faire des rencontres en ligne,
-
12:10 - 12:14et que leurs interlocuteurs
aient vu les abus qu'ils ont subis. -
12:15 - 12:19C'est ce qui est arrivé à 30% d'entre eux.
-
12:20 - 12:25Ils ont été reconnus de ces abus en ligne.
-
12:26 - 12:29Cela ne va pas être facile,
-
12:29 - 12:32mais ce n'est pas impossible.
-
12:32 - 12:35Cela va nécessiter la volonté,
-
12:35 - 12:36la volonté de notre société
-
12:37 - 12:40de voir quelque chose
qui est difficile à regarder, -
12:40 - 12:42de sortir quelque chose de l'obscurité
-
12:42 - 12:45afin que ces enfants soient entendus ;
-
12:46 - 12:51la volonté des entreprises d'agir
et de s'assurer que leurs plateformes -
12:51 - 12:54ne sont pas complices de ces abus ;
-
12:55 - 12:59la volonté du gouvernement
et des forces de l'ordre d'investir -
12:59 - 13:04dans les outils nécessaires
dans les premiers crimes numériques, -
13:04 - 13:08même quand les victimes
ne peuvent pas parler. -
13:10 - 13:13Cet engagement audacieux s'inscrit
dans cette volonté. -
13:14 - 13:20C'est une déclaration de guerre contre
l'un des pires démons de l'humanité. -
13:20 - 13:22Ce à quoi je m'accroche,
-
13:22 - 13:26c'est que c'est un investissement
pour un avenir -
13:26 - 13:29où chaque enfant peut simplement
être un enfant. -
13:29 - 13:31Merci.
-
13:31 - 13:37(Applaudissements)
- Title:
- Comment nous pouvons éliminer le matériel pédopornographique d'Internet
- Speaker:
- Julie Cordua
- Description:
-
Julie Cordua, entrepreneure sociale, travaille sur un problème dont il n'est pas facile de parler : l'abus sexuel des enfants en images et en vidéos sur Internet. Avec l'association Thorn, elle met au point une technologie pour relier l'industrie de la technologie, les organismes d'application de la loi et le gouvernement, afin que nous puissions rapidement mettre fin à la distribution virale de matériel pédopornographique et sauver les enfants plus rapidement. Apprenez-en davantage sur la façon dont cette solution évolutive pourrait aider à démanteler les communautés qui normalisent l'exploitation sexuelle des enfants dans le monde aujourd'hui. (Ce plan ambitieux s'inscrit dans le cadre du projet Audacious, l'initiative de TED visant à inspirer et à financer le changement mondial.)
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:50
eric vautier approved French subtitles for How we can eliminate child sexual abuse material from the internet | ||
eric vautier accepted French subtitles for How we can eliminate child sexual abuse material from the internet | ||
eric vautier edited French subtitles for How we can eliminate child sexual abuse material from the internet | ||
eric vautier edited French subtitles for How we can eliminate child sexual abuse material from the internet | ||
Gwendolyne Ricaud edited French subtitles for How we can eliminate child sexual abuse material from the internet | ||
eric vautier declined French subtitles for How we can eliminate child sexual abuse material from the internet | ||
eric vautier edited French subtitles for How we can eliminate child sexual abuse material from the internet | ||
Gwendolyne Ricaud edited French subtitles for How we can eliminate child sexual abuse material from the internet |