Return to Video

ネットから児童性的虐待コンテンツを消し去る方法

  • 0:01 - 0:03
    [このトークは成人向けの内容です]
  • 0:06 - 0:07
    5年前
  • 0:07 - 0:11
    私の人生を変えることになる
    電話がありました
  • 0:12 - 0:15
    その時のことはハッキリと覚えています
  • 0:15 - 0:17
    季節は今頃で
  • 0:17 - 0:19
    私はオフィスで座っていました
  • 0:20 - 0:23
    窓から日が差し込んでいました
  • 0:24 - 0:25
    電話が鳴って
  • 0:26 - 0:27
    出てみると
  • 0:28 - 0:30
    2人の連邦捜査官からでした
  • 0:30 - 0:34
    ネット上でたくさんの
    児童性的虐待の画像を発見したので
  • 0:34 - 0:40
    そこに出ている少女の
    身元特定を手伝ってほしいというのです
  • 0:41 - 0:44
    彼らは その事件に
    着手したばかりで
  • 0:44 - 0:47
    分かっていたのは
    その少女への虐待の様子が
  • 0:47 - 0:51
    ダークウェブにある
    児童性的虐待を専門とするサイトで
  • 0:51 - 0:57
    何年間も世界中に
    配信されていたことだけでした
  • 0:58 - 1:02
    虐待の加害者は高度な技術を
    持っていて
  • 1:02 - 1:07
    数週間ごとに
    新たな画像や動画が出るのに
  • 1:07 - 1:09
    その少女が誰で どこにいるのか
  • 1:09 - 1:13
    手がかりが
    ほとんどつかめませんでした
  • 1:13 - 1:15
    その連邦捜査官たちは
  • 1:15 - 1:18
    我々が児童性的虐待と戦うための
    テクノロジーを開発する―
  • 1:18 - 1:21
    新進の非営利団体だと聞いて
    電話をかけてきたのです
  • 1:22 - 1:24
    しかし 我々の団体は
    出来てから まだ2年で
  • 1:24 - 1:28
    実績は児童の
    性的人身売買だけだったので
  • 1:28 - 1:30
    我々には 何もできないと
  • 1:30 - 1:32
    告げねばなりませんでした
  • 1:32 - 1:36
    我々には この虐待を止めるために
    協力できる術が なかったのです
  • 1:37 - 1:41
    捜査局が その少女を
    見つけ出すのには
  • 1:41 - 1:44
    結局 それからさらに
    1年の歳月が かかりました
  • 1:45 - 1:47
    少女が救出されるまでに
  • 1:47 - 1:54
    その子のレイプを収めた何百という
    画像や動画が拡散されていました
  • 1:54 - 1:55
    ダークウェブから
  • 1:55 - 1:58
    ピアツーピア・ネットワークや
    プライベートチャットルーム
  • 1:58 - 2:02
    さらには 私や皆さんが
    毎日 使っている
  • 2:02 - 2:04
    ウェブサイトにまでもです
  • 2:05 - 2:09
    現在も その少女は回復するのに
    大変な思いをしています
  • 2:09 - 2:13
    彼女は性的に虐待される姿を
    世界中の人に見られ続けているという
  • 2:13 - 2:17
    現実の中で生きているのです
  • 2:18 - 2:20
    私は この5年間で この事件が
  • 2:20 - 2:24
    特段 珍しくないことを知りました
  • 2:24 - 2:28
    この社会は なぜこんなことに
    なってしまったのでしょう?
  • 2:29 - 2:33
    1980年代後半
    児童ポルノ―
  • 2:33 - 2:39
    要は 児童性的虐待の
    写真や映像ですが
  • 2:39 - 2:41
    それが消えかけたときがありました
  • 2:41 - 2:44
    新しい法律と刑事起訴の増加により
  • 2:44 - 2:48
    郵便での取引が
    危険すぎるようになったのです
  • 2:48 - 2:53
    それから インターネットの台頭で
    市場が爆発的に広がりました
  • 2:53 - 2:57
    現在 出回っているコンテンツの数は
  • 2:57 - 3:00
    膨大であり 増加しています
  • 3:00 - 3:04
    これは 本当に世界的な問題ですが
  • 3:04 - 3:06
    アメリカだけを見ても
  • 3:06 - 3:08
    昨年 アメリカだけで
  • 3:08 - 3:14
    4500万件の児童性的虐待の画像や動画が
  • 3:14 - 3:17
    行方不明・被搾取児童センターへ
    通報されました
  • 3:17 - 3:22
    これは 一昨年の約2倍になっています
  • 3:23 - 3:28
    この数字の裏にある詳細は
    直視に堪えません
  • 3:28 - 3:34
    画像の60%以上が
    12歳以下の児童だと思われます
  • 3:34 - 3:38
    その大半が ひどい性暴力です
  • 3:39 - 3:44
    加害者は児童虐待専用の
    チャットルーム内で賞賛されます
  • 3:44 - 3:48
    そこでは 虐待をするほど
    犠牲者が多いほど
  • 3:48 - 3:50
    ランクが上がり 有名になるのです
  • 3:50 - 3:53
    そんな市場の中で
  • 3:53 - 3:57
    コンテンツそのものが
    通貨になります
  • 3:58 - 4:02
    虐待加害者たちは
    新しい技術を取り入れるのが早く
  • 4:02 - 4:05
    こちら側の対応が
    遅れているのは明らかです
  • 4:06 - 4:10
    加害者はウェブサイトの
    利用規約なんて読みはしません
  • 4:10 - 4:14
    そして コンテンツに
    国境はありません
  • 4:15 - 4:21
    個々の断片を一つずつ調べていたら
    勝ち目はありませんが
  • 4:21 - 4:25
    現在の私たちの対応は
    まさに そんな感じなのです
  • 4:25 - 4:28
    警察は管轄内でのみ動き
  • 4:28 - 4:32
    企業は 自分たちの
    プラットフォームだけを見ます
  • 4:32 - 4:34
    そのようにして得たデータは
    どんなものであれ
  • 4:35 - 4:37
    ほとんど共有されません
  • 4:37 - 4:43
    こんな バラバラの取り組みでは
    当然 効果が上がりません
  • 4:44 - 4:48
    私たちはデジタル時代の
    悪しき流行への対策を
  • 4:48 - 4:50
    練り直さなくてはなりません
  • 4:50 - 4:53
    Thronの活動は まさにそれです
  • 4:53 - 4:57
    我々は組織同士を結び付けるための
    テクノロジーを開発しています
  • 4:57 - 4:59
    児童性的虐待の画像や動画を
  • 4:59 - 5:02
    インターネットから
    消し去るのに必要なツールを
  • 5:02 - 5:06
    警察やNGOや企業などの
    最前線で対応している人たちに
  • 5:06 - 5:09
    提供しようとしています
  • 5:10 - 5:11
    お話ししたいのは―
  • 5:11 - 5:12
    (拍手)
  • 5:12 - 5:14
    どうも
  • 5:14 - 5:16
    (拍手)
  • 5:18 - 5:21
    点を繋ぎ合わせる
    ということについてです
  • 5:21 - 5:25
    そういうコンテンツが悲惨なのは
    想像できますよね
  • 5:25 - 5:28
    見ずに済むなら
    見たくないものです
  • 5:28 - 5:32
    ですから コンテンツを有する
  • 5:32 - 5:35
    企業の多くや 警察は
  • 5:35 - 5:38
    個々のファイルを
    固有の数字に変換します
  • 5:38 - 5:40
    これを「ハッシュ」と呼びます
  • 5:40 - 5:43
    実質的には 個々のファイルや動画の
  • 5:43 - 5:45
    指紋のようなものです
  • 5:45 - 5:49
    ハッシュにより いちいち
    画像や動画の中身を確認しなくても
  • 5:49 - 5:52
    その情報を捜査に利用したり
  • 5:52 - 5:58
    企業がプラットフォームから
    コンテンツを削除したりできます
  • 5:58 - 6:00
    現在の問題は
  • 6:00 - 6:04
    膨大な数のそういうハッシュが
  • 6:04 - 6:08
    世界各地の独立したデータベースに
    格納されていることです
  • 6:08 - 6:09
    それぞれのデータベースは
  • 6:09 - 6:12
    それを管理する組織には
    役立つでしょうが
  • 6:12 - 6:17
    データベースが接続されていないと
    固有のものがどれだけあるのかも
  • 6:17 - 6:21
    どの児童が救出済みで
    どの児童が身元確認中なのかも
  • 6:21 - 6:23
    わからないのです
  • 6:23 - 6:25
    だから まず 基本的な前提として
  • 6:25 - 6:30
    全てのデータを
    つなげなければなりません
  • 6:30 - 6:36
    ソフトウェアによってデータを
    世界的につなぎ合わせることで
  • 6:37 - 6:40
    大きな変化を生み出せる場所が
    2つあります
  • 6:40 - 6:43
    1つ目は警察です
  • 6:43 - 6:47
    警察が新たな犠牲者の
    身元を迅速に特定し
  • 6:47 - 6:48
    虐待を止めさせ
  • 6:48 - 6:51
    コンテンツ制作を止めるのに
    役立てられます
  • 6:51 - 6:54
    2つ目は企業です
  • 6:54 - 6:58
    現在 出回っている膨大なファイルを
    特定する手がかりとして
  • 6:58 - 6:59
    ハッシュを使い
  • 6:59 - 7:01
    サイトから削除し
  • 7:01 - 7:07
    新たなコンテンツのアップロードを
    拡散前に阻止します
  • 7:10 - 7:11
    4年前
  • 7:11 - 7:13
    その事件が解決したとき
  • 7:14 - 7:19
    我々のチームは座って
    ただ 強い挫折感を感じてました
  • 7:20 - 7:23
    そう感じずにいられませんでした
  • 7:23 - 7:27
    なぜなら 1年間
    その少女を探している間
  • 7:27 - 7:28
    それを見ていたからです
  • 7:28 - 7:32
    捜査中の事件現場の様子を
    全て見ました
  • 7:32 - 7:34
    しかるべきテクノロジーがあったなら
  • 7:34 - 7:37
    その少女は もっと早く
    見つかったでしょう
  • 7:38 - 7:40
    そこが我々の出発点です
  • 7:40 - 7:43
    自分たちにできる唯一のことを
    することにしました
  • 7:43 - 7:46
    ソフトフェアの開発に着手したのです
  • 7:46 - 7:48
    最初に 警察と協力しました
  • 7:48 - 7:52
    我々の夢は世界中の警官の机で
    通知音を鳴らすことでした
  • 7:52 - 7:57
    誰かがネットで
    新たな被害者の投稿をしたら
  • 7:57 - 8:01
    即座に 捜索し始められるようにです
  • 8:01 - 8:04
    そのソフトウェアの詳細を
    話すことはできませんが
  • 8:04 - 8:07
    現在 それは 38カ国で運用され
  • 8:07 - 8:10
    児童を保護するまでの時間を
  • 8:10 - 8:12
    65%以上短縮しています
  • 8:12 - 8:17
    (拍手)
  • 8:21 - 8:24
    我々の次なる目標は
  • 8:24 - 8:30
    企業が虐待コンテンツを特定し削除するのを
    支援するソフトウェアの開発です
  • 8:31 - 8:34
    どういう企業かですが
  • 8:34 - 8:40
    昨年 アメリカだけで4500万件の
    通報がありましたが
  • 8:40 - 8:45
    その通報元は
    たった12の企業でした
  • 8:46 - 8:52
    12社が4500万件もの
    児童性的虐待ファイルを通報したのです
  • 8:52 - 8:55
    これらの企業には
    そういうコンテンツを
  • 8:55 - 9:00
    削除するための仕組みを
    開発する資金があるのです
  • 9:00 - 9:02
    その他の多くの
  • 9:02 - 9:05
    世界中にある中小の企業も
  • 9:05 - 9:07
    その機能を必要としていますが
  • 9:07 - 9:12
    自分たちのプラットフォームが
    虐待に使われると考えていないか
  • 9:12 - 9:19
    利益につながらないことに投資できる
    資金がないかのどちらかです
  • 9:19 - 9:22
    ですから 我々は そんな企業のために
    開発を進めています
  • 9:22 - 9:28
    そして 協力企業が多くなるほど
    このシステムも強力になります
  • 9:28 - 9:30
    例を挙げましょう
  • 9:30 - 9:35
    最初のパートナー企業はImgurです
    ご存じないかもしれませんが
  • 9:35 - 9:38
    Imgurはアメリカで最も
    利用者の多いサイトの1つです
  • 9:38 - 9:41
    インターネットをもっと
    楽しい場所にするという志の元
  • 9:41 - 9:46
    ユーザーから 日に数百万件の
    画像アップロードを受けています
  • 9:46 - 9:48
    我々が 最初にImgurと協力して
  • 9:48 - 9:51
    システムを走らせたところ
    20分もせずに
  • 9:51 - 9:55
    既知の虐待コンテンツの
    アップロードが試みられました
  • 9:55 - 9:57
    Imgurは それを停止して 削除し
  • 9:57 - 10:00
    行方不明・被搾取児童センターへ
    通報することができました
  • 10:00 - 10:02
    それだけでなく
  • 10:02 - 10:07
    そのコンテンツをアップロードしている
    アカウントの人物を調べたところ
  • 10:07 - 10:12
    これまで知られていなかった
    児童性的虐待の映像が
  • 10:12 - 10:14
    何百と見つかりました
  • 10:14 - 10:18
    そこから 急激な変化が始まりました
  • 10:18 - 10:19
    それらのコンテンツを削除し
  • 10:20 - 10:23
    行方不明・被搾取児童センターへ
    通報します
  • 10:23 - 10:26
    すると 新たなハッシュが
    システムに加わり
  • 10:26 - 10:28
    他の企業にも利益をもたらします
  • 10:28 - 10:33
    我々の持つ何百万というハッシュが
    さらに何百万というハッシュにつながり
  • 10:33 - 10:37
    世界中の企業が リアルタイムで
    そのコンテンツを削除します
  • 10:37 - 10:44
    世界中のインターネットから
    児童性的虐待のコンテンツを
  • 10:44 - 10:46
    削除するスピードが
    劇的に速まるでしょう
  • 10:46 - 10:52
    (拍手)
  • 10:54 - 10:57
    ですから ソフトウェアと
    データだけでなく
  • 10:57 - 10:59
    規模も重要です
  • 10:59 - 11:03
    テクノロジーによって加害者側を
    追い抜くことができるなら
  • 11:03 - 11:07
    世界中の何千という警官
    何百という企業に行動を促し
  • 11:07 - 11:13
    現在 児童性的虐待を 当たり前のように
    行っている世界中のコミュニティを
  • 11:13 - 11:15
    ぶち壊さなければなりません
  • 11:15 - 11:18
    今こそ その時です
  • 11:18 - 11:24
    子供たちにどんな影響を与えるか
    わからないとは もう言えません
  • 11:25 - 11:29
    虐待を拡散された
    最初の世代の子どもたちが
  • 11:29 - 11:31
    今では若者になっています
  • 11:31 - 11:34
    最近 カナダ児童保護センターが
  • 11:34 - 11:38
    自分の虐待記録が
    消えないことを知ってる若者が
  • 11:38 - 11:42
    そこから回復しようとするとき
    特有のトラウマの理解を目的とした
  • 11:42 - 11:45
    調査を行いました
  • 11:45 - 11:51
    被害児童だった若者の80%が
    自殺を考えたことがあります
  • 11:51 - 11:55
    60%以上が
    自殺を試みたことがあります
  • 11:56 - 12:01
    そういう若者の多くが
    日々 怯えながら生活しています
  • 12:01 - 12:05
    道を歩いている時も
    就職面接の時も
  • 12:05 - 12:08
    学校へ行く時も
  • 12:08 - 12:10
    誰かとオンラインで会ってる時も
  • 12:10 - 12:15
    虐待される自分の姿を相手が
    見たことがあるんじゃないかと怖いのです
  • 12:15 - 12:20
    そして その恐怖は30%以上の人に
    現実になっています
  • 12:20 - 12:25
    ネット上の虐待画像に写っているのが
    自分だとバレたことがあるのです
  • 12:26 - 12:29
    これは難しい問題ですが
  • 12:29 - 12:32
    解決不能ではありません
  • 12:32 - 12:35
    今こそ 決意すべきです
  • 12:35 - 12:36
    我々の社会が
  • 12:37 - 12:40
    目を背けたくなる現実を
    見つめると決意し
  • 12:40 - 12:42
    白日の下へさらけ出す
    決意をしてください
  • 12:42 - 12:45
    被害児童の声が
    聞こえるように
  • 12:46 - 12:51
    企業は自社のプラットフォームが
    児童虐待に加担することが絶対ないよう
  • 12:51 - 12:55
    対策を講じると
    決意してください
  • 12:55 - 12:59
    政府は 犠牲者が
    訴えることができなくても
  • 12:59 - 13:04
    デジタル時代の犯罪を捜査するために
    必要なツールを
  • 13:04 - 13:09
    警察に与えることを
    決意してください
  • 13:10 - 13:14
    TEDのプロジェクトへの参加は
    この決意の一部です
  • 13:14 - 13:20
    これは人類最悪の犯罪に対する
    宣戦布告です
  • 13:20 - 13:22
    しかし 私がこだわっているのは
  • 13:22 - 13:26
    これが実は 未来への投資だということです
  • 13:26 - 13:29
    すべての子どもたちが
    子どものままでいられる未来への
  • 13:29 - 13:31
    ありがとうございました
  • 13:31 - 13:37
    (拍手)
Title:
ネットから児童性的虐待コンテンツを消し去る方法
Speaker:
ジュリー・コードゥア
Description:

社会起業家のジュリー・コードゥアはネット上の児童性的虐待の画像や動画という口にしがたい問題に取り組んでいます。彼女はThornで、テクノロジー企業と警察と政府を繋ぐ技術を開発しています。それによって虐待画像等の拡散を迅速に止め、児童をより早く救出できます。この拡張性ある解決策によって、現在の世界で日常的に児童虐待を行っているコニュニティをいにか打ち砕けるかを学んでください。(この大いなる計画は、世界を変えるために刺激を与え投資をするTEDのイニシアチブであるAudacious Projectの一部です)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Japanese subtitles

Revisions