Return to Video

Как мы можем остановить сексуальное насилие над детьми в интернете

  • 0:00 - 0:04
    [Данное выступление не рекомендуется
    к просмотру лицам, не достигшим 18 лет]
  • 0:06 - 0:07
    Пять лет назад
  • 0:07 - 0:11
    я получила звонок, изменивший мою жизнь.
  • 0:12 - 0:14
    Я ясно помню тот день.
  • 0:15 - 0:17
    Как раз в это время года,
  • 0:17 - 0:19
    я была у себя в офисе.
  • 0:20 - 0:23
    Помню, что за окном светило солнце.
  • 0:24 - 0:25
    И тут зазвонил телефон.
  • 0:26 - 0:27
    Я подняла трубку.
  • 0:28 - 0:32
    Агенты ФБР просили опознать девочку,
  • 0:32 - 0:34
    одну из сотни, использованных в съёмке
  • 0:34 - 0:40
    детского порно,
    опубликованного в интернете.
  • 0:41 - 0:44
    Начав расследование, они уже знали,
  • 0:44 - 0:47
    что видео, где её насиловали,
  • 0:47 - 0:51
    годами транслировалось миру в даркнете,
  • 0:51 - 0:57
    на сайтах, посвящённых детскому порно.
  • 0:58 - 1:02
    Её насильник был технически подкован:
  • 1:02 - 1:07
    контент появлялся раз в несколько недель,
  • 1:07 - 1:11
    было мало зацепок касательно того, кто она
  • 1:11 - 1:12
    и где она.
  • 1:13 - 1:15
    Они обратились к нам,
  • 1:15 - 1:17
    потому что слышали о нашей технологии,
  • 1:17 - 1:21
    помогающей бороться с насилием над детьми.
  • 1:22 - 1:24
    Но мы работали всего два года,
  • 1:24 - 1:27
    боролись с продажей детей в секс-рабство.
  • 1:28 - 1:30
    И мне надо было сказать им,
  • 1:30 - 1:32
    что нам нечем им помочь.
  • 1:32 - 1:36
    Мы не можем остановить насилие.
  • 1:37 - 1:41
    Агентам потребовался год,
  • 1:41 - 1:44
    чтобы найти этого ребёнка.
  • 1:45 - 1:49
    К тому времени, сотни видео и фото,
  • 1:49 - 1:54
    на которых её насилуют, стали вирусными.
  • 1:54 - 1:55
    Из даркнета они попали
  • 1:55 - 1:58
    в одноранговые сети, закрытые чаты
  • 1:58 - 2:02
    и на сайты, которые мы с вами
  • 2:02 - 2:04
    используем каждый день.
  • 2:05 - 2:09
    По сей день, пытаясь восстановиться,
  • 2:09 - 2:13
    она знает, что тысячи людей по всему миру
  • 2:13 - 2:16
    продолжают смотреть те видео.
  • 2:18 - 2:20
    За последние пять лет я убедилась,
  • 2:20 - 2:23
    что этот случай не единственный.
  • 2:24 - 2:28
    Как мы, общество, скатились до такого?
  • 2:29 - 2:33
    В конце 80-х годов детское порно,
  • 2:33 - 2:39
    а в сущности материалы, на которых
    зафиксировано насилие над детьми,
  • 2:39 - 2:40
    было практически ликвидировано.
  • 2:41 - 2:45
    Новые законы и ужесточение наказания
  • 2:45 - 2:48
    сделали слишком рискованной
    продажу таких материалов по почте.
  • 2:48 - 2:52
    После появления интернета рынок взорвался.
  • 2:53 - 2:57
    Огромное количество контента,
  • 2:57 - 3:00
    который есть в обороте, только растёт.
  • 3:00 - 3:04
    Это поистине глобальная проблема.
  • 3:04 - 3:06
    Только в США за последний год
  • 3:06 - 3:08
    более 45 миллионов изображений
  • 3:08 - 3:14
    и видео детского порно поступило
  • 3:14 - 3:17
    в центр поиска эксплуатируемых детей.
  • 3:17 - 3:22
    Это в два раза больше, чем в прошлом году.
  • 3:23 - 3:28
    За этими числами трудно увидеть главное —
  • 3:28 - 3:34
    на 60% фото — дети до 12 лет,
  • 3:34 - 3:38
    и это жестокие акты сексуального насилия.
  • 3:39 - 3:44
    В таких чатах подбадривают насильников,
  • 3:44 - 3:47
    которые с каждой новой жертвой
  • 3:47 - 3:50
    получают больше званий и славы.
  • 3:50 - 3:53
    Валютой на таком рынке
  • 3:53 - 3:57
    становится сам контент.
  • 3:58 - 4:02
    Насильники осваивают новые технологии,
  • 4:02 - 4:05
    чего нельзя сказать о нашем обществе.
  • 4:06 - 4:10
    Насильники не читают лицензии,
  • 4:10 - 4:14
    а у контента нет географических границ.
  • 4:15 - 4:20
    Они впереди нас, в то время как мы
    сосредоточены на чём-то одном.
  • 4:21 - 4:25
    И эта вся наша ответная реакция.
  • 4:25 - 4:28
    У органов правопорядка своя юрисдикция.
  • 4:28 - 4:32
    Компании смотрят только на свою платформу.
  • 4:32 - 4:34
    Любые данные, которые они получают,
  • 4:35 - 4:37
    не распространяются.
  • 4:37 - 4:43
    Очевидно же, что такой подход не работает.
  • 4:44 - 4:46
    Надо изменить подход к борьбе
  • 4:46 - 4:49
    с этой эпидемией цифровой эры.
  • 4:50 - 4:53
    Над этим мы работаем у себя в Thorn.
  • 4:53 - 4:57
    Создаём технологию, соединяющую точки,
  • 4:57 - 4:59
    вооружающую всех на передовой позиции —
  • 4:59 - 5:02
    органы правопорядка,
    общественные организации, компании —
  • 5:02 - 5:05
    необходимыми инструментами для того,
  • 5:05 - 5:08
    чтобы покончить с детским порно.
  • 5:10 - 5:11
    Давайте немного поговорим.
  • 5:11 - 5:12
    (Аплодисменты)
  • 5:12 - 5:14
    Спасибо.
  • 5:14 - 5:16
    (Аплодисменты)
  • 5:18 - 5:20
    Давайте поговорим о том, что это за точки.
  • 5:21 - 5:25
    Как вы понимаете, этот контент ужасен.
  • 5:25 - 5:28
    Без необходимости его не смотрят.
  • 5:28 - 5:33
    Многие компании или органы правопорядка,
  • 5:33 - 5:35
    имеющие такой контент,
  • 5:35 - 5:39
    конвертируют каждый файл в уникальный код,
  • 5:39 - 5:40
    который называется хеш-кодом.
  • 5:40 - 5:42
    Это как отпечаток пальца
  • 5:42 - 5:45
    для каждого фото и видео,
  • 5:45 - 5:49
    который помогает в расследованиях
  • 5:49 - 5:52
    или удалении такого контента с платформы
  • 5:52 - 5:58
    без необходимости смотреть материал.
  • 5:58 - 6:00
    Проблема заключается в том,
  • 6:00 - 6:04
    что миллионы таких хеш-кодов существуют
  • 6:04 - 6:08
    в закрытых базах данных по всему миру.
  • 6:08 - 6:09
    Одно агенство
  • 6:09 - 6:12
    с доступом к хранилищу, может работать,
  • 6:12 - 6:17
    но неизвестно, какие коды уникальны.
  • 6:17 - 6:20
    Неизвестно, какие дети нуждаются в помощи,
  • 6:20 - 6:23
    а какие — уже спасены.
  • 6:23 - 6:26
    Наше предложение заключается в том,
  • 6:26 - 6:30
    что все эти данные должны быть связаны.
  • 6:30 - 6:36
    Есть два способа, как эти данные,
    в сочетании с программным обеспечением
  • 6:37 - 6:40
    могут повлиять на интернет.
  • 6:40 - 6:43
    Первый — сотрудничество
    с органами правопорядка.
  • 6:43 - 6:47
    Помогать им быстрее
    опознавать новых жертв,
  • 6:47 - 6:48
    пресекать насилие,
  • 6:48 - 6:51
    препятствовать созданию такого контента.
  • 6:51 - 6:54
    Второй — сотрудничать с компаниями,
  • 6:54 - 6:58
    используя ключ для идентификации файлов,
  • 6:58 - 6:59
    которые распространяются сегодня,
  • 6:59 - 7:01
    удалять,
  • 7:01 - 7:07
    останавливать загрузку новых материалов
    то того, как они станут вирусными.
  • 7:10 - 7:11
    Четыре года назад,
  • 7:11 - 7:13
    когда дело раскрыли,
  • 7:14 - 7:18
    наша команда была там,
  • 7:20 - 7:23
    мы знали, что проиграли,
  • 7:23 - 7:27
    потому что весь год наблюдали за тем,
  • 7:27 - 7:28
    как её искали.
  • 7:28 - 7:32
    Мы понимали,
  • 7:32 - 7:34
    что, если бы технология существовала,
  • 7:34 - 7:37
    они бы нашли её быстрее.
  • 7:38 - 7:40
    И поэтому мы сделали то,
  • 7:40 - 7:43
    что считали единственным верным решением —
  • 7:43 - 7:45
    начали создавать программное обеспечение.
  • 7:46 - 7:48
    Мы начали с правоохранительных органов.
  • 7:48 - 7:52
    Хотели создать сигнал
    для полиции во всём мире,
  • 7:52 - 7:57
    чтобы при опубликовании поста с жертвой,
  • 7:57 - 8:00
    её начали немедленно искать.
  • 8:01 - 8:04
    Я не могу говорить о деталях ПО,
  • 8:04 - 8:07
    но оно работает в 38 странах,
  • 8:07 - 8:10
    и помогает сократить время поисков ребёнка
  • 8:10 - 8:12
    на 65 процентов.
  • 8:12 - 8:17
    (Аплодисменты)
  • 8:21 - 8:24
    Наша новая задача — создать ПО,
  • 8:24 - 8:30
    чтобы помочь компаниям
    определять и удалять такой контент.
  • 8:31 - 8:34
    Давайте поговорим о таких компаниях.
  • 8:34 - 8:37
    Как я уже говорила,
    только в США за прошлый год
  • 8:37 - 8:40
    было зафиксировано
    45 миллионов фото и видео.
  • 8:40 - 8:44
    Эти материалы принадлежат
    лишь 12 компаниям.
  • 8:46 - 8:52
    12 компаний, 45 миллионов
    файлов детского порно.
  • 8:52 - 8:55
    И это те компании, у которых есть деньги
  • 8:55 - 9:00
    на программы, удаляющие такой контент.
  • 9:00 - 9:02
    Но существуют сотни других компаний —
  • 9:02 - 9:06
    от маленьких до средних по всему миру,
  • 9:06 - 9:10
    но они либо не знают, что их платформы
  • 9:10 - 9:12
    используют для распространения порно,
  • 9:12 - 9:18
    либо не тратят на это деньги,
    поскольку это не приносит прибыль.
  • 9:19 - 9:22
    Мы создали ПО для них,
  • 9:22 - 9:27
    и теперь система «умнеет»
    с количеством компаний-участников.
  • 9:28 - 9:30
    Например,
  • 9:30 - 9:34
    наш первый клиент — компания Imgur,
  • 9:34 - 9:38
    один из самых популярных сайтов в США,
  • 9:38 - 9:43
    куда каждый день
    загружаются тонны контента,
  • 9:43 - 9:45
    чтобы сделать интернет веселее.
  • 9:46 - 9:48
    Они первыми стали сотрудничать с нами.
  • 9:48 - 9:51
    За 20 минут использования нашей системы,
  • 9:51 - 9:55
    кто-то хотел загрузить файл,
    имеющийся в базе.
  • 9:55 - 9:57
    Они смогли пресечь загрузку материала
  • 9:57 - 10:00
    и сообщить в центр поиска
    эксплуатируемых детей.
  • 10:00 - 10:02
    Они пошли дальше
  • 10:02 - 10:07
    и проверили аккаунт того человека.
  • 10:07 - 10:12
    И там они обнаружили
    множество новых материалов
  • 10:12 - 10:14
    с сексуальным насилием над детьми.
  • 10:14 - 10:18
    И вот тут мы видим эффект.
  • 10:18 - 10:19
    Мы изъяли этот материал,
  • 10:20 - 10:23
    передали его в центр поиска
    эксплуатируемых детей,
  • 10:23 - 10:26
    и все эти хеш-коды попали в систему
  • 10:26 - 10:28
    и принесли пользу другим компаниям.
  • 10:28 - 10:33
    Пока хеш-коды приводят к другим
  • 10:33 - 10:37
    в реальном времени, помогая компаниям,
  • 10:37 - 10:42
    мы увеличиваем скорость
    удаления материалов,
  • 10:42 - 10:46
    содержащих сексуальное насилие над детьми.
  • 10:46 - 10:52
    (Аплодисменты)
  • 10:54 - 10:58
    Именно поэтому дело здесь не только
    в программном обеспечении и данных,
  • 10:58 - 11:00
    но главным образом в масштабах охвата.
  • 11:00 - 11:03
    Мы должны привлечь тысячи полицейских,
  • 11:03 - 11:05
    сотни компаний по всему миру,
  • 11:05 - 11:09
    если технологии позволят нам
    обойти преступников
  • 11:09 - 11:11
    и ликвидировать те
    сообщества по всему миру,
  • 11:11 - 11:15
    где насилие над детьми — норма.
  • 11:15 - 11:18
    И это надо делать сейчас.
  • 11:18 - 11:24
    Потому что мы знаем,
    как это влияет на наших детей.
  • 11:25 - 11:29
    Дети, чьи порно видео стали вирусными,
  • 11:29 - 11:31
    сейчас — молодые люди.
  • 11:31 - 11:35
    Канадский центр защиты детей
    провёл исследование,
  • 11:35 - 11:37
    в котором участвовали эти молодые люди,
  • 11:37 - 11:42
    чтобы понять, как они пытаются
    оправиться от травмы,
  • 11:42 - 11:44
    зная, что их изнасилование есть в сети.
  • 11:45 - 11:50
    80% этих молодых людей
    думали о самоубийстве.
  • 11:51 - 11:55
    Более 60% пытались покончить с собой.
  • 11:56 - 12:01
    Многие из них каждый день живут в страхе,
  • 12:01 - 12:05
    что на улице, или на собеседовании,
  • 12:05 - 12:08
    или по пути в школу,
  • 12:08 - 12:10
    или при общении в интернете,
  • 12:10 - 12:14
    они встречают тех, кто мог видеть
    материалы с насилием над ними.
  • 12:15 - 12:19
    И в 30% случаев они правы.
  • 12:20 - 12:25
    Их узнавали из-за тех материалов.
  • 12:26 - 12:29
    Это нелегко,
  • 12:29 - 12:32
    но возможно.
  • 12:32 - 12:35
    Теперь всё зависит от желания,
  • 12:35 - 12:36
    желания общества
  • 12:37 - 12:40
    взглянуть в глаза страху,
  • 12:40 - 12:42
    извлечь что-то из темноты на свет,
  • 12:42 - 12:45
    чтобы у этих детей было право голоса.
  • 12:46 - 12:51
    Нужно желание компаний знать,
    что их платформы
  • 12:51 - 12:54
    не связаны с насилием над детьми.
  • 12:55 - 12:59
    Желание государств инвестировать
    в органы правопорядка,
  • 12:59 - 13:04
    для расследования
    преступлений в интернете,
  • 13:04 - 13:08
    даже если жертва не рассказывает об этом.
  • 13:10 - 13:13
    Эта решимость — часть этого желания.
  • 13:14 - 13:20
    Это объявление войны человеческому злу.
  • 13:20 - 13:22
    Я цепляюсь за мысль,
  • 13:22 - 13:26
    что всё это — вклад в будущее,
  • 13:26 - 13:29
    где ребёнок — это просто ребёнок.
  • 13:29 - 13:31
    Спасибо.
  • 13:31 - 13:37
    (Аплодисменты)
Title:
Как мы можем остановить сексуальное насилие над детьми в интернете
Speaker:
Джули Кордуа
Description:

Социальный предприниматель Джули Кордуа работает над проблемой, о которой нелегко говорить, — материалы с сексуальным насилием над детьми в интернете. В Thorn она разрабатывает технологию, позволяющую связать воедино технологическую отрасль, правоохранительные органы и правительство, чтобы мы могли быстро положить конец распространению вирусных материалов с насилием и быстрее спасти детей. Узнайте больше о том, как это адаптируемое решение может помочь ликвидировать сообщества, нормализующие сексуальное насилие над детьми во всем мире. (Этот глобальный план является частью проекта Audacious Project, инициативы TED по стимулированию и финансированию глобальных изменений).

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Russian subtitles

Revisions