Return to Video

Ako môžeme z internetu eliminovať materiály s pohlavným zneužívaním detí

  • 0:01 - 0:04
    [Táto prednáška nie je vhodná pre deti]
  • 0:06 - 0:07
    Pred 5 rokmi
  • 0:07 - 0:11
    som mala telefonát,
    ktorý zmenil môj život.
  • 0:12 - 0:14
    Pamätám si ten deň veľmi živo.
  • 0:15 - 0:17
    Bolo to asi toto obdobie v roku
  • 0:17 - 0:19
    a ja som sedela vo svojej kancelárii.
  • 0:20 - 0:23
    Spomínam si, ako dovnútra
    prúdili slnečné lúče.
  • 0:24 - 0:25
    A zrazu mi zazvonil telefón.
  • 0:26 - 0:27
    Zdvihla som ho.
  • 0:28 - 0:32
    Volali mi dvaja federálni agenti,
    ktorí chceli moju pomoc
  • 0:32 - 0:34
    pri identifikovaní malého dievčatka,
  • 0:34 - 0:40
    ktoré bolo na stovkách snímok s pohlavným
    zneužívaním, ktoré našli online.
  • 0:41 - 0:44
    Práve na prípade začali pracovať,
  • 0:44 - 0:47
    ale vedeli už,
  • 0:47 - 0:51
    že toto zneužívanie bolo do sveta
    šírené celé roky,
  • 0:51 - 0:57
    a to na temných webových stránkach
    zameraných na pohlavné zneužívanie detí.
  • 0:58 - 1:02
    Jej zneužívateľ bol neuveriteľne
    technologicky sofistikovaný:
  • 1:02 - 1:07
    nové fotky a nové videá
    každých pár týždňov,
  • 1:07 - 1:11
    ale len málo vodidiel k tomu,
    kto to dievča je,
  • 1:11 - 1:12
    alebo kde sa nachádza.
  • 1:13 - 1:15
    A tak nám zavolali,
  • 1:15 - 1:17
    pretože počuli, že sme nová neziskovka,
  • 1:17 - 1:21
    ktorá vytvára technológiu pre boj
    s pohlavným zneužívaním detí.
  • 1:22 - 1:24
    Ale fungovali sme zatiaľ iba 2 roky
  • 1:24 - 1:27
    a pracovali sme iba na obchodovaní
    s deťmi kvôli sexu.
  • 1:28 - 1:30
    A tak som im musela povedať,
  • 1:30 - 1:31
    že pre nich nič nemáme.
  • 1:32 - 1:36
    Že nemáme nič, čo by mohlo pomôcť
    zastaviť toto zneužívanie.
  • 1:37 - 1:41
    Tým agentom trvalo ešte jeden rok,
  • 1:41 - 1:44
    než to dieťa konečne našli.
  • 1:45 - 1:47
    A dovtedy, kým bola zachránená,
  • 1:47 - 1:54
    stovky fotiek a videí, ktoré dokumentovali
    jej znásilňovanie, kolovali po internete,
  • 1:54 - 1:55
    putovali z toho temného webu
  • 1:55 - 1:58
    do komunikačných sietí,
    do súkromných chatovacích miestností
  • 1:58 - 2:02
    a na stránky, ktoré používate vy i ja,
  • 2:02 - 2:04
    to všetko každý deň.
  • 2:05 - 2:09
    A dnes, keď sa to dievča
    usilovne snaží zotaviť,
  • 2:09 - 2:13
    žije s vedomím, že tisíce ľudí
    po celom svete
  • 2:13 - 2:16
    ďalej sledujú jej zneužívanie.
  • 2:18 - 2:20
    Za posledných 5 rokov som zistila,
  • 2:20 - 2:23
    že tento prípad zďaleka nie je ojedinelý.
  • 2:24 - 2:28
    Ako sme sa ako spoločnosť
    k niečomu takémuto dopracovali?
  • 2:29 - 2:33
    Na konci 80. rokov bola detská pornografia
  • 2:33 - 2:39
    (ktorá je v skutočnosti materiálmi
    s pohlavným zneužívaním detí)
  • 2:39 - 2:40
    takmer odstránená.
  • 2:41 - 2:46
    Vďaka novým zákonom a nárastom trestných
    stíhaní to proste bolo príliš riskantné,
  • 2:46 - 2:48
    aby sa s tým obchodovalo poštou.
  • 2:48 - 2:52
    Potom však prišiel internet
    a trh explodoval.
  • 2:53 - 2:57
    Množstvo materiálu,
    ktorý je teraz v obehu,
  • 2:57 - 3:00
    je ohromné a stále ho pribúda.
  • 3:00 - 3:04
    Toto je skutočne globálny problém,
  • 3:04 - 3:06
    ale pokiaľ sa pozrieme iba na USA,
  • 3:06 - 3:08
    tak iba v USA za posledný rok
  • 3:08 - 3:14
    bolo Národnému centru pre nezvestné
    a zneužívané deti
  • 3:14 - 3:17
    nahlásených viac ako 45 miliónov fotiek
    a videí s pohlavným zneužívaním detí,
  • 3:17 - 3:22
    čo je takmer dvojnásobok toho,
    čo bolo nahlásené o rok skôr.
  • 3:23 - 3:28
    A nad detailmi, ktoré sú ukryté
    pod týmito číslami, je ťažké uvažovať,
  • 3:28 - 3:34
    keď na viac ako 60 % fotiek
    boli deti mladšie ako 12 rokov
  • 3:34 - 3:38
    a na väčšine z nich boli páchané
    extrémne činy sexuálneho násilia.
  • 3:39 - 3:44
    Na chatoch zameraných na zneužívanie detí
    sú páchatelia povzbudzovaní,
  • 3:44 - 3:47
    budujú si tam svoje postavenie a povesť,
  • 3:47 - 3:50
    a to s počtom zneužití a počtom obetí.
  • 3:50 - 3:53
    Na tomto trhu
  • 3:53 - 3:57
    sa menou stal sám obsah.
  • 3:58 - 4:02
    Je zjavné, že páchatelia
    rýchlo využívajú nové technológie,
  • 4:02 - 4:05
    ale odpoveď našej spoločnosti
    rýchla nie je.
  • 4:06 - 4:10
    Títo páchatelia nečítajú používateľské
    podmienky webových stránok
  • 4:10 - 4:14
    a obsah nerešpektuje žiadne
    geografické hranice.
  • 4:15 - 4:21
    A vyhrávajú oni, keď sa pozrieme
    na jeden kúsok skladačky,
  • 4:21 - 4:25
    čo je presne to,
    aká je dnes naša odpoveď.
  • 4:25 - 4:28
    Vynucovanie práva funguje
    v jednej jurisdikcii.
  • 4:28 - 4:32
    Spoločnosti sledujú iba
    svoju vlastnú platformu.
  • 4:32 - 4:34
    A akékoľvek dáta,
    na ktoré pri tom narazia,
  • 4:35 - 4:37
    sa iba zriedkakedy zdieľajú.
  • 4:37 - 4:43
    Je úplne jasné, že tento
    neprepojený prístup nefunguje.
  • 4:44 - 4:48
    Musíme prerobiť našu odpoveď
    voči tejto epidémii
  • 4:48 - 4:49
    a to pre digitálny vek.
  • 4:50 - 4:53
    A to presne robíme v spoločnosti Thorn.
  • 4:53 - 4:57
    Budujeme technológiu,
    ktorá tieto dielce prepojí,
  • 4:57 - 4:59
    aby sme tak zjednotili všetkých
    v prvej línii,
  • 4:59 - 5:02
    policajné orgány, neziskovky, spoločnosti,
  • 5:02 - 5:06
    a to nástrojmi, ktoré potrebujú,
    aby z internetu úplne
  • 5:06 - 5:08
    odstránili materiály
    s pohlavným zneužívaním detí.
  • 5:10 - 5:11
    Pozrime sa na to…
  • 5:11 - 5:12
    (potlesk)
  • 5:12 - 5:14
    Ďakujem.
  • 5:14 - 5:16
    (potlesk)
  • 5:18 - 5:20
    Pozrime sa na to, čo to tie dielce sú.
  • 5:21 - 5:25
    Ako si dokážeme predstaviť,
    obsah tých materiálov je príšerný.
  • 5:25 - 5:28
    Pokým sa na to nemusíte pozerať,
    tak sa na to pozerať nechcete.
  • 5:28 - 5:33
    A tak väčšina spoločností
    alebo policajných orgánov,
  • 5:33 - 5:35
    ktoré tieto materiály majú,
  • 5:35 - 5:39
    môžu každý súbor preložiť
    do jedinečného radu čísel.
  • 5:39 - 5:40
    Tomu sa hovorí „hash“.
  • 5:40 - 5:42
    Je to v podstate akoby odtlačok prstu
  • 5:42 - 5:45
    pre každý súbor alebo video.
  • 5:45 - 5:49
    A to im umožňuje používať
    tieto informácie pri vyšetrovaní,
  • 5:49 - 5:52
    firmám to umožňuje odstrániť
    takýto obsah zo svojej platformy,
  • 5:52 - 5:58
    a to všetko bez toho, aby sa museli vždy
    znovu pozerať na každú fotku a video.
  • 5:58 - 6:00
    Ale problémom je,
  • 6:00 - 6:04
    že existujú stovky miliónov
    takýchto hashov,
  • 6:04 - 6:08
    ktoré sa zhromažďujú
    v databázach po celom svete.
  • 6:08 - 6:09
    V takej databáze
  • 6:09 - 6:12
    to môže pomôcť jednému orgánu,
    ktorý ju spravuje,
  • 6:12 - 6:17
    ale tým, že tieto dáta neprepája,
    nevieme, koľko je z nich jedinečných.
  • 6:17 - 6:20
    Nevieme, ktoré z nich predstavujú deti,
    ktoré už boli zachránené,
  • 6:20 - 6:23
    a ktoré ešte stále musia
    byť identifikované.
  • 6:23 - 6:27
    Takže naším prvým a základným
    predpokladom je, že všetky tieto dáta
  • 6:27 - 6:30
    musia byť prepojené.
  • 6:30 - 6:36
    Existujú dve možnosti, kde tieto dáta
    globálne kombinované so softvérom
  • 6:37 - 6:40
    môžu mať v tomto priestore
    transformačný dopad.
  • 6:40 - 6:43
    Po prvé to sú policajné orgány:
  • 6:43 - 6:47
    pomôže im to rýchlejšie identifikovať
    nové obete,
  • 6:47 - 6:48
    zastaviť zneužívanie
  • 6:48 - 6:51
    a zastaviť tých,
    ktorí tento obsah vytvárajú.
  • 6:51 - 6:54
    Po druhé to sú spoločnosti:
  • 6:54 - 6:58
    pomôže im to identifikovať
    stovky miliónov súborov,
  • 6:58 - 6:59
    ktoré sú v obehu,
  • 6:59 - 7:01
    aby ich mohli odstrániť,
  • 7:01 - 7:07
    a pomôže to zastaviť nahrávanie nového
    materiálu skôr, než sa stane virálnym.
  • 7:10 - 7:11
    Pred 4 rokmi,
  • 7:11 - 7:13
    keď ten prípad skončil,
  • 7:14 - 7:18
    sa náš tím stretol a cítili sme taký...
  • 7:20 - 7:21
    hlboký pocit sklamania.
  • 7:21 - 7:23
    Asi takto by som to mohla vyjadriť,
  • 7:23 - 7:27
    pretože sme celý ten rok sledovali,
  • 7:27 - 7:28
    ako ju hľadajú.
  • 7:28 - 7:32
    A v každom tom úseku vyšetrovania
    sme videli,
  • 7:32 - 7:34
    že keby taká technológia existovala,
  • 7:34 - 7:37
    mohli by ju nájsť rýchlejšie.
  • 7:38 - 7:40
    A tak sme to nechali tak
  • 7:40 - 7:43
    a išli sme urobiť jedinú vec,
    ktorú sme vedeli:
  • 7:43 - 7:45
    začali sme vyvíjať softvér.
  • 7:46 - 7:48
    A začali sme policajnými orgánmi.
  • 7:48 - 7:52
    Naším snom bol alarm na každom
    policajnom stole po celom svete,
  • 7:52 - 7:57
    takže keby sa niekto opovážil
    nahrať na internet novú obeť,
  • 7:57 - 8:00
    niekto by po ňom okamžite začal pátrať.
  • 8:01 - 8:04
    Samozrejme nemôžem hovoriť
    o detailoch toho softvéru,
  • 8:04 - 8:07
    ale dnes už funguje v 38 krajinách
  • 8:07 - 8:10
    a znižuje dobu, ktorá je potrebná
    na nájdenie dieťaťa,
  • 8:10 - 8:12
    o viac ako 65 %.
  • 8:12 - 8:17
    (potlesk)
  • 8:21 - 8:24
    A teraz prichádzame
    k druhému horizontu:
  • 8:24 - 8:26
    vytvorenie softvéru,
  • 8:26 - 8:31
    ktorý spoločnostiam pomôže
    identifikovať a odstrániť tento obsah.
  • 8:31 - 8:34
    Povedzme si teraz niečo
    o týchto spoločnostiach.
  • 8:34 - 8:40
    Ako som už vravela, za posledný rok je
    to iba v USA 45 miliónov fotiek a videí.
  • 8:40 - 8:44
    A tie pochádzajú iba z 12 spoločností.
  • 8:46 - 8:52
    12 spoločností, 45 miliónov súborov
    s materiálom pohlavného zneužívania detí.
  • 8:52 - 8:55
    Pochádzajú zo spoločností,
    ktoré majú dosť peňazí,
  • 8:55 - 9:00
    aby si vytvorili infraštruktúru, ktorá
    je potrebná na odstránenie takého obsahu.
  • 9:00 - 9:02
    Ale sú tu stovky ďalších spoločností,
  • 9:02 - 9:05
    malé až stredné spoločnosti
    po celom svete,
  • 9:05 - 9:07
    ktoré to najskôr musia urobiť,
  • 9:07 - 9:12
    ale ktoré: 1) si nevedia predstaviť, že by
    ich platforma mohla byť takto zneužitá,
  • 9:12 - 9:18
    alebo: 2) nemajú peniaze, ktoré by mohli
    dať za niečo, čo im nezvýši príjem.
  • 9:19 - 9:22
    Tak sme sa do toho pustili
    a vytvorili sme to pre nich.
  • 9:22 - 9:27
    A tento systém je šikovnejší, pretože
    sa do neho zapája viac a viac spoločností.
  • 9:28 - 9:30
    Uvediem jeden príklad.
  • 9:30 - 9:34
    Náš prvý partner, Imgur (ak ste ešte
    o tejto spoločnosti nepočuli,
  • 9:34 - 9:38
    má jednu z najnavštevovanejších
    webových stránok v USA)
  • 9:38 - 9:43
    má každý deň milióny kúskov obsahu
    generovaného a nahrávaného použivateľmi
  • 9:43 - 9:45
    s cieľom urobiť z internetu
    čo najzábavnejšie miesto.
  • 9:46 - 9:48
    Oni sa s nami spojili ako prví.
  • 9:48 - 9:51
    Počas prvých 20 minút
    po pripojení na náš systém
  • 9:51 - 9:55
    sa niekto pokúsil nahrať
    jeden známy materiál so zneužívaním.
  • 9:55 - 9:57
    Boli schopní to zastaviť a odstrániť.
  • 9:57 - 10:00
    Nahlásili to Národnému centru
    pre nezvestné a zneužívané deti.
  • 10:00 - 10:02
    Ale išli dokonca ešte ďalej
  • 10:02 - 10:07
    a skontrolovali účet toho,
    kto sa pokúsil tento obsah nahrať.
  • 10:07 - 10:12
    Stovky ďalších kusov materiálu
    s pohlavne zneužívanými deťmi,
  • 10:12 - 10:14
    ktorý sme predtým nikdy nevideli.
  • 10:14 - 10:18
    A práve teraz je možné vidieť ten
    exponenciálny vplyv.
  • 10:18 - 10:19
    Odstránime taký materiál,
  • 10:20 - 10:23
    nahlási sa to Národnému centru
    pre nezvestné a zneužívané deti,
  • 10:23 - 10:26
    tieto hashe sa potom
    vrátia späť do systému
  • 10:26 - 10:28
    a z toho môže každá ďalšia
    spoločnosť len získať.
  • 10:28 - 10:33
    A keď milióny hashov, ktoré sme už mali,
    priniesli ďalšie milióny,
  • 10:33 - 10:37
    tak ich môžu ďalšie spoločnosti po celom
    svete ihneď identifikovať a odstrániť,
  • 10:37 - 10:42
    čím dramaticky zvýšime rýchlosť,
    s akou odstraňujeme materiál,
  • 10:42 - 10:46
    ktorý obsahuje pohlavné zneužívanie detí,
    a to v rámci internetu po celom svete.
  • 10:46 - 10:52
    (potlesk)
  • 10:54 - 10:57
    A práve preto to nesmie byť
    iba o softvéri a dátach,
  • 10:57 - 10:59
    musí to byť i o rozsahu.
  • 10:59 - 11:03
    Musíme zaktivizovať tisíce policajtov,
  • 11:03 - 11:05
    stovky spoločností po celom svete,
  • 11:05 - 11:09
    aby nám technológia umožnila
    predbehnúť páchateľov
  • 11:09 - 11:13
    a zničiť komunity, ktoré dnes
    po celom svete normalizujú
  • 11:13 - 11:15
    sexuálne zneužívanie detí.
  • 11:15 - 11:18
    A ten čas nastal práve teraz.
  • 11:18 - 11:24
    Už ďalej nesmieme hovoriť, že nevieme,
    aký vplyv to má na naše deti.
  • 11:25 - 11:29
    Prvá generácia detí,
    ktorých zneužívanie sa stalo virálnym,
  • 11:29 - 11:31
    sú dnes už mladí dospelí.
  • 11:31 - 11:34
    Kanadské centrum na ochranu detí
  • 11:34 - 11:37
    nedávno robilo štúdiu
    týchto mladých dospelých,
  • 11:37 - 11:41
    aby sme mohli pochopiť tú veľkú traumu,
    z ktorej sa snažia uzdraviť,
  • 11:41 - 11:44
    vediac, že ich zneužívanie žije
    na internete ďalej.
  • 11:45 - 11:50
    80 % z týchto mladých dospelých
    myslí na samovraždu.
  • 11:51 - 11:55
    Viac než 60 % sa o samovraždu už pokúsilo.
  • 11:56 - 12:01
    A väčšina z nich žije
    s každodennou obavou,
  • 12:01 - 12:05
    že keď idú po ulici, idú na pohovor,
  • 12:05 - 12:08
    idú do školy,
  • 12:08 - 12:10
    či sa s niekym spoja online,
  • 12:10 - 12:14
    majú strach, že ten človek
    ich zneužívanie videl.
  • 12:15 - 12:19
    A pre viac ako 30 % sa táto obava
    skutočne vyplnila.
  • 12:20 - 12:25
    Boli spoznaní podľa online materiálov
    s ich zneužívaním.
  • 12:26 - 12:29
    Nebude to jednoduché,
  • 12:29 - 12:32
    ale nie je to nemožné.
  • 12:32 - 12:35
    Bude to stáť veľa vôle,
  • 12:35 - 12:36
    dobrej vôle našej spoločnosti,
  • 12:37 - 12:40
    aby sa pozrela na niečo,
    na čo sa dá pozerať iba veľmi ťažko,
  • 12:40 - 12:42
    aby vytiahla von z tej temnoty niečo,
  • 12:42 - 12:45
    aby tieto deti bolo počuť,
  • 12:46 - 12:51
    dobrej vôle spoločností zapojiť sa
    a uistiť sa, že ich platformy
  • 12:51 - 12:54
    nie sú spolupáchateľmi zneužívania detí,
  • 12:55 - 12:59
    vôle vlád investovať
    do policajných orgánov
  • 12:59 - 13:01
    a zaistiť im nástroje,
  • 13:01 - 13:04
    ktoré potrebujú na vyšetrovanie
    prvých digitálnych zločinov,
  • 13:04 - 13:08
    aj keď obete nemôžu hovoriť samé za seba.
  • 13:10 - 13:13
    Tento odvážny záväzok
    je súčasťou tej vôle.
  • 13:14 - 13:20
    Je vyhlásením vojny jednej
    z tých najtemnejších ľudských hrôz.
  • 13:20 - 13:22
    Ale spolieham sa na to,
  • 13:22 - 13:26
    že je to vlastne investícia do budúcnosti,
  • 13:26 - 13:29
    v ktorej každé dieťa
    bude jednoducho môcť byť dieťaťom.
  • 13:29 - 13:31
    Ďakujem.
  • 13:31 - 13:37
    (potlesk)
Title:
Ako môžeme z internetu eliminovať materiály s pohlavným zneužívaním detí
Speaker:
Julie Cordua
Description:

Julie Cordua, podnikateľka v sociálnej oblasti, pracuje na probléme, o ktorom sa nehovorí ľahko: pohlavné zneužívanie detí a šírenie takýchto fotiek a videí na internete. V spoločnosti Thorn buduje technológiu, ktorá prepája technologický priemysel, policajné orgány a vládu, aby sme mohli rýchlo ukončiť virálne šírenie materiálu so zneužívaním a tieto deti rýchlo zachrániť. Zistite viac o tom, ako by toto rastúce opatrenie mohlo pomôcť zničiť komunity, ktoré normalizujú pohlavné zneužívanie detí po celom svete. (Tento ambiciózny plán je súčasťou projektu Audacious organizácie TED, iniciatívy na inšpirovanie a podporu globálnej zmeny.)

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Slovak subtitles

Revisions