1 00:00:00,720 --> 00:00:05,290 Régóta használunk kommunikációs eszközöket arra, hogy szexről beszéljünk. 2 00:00:05,600 --> 00:00:09,040 Szerelmeslevelek, telefonszex, pikáns fotók. 3 00:00:09,480 --> 00:00:15,536 Fennmaradt egy történet egy lányról, aki 1886-ban megszökött egy férfival, 4 00:00:15,560 --> 00:00:17,530 akivel táviratban ismerkedett meg. 5 00:00:18,560 --> 00:00:23,656 Ma itt a szexting, én pedig ennek vagyok szakértője. 6 00:00:23,680 --> 00:00:26,020 Nem gyakorlati szakértője. 7 00:00:26,800 --> 00:00:30,976 Bár tudom, ez mit jelent... és szerintem önök is. 8 00:00:31,000 --> 00:00:32,375 [Pénisz] 9 00:00:32,400 --> 00:00:34,760 (Nevetés) 10 00:00:36,360 --> 00:00:42,696 A szextinget 2008 óta tanulmányozom, amikor is a média felfigyelt rá. 11 00:00:42,720 --> 00:00:45,696 Könyvet írtam a szexting kapcsán kitört morális pánikról. 12 00:00:45,720 --> 00:00:47,336 Arra jöttem rá, 13 00:00:47,360 --> 00:00:50,576 hogy a legtöbben nem a megfelelő dolgok miatt aggódnak. 14 00:00:50,600 --> 00:00:54,776 Teljes egészében megpróbálják megakadályozni a szexting előfordulását. 15 00:00:54,800 --> 00:00:56,336 Hadd kérdezzem viszont meg: 16 00:00:56,360 --> 00:01:01,216 ha közös megegyezésen alapszik, mi vele a probléma? 17 00:01:01,240 --> 00:01:05,256 Rengetegen vannak oda dolgokért, amikért mások nincsenek, 18 00:01:05,280 --> 00:01:07,576 mint például a kéksajt vagy a koriander. 19 00:01:07,600 --> 00:01:09,240 (Nevetés) 20 00:01:10,600 --> 00:01:14,736 A szexting valóban kockázatos, mint minden más, ami szórakoztató, 21 00:01:14,760 --> 00:01:21,456 ám mindaddig, amíg nem küldünk képet valakinek, aki nem akar ilyesmit kapni, 22 00:01:21,480 --> 00:01:23,256 senkinek sem ártunk. 23 00:01:23,280 --> 00:01:25,896 Viszont komoly problémának hiszem, 24 00:01:25,920 --> 00:01:29,176 amikor valaki privát képei kerülnek megosztásra, 25 00:01:29,200 --> 00:01:31,090 az illető engedélye nélkül. 26 00:01:31,360 --> 00:01:33,696 Ahelyett, hogy a szexting miatt aggódnánk, 27 00:01:33,720 --> 00:01:38,710 szerintem a digitális adatvédelem megerősítésére kellene összpontosítanunk. 28 00:01:38,880 --> 00:01:41,420 A kulcs a hozzájárulás. 29 00:01:41,680 --> 00:01:44,976 Jelenleg a legtöbben úgy gondolnak a szextingre, 30 00:01:45,000 --> 00:01:48,240 hogy egyáltalán nem foglalkoznak a hozzájárulással. 31 00:01:48,400 --> 00:01:52,630 Tudták, hogy jelenleg a kamaszkori szexting büntetendő? 32 00:01:53,400 --> 00:01:56,856 Gyermekpornográfiának számít, ezért büntetendő lehet, 33 00:01:56,880 --> 00:01:59,736 ha egy 18 év alattiról kép készül, 34 00:01:59,760 --> 00:02:01,096 és még az sem számít, 35 00:02:01,120 --> 00:02:05,530 ha magáról készítette a képet, és szándékosan osztotta meg. 36 00:02:05,800 --> 00:02:10,330 A jogi szituáció igen bizarr tehát, hisz két 17 éves a legtöbb államban 37 00:02:10,330 --> 00:02:13,360 törvényesen létesíthet szexuális kapcsolatot, 38 00:02:13,360 --> 00:02:15,650 ám nem készíthetnek fotót róla. 39 00:02:16,560 --> 00:02:20,816 Néhány államban megpróbálták elfogadtatni, hogy a szexting szabálysértés legyen, 40 00:02:20,840 --> 00:02:23,856 ám e törvényekkel ugyanaz a probléma: 41 00:02:23,880 --> 00:02:27,960 a közös megegyezésen alapuló szextinget is illegálisnak minősítik. 42 00:02:28,520 --> 00:02:31,860 Semmi értelme megpróbálni minden szextinget betiltani, 43 00:02:31,860 --> 00:02:34,536 hogy így oldják meg az adatvédelem megsértését. 44 00:02:34,560 --> 00:02:36,056 Olyan ez, mintha azt mondanánk, 45 00:02:36,080 --> 00:02:42,050 oldjuk meg a randierőszakot úgy, hogy betiltjuk a randikat. 46 00:02:43,120 --> 00:02:48,496 A legtöbb kamaszt nem tartóztatják le szextingért, de tudják, kit igen? 47 00:02:48,520 --> 00:02:53,496 Olyan kamaszokat gyakran, akiket a partner szülei nem kedvelnek. 48 00:02:53,520 --> 00:02:58,690 Ez lehet társadalmi osztály iránti elfogultság, rasszizmus, homofóbia miatt. 49 00:02:58,960 --> 00:03:01,736 A legtöbb ügyésznek persze elég esze van, 50 00:03:01,760 --> 00:03:07,540 hogy ne vádoljanak kamaszokat gyermekpornográfiával, ám páran megteszik. 51 00:03:07,720 --> 00:03:11,376 A New Hampshire-i egyetem kutatói szerint 52 00:03:11,400 --> 00:03:17,056 a gyermekpornográfia anyagok birtoklása miatt letartóztatottak 7%-a olyan kamasz, 53 00:03:17,080 --> 00:03:20,620 aki közös megegyezés alapján szextingel más kamaszokkal. 54 00:03:21,480 --> 00:03:24,016 A gyermekpornográfia komoly bűn, 55 00:03:24,040 --> 00:03:27,720 de nem azonos a kamaszszextinggel. 56 00:03:29,040 --> 00:03:32,456 A szülők és tanárok is anélkül reagálnak a szextingre, 57 00:03:32,480 --> 00:03:35,616 hogy igazán belegondolnának a hozzájárulásba. 58 00:03:35,640 --> 00:03:40,150 A kamaszoknak gyakran annyit mondanak, ne csinálják. 59 00:03:40,200 --> 00:03:43,696 Megértem, komoly jogi következményei vannak, 60 00:03:43,720 --> 00:03:47,376 és természetesen ott a lehetőség az adatvédelem megsértésére is. 61 00:03:47,400 --> 00:03:48,656 És biztos vagyok benne, 62 00:03:48,680 --> 00:03:52,330 hogy kamaszként önök is mindig szót fogadtak, ugye? 63 00:03:53,440 --> 00:03:56,896 Biztos azt gondolják, az önök gyereke sosem szextingelne. 64 00:03:56,920 --> 00:04:00,376 Akár igaz is lehet: az önök kis angyalkája nem feltétlenül szextingel, 65 00:04:00,400 --> 00:04:03,536 mivel a 16-17 évesek 66 00:04:03,560 --> 00:04:06,360 mindössze 33 százaléka teszi. 67 00:04:07,200 --> 00:04:11,816 Azonban ahogy öregszenek, sajnálom, de úgy nő az esélye, hogy szextingelnek. 68 00:04:11,840 --> 00:04:18,040 Az általam olvasott tanulmányok szerint a 18-24 évesek nagyjából fele szextingel. 69 00:04:18,720 --> 00:04:21,776 Legtöbbször nincs is ezzel gond. 70 00:04:21,800 --> 00:04:27,176 Gyakran kérdeznek tőlem olyasmit, hogy a szexting nem túl veszélyes-e. 71 00:04:27,200 --> 00:04:30,776 Pl. senki nem hagyná a tárcáját a parkban egy padon, 72 00:04:30,800 --> 00:04:34,540 tudják, hogy ellopnák, ezért nem hagynák ott, igaz? 73 00:04:34,880 --> 00:04:36,336 Az a véleményem erről, 74 00:04:36,360 --> 00:04:40,296 hogy a szexting olyan, mintha a tárcájukat a partnerük házában hagynák. 75 00:04:40,320 --> 00:04:42,096 Mert ha másnap visszatérnek, 76 00:04:42,120 --> 00:04:44,780 és a pénznek lába kélt, 77 00:04:45,040 --> 00:04:47,370 akkor dobják az illetőt. 78 00:04:47,370 --> 00:04:50,370 (Nevetés) 79 00:04:51,360 --> 00:04:53,680 Tehát ahelyett, hogy a szextinget büntetnénk, 80 00:04:53,720 --> 00:04:56,336 így próbálva megelőzni az adatvédelem megsértését, 81 00:04:56,360 --> 00:04:59,656 a hozzájárulás szempontjából kellene megközelíteni, 82 00:04:59,680 --> 00:05:04,070 hogyan viszonyulunk privát adataink szétküldéséhez. 83 00:05:04,480 --> 00:05:08,736 Minden új médiatechnikai megoldás új adatvédelmi aggályokat is szül. 84 00:05:08,760 --> 00:05:13,376 Az Egyesült Államok első jelentős, adatvédelmi jogokról folytatott vitája is 85 00:05:13,400 --> 00:05:17,896 az akkoriban újnak számító műszaki megoldásokhoz kapcsolódott. 86 00:05:17,920 --> 00:05:21,816 Az 1800-as évek végén az emberek a fényképezőgépek miatt aggódtak, 87 00:05:21,840 --> 00:05:25,296 mivel hirtelen könnyen hordozhatók lettek elődeikhez képest, 88 00:05:25,320 --> 00:05:27,816 továbbá a pletykarovatok miatt. 89 00:05:27,840 --> 00:05:31,656 Azon aggódtak, hogy a fényképezőgép információt rögzít róluk, 90 00:05:31,680 --> 00:05:34,880 kiemeli a kontextusból és széles körben elterjeszti. 91 00:05:35,240 --> 00:05:36,856 Ismerősen hangzik, ugye? 92 00:05:36,880 --> 00:05:41,736 Pont ugyanezek miatt aggódunk a közösségi média, a drónok, továbbá – 93 00:05:41,760 --> 00:05:43,670 nyilván – a szexting korában. 94 00:05:43,920 --> 00:05:45,896 Jogosan aggódunk 95 00:05:45,936 --> 00:05:47,376 a technikai eszközök miatt, 96 00:05:47,400 --> 00:05:50,816 hiszen képesek felerősíteni és kihangsúlyozni 97 00:05:50,840 --> 00:05:53,860 legrosszabb tulajdonságainkat és viselkedésünket. 98 00:05:54,160 --> 00:05:56,536 De vannak megoldások. 99 00:05:56,560 --> 00:06:00,410 Éltünk már át hasonlót egy másik veszélyes, új technológia kapcsán. 100 00:06:00,720 --> 00:06:04,496 1908-ban Ford bemutatta a T modellt. 101 00:06:04,520 --> 00:06:07,096 A halálos közúti balesetek száma megugrott. 102 00:06:07,096 --> 00:06:10,406 Komoly probléma volt – olyan biztonságosnak látszik, nemde? 103 00:06:12,080 --> 00:06:16,056 Első reakcióként megpróbálták megváltoztatni a sofőrök viselkedését, 104 00:06:16,080 --> 00:06:20,060 így került bevezetésre a sebességkorlát, illetve a bírságok. 105 00:06:20,240 --> 00:06:22,096 De a következő évtizedekben rájöttünk, 106 00:06:22,120 --> 00:06:27,616 hogy az autó műszaki kivitelezése sem lényegtelen ebből a szempontból: 107 00:06:27,640 --> 00:06:30,856 kialakíthatjuk úgy is, hogy biztonságosabb legyen. 108 00:06:30,880 --> 00:06:34,336 Így az 1920-as években megjelentek az ütésálló szélvédők, 109 00:06:34,360 --> 00:06:36,856 az '50-es években a biztonsági övek, 110 00:06:36,880 --> 00:06:39,960 a '90-es években pedig a légzsákok. 111 00:06:40,440 --> 00:06:42,816 A három terület – 112 00:06:42,840 --> 00:06:47,670 jogalkotás, egyének és az ipar – idővel összefogott, 113 00:06:47,670 --> 00:06:51,416 hogy segítsenek megoldani az új technológia előidézte problémát. 114 00:06:51,440 --> 00:06:54,930 Ugyanígy járhatunk el a digitális adatvédelem kapcsán. 115 00:06:55,160 --> 00:06:57,920 A kiindulópont, természetesen, a hozzájárulás. 116 00:06:58,360 --> 00:06:59,576 Íme az ötlet. 117 00:06:59,600 --> 00:07:03,416 Mielőtt bárki megoszthatna magánjellegű információkat önökről, 118 00:07:03,440 --> 00:07:06,070 engedélyt kellene kérniük önöktől. 119 00:07:06,240 --> 00:07:11,056 A megerősítő hozzájárulás ötlete nemi erőszak ellenes aktivistáktól származik, 120 00:07:11,080 --> 00:07:14,856 akik szerint minden szexuális aktushoz hozzájárulásunkat kell adjuk. 121 00:07:14,880 --> 00:07:19,456 Más területeken a hozzájárulásnak igen magas szintű követelményei vannak. 122 00:07:19,480 --> 00:07:21,336 Vegyék csak a műtéti beavatkozást. 123 00:07:21,360 --> 00:07:22,976 Az orvosuk köteles biztosítani, 124 00:07:23,000 --> 00:07:27,040 hogy önök érdemben és tudatosan járulnak hozzá az orvosi eljáráshoz. 125 00:07:27,520 --> 00:07:31,216 Ez nem olyan, mint mondjuk hozzájárulni az iTunes felhasználási feltételeihez, 126 00:07:31,240 --> 00:07:34,896 ahol legörgetünk, aztán: "pipa, pipa, tökmindegy". 127 00:07:34,920 --> 00:07:36,640 (Nevetés) 128 00:07:37,160 --> 00:07:42,416 A hozzájárulás lényegét megfontolva jobb adatvédelmi jogszabályokat alkothatunk. 129 00:07:42,440 --> 00:07:45,856 Jelenleg nem vagyunk eléggé védettek. 130 00:07:45,880 --> 00:07:49,456 Ha a volt férjük vagy feleségük szörnyű alak, 131 00:07:49,480 --> 00:07:53,696 a meztelen fotóikat foghatják és feltölthetik egy pornóoldalra. 132 00:07:53,720 --> 00:07:56,936 Leszedetni azokat a képeket igen nehézkes lehet. 133 00:07:56,960 --> 00:07:58,176 Sok államban 134 00:07:58,200 --> 00:08:02,016 akkor járnak a legjobban, ha magukat fotózták le, 135 00:08:02,040 --> 00:08:05,140 mert akkor legalább a szerzői jogokra hivatkozhatnak. 136 00:08:05,320 --> 00:08:07,376 (Nevetés) 137 00:08:07,400 --> 00:08:10,376 Jelenleg, ha valaki megsérti adatvédelmi jogaikat, 138 00:08:10,400 --> 00:08:14,600 legyen az egy egyén, egy cég vagy a Nemzetbiztonsági Ügynökség, 139 00:08:15,280 --> 00:08:18,016 megpróbálhatnak perelni, 140 00:08:18,040 --> 00:08:20,176 bár valószínűleg eredménytelenül, 141 00:08:20,200 --> 00:08:24,976 mivel a legtöbb bíróság szerint a digitális adatvédelem kivitelezhetetlen. 142 00:08:25,000 --> 00:08:28,830 Ezért aztán ha bárki megsérti azt, nem fogják megbüntetni. 143 00:08:29,200 --> 00:08:32,096 Még mindig gyakran kérdezik tőlem, 144 00:08:32,120 --> 00:08:35,634 vajon nem a digitális kép digitális mivolta mossa-e el a határt 145 00:08:35,634 --> 00:08:39,080 a nyilvános és magánszféra között. 146 00:08:39,600 --> 00:08:40,936 Nem! Nem! 147 00:08:40,960 --> 00:08:44,296 Attól, mert valami digitalizált, még nem lesz automatikusan nyilvános. 148 00:08:44,320 --> 00:08:46,086 Ennek semmi értelme. 149 00:08:46,240 --> 00:08:49,736 A New York Egyetem jogtudósa, Helen Nissenbaum szerint 150 00:08:49,760 --> 00:08:52,376 mindenféle törvényeink, előírásaink és normáink vannak, 151 00:08:52,400 --> 00:08:55,536 amelyek magánjellegű adatainkat védik, 152 00:08:55,560 --> 00:08:58,976 és nem számít, hogy azok digitálisak vagy sem. 153 00:08:59,000 --> 00:09:01,656 Minden egészségügyi adatuk digitalizált, 154 00:09:01,680 --> 00:09:04,816 azonban az orvosuk nem oszthatja meg azokat bárkivel. 155 00:09:04,840 --> 00:09:09,296 Minden pénzügyi adatukat digitális adatbázisokban tárolják, 156 00:09:09,320 --> 00:09:14,050 azonban a bankjuk nem hozhatja online nyilvánosságra vásárlási előzményeiket. 157 00:09:15,080 --> 00:09:20,536 Jobb törvények révén kezelni tudnánk az adatvédelem megsértésének eseteit, 158 00:09:20,560 --> 00:09:24,936 de ennél sokkal könnyebb lenne, ha mi magunk változtatnánk, 159 00:09:24,960 --> 00:09:28,070 hogy óvjuk egymás adatait. 160 00:09:28,360 --> 00:09:29,656 Azt mondják, 161 00:09:29,656 --> 00:09:33,336 adatainkért kizárólag mi magunk vagyunk felelősek. 162 00:09:33,360 --> 00:09:37,616 Hangoztatják: folyton ellenőrizzük, frissítsük adatvédelmi beállításainkat. 163 00:09:37,640 --> 00:09:42,880 Elmondják, sose osszunk meg semmit, amit nem akarunk a nagyvilág elé tárni. 164 00:09:43,400 --> 00:09:44,616 Ennek semmi értelme. 165 00:09:44,640 --> 00:09:47,616 A digitális média társadalmi környezet, 166 00:09:47,640 --> 00:09:52,250 és folyton, minden nap megosztunk dolgokat emberekkel, akikben bízunk. 167 00:09:52,760 --> 00:09:55,736 A Princeton kutatója, Janet Vertesi szerint 168 00:09:55,760 --> 00:09:59,776 adataink és magánéletünk nemcsak személyes, 169 00:09:59,800 --> 00:10:02,376 hanem valójában személyek közti is. 170 00:10:02,400 --> 00:10:05,656 Így az egyik dolog, amit igazán könnyen megtehetnek, 171 00:10:05,680 --> 00:10:10,776 ha engedélyt kérnek, mielőtt valaki mástól származó információt megosztanak. 172 00:10:10,800 --> 00:10:15,336 Ha valakiről online közzé akarnak tenni egy fotót, kérjenek engedélyt. 173 00:10:15,360 --> 00:10:17,816 Ha továbbítanának egy e-mailt, 174 00:10:17,840 --> 00:10:19,216 kérjenek engedélyt. 175 00:10:19,240 --> 00:10:21,736 Ha meg akarják osztani valaki meztelen szelfijét, 176 00:10:22,040 --> 00:10:24,320 nyilván: kérjenek engedélyt. 177 00:10:25,560 --> 00:10:30,016 Ha egyéni szokásainkon változtatunk, azzal segíthetünk megóvni egymás adatait, 178 00:10:30,040 --> 00:10:34,070 de a technológiai vállalatoknak is segíteniük kell. 179 00:10:34,360 --> 00:10:38,856 E cégeknek nem igazán áll érdekükben, hogy megóvják adatainkat, 180 00:10:38,880 --> 00:10:42,176 mivel üzleti modelljük alapja, hogy mindent megosztunk 181 00:10:42,200 --> 00:10:44,440 a lehető legtöbb emberrel. 182 00:10:45,080 --> 00:10:47,016 Ha ma elküldök önöknek egy képet, 183 00:10:47,040 --> 00:10:50,136 bárkinek továbbíthatják kedvük szerint. 184 00:10:50,160 --> 00:10:54,416 Mi van akkor, ha eldönthetem, a kép továbbítható-e vagy sem? 185 00:10:54,440 --> 00:10:58,496 Ez tájékoztatná önöket arról, hogy nem engedélyezték a kép elküldését. 186 00:10:58,520 --> 00:11:02,656 A szerzői jogok kapcsán folyton így járunk el. 187 00:11:02,680 --> 00:11:07,456 Ha vesznek egy e-könyvet, nem küldhetik el annyi embernek, ahánynak csak szeretnék. 188 00:11:07,480 --> 00:11:10,360 Miért ne próbálhatnánk ki ugyanezt a mobilokkal? 189 00:11:10,960 --> 00:11:15,736 Kérhetjük a technológiai vállalatokat, hogy alapbeállításként védjék le 190 00:11:15,760 --> 00:11:19,496 eszközeinket és platformjainkat. 191 00:11:19,520 --> 00:11:22,936 Végül is az autónk színét kiválaszthatjuk, 192 00:11:22,960 --> 00:11:26,140 a légzsák viszont mindig ugyanaz. 193 00:11:28,080 --> 00:11:31,896 Ha nem mélyülünk el a digitális adatvédelem és hozzájárulás témájában, 194 00:11:31,920 --> 00:11:34,640 annak komoly következményei lehetnek. 195 00:11:35,360 --> 00:11:37,616 Egy ohiói kamasz, 196 00:11:37,640 --> 00:11:40,900 a személyiségi jogai védelmében nevezzük Jennifernek, 197 00:11:41,120 --> 00:11:44,696 meztelen képeket osztott meg magáról a gimnáziumi pasijával, 198 00:11:44,720 --> 00:11:46,700 azt feltételezve, bízhat benne. 199 00:11:47,720 --> 00:11:49,656 Sajnos a fiú elárulta őt, 200 00:11:49,680 --> 00:11:52,656 és az egész iskolában körbeküldte a fotóit. 201 00:11:52,680 --> 00:11:56,310 Jennifer teljesen megszégyenült, 202 00:11:56,800 --> 00:12:00,936 de osztálytársai ahelyett, hogy támogatták volna, zaklatták. 203 00:12:00,960 --> 00:12:02,816 Leribancozták, 204 00:12:02,840 --> 00:12:05,160 megkeserítették az életét. 205 00:12:05,360 --> 00:12:09,040 Jennifer elkezdett kimaradni az iskolából, a jegyei leromlottak. 206 00:12:09,520 --> 00:12:13,770 Végül Jennifer öngyilkosságot követett el. 207 00:12:14,720 --> 00:12:17,416 Semmi rosszat nem tett. 208 00:12:17,440 --> 00:12:19,696 Csupán megosztott egy meztelen fotót 209 00:12:19,720 --> 00:12:22,276 valakivel, akiről azt hitte, bízhat benne. 210 00:12:22,560 --> 00:12:25,200 Törvényeink szerint viszont 211 00:12:25,200 --> 00:12:29,360 szörnyű bűnt követett el, a gyermekpornográfiával egyenértékűt. 212 00:12:29,920 --> 00:12:31,416 Nemi normáink szerint 213 00:12:31,440 --> 00:12:34,656 az önmagáról készített meztelen fotóval 214 00:12:34,680 --> 00:12:38,166 az egyik legszörnyűbb, legszégyenteljesebb dolgot követte el. 215 00:12:38,400 --> 00:12:42,616 Azzal, hogy kijelentjük, nincs lehetőség adatvédelemre a digitális médiában, 216 00:12:42,640 --> 00:12:48,530 a lány barátjának igen rossz viselkedését felmentjük és megbocsájtjuk. 217 00:12:49,200 --> 00:12:54,826 Azok, akiknek visszaéltek az adataival, a mai napig megkapják: 218 00:12:54,960 --> 00:12:56,216 "Mire is gondoltál? 219 00:12:56,240 --> 00:12:58,720 Sosem kellett volna elküldened azt a képet." 220 00:12:59,640 --> 00:13:03,878 Ha esetleg azon töprengenek, mi mást mondhatnának, próbálják ki a következőt. 221 00:13:04,160 --> 00:13:07,940 Képzeljék el: találkoznak egy barátjukkal, aki síelés közben lábát törte. 222 00:13:08,240 --> 00:13:12,816 Kockáztatott, hogy szórakozzon kicsit, aminek nem lett jó vége. 223 00:13:12,840 --> 00:13:15,376 Valószínű nem lesznek olyan bunkók, hogy azt mondják: 224 00:13:15,400 --> 00:13:18,160 "Hát, talán nem kellett volna síelni menned, haver." 225 00:13:20,080 --> 00:13:22,216 A hozzájárulás lényegét jobban megfontolva 226 00:13:22,240 --> 00:13:25,496 láthatjuk, hogy az adatvédelem megsértésének áldozatai 227 00:13:25,520 --> 00:13:27,256 támogatást érdemelnek, 228 00:13:27,280 --> 00:13:31,880 nem megszégyenítést, büntetést, vagy hogy bűnösnek kiáltsák ki őket. 229 00:13:32,440 --> 00:13:36,936 Támogathatjuk az áldozatokat, és esetleg megelőzhetjük az adatvédelem megsértését, 230 00:13:36,960 --> 00:13:41,560 ha változtatunk a jogalkotás, az egyéni hozzáállás és a műszaki megoldások terén. 231 00:13:41,840 --> 00:13:47,656 A probléma ugyanis nem a szexting, hanem a digitális adatvédelem, 232 00:13:47,680 --> 00:13:50,040 amelyre egy lehetséges megoldás a hozzájárulás. 233 00:13:50,680 --> 00:13:55,056 Ha legközelebb az adatvédelem megsértésének egy áldozata hozzánk fordul, 234 00:13:55,280 --> 00:13:56,956 ahelyett, hogy vádolnánk, 235 00:13:56,956 --> 00:14:01,456 inkább változtassunk a digitális adatvédelemmel kapcsolatos nézeteinken, 236 00:14:01,480 --> 00:14:04,440 és forduljunk együttérzéssel az áldozat felé. 237 00:14:04,680 --> 00:14:05,896 Köszönöm. 238 00:14:05,920 --> 00:14:08,916 (Taps)