1 00:00:00,490 --> 00:00:05,000 Men gebruikt de media al een lange tijd om over seks te praten. 2 00:00:05,600 --> 00:00:09,520 Liefdesbrieven, telefoonseks, erotische foto's. 3 00:00:09,520 --> 00:00:12,570 Er is zelf een verhaal over een meisje dat weggelopen is 4 00:00:12,570 --> 00:00:15,570 met een man die ze ontmoet heeft via de telegraaf, 5 00:00:15,570 --> 00:00:17,000 in het jaar 1886. 6 00:00:18,610 --> 00:00:20,940 Vandaag gaat het over sexting 7 00:00:21,363 --> 00:00:23,533 en ik ben een sexting-expert. 8 00:00:23,533 --> 00:00:25,566 Niet een expert in sexting! 9 00:00:26,740 --> 00:00:30,990 Maar ik weet wel wat dit betekent -- en u vast ook. 10 00:00:30,990 --> 00:00:32,616 [Het is een penis] 11 00:00:32,616 --> 00:00:35,592 (Gelach) 12 00:00:36,400 --> 00:00:38,586 Ik bestudeer sexting 13 00:00:38,586 --> 00:00:42,446 al sinds de media het in 2008 aandacht begonnen te geven. 14 00:00:42,730 --> 00:00:45,940 Ik heb een boek geschreven over de morele paniek over sexting. 15 00:00:45,940 --> 00:00:47,356 En dit is wat ik ontdekt heb: 16 00:00:47,470 --> 00:00:50,556 de meeste mensen maken zich zorgen over het verkeerde ding. 17 00:00:50,690 --> 00:00:54,506 Ze proberen te voorkomen dat sexting sowieso gebeurt. 18 00:00:54,880 --> 00:00:56,480 Laat me jullie een vraag stellen: 19 00:00:56,480 --> 00:01:01,226 als het met wederzijdse toestemming is, wat is dan het probleem met sexting? 20 00:01:01,256 --> 00:01:05,346 Mensen houden van allerlei dingen waar jijzelf misschien niet van houdt, 21 00:01:05,350 --> 00:01:07,796 zoals blauwschimmelkaas of koriander. 22 00:01:07,796 --> 00:01:10,842 (Gelach) 23 00:01:10,842 --> 00:01:14,588 Sexting is echt wel riskant, zoals alles wat leuk is, 24 00:01:14,588 --> 00:01:19,214 maar zolang je maar geen foto stuurt 25 00:01:19,214 --> 00:01:21,604 naar iemand die ze niet wil ontvangen, 26 00:01:21,604 --> 00:01:23,314 geeft het niet. 27 00:01:23,324 --> 00:01:25,929 Wat ik daarentegen wel een serieus probleem vind, 28 00:01:25,929 --> 00:01:29,346 is als mensen de privé-foto's van anderen delen 29 00:01:29,346 --> 00:01:31,320 zonder hun toestemming. 30 00:01:31,320 --> 00:01:33,690 In plaats van ons zorgen te maken over sexting, 31 00:01:33,690 --> 00:01:38,526 vind ik dat we meer moeten nadenken over digitale privacy. 32 00:01:38,830 --> 00:01:41,190 De sleutel is toestemming. 33 00:01:41,830 --> 00:01:45,090 Op dit moment denkt men over sexting 34 00:01:45,090 --> 00:01:48,266 zonder te denken aan toestemming. 35 00:01:48,266 --> 00:01:52,522 Wist je dat we op dit moment tiener-sexting criminaliseren? 36 00:01:53,520 --> 00:01:57,046 Het kan een misdaad zijn, omdat het valt onder kinderpornografie 37 00:01:57,046 --> 00:01:59,776 als er een foto is van iemand onder de 18 jaar, 38 00:01:59,776 --> 00:02:01,222 en het maakt niet eens uit 39 00:02:01,222 --> 00:02:05,728 of ze die foto van zichzelf gemaakt hebben en haar vrijwillig hebben verspreid. 40 00:02:05,740 --> 00:02:08,820 Dus zitten we nu met deze bizarre wettelijke situatie, 41 00:02:08,820 --> 00:02:13,286 waarbij twee 17-jarigen legaal seks kunnen hebben in de meeste staten, 42 00:02:13,340 --> 00:02:15,746 maar er geen foto's van mogen maken. 43 00:02:16,870 --> 00:02:20,630 Sommige staten hebben ook geprobeerd om sexting een overtreding te maken, 44 00:02:20,820 --> 00:02:23,926 maar deze wetten herhalen het probleem, 45 00:02:23,930 --> 00:02:28,666 want ze maken nog steeds sexting illegaal, zelfs bij wederzijds goedvinden. 46 00:02:28,666 --> 00:02:29,952 Het is gewoon absurd 47 00:02:29,952 --> 00:02:34,302 om alle sexting te verbannen om schendingen van privacy aan te pakken. 48 00:02:34,612 --> 00:02:36,168 Dat is hetzelfde als zeggen: 49 00:02:36,168 --> 00:02:38,654 laten we het probleem van date-verkrachting oplossen 50 00:02:38,654 --> 00:02:42,044 door daten in zijn geheel illegaal te maken. 51 00:02:43,120 --> 00:02:48,420 De meeste jongeren worden niet opgepakt voor sexting, maar raad eens wie wel? 52 00:02:48,420 --> 00:02:53,476 Meestal jongeren die door hun schoonouders niet leuk gevonden worden. 53 00:02:53,476 --> 00:02:58,266 Dit kan zijn door bijvoorbeeld klassenverschil, racisme of homofobie. 54 00:02:58,876 --> 00:03:01,742 De meeste officieren van justitie zijn natuurlijk slim genoeg 55 00:03:01,742 --> 00:03:05,810 om jongeren niet aan te klagen voor kinderpornografie, 56 00:03:05,810 --> 00:03:07,670 maar sommigen doen het wel. 57 00:03:07,670 --> 00:03:11,380 Volgens onderzoekers van de Universiteit van New Hampsire 58 00:03:11,430 --> 00:03:16,100 betreffen 7% van alle arrestaties wegens kinderporno 59 00:03:16,100 --> 00:03:20,260 jongeren die met wederzijdse goedkeuring sexten met andere jongeren. 60 00:03:21,620 --> 00:03:24,006 Kinderpornografie is een ernstige misdaad, 61 00:03:24,006 --> 00:03:27,902 maar het is niet hetzelfde als jongeren-sexting. 62 00:03:28,970 --> 00:03:32,630 Ouders en opvoeders reageren ook op sexting 63 00:03:32,630 --> 00:03:35,506 zonder na te denken over of beiden het goedvinden. 64 00:03:35,620 --> 00:03:40,176 Hun boodschap aan jongeren is meestal: gewoon niet doen. 65 00:03:40,320 --> 00:03:43,816 En ik snap het wel -- er zijn wettelijke risico's aan verbonden 66 00:03:43,816 --> 00:03:47,216 en natuurlijk, die potentiële schending van privacy. 67 00:03:47,510 --> 00:03:48,926 En toen je zelf jong was, 68 00:03:48,926 --> 00:03:52,382 deed je alles precies zoals je verteld werd, toch? 69 00:03:53,450 --> 00:03:57,126 Waarschijnlijk denk je nu dat jouw kind nooit sext. 70 00:03:57,126 --> 00:04:00,516 En het is waar, jouw kleine engel sext misschien niet, 71 00:04:00,516 --> 00:04:03,662 want slechts 33% 72 00:04:03,662 --> 00:04:06,162 van de 16- en 17-jarigen sexten. 73 00:04:07,160 --> 00:04:11,836 Maar, het spijt me, als ze ouder worden, zullen ze waarschijnlijk wel sexten. 74 00:04:11,840 --> 00:04:13,566 In elke studie die ik gezien heb, 75 00:04:13,566 --> 00:04:18,096 ligt het cijfer boven de 50% voor 18- tot 24-jarigen. 76 00:04:18,596 --> 00:04:21,816 En meestal gaat er niets fout. 77 00:04:21,830 --> 00:04:27,250 Mensen vragen me altijd dingen als: is sexting niet gevaarlijk? 78 00:04:27,250 --> 00:04:31,146 Als je je portemonnee op een parkbankje laat liggen, 79 00:04:31,146 --> 00:04:34,402 verwacht je toch ook dat hij gestolen gaat worden, toch? 80 00:04:34,402 --> 00:04:36,488 Dit is hoe ik er over denk: 81 00:04:36,500 --> 00:04:40,370 sexting is als je portemonnee laten liggen in je vriendjes huis. 82 00:04:40,370 --> 00:04:42,240 Als je de volgende dag terugkomt 83 00:04:42,240 --> 00:04:44,410 en al het geld is gewoon weg, 84 00:04:44,410 --> 00:04:47,520 moet je het echt uitmaken met die kerel. 85 00:04:47,520 --> 00:04:51,666 (Gelach) 86 00:04:51,700 --> 00:04:53,846 Dus in plaats van sexting te criminaliseren 87 00:04:53,846 --> 00:04:56,396 om privacy-schending te voorkomen, 88 00:04:56,396 --> 00:04:59,812 moet wederzijdse toestemming het uitgangspunt worden 89 00:04:59,812 --> 00:05:03,708 bij het nadenken over de circulatie van onze privé-informatie. 90 00:05:04,340 --> 00:05:08,836 Elke nieuwe mediatechnologie brengt privacy-problemen met zich mee. 91 00:05:08,836 --> 00:05:13,252 In feite waren de allereerste grote debatten in de VS over privacy 92 00:05:13,252 --> 00:05:17,648 een reactie op technologieën die op dat moment relatief nieuw waren. 93 00:05:17,870 --> 00:05:21,686 Aan het einde van de 19de eeuw maakten mensen zich zorgen over camera's, 94 00:05:21,810 --> 00:05:25,010 die opeens draagbaarder waren dan ooit tevoren, 95 00:05:25,270 --> 00:05:27,716 en roddelartikelen in kranten. 96 00:05:27,860 --> 00:05:31,486 Ze waren bezorgd dat de camera informatie over hen zou vastleggen, 97 00:05:31,486 --> 00:05:33,446 die informatie uit de context zou halen 98 00:05:33,446 --> 00:05:35,176 en hem zou verspreiden. 99 00:05:35,176 --> 00:05:36,526 Klinkt dit herkenbaar? 100 00:05:36,830 --> 00:05:39,652 Het is precies hetzelfde als waar wij ons zorgen over maken, 101 00:05:39,652 --> 00:05:41,714 met sociale media en drone-camera's 102 00:05:41,714 --> 00:05:43,446 en natuurlijk sexting. 103 00:05:43,880 --> 00:05:47,220 En deze angsten over technologie zijn wel begrijpelijk, 104 00:05:47,236 --> 00:05:50,916 omdat technologieën onze slechtste eigenschappen en gedrag 105 00:05:50,916 --> 00:05:53,546 naar boven kunnen halen en versterken. 106 00:05:54,160 --> 00:05:56,616 Maar er bestaan oplossingen. 107 00:05:56,616 --> 00:06:00,122 En we hebben dit eerder meegemaakt met een gevaarlijke nieuwe technologie. 108 00:06:00,702 --> 00:06:04,482 In 1908 introduceerde Ford de Model T-auto. 109 00:06:04,490 --> 00:06:07,146 Sterftecijfers in het verkeer stegen. 110 00:06:07,146 --> 00:06:10,306 Het was een ernstig probleem -- het ziet er zo veilig uit, toch? 111 00:06:12,110 --> 00:06:16,196 We probeerden toen eerst het gedrag van de bestuurders te veranderen, 112 00:06:16,196 --> 00:06:20,162 dus ontwikkelden we snelheidslimieten en we dwongen ze af door boetes. 113 00:06:20,162 --> 00:06:23,644 Maar in de loop van de volgende decennia begonnen we ons te realiseren 114 00:06:23,644 --> 00:06:27,510 dat de technologie van de auto niet neutraal was. 115 00:06:27,510 --> 00:06:30,416 We konden de auto ontwerpen om hem veiliger te maken. 116 00:06:30,900 --> 00:06:34,590 In de jaren 20 kregen we voorruiten die niet konden breken. 117 00:06:34,590 --> 00:06:36,966 In de jaren 50 kregen we gordels. 118 00:06:36,966 --> 00:06:40,032 En in de jaren 90 airbags. 119 00:06:40,480 --> 00:06:42,456 Al deze drie gebieden, 120 00:06:42,866 --> 00:06:47,736 wetten, individuen en industrie, kwamen in de loop van de tijd samen 121 00:06:47,736 --> 00:06:51,316 om het probleem op te lossen dat de nieuwe technologie meebrengt. 122 00:06:51,316 --> 00:06:54,672 En we kunnen dit ook doen met digitale privacy. 123 00:06:55,130 --> 00:06:58,286 Het komt uiteraard neer op wederzijdse toestemming. 124 00:06:58,330 --> 00:06:59,396 Dit is het idee. 125 00:06:59,526 --> 00:07:03,302 Voordat iemand je privégegevens kan verspreiden, 126 00:07:03,302 --> 00:07:05,848 zouden ze je toestemming moeten krijgen. 127 00:07:06,200 --> 00:07:10,956 Dit idee van actief toestemming geven komt van anti-verkrachtingsactivisten 128 00:07:10,970 --> 00:07:14,986 die ons vertellen dat we toestemming nodig hebben voor elke seksuele handeling. 129 00:07:14,986 --> 00:07:19,026 En we hebben echt hoge normen inzake toestemming op vele andere vlakken. 130 00:07:19,466 --> 00:07:21,262 Bijvoorbeeld bij een operatie. 131 00:07:21,262 --> 00:07:25,468 De dokter moet zich ervan vergewissen dat je met gezond verstand toestemt 132 00:07:25,468 --> 00:07:27,558 in het ondergaan van die medische procedure. 133 00:07:27,558 --> 00:07:31,634 Dit is niet hetzelfde als toestemmen met de iTunes-servicevoorwaarde, 134 00:07:31,634 --> 00:07:34,710 waar je naar beneden scrolt en zonder te lezen op akkoord klikt. 135 00:07:34,740 --> 00:07:37,456 (Gelach) 136 00:07:37,456 --> 00:07:42,242 Als we meer over toestemming nadenken, kunnen we betere privacy-wetten krijgen. 137 00:07:42,270 --> 00:07:45,486 Op dit moment hebben we gewoon niet veel bescherming. 138 00:07:45,800 --> 00:07:49,146 Als je ex-man of ex-vrouw een verschrikkelijke persoon is, 139 00:07:49,146 --> 00:07:53,362 kunnen ze je naaktfoto's uploaden naar een porno-website. 140 00:07:53,670 --> 00:07:56,810 Het kan erg lastig zijn om die foto's van het web te krijgen. 141 00:07:56,810 --> 00:07:58,216 En in veel staten 142 00:07:58,216 --> 00:08:01,882 kun je beter zeggen dat je de foto's zelf genomen hebt, 143 00:08:01,882 --> 00:08:06,082 omdat je dan aanspraak kan maken op de auteursrechten. 144 00:08:06,082 --> 00:08:07,428 (Gelach) 145 00:08:07,428 --> 00:08:10,484 Op dit moment, als iemand je privacy schendt, 146 00:08:10,484 --> 00:08:15,260 of dat nou een individu is, of een bedrijf, of de NSA, 147 00:08:15,260 --> 00:08:17,850 kun je proberen een rechtszaak aan te spannen, 148 00:08:17,850 --> 00:08:20,326 maar die zal misschien niet succesvol zijn, 149 00:08:20,326 --> 00:08:25,262 omdat veel rechtbanken aannemen dat digitale privacy gewoon onmogelijk is. 150 00:08:25,262 --> 00:08:28,642 Dus willen ze eigenlijk niemand straffen die het schendt. 151 00:08:29,360 --> 00:08:32,026 Nog steeds vragen mensen mij: 152 00:08:32,026 --> 00:08:37,452 "Vervaagt een digitale foto niet de lijn tussen openbaar en privé, 153 00:08:37,452 --> 00:08:39,588 omdat het digitaal is, toch?" 154 00:08:39,588 --> 00:08:40,984 Nee! Nee! 155 00:08:40,984 --> 00:08:44,440 Alles wat digitaal is, is niet automatisch openbaar. 156 00:08:44,440 --> 00:08:46,106 Dat slaat helemaal nergens op. 157 00:08:46,200 --> 00:08:49,616 NYU-jurist Helen Nissenbaum vertelt ons 158 00:08:49,636 --> 00:08:52,432 dat we wetten, beleidsmaatregelen en normen hebben 159 00:08:52,432 --> 00:08:55,556 die allerlei persoonlijke informatie beschermen 160 00:08:55,560 --> 00:08:58,946 en het maakt geen verschil of het digitaal is of niet. 161 00:08:58,946 --> 00:09:01,756 Al je medische gegevens zijn gedigitaliseerd, 162 00:09:01,756 --> 00:09:04,582 maar je dokter kan ze niet zomaar met iedereen delen. 163 00:09:04,582 --> 00:09:08,958 Al je financiële informatie wordt opgeslagen in digitale databases, 164 00:09:09,180 --> 00:09:11,330 maar je creditcardmaatschappij kan niet zomaar 165 00:09:11,330 --> 00:09:13,910 je aankoopgeschiedenis online zetten. 166 00:09:15,130 --> 00:09:20,276 Betere wetgeving kan privacyschending achteraf helpen aan te pakken, 167 00:09:20,276 --> 00:09:23,332 maar een van de makkelijkste dingen die we allemaal kunnen doen, 168 00:09:23,332 --> 00:09:25,212 is zelf persoonlijk veranderingen maken 169 00:09:25,212 --> 00:09:27,972 om elkaars privacy te beschermen. 170 00:09:28,350 --> 00:09:33,160 Men zegt ons steeds dat privacy onze eigen verantwoordelijkheid is. 171 00:09:33,410 --> 00:09:34,936 Men zegt ons dat we voortdurend 172 00:09:34,936 --> 00:09:37,616 onze privacy-instellingen moeten controleren en herzien. 173 00:09:37,616 --> 00:09:42,450 Ze zeggen dat we nooit iets moeten delen wat de hele wereld nooit mag zien. 174 00:09:43,390 --> 00:09:44,630 Dit slaat nergens op. 175 00:09:44,640 --> 00:09:47,616 Digitale media zijn sociale omgevingen 176 00:09:47,760 --> 00:09:51,776 en wij delen dingen met mensen die we vertrouwen, elke dag weer. 177 00:09:52,760 --> 00:09:55,336 Zoals Princeton-onderzoeker Janet Vertesi betoogt: 178 00:09:55,760 --> 00:09:59,806 "Onze data en onze privacy zijn niet alleen persoonlijk, 179 00:09:59,810 --> 00:10:02,196 ze zijn eigenlijk interpersoonlijk." 180 00:10:02,520 --> 00:10:05,736 Iets wat je dus erg makkelijk kunt doen, 181 00:10:05,780 --> 00:10:07,796 is beginnen met toestemming te vragen 182 00:10:07,796 --> 00:10:10,586 voordat je iemand anders zijn informatie deelt. 183 00:10:10,586 --> 00:10:13,822 Als je een foto van iemand online wil posten, 184 00:10:13,822 --> 00:10:15,292 vraag om toestemming. 185 00:10:15,292 --> 00:10:17,838 Als je een email door wilt sturen, 186 00:10:17,838 --> 00:10:19,168 vraag om toestemming. 187 00:10:19,340 --> 00:10:22,016 En als je iemands naaktfoto wil verspreiden, 188 00:10:22,016 --> 00:10:24,346 vraag dan, natuurlijk, om toestemming. 189 00:10:25,540 --> 00:10:28,240 Deze individuele veranderingen kunnen ons echt helpen 190 00:10:28,240 --> 00:10:30,030 om elkaars privacy te beschermen, 191 00:10:30,030 --> 00:10:33,826 maar daar hebben wij ook technologiebedrijven voor nodig. 192 00:10:34,480 --> 00:10:38,806 Deze bedrijven hebben weinig reden om onze privacy te helpen beschermen, 193 00:10:38,806 --> 00:10:41,230 omdat hun bedrijfsmodel ervan afhankelijk is 194 00:10:41,230 --> 00:10:44,476 dat wij alles delen met zoveel mogelijk mensen. 195 00:10:45,120 --> 00:10:47,306 Op dit moment, als ik je een afbeelding stuur, 196 00:10:47,306 --> 00:10:49,832 kan je die naar iedereen doorsturen die je maar wil. 197 00:10:50,290 --> 00:10:54,216 Maar als ík nu eens kon bepalen of je die afbeelding door kon sturen? 198 00:10:54,460 --> 00:10:58,300 Dan zou je weten dat je geen toestemming had om de afbeelding door te sturen. 199 00:10:58,620 --> 00:11:02,666 Dit doen we bijna altijd om auteursrechten te beschermen. 200 00:11:02,710 --> 00:11:07,390 Als je een e-book koopt, kun je het boek niet met iedereen delen. 201 00:11:07,500 --> 00:11:10,936 Waarom kunnen we dit niet proberen met onze mobiele telefoons? 202 00:11:11,010 --> 00:11:14,226 We kunnen technologiebedrijven eisen 203 00:11:14,226 --> 00:11:16,866 deze beschermingen standaard toe te voegen 204 00:11:16,866 --> 00:11:19,192 op onze apparaten en platformen. 205 00:11:19,660 --> 00:11:22,860 Tenslotte kun je de kleur van je auto kiezen, 206 00:11:22,860 --> 00:11:25,956 maar de airbags zijn altijd hetzelfde. 207 00:11:28,090 --> 00:11:32,070 Als we niet méér gaan nadenken over digitale privacy en toestemming, 208 00:11:32,070 --> 00:11:34,716 kan dat ernstige gevolgen hebben. 209 00:11:35,530 --> 00:11:37,630 Er was ooit een tiener uit Ohio -- 210 00:11:37,630 --> 00:11:40,866 laten we haar Jennifer noemen, voor haar eigen privacy. 211 00:11:40,866 --> 00:11:44,686 Ze had naaktfoto's van zichzelf gedeeld met haar vriendje, 212 00:11:44,686 --> 00:11:46,762 omdat ze dacht dat ze hem kon vertrouwen. 213 00:11:47,750 --> 00:11:49,936 Helaas verraadde hij haar. 214 00:11:49,936 --> 00:11:52,656 Hij deelde al haar foto's met de hele school. 215 00:11:52,656 --> 00:11:56,422 Jennifer was beschaamd en vernederd. 216 00:11:56,742 --> 00:12:00,998 In plaats van mededogen te tonen, pestten haar klasgenoten haar. 217 00:12:00,998 --> 00:12:02,808 Ze noemden haar een slet en een hoer 218 00:12:02,808 --> 00:12:05,358 en ze maakten van haar leven een echte nachtmerrie. 219 00:12:05,358 --> 00:12:09,158 Jennifer begon te spijbelen en haar cijfers kelderden omlaag. 220 00:12:09,650 --> 00:12:13,486 Uiteindelijk heeft Jennifer een einde gemaakt aan haar leven. 221 00:12:15,000 --> 00:12:17,256 Jennifer had niets fout gedaan. 222 00:12:17,390 --> 00:12:20,066 Het enige wat ze gedaan had, was een naaktfoto delen 223 00:12:20,066 --> 00:12:22,552 met iemand die ze dacht te kunnen vertrouwen. 224 00:12:22,552 --> 00:12:25,912 En toch zeggen onze wetten 225 00:12:25,912 --> 00:12:29,968 dat ze een verschrikkelijk misdrijf heeft gepleegd, gelijk aan kinderporno. 226 00:12:30,040 --> 00:12:31,986 Onze geslachtsnormen zeggen dat zij, 227 00:12:31,986 --> 00:12:34,616 door het maken van de naaktfoto van haarzelf, 228 00:12:35,020 --> 00:12:38,366 de meest afschuwelijke, schandelijke daad gesteld heeft. 229 00:12:38,400 --> 00:12:42,560 En als we aannemen dat privacy onmogelijk is in de digitale media, 230 00:12:42,660 --> 00:12:48,396 vergeten we compleet de fout van het slechte gedrag van haar vriendje. 231 00:12:49,340 --> 00:12:54,526 Mensen zeggen nog steeds tegen slachtoffers van privacyschendingen: 232 00:12:54,920 --> 00:12:56,420 "Wat dacht je toen je dat deed? 233 00:12:56,420 --> 00:12:59,090 Je had die foto nooit mogen sturen!" 234 00:12:59,780 --> 00:13:04,030 Als je niet weet wat je anders moet zeggen, probeer dan dit eens. 235 00:13:04,030 --> 00:13:08,156 Stel je komt een vriend tegen die zijn been gebroken heeft bij het skiën. 236 00:13:08,310 --> 00:13:12,600 Ze hebben een risico genomen om iets leuks te doen, maar het ging fout. 237 00:13:12,600 --> 00:13:15,360 Maar je gaat waarschijnlijk niet de eikel zijn die zegt: 238 00:13:15,360 --> 00:13:18,106 "Nou, dan had je maar niet moeten gaan skiën." 239 00:13:19,850 --> 00:13:22,416 Als we meer nadenken over wederzijdse toestemming, 240 00:13:22,416 --> 00:13:25,662 komen we erachter dat slachtoffers van privacyschending 241 00:13:25,662 --> 00:13:27,322 ons medegevoel verdienen, 242 00:13:27,322 --> 00:13:31,818 niet criminalisering, beschaming, intimideren of straffen. 243 00:13:32,450 --> 00:13:34,580 We kunnen slachtoffers helpen 244 00:13:34,580 --> 00:13:36,940 en we kunnen sommige privacyschendingen voorkomen 245 00:13:36,940 --> 00:13:41,556 door juridische, persoonlijke en technologische aanpassingen. 246 00:13:41,930 --> 00:13:47,610 Want het probleem is niet sexting, het probleem is digitale privacy. 247 00:13:47,660 --> 00:13:50,226 En één oplossing is toestemming. 248 00:13:50,670 --> 00:13:51,820 Dus de volgende keer 249 00:13:51,820 --> 00:13:54,950 dat je een slachtoffer van privacyschending tegenkomt, 250 00:13:55,190 --> 00:13:56,950 in plaats van hen de schuld te geven, 251 00:13:56,950 --> 00:13:58,240 doe liever dit: 252 00:13:58,240 --> 00:14:00,880 laten we onze ideëen over digitale privacy veranderen 253 00:14:01,120 --> 00:14:04,326 en laten we antwoorden met mededogen. 254 00:14:04,655 --> 00:14:06,105 Bedankt. 255 00:14:06,105 --> 00:14:12,056 (Applaus)