WEBVTT 00:00:00.490 --> 00:00:05.000 Men gebruikt de media al een lange tijd om over seks te praten. 00:00:05.600 --> 00:00:09.520 Liefdesbrieven, telefoonseks, erotische foto's. 00:00:09.520 --> 00:00:12.570 Er is zelf een verhaal over een meisje dat weggelopen is 00:00:12.570 --> 00:00:15.570 met een man die ze ontmoet heeft via de telegraaf, 00:00:15.570 --> 00:00:17.000 in het jaar 1886. 00:00:18.610 --> 00:00:20.940 Vandaag gaat het over sexting 00:00:21.363 --> 00:00:23.533 en ik ben een sexting-expert. 00:00:23.533 --> 00:00:25.566 Niet een expert in sexting! 00:00:26.740 --> 00:00:30.990 Maar ik weet wel wat dit betekent -- en u vast ook. NOTE Paragraph 00:00:30.990 --> 00:00:32.616 [Het is een penis] NOTE Paragraph 00:00:32.616 --> 00:00:35.592 (Gelach) NOTE Paragraph 00:00:36.400 --> 00:00:38.586 Ik bestudeer sexting 00:00:38.586 --> 00:00:42.446 al sinds de media het in 2008 aandacht begonnen te geven. 00:00:42.730 --> 00:00:45.940 Ik heb een boek geschreven over de morele paniek over sexting. 00:00:45.940 --> 00:00:47.356 En dit is wat ik ontdekt heb: 00:00:47.470 --> 00:00:50.556 de meeste mensen maken zich zorgen over het verkeerde ding. 00:00:50.690 --> 00:00:54.506 Ze proberen te voorkomen dat sexting sowieso gebeurt. 00:00:54.880 --> 00:00:56.480 Laat me jullie een vraag stellen: 00:00:56.480 --> 00:01:01.226 als het met wederzijdse toestemming is, wat is dan het probleem met sexting? 00:01:01.256 --> 00:01:05.346 Mensen houden van allerlei dingen waar jijzelf misschien niet van houdt, 00:01:05.350 --> 00:01:07.796 zoals blauwschimmelkaas of koriander. NOTE Paragraph 00:01:07.796 --> 00:01:10.842 (Gelach) NOTE Paragraph 00:01:10.842 --> 00:01:14.588 Sexting is echt wel riskant, zoals alles wat leuk is, 00:01:14.588 --> 00:01:19.214 maar zolang je maar geen foto stuurt 00:01:19.214 --> 00:01:21.604 naar iemand die ze niet wil ontvangen, 00:01:21.604 --> 00:01:23.314 geeft het niet. 00:01:23.324 --> 00:01:25.929 Wat ik daarentegen wel een serieus probleem vind, 00:01:25.929 --> 00:01:29.346 is als mensen de privé-foto's van anderen delen 00:01:29.346 --> 00:01:31.320 zonder hun toestemming. 00:01:31.320 --> 00:01:33.690 In plaats van ons zorgen te maken over sexting, 00:01:33.690 --> 00:01:38.526 vind ik dat we meer moeten nadenken over digitale privacy. NOTE Paragraph 00:01:38.830 --> 00:01:41.190 De sleutel is toestemming. 00:01:41.830 --> 00:01:45.090 Op dit moment denkt men over sexting 00:01:45.090 --> 00:01:48.266 zonder te denken aan toestemming. 00:01:48.266 --> 00:01:52.522 Wist je dat we op dit moment tiener-sexting criminaliseren? 00:01:53.520 --> 00:01:57.046 Het kan een misdaad zijn, omdat het valt onder kinderpornografie 00:01:57.046 --> 00:01:59.776 als er een foto is van iemand onder de 18 jaar, 00:01:59.776 --> 00:02:01.222 en het maakt niet eens uit 00:02:01.222 --> 00:02:05.728 of ze die foto van zichzelf gemaakt hebben en haar vrijwillig hebben verspreid. 00:02:05.740 --> 00:02:08.820 Dus zitten we nu met deze bizarre wettelijke situatie, 00:02:08.820 --> 00:02:13.286 waarbij twee 17-jarigen legaal seks kunnen hebben in de meeste staten, 00:02:13.340 --> 00:02:15.746 maar er geen foto's van mogen maken. 00:02:16.870 --> 00:02:20.630 Sommige staten hebben ook geprobeerd om sexting een overtreding te maken, 00:02:20.820 --> 00:02:23.926 maar deze wetten herhalen het probleem, 00:02:23.930 --> 00:02:28.666 want ze maken nog steeds sexting illegaal, zelfs bij wederzijds goedvinden. 00:02:28.666 --> 00:02:29.952 Het is gewoon absurd 00:02:29.952 --> 00:02:34.302 om alle sexting te verbannen om schendingen van privacy aan te pakken. 00:02:34.612 --> 00:02:36.168 Dat is hetzelfde als zeggen: 00:02:36.168 --> 00:02:38.654 laten we het probleem van date-verkrachting oplossen 00:02:38.654 --> 00:02:42.044 door daten in zijn geheel illegaal te maken. 00:02:43.120 --> 00:02:48.420 De meeste jongeren worden niet opgepakt voor sexting, maar raad eens wie wel? 00:02:48.420 --> 00:02:53.476 Meestal jongeren die door hun schoonouders niet leuk gevonden worden. 00:02:53.476 --> 00:02:58.266 Dit kan zijn door bijvoorbeeld klassenverschil, racisme of homofobie. 00:02:58.876 --> 00:03:01.742 De meeste officieren van justitie zijn natuurlijk slim genoeg 00:03:01.742 --> 00:03:05.810 om jongeren niet aan te klagen voor kinderpornografie, 00:03:05.810 --> 00:03:07.670 maar sommigen doen het wel. NOTE Paragraph 00:03:07.670 --> 00:03:11.380 Volgens onderzoekers van de Universiteit van New Hampsire 00:03:11.430 --> 00:03:16.100 betreffen 7% van alle arrestaties wegens kinderporno 00:03:16.100 --> 00:03:20.260 jongeren die met wederzijdse goedkeuring sexten met andere jongeren. 00:03:21.620 --> 00:03:24.006 Kinderpornografie is een ernstige misdaad, 00:03:24.006 --> 00:03:27.902 maar het is niet hetzelfde als jongeren-sexting. 00:03:28.970 --> 00:03:32.630 Ouders en opvoeders reageren ook op sexting 00:03:32.630 --> 00:03:35.506 zonder na te denken over of beiden het goedvinden. 00:03:35.620 --> 00:03:40.176 Hun boodschap aan jongeren is meestal: gewoon niet doen. NOTE Paragraph 00:03:40.320 --> 00:03:43.816 En ik snap het wel -- er zijn wettelijke risico's aan verbonden 00:03:43.816 --> 00:03:47.216 en natuurlijk, die potentiële schending van privacy. 00:03:47.510 --> 00:03:48.926 En toen je zelf jong was, 00:03:48.926 --> 00:03:52.382 deed je alles precies zoals je verteld werd, toch? NOTE Paragraph 00:03:53.450 --> 00:03:57.126 Waarschijnlijk denk je nu dat jouw kind nooit sext. 00:03:57.126 --> 00:04:00.516 En het is waar, jouw kleine engel sext misschien niet, 00:04:00.516 --> 00:04:03.662 want slechts 33% 00:04:03.662 --> 00:04:06.162 van de 16- en 17-jarigen sexten. 00:04:07.160 --> 00:04:11.836 Maar, het spijt me, als ze ouder worden, zullen ze waarschijnlijk wel sexten. 00:04:11.840 --> 00:04:13.566 In elke studie die ik gezien heb, 00:04:13.566 --> 00:04:18.096 ligt het cijfer boven de 50% voor 18- tot 24-jarigen. 00:04:18.596 --> 00:04:21.816 En meestal gaat er niets fout. 00:04:21.830 --> 00:04:27.250 Mensen vragen me altijd dingen als: is sexting niet gevaarlijk? 00:04:27.250 --> 00:04:31.146 Als je je portemonnee op een parkbankje laat liggen, 00:04:31.146 --> 00:04:34.402 verwacht je toch ook dat hij gestolen gaat worden, toch? 00:04:34.402 --> 00:04:36.488 Dit is hoe ik er over denk: 00:04:36.500 --> 00:04:40.370 sexting is als je portemonnee laten liggen in je vriendjes huis. 00:04:40.370 --> 00:04:42.240 Als je de volgende dag terugkomt 00:04:42.240 --> 00:04:44.410 en al het geld is gewoon weg, 00:04:44.410 --> 00:04:47.520 moet je het echt uitmaken met die kerel. 00:04:47.520 --> 00:04:51.666 (Gelach) 00:04:51.700 --> 00:04:53.846 Dus in plaats van sexting te criminaliseren 00:04:53.846 --> 00:04:56.396 om privacy-schending te voorkomen, 00:04:56.396 --> 00:04:59.812 moet wederzijdse toestemming het uitgangspunt worden 00:04:59.812 --> 00:05:03.708 bij het nadenken over de circulatie van onze privé-informatie. NOTE Paragraph 00:05:04.340 --> 00:05:08.836 Elke nieuwe mediatechnologie brengt privacy-problemen met zich mee. 00:05:08.836 --> 00:05:13.252 In feite waren de allereerste grote debatten in de VS over privacy 00:05:13.252 --> 00:05:17.648 een reactie op technologieën die op dat moment relatief nieuw waren. 00:05:17.870 --> 00:05:21.686 Aan het einde van de 19de eeuw maakten mensen zich zorgen over camera's, 00:05:21.810 --> 00:05:25.010 die opeens draagbaarder waren dan ooit tevoren, 00:05:25.270 --> 00:05:27.716 en roddelartikelen in kranten. 00:05:27.860 --> 00:05:31.486 Ze waren bezorgd dat de camera informatie over hen zou vastleggen, 00:05:31.486 --> 00:05:33.446 die informatie uit de context zou halen 00:05:33.446 --> 00:05:35.176 en hem zou verspreiden. 00:05:35.176 --> 00:05:36.526 Klinkt dit herkenbaar? 00:05:36.830 --> 00:05:39.652 Het is precies hetzelfde als waar wij ons zorgen over maken, 00:05:39.652 --> 00:05:41.714 met sociale media en drone-camera's 00:05:41.714 --> 00:05:43.446 en natuurlijk sexting. 00:05:43.880 --> 00:05:47.220 En deze angsten over technologie zijn wel begrijpelijk, 00:05:47.236 --> 00:05:50.916 omdat technologieën onze slechtste eigenschappen en gedrag 00:05:50.916 --> 00:05:53.546 naar boven kunnen halen en versterken. 00:05:54.160 --> 00:05:56.616 Maar er bestaan oplossingen. 00:05:56.616 --> 00:06:00.122 En we hebben dit eerder meegemaakt met een gevaarlijke nieuwe technologie. NOTE Paragraph 00:06:00.702 --> 00:06:04.482 In 1908 introduceerde Ford de Model T-auto. 00:06:04.490 --> 00:06:07.146 Sterftecijfers in het verkeer stegen. 00:06:07.146 --> 00:06:10.306 Het was een ernstig probleem -- het ziet er zo veilig uit, toch? 00:06:12.110 --> 00:06:16.196 We probeerden toen eerst het gedrag van de bestuurders te veranderen, 00:06:16.196 --> 00:06:20.162 dus ontwikkelden we snelheidslimieten en we dwongen ze af door boetes. 00:06:20.162 --> 00:06:23.644 Maar in de loop van de volgende decennia begonnen we ons te realiseren 00:06:23.644 --> 00:06:27.510 dat de technologie van de auto niet neutraal was. 00:06:27.510 --> 00:06:30.416 We konden de auto ontwerpen om hem veiliger te maken. 00:06:30.900 --> 00:06:34.590 In de jaren 20 kregen we voorruiten die niet konden breken. 00:06:34.590 --> 00:06:36.966 In de jaren 50 kregen we gordels. 00:06:36.966 --> 00:06:40.032 En in de jaren 90 airbags. 00:06:40.480 --> 00:06:42.456 Al deze drie gebieden, 00:06:42.866 --> 00:06:47.736 wetten, individuen en industrie, kwamen in de loop van de tijd samen 00:06:47.736 --> 00:06:51.316 om het probleem op te lossen dat de nieuwe technologie meebrengt. 00:06:51.316 --> 00:06:54.672 En we kunnen dit ook doen met digitale privacy. 00:06:55.130 --> 00:06:58.286 Het komt uiteraard neer op wederzijdse toestemming. 00:06:58.330 --> 00:06:59.396 Dit is het idee. 00:06:59.526 --> 00:07:03.302 Voordat iemand je privégegevens kan verspreiden, 00:07:03.302 --> 00:07:05.848 zouden ze je toestemming moeten krijgen. 00:07:06.200 --> 00:07:10.956 Dit idee van actief toestemming geven komt van anti-verkrachtingsactivisten 00:07:10.970 --> 00:07:14.986 die ons vertellen dat we toestemming nodig hebben voor elke seksuele handeling. 00:07:14.986 --> 00:07:19.026 En we hebben echt hoge normen inzake toestemming op vele andere vlakken. NOTE Paragraph 00:07:19.466 --> 00:07:21.262 Bijvoorbeeld bij een operatie. 00:07:21.262 --> 00:07:25.468 De dokter moet zich ervan vergewissen dat je met gezond verstand toestemt 00:07:25.468 --> 00:07:27.558 in het ondergaan van die medische procedure. 00:07:27.558 --> 00:07:31.634 Dit is niet hetzelfde als toestemmen met de iTunes-servicevoorwaarde, 00:07:31.634 --> 00:07:34.710 waar je naar beneden scrolt en zonder te lezen op akkoord klikt. NOTE Paragraph 00:07:34.740 --> 00:07:37.456 (Gelach) NOTE Paragraph 00:07:37.456 --> 00:07:42.242 Als we meer over toestemming nadenken, kunnen we betere privacy-wetten krijgen. 00:07:42.270 --> 00:07:45.486 Op dit moment hebben we gewoon niet veel bescherming. 00:07:45.800 --> 00:07:49.146 Als je ex-man of ex-vrouw een verschrikkelijke persoon is, 00:07:49.146 --> 00:07:53.362 kunnen ze je naaktfoto's uploaden naar een porno-website. 00:07:53.670 --> 00:07:56.810 Het kan erg lastig zijn om die foto's van het web te krijgen. 00:07:56.810 --> 00:07:58.216 En in veel staten 00:07:58.216 --> 00:08:01.882 kun je beter zeggen dat je de foto's zelf genomen hebt, 00:08:01.882 --> 00:08:06.082 omdat je dan aanspraak kan maken op de auteursrechten. NOTE Paragraph 00:08:06.082 --> 00:08:07.428 (Gelach) NOTE Paragraph 00:08:07.428 --> 00:08:10.484 Op dit moment, als iemand je privacy schendt, 00:08:10.484 --> 00:08:15.260 of dat nou een individu is, of een bedrijf, of de NSA, 00:08:15.260 --> 00:08:17.850 kun je proberen een rechtszaak aan te spannen, 00:08:17.850 --> 00:08:20.326 maar die zal misschien niet succesvol zijn, 00:08:20.326 --> 00:08:25.262 omdat veel rechtbanken aannemen dat digitale privacy gewoon onmogelijk is. 00:08:25.262 --> 00:08:28.642 Dus willen ze eigenlijk niemand straffen die het schendt. 00:08:29.360 --> 00:08:32.026 Nog steeds vragen mensen mij: 00:08:32.026 --> 00:08:37.452 "Vervaagt een digitale foto niet de lijn tussen openbaar en privé, 00:08:37.452 --> 00:08:39.588 omdat het digitaal is, toch?" 00:08:39.588 --> 00:08:40.984 Nee! Nee! 00:08:40.984 --> 00:08:44.440 Alles wat digitaal is, is niet automatisch openbaar. 00:08:44.440 --> 00:08:46.106 Dat slaat helemaal nergens op. NOTE Paragraph 00:08:46.200 --> 00:08:49.616 NYU-jurist Helen Nissenbaum vertelt ons 00:08:49.636 --> 00:08:52.432 dat we wetten, beleidsmaatregelen en normen hebben 00:08:52.432 --> 00:08:55.556 die allerlei persoonlijke informatie beschermen 00:08:55.560 --> 00:08:58.946 en het maakt geen verschil of het digitaal is of niet. 00:08:58.946 --> 00:09:01.756 Al je medische gegevens zijn gedigitaliseerd, 00:09:01.756 --> 00:09:04.582 maar je dokter kan ze niet zomaar met iedereen delen. 00:09:04.582 --> 00:09:08.958 Al je financiële informatie wordt opgeslagen in digitale databases, 00:09:09.180 --> 00:09:11.330 maar je creditcardmaatschappij kan niet zomaar 00:09:11.330 --> 00:09:13.910 je aankoopgeschiedenis online zetten. 00:09:15.130 --> 00:09:20.276 Betere wetgeving kan privacyschending achteraf helpen aan te pakken, 00:09:20.276 --> 00:09:23.332 maar een van de makkelijkste dingen die we allemaal kunnen doen, 00:09:23.332 --> 00:09:25.212 is zelf persoonlijk veranderingen maken 00:09:25.212 --> 00:09:27.972 om elkaars privacy te beschermen. 00:09:28.350 --> 00:09:33.160 Men zegt ons steeds dat privacy onze eigen verantwoordelijkheid is. 00:09:33.410 --> 00:09:34.936 Men zegt ons dat we voortdurend 00:09:34.936 --> 00:09:37.616 onze privacy-instellingen moeten controleren en herzien. 00:09:37.616 --> 00:09:42.450 Ze zeggen dat we nooit iets moeten delen wat de hele wereld nooit mag zien. 00:09:43.390 --> 00:09:44.630 Dit slaat nergens op. 00:09:44.640 --> 00:09:47.616 Digitale media zijn sociale omgevingen 00:09:47.760 --> 00:09:51.776 en wij delen dingen met mensen die we vertrouwen, elke dag weer. NOTE Paragraph 00:09:52.760 --> 00:09:55.336 Zoals Princeton-onderzoeker Janet Vertesi betoogt: 00:09:55.760 --> 00:09:59.806 "Onze data en onze privacy zijn niet alleen persoonlijk, 00:09:59.810 --> 00:10:02.196 ze zijn eigenlijk interpersoonlijk." 00:10:02.520 --> 00:10:05.736 Iets wat je dus erg makkelijk kunt doen, 00:10:05.780 --> 00:10:07.796 is beginnen met toestemming te vragen 00:10:07.796 --> 00:10:10.586 voordat je iemand anders zijn informatie deelt. 00:10:10.586 --> 00:10:13.822 Als je een foto van iemand online wil posten, 00:10:13.822 --> 00:10:15.292 vraag om toestemming. 00:10:15.292 --> 00:10:17.838 Als je een email door wilt sturen, 00:10:17.838 --> 00:10:19.168 vraag om toestemming. 00:10:19.340 --> 00:10:22.016 En als je iemands naaktfoto wil verspreiden, 00:10:22.016 --> 00:10:24.346 vraag dan, natuurlijk, om toestemming. NOTE Paragraph 00:10:25.540 --> 00:10:28.240 Deze individuele veranderingen kunnen ons echt helpen 00:10:28.240 --> 00:10:30.030 om elkaars privacy te beschermen, 00:10:30.030 --> 00:10:33.826 maar daar hebben wij ook technologiebedrijven voor nodig. 00:10:34.480 --> 00:10:38.806 Deze bedrijven hebben weinig reden om onze privacy te helpen beschermen, 00:10:38.806 --> 00:10:41.230 omdat hun bedrijfsmodel ervan afhankelijk is 00:10:41.230 --> 00:10:44.476 dat wij alles delen met zoveel mogelijk mensen. 00:10:45.120 --> 00:10:47.306 Op dit moment, als ik je een afbeelding stuur, 00:10:47.306 --> 00:10:49.832 kan je die naar iedereen doorsturen die je maar wil. 00:10:50.290 --> 00:10:54.216 Maar als ík nu eens kon bepalen of je die afbeelding door kon sturen? 00:10:54.460 --> 00:10:58.300 Dan zou je weten dat je geen toestemming had om de afbeelding door te sturen. 00:10:58.620 --> 00:11:02.666 Dit doen we bijna altijd om auteursrechten te beschermen. 00:11:02.710 --> 00:11:07.390 Als je een e-book koopt, kun je het boek niet met iedereen delen. 00:11:07.500 --> 00:11:10.936 Waarom kunnen we dit niet proberen met onze mobiele telefoons? 00:11:11.010 --> 00:11:14.226 We kunnen technologiebedrijven eisen 00:11:14.226 --> 00:11:16.866 deze beschermingen standaard toe te voegen 00:11:16.866 --> 00:11:19.192 op onze apparaten en platformen. 00:11:19.660 --> 00:11:22.860 Tenslotte kun je de kleur van je auto kiezen, 00:11:22.860 --> 00:11:25.956 maar de airbags zijn altijd hetzelfde. NOTE Paragraph 00:11:28.090 --> 00:11:32.070 Als we niet méér gaan nadenken over digitale privacy en toestemming, 00:11:32.070 --> 00:11:34.716 kan dat ernstige gevolgen hebben. 00:11:35.530 --> 00:11:37.630 Er was ooit een tiener uit Ohio -- 00:11:37.630 --> 00:11:40.866 laten we haar Jennifer noemen, voor haar eigen privacy. 00:11:40.866 --> 00:11:44.686 Ze had naaktfoto's van zichzelf gedeeld met haar vriendje, 00:11:44.686 --> 00:11:46.762 omdat ze dacht dat ze hem kon vertrouwen. 00:11:47.750 --> 00:11:49.936 Helaas verraadde hij haar. 00:11:49.936 --> 00:11:52.656 Hij deelde al haar foto's met de hele school. 00:11:52.656 --> 00:11:56.422 Jennifer was beschaamd en vernederd. 00:11:56.742 --> 00:12:00.998 In plaats van mededogen te tonen, pestten haar klasgenoten haar. 00:12:00.998 --> 00:12:02.808 Ze noemden haar een slet en een hoer 00:12:02.808 --> 00:12:05.358 en ze maakten van haar leven een echte nachtmerrie. 00:12:05.358 --> 00:12:09.158 Jennifer begon te spijbelen en haar cijfers kelderden omlaag. 00:12:09.650 --> 00:12:13.486 Uiteindelijk heeft Jennifer een einde gemaakt aan haar leven. NOTE Paragraph 00:12:15.000 --> 00:12:17.256 Jennifer had niets fout gedaan. 00:12:17.390 --> 00:12:20.066 Het enige wat ze gedaan had, was een naaktfoto delen 00:12:20.066 --> 00:12:22.552 met iemand die ze dacht te kunnen vertrouwen. 00:12:22.552 --> 00:12:25.912 En toch zeggen onze wetten 00:12:25.912 --> 00:12:29.968 dat ze een verschrikkelijk misdrijf heeft gepleegd, gelijk aan kinderporno. 00:12:30.040 --> 00:12:31.986 Onze geslachtsnormen zeggen dat zij, 00:12:31.986 --> 00:12:34.616 door het maken van de naaktfoto van haarzelf, 00:12:35.020 --> 00:12:38.366 de meest afschuwelijke, schandelijke daad gesteld heeft. 00:12:38.400 --> 00:12:42.560 En als we aannemen dat privacy onmogelijk is in de digitale media, 00:12:42.660 --> 00:12:48.396 vergeten we compleet de fout van het slechte gedrag van haar vriendje. 00:12:49.340 --> 00:12:54.526 Mensen zeggen nog steeds tegen slachtoffers van privacyschendingen: 00:12:54.920 --> 00:12:56.420 "Wat dacht je toen je dat deed? 00:12:56.420 --> 00:12:59.090 Je had die foto nooit mogen sturen!" NOTE Paragraph 00:12:59.780 --> 00:13:04.030 Als je niet weet wat je anders moet zeggen, probeer dan dit eens. 00:13:04.030 --> 00:13:08.156 Stel je komt een vriend tegen die zijn been gebroken heeft bij het skiën. 00:13:08.310 --> 00:13:12.600 Ze hebben een risico genomen om iets leuks te doen, maar het ging fout. 00:13:12.600 --> 00:13:15.360 Maar je gaat waarschijnlijk niet de eikel zijn die zegt: 00:13:15.360 --> 00:13:18.106 "Nou, dan had je maar niet moeten gaan skiën." 00:13:19.850 --> 00:13:22.416 Als we meer nadenken over wederzijdse toestemming, 00:13:22.416 --> 00:13:25.662 komen we erachter dat slachtoffers van privacyschending 00:13:25.662 --> 00:13:27.322 ons medegevoel verdienen, 00:13:27.322 --> 00:13:31.818 niet criminalisering, beschaming, intimideren of straffen. 00:13:32.450 --> 00:13:34.580 We kunnen slachtoffers helpen 00:13:34.580 --> 00:13:36.940 en we kunnen sommige privacyschendingen voorkomen 00:13:36.940 --> 00:13:41.556 door juridische, persoonlijke en technologische aanpassingen. 00:13:41.930 --> 00:13:47.610 Want het probleem is niet sexting, het probleem is digitale privacy. 00:13:47.660 --> 00:13:50.226 En één oplossing is toestemming. NOTE Paragraph 00:13:50.670 --> 00:13:51.820 Dus de volgende keer 00:13:51.820 --> 00:13:54.950 dat je een slachtoffer van privacyschending tegenkomt, 00:13:55.190 --> 00:13:56.950 in plaats van hen de schuld te geven, 00:13:56.950 --> 00:13:58.240 doe liever dit: 00:13:58.240 --> 00:14:00.880 laten we onze ideëen over digitale privacy veranderen 00:14:01.120 --> 00:14:04.326 en laten we antwoorden met mededogen. NOTE Paragraph 00:14:04.655 --> 00:14:06.105 Bedankt. NOTE Paragraph 00:14:06.105 --> 00:14:12.056 (Applaus)