1 00:00:00,720 --> 00:00:05,000 Oamenii folosesc mijloacele de comunicare pentru a vorbi despre sex de mult timp. 2 00:00:05,600 --> 00:00:09,040 Scrisori de dragoste, sex la telefon, poze indecente. 3 00:00:09,480 --> 00:00:13,260 Există chiar o poveste a unei fete ce a fugit cu un bărbat 4 00:00:13,260 --> 00:00:17,200 pe care l-a cunoscut prin intermediul telegrafului în 1886. 5 00:00:18,560 --> 00:00:23,656 Astăzi avem sexting, iar eu sunt o expertă în sexting. 6 00:00:23,680 --> 00:00:25,560 Nu un sexter expert. 7 00:00:25,570 --> 00:00:26,800 (Râsete) 8 00:00:26,800 --> 00:00:30,976 Știu ce înseamnă asta, cred că și voi. 9 00:00:31,000 --> 00:00:32,375 [E un penis] 10 00:00:32,400 --> 00:00:34,760 (Râsete) 11 00:00:36,360 --> 00:00:42,696 Studiez sextingul de când mass-media a atras atenția asupra lui în 2008. 12 00:00:42,720 --> 00:00:45,696 Am scris o carte despre panica morală privind sextingul. 13 00:00:45,720 --> 00:00:47,336 Și iată ce am aflat: 14 00:00:47,360 --> 00:00:50,576 majoritatea oamenilor se îngrijorează de lucrul greșit. 15 00:00:50,600 --> 00:00:54,776 Încearcă să împiedice complet existența sextingul. 16 00:00:54,800 --> 00:00:56,336 Dar permiteți-mi să vă întreb: 17 00:00:56,360 --> 00:01:01,216 atâta timp cât e complet consensual, care e problema cu sextingul? 18 00:01:01,240 --> 00:01:05,256 Oamenilor le plac tot felul de lucruri care vouă s-ar putea să nu vă placă, 19 00:01:05,280 --> 00:01:07,576 cum ar fi brânza albastră sau coriandrul. 20 00:01:07,600 --> 00:01:09,670 (Râsete) 21 00:01:10,600 --> 00:01:14,736 Sextingul e cu siguranță riscant, ca orice lucru care e distractiv, 22 00:01:14,760 --> 00:01:21,456 dar atâta timp cât nu trimiteți o imagine cuiva care nu vrea să o primească, 23 00:01:21,480 --> 00:01:23,256 nu e nimic rău. 24 00:01:23,280 --> 00:01:25,896 Ce cred eu că e o problemă serioasă, 25 00:01:25,920 --> 00:01:29,176 e atunci când oamenii distribuie imaginile private ale altora 26 00:01:29,200 --> 00:01:30,720 fără permisiunea lor. 27 00:01:31,360 --> 00:01:33,696 Și în loc să vă faceți griji pentru sexting, 28 00:01:33,720 --> 00:01:38,280 cred că ar trebui să ne gândim mai mult la confidențialitatea digitală. 29 00:01:38,880 --> 00:01:41,080 Cheia e consimțământul. 30 00:01:41,680 --> 00:01:44,976 În prezent, majoritatea oamenilor se gândesc la sexting 31 00:01:45,000 --> 00:01:47,960 fără a se gândi deloc la consimțământ. 32 00:01:48,400 --> 00:01:52,330 Știați că în prezent incriminăm sextingul în cazul adolescenților? 33 00:01:53,400 --> 00:01:56,856 Poate fi o infracțiune, deoarece e considerată pornografie infantilă 34 00:01:56,880 --> 00:01:59,736 dacă e o imagine cu cineva sub 18 ani, 35 00:01:59,760 --> 00:02:01,096 și nici nu contează 36 00:02:01,120 --> 00:02:05,320 dacă și-au făcut acea poză singuri și au distribuit-o de bunăvoie. 37 00:02:05,800 --> 00:02:08,776 Așadar, ajungem în această situație juridică bizară, 38 00:02:08,800 --> 00:02:13,336 în care doi tineri de 17 ani pot face sex legal în majoritatea statelor din SUA, 39 00:02:13,360 --> 00:02:15,240 dar nu se pot fotografia. 40 00:02:16,560 --> 00:02:20,816 Unele state au încercat, de asemenea, să declare sextingul drept infracțiune, 41 00:02:20,840 --> 00:02:23,856 dar aceste legi repetă aceeași problemă, 42 00:02:23,880 --> 00:02:27,640 deoarece continuă să declare ilegal sextingul consensual. 43 00:02:28,520 --> 00:02:31,806 Nu are sens să încerci să interzici complet sextingul, 44 00:02:31,806 --> 00:02:34,536 încercând să rezolvi încălcarea confidențialității. 45 00:02:34,560 --> 00:02:36,056 E ca și cum am spune: 46 00:02:36,080 --> 00:02:41,520 hai să rezolvăm problema violurilor declarând întâlnirile ilegale. 47 00:02:43,120 --> 00:02:48,496 Majoritatea tinerilor nu sunt arestați pentru sexting, dar ghici cine e arestat? 48 00:02:48,520 --> 00:02:53,496 Adesea sunt adolescenții care nu sunt plăcuți de părinții partenerului. 49 00:02:53,520 --> 00:02:58,250 Și asta poate din cauza prejudecăților de clasă, a rasismului sau a homofobiei. 50 00:02:59,040 --> 00:03:01,966 Majoritatea procurorilor sunt, desigur, suficient de deștepți 51 00:03:01,966 --> 00:03:07,420 să nu acuze tinerii de pornografie infantilă, dar unii o fac. 52 00:03:07,720 --> 00:03:11,376 Potrivit cercetătorilor de la Universitatea din New Hampshire, 53 00:03:11,400 --> 00:03:17,056 7% din totalul arestărilor de posesie de pornografie infantilă sunt adolescenți, 54 00:03:17,080 --> 00:03:20,080 care fac sexting consensual cu alți adolescenți. 55 00:03:21,480 --> 00:03:24,016 Pornografia infantilă e o infracțiune gravă, 56 00:03:24,040 --> 00:03:27,720 dar nu e același lucru cu sextingul adolescenților. 57 00:03:29,040 --> 00:03:32,456 Părinții și profesorii răspund, de asemenea, la sexting 58 00:03:32,480 --> 00:03:35,616 fără să se gândească prea mult la consimțământ. 59 00:03:35,640 --> 00:03:40,180 Mesajul lor pentru adolescenți e adesea: pur și simplu nu o faceți. 60 00:03:40,200 --> 00:03:43,696 Și sunt total de acord, există riscuri legale grave 61 00:03:43,720 --> 00:03:47,376 și, desigur, potențialul încălcării vieții private. 62 00:03:47,400 --> 00:03:49,066 Iar când voi erați adolescenți, 63 00:03:49,066 --> 00:03:52,080 sunt sigură că făceați exact ce vi se spunea, nu? 64 00:03:53,440 --> 00:03:56,896 Probabil vă gândiți: copilul meu nu ar face niciodată sexting. 65 00:03:56,920 --> 00:04:00,376 Și e adevărat, poate că micul tău înger nu face sexting, 66 00:04:00,400 --> 00:04:03,536 pentru că doar 33% 67 00:04:03,560 --> 00:04:05,920 dintre cei între 16 și 17 ani fac sexting. 68 00:04:07,200 --> 00:04:11,816 Scuze, dar când vor fi mai mari, probabil că vor face sexting. 69 00:04:11,840 --> 00:04:18,040 Fiecare studiu indică o rată de peste 50% a celor între 18-24 de ani. 70 00:04:18,720 --> 00:04:21,776 Și de cele mai multe ori, nimic nu merge prost. 71 00:04:21,800 --> 00:04:27,176 Oamenii mă întreabă mereu: nu e totuși sextingul periculos? 72 00:04:27,200 --> 00:04:30,776 E ca și cum ți-ai lăsa portofelul pe o bancă din parc 73 00:04:30,800 --> 00:04:34,240 și nu te-ai aștepta să fie furat dacă faceți asta, nu-i așa? 74 00:04:34,880 --> 00:04:36,366 Iată cum înțeleg eu asta: 75 00:04:36,366 --> 00:04:40,296 sextingul e ca și cum v-ați lăsa portofelul în casa prietenului. 76 00:04:40,320 --> 00:04:42,096 Dacă vă întoarceți a doua zi 77 00:04:42,120 --> 00:04:44,400 și toți banii au dispărut, 78 00:04:45,040 --> 00:04:47,350 trebuie să îi dați papucii acelui tip. 79 00:04:47,690 --> 00:04:49,860 (Râsete) 80 00:04:51,360 --> 00:04:53,700 Deci, în loc să criminalizați sextingul, 81 00:04:53,700 --> 00:04:56,616 încercând să preveniți aceste încălcări de confidențialitate, 82 00:04:56,616 --> 00:04:59,656 în schimb, trebuie să ne concentrăm pe consimțământ, 83 00:04:59,680 --> 00:05:03,760 pe modul în care înțelegem distribuirea informațiilor noastre private. 84 00:05:04,480 --> 00:05:08,736 Fiecare nouă tehnologie ridică probleme de confidențialitate. 85 00:05:08,760 --> 00:05:13,376 De fapt, în SUA primele dezbateri majore despre confidențialitate 86 00:05:13,400 --> 00:05:17,896 au fost ca răspuns la tehnologiile relativ noi atunci. 87 00:05:17,920 --> 00:05:21,816 La sfârșitul anilor 1800, oamenii erau îngrijorați de aparatul foto, 88 00:05:21,840 --> 00:05:25,296 care era brusc mai portabil ca niciodată, 89 00:05:25,320 --> 00:05:27,816 și de articolele de bârfe din ziare. 90 00:05:27,840 --> 00:05:31,656 Erau îngrijorați că aparatul foto captează informații despre ei, 91 00:05:31,680 --> 00:05:34,880 le scoate din context și le răspândește. 92 00:05:35,240 --> 00:05:36,856 Sună familiar? 93 00:05:36,880 --> 00:05:41,736 E exact ce ne preocupă acum cu rețelele de socializare și camerele de pe drone, 94 00:05:41,760 --> 00:05:43,400 și, desigur, sextingul. 95 00:05:43,920 --> 00:05:46,136 Iar aceste temeri legate de tehnologie 96 00:05:46,160 --> 00:05:47,376 au sens, 97 00:05:47,400 --> 00:05:50,816 deoarece tehnologiile pot amplifica și scoate la suprafață 98 00:05:50,840 --> 00:05:53,890 cele mai rele calități și comportamente. 99 00:05:54,160 --> 00:05:56,536 Dar există soluții. 100 00:05:56,560 --> 00:06:00,370 Și am mai trecut prin asta cu o tehnologie nouă și periculoasă. 101 00:06:00,720 --> 00:06:04,496 În 1908, Ford a introdus mașina Model T. 102 00:06:04,520 --> 00:06:07,096 Rata mortalității în trafic a crescut. 103 00:06:07,120 --> 00:06:10,270 A fost o problemă serioasă; pare foarte sigură, nu? 104 00:06:12,080 --> 00:06:16,056 Prima noastră soluție a fost să încercăm să schimbăm comportamentul șoferilor, 105 00:06:16,080 --> 00:06:19,800 astfel că am impus limite de viteză și amenzi. 106 00:06:20,240 --> 00:06:22,096 Dar în următoarele decenii, 107 00:06:22,120 --> 00:06:27,616 am început să conștientizăm că tehnologia mașinii în sine nu e neutră. 108 00:06:27,640 --> 00:06:30,856 Am putea proiecta mașina pentru a o face mai sigură. 109 00:06:30,880 --> 00:06:34,336 Astfel, în anii 1920, am făcut parbrize rezistente la spargere. 110 00:06:34,360 --> 00:06:36,856 În anii 1950, centurile de siguranță. 111 00:06:36,880 --> 00:06:39,960 Iar în anii ’90, airbagurile. 112 00:06:40,440 --> 00:06:42,816 Toate aceste trei domenii: 113 00:06:42,840 --> 00:06:47,616 legile, indivizii și industria s-au reunit de-a lungul timpului 114 00:06:47,640 --> 00:06:51,416 pentru a ajuta la rezolvarea problemei pe care o provoacă o nouă tehnologie. 115 00:06:51,440 --> 00:06:54,680 Și putem face același lucru cu confidențialitatea digitală. 116 00:06:55,160 --> 00:06:57,920 Desigur, revenim la consimțământ. 117 00:06:58,360 --> 00:06:59,576 Iată ideea. 118 00:06:59,600 --> 00:07:03,416 Înainte ca cineva să vă poată distribui informațiile private, 119 00:07:03,440 --> 00:07:05,680 ar trebui să obțină permisiunea voastră. 120 00:07:06,240 --> 00:07:11,056 Această idee a consimțământului afirmativ vine de la activiștii anti-viol 121 00:07:11,080 --> 00:07:14,856 care ne spun că avem nevoie de consimțământ pentru fiecare act sexual. 122 00:07:14,880 --> 00:07:19,456 Și avem standarde cu adevărat ridicate pentru consimțământ în multe alte domenii. 123 00:07:19,480 --> 00:07:21,336 Gândiți-vă că urmează să fiți operat. 124 00:07:21,360 --> 00:07:23,096 Medicul vostru trebuie să se asigure 125 00:07:23,096 --> 00:07:27,040 că voi consimțiți în mod conștient acea procedură medicală. 126 00:07:27,520 --> 00:07:31,446 Acesta nu e tipul de consimțământ ca în cazul Termenilor de Servicii iTunes 127 00:07:31,446 --> 00:07:35,246 când derulați până în partea de jos și sunteți de acord cu orice. 128 00:07:35,246 --> 00:07:36,640 (Râsete) 129 00:07:37,160 --> 00:07:42,416 Dacă ne gândim mai mult la consimțământ, vom avea legi mai bune pentru intimitate. 130 00:07:42,440 --> 00:07:45,856 În acest moment, nu avem atât de multe protecții. 131 00:07:45,880 --> 00:07:49,456 Dacă fostul soț sau fosta soție sunt o niște persoane groaznice, 132 00:07:49,480 --> 00:07:53,696 pot lua fotografiile voastre nud și le poate încărca pe un site porno. 133 00:07:53,720 --> 00:07:56,936 Poate fi foarte greu să eliminați acele imagini. 134 00:07:56,960 --> 00:07:58,176 Și în multe state, 135 00:07:58,200 --> 00:08:02,016 aveți un avantaj dacă v-ați făcut singur pozele, 136 00:08:02,040 --> 00:08:05,320 deoarece astfel puteți depune o cerere pentru drepturi de autor. 137 00:08:05,320 --> 00:08:07,376 (Râsete) 138 00:08:07,400 --> 00:08:10,376 În acest moment, dacă cineva vă încalcă confidențialitatea, 139 00:08:10,400 --> 00:08:14,600 indiferent dacă e o persoană sau o companie sau NSA, 140 00:08:15,280 --> 00:08:18,016 puteți încerca să intentați un proces, 141 00:08:18,040 --> 00:08:20,176 deși e posibil să nu aveți succes, 142 00:08:20,200 --> 00:08:24,976 pentru că multe instanțe consideră că intimitatea digitală e imposibilă. 143 00:08:25,000 --> 00:08:28,440 Deci nu sunt dispuse să pedepsească pe nimeni pentru încălcarea ei. 144 00:08:29,200 --> 00:08:32,096 Încă sunt întrebată mereu: 145 00:08:32,120 --> 00:08:37,416 nu estompează cumva o imagine digitală demarcația dintre public și privat 146 00:08:37,440 --> 00:08:39,080 pentru că e digitală? 147 00:08:39,600 --> 00:08:40,936 Nu! Nu! 148 00:08:40,960 --> 00:08:44,296 Tot ce e digital nu e în mod automat public. 149 00:08:44,320 --> 00:08:46,216 Nu are sens. 150 00:08:46,240 --> 00:08:49,736 După cum ne spune eruditul juridic al NYU, Helen Nissenbaum, 151 00:08:49,760 --> 00:08:52,376 avem legi, politici și norme 152 00:08:52,400 --> 00:08:55,536 care protejează tot felul de informații private, 153 00:08:55,560 --> 00:08:58,976 și nu contează dacă sunt digitale sau nu. 154 00:08:59,000 --> 00:09:01,656 Toate înregistrările de sănătate sunt digitalizate, 155 00:09:01,680 --> 00:09:04,816 dar medicul vostru nu le poate împărtăși cu nimeni. 156 00:09:04,840 --> 00:09:09,296 Toate informațiile voastre financiare sunt păstrate în baze de date digitale, 157 00:09:09,320 --> 00:09:13,560 dar banca voastră nu poate posta online istoricul achizițiilor tale. 158 00:09:15,080 --> 00:09:17,569 Niște legi mai bune pot rezolva 159 00:09:17,569 --> 00:09:20,560 încălcările de confidențialitate după ce au loc, 160 00:09:20,560 --> 00:09:24,936 dar cel mai ușor lucru ce îl putem face e să facem câteva schimbări personale 161 00:09:24,960 --> 00:09:28,020 pentru a ajuta la protejarea vieților noastre private. 162 00:09:28,360 --> 00:09:30,476 Ni se spune mereu că confidențialitate 163 00:09:30,476 --> 00:09:33,336 e responsabilitatea noastră proprie, unică, individuală. 164 00:09:33,360 --> 00:09:37,616 Ni se spune să monitorizăm, să actualizăm constant setările de confidențialitate. 165 00:09:37,640 --> 00:09:42,478 Ni se spune să nu partajăm niciodată nimic din ce nu am dori să vadă întreaga lume. 166 00:09:43,209 --> 00:09:44,640 Asta nu are niciun sens. 167 00:09:44,640 --> 00:09:47,616 Mediul digital e un mediu social 168 00:09:47,640 --> 00:09:51,920 și împărtășim lucruri cu oamenii în care avem încredere în fiecare zi. 169 00:09:52,760 --> 00:09:55,736 După cum susține cercetătorul de la Princeton, Janet Vertesi, 170 00:09:55,760 --> 00:09:59,776 datele noastre și confidențialitatea noastră nu sunt doar personale, 171 00:09:59,800 --> 00:10:02,376 de fapt sunt interpersonale. 172 00:10:02,400 --> 00:10:05,656 Un lucru pe care îl puteți face și care e foarte ușor 173 00:10:05,680 --> 00:10:10,776 e să cereți permisiunea înainte de a distribui informațiile altcuiva. 174 00:10:10,800 --> 00:10:15,336 Dacă doriți să postați online o fotografie cu cineva, cereți-i permisiunea. 175 00:10:15,360 --> 00:10:17,816 Dacă doriți să copiați un e-mail, 176 00:10:17,840 --> 00:10:19,216 cereți permisiunea. 177 00:10:19,240 --> 00:10:22,016 Și dacă doriți să distribuiți selfie-ul nud al cuiva, 178 00:10:22,040 --> 00:10:24,320 evident, cereți-i permisiunea. 179 00:10:25,560 --> 00:10:30,016 Aceste schimbări individuale ne pot ajuta să ne protejăm reciproc intimitatea, 180 00:10:30,040 --> 00:10:33,840 dar de asemenea avem nevoie și de companii tehnologice la bord. 181 00:10:34,360 --> 00:10:38,856 Companiile au foarte puține stimulente pentru a ne proteja confidențialitatea, 182 00:10:38,880 --> 00:10:42,176 deoarece modelul lor de afaceri presupune ca noi să distribuim totul 183 00:10:42,200 --> 00:10:44,440 cât mai multor oameni. 184 00:10:45,080 --> 00:10:47,016 Chiar acum, dacă vă trimit o imagine, 185 00:10:47,040 --> 00:10:50,136 o puteți transmite oricui doriți. 186 00:10:50,160 --> 00:10:54,416 Dar dacă aș putea decide dacă acea imaginea poate fi transmisă sau nu? 187 00:10:54,440 --> 00:10:58,496 Asta v-ar spune că nu aveți permisiunea mea de a trimite această imagine. 188 00:10:58,520 --> 00:11:02,656 Facem acest lucru tot timpul pentru a proteja drepturile de autor. 189 00:11:02,680 --> 00:11:07,456 Când cumpărați o carte electronică, nu o puteți trimite la mai multe persoane. 190 00:11:07,480 --> 00:11:10,210 Atunci de ce să nu încercăm asta și cu telefoanele mobile? 191 00:11:10,960 --> 00:11:15,736 Ce putem face e să cerem companiilor tehnologice să adauge aceste protecții 192 00:11:15,760 --> 00:11:19,496 ca implicite pentru dispozitivele și platformele noastre. 193 00:11:19,520 --> 00:11:22,936 Până la urmă, puteți alege culoarea mașinii voastre, 194 00:11:22,960 --> 00:11:25,800 dar airbag-urile sunt întotdeauna standard. 195 00:11:28,080 --> 00:11:31,896 Dacă nu ne gândim la confidențialitatea și consimțământul digital, 196 00:11:31,920 --> 00:11:34,640 pot exista consecințe grave. 197 00:11:35,360 --> 00:11:37,616 A existat o adolescentă în Ohio, 198 00:11:37,640 --> 00:11:40,480 hai să o numim Jennifer, de dragul confidențialității. 199 00:11:41,120 --> 00:11:44,696 Ea a distribuit fotografii nud prietenul ei de liceu, 200 00:11:44,720 --> 00:11:46,610 crezând că poate avea încredere în el. 201 00:11:47,720 --> 00:11:49,656 Din păcate, el a trădat-o 202 00:11:49,680 --> 00:11:52,656 și i-a trimis fotografiile în întreaga școală. 203 00:11:52,680 --> 00:11:56,200 Jennifer a fost jenată și umilită, 204 00:11:56,800 --> 00:12:00,936 dar în loc să fie compătimită, colegii de clasă au hărțuit-o. 205 00:12:00,960 --> 00:12:02,816 Au numit-o târfă și curvă 206 00:12:02,840 --> 00:12:04,800 și i-au făcut viața mizerabilă. 207 00:12:05,360 --> 00:12:09,040 Jennifer a început să lipsească de la școală, iar notele ei au scăzut. 208 00:12:09,520 --> 00:12:13,320 În cele din urmă, Jennifer a decis să-și curme propria viață. 209 00:12:14,810 --> 00:12:17,416 Jennifer nu a făcut nimic rău. 210 00:12:17,440 --> 00:12:19,776 Tot ce a făcut a fost să trimită o poză nud 211 00:12:19,776 --> 00:12:22,536 cuiva în care a crezut că poate avea încredere. 212 00:12:22,560 --> 00:12:25,176 Și totuși, legile noastre 213 00:12:25,200 --> 00:12:29,360 spun că a comis o infracțiune oribilă echivalentă cu pornografia infantilă. 214 00:12:29,920 --> 00:12:31,416 Normele noastre sexuale 215 00:12:31,440 --> 00:12:34,656 spun că prin producerea acestei imagini nud cu ea însăși, 216 00:12:34,680 --> 00:12:37,880 a făcut cumva cel mai oribil și rușinos lucru. 217 00:12:38,400 --> 00:12:42,616 Și când presupunem că e imposibilă confidențialitatea în mediul digital, 218 00:12:42,640 --> 00:12:48,160 ștergem complet și scuzăm comportamentul foarte rău al iubitului ei. 219 00:12:49,200 --> 00:12:54,956 Oamenii continuă să le spună victimelor încălcărilor de confidențialitate: 220 00:12:54,966 --> 00:12:56,216 „La ce te-ai gândit? 221 00:12:56,240 --> 00:12:58,940 Nu ar fi trebuit să trimiți niciodată acea imagine.” 222 00:12:59,640 --> 00:13:03,640 Dacă încercați să vă dați seama ce să spuneți în schimb, încercați asta. 223 00:13:04,160 --> 00:13:06,534 Imaginați-vă că vă întâlniți cu un prieten 224 00:13:06,534 --> 00:13:08,240 care și-a rupt piciorul la schi. 225 00:13:08,240 --> 00:13:12,816 Și-a asumat riscul să facă ceva distractiv și nu s-a terminat bine. 226 00:13:12,840 --> 00:13:15,376 Dar probabil că nu veți fi ticălosul care spune: 227 00:13:15,400 --> 00:13:18,430 „Ei bine, cred că nu ar fi trebuit să mergi la schi, nu?” 228 00:13:20,080 --> 00:13:22,216 Dacă ne gândim mai mult la consimțământ, 229 00:13:22,240 --> 00:13:25,496 putem vedea că victimele încălcărilor de confidențialitate 230 00:13:25,520 --> 00:13:27,256 merită compasiunea noastră, 231 00:13:27,280 --> 00:13:31,884 nu încriminare, rușine, hărțuire sau pedepse. 232 00:13:32,190 --> 00:13:37,286 Putem sprijini victimele și putem preveni unele încălcări de confidențialitate, 233 00:13:37,286 --> 00:13:41,840 făcând aceste modificări legale, individuale și tehnologice. 234 00:13:41,840 --> 00:13:47,656 Deoarece problema nu e sextingul, problema e confidențialitatea digitală. 235 00:13:47,680 --> 00:13:50,190 Și o soluție e consimțământul. 236 00:13:50,680 --> 00:13:55,256 Așadar, data viitoare când vine o victimă a unei încălcări de confidențialitate, 237 00:13:55,280 --> 00:13:58,016 în loc să o învinovățim, să facem asta în schimb: 238 00:13:58,040 --> 00:14:01,456 haideți să ne schimbăm ideile despre confidențialitatea digitală, 239 00:14:01,480 --> 00:14:04,120 și să răspundem cu compasiune. 240 00:14:04,680 --> 00:14:05,896 Vă mulțumesc! 241 00:14:05,920 --> 00:14:12,056 (Aplauze)