1 00:00:00,947 --> 00:00:05,900 Há muito tempo que as pessoas têm usado os "media" para falar sobre sexo. 2 00:00:05,600 --> 00:00:09,130 Cartas de amor, sexo telefónico, fotos escandalosas. 3 00:00:09,480 --> 00:00:13,478 Até a história de uma rapariga que fugiu com um homem 4 00:00:13,478 --> 00:00:17,418 que conheceu por telégrafo em 1886. 5 00:00:18,560 --> 00:00:23,656 Hoje temos o "sexting" e eu sou uma especialista. 6 00:00:23,680 --> 00:00:26,500 Não sou uma especialista em fazê-lo. 7 00:00:27,118 --> 00:00:31,390 Mas sei o que isto quer dizer — acho que vocês também sabem. 8 00:00:31,121 --> 00:00:32,447 [É um pénis] 9 00:00:32,609 --> 00:00:34,541 (Risos) 10 00:00:36,360 --> 00:00:42,486 Eu tenho estudado o "sexting" desde que chamou a atenção dos "media" em 2008. 11 00:00:42,720 --> 00:00:45,696 Escrevi um livro sobre o pânico moral do "sexting". 12 00:00:45,801 --> 00:00:47,499 E foi isto que descobri: 13 00:00:47,596 --> 00:00:50,630 a maior parte das pessoas preocupa-se com a coisa errada. 14 00:00:50,718 --> 00:00:54,612 Estão a tentar impedir que o "sexting" aconteça completamente. 15 00:00:54,800 --> 00:00:56,545 Mas vou perguntar o seguinte: 16 00:00:56,545 --> 00:01:01,216 Contanto que seja consensual, qual é o problema do "sexting"? 17 00:01:01,240 --> 00:01:05,383 As pessoas gostam de todo o tipo de coisas que talvez vocês não gostem, 18 00:01:05,383 --> 00:01:07,876 é como o queijo azul e coentros. 19 00:01:07,981 --> 00:01:09,912 (Risos) 20 00:01:10,600 --> 00:01:14,808 O "sexting" certamente é arriscado, como qualquer outra coisa divertida, 21 00:01:14,808 --> 00:01:21,456 mas, contanto que vocês não enviem fotos para alguém que não as queira, 22 00:01:21,480 --> 00:01:23,256 não há problema. 23 00:01:23,280 --> 00:01:25,896 O que eu considero ser problemático 24 00:01:25,920 --> 00:01:29,439 é quando as pessoas partilham as fotos privadas de outras pessoas 25 00:01:29,454 --> 00:01:31,229 sem a permissão delas. 26 00:01:31,360 --> 00:01:33,914 Em vez de nos preocuparmos com o "sexting", 27 00:01:33,914 --> 00:01:38,643 acho que precisamos de pensar mais na privacidade digital. 28 00:01:38,880 --> 00:01:41,343 A chave é o consentimento. 29 00:01:41,680 --> 00:01:44,976 Neste momento, a maioria das pessoas estão a pensar em "sexting" 30 00:01:45,000 --> 00:01:48,105 sem pensarem realmente no consentimento. 31 00:01:48,400 --> 00:01:52,525 Sabiam que atualmente criminalizamos o "sexting" entre adolescentes? 32 00:01:53,400 --> 00:01:57,190 Pode ser um crime pois é considerado pornografia infantil, 33 00:01:57,190 --> 00:01:59,808 se houver uma foto de um menor de 18 anos, 34 00:01:59,808 --> 00:02:01,441 e não importa 35 00:02:01,441 --> 00:02:05,583 se tiraram a foto a eles próprios e partilharam por vontade própria. 36 00:02:05,800 --> 00:02:08,948 Então, temos uma situação legal bizarra em que, nos EUA, 37 00:02:08,948 --> 00:02:13,236 dois adolescentes podem ter relações sexuais legalmente, 38 00:02:13,536 --> 00:02:15,867 mas não podem fotografá-las. 39 00:02:16,560 --> 00:02:20,816 Alguns Estados também tentaram decretar o "sexting" como pequeno delito 40 00:02:20,864 --> 00:02:24,340 mas estas leis têm todas o mesmo problema 41 00:02:24,340 --> 00:02:27,894 ainda tornam o "sexting" consensual num ato ilegal. 42 00:02:28,520 --> 00:02:30,660 Não faz sentido nenhum 43 00:02:30,660 --> 00:02:34,290 tentar proibir o "sexting" para retificar violações de privacidade. 44 00:02:34,560 --> 00:02:36,246 É como dizer, 45 00:02:36,246 --> 00:02:41,856 vamos resolver as violações em encontros, tornando os encontros ilegais. 46 00:02:43,120 --> 00:02:46,210 A maioria dos jovens não são presos por "sexting" 47 00:02:46,210 --> 00:02:48,565 mas adivinham quem é preso? 48 00:02:48,647 --> 00:02:53,232 São os jovens de quem os pais dos companheiros não gostam. 49 00:02:53,738 --> 00:02:58,383 Isto pode ser por causa de preconceitos de classe social, racismo ou homofobia. 50 00:02:58,960 --> 00:03:02,170 A maioria dos acusadores são inteligentes o suficiente 51 00:03:02,170 --> 00:03:07,440 para não acusar de pornografia infantil adolescentes, mas alguns fazem-no. 52 00:03:07,720 --> 00:03:11,376 De acordo com investigadores da Universidade de New Hampshire 53 00:03:11,400 --> 00:03:17,056 7% das prisões por posse de pornografia infantil são de jovens, 54 00:03:17,080 --> 00:03:20,370 a fazerem "sexting" consensualmente com outros jovens. 55 00:03:21,480 --> 00:03:24,288 A pornografia infantil é um crime grave, 56 00:03:24,288 --> 00:03:28,192 mas não é a mesma coisa que o "sexting" entre jovens. 57 00:03:29,040 --> 00:03:32,456 Os pais e educadores estão a lidar com o "sexting" 58 00:03:32,480 --> 00:03:35,570 sem pensarem muito sobre consentimento. 59 00:03:35,640 --> 00:03:39,914 Frequentemente a mensagem para os jovens é: "Não o façam". 60 00:03:40,200 --> 00:03:43,905 E eu compreendo — existem riscos legais graves 61 00:03:43,905 --> 00:03:47,376 e claro, as potenciais violações de privacidade. 62 00:03:47,400 --> 00:03:48,956 E quando vocês era jovens, 63 00:03:48,956 --> 00:03:52,443 tenho a certeza que vocês faziam tudo o que vos diziam, certo? 64 00:03:53,512 --> 00:03:56,896 Provavelmente estão a pensar: "O meu filho nunca faria isso". 65 00:03:57,110 --> 00:04:00,594 E é verdade, os vossos anjinhos podem não estar a fazer "sexting" 66 00:04:00,594 --> 00:04:04,117 porque apenas 33% dos jovens 67 00:04:04,117 --> 00:04:06,592 entre 16 e 17 anos o praticam. 68 00:04:07,200 --> 00:04:11,934 Mas quando eles crescerem, há grandes probabilidades de o fazerem. 69 00:04:11,934 --> 00:04:18,140 Todos os estudos que vi avaliam uma taxa superior a 50% entre os 18 e os 24 anos. 70 00:04:18,720 --> 00:04:21,930 E na maioria das vezes, nada corre mal. 71 00:04:22,450 --> 00:04:27,330 As pessoas perguntam-me coisas como: "Mas o 'sexting' não é muito perigoso?" 72 00:04:27,457 --> 00:04:31,210 Imaginem, vocês não deixariam a carteira no banco de um parque 73 00:04:31,210 --> 00:04:34,658 e esperavam que ela fosse roubada se o fizessem, certo? 74 00:04:34,880 --> 00:04:36,590 Eu penso desta forma: 75 00:04:36,590 --> 00:04:40,296 o "sexting" é como se deixassem a carteira em casa do vosso namorado. 76 00:04:40,320 --> 00:04:42,359 Se voltarem no dia seguinte 77 00:04:42,359 --> 00:04:44,763 e todo o dinheiro tiver desaparecido, 78 00:04:45,040 --> 00:04:47,660 precisam mesmo de acabar com essa pessoa. 79 00:04:47,808 --> 00:04:49,978 (Risos) 80 00:04:51,360 --> 00:04:53,898 Então em vez de criminalizarmos o "sexting", 81 00:04:53,898 --> 00:04:56,526 para tentar evitar estas violações de privacidade, 82 00:04:56,526 --> 00:04:59,965 precisamos de tornar o consentimento num fator central 83 00:04:59,965 --> 00:05:04,114 de como pensamos sobre a circulação das nossas informações privadas. 84 00:05:04,480 --> 00:05:08,736 Qualquer nova tecnologia levanta questões quanto à privacidade. 85 00:05:08,760 --> 00:05:13,376 De facto, os primeiros grandes debates sobre privacidade nos EUA, 86 00:05:13,400 --> 00:05:18,205 realizaram-se em resposta às tecnologias que eram relativamente novas na altura. 87 00:05:18,205 --> 00:05:22,340 No final do século XIX, as pessoas estavam preocupadas com as câmaras, 88 00:05:22,340 --> 00:05:25,296 que, de repente, eram mais portáteis do que nunca 89 00:05:25,320 --> 00:05:28,016 e com as colunas de mexericos dos jornais. 90 00:05:28,016 --> 00:05:31,846 Estavam preocupadas pois as câmaras podiam capturar informações sobre eles, 91 00:05:31,846 --> 00:05:35,134 tirar a informação do contexto e divulgá-la amplamente. 92 00:05:35,240 --> 00:05:36,937 Isto soa-vos familiar? 93 00:05:37,980 --> 00:05:39,562 É exatamente o que nos preocupa 94 00:05:39,562 --> 00:05:41,908 nas redes sociais e nas câmaras dos "drones", 95 00:05:41,908 --> 00:05:43,718 e, claro, no "sexting". 96 00:05:43,920 --> 00:05:47,363 Estes medos da tecnologia fazem sentido 97 00:05:47,400 --> 00:05:51,225 porque as tecnologias podem ampliar e trazer para fora 98 00:05:51,225 --> 00:05:54,870 as nossas piores qualidades e comportamentos. 99 00:05:54,160 --> 00:05:56,536 Mas há soluções. 100 00:05:56,823 --> 00:06:00,501 Nós já passámos por isto com uma nova tecnologia perigosa. 101 00:06:00,720 --> 00:06:04,596 Em 1908, quando Ford apresentou o carro Model T. 102 00:06:04,892 --> 00:06:07,529 As taxas de acidentes de trânsito estavam a subir. 103 00:06:07,529 --> 00:06:10,628 Era um grave problema — parece-vos seguro, certo? 104 00:06:12,080 --> 00:06:16,183 A nossa primeira resposta foi tentar mudar o comportamento dos condutores, 105 00:06:16,183 --> 00:06:20,180 desenvolvemos limites de velocidade que aplicámos através de multas. 106 00:06:20,240 --> 00:06:22,396 Mas ao longo das décadas seguintes, 107 00:06:22,396 --> 00:06:27,616 começámos a perceber que a tecnologia do carro em si não é apenas neutra. 108 00:06:27,849 --> 00:06:30,856 Podíamos projetar o carro para torná-lo mais seguro. 109 00:06:31,038 --> 00:06:34,645 Então, na década de 1920, tínhamos para-brisas resistentes à quebra. 110 00:06:34,645 --> 00:06:37,650 Na década de 1950, cintos de segurança. 111 00:06:37,650 --> 00:06:39,960 E na década de 1990, "airbags". 112 00:06:40,440 --> 00:06:43,016 Todas estas três áreas: 113 00:06:43,016 --> 00:06:47,816 lei, indivíduos e indústria foram-se juntando ao longo do tempo 114 00:06:47,816 --> 00:06:51,416 para ajudar a resolver o problema que uma nova tecnologia causava. 115 00:06:51,440 --> 00:06:55,160 E podemos fazer o mesmo com a privacidade digital. 116 00:06:55,160 --> 00:06:58,120 Claro, voltamos ao consentimento. 117 00:06:58,360 --> 00:06:59,903 Aqui está a ideia. 118 00:06:59,903 --> 00:07:03,570 Antes que alguém possa distribuir as vossas informações privadas, 119 00:07:03,570 --> 00:07:06,700 deviam ter de obter a vossa permissão. 120 00:07:06,240 --> 00:07:11,056 Esta ideia de consentimento afirmativo vem de ativistas anti-violação 121 00:07:11,080 --> 00:07:14,856 que nos dizem que precisamos de consentimento para todos os atos sexuais. 122 00:07:14,970 --> 00:07:19,337 E temos padrões realmente altos de consentimento em muitas outras áreas. 123 00:07:19,480 --> 00:07:21,545 Pensem em fazer uma cirurgia. 124 00:07:21,614 --> 00:07:23,385 O vosso médico tem de se certificar 125 00:07:23,385 --> 00:07:27,449 que vocês estão conscientes e que consentem esse procedimento médico. 126 00:07:27,520 --> 00:07:31,588 Não é o mesmo tipo de consentimento, que os Termos de Serviço do iTunes 127 00:07:31,588 --> 00:07:34,896 em que apenas fazemos "scroll" e, concordo, concordo, seja o que for. 128 00:07:35,329 --> 00:07:36,940 (Risos) 129 00:07:37,160 --> 00:07:42,306 Se pensarmos mais em consentimento, podemos ter melhores leis de privacidade. 130 00:07:42,440 --> 00:07:45,956 Agora, nós não temos muitas proteções. 131 00:07:45,956 --> 00:07:49,456 Se o nosso ex-marido ou a nossa ex-mulher forem pessoas horríveis, 132 00:07:49,480 --> 00:07:53,823 podem pegar nas nossas fotos nuas e enviá-las para um site de pornografia. 133 00:07:53,823 --> 00:07:56,936 Pode ser muito difícil tirar essas fotos da Internet. 134 00:07:56,960 --> 00:07:58,548 E em muitos Estados, 135 00:07:58,548 --> 00:08:02,016 vocês estão muito melhor se foram vocês que tiraram as fotos 136 00:08:02,040 --> 00:08:05,130 porque aí podem fazer uma queixa por direitos de autor. 137 00:08:05,320 --> 00:08:07,303 (Risos) 138 00:08:07,400 --> 00:08:10,376 Agora, se alguém viola a nossa privacidade, 139 00:08:10,400 --> 00:08:14,754 quer se trate de um indivíduo ou de uma empresa ou da NSA, 140 00:08:15,280 --> 00:08:18,343 podemos tentar meter uma ação judicial, 141 00:08:18,343 --> 00:08:20,403 apesar de podermos não ser bem sucedidos 142 00:08:20,403 --> 00:08:24,976 porque muitos tribunais assumem que a privacidade digital é impossível. 143 00:08:25,118 --> 00:08:28,630 Então não estão dispostos a punir alguém por a violar. 144 00:08:29,200 --> 00:08:32,096 As pessoas ainda me perguntam: 145 00:08:32,120 --> 00:08:37,416 "Uma imagem digital não é algo que está entre o público e o privado 146 00:08:37,440 --> 00:08:39,298 "porque é digital?" 147 00:08:39,600 --> 00:08:40,936 Não! Não! 148 00:08:41,150 --> 00:08:44,296 Tudo o que é digital não é automaticamente público. 149 00:08:44,320 --> 00:08:46,216 Isto não faz sentido nenhum. 150 00:08:46,376 --> 00:08:49,736 Como a professora de direito da NYU Helen Nissenbaum diz, 151 00:08:49,760 --> 00:08:52,548 nós temos leis, políticas e normas 152 00:08:52,548 --> 00:08:55,536 que protegem todo o tipo de informação que é privada, 153 00:08:55,560 --> 00:08:58,976 e não faz diferença se esta informação é digital ou não. 154 00:08:59,000 --> 00:09:01,837 Todos os nossos registos de saúde estão digitalizados 155 00:09:01,837 --> 00:09:04,816 mas o nosso médico não pode partilhá-los com ninguém. 156 00:09:04,840 --> 00:09:09,296 As nossas informações financeiras são mantidas em bases de dados digitais, 157 00:09:09,320 --> 00:09:13,914 mas o nosso banco não pode publicar o nosso histórico de compras "online". 158 00:09:15,080 --> 00:09:18,772 Melhores leis podiam resolver violações de privacidade 159 00:09:18,772 --> 00:09:20,636 depois de estas acontecerem, 160 00:09:20,636 --> 00:09:25,117 mas uma das coisas mais fáceis que podemos fazer são mudanças pessoais 161 00:09:25,117 --> 00:09:28,140 para ajudar a proteger a nossa privacidade. 162 00:09:28,360 --> 00:09:30,537 Dizem-nos sempre que a nossa privacidade 163 00:09:30,537 --> 00:09:33,663 é da nossa exclusiva responsabilidade individual. 164 00:09:33,663 --> 00:09:37,616 É-nos dito para monitorizarmos as configurações de privacidade; 165 00:09:37,640 --> 00:09:42,640 para nunca partilharmos algo que não queremos que o mundo inteiro veja. 166 00:09:43,369 --> 00:09:44,776 Isto não faz sentido. 167 00:09:44,776 --> 00:09:47,616 Os meios digitais são meios sociais 168 00:09:47,640 --> 00:09:52,310 e partilhamos coisas com pessoas em quem confiamos todos os dias. 169 00:09:52,760 --> 00:09:55,736 Como a investigadora de Princeton Janet Vertesi argumenta, 170 00:09:55,760 --> 00:09:59,776 os nossos dados e a nossa privacidade não são apenas pessoais, 171 00:09:59,800 --> 00:10:02,166 são interpessoais. 172 00:10:02,400 --> 00:10:05,656 Então, uma coisa muito fácil que podemos fazer 173 00:10:05,680 --> 00:10:08,227 é começar a pedir permissão 174 00:10:08,227 --> 00:10:10,936 antes de partilhar informações de outras pessoas. 175 00:10:11,145 --> 00:10:15,336 Se querem publicar uma foto de alguém "online", peçam permissão. 176 00:10:15,360 --> 00:10:17,816 Se querem reencaminhar um email, 177 00:10:17,840 --> 00:10:19,443 peçam permissão. 178 00:10:19,443 --> 00:10:22,016 E se querem partilhar a "selfie" nua de alguém, 179 00:10:22,040 --> 00:10:24,538 obviamente, peçam permissão. 180 00:10:25,560 --> 00:10:30,016 Estas mudanças individuais podem ajudar-nos a proteger a nossa privacidade, 181 00:10:30,016 --> 00:10:33,979 mas também precisamos das empresas de tecnologia na mesma onda. 182 00:10:34,360 --> 00:10:38,856 Estas empresas têm poucos incentivos para proteger a nossa privacidade 183 00:10:38,880 --> 00:10:42,548 porque os seus modelos de negócio dependem de nós partilharmos tudo 184 00:10:42,548 --> 00:10:44,858 com o máximo de pessoas possível. 185 00:10:45,180 --> 00:10:47,406 Agora, se eu vos mandar uma foto, 186 00:10:47,406 --> 00:10:50,136 vocês podem reencaminhá-la para qualquer pessoa. 187 00:10:50,350 --> 00:10:54,416 Mas e se eu pudesse decidir se esta foto era reencaminhável ou não? 188 00:10:54,594 --> 00:10:58,496 Isso dir-vos-ia que não tinham permissão para enviar esta imagem. 189 00:10:58,638 --> 00:11:02,656 Nós fartamo-nos de fazer este tipo de coisa para proteger os direitos de autor. 190 00:11:02,825 --> 00:11:07,456 Se compramos um e-book, não podemos enviá-lo às pessoas que quisermos. 191 00:11:07,670 --> 00:11:10,412 Então, porque não fazer o mesmo com os telemóveis? 192 00:11:10,960 --> 00:11:15,854 Podemos exigir que as empresas de tecnologia adicionem estas proteções 193 00:11:15,854 --> 00:11:19,496 aos nossos dispositivos e às nossas plataformas, obrigatoriamente. 194 00:11:19,701 --> 00:11:22,936 Afinal, podemos escolher a cor do nosso carro, 195 00:11:22,960 --> 00:11:26,190 mas os "airbags" são sempre obrigatórios. 196 00:11:28,080 --> 00:11:32,140 Se não pensarmos mais em privacidade digital e em consentimento, 197 00:11:32,140 --> 00:11:34,894 pode haver graves consequências. 198 00:11:35,360 --> 00:11:37,761 Uma adolescente do Ohio 199 00:11:37,761 --> 00:11:40,825 — vamos chamar-lhe Jennifer, para mantermos a sua privacidade. 200 00:11:41,120 --> 00:11:44,696 Ela partilhou fotos dela nua com o seu namorado da secundária, 201 00:11:44,720 --> 00:11:46,676 pensando que podia confiar nele. 202 00:11:47,720 --> 00:11:49,837 Infelizmente, ele traiu-a 203 00:11:49,837 --> 00:11:52,492 e mandou as fotos para a escola toda. 204 00:11:52,680 --> 00:11:56,427 Jennifer sentiu-se envergonhada e humilhada, 205 00:11:56,800 --> 00:12:00,936 mas, em vez de terem compaixão, os colegas gozaram com ela. 206 00:12:00,960 --> 00:12:03,216 Chamaram-lhe cabra e prostituta 207 00:12:03,216 --> 00:12:05,336 e transformaram-lhe a vida num inferno. 208 00:12:05,360 --> 00:12:09,194 Jennifer começou a faltar à escola e as suas notas desceram. 209 00:12:09,520 --> 00:12:13,738 Por fim, Jennifer decidiu acabar com a sua própria vida. 210 00:12:14,720 --> 00:12:17,416 Jennifer não fez nada mal. 211 00:12:17,440 --> 00:12:20,123 Tudo o que fez foi partilhar uma foto dela nua 212 00:12:20,123 --> 00:12:22,536 com alguém que ela pensava poder confiar. 213 00:12:22,560 --> 00:12:25,176 No entanto, as nossas leis dizem-lhe 214 00:12:25,200 --> 00:12:29,669 que ela cometeu um crime horrível equivalente à pornografia infantil. 215 00:12:29,920 --> 00:12:31,661 As nossas normas sexuais dizem 216 00:12:31,661 --> 00:12:34,656 que, ao tirar a foto dela nua, 217 00:12:34,680 --> 00:12:38,170 ela, de alguma forma, fez a coisa mais horrível e vergonhosa. 218 00:12:38,400 --> 00:12:42,761 E quando assumimos que a privacidade nos meios digitais é impossível, 219 00:12:42,761 --> 00:12:48,450 estamos a desculpar completamente o mau comportamento do namorado. 220 00:12:49,200 --> 00:12:54,490 As pessoas ainda dizem às vítimas de violações de privacidade, 221 00:12:54,960 --> 00:12:56,670 "Em que é que estavas a pensar? 222 00:12:56,670 --> 00:12:59,220 "Tu nunca devias ter enviado essa foto." 223 00:12:59,640 --> 00:13:03,721 Se estão a tentar descobrir o que dizer, tentem isto. 224 00:13:04,160 --> 00:13:07,961 Imaginem que encontram um amigo que partiu a perna a fazer esquii. 225 00:13:08,240 --> 00:13:12,597 Ele correu o risco de fazer algo divertido, e não acabou bem. 226 00:13:12,840 --> 00:13:15,512 Mas provavelmente vocês não lhe vão dizer: 227 00:13:15,512 --> 00:13:18,230 "Bem, não devias ter ido esquiar." 228 00:13:20,080 --> 00:13:22,406 Se pensarmos mais no consentimento, 229 00:13:22,406 --> 00:13:25,496 podemos ver que as vítimas de violações de privacidade 230 00:13:25,520 --> 00:13:27,546 merecem a nossa compaixão, 231 00:13:27,546 --> 00:13:32,016 não que as criminalizemos, envergonhemos ou castiguemos. 232 00:13:32,440 --> 00:13:37,172 Nós podemos apoiar as vítimas e evitar algumas violações de privacidade 233 00:13:37,172 --> 00:13:41,425 ao fazermos estas mudanças legais, individuais e tecnológicas. 234 00:13:41,840 --> 00:13:47,546 Porque o problema não é o "sexting", o problema é a privacidade digital. 235 00:13:47,680 --> 00:13:50,421 E uma solução passa pelo consentimento. 236 00:13:50,680 --> 00:13:52,280 Então, da próxima vez 237 00:13:52,280 --> 00:13:55,334 que uma vítima de violação de privacidade for ter convosco, 238 00:13:55,334 --> 00:13:58,016 em vez de a culparem, façam isto: 239 00:13:58,312 --> 00:14:01,574 vamos mudar as nossas ideias sobre a privacidade digital, 240 00:14:01,574 --> 00:14:04,347 e vamos responder com compaixão. 241 00:14:04,680 --> 00:14:05,896 Obrigada. 242 00:14:06,056 --> 00:14:09,119 (Aplausos)