[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.79,0:00:03.06,Default,,0000,0000,0000,,Todos os dias, todas as semanas, Dialogue: 0,0:00:03.08,0:00:05.27,Default,,0000,0000,0000,,nós concordamos com termos e condições. Dialogue: 0,0:00:05.29,0:00:06.77,Default,,0000,0000,0000,,E quando fazemos isso, Dialogue: 0,0:00:06.79,0:00:09.27,Default,,0000,0000,0000,,fornecemos às empresas o direito legal Dialogue: 0,0:00:09.29,0:00:12.98,Default,,0000,0000,0000,,de fazerem o que quiserem \Ncom os nossos dados Dialogue: 0,0:00:13.00,0:00:15.69,Default,,0000,0000,0000,,e com os dados dos nossos filhos. Dialogue: 0,0:00:16.79,0:00:19.77,Default,,0000,0000,0000,,O que nos leva pensar: Dialogue: 0,0:00:19.79,0:00:22.68,Default,,0000,0000,0000,,quantos dados dos nossos filhos\Né que estamos a ceder, Dialogue: 0,0:00:22.71,0:00:25.27,Default,,0000,0000,0000,,e quais são as implicações disso? Dialogue: 0,0:00:26.50,0:00:27.89,Default,,0000,0000,0000,,Eu sou antropóloga, Dialogue: 0,0:00:27.92,0:00:30.52,Default,,0000,0000,0000,,mas também sou mãe \Nde duas meninas pequenas. Dialogue: 0,0:00:31.26,0:00:35.02,Default,,0000,0000,0000,,Comecei a interessar-me\Npor esta questão em 2015 Dialogue: 0,0:00:35.04,0:00:37.77,Default,,0000,0000,0000,,quando, de repente,\Nme apercebi de que havia Dialogue: 0,0:00:37.79,0:00:40.81,Default,,0000,0000,0000,,uma quantidade\Nquase inimaginável de dados Dialogue: 0,0:00:40.83,0:00:44.13,Default,,0000,0000,0000,,que estão a ser produzidos\Ne recolhidos sobre crianças. Dialogue: 0,0:00:44.72,0:00:47.17,Default,,0000,0000,0000,,Por isso, lancei\Num projeto de investigação, Dialogue: 0,0:00:47.18,0:00:49.27,Default,,0000,0000,0000,,chamado Child Data Citizen, Dialogue: 0,0:00:49.29,0:00:51.89,Default,,0000,0000,0000,,com o objetivo de preencher\Nos espaços em branco. Dialogue: 0,0:00:52.58,0:00:55.60,Default,,0000,0000,0000,,Podem pensar\Nque estou aqui para vos acusar Dialogue: 0,0:00:55.62,0:00:58.39,Default,,0000,0000,0000,,de publicarem fotos dos vossos filhos\Nnas redes sociais, Dialogue: 0,0:00:58.42,0:01:00.56,Default,,0000,0000,0000,,mas o problema não é esse. Dialogue: 0,0:01:00.58,0:01:04.31,Default,,0000,0000,0000,,O problema é muito maior\Ndo que o chamado "sharenting." Dialogue: 0,0:01:04.79,0:01:08.89,Default,,0000,0000,0000,,Isto é sobre sistemas,\Nnão é sobre indivíduos. Dialogue: 0,0:01:08.92,0:01:11.58,Default,,0000,0000,0000,,Vocês e os vossos hábitos \Nnão são os culpados. Dialogue: 0,0:01:12.83,0:01:15.77,Default,,0000,0000,0000,,Pela primeira vez na história, Dialogue: 0,0:01:15.82,0:01:18.27,Default,,0000,0000,0000,,estamos a rastrear os dados \Nindividuais de crianças Dialogue: 0,0:01:18.29,0:01:20.23,Default,,0000,0000,0000,,desde antes de elas nascerem Dialogue: 0,0:01:20.27,0:01:22.97,Default,,0000,0000,0000,,— por vezes, desde o momento da conceção, Dialogue: 0,0:01:23.01,0:01:25.29,Default,,0000,0000,0000,,e depois ao longo da vida delas. Dialogue: 0,0:01:25.31,0:01:28.27,Default,,0000,0000,0000,,Como veem, quando os pais\Ndecidem conceber, Dialogue: 0,0:01:28.29,0:01:31.27,Default,,0000,0000,0000,,vão "online" pesquisar\N"maneiras de engravidar," Dialogue: 0,0:01:31.29,0:01:34.78,Default,,0000,0000,0000,,ou descarregam aplicações \Nde monitorização da ovulação. Dialogue: 0,0:01:35.25,0:01:37.69,Default,,0000,0000,0000,,Quando engravidam, Dialogue: 0,0:01:37.88,0:01:41.02,Default,,0000,0000,0000,,publicam as ecografias\Ndos bebés nas redes sociais, Dialogue: 0,0:01:41.04,0:01:43.06,Default,,0000,0000,0000,,descarregam aplicações de gravidez Dialogue: 0,0:01:43.08,0:01:46.81,Default,,0000,0000,0000,,ou consultam o Dr. Google\Npara todo o tipo de coisas, Dialogue: 0,0:01:46.83,0:01:48.35,Default,,0000,0000,0000,,como, por exemplo, Dialogue: 0,0:01:48.38,0:01:50.93,Default,,0000,0000,0000,,"risco de aborto ao viajar de avião" Dialogue: 0,0:01:50.96,0:01:53.73,Default,,0000,0000,0000,,ou "dores abdominais\Nno início da gravidez." Dialogue: 0,0:01:53.75,0:01:55.56,Default,,0000,0000,0000,,Eu sei disto porque já o fiz, Dialogue: 0,0:01:55.58,0:01:57.64,Default,,0000,0000,0000,,e várias vezes. Dialogue: 0,0:01:58.46,0:02:02.55,Default,,0000,0000,0000,,Depois, quando o bebé nasce, \Neles registam cada sesta, cada refeição, Dialogue: 0,0:02:02.58,0:02:04.26,Default,,0000,0000,0000,,cada acontecimento na sua vida, Dialogue: 0,0:02:04.26,0:02:06.08,Default,,0000,0000,0000,,em diferentes tecnologias. Dialogue: 0,0:02:06.08,0:02:07.74,Default,,0000,0000,0000,,E todas estas tecnologias, Dialogue: 0,0:02:07.78,0:02:09.57,Default,,0000,0000,0000,,transformam em lucro Dialogue: 0,0:02:09.60,0:02:13.52,Default,,0000,0000,0000,,os dados comportamentais\Ne médicos mais íntimos do bebé Dialogue: 0,0:02:13.61,0:02:15.93,Default,,0000,0000,0000,,ao partilhá-los com outros. Dialogue: 0,0:02:16.58,0:02:18.89,Default,,0000,0000,0000,,Para vos dar uma ideia\Nde como isto funciona, Dialogue: 0,0:02:18.94,0:02:23.47,Default,,0000,0000,0000,,em 2019, o British Medical Journal \Npublicou uma investigação Dialogue: 0,0:02:23.54,0:02:27.60,Default,,0000,0000,0000,,que mostrava que,\Nde 24 aplicações móveis de saúde, Dialogue: 0,0:02:27.62,0:02:31.23,Default,,0000,0000,0000,,19 partilhavam informações com terceiros. Dialogue: 0,0:02:32.08,0:02:38.13,Default,,0000,0000,0000,,E esses terceiros partilhavam informações\Ncom outras 216 organizações. Dialogue: 0,0:02:38.88,0:02:42.31,Default,,0000,0000,0000,,Destas outras 216 organizações, Dialogue: 0,0:02:42.33,0:02:45.07,Default,,0000,0000,0000,,apenas 3 pertenciam ao setor da saúde. Dialogue: 0,0:02:45.50,0:02:48.10,Default,,0000,0000,0000,,As outras empresas\Nque tinham acesso a esses dados Dialogue: 0,0:02:48.14,0:02:50.38,Default,,0000,0000,0000,,eram importantes empresas de tecnologia Dialogue: 0,0:02:50.43,0:02:53.56,Default,,0000,0000,0000,,como o Google, o Facebook ou o Oracle, Dialogue: 0,0:02:53.58,0:02:56.18,Default,,0000,0000,0000,,empresas de publicidade digital Dialogue: 0,0:02:56.21,0:03:00.50,Default,,0000,0000,0000,,e também agências de informações \Ncomerciais de consumo. Dialogue: 0,0:03:01.12,0:03:02.74,Default,,0000,0000,0000,,Vocês perceberam bem: Dialogue: 0,0:03:02.78,0:03:05.01,Default,,0000,0000,0000,,empresas de publicidade\Ne agências de crédito Dialogue: 0,0:03:05.04,0:03:07.80,Default,,0000,0000,0000,,podem já ter dados sobre bebés. Dialogue: 0,0:03:09.12,0:03:12.37,Default,,0000,0000,0000,,Mas as aplicações móveis,\Nos motores de pesquisa e as redes sociais Dialogue: 0,0:03:12.37,0:03:14.95,Default,,0000,0000,0000,,são apenas a ponta do icebergue, Dialogue: 0,0:03:14.98,0:03:18.18,Default,,0000,0000,0000,,porque as crianças estão a ser rastreadas \Npor múltiplas tecnologias Dialogue: 0,0:03:18.20,0:03:19.77,Default,,0000,0000,0000,,na sua vida diária. Dialogue: 0,0:03:19.78,0:03:21.99,Default,,0000,0000,0000,,São rastreadas\Npelas tecnologias domésticas Dialogue: 0,0:03:22.03,0:03:24.20,Default,,0000,0000,0000,,e pelos assistentes virtuais\Nnas nossas casas. Dialogue: 0,0:03:24.24,0:03:26.35,Default,,0000,0000,0000,,São rastreadas\Npelas plataformas educativas, Dialogue: 0,0:03:26.36,0:03:28.36,Default,,0000,0000,0000,,pelas tecnologias de educação\Nnas escolas. Dialogue: 0,0:03:28.38,0:03:30.17,Default,,0000,0000,0000,,São rastreadas por registos "online" Dialogue: 0,0:03:30.19,0:03:32.74,Default,,0000,0000,0000,,e por portais "online"\Nno consultório do médico deles. Dialogue: 0,0:03:32.76,0:03:35.50,Default,,0000,0000,0000,,São rastreadas pelos seus brinquedos\Nligados à Internet, Dialogue: 0,0:03:35.53,0:03:36.98,Default,,0000,0000,0000,,pelos seus jogos "online" Dialogue: 0,0:03:37.02,0:03:39.50,Default,,0000,0000,0000,,e por muitas, muitas, muitas\Noutras tecnologias. Dialogue: 0,0:03:40.25,0:03:42.13,Default,,0000,0000,0000,,Durante a minha pesquisa, Dialogue: 0,0:03:42.16,0:03:44.31,Default,,0000,0000,0000,,muitos pais me disseram: Dialogue: 0,0:03:44.70,0:03:49.04,Default,,0000,0000,0000,,"E depois? Que importância tem \Nos meus filhos estarem a ser rastreados? Dialogue: 0,0:03:50.05,0:03:52.16,Default,,0000,0000,0000,,"Não temos nada a esconder." Dialogue: 0,0:03:52.96,0:03:54.73,Default,,0000,0000,0000,,Bem, é muito importante Dialogue: 0,0:03:55.08,0:04:00.70,Default,,0000,0000,0000,,É importante porque hoje em dia,\Nas pessoas não estão só a ser rastreadas, Dialogue: 0,0:04:01.12,0:04:04.79,Default,,0000,0000,0000,,também traçam os perfis delas\Ncom base nesses dados. Dialogue: 0,0:04:05.25,0:04:09.06,Default,,0000,0000,0000,,A inteligência artificial e a análise \Npreditiva estão a ser utilizadas Dialogue: 0,0:04:09.08,0:04:12.73,Default,,0000,0000,0000,,para reunir o máximo de dados possível\Nda vida de um indivíduo Dialogue: 0,0:04:12.75,0:04:14.57,Default,,0000,0000,0000,,a partir de diferentes fontes: Dialogue: 0,0:04:14.58,0:04:17.34,Default,,0000,0000,0000,,o histórico familiar,\Nos hábitos de compra, Dialogue: 0,0:04:17.35,0:04:19.17,Default,,0000,0000,0000,,os comentários nas redes sociais. Dialogue: 0,0:04:19.25,0:04:21.02,Default,,0000,0000,0000,,E reúnem esses dados Dialogue: 0,0:04:21.04,0:04:24.45,Default,,0000,0000,0000,,para tomarem decisões orientadas \Npelos dados sobre o indivíduo. Dialogue: 0,0:04:24.79,0:04:28.23,Default,,0000,0000,0000,,Estas tecnologias são utilizadas \Nem todo o lado. Dialogue: 0,0:04:28.25,0:04:30.64,Default,,0000,0000,0000,,Os bancos usam-nas\Npara decidirem empréstimos. Dialogue: 0,0:04:30.67,0:04:33.52,Default,,0000,0000,0000,,As companhias de seguros usam-nas\Npara decidirem prémios. Dialogue: 0,0:04:34.21,0:04:36.68,Default,,0000,0000,0000,,Os recrutadores e empregadores usam-nas Dialogue: 0,0:04:36.71,0:04:40.30,Default,,0000,0000,0000,,para decidirem se alguém é uma boa escolha\Nou não, para um emprego. Dialogue: 0,0:04:40.75,0:04:43.85,Default,,0000,0000,0000,,A polícia e os tribunais também as usam Dialogue: 0,0:04:43.88,0:04:47.39,Default,,0000,0000,0000,,para determinarem se alguém\Né um potencial criminoso Dialogue: 0,0:04:47.42,0:04:50.34,Default,,0000,0000,0000,,ou se é provável que voltem \Na cometer um crime. Dialogue: 0,0:04:52.46,0:04:56.52,Default,,0000,0000,0000,,Nós não temos conhecimento nem controlo Dialogue: 0,0:04:56.54,0:05:00.18,Default,,0000,0000,0000,,sobre a forma como aqueles que compram,\Nvendem e processam os nossos dados Dialogue: 0,0:05:00.21,0:05:03.53,Default,,0000,0000,0000,,estão a traçar os nossos perfis\Ne os perfis dos nossos filhos. Dialogue: 0,0:05:03.58,0:05:06.53,Default,,0000,0000,0000,,Mas estes perfis podem\Nvir a ter impacto nos nossos direitos Dialogue: 0,0:05:06.54,0:05:08.39,Default,,0000,0000,0000,,de forma significativa. Dialogue: 0,0:05:09.14,0:05:11.12,Default,,0000,0000,0000,,Por exemplo, Dialogue: 0,0:05:13.79,0:05:17.85,Default,,0000,0000,0000,,em 2018 o "New York Times" \Npublicou a notícia Dialogue: 0,0:05:17.88,0:05:19.85,Default,,0000,0000,0000,,de que os dados reunidos Dialogue: 0,0:05:19.88,0:05:22.93,Default,,0000,0000,0000,,através de serviços de planeamento \Nuniversitário "online" Dialogue: 0,0:05:22.96,0:05:27.68,Default,,0000,0000,0000,,que são utilizados por milhões\Nde alunos do secundário nos EUA Dialogue: 0,0:05:27.71,0:05:31.35,Default,,0000,0000,0000,,que estão à procura de um programa \Nuniversitário ou de uma bolsa, Dialogue: 0,0:05:31.38,0:05:34.72,Default,,0000,0000,0000,,tinham sido vendidos\Na corretores de dados educativos. Dialogue: 0,0:05:35.79,0:05:38.92,Default,,0000,0000,0000,,Ora, os investigadores\Nda Universidade de Fordham Dialogue: 0,0:05:38.93,0:05:41.38,Default,,0000,0000,0000,,que investigaram corretores\Nde dados educativos Dialogue: 0,0:05:41.40,0:05:46.48,Default,,0000,0000,0000,,revelaram que estas empresas traçaram\Nperfis de crianças a partir dos dois anos Dialogue: 0,0:05:46.50,0:05:49.56,Default,,0000,0000,0000,,com base em muitas outras\Ncategorias arbitrárias. Dialogue: 0,0:05:49.58,0:05:53.15,Default,,0000,0000,0000,,etnia, religião, riqueza, Dialogue: 0,0:05:53.79,0:05:55.85,Default,,0000,0000,0000,,inépcia social Dialogue: 0,0:05:55.88,0:05:58.57,Default,,0000,0000,0000,,e muitas outras categorias. Dialogue: 0,0:05:58.83,0:06:03.66,Default,,0000,0000,0000,,Depois vendem os perfis juntamente\Ncom os nomes das crianças, Dialogue: 0,0:06:03.88,0:06:06.68,Default,,0000,0000,0000,,a morada e informações de contacto Dialogue: 0,0:06:06.71,0:06:08.56,Default,,0000,0000,0000,,a empresas diferentes, Dialogue: 0,0:06:08.58,0:06:11.69,Default,,0000,0000,0000,,incluindo instituições comerciais\Ne de carreira, Dialogue: 0,0:06:11.86,0:06:13.66,Default,,0000,0000,0000,,empresas de empréstimos estudantis Dialogue: 0,0:06:13.66,0:06:15.70,Default,,0000,0000,0000,,e de cartões de crédito estudantis. Dialogue: 0,0:06:16.66,0:06:18.43,Default,,0000,0000,0000,,Para alargarem os limites, Dialogue: 0,0:06:18.44,0:06:21.73,Default,,0000,0000,0000,,os investigadores da Fordham pediram\Na um corretor de dados educativos Dialogue: 0,0:06:21.75,0:06:27.56,Default,,0000,0000,0000,,que lhes fornecessem uma lista\Nde raparigas dos 14 aos 15 anos Dialogue: 0,0:06:27.58,0:06:31.10,Default,,0000,0000,0000,,que estivessem interessadas\Nem serviços de planeamento familiar. Dialogue: 0,0:06:32.21,0:06:34.83,Default,,0000,0000,0000,,O corretor aceitou fornecer a lista. Dialogue: 0,0:06:34.88,0:06:38.23,Default,,0000,0000,0000,,Por isso imaginem\No quão íntimo e intrusivo Dialogue: 0,0:06:38.25,0:06:40.43,Default,,0000,0000,0000,,isto é para os nossos filhos. Dialogue: 0,0:06:40.83,0:06:44.89,Default,,0000,0000,0000,,Mas os corretores de dados educativos\Nsão apenas um exemplo. Dialogue: 0,0:06:44.93,0:06:47.56,Default,,0000,0000,0000,,A verdade é que os nossos filhos\Nestão a ter perfis Dialogue: 0,0:06:47.56,0:06:49.71,Default,,0000,0000,0000,,de maneiras que não conseguimos controlar Dialogue: 0,0:06:49.74,0:06:53.86,Default,,0000,0000,0000,,e que podem ter um impacto significativo \Nnas suas oportunidades na vida. Dialogue: 0,0:06:54.17,0:06:57.35,Default,,0000,0000,0000,,Por isso, precisamos de perguntar: Dialogue: 0,0:06:57.72,0:07:02.35,Default,,0000,0000,0000,,podemos confiar nestas tecnologias \Npara traçarem os perfis dos nossos filhos? Dialogue: 0,0:07:02.50,0:07:03.82,Default,,0000,0000,0000,,Podemos? Dialogue: 0,0:07:05.71,0:07:07.37,Default,,0000,0000,0000,,A minha resposta é não. Dialogue: 0,0:07:07.79,0:07:09.15,Default,,0000,0000,0000,,Como antropóloga, Dialogue: 0,0:07:09.17,0:07:13.03,Default,,0000,0000,0000,,eu acredito que a inteligência artificial \Ne a análise preditiva podem ser ótimas Dialogue: 0,0:07:13.04,0:07:15.15,Default,,0000,0000,0000,,para prever o decorrer de uma doença Dialogue: 0,0:07:15.20,0:07:17.75,Default,,0000,0000,0000,,ou para lutar contra \Na alteração climática. Dialogue: 0,0:07:18.00,0:07:20.03,Default,,0000,0000,0000,,Mas precisamos de abandonar a convicção Dialogue: 0,0:07:20.05,0:07:23.35,Default,,0000,0000,0000,,de que estas tecnologias podem traçar\Nobjetivamente perfis das pessoas Dialogue: 0,0:07:23.38,0:07:24.90,Default,,0000,0000,0000,,e de que podemos contar com elas Dialogue: 0,0:07:24.92,0:07:26.95,Default,,0000,0000,0000,,para tomarem decisões\Norientadas por dados Dialogue: 0,0:07:26.99,0:07:28.61,Default,,0000,0000,0000,,sobre vidas individuais. Dialogue: 0,0:07:28.65,0:07:31.42,Default,,0000,0000,0000,,Porque elas não conseguem\Ntraçar perfis das pessoas. Dialogue: 0,0:07:31.44,0:07:34.07,Default,,0000,0000,0000,,Os rastreios de dados não são \Num espelho do quem somos. Dialogue: 0,0:07:34.46,0:07:36.78,Default,,0000,0000,0000,,Os seres humanos pensam\Numa coisa e dizem outra, Dialogue: 0,0:07:36.82,0:07:39.37,Default,,0000,0000,0000,,sentem-se de uma maneira \Ne agem de maneira diferente. Dialogue: 0,0:07:39.38,0:07:42.18,Default,,0000,0000,0000,,As previsões algorítmicas\Ne as nossas práticas digitais Dialogue: 0,0:07:42.18,0:07:46.81,Default,,0000,0000,0000,,não têm em conta a imprevisibilidade \Ne a complexidade da experiência humana. Dialogue: 0,0:07:48.42,0:07:49.98,Default,,0000,0000,0000,,Mas além disso, Dialogue: 0,0:07:50.00,0:07:52.68,Default,,0000,0000,0000,,essas tecnologias são sempre, Dialogue: 0,0:07:52.71,0:07:53.98,Default,,0000,0000,0000,,sempre, Dialogue: 0,0:07:54.00,0:07:56.43,Default,,0000,0000,0000,,de uma maneira ou outra, tendenciosas. Dialogue: 0,0:07:57.12,0:08:02.18,Default,,0000,0000,0000,,Os algoritmos são, por definição, \Nconjuntos de regras ou passos Dialogue: 0,0:08:02.21,0:08:05.92,Default,,0000,0000,0000,,que foram concebidos para alcançar \Num resultado específico, OK? Dialogue: 0,0:08:06.83,0:08:09.86,Default,,0000,0000,0000,,Mas estes conjuntos de regras ou passos\Nnão podem ser objetivos, Dialogue: 0,0:08:09.87,0:08:11.100,Default,,0000,0000,0000,,porque foram concebidos\Npor seres humanos Dialogue: 0,0:08:12.01,0:08:13.99,Default,,0000,0000,0000,,dentro de um contexto cultural específico Dialogue: 0,0:08:14.01,0:08:16.61,Default,,0000,0000,0000,,e são modelados\Npor valores culturais específicos. Dialogue: 0,0:08:16.67,0:08:18.87,Default,,0000,0000,0000,,Por isso quando as máquinas aprendem, Dialogue: 0,0:08:18.90,0:08:21.28,Default,,0000,0000,0000,,aprendem a partir de algoritmos parciais, Dialogue: 0,0:08:21.62,0:08:25.07,Default,,0000,0000,0000,,e muitas vezes aprendem também\Na partir de bases de dados parciais. Dialogue: 0,0:08:25.83,0:08:29.56,Default,,0000,0000,0000,,De momento, estamos a ver os primeiros\Nexemplos de viés algorítmico. Dialogue: 0,0:08:29.71,0:08:33.49,Default,,0000,0000,0000,,E alguns destes exemplos\Nsão francamente aterradores. Dialogue: 0,0:08:34.50,0:08:38.56,Default,,0000,0000,0000,,Este ano, o AI Now Institute\Nem Nova Iorque publicou um relatório Dialogue: 0,0:08:38.59,0:08:41.25,Default,,0000,0000,0000,,que revelou que as tecnologias de IA Dialogue: 0,0:08:41.26,0:08:44.48,Default,,0000,0000,0000,,que estão a ser utilizadas\Npara policiamento preditivo Dialogue: 0,0:08:44.50,0:08:48.28,Default,,0000,0000,0000,,foram treinadas com base em dados "sujos". Dialogue: 0,0:08:48.33,0:08:51.23,Default,,0000,0000,0000,,Ou seja, basicamente dados\Nque foram reunidos Dialogue: 0,0:08:51.25,0:08:55.43,Default,,0000,0000,0000,,durante períodos históricos conhecidos\Npelos preconceitos raciais Dialogue: 0,0:08:55.46,0:08:58.47,Default,,0000,0000,0000,,e por práticas policiais \Npouco transparentes. Dialogue: 0,0:08:58.54,0:09:02.60,Default,,0000,0000,0000,,Como estas tecnologias estão\Na ser treinadas com dados sujos, Dialogue: 0,0:09:02.62,0:09:04.12,Default,,0000,0000,0000,,não são objetivas, Dialogue: 0,0:09:04.15,0:09:08.60,Default,,0000,0000,0000,,e os resultados estão apenas\Na amplificar e a perpetrar Dialogue: 0,0:09:08.62,0:09:11.08,Default,,0000,0000,0000,,preconceitos policiais e erros. Dialogue: 0,0:09:13.17,0:09:16.31,Default,,0000,0000,0000,,Por isso, eu acho que estamos a enfrentar\Num problema fundamental Dialogue: 0,0:09:16.33,0:09:18.17,Default,,0000,0000,0000,,na nossa sociedade. Dialogue: 0,0:09:18.18,0:09:20.82,Default,,0000,0000,0000,,Estamos a começar a confiar\Nem tecnologias Dialogue: 0,0:09:20.84,0:09:23.75,Default,,0000,0000,0000,,no que toca a traçar perfis\Nde seres humanos. Dialogue: 0,0:09:23.78,0:09:26.30,Default,,0000,0000,0000,,Sabemos que,\Nao traçarem perfis de pessoas, Dialogue: 0,0:09:26.34,0:09:29.10,Default,,0000,0000,0000,,estas tecnologias vão ser\Nsempre tendenciosas Dialogue: 0,0:09:29.12,0:09:31.53,Default,,0000,0000,0000,,e nunca vão ser exatas. Dialogue: 0,0:09:31.88,0:09:34.81,Default,,0000,0000,0000,,Por isso, precisamos agora \Nde uma solução política. Dialogue: 0,0:09:34.84,0:09:37.15,Default,,0000,0000,0000,,Precisamos que os governos reconheçam Dialogue: 0,0:09:37.18,0:09:40.63,Default,,0000,0000,0000,,que os nossos direitos de dados\Nsão os nossos direitos humanos. Dialogue: 0,0:09:40.72,0:09:44.38,Default,,0000,0000,0000,,(Aplausos) Dialogue: 0,0:09:47.83,0:09:52.14,Default,,0000,0000,0000,,Enquanto isto não acontecer, não podemos\Nter esperança de um futuro mais justo. Dialogue: 0,0:09:52.83,0:09:55.72,Default,,0000,0000,0000,,Eu preocupo-me que as minhas filhas \Nsejam expostas Dialogue: 0,0:09:55.76,0:09:59.27,Default,,0000,0000,0000,,a todo o tipo de discriminação \Ne de erros algorítmicos. Dialogue: 0,0:09:59.35,0:10:01.64,Default,,0000,0000,0000,,A diferença entre mim e as minhas filhas Dialogue: 0,0:10:01.67,0:10:04.85,Default,,0000,0000,0000,,é que não há nenhum registo público\Nda minha infância. Dialogue: 0,0:10:04.98,0:10:08.89,Default,,0000,0000,0000,,Certamente não há nenhuma base de dados \Ncom todas as coisas estúpidas que fiz Dialogue: 0,0:10:08.92,0:10:11.26,Default,,0000,0000,0000,,e que pensei quando era adolescente. Dialogue: 0,0:10:11.33,0:10:13.05,Default,,0000,0000,0000,,(Risos) Dialogue: 0,0:10:13.83,0:10:16.98,Default,,0000,0000,0000,,Mas para as minhas filhas \Nisso pode ser diferente. Dialogue: 0,0:10:17.29,0:10:20.25,Default,,0000,0000,0000,,Os dados delas que estão \Na ser reunidos hoje Dialogue: 0,0:10:20.50,0:10:24.10,Default,,0000,0000,0000,,podem ser utilizados\Npara julgá-las no futuro Dialogue: 0,0:10:24.33,0:10:27.75,Default,,0000,0000,0000,,e podem impedir\Nos sonhos e esperanças delas. Dialogue: 0,0:10:28.58,0:10:30.16,Default,,0000,0000,0000,,Eu acho que está na hora, Dialogue: 0,0:10:30.22,0:10:31.74,Default,,0000,0000,0000,,está na hora de avançar. Dialogue: 0,0:10:31.77,0:10:34.08,Default,,0000,0000,0000,,Está na hora de começarmos\Na trabalhar juntos Dialogue: 0,0:10:34.08,0:10:35.74,Default,,0000,0000,0000,,como indivíduos, Dialogue: 0,0:10:35.81,0:10:38.20,Default,,0000,0000,0000,,como organizações e como instituições, Dialogue: 0,0:10:38.24,0:10:41.18,Default,,0000,0000,0000,,e exigir maior justiça de dados para nós Dialogue: 0,0:10:41.21,0:10:42.70,Default,,0000,0000,0000,,e para os nossos filhos Dialogue: 0,0:10:42.74,0:10:44.25,Default,,0000,0000,0000,,antes que seja tarde de mais. Dialogue: 0,0:10:44.30,0:10:45.69,Default,,0000,0000,0000,,Obrigada. Dialogue: 0,0:10:45.72,0:10:47.67,Default,,0000,0000,0000,,(Aplausos)