0:00:00.684,0:00:03.060 Algoritmos não são objetos. 0:00:03.341,0:00:07.253 IA e todas essas novas tecnologias [br]estão disseminando preconceito. 0:00:07.253,0:00:09.580 Eles são preveem o futuro, [br]eles fazem o futuro. 0:00:14.247,0:00:17.197 Continuando a conversa:[br]O dilema da descriminação 0:00:19.563,0:00:24.073 Eu já gastei muito do meu tempo[br]pensando sobre preconceito, 0:00:24.179,0:00:26.046 mas eu sou assim mesmo. 0:00:26.161,0:00:28.771 E também, a falta de conhecimento 0:00:28.771,0:00:30.999 do governo para entender esses problemas 0:00:30.999,0:00:34.336 resulta na falta de regulamento[br]e leis que realmente ajudariam 0:00:34.336,0:00:37.915 a minimizar alguns dos problemas [br]que já identificamos por meio da IA. 0:00:38.191,0:00:40.835 Algoritmos não são objetos. 0:00:41.185,0:00:44.965 Algoritmos são otimizados[br]para alcançarem algum tipo de sucesso. 0:00:44.965,0:00:48.965 Utilizam de dados históricos[br]para prever um futuro prospero. 0:00:48.965,0:00:51.419 As pessoas acreditam cegamente[br] 0:00:51.419,0:00:54.183 que algoritmos são justos[br]e objetivos por natureza 0:00:54.183,0:00:57.173 e, parcialmente, porque eles [br]acreditam nessa lealdade, 0:00:57.173,0:00:58.815 eles não questionam o algoritmo. 0:00:58.815,0:01:02.815 Então quando o algoritmo acaba [br]sendo racista como os dados 0:01:02.815,0:01:04.015 que inserimos nele, 0:01:04.015,0:01:08.632 ele reproduz exatamente os padrões[br]que gostaríamos de poder superar. 0:01:09.322,0:01:13.092 Os sistemas estão inserindo toneladas[br]de informações sem contexto, 0:01:13.092,0:01:16.242 sem a história, e até mesmo [br]sem as questões políticas, 0:01:16.242,0:01:17.352 econômicas e sociais, 0:01:17.352,0:01:22.241 então você tem uma alta[br]probabilidade de um sistema de IA 0:01:22.241,0:01:26.241 que incorpora esses preconceitos [br]ou até os deixa piores. 0:01:26.402,0:01:28.452 Existe quatro tipos de algoritmos 0:01:28.452,0:01:31.279 que acredito que estejam[br]sendo mal utilizados 0:01:31.279,0:01:35.341 e isso poderia causar [br]sérios danos à sociedade. 0:01:35.341,0:01:37.051 As quatro categorias são: 0:01:37.051,0:01:37.976 Financeiro. 0:01:37.976,0:01:39.772 São algoritmos que decidem 0:01:39.772,0:01:42.432 se as pessoas irão adquirir [br]seguro e por quanto... 0:01:42.432,0:01:43.950 um bom cartão de crédito... 0:01:43.950,0:01:44.660 hipotecas... 0:01:44.660,0:01:45.830 conseguir moradia... 0:01:45.830,0:01:48.000 Se você abrir um [br]site de cartão de crédito, 0:01:48.000,0:01:50.698 você não vai obter [br]informações sobre cartões de crédito. 0:01:50.698,0:01:53.938 Você é mensurado e avaliado, 0:01:53.938,0:01:57.448 e eles é quem te mostram qual é o cartão[br]que eles acham que você merece. 0:01:57.448,0:02:00.393 A segunda categoria[br]é relacionada à liberdade. 0:02:00.393,0:02:01.813 Como você é fiscalizado? 0:02:01.813,0:02:03.447 Há quanto tempo você vai à prisão? 0:02:03.447,0:02:05.737 Você ficou preso durante à[br]espera por julgamento? 0:02:05.737,0:02:08.167 A terceira categoria é[br]material de subsitência: 0:02:08.167,0:02:09.401 seu trabalho. 0:02:09.401,0:02:11.941 Você faz entrevista para[br]o trabalho que se inscreve? 0:02:11.941,0:02:12.779 Consegue o vaga? 0:02:13.269,0:02:14.209 Você ganha aumento? 0:02:14.427,0:02:16.087 Em que horário você trabalha? 0:02:16.802,0:02:19.920 Um exemplo que chamou[br]muito a atenção da mídia 0:02:19.920,0:02:21.437 foi um algoritmo de contratação 0:02:21.437,0:02:25.460 que desproporcionalmente favoreceu[br]indivíduos que se chamavam Jared 0:02:25.460,0:02:26.950 e que jogavam lacrosse porque 0:02:26.950,0:02:30.470 a maioria dos indivíduos que tinha [br]um bom desempenho naquela empresa 0:02:30.470,0:02:32.590 tinham esses dois fatos em comum. 0:02:33.004,0:02:35.979 E a quarta categoria é a informação em sí. 0:02:35.979,0:02:37.421 Como conseguimos informação? 0:02:37.421,0:02:38.391 No que acreditamos? 0:02:38.391,0:02:40.291 Informação política, principalmente. 0:02:40.433,0:02:42.353 Tossas essas coisas são[br]algoritmos agora. 0:02:42.353,0:02:44.145 E frequentemente eles são injustos. 0:02:44.145,0:02:45.615 E frequentemente ilegais. 0:02:45.615,0:02:49.916 Mas não descobrimos como aplicar [br]nossas leis de antidiscriminação. 0:02:49.916,0:02:53.463 A distopia que me preocupa é de 0:02:53.463,0:02:58.543 não colocarmos um freio[br]no obscuro e perigoso algoritmo. 0:02:58.543,0:03:00.693 "Ei, nos rastreamos você[br]desde o nascimento. 0:03:00.693,0:03:02.233 Percebemos que você... 0:03:02.233,0:03:03.333 teve um infância pobre, 0:03:03.333,0:03:06.003 em um bairro onde muitas[br]pessoas não atingiram o sucesso. 0:03:06.003,0:03:06.761 E... 0:03:07.297,0:03:09.707 Vamos prever que você[br]não irá alcançar o sucesso. 0:03:09.707,0:03:11.604 Não somente vamos prever isso, 0:03:11.604,0:03:13.822 vamos garantir que[br]você não consiga o sucesso." 0:03:13.822,0:03:15.562 Você não vai para [br]uma boa faculdade. 0:03:15.562,0:03:16.520 Nem um bom trabalho. 0:03:16.520,0:03:17.710 E nem um bom empréstimo. 0:03:17.710,0:03:19.890 Porque é isso que[br]algoritmos fazem, realmente 0:03:19.890,0:03:22.610 Eles não preveem o futuro. [br]Eles fazem o futuro.