WEBVTT 00:00:13.781 --> 00:00:16.915 Olá, meu nome é Joy, sou uma "poeta dos códigos", 00:00:16.939 --> 00:00:21.932 e minha missão é deter uma força invisível e que tem crescido, 00:00:21.956 --> 00:00:24.812 uma força que chamo de "olhar codificado", 00:00:24.836 --> 00:00:28.145 minha forma de chamar o viés algorítmico. 00:00:28.169 --> 00:00:32.469 Tal como o preconceito humano, ele resulta em desigualdade. 00:00:32.493 --> 00:00:35.299 Porém, os algoritmos, assim como os vírus, 00:00:35.329 --> 00:00:40.121 podem espalhar o viés em grande escala e rapidamente. 00:00:40.683 --> 00:00:45.070 O viés algorítmico também pode levar a experiências de exclusão 00:00:45.094 --> 00:00:47.222 e a práticas discriminatórias. 00:00:47.246 --> 00:00:49.307 Vou mostrar o que quero dizer. 00:00:50.060 --> 00:00:52.326 (Vídeo) Joy Boulamwini: Oi, câmera. Tenho um rosto. 00:00:53.062 --> 00:00:54.766 Consegue ver meu rosto? 00:00:55.071 --> 00:00:56.876 Um rosto sem óculos? 00:00:58.351 --> 00:01:00.275 Você consegue ver o rosto dela... 00:01:00.847 --> 00:01:02.642 E o meu? 00:01:06.619 --> 00:01:10.179 Estou usando uma máscara. Consegue vê-la? 00:01:11.814 --> 00:01:14.119 Joy Boulamwini: Como isso aconteceu? 00:01:14.133 --> 00:01:18.794 Por que estou diante de um computador, usando uma máscara branca, 00:01:18.824 --> 00:01:22.196 tentando ser detectada por uma câmera barata? 00:01:22.220 --> 00:01:24.781 Bom, quando não estou lutando contra o olhar codificado 00:01:24.805 --> 00:01:26.325 como poeta dos códigos, 00:01:26.349 --> 00:01:29.621 faço pós-graduação no Laboratório de Mídia do MIT, 00:01:29.645 --> 00:01:34.562 onde tenho a oportunidade de trabalhar em diversos projetos bacanas, 00:01:34.576 --> 00:01:36.613 inclusive o "Aspire Mirror", 00:01:36.637 --> 00:01:41.771 projeto que criei para poder projetar máscaras digitais sobre meu reflexo. 00:01:41.795 --> 00:01:45.395 De manhã, se eu quisesse me sentir poderosa, poderia usar uma de leão. 00:01:45.407 --> 00:01:49.123 Se precisasse de uma inspiração, usaria uma citação. 00:01:49.147 --> 00:01:52.136 Então, usei um software genérico de reconhecimento facial 00:01:52.160 --> 00:01:53.511 para criar o sistema, 00:01:53.535 --> 00:01:58.638 mas descobri que era bem difícil testá-lo, a não ser que usasse uma máscara branca. 00:01:59.622 --> 00:02:03.968 Infelizmente, já tive esse problema antes. 00:02:03.992 --> 00:02:08.294 Quando cursava minha graduação em ciência da computação na Georgia Tech, 00:02:08.318 --> 00:02:10.374 eu trabalhava com robôs sociais, 00:02:10.398 --> 00:02:14.175 e uma das minhas tarefas era fazer com que um robô brincasse de "Achou!", 00:02:14.199 --> 00:02:16.052 um jogo simples de revezamento 00:02:16.072 --> 00:02:20.537 em que uma pessoa cobre o rosto e depois o mostra à outra, dizendo: "Achou!" 00:02:20.557 --> 00:02:25.000 O problema é que a brincadeira não dá certo se você não vê o outro, 00:02:25.020 --> 00:02:27.443 e meu robô não me via. 00:02:27.467 --> 00:02:31.487 Aí, peguei emprestado o rosto de uma amiga para fazer o projeto, 00:02:31.507 --> 00:02:32.941 entreguei a tarefa 00:02:32.951 --> 00:02:36.358 e pensei: "Sabe de uma coisa? Outra pessoa vai resolver esse problema". 00:02:37.369 --> 00:02:39.262 Não muito tempo depois, 00:02:39.292 --> 00:02:43.195 eu estava em Hong Kong, em uma competição de empreendedorismo. 00:02:43.929 --> 00:02:46.753 Os organizadores decidiram levar os participantes 00:02:46.783 --> 00:02:49.039 pra visitar "start-ups" locais. 00:02:49.059 --> 00:02:53.678 Uma das start-ups tinha um robô social, e eles decidiram fazer uma demonstração. 00:02:53.688 --> 00:02:55.412 A demonstração funcionou com todos, 00:02:55.442 --> 00:02:58.665 até que chegou a minha vez e, como vocês já podem imaginar, 00:02:58.685 --> 00:03:01.704 ele não detectou meu rosto. 00:03:01.724 --> 00:03:04.139 Perguntei aos desenvolvedores por quê, 00:03:04.149 --> 00:03:09.726 e descobri que usaram o mesmo software genérico de reconhecimento facial que eu. 00:03:09.746 --> 00:03:13.580 Do outro lado do mundo, descobri que o viés algorítmico 00:03:13.590 --> 00:03:18.510 consegue viajar tão rápido quanto um download da internet. 00:03:19.165 --> 00:03:22.501 O que estava acontecendo? Por que meu rosto não era detectado? 00:03:22.511 --> 00:03:25.861 Bem, precisamos analisar como damos "visão" às máquinas. 00:03:25.881 --> 00:03:29.304 A visão de computador utiliza técnicas de aprendizagem automática 00:03:29.334 --> 00:03:31.098 para fazer o reconhecimento facial. 00:03:31.118 --> 00:03:34.939 Funciona assim: você cria uma série de treinamento, com alguns rostos. 00:03:34.959 --> 00:03:37.851 "Isto é um rosto. Isto é um rosto. Isto não é um rosto." 00:03:37.871 --> 00:03:42.184 Com o tempo, você ensina o computador a reconhecer outros rostos. 00:03:42.558 --> 00:03:46.547 Porém, se as séries não forem diversificadas o bastante, 00:03:46.571 --> 00:03:49.920 qualquer rosto que seja muito diferente dos demais 00:03:49.944 --> 00:03:53.593 será mais difícil de detectar, e era isso que acontecia comigo. 00:03:53.604 --> 00:03:55.986 Mas não se preocupem. Tenho boas notícias. 00:03:56.010 --> 00:03:58.781 As séries de treinamento não surgem do nada. 00:03:58.805 --> 00:04:00.593 Nós é que as criamos. 00:04:00.617 --> 00:04:04.793 Então, podemos criar séries de amplo espectro, 00:04:04.817 --> 00:04:08.641 que reflitam rostos humanos de forma mais diversa. 00:04:08.665 --> 00:04:10.886 Vocês já viram nos exemplos que dei 00:04:10.910 --> 00:04:12.678 como os robôs sociais 00:04:12.702 --> 00:04:17.313 me fizeram ver a exclusão causada pelo viés algorítmico, 00:04:17.337 --> 00:04:22.152 mas o viés algorítmico também pode acarretar práticas discriminatórias. 00:04:23.127 --> 00:04:24.580 Em todos os Estados Unidos, 00:04:24.604 --> 00:04:28.802 departamentos de polícia estão começando a usar softwares de reconhecimento facial 00:04:28.826 --> 00:04:31.285 como parte de seu arsenal na luta contra o crime. 00:04:31.309 --> 00:04:33.322 A Georgetown Law publicou um relatório 00:04:33.346 --> 00:04:40.109 mostrando que um em cada dois adultos nos EUA, ou seja, 117 milhões de pessoas, 00:04:40.133 --> 00:04:43.667 tiveram seus rostos incluídos em redes de reconhecimento facial. 00:04:43.691 --> 00:04:48.243 Hoje, os departamentos de polícia podem usar essas redes sem qualquer regulação, 00:04:48.267 --> 00:04:52.553 usando algoritmos que não tiveram sua precisão auditada. 00:04:52.577 --> 00:04:56.441 Ainda assim, sabemos que o reconhecimento facial não é infalível, 00:04:56.465 --> 00:05:00.468 e identificar rostos de forma consistente continua sendo um desafio. 00:05:00.488 --> 00:05:02.390 Talvez já tenham visto isso no Facebook. 00:05:02.404 --> 00:05:05.442 Eu e meus amigos rimos o tempo todo quando vemos outras pessoas 00:05:05.466 --> 00:05:07.924 sendo marcadas incorretamente em nossas fotos. 00:05:07.948 --> 00:05:13.539 Mas errar na identificação de um suspeito de crime não é nada engraçado, 00:05:13.563 --> 00:05:16.390 nem violar liberdades civis. 00:05:16.414 --> 00:05:19.619 A aprendizagem automática vem sendo usada no reconhecimento facial, 00:05:19.643 --> 00:05:24.148 mas também vem se expandindo além da visão de computador. 00:05:24.956 --> 00:05:28.972 Em seu livro "Weapons of Math Destruction", 00:05:28.996 --> 00:05:35.677 a cientista de dados Cathy O'Neil fala sobre a ascensão dos novos "DMDs", 00:05:35.701 --> 00:05:40.054 os algoritmos "disseminados, misteriosos e destrutivos", 00:05:40.078 --> 00:05:43.042 que têm sido cada vez mais utilizados na tomada de decisões 00:05:43.066 --> 00:05:46.243 que impactam mais aspectos das nossas vidas. 00:05:46.267 --> 00:05:48.137 Quem será contratado ou demitido? 00:05:48.161 --> 00:05:50.273 Vai conseguir aquele empréstimo, ou seguro? 00:05:50.297 --> 00:05:53.800 Vai entrar na faculdade que você queria? 00:05:53.824 --> 00:05:57.333 Eu e você pagamos o mesmo valor pelo mesmo produto 00:05:57.357 --> 00:05:59.799 vendido na mesma loja? 00:05:59.823 --> 00:06:03.582 A segurança pública também está começando a usar a aprendizagem automática 00:06:03.606 --> 00:06:05.895 no policiamento preditivo. 00:06:05.919 --> 00:06:08.773 Alguns juízes utilizam índices de risco gerados por máquinas 00:06:08.797 --> 00:06:13.839 para determinar quanto tempo um indivíduo ficará na prisão. 00:06:13.863 --> 00:06:17.447 Temos realmente que refletir sobre essas decisões. Será que são justas? 00:06:17.467 --> 00:06:23.837 E já vimos que o viés algorítmico nem sempre leva a resultados justos. 00:06:23.859 --> 00:06:25.823 Então, o que podemos fazer? 00:06:25.847 --> 00:06:29.527 Bem, podemos começar a pensar em como criar codificação mais inclusiva 00:06:29.551 --> 00:06:32.541 e adotar práticas de codificação inclusivas. 00:06:32.565 --> 00:06:34.874 Tudo começa com pessoas. 00:06:35.398 --> 00:06:37.359 Então, é importante saber quem codifica. 00:06:37.383 --> 00:06:41.502 Estamos criando equipes diversificadas, com indivíduos diferentes 00:06:41.526 --> 00:06:43.937 que possam verificar pontos cegos uns dos outros? 00:06:43.961 --> 00:06:47.506 Quanto ao aspecto técnico, a forma como codificamos é relevante. 00:06:47.530 --> 00:06:51.181 Estamos levando em conta a equidade no desenvolvimento de sistemas? 00:06:51.205 --> 00:06:54.118 Finalmente, a razão pela qual codificamos é relevante. 00:06:54.475 --> 00:06:59.558 Utilizamos ferramentas de criação computacional para gerar imensas riquezas. 00:06:59.582 --> 00:07:04.029 Hoje temos a oportunidade de gerar igualdade ainda maior, 00:07:04.053 --> 00:07:06.983 se considerarmos a mudança social como uma prioridade 00:07:07.007 --> 00:07:09.177 e não como algo de menos importância. 00:07:09.698 --> 00:07:14.220 Esses são os três princípios na criação do movimento pela codificação inclusiva. 00:07:14.244 --> 00:07:15.896 É importante quem codifica, 00:07:15.920 --> 00:07:17.463 é importante como se codifica 00:07:17.487 --> 00:07:19.510 e é importante por que se codifica. 00:07:19.534 --> 00:07:22.543 Então, para uma codificação inclusiva, podemos começar a pensar 00:07:22.557 --> 00:07:25.681 na criação de plataformas que identifiquem o viés, 00:07:25.705 --> 00:07:28.923 coletando as experiências das pessoas, como as que eu contei aqui, 00:07:28.947 --> 00:07:32.017 mas também auditando softwares já existentes. 00:07:32.041 --> 00:07:35.806 Também podemos começar a criar séries de treinamento mais inclusivas. 00:07:35.830 --> 00:07:38.633 Imaginem uma campanha de "'Selfies' pela Inclusão", 00:07:38.657 --> 00:07:41.526 em que eu e vocês possamos ajudar os desenvolvedores a testar 00:07:41.526 --> 00:07:44.429 e criar séries de treinamento mais inclusivas. 00:07:44.992 --> 00:07:47.820 Também podemos começar a pensar de forma mais consciente 00:07:47.844 --> 00:07:53.099 sobre o impacto social das tecnologias que temos desenvolvido. 00:07:53.119 --> 00:07:55.652 Para iniciarmos o movimento de codificação inclusiva 00:07:55.676 --> 00:07:58.523 lancei a Liga da Justiça Algorítmica, 00:07:58.547 --> 00:08:04.419 onde todos que se importem com a equidade podem lutar contra o olhar codificado. 00:08:04.443 --> 00:08:07.739 Em codedgaze.com, vocês podem relatar vieses, 00:08:07.763 --> 00:08:10.208 solicitar auditorias, participar dos testes 00:08:10.232 --> 00:08:13.003 e se juntar ao debate que vem ocorrendo, 00:08:13.027 --> 00:08:15.314 #codedgaze. 00:08:16.432 --> 00:08:18.919 Convido vocês a se juntarem a mim 00:08:18.943 --> 00:08:22.662 na criação de um mundo onde a tecnologia trabalhe em favor de todos, 00:08:22.686 --> 00:08:24.583 não apenas em favor de alguns. 00:08:24.607 --> 00:08:29.445 Um mundo onde valorizemos a inclusão e tenhamos a mudança social como foco. 00:08:29.445 --> 00:08:30.634 Obrigada. 00:08:30.634 --> 00:08:33.542 (Aplausos) 00:08:41.454 --> 00:08:44.289 Mas tenho uma pergunta: 00:08:44.309 --> 00:08:46.368 Vocês vão se juntar a mim nessa luta? 00:08:46.388 --> 00:08:47.652 (Risos) 00:08:47.682 --> 00:08:49.569 (Aplausos)