WEBVTT 00:00:01.041 --> 00:00:04.175 Olá, sou Joy, uma "poetisa dos códigos", 00:00:04.199 --> 00:00:09.192 a minha missão é deter uma força invisível que tem crescido, 00:00:09.216 --> 00:00:12.072 uma força que chamo de "olhar codificado", 00:00:12.096 --> 00:00:15.405 é como chamo o viés algorítmico. NOTE Paragraph 00:00:15.429 --> 00:00:19.729 Tal como o preconceito humano, ele resulta em desigualdade. 00:00:19.753 --> 00:00:22.439 Porém, os algoritmos, assim como os vírus, 00:00:22.459 --> 00:00:27.381 podem espalhar o viés em grande escala e rapidamente. 00:00:27.943 --> 00:00:32.330 O viés algorítmico também pode levar a experiências de exclusão 00:00:32.354 --> 00:00:34.482 e a práticas discriminatórias. 00:00:34.506 --> 00:00:36.567 Vou mostrar o que quero dizer. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (Vídeo) Joy Boulamwini: Oi, câmera. Tenho um rosto. 00:00:40.162 --> 00:00:42.026 Consegue ver meu rosto? 00:00:42.051 --> 00:00:43.676 Um rosto sem óculos? 00:00:43.701 --> 00:00:45.915 Você consegue ver o rosto dela... 00:00:46.237 --> 00:00:48.147 E o meu? 00:00:51.890 --> 00:00:55.640 Estou usando uma máscara. Consegue vê-la? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 Joy Boulamwini: Como isso aconteceu? 00:00:58.863 --> 00:01:03.454 Por que estou diante de um computador, usando uma máscara branca, 00:01:03.484 --> 00:01:06.856 tentando ser detectada por uma câmera barata? 00:01:06.860 --> 00:01:09.441 Bom, quando não estou lutando contra o olhar codificado 00:01:09.465 --> 00:01:10.985 como uma poetisa dos códigos, 00:01:11.009 --> 00:01:14.281 faço pós-graduação no Laboratório de Mídia do MIT, 00:01:14.305 --> 00:01:19.222 na qual tenho a oportunidade de trabalhar em diversos projetos bacanas, 00:01:19.236 --> 00:01:21.273 inclusive no "Aspire Mirror", 00:01:21.297 --> 00:01:26.431 projeto que criei para poder projetar máscaras digitais sobre minha imagem. 00:01:26.455 --> 00:01:30.055 De manhã, se eu quisesse me sentir poderosa, poderia usar uma de leão. 00:01:30.067 --> 00:01:33.783 Se precisasse de uma inspiração, usaria uma citação. 00:01:33.807 --> 00:01:36.796 Então, usei um software genérico de reconhecimento facial 00:01:36.820 --> 00:01:38.171 para criar o sistema, 00:01:38.195 --> 00:01:43.298 mas descobri que era bem difícil testá-lo, a não ser que usasse uma máscara branca. NOTE Paragraph 00:01:44.282 --> 00:01:48.628 Infelizmente, já tive esse problema antes. 00:01:48.652 --> 00:01:52.955 Quando cursava minha graduação em ciência da computação na Georgia Tech, 00:01:52.979 --> 00:01:55.034 eu trabalhava com robôs sociais, 00:01:55.058 --> 00:01:58.835 e uma das minhas tarefas era fazer com que um robô brincasse de "Achou!", 00:01:58.859 --> 00:02:00.542 um jogo simples de revezamento 00:02:00.566 --> 00:02:04.887 em que uma pessoa cobre o rosto e depois o mostra à outra, dizendo: "Achou!" 00:02:04.911 --> 00:02:09.340 O problema é que a brincadeira não dá certo se você não vê o outro, 00:02:09.364 --> 00:02:11.863 e meu robô não me via. 00:02:11.887 --> 00:02:15.837 Aí, peguei emprestado o rosto de uma amiga para fazer o projeto, 00:02:15.861 --> 00:02:17.241 entreguei a tarefa 00:02:17.265 --> 00:02:21.018 e pensei: "Sabe de uma coisa? Outra pessoa vai resolver esse problema". NOTE Paragraph 00:02:21.669 --> 00:02:23.672 Pouco tempo depois, 00:02:23.696 --> 00:02:27.855 eu estava em Hong Kong, numa competição de empreendedorismo. 00:02:28.339 --> 00:02:31.033 Os organizadores decidiram levar os participantes 00:02:31.057 --> 00:02:33.429 pra visitar "start-ups" locais. 00:02:33.453 --> 00:02:37.958 Uma das start-ups tinha um robô social, e eles decidiram fazer uma demonstração. 00:02:37.968 --> 00:02:39.822 A demonstração funcionou com todos, 00:02:39.832 --> 00:02:43.055 até que chegou a minha vez e, como vocês já podem imaginar, 00:02:43.079 --> 00:02:46.044 ele não detectou meu rosto. 00:02:46.068 --> 00:02:48.579 Perguntei aos desenvolvedores por quê, 00:02:48.603 --> 00:02:54.106 e descobri que usaram o mesmo software genérico de reconhecimento facial que eu. 00:02:54.124 --> 00:02:57.800 Do outro lado do mundo, descobri que o viés algorítmico 00:02:57.810 --> 00:03:02.880 consegue viajar tão rápido quanto um download da internet. NOTE Paragraph 00:03:03.615 --> 00:03:06.821 O que estava acontecendo? Por que meu rosto não era detectado? 00:03:06.845 --> 00:03:10.201 Bem, precisamos analisar como damos "visão" às máquinas. 00:03:10.225 --> 00:03:13.634 A visão de computador utiliza técnicas de aprendizagem automática 00:03:13.658 --> 00:03:15.538 para fazer o reconhecimento facial. 00:03:15.562 --> 00:03:19.459 Funciona assim: você cria uma série de treinamento, com alguns rostos. 00:03:19.483 --> 00:03:22.301 "Isto é um rosto. Isto é um isto. Isto não é um rosto." 00:03:22.325 --> 00:03:26.844 Com o tempo, você ensina o computador a reconhecer outros rostos. 00:03:26.868 --> 00:03:30.857 Porém, se as séries não forem diversificadas o bastante, 00:03:30.881 --> 00:03:34.230 qualquer rosto que seja muito diferente dos demais 00:03:34.254 --> 00:03:37.903 será mais difícil de detectar, e era isso que acontecia comigo. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 Mas não se preocupem. Tenho boas notícias. 00:03:40.320 --> 00:03:43.091 As séries de treinamento não surgem do nada. 00:03:43.115 --> 00:03:44.903 Nós é que as criamos. 00:03:44.927 --> 00:03:49.103 Então, podemos criar séries de amplo espectro, 00:03:49.127 --> 00:03:52.951 que reflitam rostos humanos de forma mais diversa. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 Vocês já viram nos exemplos que dei 00:03:55.220 --> 00:03:56.988 como os robôs sociais 00:03:57.012 --> 00:04:01.623 me fizeram ver a exclusão causada pelo viés algorítmico, 00:04:01.647 --> 00:04:06.462 mas o viés algorítmico também pode acarretar práticas discriminatórias. 00:04:07.437 --> 00:04:08.890 Em todos os Estados Unidos, 00:04:08.914 --> 00:04:13.112 departamentos de polícia estão começando a usar softwares de reconhecimento facial 00:04:13.136 --> 00:04:15.595 como parte de seu arsenal na luta contra o crime. 00:04:15.619 --> 00:04:17.632 A Georgetown Law publicou um relatório 00:04:17.656 --> 00:04:24.419 mostrando que um em cada dois adultos nos EUA, ou seja, 117 milhões de pessoas, 00:04:24.443 --> 00:04:27.977 tiveram seus rostos incluídos em redes de reconhecimento facial. 00:04:28.001 --> 00:04:32.553 Hoje, os departamentos de polícia podem usar essas redes sem qualquer regulação, 00:04:32.577 --> 00:04:36.863 usando algoritmos que não tiveram sua precisão auditada. 00:04:36.887 --> 00:04:40.751 Ainda assim, sabemos que o reconhecimento facial não é infalível, 00:04:40.775 --> 00:04:44.778 e identificar rostos de forma consistente continua sendo um desafio. 00:04:44.798 --> 00:04:46.710 Talvez já tenham visto isso no Facebook. 00:04:46.734 --> 00:04:49.752 Eu e meus amigos rimos o tempo todo quando vemos outras pessoas 00:04:49.776 --> 00:04:52.234 sendo marcadas incorretamente em nossas fotos. 00:04:52.258 --> 00:04:57.849 Mas errar na identificação de um suspeito de crime não é nada engraçado, 00:04:57.873 --> 00:05:00.700 nem violar liberdades civis. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 A aprendizagem automática vem sendo usada no reconhecimento facial, 00:05:03.953 --> 00:05:08.458 mas também vem se expandindo além da visão de computador. 00:05:09.266 --> 00:05:13.282 Em seu livro "Weapons of Math Destruction", 00:05:13.306 --> 00:05:19.987 a cientista de dados Cathy O'Neil fala sobre a ascensão dos novos "DMDs" 00:05:20.011 --> 00:05:24.364 algoritmos "disseminados, misteriosos e destrutivos" 00:05:24.388 --> 00:05:27.352 que têm sido cada vez mais utilizados na tomada de decisões 00:05:27.376 --> 00:05:30.553 que impactam mais aspectos das nossas vidas. 00:05:30.577 --> 00:05:32.447 Quem será contratado ou demitido? 00:05:32.471 --> 00:05:34.583 Vai conseguir aquele empréstimo, ou seguro? 00:05:34.607 --> 00:05:38.110 Vai entrar na faculdade que você queria? 00:05:38.134 --> 00:05:41.643 Eu e você pagamos o mesmo valor pelo mesmo produto 00:05:41.667 --> 00:05:44.109 vendido na mesma loja? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 A segurança pública também está começando a usar a aprendizagem automática 00:05:47.916 --> 00:05:50.205 no policiamento preditivo. 00:05:50.229 --> 00:05:53.083 Alguns juízes utilizam índices de risco gerados por máquinas 00:05:53.107 --> 00:05:58.149 para determinar quanto tempo um indivíduo ficará na prisão. 00:05:58.173 --> 00:06:01.757 Temos realmente que refletir sobre essas decisões. Será que são justas? 00:06:01.777 --> 00:06:08.147 E já vimos que o viés algorítmico nem sempre leva a resultados justos. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 Então, o que podemos fazer? 00:06:10.157 --> 00:06:13.837 Bem, podemos começar a pensar em como criar codificação mais inclusiva 00:06:13.861 --> 00:06:16.851 e adotar práticas de codificação inclusivas. 00:06:16.875 --> 00:06:19.184 Tudo começa com pessoas. 00:06:19.708 --> 00:06:21.669 Então, é importante saber quem codifica. 00:06:21.693 --> 00:06:25.812 Estamos criando equipes diversificadas, com indivíduos diferentes 00:06:25.836 --> 00:06:28.247 que possam verificar pontos cegos uns dos outros? 00:06:28.271 --> 00:06:31.816 Quanto ao aspecto técnico, a forma como codificamos é relevante. 00:06:31.840 --> 00:06:35.491 Estamos levando em conta a equidade no desenvolvimento de sistemas? 00:06:35.515 --> 00:06:38.428 Finalmente, a razão pela qual codificamos é relevante. 00:06:38.785 --> 00:06:43.868 Utilizamos ferramentas de criação computacional para gerar imensas riquezas. 00:06:43.892 --> 00:06:48.339 Hoje temos a oportunidade de gerar igualdade ainda maior, 00:06:48.363 --> 00:06:51.293 se considerarmos a mudança social como uma prioridade 00:06:51.317 --> 00:06:53.487 e não como algo de menos importância. 00:06:54.008 --> 00:06:58.530 Esses são os três princípios na criação do movimento pela codificação inclusiva. 00:06:58.554 --> 00:07:00.206 É importante quem codifica, 00:07:00.230 --> 00:07:01.773 é importante como se codifica 00:07:01.797 --> 00:07:03.820 e é importante por que se codifica. NOTE Paragraph 00:07:03.844 --> 00:07:06.853 Então, para uma codificação inclusiva, podemos começar a pensar 00:07:06.867 --> 00:07:09.991 na criação de plataformas que identifiquem o viés, 00:07:10.015 --> 00:07:13.233 coletando as experiências das pessoas, como as que eu contei aqui, 00:07:13.257 --> 00:07:16.327 mas também auditando softwares já existentes. 00:07:16.351 --> 00:07:20.116 Também podemos começar a criar séries de treinamento mais inclusivas. 00:07:20.140 --> 00:07:22.943 Imaginem uma campanha de "'Selfies' pela Inclusão", 00:07:22.967 --> 00:07:25.836 em que eu e vocês possamos ajudar os desenvolvedores a testar 00:07:25.836 --> 00:07:28.739 e criar séries de treinamento mais inclusivas. 00:07:29.302 --> 00:07:32.130 Também podemos começar a pensar de forma mais consciente 00:07:32.154 --> 00:07:37.409 sobre o impacto social das tecnologias que temos desenvolvido. NOTE Paragraph 00:07:37.429 --> 00:07:39.962 Pra iniciarmos o movimento de codificação inclusiva 00:07:39.986 --> 00:07:42.833 lancei a Liga da Justiça Algorítmica, 00:07:42.857 --> 00:07:48.729 onde todos que se importem com a equidade podem lutar contra o olhar codificado. 00:07:48.753 --> 00:07:52.049 Em codedgaze.com, vocês podem relatar vieses, 00:07:52.073 --> 00:07:54.518 solicitar auditorias, participar dos testes 00:07:54.542 --> 00:07:57.313 e se juntar ao debate que vem ocorrendo, 00:07:57.337 --> 00:07:59.624 #codedgaze. NOTE Paragraph 00:08:00.742 --> 00:08:03.229 Convido vocês a se juntarem a mim 00:08:03.253 --> 00:08:06.972 na criação de um mundo onde a tecnologia trabalhe em favor de todos, 00:08:06.996 --> 00:08:08.893 não apenas em favor de alguns, 00:08:08.917 --> 00:08:13.505 um mundo onde valorizemos a inclusão e tenhamos como foco a mudança social. NOTE Paragraph 00:08:13.529 --> 00:08:14.704 Obrigada. NOTE Paragraph 00:08:14.728 --> 00:08:17.713 (Aplausos) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 Mas tenho uma pergunta: 00:08:23.751 --> 00:08:25.810 Vocês vão se juntar a mim nessa luta? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (Risos) NOTE Paragraph 00:08:27.143 --> 00:08:29.699 (Aplausos)