1 00:00:01,041 --> 00:00:04,175 Olá, sou Joy, uma "poetisa dos códigos", 2 00:00:04,199 --> 00:00:09,192 a minha missão é deter uma força invisível que tem crescido, 3 00:00:09,216 --> 00:00:12,072 uma força que chamo de "olhar codificado", 4 00:00:12,096 --> 00:00:15,405 é como chamo o viés algorítmico. 5 00:00:15,429 --> 00:00:19,729 Tal como o preconceito humano, ele resulta em desigualdade. 6 00:00:19,753 --> 00:00:22,439 Porém, os algoritmos, assim como os vírus, 7 00:00:22,459 --> 00:00:27,381 podem espalhar o viés em grande escala e rapidamente. 8 00:00:27,943 --> 00:00:32,330 O viés algorítmico também pode levar a experiências de exclusão 9 00:00:32,354 --> 00:00:34,482 e a práticas discriminatórias. 10 00:00:34,506 --> 00:00:36,567 Vou mostrar o que quero dizer. 11 00:00:36,980 --> 00:00:39,416 (Vídeo) Joy Boulamwini: Oi, câmera. Tenho um rosto. 12 00:00:40,162 --> 00:00:42,026 Consegue ver meu rosto? 13 00:00:42,051 --> 00:00:43,676 Um rosto sem óculos? 14 00:00:43,701 --> 00:00:45,915 Você consegue ver o rosto dela... 15 00:00:46,237 --> 00:00:48,147 E o meu? 16 00:00:51,890 --> 00:00:55,640 Estou usando uma máscara. Consegue vê-la? 17 00:00:56,474 --> 00:00:58,839 Joy Boulamwini: Como isso aconteceu? 18 00:00:58,863 --> 00:01:03,454 Por que estou diante de um computador, usando uma máscara branca, 19 00:01:03,484 --> 00:01:06,856 tentando ser detectada por uma câmera barata? 20 00:01:06,860 --> 00:01:09,441 Bom, quando não estou lutando contra o olhar codificado 21 00:01:09,465 --> 00:01:10,985 como uma poetisa dos códigos, 22 00:01:11,009 --> 00:01:14,281 faço pós-graduação no Laboratório de Mídia do MIT, 23 00:01:14,305 --> 00:01:19,222 na qual tenho a oportunidade de trabalhar em diversos projetos bacanas, 24 00:01:19,236 --> 00:01:21,273 inclusive no "Aspire Mirror", 25 00:01:21,297 --> 00:01:26,431 projeto que criei para poder projetar máscaras digitais sobre minha imagem. 26 00:01:26,455 --> 00:01:30,055 De manhã, se eu quisesse me sentir poderosa, poderia usar uma de leão. 27 00:01:30,067 --> 00:01:33,783 Se precisasse de uma inspiração, usaria uma citação. 28 00:01:33,807 --> 00:01:36,796 Então, usei um software genérico de reconhecimento facial 29 00:01:36,820 --> 00:01:38,171 para criar o sistema, 30 00:01:38,195 --> 00:01:43,298 mas descobri que era bem difícil testá-lo, a não ser que usasse uma máscara branca. 31 00:01:44,282 --> 00:01:48,628 Infelizmente, já tive esse problema antes. 32 00:01:48,652 --> 00:01:52,955 Quando cursava minha graduação em ciência da computação na Georgia Tech, 33 00:01:52,979 --> 00:01:55,034 eu trabalhava com robôs sociais, 34 00:01:55,058 --> 00:01:58,835 e uma das minhas tarefas era fazer com que um robô brincasse de "Achou!", 35 00:01:58,859 --> 00:02:00,542 um jogo simples de revezamento 36 00:02:00,566 --> 00:02:04,887 em que uma pessoa cobre o rosto e depois o mostra à outra, dizendo: "Achou!" 37 00:02:04,911 --> 00:02:09,340 O problema é que a brincadeira não dá certo se você não vê o outro, 38 00:02:09,364 --> 00:02:11,863 e meu robô não me via. 39 00:02:11,887 --> 00:02:15,837 Aí, peguei emprestado o rosto de uma amiga para fazer o projeto, 40 00:02:15,861 --> 00:02:17,241 entreguei a tarefa 41 00:02:17,265 --> 00:02:21,018 e pensei: "Sabe de uma coisa? Outra pessoa vai resolver esse problema". 42 00:02:21,669 --> 00:02:23,672 Pouco tempo depois, 43 00:02:23,696 --> 00:02:27,855 eu estava em Hong Kong, numa competição de empreendedorismo. 44 00:02:28,339 --> 00:02:31,033 Os organizadores decidiram levar os participantes 45 00:02:31,057 --> 00:02:33,429 pra visitar "start-ups" locais. 46 00:02:33,453 --> 00:02:37,958 Uma das start-ups tinha um robô social, e eles decidiram fazer uma demonstração. 47 00:02:37,968 --> 00:02:39,822 A demonstração funcionou com todos, 48 00:02:39,832 --> 00:02:43,055 até que chegou a minha vez e, como vocês já podem imaginar, 49 00:02:43,079 --> 00:02:46,044 ele não detectou meu rosto. 50 00:02:46,068 --> 00:02:48,579 Perguntei aos desenvolvedores por quê, 51 00:02:48,603 --> 00:02:54,106 e descobri que usaram o mesmo software genérico de reconhecimento facial que eu. 52 00:02:54,124 --> 00:02:57,800 Do outro lado do mundo, descobri que o viés algorítmico 53 00:02:57,810 --> 00:03:02,880 consegue viajar tão rápido quanto um download da internet. 54 00:03:03,615 --> 00:03:06,821 O que estava acontecendo? Por que meu rosto não era detectado? 55 00:03:06,845 --> 00:03:10,201 Bem, precisamos analisar como damos "visão" às máquinas. 56 00:03:10,225 --> 00:03:13,634 A visão de computador utiliza técnicas de aprendizagem automática 57 00:03:13,658 --> 00:03:15,538 para fazer o reconhecimento facial. 58 00:03:15,562 --> 00:03:19,459 Funciona assim: você cria uma série de treinamento, com alguns rostos. 59 00:03:19,483 --> 00:03:22,301 "Isto é um rosto. Isto é um isto. Isto não é um rosto." 60 00:03:22,325 --> 00:03:26,844 Com o tempo, você ensina o computador a reconhecer outros rostos. 61 00:03:26,868 --> 00:03:30,857 Porém, se as séries não forem diversificadas o bastante, 62 00:03:30,881 --> 00:03:34,230 qualquer rosto que seja muito diferente dos demais 63 00:03:34,254 --> 00:03:37,903 será mais difícil de detectar, e era isso que acontecia comigo. 64 00:03:37,914 --> 00:03:40,296 Mas não se preocupem. Tenho boas notícias. 65 00:03:40,320 --> 00:03:43,091 As séries de treinamento não surgem do nada. 66 00:03:43,115 --> 00:03:44,903 Nós é que as criamos. 67 00:03:44,927 --> 00:03:49,103 Então, podemos criar séries de amplo espectro, 68 00:03:49,127 --> 00:03:52,951 que reflitam rostos humanos de forma mais diversa. 69 00:03:52,975 --> 00:03:55,196 Vocês já viram nos exemplos que dei 70 00:03:55,220 --> 00:03:56,988 como os robôs sociais 71 00:03:57,012 --> 00:04:01,623 me fizeram ver a exclusão causada pelo viés algorítmico, 72 00:04:01,647 --> 00:04:06,462 mas o viés algorítmico também pode acarretar práticas discriminatórias. 73 00:04:07,437 --> 00:04:08,890 Em todos os Estados Unidos, 74 00:04:08,914 --> 00:04:13,112 departamentos de polícia estão começando a usar softwares de reconhecimento facial 75 00:04:13,136 --> 00:04:15,595 como parte de seu arsenal na luta contra o crime. 76 00:04:15,619 --> 00:04:17,632 A Georgetown Law publicou um relatório 77 00:04:17,656 --> 00:04:24,419 mostrando que um em cada dois adultos nos EUA, ou seja, 117 milhões de pessoas, 78 00:04:24,443 --> 00:04:27,977 tiveram seus rostos incluídos em redes de reconhecimento facial. 79 00:04:28,001 --> 00:04:32,553 Hoje, os departamentos de polícia podem usar essas redes sem qualquer regulação, 80 00:04:32,577 --> 00:04:36,863 usando algoritmos que não tiveram sua precisão auditada. 81 00:04:36,887 --> 00:04:40,751 Ainda assim, sabemos que o reconhecimento facial não é infalível, 82 00:04:40,775 --> 00:04:44,778 e identificar rostos de forma consistente continua sendo um desafio. 83 00:04:44,798 --> 00:04:46,710 Talvez já tenham visto isso no Facebook. 84 00:04:46,734 --> 00:04:49,752 Eu e meus amigos rimos o tempo todo quando vemos outras pessoas 85 00:04:49,776 --> 00:04:52,234 sendo marcadas incorretamente em nossas fotos. 86 00:04:52,258 --> 00:04:57,849 Mas errar na identificação de um suspeito de crime não é nada engraçado, 87 00:04:57,873 --> 00:05:00,700 nem violar liberdades civis. 88 00:05:00,724 --> 00:05:03,929 A aprendizagem automática vem sendo usada no reconhecimento facial, 89 00:05:03,953 --> 00:05:08,458 mas também vem se expandindo além da visão de computador. 90 00:05:09,266 --> 00:05:13,282 Em seu livro "Weapons of Math Destruction", 91 00:05:13,306 --> 00:05:19,987 a cientista de dados Cathy O'Neil fala sobre a ascensão dos novos "DMDs" 92 00:05:20,011 --> 00:05:24,364 algoritmos "disseminados, misteriosos e destrutivos" 93 00:05:24,388 --> 00:05:27,352 que têm sido cada vez mais utilizados na tomada de decisões 94 00:05:27,376 --> 00:05:30,553 que impactam mais aspectos das nossas vidas. 95 00:05:30,577 --> 00:05:32,447 Quem será contratado ou demitido? 96 00:05:32,471 --> 00:05:34,583 Vai conseguir aquele empréstimo, ou seguro? 97 00:05:34,607 --> 00:05:38,110 Vai entrar na faculdade que você queria? 98 00:05:38,134 --> 00:05:41,643 Eu e você pagamos o mesmo valor pelo mesmo produto 99 00:05:41,667 --> 00:05:44,109 vendido na mesma loja? 100 00:05:44,133 --> 00:05:47,892 A segurança pública também está começando a usar a aprendizagem automática 101 00:05:47,916 --> 00:05:50,205 no policiamento preditivo. 102 00:05:50,229 --> 00:05:53,083 Alguns juízes utilizam índices de risco gerados por máquinas 103 00:05:53,107 --> 00:05:58,149 para determinar quanto tempo um indivíduo ficará na prisão. 104 00:05:58,173 --> 00:06:01,757 Temos realmente que refletir sobre essas decisões. Será que são justas? 105 00:06:01,777 --> 00:06:08,147 E já vimos que o viés algorítmico nem sempre leva a resultados justos. 106 00:06:08,169 --> 00:06:10,133 Então, o que podemos fazer? 107 00:06:10,157 --> 00:06:13,837 Bem, podemos começar a pensar em como criar codificação mais inclusiva 108 00:06:13,861 --> 00:06:16,851 e adotar práticas de codificação inclusivas. 109 00:06:16,875 --> 00:06:19,184 Tudo começa com pessoas. 110 00:06:19,708 --> 00:06:21,669 Então, é importante saber quem codifica. 111 00:06:21,693 --> 00:06:25,812 Estamos criando equipes diversificadas, com indivíduos diferentes 112 00:06:25,836 --> 00:06:28,247 que possam verificar pontos cegos uns dos outros? 113 00:06:28,271 --> 00:06:31,816 Quanto ao aspecto técnico, a forma como codificamos é relevante. 114 00:06:31,840 --> 00:06:35,491 Estamos levando em conta a equidade no desenvolvimento de sistemas? 115 00:06:35,515 --> 00:06:38,428 Finalmente, a razão pela qual codificamos é relevante. 116 00:06:38,785 --> 00:06:43,868 Utilizamos ferramentas de criação computacional para gerar imensas riquezas. 117 00:06:43,892 --> 00:06:48,339 Hoje temos a oportunidade de gerar igualdade ainda maior, 118 00:06:48,363 --> 00:06:51,293 se considerarmos a mudança social como uma prioridade 119 00:06:51,317 --> 00:06:53,487 e não como algo de menos importância. 120 00:06:54,008 --> 00:06:58,530 Esses são os três princípios na criação do movimento pela codificação inclusiva. 121 00:06:58,554 --> 00:07:00,206 É importante quem codifica, 122 00:07:00,230 --> 00:07:01,773 é importante como se codifica 123 00:07:01,797 --> 00:07:03,820 e é importante por que se codifica. 124 00:07:03,844 --> 00:07:06,853 Então, para uma codificação inclusiva, podemos começar a pensar 125 00:07:06,867 --> 00:07:09,991 na criação de plataformas que identifiquem o viés, 126 00:07:10,015 --> 00:07:13,233 coletando as experiências das pessoas, como as que eu contei aqui, 127 00:07:13,257 --> 00:07:16,327 mas também auditando softwares já existentes. 128 00:07:16,351 --> 00:07:20,116 Também podemos começar a criar séries de treinamento mais inclusivas. 129 00:07:20,140 --> 00:07:22,943 Imaginem uma campanha de "'Selfies' pela Inclusão", 130 00:07:22,967 --> 00:07:25,836 em que eu e vocês possamos ajudar os desenvolvedores a testar 131 00:07:25,836 --> 00:07:28,739 e criar séries de treinamento mais inclusivas. 132 00:07:29,302 --> 00:07:32,130 Também podemos começar a pensar de forma mais consciente 133 00:07:32,154 --> 00:07:37,409 sobre o impacto social das tecnologias que temos desenvolvido. 134 00:07:37,429 --> 00:07:39,962 Pra iniciarmos o movimento de codificação inclusiva 135 00:07:39,986 --> 00:07:42,833 lancei a Liga da Justiça Algorítmica, 136 00:07:42,857 --> 00:07:48,729 onde todos que se importem com a equidade podem lutar contra o olhar codificado. 137 00:07:48,753 --> 00:07:52,049 Em codedgaze.com, vocês podem relatar vieses, 138 00:07:52,073 --> 00:07:54,518 solicitar auditorias, participar dos testes 139 00:07:54,542 --> 00:07:57,313 e se juntar ao debate que vem ocorrendo, 140 00:07:57,337 --> 00:07:59,624 #codedgaze. 141 00:08:00,742 --> 00:08:03,229 Convido vocês a se juntarem a mim 142 00:08:03,253 --> 00:08:06,972 na criação de um mundo onde a tecnologia trabalhe em favor de todos, 143 00:08:06,996 --> 00:08:08,893 não apenas em favor de alguns, 144 00:08:08,917 --> 00:08:13,505 um mundo onde valorizemos a inclusão e tenhamos como foco a mudança social. 145 00:08:13,529 --> 00:08:14,704 Obrigada. 146 00:08:14,728 --> 00:08:17,713 (Aplausos) 147 00:08:20,873 --> 00:08:23,727 Mas tenho uma pergunta: 148 00:08:23,751 --> 00:08:25,810 Vocês vão se juntar a mim nessa luta? 149 00:08:25,834 --> 00:08:27,119 (Risos) 150 00:08:27,143 --> 00:08:29,699 (Aplausos)