1 00:00:13,961 --> 00:00:17,095 Hola, soy Joy, un poeta de código, 2 00:00:17,119 --> 00:00:22,112 en una misión para detener una fuerza invisible que está surgiendo, 3 00:00:22,136 --> 00:00:24,992 una fuerza que yo llamé "la mirada codificada", 4 00:00:25,016 --> 00:00:28,325 mi término para el sesgo algorítmico. 5 00:00:28,349 --> 00:00:32,649 El sesgo algorítmico, como el sesgo humano, resulta en injusticia. 6 00:00:32,673 --> 00:00:37,029 Sin embargo, los algoritmos, como los virus, pueden propagar el sesgo 7 00:00:37,029 --> 00:00:40,301 en una escala masiva a un ritmo rápido. 8 00:00:40,863 --> 00:00:45,250 El sesgo algorítmico también puede conducir a experiencias de exclusión 9 00:00:45,274 --> 00:00:47,402 y a prácticas discriminatorias. 10 00:00:47,426 --> 00:00:49,487 Déjame mostrarte lo que quiero decir. 11 00:00:50,310 --> 00:00:52,806 (Video) Joy Boulamwini: Hola, cámara. Tengo una cara. 12 00:00:53,242 --> 00:00:55,107 ¿Puedes ver mi cara? 13 00:00:55,131 --> 00:00:56,756 ¿Cara sin gafas? 14 00:00:58,461 --> 00:01:00,207 Puedes ver su cara. 15 00:01:01,084 --> 00:01:02,691 ¿Qué hay de mi cara? 16 00:01:05,874 --> 00:01:07,054 (Risas) 17 00:01:07,078 --> 00:01:09,737 Tengo una máscara. ¿Puedes ver mi máscara? 18 00:01:11,914 --> 00:01:14,279 Joy Boulamwini: ¿Cómo sucedió esto? 19 00:01:14,303 --> 00:01:17,444 ¿Por qué estoy sentado frente a una computadora 20 00:01:17,468 --> 00:01:18,892 con una máscara blanca, 21 00:01:18,916 --> 00:01:22,450 tratando de ser detectado por una webcam barata? 22 00:01:22,450 --> 00:01:24,881 Bueno, cuando no estoy luchando la mirada codificada 23 00:01:24,905 --> 00:01:26,425 como un poeta de código, 24 00:01:26,449 --> 00:01:29,721 Soy un estudiante graduado en el MIT Media Lab, 25 00:01:29,745 --> 00:01:34,662 y allí tengo la oportunidad de trabajar en todo tipo de proyectos caprichosos, 26 00:01:34,686 --> 00:01:36,713 incluyendo el Aspire Mirror, 27 00:01:36,737 --> 00:01:41,871 un proyecto que hice para poder proyectar máscaras digitales en mi reflexión. 28 00:01:41,875 --> 00:01:44,255 Así que por la mañana, si quería sentirme poderoso, 29 00:01:44,269 --> 00:01:45,703 podría ponerme un león. 30 00:01:45,727 --> 00:01:49,223 Si yo quería motivarme, podría tener una frase. 31 00:01:49,247 --> 00:01:52,236 Así que utilicé el software de reconocimiento facial genérico 32 00:01:52,260 --> 00:01:53,611 para construir el sistema, 33 00:01:53,635 --> 00:01:58,738 pero encontré que era muy difícil probarlo a menos que llevara una máscara blanca. 34 00:01:59,722 --> 00:02:04,068 Desafortunadamente, he encontrado este problema antes. 35 00:02:04,092 --> 00:02:08,435 Cuando era estudiante de Georgia Tech estudiando informática, 36 00:02:08,459 --> 00:02:10,514 solía trabajar en robots sociales, 37 00:02:10,538 --> 00:02:14,315 y una de mis tareas era conseguir que un robot jugara a escondidas, 38 00:02:14,339 --> 00:02:16,272 un simple juego de turnos 39 00:02:16,296 --> 00:02:20,617 donde los participantes cubren su cara y luego la descubre diciendo: "¡Peek-a-boo!" 40 00:02:20,741 --> 00:02:25,170 El problema es que escondidas realmente no funciona si no puedo verte, 41 00:02:25,194 --> 00:02:27,693 y mi robot no podía verme. 42 00:02:27,717 --> 00:02:31,667 Pero pedí prestado el rostro de mi compañero para hacer el proyecto, 43 00:02:31,691 --> 00:02:33,071 presenté la tarea, 44 00:02:33,095 --> 00:02:36,848 y pensé, ya sabes qué, alguien más resolverá este problema. 45 00:02:37,499 --> 00:02:39,502 No mucho tiempo después, 46 00:02:39,526 --> 00:02:43,685 estuve en Hong Kong para una competencia empresarial. 47 00:02:44,169 --> 00:02:46,863 Los organizadores decidieron llevar a los participantes 48 00:02:46,887 --> 00:02:49,259 a una gira de empresas locales de nueva creación. 49 00:02:49,283 --> 00:02:51,998 Una de las primeras tenía un robot social, 50 00:02:52,022 --> 00:02:53,934 y decidieron hacer una demo. 51 00:02:53,958 --> 00:02:56,938 El demo funcionó en todo el mundo hasta que llegó a mí, 52 00:02:56,962 --> 00:02:58,885 y probablemente se puede adivinar. 53 00:02:58,909 --> 00:03:01,798 No podía detectar mi cara. 54 00:03:01,798 --> 00:03:04,419 Le pregunté a los desarrolladores lo que estaba pasando, 55 00:03:04,433 --> 00:03:06,300 y resultó que habíamos usado 56 00:03:06,300 --> 00:03:09,990 el mismo software genérico de reconocimiento facial. 57 00:03:09,990 --> 00:03:11,640 A través de la mitad del mundo, 58 00:03:11,664 --> 00:03:15,516 aprendí que el sesgo algorítmico puede viajar tan rápidamente 59 00:03:15,540 --> 00:03:18,710 como se necesita para descargar algunos archivos fuera de Internet. 60 00:03:19,575 --> 00:03:22,651 Entonces, ¿qué está pasando? ¿Por qué no se detecta mi rostro? 61 00:03:22,675 --> 00:03:26,031 Bueno, tenemos que mirar cómo damos a las máquinas la vista. 62 00:03:26,055 --> 00:03:29,464 La visión por computadora utiliza técnicas de aprendizaje de la máquina 63 00:03:29,488 --> 00:03:31,368 para hacer reconocimiento facial. 64 00:03:31,392 --> 00:03:35,289 Así que esto funciona, se crea un conjunto de entrenamiento con ejemplos de caras. 65 00:03:35,313 --> 00:03:38,131 Esta es una cara. Esta es una cara. Esto no es una cara. 66 00:03:38,155 --> 00:03:42,674 Y con el tiempo, uno puede enseñar a una computadora cómo reconocer otras caras. 67 00:03:42,698 --> 00:03:46,687 Sin embargo, si los conjuntos de practica no son realmente tan diversos, 68 00:03:46,711 --> 00:03:50,060 cualquier cara que se desvía demasiado de la norma establecida 69 00:03:50,084 --> 00:03:51,733 será más difícil de detectar, 70 00:03:51,757 --> 00:03:53,720 que es lo que me estaba sucediendo. 71 00:03:53,744 --> 00:03:56,126 Pero no te preocupes, hay buenas noticias. 72 00:03:56,150 --> 00:03:58,921 Las series de practica no sólo se materializan de la nada. 73 00:03:58,945 --> 00:04:00,733 En realidad podemos crearlos. 74 00:04:00,757 --> 00:04:04,933 Así que existe la oportunidad de crear series de practica de espectro completo 75 00:04:04,957 --> 00:04:08,781 que reflejen un retrato más rico de la humanidad. 76 00:04:08,805 --> 00:04:11,026 Ahora Uds. han visto en mis ejemplos 77 00:04:11,050 --> 00:04:12,818 cómo los robots sociales 78 00:04:12,842 --> 00:04:17,453 eran cómo descubrí sobre la exclusión con sesgo algorítmico. 79 00:04:17,477 --> 00:04:22,292 Pero el sesgo algorítmico también puede conducir a prácticas discriminatorias. 80 00:04:23,267 --> 00:04:24,720 En todo EE. UU. 81 00:04:24,744 --> 00:04:28,636 los departamentos de policía comenzaron a usar el software de reconocimiento facial 82 00:04:28,636 --> 00:04:31,229 en su arsenal de lucha contra el crimen. 83 00:04:31,229 --> 00:04:33,952 La ley de Georgetown publicó un informe que muestra que 84 00:04:33,952 --> 00:04:40,249 uno de cada dos adultos es de EE. UU., es decir, 117 millones de personas, 85 00:04:40,273 --> 00:04:43,807 tienen sus caras en redes de reconocimiento facial. 86 00:04:43,831 --> 00:04:48,383 Los departamentos de policía pueden ahora mirar estas redes no reguladas, 87 00:04:48,407 --> 00:04:52,693 usando algoritmos que no han sido auditados para la exactitud. 88 00:04:52,717 --> 00:04:56,581 Sin embargo, sabemos que el reconocimiento facial no es infalible, 89 00:04:56,605 --> 00:05:00,784 y el etiquetado de las caras sigue siendo un desafío. 90 00:05:00,808 --> 00:05:02,570 Puede que lo hayan visto en Facebook. 91 00:05:02,594 --> 00:05:05,582 Mis amigos y yo siempre nos reímos cuando vemos a otras personas 92 00:05:05,606 --> 00:05:08,064 mal etiquetadas en nuestras fotos. 93 00:05:08,088 --> 00:05:13,679 Pero identificar erróneamente a un presunto delincuente no es motivo de risa, 94 00:05:13,703 --> 00:05:16,530 ni violar las libertades civiles. 95 00:05:16,554 --> 00:05:19,759 Aprendizaje de la máquina se utiliza para el reconocimiento facial, 96 00:05:19,783 --> 00:05:24,288 pero también se extiende más allá del ámbito de la visión por ordenador. 97 00:05:25,096 --> 00:05:29,112 En su libro, "Armas de Destrucción de Matemáticas", 98 00:05:29,136 --> 00:05:32,991 la científica de datos Cathy O'Neil habla sobre el surgimiento 99 00:05:32,991 --> 00:05:35,841 de nuevas armas de destrucción masiva: 100 00:05:35,841 --> 00:05:40,194 algoritmos extendidos, misteriosos y destructivos 101 00:05:40,218 --> 00:05:43,182 que se utilizan cada vez más para tomar decisiones 102 00:05:43,206 --> 00:05:45,903 que afectan más aspectos de nuestras vidas. 103 00:05:46,301 --> 00:05:48,301 Entonces, ¿quién es contratado o despedido? 104 00:05:48,301 --> 00:05:50,413 ¿Tienes ese préstamo? ¿Tienes seguro? 105 00:05:50,437 --> 00:05:53,940 ¿Es Ud. admitido en la universidad en la que quería entrar? 106 00:05:53,964 --> 00:05:57,473 ¿Pagamos Ud. y yo el mismo precio por el mismo producto 107 00:05:57,497 --> 00:05:59,939 comprado en la misma plataforma? 108 00:05:59,963 --> 00:06:03,722 La aplicación de la ley también comienza a utilizar el inteligencia artificial. 109 00:06:03,746 --> 00:06:05,869 Para la predicción de la política. 110 00:06:05,869 --> 00:06:09,583 Algunos jueces usan puntajes de riesgo generados por la máquina para determinar 111 00:06:09,583 --> 00:06:13,833 cuánto tiempo un individuo va a pasar en prisión. 112 00:06:13,833 --> 00:06:16,497 Así que realmente tenemos que pensar en estas decisiones. 113 00:06:16,505 --> 00:06:17,687 ¿Son justas? 114 00:06:17,687 --> 00:06:20,577 Y hemos visto que el sesgo algorítmico 115 00:06:20,601 --> 00:06:23,975 no necesariamente conduce siempre a resultados justos. 116 00:06:23,999 --> 00:06:25,963 Entonces, ¿qué podemos hacer al respecto? 117 00:06:25,987 --> 00:06:29,667 Bueno, podemos empezar a pensar en cómo crear un código más inclusivo 118 00:06:29,691 --> 00:06:32,681 y emplear prácticas de codificación inclusivas. 119 00:06:32,705 --> 00:06:35,014 Realmente empieza con la gente. 120 00:06:35,538 --> 00:06:37,499 Entonces, quién codifica las cosas. 121 00:06:37,523 --> 00:06:41,642 ¿Estamos creando equipos de espectro completo con personas diversas 122 00:06:41,666 --> 00:06:44,077 que pueden revisar los puntos ciegos de los demás? 123 00:06:44,101 --> 00:06:47,646 Desde el punto de vista técnico, cómo codificamos las cosas. 124 00:06:47,670 --> 00:06:51,321 ¿Estamos teniendo en cuenta la equidad cuando estamos desarrollando sistemas? 125 00:06:51,345 --> 00:06:54,258 Y finalmente, por qué codificamos las cosas. 126 00:06:54,615 --> 00:06:57,572 Hemos utilizado herramientas de creación computacional 127 00:06:57,572 --> 00:06:59,722 para desbloquear inmensa riqueza. 128 00:06:59,722 --> 00:07:04,169 Ahora tenemos la oportunidad de desbloquear una igualdad aún mayor 129 00:07:04,193 --> 00:07:07,123 si hacemos del cambio social una prioridad 130 00:07:07,147 --> 00:07:09,317 y no una reflexión tardía. 131 00:07:09,838 --> 00:07:14,360 Y así estos son los tres principios que conformarán el movimiento "incodificador". 132 00:07:14,384 --> 00:07:16,036 Quien codifica cosas, 133 00:07:16,060 --> 00:07:17,603 cómo codificamos cosas 134 00:07:17,627 --> 00:07:19,650 y por qué codificamos cosas. 135 00:07:19,674 --> 00:07:22,773 Así que para ir hacia la codificación, podemos empezar a pensar 136 00:07:22,797 --> 00:07:25,961 en la construcción de plataformas que pueden identificar prejuicios 137 00:07:25,985 --> 00:07:29,063 recopilando experiencias de las personas como las que compartí, 138 00:07:29,087 --> 00:07:32,157 sino también la auditoría de software existente. 139 00:07:32,181 --> 00:07:35,946 También podemos comenzar a crear conjuntos de formación más inclusivos. 140 00:07:35,970 --> 00:07:38,773 Imagine una campaña "Selfies for Inclusion" 141 00:07:38,797 --> 00:07:42,452 donde Ud. y yo podemos ayudar a los desarrolladores a probar y crear 142 00:07:42,476 --> 00:07:44,569 conjuntos de entrenamiento más inclusivos. 143 00:07:45,132 --> 00:07:47,960 Y también podemos empezar a pensar más conscientemente 144 00:07:47,984 --> 00:07:53,375 sobre el impacto social de la tecnología que estamos desarrollando. 145 00:07:53,399 --> 00:07:55,792 Para iniciar el movimiento de incodificación, 146 00:07:55,816 --> 00:07:58,663 he lanzado la Algorithmic Justice League, 147 00:07:58,687 --> 00:08:01,583 donde cualquier persona que se preocupa por la justicia 148 00:08:01,583 --> 00:08:04,583 puede ayudar a combatir la mirada codificada. 149 00:08:04,583 --> 00:08:07,879 En codedgaze.com, puede reportar sesgos, 150 00:08:07,903 --> 00:08:10,348 solicitar auditorías, convertirse en un probador 151 00:08:10,372 --> 00:08:13,143 y unirse a la conversación en curso, 152 00:08:13,167 --> 00:08:15,454 #codedgaze. 153 00:08:16,572 --> 00:08:19,059 Así que los invito a unirse a mí 154 00:08:19,083 --> 00:08:22,802 en la creación de un mundo donde la tecnología funcione para todos nosotros, 155 00:08:22,826 --> 00:08:24,723 no sólo para algunos de nosotros, 156 00:08:24,747 --> 00:08:29,395 un mundo donde valoramos la inclusión y el centro del cambio social. 157 00:08:29,419 --> 00:08:30,594 Gracias. 158 00:08:30,618 --> 00:08:35,912 (Aplausos) 159 00:08:41,545 --> 00:08:44,399 Pero tengo una pregunta: 160 00:08:44,599 --> 00:08:46,658 ¿Te unirás a mí en la pelea? 161 00:08:46,738 --> 00:08:48,003 (Risas) 162 00:08:48,003 --> 00:08:51,940 (Aplausos)