WEBVTT 00:00:13.961 --> 00:00:17.095 Hola, soy Joy, un poeta de código, 00:00:17.119 --> 00:00:22.112 en una misión para detener una fuerza invisible que está surgiendo, 00:00:22.136 --> 00:00:24.992 una fuerza que yo llamé "la mirada codificada", 00:00:25.016 --> 00:00:28.325 mi término para el sesgo algorítmico. NOTE Paragraph 00:00:28.349 --> 00:00:32.649 El sesgo algorítmico, como el sesgo humano, resulta en injusticia. 00:00:32.673 --> 00:00:37.029 Sin embargo, los algoritmos, como los virus, pueden propagar el sesgo 00:00:37.029 --> 00:00:40.301 en una escala masiva a un ritmo rápido. 00:00:40.863 --> 00:00:45.250 El sesgo algorítmico también puede conducir a experiencias de exclusión 00:00:45.274 --> 00:00:47.402 y a prácticas discriminatorias. 00:00:47.426 --> 00:00:49.487 Déjame mostrarte lo que quiero decir. NOTE Paragraph 00:00:50.310 --> 00:00:52.806 (Video) Joy Boulamwini: Hola, cámara. Tengo una cara. 00:00:53.242 --> 00:00:55.107 ¿Puedes ver mi cara? 00:00:55.131 --> 00:00:56.756 ¿Cara sin gafas? 00:00:58.461 --> 00:01:00.207 Puedes ver su cara. 00:01:01.084 --> 00:01:02.691 ¿Qué hay de mi cara? 00:01:05.874 --> 00:01:07.054 (Risas) 00:01:07.078 --> 00:01:09.737 Tengo una máscara. ¿Puedes ver mi máscara? NOTE Paragraph 00:01:11.914 --> 00:01:14.279 Joy Boulamwini: ¿Cómo sucedió esto? 00:01:14.303 --> 00:01:17.444 ¿Por qué estoy sentado frente a una computadora 00:01:17.468 --> 00:01:18.892 con una máscara blanca, 00:01:18.916 --> 00:01:22.450 tratando de ser detectado por una webcam barata? 00:01:22.450 --> 00:01:24.881 Bueno, cuando no estoy luchando la mirada codificada 00:01:24.905 --> 00:01:26.425 como un poeta de código, 00:01:26.449 --> 00:01:29.721 Soy un estudiante graduado en el MIT Media Lab, 00:01:29.745 --> 00:01:34.662 y allí tengo la oportunidad de trabajar en todo tipo de proyectos caprichosos, 00:01:34.686 --> 00:01:36.713 incluyendo el Aspire Mirror, 00:01:36.737 --> 00:01:41.871 un proyecto que hice para poder proyectar máscaras digitales en mi reflexión. 00:01:41.875 --> 00:01:44.255 Así que por la mañana, si quería sentirme poderoso, 00:01:44.269 --> 00:01:45.703 podría ponerme un león. 00:01:45.727 --> 00:01:49.223 Si yo quería motivarme, podría tener una frase. 00:01:49.247 --> 00:01:52.236 Así que utilicé el software de reconocimiento facial genérico 00:01:52.260 --> 00:01:53.611 para construir el sistema, 00:01:53.635 --> 00:01:58.738 pero encontré que era muy difícil probarlo a menos que llevara una máscara blanca. NOTE Paragraph 00:01:59.722 --> 00:02:04.068 Desafortunadamente, he encontrado este problema antes. 00:02:04.092 --> 00:02:08.435 Cuando era estudiante de Georgia Tech estudiando informática, 00:02:08.459 --> 00:02:10.514 solía trabajar en robots sociales, 00:02:10.538 --> 00:02:14.315 y una de mis tareas era conseguir que un robot jugara a escondidas, 00:02:14.339 --> 00:02:16.272 un simple juego de turnos 00:02:16.296 --> 00:02:20.617 donde los participantes cubren su cara y luego la descubre diciendo: "¡Peek-a-boo!" 00:02:20.741 --> 00:02:25.170 El problema es que escondidas realmente no funciona si no puedo verte, 00:02:25.194 --> 00:02:27.693 y mi robot no podía verme. 00:02:27.717 --> 00:02:31.667 Pero pedí prestado el rostro de mi compañero para hacer el proyecto, 00:02:31.691 --> 00:02:33.071 presenté la tarea, 00:02:33.095 --> 00:02:36.848 y pensé, ya sabes qué, alguien más resolverá este problema. NOTE Paragraph 00:02:37.499 --> 00:02:39.502 No mucho tiempo después, 00:02:39.526 --> 00:02:43.685 estuve en Hong Kong para una competencia empresarial. 00:02:44.169 --> 00:02:46.863 Los organizadores decidieron llevar a los participantes 00:02:46.887 --> 00:02:49.259 a una gira de empresas locales de nueva creación. 00:02:49.283 --> 00:02:51.998 Una de las primeras tenía un robot social, 00:02:52.022 --> 00:02:53.934 y decidieron hacer una demo. 00:02:53.958 --> 00:02:56.938 El demo funcionó en todo el mundo hasta que llegó a mí, 00:02:56.962 --> 00:02:58.885 y probablemente se puede adivinar. 00:02:58.909 --> 00:03:01.798 No podía detectar mi cara. 00:03:01.798 --> 00:03:04.419 Le pregunté a los desarrolladores lo que estaba pasando, 00:03:04.433 --> 00:03:06.300 y resultó que habíamos usado 00:03:06.300 --> 00:03:09.990 el mismo software genérico de reconocimiento facial. 00:03:09.990 --> 00:03:11.640 A través de la mitad del mundo, 00:03:11.664 --> 00:03:15.516 aprendí que el sesgo algorítmico puede viajar tan rápidamente 00:03:15.540 --> 00:03:18.710 como se necesita para descargar algunos archivos fuera de Internet. NOTE Paragraph 00:03:19.575 --> 00:03:22.651 Entonces, ¿qué está pasando? ¿Por qué no se detecta mi rostro? 00:03:22.675 --> 00:03:26.031 Bueno, tenemos que mirar cómo damos a las máquinas la vista. 00:03:26.055 --> 00:03:29.464 La visión por computadora utiliza técnicas de aprendizaje de la máquina 00:03:29.488 --> 00:03:31.368 para hacer reconocimiento facial. 00:03:31.392 --> 00:03:35.289 Así que esto funciona, se crea un conjunto de entrenamiento con ejemplos de caras. 00:03:35.313 --> 00:03:38.131 Esta es una cara. Esta es una cara. Esto no es una cara. 00:03:38.155 --> 00:03:42.674 Y con el tiempo, uno puede enseñar a una computadora cómo reconocer otras caras. 00:03:42.698 --> 00:03:46.687 Sin embargo, si los conjuntos de practica no son realmente tan diversos, 00:03:46.711 --> 00:03:50.060 cualquier cara que se desvía demasiado de la norma establecida 00:03:50.084 --> 00:03:51.733 será más difícil de detectar, 00:03:51.757 --> 00:03:53.720 que es lo que me estaba sucediendo. NOTE Paragraph 00:03:53.744 --> 00:03:56.126 Pero no te preocupes, hay buenas noticias. 00:03:56.150 --> 00:03:58.921 Las series de practica no sólo se materializan de la nada. 00:03:58.945 --> 00:04:00.733 En realidad podemos crearlos. 00:04:00.757 --> 00:04:04.933 Así que existe la oportunidad de crear series de practica de espectro completo 00:04:04.957 --> 00:04:08.781 que reflejen un retrato más rico de la humanidad. NOTE Paragraph 00:04:08.805 --> 00:04:11.026 Ahora Uds. han visto en mis ejemplos 00:04:11.050 --> 00:04:12.818 cómo los robots sociales 00:04:12.842 --> 00:04:17.453 eran cómo descubrí sobre la exclusión con sesgo algorítmico. 00:04:17.477 --> 00:04:22.292 Pero el sesgo algorítmico también puede conducir a prácticas discriminatorias. 00:04:23.267 --> 00:04:24.720 En todo EE. UU. 00:04:24.744 --> 00:04:28.636 los departamentos de policía comenzaron a usar el software de reconocimiento facial 00:04:28.636 --> 00:04:31.229 en su arsenal de lucha contra el crimen. 00:04:31.229 --> 00:04:33.952 La ley de Georgetown publicó un informe que muestra que 00:04:33.952 --> 00:04:40.249 uno de cada dos adultos es de EE. UU., es decir, 117 millones de personas, 00:04:40.273 --> 00:04:43.807 tienen sus caras en redes de reconocimiento facial. 00:04:43.831 --> 00:04:48.383 Los departamentos de policía pueden ahora mirar estas redes no reguladas, 00:04:48.407 --> 00:04:52.693 usando algoritmos que no han sido auditados para la exactitud. 00:04:52.717 --> 00:04:56.581 Sin embargo, sabemos que el reconocimiento facial no es infalible, 00:04:56.605 --> 00:05:00.784 y el etiquetado de las caras sigue siendo un desafío. 00:05:00.808 --> 00:05:02.570 Puede que lo hayan visto en Facebook. 00:05:02.594 --> 00:05:05.582 Mis amigos y yo siempre nos reímos cuando vemos a otras personas 00:05:05.606 --> 00:05:08.064 mal etiquetadas en nuestras fotos. 00:05:08.088 --> 00:05:13.679 Pero identificar erróneamente a un presunto delincuente no es motivo de risa, 00:05:13.703 --> 00:05:16.530 ni violar las libertades civiles. NOTE Paragraph 00:05:16.554 --> 00:05:19.759 Aprendizaje de la máquina se utiliza para el reconocimiento facial, 00:05:19.783 --> 00:05:24.288 pero también se extiende más allá del ámbito de la visión por ordenador. 00:05:25.096 --> 00:05:29.112 En su libro, "Armas de Destrucción de Matemáticas", 00:05:29.136 --> 00:05:32.991 la científica de datos Cathy O'Neil habla sobre el surgimiento 00:05:32.991 --> 00:05:35.841 de nuevas armas de destrucción masiva: 00:05:35.841 --> 00:05:40.194 algoritmos extendidos, misteriosos y destructivos 00:05:40.218 --> 00:05:43.182 que se utilizan cada vez más para tomar decisiones 00:05:43.206 --> 00:05:45.903 que afectan más aspectos de nuestras vidas. 00:05:46.301 --> 00:05:48.301 Entonces, ¿quién es contratado o despedido? 00:05:48.301 --> 00:05:50.413 ¿Tienes ese préstamo? ¿Tienes seguro? 00:05:50.437 --> 00:05:53.940 ¿Es Ud. admitido en la universidad en la que quería entrar? 00:05:53.964 --> 00:05:57.473 ¿Pagamos Ud. y yo el mismo precio por el mismo producto 00:05:57.497 --> 00:05:59.939 comprado en la misma plataforma? NOTE Paragraph 00:05:59.963 --> 00:06:03.722 La aplicación de la ley también comienza a utilizar el inteligencia artificial. 00:06:03.746 --> 00:06:05.869 Para la predicción de la política. 00:06:05.869 --> 00:06:09.583 Algunos jueces usan puntajes de riesgo generados por la máquina para determinar 00:06:09.583 --> 00:06:13.833 cuánto tiempo un individuo va a pasar en prisión. 00:06:13.833 --> 00:06:16.497 Así que realmente tenemos que pensar en estas decisiones. 00:06:16.505 --> 00:06:17.687 ¿Son justas? 00:06:17.687 --> 00:06:20.577 Y hemos visto que el sesgo algorítmico 00:06:20.601 --> 00:06:23.975 no necesariamente conduce siempre a resultados justos. NOTE Paragraph 00:06:23.999 --> 00:06:25.963 Entonces, ¿qué podemos hacer al respecto? 00:06:25.987 --> 00:06:29.667 Bueno, podemos empezar a pensar en cómo crear un código más inclusivo 00:06:29.691 --> 00:06:32.681 y emplear prácticas de codificación inclusivas. 00:06:32.705 --> 00:06:35.014 Realmente empieza con la gente. 00:06:35.538 --> 00:06:37.499 Entonces, quién codifica las cosas. 00:06:37.523 --> 00:06:41.642 ¿Estamos creando equipos de espectro completo con personas diversas 00:06:41.666 --> 00:06:44.077 que pueden revisar los puntos ciegos de los demás? 00:06:44.101 --> 00:06:47.646 Desde el punto de vista técnico, cómo codificamos las cosas. 00:06:47.670 --> 00:06:51.321 ¿Estamos teniendo en cuenta la equidad cuando estamos desarrollando sistemas? 00:06:51.345 --> 00:06:54.258 Y finalmente, por qué codificamos las cosas. 00:06:54.615 --> 00:06:57.572 Hemos utilizado herramientas de creación computacional 00:06:57.572 --> 00:06:59.722 para desbloquear inmensa riqueza. 00:06:59.722 --> 00:07:04.169 Ahora tenemos la oportunidad de desbloquear una igualdad aún mayor 00:07:04.193 --> 00:07:07.123 si hacemos del cambio social una prioridad 00:07:07.147 --> 00:07:09.317 y no una reflexión tardía. 00:07:09.838 --> 00:07:14.360 Y así estos son los tres principios que conformarán el movimiento "incodificador". 00:07:14.384 --> 00:07:16.036 Quien codifica cosas, 00:07:16.060 --> 00:07:17.603 cómo codificamos cosas 00:07:17.627 --> 00:07:19.650 y por qué codificamos cosas. NOTE Paragraph 00:07:19.674 --> 00:07:22.773 Así que para ir hacia la codificación, podemos empezar a pensar 00:07:22.797 --> 00:07:25.961 en la construcción de plataformas que pueden identificar prejuicios 00:07:25.985 --> 00:07:29.063 recopilando experiencias de las personas como las que compartí, 00:07:29.087 --> 00:07:32.157 sino también la auditoría de software existente. 00:07:32.181 --> 00:07:35.946 También podemos comenzar a crear conjuntos de formación más inclusivos. 00:07:35.970 --> 00:07:38.773 Imagine una campaña "Selfies for Inclusion" 00:07:38.797 --> 00:07:42.452 donde Ud. y yo podemos ayudar a los desarrolladores a probar y crear 00:07:42.476 --> 00:07:44.569 conjuntos de entrenamiento más inclusivos. 00:07:45.132 --> 00:07:47.960 Y también podemos empezar a pensar más conscientemente 00:07:47.984 --> 00:07:53.375 sobre el impacto social de la tecnología que estamos desarrollando. NOTE Paragraph 00:07:53.399 --> 00:07:55.792 Para iniciar el movimiento de incodificación, 00:07:55.816 --> 00:07:58.663 he lanzado la Algorithmic Justice League, 00:07:58.687 --> 00:08:01.583 donde cualquier persona que se preocupa por la justicia 00:08:01.583 --> 00:08:04.583 puede ayudar a combatir la mirada codificada. 00:08:04.583 --> 00:08:07.879 En codedgaze.com, puede reportar sesgos, 00:08:07.903 --> 00:08:10.348 solicitar auditorías, convertirse en un probador 00:08:10.372 --> 00:08:13.143 y unirse a la conversación en curso, 00:08:13.167 --> 00:08:15.454 #codedgaze. NOTE Paragraph 00:08:16.572 --> 00:08:19.059 Así que los invito a unirse a mí 00:08:19.083 --> 00:08:22.802 en la creación de un mundo donde la tecnología funcione para todos nosotros, 00:08:22.826 --> 00:08:24.723 no sólo para algunos de nosotros, 00:08:24.747 --> 00:08:29.395 un mundo donde valoramos la inclusión y el centro del cambio social. NOTE Paragraph 00:08:29.419 --> 00:08:30.594 Gracias. NOTE Paragraph 00:08:30.618 --> 00:08:35.912 (Aplausos) NOTE Paragraph 00:08:41.545 --> 00:08:44.399 Pero tengo una pregunta: 00:08:44.599 --> 00:08:46.658 ¿Te unirás a mí en la pelea? NOTE Paragraph 00:08:46.738 --> 00:08:48.003 (Risas) NOTE Paragraph 00:08:48.003 --> 00:08:51.940 (Aplausos)