0:00:13.961,0:00:17.095 Hola, soy Joy, un poeta de código,[br] 0:00:17.119,0:00:22.112 en una misión para detener una[br]fuerza invisible que está surgiendo, 0:00:22.136,0:00:24.992 una fuerza que yo llamé[br]"la mirada codificada", 0:00:25.016,0:00:28.325 mi término para el sesgo algorítmico. 0:00:28.349,0:00:32.649 El sesgo algorítmico, como el sesgo[br]humano, resulta en injusticia. 0:00:32.673,0:00:37.029 Sin embargo, los algoritmos,[br]como los virus, pueden propagar el sesgo 0:00:37.029,0:00:40.301 en una escala masiva a un ritmo rápido. 0:00:40.863,0:00:45.250 El sesgo algorítmico también puede[br]conducir a experiencias de exclusión 0:00:45.274,0:00:47.402 y a prácticas discriminatorias. 0:00:47.426,0:00:49.487 Déjame mostrarte lo que quiero decir. 0:00:50.310,0:00:52.806 (Video) Joy Boulamwini: Hola, cámara.[br]Tengo una cara. 0:00:53.242,0:00:55.107 ¿Puedes ver mi cara? 0:00:55.131,0:00:56.756 ¿Cara sin gafas? 0:00:58.461,0:01:00.207 Puedes ver su cara. 0:01:01.084,0:01:02.691 ¿Qué hay de mi cara? 0:01:05.874,0:01:07.054 (Risas) 0:01:07.078,0:01:09.737 Tengo una máscara. ¿Puedes ver mi máscara? 0:01:11.914,0:01:14.279 Joy Boulamwini: ¿Cómo sucedió esto? 0:01:14.303,0:01:17.444 ¿Por qué estoy sentado[br]frente a una computadora 0:01:17.468,0:01:18.892 con una máscara blanca, 0:01:18.916,0:01:22.450 tratando de ser detectado[br]por una webcam barata? 0:01:22.450,0:01:24.881 Bueno, cuando no estoy luchando[br]la mirada codificada 0:01:24.905,0:01:26.425 como un poeta de código, 0:01:26.449,0:01:29.721 Soy un estudiante graduado[br]en el MIT Media Lab, 0:01:29.745,0:01:34.662 y allí tengo la oportunidad de trabajar[br]en todo tipo de proyectos caprichosos, 0:01:34.686,0:01:36.713 incluyendo el Aspire Mirror, 0:01:36.737,0:01:41.871 un proyecto que hice para poder proyectar[br]máscaras digitales en mi reflexión. 0:01:41.875,0:01:44.255 Así que por la mañana,[br]si quería sentirme poderoso, 0:01:44.269,0:01:45.703 podría ponerme un león. 0:01:45.727,0:01:49.223 Si yo quería motivarme,[br]podría tener una frase. 0:01:49.247,0:01:52.236 Así que utilicé el software de[br]reconocimiento facial genérico 0:01:52.260,0:01:53.611 para construir el sistema, 0:01:53.635,0:01:58.738 pero encontré que era muy difícil probarlo[br]a menos que llevara una máscara blanca. 0:01:59.722,0:02:04.068 Desafortunadamente, he encontrado[br]este problema antes. 0:02:04.092,0:02:08.435 Cuando era estudiante de Georgia Tech[br]estudiando informática, 0:02:08.459,0:02:10.514 solía trabajar en robots sociales, 0:02:10.538,0:02:14.315 y una de mis tareas era conseguir[br]que un robot jugara a escondidas, 0:02:14.339,0:02:16.272 un simple juego de turnos 0:02:16.296,0:02:20.617 donde los participantes cubren su cara y[br]luego la descubre diciendo: "¡Peek-a-boo!" 0:02:20.741,0:02:25.170 El problema es que escondidas realmente[br]no funciona si no puedo verte, 0:02:25.194,0:02:27.693 y mi robot no podía verme. 0:02:27.717,0:02:31.667 Pero pedí prestado el rostro de mi[br]compañero para hacer el proyecto, 0:02:31.691,0:02:33.071 presenté la tarea, 0:02:33.095,0:02:36.848 y pensé, ya sabes qué, alguien[br]más resolverá este problema. 0:02:37.499,0:02:39.502 No mucho tiempo después, 0:02:39.526,0:02:43.685 estuve en Hong Kong para[br]una competencia empresarial. 0:02:44.169,0:02:46.863 Los organizadores decidieron[br]llevar a los participantes 0:02:46.887,0:02:49.259 a una gira de empresas locales[br]de nueva creación. 0:02:49.283,0:02:51.998 Una de las primeras tenía un robot social, 0:02:52.022,0:02:53.934 y decidieron hacer una demo. 0:02:53.958,0:02:56.938 El demo funcionó en todo el[br]mundo hasta que llegó a mí, 0:02:56.962,0:02:58.885 y probablemente se puede adivinar. 0:02:58.909,0:03:01.798 No podía detectar mi cara. 0:03:01.798,0:03:04.419 Le pregunté a los desarrolladores[br]lo que estaba pasando, 0:03:04.433,0:03:06.300 y resultó que habíamos usado 0:03:06.300,0:03:09.990 el mismo software genérico[br]de reconocimiento facial. 0:03:09.990,0:03:11.640 A través de la mitad del mundo, 0:03:11.664,0:03:15.516 aprendí que el sesgo algorítmico[br]puede viajar tan rápidamente 0:03:15.540,0:03:18.710 como se necesita para descargar[br]algunos archivos fuera de Internet. 0:03:19.575,0:03:22.651 Entonces, ¿qué está pasando?[br]¿Por qué no se detecta mi rostro? 0:03:22.675,0:03:26.031 Bueno, tenemos que mirar[br]cómo damos a las máquinas la vista. 0:03:26.055,0:03:29.464 La visión por computadora utiliza[br]técnicas de aprendizaje de la máquina 0:03:29.488,0:03:31.368 para hacer reconocimiento facial. 0:03:31.392,0:03:35.289 Así que esto funciona, se crea un conjunto[br]de entrenamiento con ejemplos de caras. 0:03:35.313,0:03:38.131 Esta es una cara. Esta es una cara.[br]Esto no es una cara. 0:03:38.155,0:03:42.674 Y con el tiempo, uno puede enseñar a una[br]computadora cómo reconocer otras caras. 0:03:42.698,0:03:46.687 Sin embargo, si los conjuntos de practica[br]no son realmente tan diversos, 0:03:46.711,0:03:50.060 cualquier cara que se desvía demasiado[br]de la norma establecida 0:03:50.084,0:03:51.733 será más difícil de detectar, 0:03:51.757,0:03:53.720 que es lo que me estaba sucediendo. 0:03:53.744,0:03:56.126 Pero no te preocupes, hay buenas noticias. 0:03:56.150,0:03:58.921 Las series de practica no sólo[br]se materializan de la nada. 0:03:58.945,0:04:00.733 En realidad podemos crearlos. 0:04:00.757,0:04:04.933 Así que existe la oportunidad de crear[br]series de practica de espectro completo 0:04:04.957,0:04:08.781 que reflejen un retrato[br]más rico de la humanidad. 0:04:08.805,0:04:11.026 Ahora Uds. han visto en mis ejemplos 0:04:11.050,0:04:12.818 cómo los robots sociales 0:04:12.842,0:04:17.453 eran cómo descubrí sobre[br]la exclusión con sesgo algorítmico. 0:04:17.477,0:04:22.292 Pero el sesgo algorítmico también puede[br]conducir a prácticas discriminatorias. 0:04:23.267,0:04:24.720 En todo EE. UU. 0:04:24.744,0:04:28.636 los departamentos de policía comenzaron a[br]usar el software de reconocimiento facial 0:04:28.636,0:04:31.229 en su arsenal de lucha contra el crimen. 0:04:31.229,0:04:33.952 La ley de Georgetown publicó [br]un informe que muestra que 0:04:33.952,0:04:40.249 uno de cada dos adultos es de EE. UU., [br]es decir, 117 millones de personas, 0:04:40.273,0:04:43.807 tienen sus caras en redes[br]de reconocimiento facial. 0:04:43.831,0:04:48.383 Los departamentos de policía pueden[br]ahora mirar estas redes no reguladas, 0:04:48.407,0:04:52.693 usando algoritmos que no han sido[br]auditados para la exactitud. 0:04:52.717,0:04:56.581 Sin embargo, sabemos que el[br]reconocimiento facial no es infalible, 0:04:56.605,0:05:00.784 y el etiquetado de las caras[br]sigue siendo un desafío. 0:05:00.808,0:05:02.570 Puede que lo hayan visto en Facebook. 0:05:02.594,0:05:05.582 Mis amigos y yo siempre nos reímos[br]cuando vemos a otras personas 0:05:05.606,0:05:08.064 mal etiquetadas en nuestras fotos. 0:05:08.088,0:05:13.679 Pero identificar erróneamente a un[br]presunto delincuente no es motivo de risa, 0:05:13.703,0:05:16.530 ni violar las libertades civiles. 0:05:16.554,0:05:19.759 Aprendizaje de la máquina se utiliza[br]para el reconocimiento facial, 0:05:19.783,0:05:24.288 pero también se extiende más allá[br]del ámbito de la visión por ordenador. 0:05:25.096,0:05:29.112 En su libro,[br]"Armas de Destrucción de Matemáticas", 0:05:29.136,0:05:32.991 la científica de datos Cathy O'Neil[br]habla sobre el surgimiento 0:05:32.991,0:05:35.841 de nuevas armas de destrucción masiva: 0:05:35.841,0:05:40.194 algoritmos extendidos,[br]misteriosos y destructivos 0:05:40.218,0:05:43.182 que se utilizan cada vez más[br]para tomar decisiones 0:05:43.206,0:05:45.903 que afectan más aspectos[br]de nuestras vidas. 0:05:46.301,0:05:48.301 Entonces,[br]¿quién es contratado o despedido? 0:05:48.301,0:05:50.413 ¿Tienes ese préstamo?[br]¿Tienes seguro? 0:05:50.437,0:05:53.940 ¿Es Ud. admitido en la universidad[br]en la que quería entrar? 0:05:53.964,0:05:57.473 ¿Pagamos Ud. y yo el mismo[br]precio por el mismo producto 0:05:57.497,0:05:59.939 comprado en la misma plataforma? 0:05:59.963,0:06:03.722 La aplicación de la ley también comienza[br]a utilizar el inteligencia artificial. 0:06:03.746,0:06:05.869 Para la predicción de la política. 0:06:05.869,0:06:09.583 Algunos jueces usan puntajes de riesgo[br]generados por la máquina para determinar 0:06:09.583,0:06:13.833 cuánto tiempo un individuo[br]va a pasar en prisión. 0:06:13.833,0:06:16.497 Así que realmente tenemos[br]que pensar en estas decisiones. 0:06:16.505,0:06:17.687 ¿Son justas? 0:06:17.687,0:06:20.577 Y hemos visto que el sesgo algorítmico 0:06:20.601,0:06:23.975 no necesariamente conduce[br]siempre a resultados justos. 0:06:23.999,0:06:25.963 Entonces, ¿qué podemos hacer al respecto? 0:06:25.987,0:06:29.667 Bueno, podemos empezar a pensar[br]en cómo crear un código más inclusivo 0:06:29.691,0:06:32.681 y emplear prácticas[br]de codificación inclusivas. 0:06:32.705,0:06:35.014 Realmente empieza con la gente. 0:06:35.538,0:06:37.499 Entonces, quién codifica las cosas. 0:06:37.523,0:06:41.642 ¿Estamos creando equipos de espectro[br]completo con personas diversas 0:06:41.666,0:06:44.077 que pueden revisar los[br]puntos ciegos de los demás? 0:06:44.101,0:06:47.646 Desde el punto de vista técnico,[br]cómo codificamos las cosas. 0:06:47.670,0:06:51.321 ¿Estamos teniendo en cuenta la equidad[br]cuando estamos desarrollando sistemas? 0:06:51.345,0:06:54.258 Y finalmente, por qué[br]codificamos las cosas. 0:06:54.615,0:06:57.572 Hemos utilizado herramientas[br]de creación computacional 0:06:57.572,0:06:59.722 para desbloquear inmensa riqueza. 0:06:59.722,0:07:04.169 Ahora tenemos la oportunidad[br]de desbloquear una igualdad aún mayor 0:07:04.193,0:07:07.123 si hacemos del cambio social una prioridad 0:07:07.147,0:07:09.317 y no una reflexión tardía. 0:07:09.838,0:07:14.360 Y así estos son los tres principios que[br]conformarán el movimiento "incodificador". 0:07:14.384,0:07:16.036 Quien codifica cosas, 0:07:16.060,0:07:17.603 cómo codificamos cosas 0:07:17.627,0:07:19.650 y por qué codificamos cosas. 0:07:19.674,0:07:22.773 Así que para ir hacia la codificación,[br]podemos empezar a pensar 0:07:22.797,0:07:25.961 en la construcción de plataformas[br]que pueden identificar prejuicios 0:07:25.985,0:07:29.063 recopilando experiencias de las[br]personas como las que compartí, 0:07:29.087,0:07:32.157 sino también la auditoría[br]de software existente. 0:07:32.181,0:07:35.946 También podemos comenzar a crear[br]conjuntos de formación más inclusivos. 0:07:35.970,0:07:38.773 Imagine una campaña[br]"Selfies for Inclusion" 0:07:38.797,0:07:42.452 donde Ud. y yo podemos ayudar a los[br]desarrolladores a probar y crear 0:07:42.476,0:07:44.569 conjuntos de entrenamiento más inclusivos. 0:07:45.132,0:07:47.960 Y también podemos empezar[br]a pensar más conscientemente 0:07:47.984,0:07:53.375 sobre el impacto social de la tecnología[br]que estamos desarrollando. 0:07:53.399,0:07:55.792 Para iniciar el movimiento[br]de incodificación, 0:07:55.816,0:07:58.663 he lanzado la Algorithmic Justice League, 0:07:58.687,0:08:01.583 donde cualquier persona[br]que se preocupa por la justicia 0:08:01.583,0:08:04.583 puede ayudar a combatir[br]la mirada codificada. 0:08:04.583,0:08:07.879 En codedgaze.com, puede reportar sesgos, 0:08:07.903,0:08:10.348 solicitar auditorías,[br]convertirse en un probador 0:08:10.372,0:08:13.143 y unirse a la conversación en curso, 0:08:13.167,0:08:15.454 #codedgaze. 0:08:16.572,0:08:19.059 Así que los invito a unirse a mí 0:08:19.083,0:08:22.802 en la creación de un mundo donde la[br]tecnología funcione para todos nosotros, 0:08:22.826,0:08:24.723 no sólo para algunos de nosotros, 0:08:24.747,0:08:29.395 un mundo donde valoramos la inclusión[br]y el centro del cambio social. 0:08:29.419,0:08:30.594 Gracias. 0:08:30.618,0:08:35.912 (Aplausos) 0:08:41.545,0:08:44.399 Pero tengo una pregunta: 0:08:44.599,0:08:46.658 ¿Te unirás a mí en la pelea? 0:08:46.738,0:08:48.003 (Risas) 0:08:48.003,0:08:51.940 (Aplausos)