Cómo lucho contra el sesgo en los algoritmos
-
0:01 - 0:04Hola, soy Joy, una poetisa del código,
-
0:04 - 0:09en una misión para frenar
una fuerza invisible que crece, -
0:09 - 0:12una fuerza que llamo "mirada codificada",
-
0:12 - 0:15mi término para el sesgo algorítmico.
-
0:15 - 0:20El sesgo algorítmico, como el humano,
se traduce en injusticia. -
0:20 - 0:26Pero, los algoritmos, como los virus,
pueden propagar sesgos a gran escala -
0:26 - 0:27a un ritmo acelerado.
-
0:28 - 0:32El sesgo algorítmico puede también
generar experiencias de exclusión -
0:32 - 0:34y prácticas discriminatorias.
-
0:35 - 0:37Les mostraré lo que quiero decir.
-
0:37 - 0:40(Video) Joy Buolamwini: Hola, cámara.
Tengo una cara. -
0:40 - 0:42¿Puedes ver mi cara?
-
0:42 - 0:44¿Sin lentes?
-
0:44 - 0:46Puedes ver su cara.
-
0:46 - 0:48¿Qué tal mi cara?
-
0:52 - 0:56Tengo una máscara. ¿Puedes verla?
-
0:56 - 0:59Joy Buolamwini: ¿Cómo ocurrió esto?
-
0:59 - 1:02¿Por qué estoy ante una computadora
-
1:02 - 1:03con una máscara blanca,
-
1:03 - 1:07intentando que una cámara
barata me detecte? -
1:07 - 1:09Cuando no lucho
contra la mirada codificada -
1:09 - 1:11como poetisa del código,
-
1:11 - 1:14soy estudiante de posgrado
en el Laboratorio de Medios del MIT, -
1:14 - 1:19y allí puedo trabajar
en todo tipo de proyectos caprichosos, -
1:19 - 1:21incluso el Aspire Mirror,
-
1:21 - 1:26un proyecto que realicé para proyectar
máscaras digitales en mi propio reflejo. -
1:26 - 1:29Entonces, de mañana,
si quería sentirme poderosa, -
1:29 - 1:30podía convertirme en león.
-
1:30 - 1:34Si quería inspiración,
podía usar una cita. -
1:34 - 1:37Entonces, usé el software
de reconocimiento facial -
1:37 - 1:38para crear el sistema,
-
1:38 - 1:43pero me resultó muy difícil probarlo
sin colocarme una máscara blanca. -
1:44 - 1:49Desafortunadamente, ya tuve
este problema antes. -
1:49 - 1:53Cuando era estudiante de informática
en Georgia Tech, -
1:53 - 1:55solía trabajar con robots sociales,
-
1:55 - 1:59y una de mis tareas fue lograr
que un robot jugara a esconderse, -
1:59 - 2:00un juego de turnos simple
-
2:00 - 2:05donde las personas cubren sus rostros y
luego las descubren diciendo: "Aquí está". -
2:05 - 2:09El problema es que el juego
no funciona, si no te pueden ver -
2:09 - 2:12y el robot no me veía.
-
2:12 - 2:16Pero usé el rostro de mi compañera
para terminar el proyecto, -
2:16 - 2:17entregué la tarea,
-
2:17 - 2:21y pensé que otra persona
resolvería este problema. -
2:22 - 2:24Al poco tiempo,
-
2:24 - 2:28me encontraba en Hong Kong
en una competencia de emprendedores. -
2:28 - 2:31Los organizadores decidieron
llevar a los participantes -
2:31 - 2:33a un recorrido
por empresas locales emergentes. -
2:33 - 2:36Una de ellas tenía un robot social,
-
2:36 - 2:38y decidieron hacer una demostración.
-
2:38 - 2:41La demostración funcionó bien
hasta que llegó mi turno, -
2:41 - 2:43y probablemente pueden adivinar.
-
2:43 - 2:46No pudo detectar mi rostro.
-
2:46 - 2:49Pregunté a los desarrolladores qué pasaba,
-
2:49 - 2:54y resultó que habíamos usado el mismo
software genérico de reconocimiento. -
2:54 - 2:56Al otro lado del mundo,
-
2:56 - 3:00aprendí que el sesgo algorítmico
puede viajar tan rápido -
3:00 - 3:03como el tiempo que lleva
descargar archivos de Internet. -
3:04 - 3:07Entonces, ¿qué sucede?
¿Por qué no se detecta mi rostro? -
3:07 - 3:10Bueno, debemos pensar
cómo hacemos que las máquinas vean. -
3:10 - 3:14La visión por computadora
usa técnicas de aprendizaje de máquina -
3:14 - 3:16para el reconocimiento facial.
-
3:16 - 3:19Se trabaja así, creando una serie
de prueba con ejemplos de rostros. -
3:19 - 3:22Esto es un rostro. Esto es un rostro.
Esto no lo es. -
3:22 - 3:27Con el tiempo, puedes enseñar
a una computadora a reconocer rostros. -
3:27 - 3:31Sin embargo, si las series de prueba
no son realmente diversas, -
3:31 - 3:34todo rostro que se desvíe mucho
de la norma establecida -
3:34 - 3:36será más difícil de detectar,
-
3:36 - 3:38que es lo que me sucedía a mí.
-
3:38 - 3:40Pero no se preocupen,
tengo buenas noticias. -
3:40 - 3:43Las series de prueba
no se materializan de la nada. -
3:43 - 3:45En verdad las podemos crear.
-
3:45 - 3:49Por ende, se pueden crear
series de prueba con espectros completos -
3:49 - 3:53que reflejen de manera más exhaustiva
un retrato de la humanidad. -
3:53 - 3:55Ya han visto en mis ejemplos
-
3:55 - 3:57cómo con los robots sociales
-
3:57 - 4:02me enteré de la exclusión
por el sesgo algorítmico. -
4:02 - 4:06Además, el sesgo algorítmico
puede generar prácticas discriminatorias. -
4:07 - 4:09En EE.UU.
-
4:09 - 4:13los departamentos de policía incorporan
software de reconocimiento facial -
4:13 - 4:16en su arsenal
para la lucha contra el crimen. -
4:16 - 4:18Georgetown publicó un informe
-
4:18 - 4:24que muestra que uno de cada dos adultos
en EE.UU., 117 millones de personas, -
4:24 - 4:28tiene sus rostros en redes
de reconocimiento facial. -
4:28 - 4:33Los departamentos de policía hoy
tienen acceso a esas redes no reguladas, -
4:33 - 4:37mediante algoritmos cuya exactitud
no ha sido testeada. -
4:37 - 4:41Sabemos que el reconocimiento facial
no es a prueba de fallas -
4:41 - 4:45y etiquetar rostros de forma consistente
aún es un desafío. -
4:45 - 4:47Tal vez lo han visto en Facebook.
-
4:47 - 4:50Mis amigos y yo nos reímos,
cuando vemos a otros -
4:50 - 4:52mal etiquetados en nuestras fotos.
-
4:52 - 4:58Pero identificar mal a un sospechoso
no es un tema para reírse, -
4:58 - 5:01tampoco lo es violar la libertad civil.
-
5:01 - 5:04El aprendizaje automático se usa
para el reconocimiento facial, -
5:04 - 5:08pero también se está extendiendo
al campo de la visión por computadora. -
5:09 - 5:13En su libro, "Armas de
destrucción matemática", -
5:13 - 5:20la científica de datos Cathy O'Neil
habla sobre los nuevos WMDs, -
5:20 - 5:24algoritmos amplios,
misteriosos y destructivos -
5:24 - 5:27que se usan cada vez más
para tomar decisiones -
5:27 - 5:31que influyen sobre muchos aspectos
de nuestras vidas. -
5:31 - 5:32¿A quién se contrata o se despide?
-
5:32 - 5:35¿Recibes el préstamo?
¿Y la cobertura de seguros? -
5:35 - 5:38¿Eres aceptado en la universidad
a la que deseas entrar? -
5:38 - 5:42¿Tú y yo pagamos el mismo precio
por el mismo producto -
5:42 - 5:44comprado en la misma plataforma?
-
5:44 - 5:48La aplicación de la ley también empieza
a usar el aprendizaje de máquina -
5:48 - 5:50para la predicción de la policía.
-
5:50 - 5:54Algunos jueces usan puntajes de riesgo
generados por máquinas para determinar -
5:54 - 5:58cuánto tiempo un individuo
permanecerá en prisión. -
5:58 - 6:01Así que hay que pensar
sobre estas decisiones. -
6:01 - 6:02¿Son justas?
-
6:02 - 6:05Y hemos visto que el sesgo algorítmico
-
6:05 - 6:08no necesariamente lleva siempre
a resultados justos. -
6:08 - 6:10Entonces, ¿qué podemos hacer al respecto?
-
6:10 - 6:14Bueno, podemos empezar a pensar en
cómo creamos un código más inclusivo -
6:14 - 6:17y emplear prácticas
de codificación inclusivas. -
6:17 - 6:19Realmente empieza con la gente.
-
6:20 - 6:22Con los que codifican cosas.
-
6:22 - 6:26¿Estamos creando equipos de
amplio espectro con diversidad de personas -
6:26 - 6:28que pueden comprobar
los puntos ciegos de los demás? -
6:28 - 6:32Desde el punto de vista técnico,
importa cómo codificamos. -
6:32 - 6:35¿Lo gestionamos con equidad
al desarrollar los sistemas? -
6:36 - 6:38Y finalmente, importa por qué
codificamos. -
6:38 - 6:41Hemos usado herramientas informáticas
-
6:41 - 6:44para generar una riqueza inmensa.
-
6:44 - 6:48Ahora tenemos la oportunidad de generar
una igualdad aún más grande -
6:48 - 6:51si hacemos del cambio social una prioridad
-
6:51 - 6:53y no solo un pensamiento.
-
6:54 - 6:59Estos son los tres principios que
constituirán el movimiento "codificador". -
6:59 - 7:00Quién codifica importa,
-
7:00 - 7:02cómo codificamos importa,
-
7:02 - 7:04y por qué codificamos importa.
-
7:04 - 7:07Así que, para abordar la codificación,
podemos empezar a pensar -
7:07 - 7:10en construir plataformas
que puedan identificar sesgos -
7:10 - 7:13reuniendo experiencias de la gente
como las que compartí, -
7:13 - 7:16pero también auditando
el software existente. -
7:16 - 7:20También podemos crear
grupos de formación más inclusivos. -
7:20 - 7:23Imaginen una campaña de
"Selfies por la inclusión" -
7:23 - 7:27donde Uds. y yo podamos ayudar
a los desarrolladores a crear -
7:27 - 7:29grupos de formación más inclusivos.
-
7:29 - 7:32Y también podemos empezar a pensar
más concienzudamente -
7:32 - 7:38sobre el impacto social de la tecnología
que estamos desarrollando. -
7:38 - 7:40Para iniciar el movimiento
de codificación, -
7:40 - 7:43creé la Liga de la Justicia algorítmica,
-
7:43 - 7:45donde todo el que
se preocupa por la equidad -
7:45 - 7:49puede ayudar a combatir
la mirada codificada. -
7:49 - 7:52En codedgaze.com
pueden informar sesgos, -
7:52 - 7:55solicitar auditorías,
convertirse en un betatesters -
7:55 - 7:57y unirse a la conversación en curso,
-
7:57 - 8:00#codedgaze.
-
8:01 - 8:03Así que los invito a que se unan a mí
-
8:03 - 8:07para crear un mundo donde la tecnología
trabaje para todos nosotros, -
8:07 - 8:09no solo para algunos de nosotros,
-
8:09 - 8:13un mundo donde se valore la inclusión
y así centrar el cambio social. -
8:13 - 8:15Gracias.
-
8:15 - 8:19(Aplausos)
-
8:21 - 8:23Pero tengo una pregunta:
-
8:24 - 8:26¿Se unirán a mí en mi lucha?
-
8:26 - 8:27(Risas)
-
8:27 - 8:29(Aplausos)
- Title:
- Cómo lucho contra el sesgo en los algoritmos
- Speaker:
- Joy Buolamwini
- Description:
-
Como estudiante de grado en el MIT, Joy Buolamwini estaba trabajando con software de reconocimiento facial cuando se dio cuenta de un problema: el software no reconocía su rostro -- porque quienes codificaron el algoritmo no le enseñaron a identificar una amplia variedad de tonos de piel y estructuras faciales. Actualmente se encuentra en una misión para luchar contra el sesgo en el aprendizaje automático, un fenómeno que ella llama "mirada codificada". Es una charla que abre los ojos con respecto a la necesidad de responsabilidad a la hora de codificar... al tiempo que los algoritmos se apoderan cada vez de más y más aspectos de nuestras vidas.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti approved Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms | ||
Sebastian Betti edited Spanish subtitles for How I'm fighting bias in algorithms |