< Return to Video

Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet

  • 0:14 - 0:17
    Hola, soy Joy, un poeta de código,
  • 0:17 - 0:22
    en una misión para detener una
    fuerza invisible que está surgiendo,
  • 0:22 - 0:25
    una fuerza que yo llamé
    "la mirada codificada",
  • 0:25 - 0:28
    mi término para el sesgo algorítmico.
  • 0:28 - 0:33
    El sesgo algorítmico, como el sesgo
    humano, resulta en injusticia.
  • 0:33 - 0:37
    Sin embargo, los algoritmos,
    como los virus, pueden propagar el sesgo
  • 0:37 - 0:40
    en una escala masiva a un ritmo rápido.
  • 0:41 - 0:45
    El sesgo algorítmico también puede
    conducir a experiencias de exclusión
  • 0:45 - 0:47
    y a prácticas discriminatorias.
  • 0:47 - 0:49
    Déjame mostrarte lo que quiero decir.
  • 0:50 - 0:53
    (Video) Joy Boulamwini: Hola, cámara.
    Tengo una cara.
  • 0:53 - 0:55
    ¿Puedes ver mi cara?
  • 0:55 - 0:57
    ¿Cara sin gafas?
  • 0:58 - 1:00
    Puedes ver su cara.
  • 1:01 - 1:03
    ¿Qué hay de mi cara?
  • 1:06 - 1:07
    (Risas)
  • 1:07 - 1:10
    Tengo una máscara. ¿Puedes ver mi máscara?
  • 1:12 - 1:14
    Joy Boulamwini: ¿Cómo sucedió esto?
  • 1:14 - 1:17
    ¿Por qué estoy sentado
    frente a una computadora
  • 1:17 - 1:19
    con una máscara blanca,
  • 1:19 - 1:22
    tratando de ser detectado
    por una webcam barata?
  • 1:22 - 1:25
    Bueno, cuando no estoy luchando
    la mirada codificada
  • 1:25 - 1:26
    como un poeta de código,
  • 1:26 - 1:30
    Soy un estudiante graduado
    en el MIT Media Lab,
  • 1:30 - 1:35
    y allí tengo la oportunidad de trabajar
    en todo tipo de proyectos caprichosos,
  • 1:35 - 1:37
    incluyendo el Aspire Mirror,
  • 1:37 - 1:42
    un proyecto que hice para poder proyectar
    máscaras digitales en mi reflexión.
  • 1:42 - 1:44
    Así que por la mañana,
    si quería sentirme poderoso,
  • 1:44 - 1:46
    podría ponerme un león.
  • 1:46 - 1:49
    Si yo quería motivarme,
    podría tener una frase.
  • 1:49 - 1:52
    Así que utilicé el software de
    reconocimiento facial genérico
  • 1:52 - 1:54
    para construir el sistema,
  • 1:54 - 1:59
    pero encontré que era muy difícil probarlo
    a menos que llevara una máscara blanca.
  • 2:00 - 2:04
    Desafortunadamente, he encontrado
    este problema antes.
  • 2:04 - 2:08
    Cuando era estudiante de Georgia Tech
    estudiando informática,
  • 2:08 - 2:11
    solía trabajar en robots sociales,
  • 2:11 - 2:14
    y una de mis tareas era conseguir
    que un robot jugara a escondidas,
  • 2:14 - 2:16
    un simple juego de turnos
  • 2:16 - 2:21
    donde los participantes cubren su cara y
    luego la descubre diciendo: "¡Peek-a-boo!"
  • 2:21 - 2:25
    El problema es que escondidas realmente
    no funciona si no puedo verte,
  • 2:25 - 2:28
    y mi robot no podía verme.
  • 2:28 - 2:32
    Pero pedí prestado el rostro de mi
    compañero para hacer el proyecto,
  • 2:32 - 2:33
    presenté la tarea,
  • 2:33 - 2:37
    y pensé, ya sabes qué, alguien
    más resolverá este problema.
  • 2:37 - 2:40
    No mucho tiempo después,
  • 2:40 - 2:44
    estuve en Hong Kong para
    una competencia empresarial.
  • 2:44 - 2:47
    Los organizadores decidieron
    llevar a los participantes
  • 2:47 - 2:49
    a una gira de empresas locales
    de nueva creación.
  • 2:49 - 2:52
    Una de las primeras tenía un robot social,
  • 2:52 - 2:54
    y decidieron hacer una demo.
  • 2:54 - 2:57
    El demo funcionó en todo el
    mundo hasta que llegó a mí,
  • 2:57 - 2:59
    y probablemente se puede adivinar.
  • 2:59 - 3:02
    No podía detectar mi cara.
  • 3:02 - 3:04
    Le pregunté a los desarrolladores
    lo que estaba pasando,
  • 3:04 - 3:06
    y resultó que habíamos usado
  • 3:06 - 3:10
    el mismo software genérico
    de reconocimiento facial.
  • 3:10 - 3:12
    A través de la mitad del mundo,
  • 3:12 - 3:16
    aprendí que el sesgo algorítmico
    puede viajar tan rápidamente
  • 3:16 - 3:19
    como se necesita para descargar
    algunos archivos fuera de Internet.
  • 3:20 - 3:23
    Entonces, ¿qué está pasando?
    ¿Por qué no se detecta mi rostro?
  • 3:23 - 3:26
    Bueno, tenemos que mirar
    cómo damos a las máquinas la vista.
  • 3:26 - 3:29
    La visión por computadora utiliza
    técnicas de aprendizaje de la máquina
  • 3:29 - 3:31
    para hacer reconocimiento facial.
  • 3:31 - 3:35
    Así que esto funciona, se crea un conjunto
    de entrenamiento con ejemplos de caras.
  • 3:35 - 3:38
    Esta es una cara. Esta es una cara.
    Esto no es una cara.
  • 3:38 - 3:43
    Y con el tiempo, uno puede enseñar a una
    computadora cómo reconocer otras caras.
  • 3:43 - 3:47
    Sin embargo, si los conjuntos de practica
    no son realmente tan diversos,
  • 3:47 - 3:50
    cualquier cara que se desvía demasiado
    de la norma establecida
  • 3:50 - 3:52
    será más difícil de detectar,
  • 3:52 - 3:54
    que es lo que me estaba sucediendo.
  • 3:54 - 3:56
    Pero no te preocupes, hay buenas noticias.
  • 3:56 - 3:59
    Las series de practica no sólo
    se materializan de la nada.
  • 3:59 - 4:01
    En realidad podemos crearlos.
  • 4:01 - 4:05
    Así que existe la oportunidad de crear
    series de practica de espectro completo
  • 4:05 - 4:09
    que reflejen un retrato
    más rico de la humanidad.
  • 4:09 - 4:11
    Ahora Uds. han visto en mis ejemplos
  • 4:11 - 4:13
    cómo los robots sociales
  • 4:13 - 4:17
    eran cómo descubrí sobre
    la exclusión con sesgo algorítmico.
  • 4:17 - 4:22
    Pero el sesgo algorítmico también puede
    conducir a prácticas discriminatorias.
  • 4:23 - 4:25
    En todo EE. UU.
  • 4:25 - 4:29
    los departamentos de policía comenzaron a
    usar el software de reconocimiento facial
  • 4:29 - 4:31
    en su arsenal de lucha contra el crimen.
  • 4:31 - 4:34
    La ley de Georgetown publicó
    un informe que muestra que
  • 4:34 - 4:40
    uno de cada dos adultos es de EE. UU.,
    es decir, 117 millones de personas,
  • 4:40 - 4:44
    tienen sus caras en redes
    de reconocimiento facial.
  • 4:44 - 4:48
    Los departamentos de policía pueden
    ahora mirar estas redes no reguladas,
  • 4:48 - 4:53
    usando algoritmos que no han sido
    auditados para la exactitud.
  • 4:53 - 4:57
    Sin embargo, sabemos que el
    reconocimiento facial no es infalible,
  • 4:57 - 5:01
    y el etiquetado de las caras
    sigue siendo un desafío.
  • 5:01 - 5:03
    Puede que lo hayan visto en Facebook.
  • 5:03 - 5:06
    Mis amigos y yo siempre nos reímos
    cuando vemos a otras personas
  • 5:06 - 5:08
    mal etiquetadas en nuestras fotos.
  • 5:08 - 5:14
    Pero identificar erróneamente a un
    presunto delincuente no es motivo de risa,
  • 5:14 - 5:17
    ni violar las libertades civiles.
  • 5:17 - 5:20
    Aprendizaje de la máquina se utiliza
    para el reconocimiento facial,
  • 5:20 - 5:24
    pero también se extiende más allá
    del ámbito de la visión por ordenador.
  • 5:25 - 5:29
    En su libro,
    "Armas de Destrucción de Matemáticas",
  • 5:29 - 5:33
    la científica de datos Cathy O'Neil
    habla sobre el surgimiento
  • 5:33 - 5:36
    de nuevas armas de destrucción masiva:
  • 5:36 - 5:40
    algoritmos extendidos,
    misteriosos y destructivos
  • 5:40 - 5:43
    que se utilizan cada vez más
    para tomar decisiones
  • 5:43 - 5:46
    que afectan más aspectos
    de nuestras vidas.
  • 5:46 - 5:48
    Entonces,
    ¿quién es contratado o despedido?
  • 5:48 - 5:50
    ¿Tienes ese préstamo?
    ¿Tienes seguro?
  • 5:50 - 5:54
    ¿Es Ud. admitido en la universidad
    en la que quería entrar?
  • 5:54 - 5:57
    ¿Pagamos Ud. y yo el mismo
    precio por el mismo producto
  • 5:57 - 6:00
    comprado en la misma plataforma?
  • 6:00 - 6:04
    La aplicación de la ley también comienza
    a utilizar el inteligencia artificial.
  • 6:04 - 6:06
    Para la predicción de la política.
  • 6:06 - 6:10
    Algunos jueces usan puntajes de riesgo
    generados por la máquina para determinar
  • 6:10 - 6:14
    cuánto tiempo un individuo
    va a pasar en prisión.
  • 6:14 - 6:16
    Así que realmente tenemos
    que pensar en estas decisiones.
  • 6:17 - 6:18
    ¿Son justas?
  • 6:18 - 6:21
    Y hemos visto que el sesgo algorítmico
  • 6:21 - 6:24
    no necesariamente conduce
    siempre a resultados justos.
  • 6:24 - 6:26
    Entonces, ¿qué podemos hacer al respecto?
  • 6:26 - 6:30
    Bueno, podemos empezar a pensar
    en cómo crear un código más inclusivo
  • 6:30 - 6:33
    y emplear prácticas
    de codificación inclusivas.
  • 6:33 - 6:35
    Realmente empieza con la gente.
  • 6:36 - 6:37
    Entonces, quién codifica las cosas.
  • 6:38 - 6:42
    ¿Estamos creando equipos de espectro
    completo con personas diversas
  • 6:42 - 6:44
    que pueden revisar los
    puntos ciegos de los demás?
  • 6:44 - 6:48
    Desde el punto de vista técnico,
    cómo codificamos las cosas.
  • 6:48 - 6:51
    ¿Estamos teniendo en cuenta la equidad
    cuando estamos desarrollando sistemas?
  • 6:51 - 6:54
    Y finalmente, por qué
    codificamos las cosas.
  • 6:55 - 6:58
    Hemos utilizado herramientas
    de creación computacional
  • 6:58 - 7:00
    para desbloquear inmensa riqueza.
  • 7:00 - 7:04
    Ahora tenemos la oportunidad
    de desbloquear una igualdad aún mayor
  • 7:04 - 7:07
    si hacemos del cambio social una prioridad
  • 7:07 - 7:09
    y no una reflexión tardía.
  • 7:10 - 7:14
    Y así estos son los tres principios que
    conformarán el movimiento "incodificador".
  • 7:14 - 7:16
    Quien codifica cosas,
  • 7:16 - 7:18
    cómo codificamos cosas
  • 7:18 - 7:20
    y por qué codificamos cosas.
  • 7:20 - 7:23
    Así que para ir hacia la codificación,
    podemos empezar a pensar
  • 7:23 - 7:26
    en la construcción de plataformas
    que pueden identificar prejuicios
  • 7:26 - 7:29
    recopilando experiencias de las
    personas como las que compartí,
  • 7:29 - 7:32
    sino también la auditoría
    de software existente.
  • 7:32 - 7:36
    También podemos comenzar a crear
    conjuntos de formación más inclusivos.
  • 7:36 - 7:39
    Imagine una campaña
    "Selfies for Inclusion"
  • 7:39 - 7:42
    donde Ud. y yo podemos ayudar a los
    desarrolladores a probar y crear
  • 7:42 - 7:45
    conjuntos de entrenamiento más inclusivos.
  • 7:45 - 7:48
    Y también podemos empezar
    a pensar más conscientemente
  • 7:48 - 7:53
    sobre el impacto social de la tecnología
    que estamos desarrollando.
  • 7:53 - 7:56
    Para iniciar el movimiento
    de incodificación,
  • 7:56 - 7:59
    he lanzado la Algorithmic Justice League,
  • 7:59 - 8:02
    donde cualquier persona
    que se preocupa por la justicia
  • 8:02 - 8:05
    puede ayudar a combatir
    la mirada codificada.
  • 8:05 - 8:08
    En codedgaze.com, puede reportar sesgos,
  • 8:08 - 8:10
    solicitar auditorías,
    convertirse en un probador
  • 8:10 - 8:13
    y unirse a la conversación en curso,
  • 8:13 - 8:15
    #codedgaze.
  • 8:17 - 8:19
    Así que los invito a unirse a mí
  • 8:19 - 8:23
    en la creación de un mundo donde la
    tecnología funcione para todos nosotros,
  • 8:23 - 8:25
    no sólo para algunos de nosotros,
  • 8:25 - 8:29
    un mundo donde valoramos la inclusión
    y el centro del cambio social.
  • 8:29 - 8:31
    Gracias.
  • 8:31 - 8:36
    (Aplausos)
  • 8:42 - 8:44
    Pero tengo una pregunta:
  • 8:45 - 8:47
    ¿Te unirás a mí en la pelea?
  • 8:47 - 8:48
    (Risas)
  • 8:48 - 8:52
    (Aplausos)
Title:
Code4Rights, Code4All | Joy Buolamwini | TEDxBeaconStreet
Description:

Joy Buolamwini es una codificadora brillante, pero tenía un problema: los algoritmos de reconocimiento facial no siempre reconocen su rostro a menos que use una máscara blanca. Este es un ejemplo de las sutiles maneras en que el privilegio racial excluye la participación plena en las oportunidades de aprendizaje, por lo que Joy hizo algo al respecto, empezó a codificar programas más inclusivos. Ella comenzó una revolución, y ella está lista para ponerte a bordo!

Joy Buolamwini es fundadora de Code4Rights e investigadora graduada con el grupo de medios cívicos en el MIT Media Lab. Joy es becaria de Rhodes, un miembro de Fulbright, becaria de astronautas, becaria de Google Anita Borg y consultora técnico de Carter Center reconocida como voluntaria distinguida. Como Directora de Tecnología de Techturized Inc, una empresa de tecnología de cuidado del cabello y Swift Tech Solutions, una consultora de tecnología de salud global, Joy adquirió competencias técnicas desarrollando software para las comunidades de Estados Unidos, Etiopía, Malí, Nigeria y Níger. Durante su Beca Fulbright en Zambia, exploró el empoderamiento de los ciudadanos comprometidos con habilidades para crear su propia tecnología a través de la Iniciativa Zamrize

Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED. Más información en: http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:02

Spanish subtitles

Revisions