Return to Video

The Social Dilemma – Bonus Clip: The Discrimination Dilemma

  • 0:01 - 0:03
    Los algoritmos no son objetivos.
  • 0:03 - 0:07
    La IA y todas estas nuevas tecnologías
    están perpetuando los prejuicios.
  • 0:07 - 0:10
    Están prediciendo el futuro,
    hacen el futuro.
  • 0:11 - 0:14
    Continuando la conversación:
  • 0:14 - 0:20
    El dilema de la discriminación
  • 0:20 - 0:24
    He pasado gran parte de mi tiempo
    pensando en los prejuicios,
  • 0:24 - 0:26
    pero es que yo soy así.
  • 0:26 - 0:29
    Y también, la falta de conocimiento
  • 0:29 - 0:31
    del gobierno para entender estos problemas
  • 0:31 - 0:34
    resulta en una falta de regulación
    y leyes que realmente ayudarían
  • 0:34 - 0:38
    a minimizar algunos de los problemas
    que ya hemos identificado a través de la IA.
  • 0:38 - 0:41
    Los algoritmos no son objetivos.
  • 0:41 - 0:45
    Los algoritmos están optimizados
    para alguna definición de éxito.
  • 0:45 - 0:49
    Utilizan datos históricos
    para predecir un futuro exitoso.
  • 0:49 - 0:51
    La gente cree ciegamente
  • 0:51 - 0:54
    que los algoritmos son justos
    y objetivo por naturaleza
  • 0:54 - 0:57
    y en parte porque
    creen en esta lealtad,
  • 0:57 - 0:59
    no cuestionan el algoritmo.
  • 0:59 - 1:02
    Así que cuando el algoritmo termina
    siendo racista como los datos
  • 1:02 - 1:04
    que insertamos en él,
  • 1:04 - 1:09
    reproduce exactamente los patrones
    que desearíamos que trascendieran.
  • 1:09 - 1:13
    Los sistemas están introduciendo toneladas
    de información sin contexto,
  • 1:13 - 1:16
    sin historia, e incluso
    sin cuestiones políticas,
  • 1:16 - 1:19
    económicas y sociales,
  • 1:19 - 1:23
    entonces tienes una mayor
    probabilidad de un sistema de IA
  • 1:23 - 1:26
    que encarna estos prejuicios
    o incluso los empeora.
  • 1:26 - 1:28
    Hay cuatro tipos de algoritmos
  • 1:28 - 1:31
    que creo que se utilizan
    indebidamente
  • 1:31 - 1:35
    y esto podría causar
    graves daños a la sociedad.
  • 1:35 - 1:37
    Las cuatro categorías son:
  • 1:37 - 1:38
    Financiero.
  • 1:38 - 1:40
    Son algoritmos que deciden
  • 1:40 - 1:42
    si la gente comprará un
    seguro y por cuánto..
  • 1:42 - 1:43
    si consiguen buenas tarjetas de crédito...
  • 1:43 - 1:45
    si consiguen hipotecas...
  • 1:45 - 1:46
    si consiguen una vivienda …
  • 1:46 - 1:48
    Si abres el
    sitio web de una tarjeta de crédito,
  • 1:48 - 1:51
    no conseguirás
    información de las tarjetas de crédito.
  • 1:51 - 1:54
    Te miden y te analizan,
  • 1:54 - 1:57
    y son ellos los que te enseñan qué tarjeta
    creen que te mereces.
  • 1:57 - 2:00
    La segunda categoría
    está relacionado con la libertad.
  • 2:00 - 2:02
    ¿Cómo te controlas?
  • 2:02 - 2:03
    ¿Cuánto tiempo vas a la cárcel?
  • 2:03 - 2:06
    ¿Fuiste encarcelado mientras
    esperabas por un juicio?
  • 2:06 - 2:08
    La tercera categoría es
    la de los medios de subsistencia:
  • 2:08 - 2:09
    su trabajo.
  • 2:09 - 2:12
    ¿Obtienes una entrevista para
    el trabajo que solicitas?
  • 2:12 - 2:13
    ¿Conseguiste el trabajo?
  • 2:13 - 2:14
    ¿Recibes un aumento de sueldo?
  • 2:14 - 2:17
    ¿Cuál es tu horario de trabajo?
  • 2:17 - 2:20
    Un ejemplo que atrajo
    la atención de los medios de comunicación
  • 2:20 - 2:21
    era un algoritmo de contratación
  • 2:21 - 2:25
    que favoreció desproporcionadamente a
    individuos que se llamaban Jared
  • 2:25 - 2:27
    y que jugaban al lacrosse porque
  • 2:27 - 2:30
    la mayoría de los individuos que tenían
    un buen rendimiento en esa empresa
  • 2:30 - 2:33
    tenían estos dos hechos en común.
  • 2:33 - 2:36
    Y la cuarta categoría es la información en sí misma.
  • 2:36 - 2:37
    ¿Cómo se obtiene la información?
  • 2:37 - 2:38
    ¿En qué creemos?
  • 2:38 - 2:40
    Información política, principalmente.
  • 2:40 - 2:42
    Sus cosas son
    algoritmos ahora.
  • 2:42 - 2:44
    Y a menudo son injustas.
  • 2:44 - 2:46
    Y a menudo ilegales.
  • 2:46 - 2:50
    Pero no hemos descubierto cómo aplicar
    nuestras leyes contra la discriminación.
  • 2:50 - 2:53
    La distopía que me preocupa es de
  • 2:53 - 2:59
    nosotros no frenamos
    a los oscuros y peligrosos algoritmo.
  • 2:59 - 3:01
    "Oye, te hemos estado siguiendo
    desde tu nacimiento.
  • 3:01 - 3:02
    Entendemos que tu...
  • 3:02 - 3:03
    tuviste una infancia pobre,
  • 3:03 - 3:06
    en un barrio donde mucha gente
    no ha alcanzado el éxito.
  • 3:06 - 3:07
    Y...
  • 3:07 - 3:10
    Vamos a predecir que
    no lograrás el éxito.
  • 3:10 - 3:12
    No sólo vamos a predecir esto,
  • 3:12 - 3:14
    nos aseguraremos de que
    no consigas el éxito".
  • 3:14 - 3:16
    No vas a ir a
    una buena universidad.
  • 3:16 - 3:16
    Ni obtendrás un buen trabajo.
  • 3:16 - 3:18
    Y ni siquiera un buen préstamo.
  • 3:18 - 3:20
    Porque eso es lo que
    los algoritmos hacen, realmente
  • 3:20 - 3:23
    No predicen el futuro.
    Ellos hacen el futuro.
  • 3:25 - 3:27
    El dilema social.
  • 3:27 - 3:30
    Nuestro dilema social.
Title:
The Social Dilemma – Bonus Clip: The Discrimination Dilemma
Description:

more » « less
Video Language:
English
Duration:
03:37

Spanish (Latin America) subtitles

Revisions