Return to Video

The Social Dilemma – Bonus Clip: The Discrimination Dilemma

  • 0:01 - 0:03
    Los algoritmos no son objetos.
  • 0:03 - 0:07
    La IA y todas estas nuevas tecnologías
    están difundiendo los prejuicios.
  • 0:07 - 0:10
    Están prediciendo el futuro,
    hacen el futuro.
    4
    00:00:14,247 --> 00:00:17,197
    Continuando con la conversación:
    El dilema de la discriminación
  • 0:20 - 0:24
    He pasado gran parte de mi tiempo
    pensando en los prejuicios,
  • 0:24 - 0:26
    pero es que yo soy así.
  • 0:26 - 0:29
    Y también, la falta de conocimiento
  • 0:29 - 0:31
    del gobierno para entender estos problemas
  • 0:31 - 0:34
    resulta en una falta de regulación
    y leyes que realmente ayudarían
  • 0:34 - 0:38
    para minimizar algunos de los problemas
    que ya hemos identificado a través de la IA.
  • 0:38 - 0:41
    Los algoritmos no son objetos.
  • 0:41 - 0:45
    Los algoritmos están optimizados
    para lograr algún tipo de éxito.
  • 0:45 - 0:49
    Utilizan datos históricos
    para predecir un futuro próspero.
  • 0:49 - 0:51
    La gente cree ciegamente
  • 0:51 - 0:54
    que los algoritmos son justos
    y objetivo por naturaleza
  • 0:54 - 0:57
    y en parte porque
    creen en esta lealtad,
  • 0:57 - 0:59
    no cuestionan el algoritmo.
  • 0:59 - 1:03
    Así que cuando el algoritmo termina
    siendo racista como los datos
  • 1:03 - 1:04
    que insertamos en él,
  • 1:04 - 1:09
    reproduce exactamente los patrones
    que nos gustaría poder superar.
  • 1:09 - 1:13
    Los sistemas están introduciendo toneladas
    de información sin contexto,
  • 1:13 - 1:16
    sin historia, e incluso
    sin cuestiones políticas,
  • 1:16 - 1:17
    económicas y sociales,
  • 1:17 - 1:22
    entonces tienes un alto
    probabilidad de un sistema de IA
  • 1:22 - 1:26
    que encarna estos prejuicios
    o incluso los empeora.
  • 1:26 - 1:28
    Hay cuatro tipos de algoritmos
  • 1:28 - 1:31
    que creo que se utilizan
    indebidamente
  • 1:31 - 1:35
    y esto podría causar
    graves daños a la sociedad.
  • 1:35 - 1:37
    Las cuatro categorías son:
  • 1:37 - 1:38
    Financiero.
  • 1:38 - 1:40
    Son algoritmos que deciden
  • 1:40 - 1:42
    si la gente comprará un
    seguro y por cuánto..
  • 1:42 - 1:44
    una buena tarjeta de crédito...
  • 1:44 - 1:45
    hipotecas...
  • 1:45 - 1:46
    obtener una vivienda ...
  • 1:46 - 1:48
    Si abre un
    sitio web de la tarjeta de crédito,
  • 1:48 - 1:51
    no conseguiran
    información de la tarjeta de crédito.
  • 1:51 - 1:54
    Se le mide y se le evalúa,
  • 1:54 - 1:57
    y son ellos los que te enseñan qué tarjeta
    que creen que te mereces.
  • 1:57 - 2:00
    La segunda categoría
    está relacionado con la libertad.
  • 2:00 - 2:02
    ¿Cómo se controla?
  • 2:02 - 2:03
    ¿Cuánto tiempo has estado yendo a la cárcel?
  • 2:03 - 2:06
    ¿Fue encarcelado mientras
    esperaba por un juicio?
    44
    00:02:05,737 --> 00:02:08,167
    La tercera categoría es
    material de subsistencia:
  • 2:08 - 2:09
    su trabajo.
  • 2:09 - 2:12
    ¿Entrevistas para
    el trabajo que solicitas?
  • 2:12 - 2:13
    ¿Puedes conseguir el trabajo?
  • 2:13 - 2:14
    ¿Recibes un aumento de sueldo?
  • 2:14 - 2:16
    ¿Cuál es su horario de trabajo?
  • 2:17 - 2:20
    Un ejemplo que atrajo
    la atención de los medios de comunicación
  • 2:20 - 2:21
    era un algoritmo de contratación
  • 2:21 - 2:25
    que favoreció desproporcionadamente a
    individuos que se llamaban a sí mismos Jared
  • 2:25 - 2:27
    y que jugaban al lacrosse porque
  • 2:27 - 2:30
    la mayoría de los individuos que tenían
    un buen rendimiento en esa empresa
  • 2:30 - 2:33
    tenían estos dos hechos en común.
  • 2:33 - 2:36
    Y la cuarta categoría es la información en sí misma.
  • 2:36 - 2:37
    ¿Cómo se obtiene la información?
  • 2:37 - 2:38
    ¿En qué creemos?
  • 2:38 - 2:40
    Información política, principalmente.
  • 2:40 - 2:42
    Sus cosas son
    algoritmos ahora.
  • 2:42 - 2:44
    Y a menudo son injustas.
  • 2:44 - 2:46
    Y a menudo ilegales.
  • 2:46 - 2:50
    Pero no hemos descubierto cómo aplicar
    nuestras leyes contra la discriminación.
  • 2:50 - 2:53
    La distopía que me preocupa es de
  • 2:53 - 2:59
    nosotros no frenamos
    en el oscuro y peligroso algoritmo.
  • 2:59 - 3:01
    "Oye, te hemos estado siguiendo
    desde su nacimiento.
  • 3:01 - 3:02
    Entendemos que usted...
  • 3:02 - 3:03
    tuvo una infancia pobre,
  • 3:03 - 3:06
    en un barrio donde mucha gente
    personas no han alcanzado el éxito.
  • 3:06 - 3:07
    Y...
  • 3:07 - 3:10
    Vamos a predecir que
    no logrará el éxito.
  • 3:10 - 3:12
    No sólo vamos a predecir esto,
  • 3:12 - 3:14
    nos aseguraremos de que
    no consigues el éxito".
  • 3:14 - 3:16
    No vas a
    una buena universidad.
  • 3:16 - 3:17
    Ni un buen trabajo.
  • 3:17 - 3:18
    Y ni siquiera un buen préstamo.
  • 3:18 - 3:20
    Porque eso es lo que
    los algoritmos lo hacen, realmente
  • 3:20 - 3:23
    No predicen el futuro.
    Ellos hacen el futuro.
Title:
The Social Dilemma – Bonus Clip: The Discrimination Dilemma
Description:

more » « less
Video Language:
English
Team:
Mozilla
Project:
Non-Mozilla videos
Duration:
03:37

Spanish (Latin America) subtitles

Revisions Compare revisions