[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.68,0:00:03.06,Default,,0000,0000,0000,,Los algoritmos no son objetivos. Dialogue: 0,0:00:03.34,0:00:07.25,Default,,0000,0000,0000,,La IA y todas estas nuevas tecnologías \Nestán perpetuando los prejuicios. Dialogue: 0,0:00:07.25,0:00:10.02,Default,,0000,0000,0000,,Están prediciendo el futuro, \Nhacen el futuro. Dialogue: 0,0:00:11.32,0:00:14.08,Default,,0000,0000,0000,,Continuando la conversación: Dialogue: 0,0:00:14.08,0:00:19.74,Default,,0000,0000,0000,,El dilema de la discriminación Dialogue: 0,0:00:19.74,0:00:24.07,Default,,0000,0000,0000,,He pasado gran parte de mi tiempo\Npensando en los prejuicios, Dialogue: 0,0:00:24.18,0:00:26.05,Default,,0000,0000,0000,,pero es que yo soy así. Dialogue: 0,0:00:26.16,0:00:28.77,Default,,0000,0000,0000,,Y también, la falta de conocimiento Dialogue: 0,0:00:28.77,0:00:30.100,Default,,0000,0000,0000,,del gobierno para entender estos problemas Dialogue: 0,0:00:30.100,0:00:34.40,Default,,0000,0000,0000,,resulta en una falta de regulación\Ny leyes que realmente ayudarían Dialogue: 0,0:00:34.40,0:00:37.92,Default,,0000,0000,0000,,a minimizar algunos de los problemas \Nque ya hemos identificado a través de la IA. Dialogue: 0,0:00:38.19,0:00:40.84,Default,,0000,0000,0000,,Los algoritmos no son objetivos. Dialogue: 0,0:00:41.18,0:00:44.96,Default,,0000,0000,0000,,Los algoritmos están optimizados \Npara alguna definición de éxito. Dialogue: 0,0:00:44.96,0:00:49.06,Default,,0000,0000,0000,,Utilizan datos históricos\Npara predecir un futuro exitoso. Dialogue: 0,0:00:49.06,0:00:51.42,Default,,0000,0000,0000,,La gente cree ciegamente Dialogue: 0,0:00:51.42,0:00:54.18,Default,,0000,0000,0000,,que los algoritmos son justos\Ny objetivo por naturaleza Dialogue: 0,0:00:54.18,0:00:57.17,Default,,0000,0000,0000,,y en parte porque \Ncreen en esta lealtad, Dialogue: 0,0:00:57.17,0:00:58.58,Default,,0000,0000,0000,,no cuestionan el algoritmo. Dialogue: 0,0:00:58.58,0:01:02.20,Default,,0000,0000,0000,,Así que cuando el algoritmo termina \Nsiendo racista como los datos Dialogue: 0,0:01:02.20,0:01:04.02,Default,,0000,0000,0000,,que insertamos en él, Dialogue: 0,0:01:04.02,0:01:08.63,Default,,0000,0000,0000,,reproduce exactamente los patrones\Nque desearíamos que trascendieran. Dialogue: 0,0:01:09.32,0:01:13.09,Default,,0000,0000,0000,,Los sistemas están introduciendo toneladas\Nde información sin contexto, Dialogue: 0,0:01:13.09,0:01:16.24,Default,,0000,0000,0000,,sin historia, e incluso \Nsin cuestiones políticas, Dialogue: 0,0:01:16.24,0:01:18.64,Default,,0000,0000,0000,,económicas y sociales, Dialogue: 0,0:01:18.64,0:01:23.12,Default,,0000,0000,0000,,entonces tienes una mayor\Nprobabilidad de un sistema de IA Dialogue: 0,0:01:23.12,0:01:26.24,Default,,0000,0000,0000,,que encarna estos prejuicios \No incluso los empeora. Dialogue: 0,0:01:26.40,0:01:28.40,Default,,0000,0000,0000,,Hay cuatro tipos de algoritmos Dialogue: 0,0:01:28.40,0:01:31.28,Default,,0000,0000,0000,,que creo que se utilizan \Nindebidamente Dialogue: 0,0:01:31.28,0:01:35.34,Default,,0000,0000,0000,,y esto podría causar \Ngraves daños a la sociedad. Dialogue: 0,0:01:35.34,0:01:37.05,Default,,0000,0000,0000,,Las cuatro categorías son: Dialogue: 0,0:01:37.05,0:01:37.98,Default,,0000,0000,0000,,Financiero. Dialogue: 0,0:01:37.98,0:01:39.77,Default,,0000,0000,0000,,Son algoritmos que deciden Dialogue: 0,0:01:39.77,0:01:41.99,Default,,0000,0000,0000,,si la gente comprará un \Nseguro y por cuánto.. Dialogue: 0,0:01:41.99,0:01:43.36,Default,,0000,0000,0000,,si consiguen buenas tarjetas de crédito... Dialogue: 0,0:01:43.36,0:01:44.66,Default,,0000,0000,0000,,si consiguen hipotecas... Dialogue: 0,0:01:44.66,0:01:45.83,Default,,0000,0000,0000,,si consiguen una vivienda … Dialogue: 0,0:01:45.83,0:01:48.00,Default,,0000,0000,0000,,Si abres el \Nsitio web de una tarjeta de crédito, Dialogue: 0,0:01:48.00,0:01:50.70,Default,,0000,0000,0000,,no conseguirás \Ninformación de las tarjetas de crédito. Dialogue: 0,0:01:50.70,0:01:53.94,Default,,0000,0000,0000,,Te miden y te analizan, Dialogue: 0,0:01:53.94,0:01:57.45,Default,,0000,0000,0000,,y son ellos los que te enseñan qué tarjeta\Ncreen que te mereces. Dialogue: 0,0:01:57.45,0:02:00.39,Default,,0000,0000,0000,,La segunda categoría\Nestá relacionado con la libertad. Dialogue: 0,0:02:00.39,0:02:01.81,Default,,0000,0000,0000,,¿Cómo te controlas? Dialogue: 0,0:02:01.81,0:02:03.28,Default,,0000,0000,0000,,¿Cuánto tiempo vas a la cárcel? Dialogue: 0,0:02:03.28,0:02:05.74,Default,,0000,0000,0000,,¿Fuiste encarcelado mientras\Nesperabas por un juicio? Dialogue: 0,0:02:05.74,0:02:08.15,Default,,0000,0000,0000,,La tercera categoría es\Nla de los medios de subsistencia: Dialogue: 0,0:02:08.17,0:02:09.40,Default,,0000,0000,0000,,su trabajo. Dialogue: 0,0:02:09.40,0:02:11.94,Default,,0000,0000,0000,,¿Obtienes una entrevista para\Nel trabajo que solicitas? Dialogue: 0,0:02:11.94,0:02:13.27,Default,,0000,0000,0000,,¿Conseguiste el trabajo? Dialogue: 0,0:02:13.27,0:02:14.43,Default,,0000,0000,0000,,¿Recibes un aumento de sueldo? Dialogue: 0,0:02:14.43,0:02:16.73,Default,,0000,0000,0000,,¿Cuál es tu horario de trabajo? Dialogue: 0,0:02:16.73,0:02:19.80,Default,,0000,0000,0000,,Un ejemplo que atrajo\Nla atención de los medios de comunicación Dialogue: 0,0:02:19.80,0:02:21.44,Default,,0000,0000,0000,,era un algoritmo de contratación Dialogue: 0,0:02:21.44,0:02:25.46,Default,,0000,0000,0000,,que favoreció desproporcionadamente a\Nindividuos que se llamaban Jared Dialogue: 0,0:02:25.46,0:02:26.95,Default,,0000,0000,0000,,y que jugaban al lacrosse porque Dialogue: 0,0:02:26.95,0:02:30.47,Default,,0000,0000,0000,,la mayoría de los individuos que tenían \Nun buen rendimiento en esa empresa Dialogue: 0,0:02:30.47,0:02:32.59,Default,,0000,0000,0000,,tenían estos dos hechos en común. Dialogue: 0,0:02:33.00,0:02:35.98,Default,,0000,0000,0000,,Y la cuarta categoría es la información en sí misma. Dialogue: 0,0:02:35.98,0:02:37.42,Default,,0000,0000,0000,,¿Cómo se obtiene la información? Dialogue: 0,0:02:37.42,0:02:38.39,Default,,0000,0000,0000,,¿En qué creemos? Dialogue: 0,0:02:38.39,0:02:40.29,Default,,0000,0000,0000,,Información política, principalmente. Dialogue: 0,0:02:40.43,0:02:42.35,Default,,0000,0000,0000,,Sus cosas son\Nalgoritmos ahora. Dialogue: 0,0:02:42.35,0:02:44.14,Default,,0000,0000,0000,,Y a menudo son injustas. Dialogue: 0,0:02:44.14,0:02:45.62,Default,,0000,0000,0000,,Y a menudo ilegales. Dialogue: 0,0:02:45.62,0:02:49.92,Default,,0000,0000,0000,,Pero no hemos descubierto cómo aplicar \Nnuestras leyes contra la discriminación. Dialogue: 0,0:02:49.92,0:02:53.46,Default,,0000,0000,0000,,La distopía que me preocupa es de Dialogue: 0,0:02:53.46,0:02:58.54,Default,,0000,0000,0000,,nosotros no frenamos\Na los oscuros y peligrosos algoritmo. Dialogue: 0,0:02:58.54,0:03:00.69,Default,,0000,0000,0000,,"Oye, te hemos estado siguiendo\Ndesde tu nacimiento. Dialogue: 0,0:03:00.69,0:03:02.23,Default,,0000,0000,0000,,Entendemos que tu... Dialogue: 0,0:03:02.23,0:03:03.33,Default,,0000,0000,0000,,tuviste una infancia pobre, Dialogue: 0,0:03:03.33,0:03:05.86,Default,,0000,0000,0000,,en un barrio donde mucha gente\Nno ha alcanzado el éxito. Dialogue: 0,0:03:05.86,0:03:07.29,Default,,0000,0000,0000,,Y... Dialogue: 0,0:03:07.29,0:03:09.71,Default,,0000,0000,0000,,Vamos a predecir que\Nno lograrás el éxito. Dialogue: 0,0:03:09.71,0:03:11.72,Default,,0000,0000,0000,,No sólo vamos a predecir esto, Dialogue: 0,0:03:11.72,0:03:13.82,Default,,0000,0000,0000,,nos aseguraremos de que\Nno consigas el éxito". Dialogue: 0,0:03:13.82,0:03:15.56,Default,,0000,0000,0000,,No vas a ir a \Nuna buena universidad. Dialogue: 0,0:03:15.56,0:03:16.46,Default,,0000,0000,0000,,Ni obtendrás un buen trabajo. Dialogue: 0,0:03:16.46,0:03:17.79,Default,,0000,0000,0000,,Y ni siquiera un buen préstamo. Dialogue: 0,0:03:17.79,0:03:19.89,Default,,0000,0000,0000,,Porque eso es lo que\Nlos algoritmos hacen, realmente Dialogue: 0,0:03:19.89,0:03:22.61,Default,,0000,0000,0000,,No predicen el futuro. \NEllos hacen el futuro. Dialogue: 0,0:03:24.68,0:03:26.90,Default,,0000,0000,0000,,El dilema social. Dialogue: 0,0:03:26.90,0:03:30.05,Default,,0000,0000,0000,,Nuestro dilema social.