0:00:00.684,0:00:03.060 Los algoritmos no son objetivos. 0:00:03.341,0:00:07.253 La IA y todas estas nuevas tecnologías [br]están perpetuando los prejuicios. 0:00:07.253,0:00:10.015 Están prediciendo el futuro, [br]hacen el futuro. 0:00:11.325,0:00:14.075 Continuando la conversación: 0:00:14.075,0:00:19.736 El dilema de la discriminación 0:00:19.736,0:00:24.073 He pasado gran parte de mi tiempo[br]pensando en los prejuicios, 0:00:24.179,0:00:26.046 pero es que yo soy así. 0:00:26.161,0:00:28.771 Y también, la falta de conocimiento 0:00:28.771,0:00:30.999 del gobierno para entender estos problemas 0:00:30.999,0:00:34.396 resulta en una falta de regulación[br]y leyes que realmente ayudarían 0:00:34.396,0:00:37.915 a minimizar algunos de los problemas [br]que ya hemos identificado a través de la IA. 0:00:38.191,0:00:40.835 Los algoritmos no son objetivos. 0:00:41.185,0:00:44.965 Los algoritmos están optimizados [br]para alguna definición de éxito. 0:00:44.965,0:00:49.055 Utilizan datos históricos[br]para predecir un futuro exitoso. 0:00:49.055,0:00:51.419 La gente cree ciegamente 0:00:51.419,0:00:54.183 que los algoritmos son justos[br]y objetivo por naturaleza 0:00:54.183,0:00:57.173 y en parte porque [br]creen en esta lealtad, 0:00:57.173,0:00:58.575 no cuestionan el algoritmo. 0:00:58.575,0:01:02.205 Así que cuando el algoritmo termina [br]siendo racista como los datos 0:01:02.205,0:01:04.015 que insertamos en él, 0:01:04.015,0:01:08.632 reproduce exactamente los patrones[br]que desearíamos que trascendieran. 0:01:09.322,0:01:13.092 Los sistemas están introduciendo toneladas[br]de información sin contexto, 0:01:13.092,0:01:16.242 sin historia, e incluso [br]sin cuestiones políticas, 0:01:16.242,0:01:18.642 económicas y sociales, 0:01:18.642,0:01:23.121 entonces tienes una mayor[br]probabilidad de un sistema de IA 0:01:23.121,0:01:26.241 que encarna estos prejuicios [br]o incluso los empeora. 0:01:26.402,0:01:28.402 Hay cuatro tipos de algoritmos 0:01:28.402,0:01:31.279 que creo que se utilizan [br]indebidamente 0:01:31.279,0:01:35.341 y esto podría causar [br]graves daños a la sociedad. 0:01:35.341,0:01:37.051 Las cuatro categorías son: 0:01:37.051,0:01:37.976 Financiero. 0:01:37.976,0:01:39.772 Son algoritmos que deciden 0:01:39.772,0:01:41.992 si la gente comprará un [br]seguro y por cuánto.. 0:01:41.992,0:01:43.360 si consiguen buenas tarjetas de crédito... 0:01:43.360,0:01:44.660 si consiguen hipotecas... 0:01:44.660,0:01:45.830 si consiguen una vivienda … 0:01:45.830,0:01:48.000 Si abres el [br]sitio web de una tarjeta de crédito, 0:01:48.000,0:01:50.698 no conseguirás [br]información de las tarjetas de crédito. 0:01:50.698,0:01:53.938 Te miden y te analizan, 0:01:53.938,0:01:57.448 y son ellos los que te enseñan qué tarjeta[br]creen que te mereces. 0:01:57.448,0:02:00.393 La segunda categoría[br]está relacionado con la libertad. 0:02:00.393,0:02:01.813 ¿Cómo te controlas? 0:02:01.813,0:02:03.277 ¿Cuánto tiempo vas a la cárcel? 0:02:03.277,0:02:05.737 ¿Fuiste encarcelado mientras[br]esperabas por un juicio? 0:02:05.737,0:02:08.151 La tercera categoría es[br]la de los medios de subsistencia: 0:02:08.167,0:02:09.401 su trabajo. 0:02:09.401,0:02:11.941 ¿Obtienes una entrevista para[br]el trabajo que solicitas? 0:02:11.941,0:02:13.269 ¿Conseguiste el trabajo? 0:02:13.269,0:02:14.429 ¿Recibes un aumento de sueldo? 0:02:14.429,0:02:16.727 ¿Cuál es tu horario de trabajo? 0:02:16.727,0:02:19.800 Un ejemplo que atrajo[br]la atención de los medios de comunicación 0:02:19.800,0:02:21.437 era un algoritmo de contratación 0:02:21.437,0:02:25.460 que favoreció desproporcionadamente a[br]individuos que se llamaban Jared 0:02:25.460,0:02:26.950 y que jugaban al lacrosse porque 0:02:26.950,0:02:30.470 la mayoría de los individuos que tenían [br]un buen rendimiento en esa empresa 0:02:30.470,0:02:32.590 tenían estos dos hechos en común. 0:02:33.004,0:02:35.979 Y la cuarta categoría es la información en sí misma. 0:02:35.979,0:02:37.421 ¿Cómo se obtiene la información? 0:02:37.421,0:02:38.391 ¿En qué creemos? 0:02:38.391,0:02:40.291 Información política, principalmente. 0:02:40.433,0:02:42.353 Sus cosas son[br]algoritmos ahora. 0:02:42.353,0:02:44.145 Y a menudo son injustas. 0:02:44.145,0:02:45.615 Y a menudo ilegales. 0:02:45.615,0:02:49.916 Pero no hemos descubierto cómo aplicar [br]nuestras leyes contra la discriminación. 0:02:49.916,0:02:53.463 La distopía que me preocupa es de 0:02:53.463,0:02:58.543 nosotros no frenamos[br]a los oscuros y peligrosos algoritmo. 0:02:58.543,0:03:00.693 "Oye, te hemos estado siguiendo[br]desde tu nacimiento. 0:03:00.693,0:03:02.233 Entendemos que tu... 0:03:02.233,0:03:03.333 tuviste una infancia pobre, 0:03:03.333,0:03:05.863 en un barrio donde mucha gente[br]no ha alcanzado el éxito. 0:03:05.863,0:03:07.291 Y... 0:03:07.291,0:03:09.707 Vamos a predecir que[br]no lograrás el éxito. 0:03:09.707,0:03:11.724 No sólo vamos a predecir esto, 0:03:11.724,0:03:13.822 nos aseguraremos de que[br]no consigas el éxito". 0:03:13.822,0:03:15.562 No vas a ir a [br]una buena universidad. 0:03:15.562,0:03:16.460 Ni obtendrás un buen trabajo. 0:03:16.460,0:03:17.790 Y ni siquiera un buen préstamo. 0:03:17.790,0:03:19.890 Porque eso es lo que[br]los algoritmos hacen, realmente 0:03:19.890,0:03:22.610 No predicen el futuro. [br]Ellos hacen el futuro. 0:03:24.678,0:03:26.897 El dilema social. 0:03:26.897,0:03:30.047 Nuestro dilema social.