1 00:00:00,684 --> 00:00:03,060 Los algoritmos no son objetos. 2 00:00:03,341 --> 00:00:07,253 La IA y todas estas nuevas tecnologías están difundiendo los prejuicios. 3 00:00:07,253 --> 00:00:09,580 Están prediciendo el futuro, hacen el futuro. 4 00:00:11,325 --> 00:00:14,075 Continuando la conversación: 5 00:00:14,075 --> 00:00:19,736 El dilema de la discriminación 6 00:00:19,736 --> 00:00:24,073 He pasado gran parte de mi tiempo pensando en los prejuicios, 7 00:00:24,179 --> 00:00:26,046 pero es que yo soy así. 8 00:00:26,161 --> 00:00:28,771 Y también, la falta de conocimiento 9 00:00:28,771 --> 00:00:30,999 del gobierno para entender estos problemas 10 00:00:30,999 --> 00:00:34,396 resulta en una falta de regulación y leyes que realmente ayudarían 11 00:00:34,396 --> 00:00:37,915 para minimizar algunos de los problemas que ya hemos identificado a través de la IA. 12 00:00:38,191 --> 00:00:40,835 Los algoritmos no son objetivos. 13 00:00:41,185 --> 00:00:44,965 Los algoritmos están optimizados para alguna definición de éxito. 14 00:00:44,965 --> 00:00:49,055 Utilizan datos históricos para predecir un futuro próspero. 15 00:00:49,055 --> 00:00:51,419 La gente cree ciegamente 16 00:00:51,419 --> 00:00:54,183 que los algoritmos son justos y objetivo por naturaleza 17 00:00:54,183 --> 00:00:57,173 y en parte porque creen en esta lealtad, 18 00:00:57,173 --> 00:00:58,815 no cuestionan el algoritmo. 19 00:00:58,815 --> 00:01:02,585 Así que cuando el algoritmo termina siendo racista como los datos 20 00:01:02,585 --> 00:01:04,015 que insertamos en él, 21 00:01:04,015 --> 00:01:08,632 reproduce exactamente los patrones que desearíamos que trascendieran. 22 00:01:09,322 --> 00:01:13,092 Los sistemas están introduciendo toneladas de información sin contexto, 23 00:01:13,092 --> 00:01:16,242 sin historia, e incluso sin cuestiones políticas, 24 00:01:16,242 --> 00:01:17,352 económicas y sociales, 25 00:01:17,352 --> 00:01:22,241 entonces tienes un alto probabilidad de un sistema de IA 26 00:01:22,241 --> 00:01:26,241 que encarna estos prejuicios o incluso los empeora. 27 00:01:26,402 --> 00:01:28,452 Hay cuatro tipos de algoritmos 28 00:01:28,452 --> 00:01:31,279 que creo que se utilizan indebidamente 29 00:01:31,279 --> 00:01:35,341 y esto podría causar graves daños a la sociedad. 30 00:01:35,341 --> 00:01:37,051 Las cuatro categorías son: 31 00:01:37,051 --> 00:01:37,976 Financiero. 32 00:01:37,976 --> 00:01:39,772 Son algoritmos que deciden 33 00:01:39,772 --> 00:01:42,432 si la gente comprará un seguro y por cuánto.. 34 00:01:42,432 --> 00:01:43,950 una buena tarjeta de crédito... 35 00:01:43,950 --> 00:01:44,660 hipotecas... 36 00:01:44,660 --> 00:01:45,830 obtener una vivienda ... 37 00:01:45,830 --> 00:01:48,000 Si abres el sitio web de una tarjeta de crédito, 38 00:01:48,000 --> 00:01:50,698 no conseguirás información de la tarjeta de crédito. 39 00:01:50,698 --> 00:01:53,938 Te miden y te descubren, 40 00:01:53,938 --> 00:01:57,448 y son ellos los que te enseñan qué tarjeta creen que te mereces. 41 00:01:57,448 --> 00:02:00,393 La segunda categoría está relacionado con la libertad. 42 00:02:00,393 --> 00:02:01,813 ¿Cómo se controla? 43 00:02:01,813 --> 00:02:03,447 ¿Cuánto tiempo has estado yendo a la cárcel? 44 00:02:03,447 --> 00:02:05,737 ¿Fue encarcelado mientras esperaba por un juicio? 45 00:02:05,952 --> 00:02:08,151 La tercera categoría es la de los medios de subsistencia: 46 00:02:08,167 --> 00:02:09,401 su trabajo. 47 00:02:09,401 --> 00:02:11,941 ¿Obtienes una entrevista para el trabajo que solicitas? 48 00:02:11,941 --> 00:02:13,269 ¿Conseguiste el trabajo? 49 00:02:13,269 --> 00:02:14,429 ¿Recibes un aumento de sueldo? 50 00:02:14,429 --> 00:02:16,727 ¿Cuál es tu horario de trabajo? 51 00:02:16,727 --> 00:02:19,920 Un ejemplo que atrajo la atención de los medios de comunicación 52 00:02:19,920 --> 00:02:21,437 era un algoritmo de contratación 53 00:02:21,437 --> 00:02:25,460 que favoreció desproporcionadamente a individuos que se llamaban Jared 54 00:02:25,460 --> 00:02:26,950 y que jugaban al lacrosse porque 55 00:02:26,950 --> 00:02:30,470 la mayoría de los individuos que tenían un buen rendimiento en esa empresa 56 00:02:30,470 --> 00:02:32,590 tenían estos dos hechos en común. 57 00:02:33,004 --> 00:02:35,979 Y la cuarta categoría es la información en sí misma. 58 00:02:35,979 --> 00:02:37,421 ¿Cómo se obtiene la información? 59 00:02:37,421 --> 00:02:38,391 ¿En qué creemos? 60 00:02:38,391 --> 00:02:40,291 Información política, principalmente. 61 00:02:40,433 --> 00:02:42,353 Sus cosas son algoritmos ahora. 62 00:02:42,353 --> 00:02:44,145 Y a menudo son injustas. 63 00:02:44,145 --> 00:02:45,615 Y a menudo ilegales. 64 00:02:45,615 --> 00:02:49,916 Pero no hemos descubierto cómo aplicar nuestras leyes contra la discriminación. 65 00:02:49,916 --> 00:02:53,463 La distopía que me preocupa es de 66 00:02:53,463 --> 00:02:58,543 nosotros no frenamos a los oscuros y peligrosos algoritmo. 67 00:02:58,543 --> 00:03:00,693 "Oye, te hemos estado siguiendo desde su nacimiento. 68 00:03:00,693 --> 00:03:02,233 Entendemos que tu... 69 00:03:02,233 --> 00:03:03,333 tuviste una infancia pobre, 70 00:03:03,333 --> 00:03:05,863 en un barrio donde mucha gente no ha alcanzado el éxito. 71 00:03:05,863 --> 00:03:07,291 Y... 72 00:03:07,291 --> 00:03:09,707 Vamos a predecir que no lograrás el éxito. 73 00:03:09,707 --> 00:03:11,724 No sólo vamos a predecir esto, 74 00:03:11,724 --> 00:03:13,822 nos aseguraremos de que no consigas el éxito". 75 00:03:13,822 --> 00:03:15,562 No vas a ir a una buena universidad. 76 00:03:15,562 --> 00:03:16,460 Ni obtendrás un buen trabajo. 77 00:03:16,460 --> 00:03:17,790 Y ni siquiera un buen préstamo. 78 00:03:17,790 --> 00:03:19,890 Porque eso es lo que los algoritmos hacen, realmente 79 00:03:19,890 --> 00:03:22,610 No predicen el futuro. Ellos hacen el futuro. 80 00:03:24,678 --> 00:03:26,897 El dilema social. 81 00:03:26,897 --> 00:03:30,047 Nuestro dilema social.