< Return to Video

Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza

  • 0:05 - 0:07
    Buenos días.
  • 0:07 - 0:12
    Yo vengo a hablaros de qué es
    la ética de la tecnología,
  • 0:12 - 0:16
    porque creo humildemente
    que debería importaros.
  • 0:16 - 0:19
    Y es una buena semana para hacerlo,
    porque seguramente
  • 0:19 - 0:23
    aún tenemos grabadas en el cerebro
    las imágenes de Mark zuckerberg,
  • 0:23 - 0:26
    el CEO de Facebook,
    hablando ante el congreso de EE.UU,
  • 0:26 - 0:30
    justificando un poco lo injustificable,
    que es que básicamente Facebook
  • 0:30 - 0:35
    nos ha hecho creer que teníamos unos
    niveles de privacidad en su plataforma
  • 0:35 - 0:37
    que en realidad no tenemos.
  • 0:37 - 0:38
    Pero no solo eso.
  • 0:38 - 0:42
    Por suerte, hoy somos menos ingenuos
    en relación con la tecnología
  • 0:42 - 0:47
    y ya sabemos que cuando un producto
    tecnológico no lo pagamos con dinero,
  • 0:47 - 0:49
    en realidad es que nosotros
    somos el producto,
  • 0:49 - 0:55
    y nuestros datos son los que están
    alimentando una maquinaria de anuncios,
  • 0:55 - 0:58
    un modelo de negocio
    basado en la comercialización
  • 0:58 - 1:00
    de datos personales.
  • 1:00 - 1:02
    Hoy también sabemos,
    somos menos ingenuos,
  • 1:02 - 1:07
    que todo lo "smart", todas las
    herramientas tecnológicas inteligentes
  • 1:07 - 1:08
    nos espian.
  • 1:08 - 1:10
    Y si no, os reto si tenéis una smart TV
  • 1:10 - 1:16
    a que leáis el manual de instrucciones,
    donde veréis que os recomiendan
  • 1:16 - 1:20
    no tener conversaciones privadas
    delante del televisor,
  • 1:20 - 1:24
    si tenéis televisor en vuestra habitación
    igual tenéis un problema,
  • 1:24 - 1:29
    porque básicamente una smart TV,
    como todo lo que es smart, nos espía.
  • 1:29 - 1:31
    El producto somos nosotros.
  • 1:31 - 1:36
    Y en tecnología creo que por suerte
    ya nos hemos acostumbrado a oír
  • 1:36 - 1:41
    a personas que nos hablan del problema
    de la privacidad de los datos.
  • 1:41 - 1:45
    Pero la ética de la tecnología
    va mucho más allá de la privacidad.
  • 1:45 - 1:48
    Y permitidme que dé un paso atrás
    para contaros,
  • 1:48 - 1:49
    para compartir con vosotros
  • 1:49 - 1:52
    cómo empecé yo a darme cuenta
    de que en tecnología
  • 1:52 - 1:54
    teníamos que mirar
    todo un universo de cosas
  • 1:54 - 1:57
    que muy poca gente estaba mirando.
  • 1:57 - 2:00
    Yo empecé a hacer mi tesis
    hace muchísimos años,
  • 2:00 - 2:02
    mi tesis doctoral en videovigilancia.
  • 2:02 - 2:07
    Quería ver cómo las cámaras
    impactaban sobre cómo utilizamos la ciudad
  • 2:07 - 2:11
    cuáles eran las motivaciones
    de los diferentes actores
  • 2:11 - 2:15
    para confiar a una solución tecnológica
    un problema social importantísimo,
  • 2:15 - 2:18
    como es la percepción de inseguridad.
  • 2:18 - 2:21
    Y ahí estaba yo haciendo mi tesis,
    descubriendo cosas interesantísimas,
  • 2:21 - 2:25
    viendo métricas y como las cámaras
    eran capaces de capturar
  • 2:25 - 2:30
    dinámicas y expectativas sociales,
    pero además devolvérnoslas a la sociedad
  • 2:30 - 2:32
    muchas veces con diferencias.
  • 2:32 - 2:36
    La cámara no era solo
    un actor tecnológico, o solo un cacharro.
  • 2:36 - 2:39
    La cámara intervenía
    en cómo utilizábamos el espacio público,
  • 2:39 - 2:42
    las expectativas que teníamos
    los unos sobre los otros,
  • 2:42 - 2:44
    cómo comprendíamos la seguridad.
  • 2:44 - 2:48
    Pero en todo este proceso un buen día
    se me ocurrió coger el libro,
  • 2:48 - 2:52
    un libro de Richard Sennett,
    un conocido sociólogo,
  • 2:52 - 2:55
    "El declive del hombre público"
    y en él se preguntaba,
  • 2:55 - 2:59
    mucho antes de que tuviéramos
    drones y sensores
  • 2:59 - 3:01
    y cámaras por todas partes,
  • 3:01 - 3:05
    y ojos constantes que nos vigilan
    en nuestra deriva urbana,
  • 3:05 - 3:12
    él se preguntaba en estas ciudades
    que estamos creando llenas de ojos,
  • 3:12 - 3:15
    dónde se enamorarían Romeo y Julieta.
  • 3:16 - 3:21
    Y para mí ese fue mi "Aha moment",
    mi momento de darme cuenta
  • 3:21 - 3:24
    de que mientras yo me focalizaba
    en dinámicas sociales y métricas
  • 3:24 - 3:28
    y expectativas, me había olvidado
    de una pregunta importantísima.
  • 3:28 - 3:32
    Esto que estamos haciendo ¿es deseable?
  • 3:32 - 3:35
    ¿Queremos que en nuestras ciudades,
    Romeo y Julieta,
  • 3:35 - 3:40
    hijos de 2 familias enfrentadas,
    un amor prohibido,
  • 3:40 - 3:43
    queremos crear ciudades donde
    los jóvenes de familias
  • 3:43 - 3:46
    dispares o enfrentadas
    no puedan enamorarse?
  • 3:46 - 3:49
    Y sobre todo pensando en la gente joven.
  • 3:49 - 3:52
    Una de las cosas que más me
    sorprendió en mi trabajo
  • 3:52 - 3:57
    es la ignorancia total que tenemos,
    ignorancia por decirlo suave.
  • 3:57 - 4:01
    Cómo ignoramos los datos
    y los derechos de los jóvenes,
  • 4:01 - 4:04
    los jóvenes aparecen en mi trabajo
    de forma sistemática
  • 4:04 - 4:09
    como un colectivo constantemente
    maltratado por la recogida de datos.
  • 4:09 - 4:13
    Los jóvenes, porque además
    no tienen casa propia,
  • 4:13 - 4:15
    tienen una habitación
    en el mejor de los casos
  • 4:15 - 4:17
    donde ponen candados
    y carteles de no entrar,
  • 4:17 - 4:18
    mi zona de privacidad, etc.
  • 4:18 - 4:21
    Su zona de privacidad
    muchas veces es el espacio público,
  • 4:21 - 4:23
    y se lo estábamos quitando.
  • 4:23 - 4:26
    Les estábamos y les estamos quitando
    a los jóvenes los espacios
  • 4:26 - 4:30
    para darse el primer beso
    en la clandestinidad, en la privacidad,
  • 4:30 - 4:34
    en la intimidad
    que necesitan y que merecen,
  • 4:34 - 4:35
    pero no solo para los jóvenes.
  • 4:35 - 4:38
    Se han preguntado
    dónde se enamorarían Romeo y Julieta
  • 4:38 - 4:39
    y para mí la gran pregunta es
  • 4:39 - 4:41
    todo esto que estamos haciendo
    en tecnología,
  • 4:41 - 4:43
    ese dinero que estamos invirtiendo.
  • 4:43 - 4:46
    ¿Es deseable lo que estamos haciendo
    a nuestro alrededor?
  • 4:46 - 4:50
    Cosas que ocurren con la tecnología,
    por ejemplo, vinculado a los jóvenes
  • 4:50 - 4:54
    y a los entornos urbanos,
    por primera vez en la historia
  • 4:54 - 4:58
    y a consecuencia de la penetración
    de aparatos tecnológicos,
  • 4:58 - 5:01
    es más caro olvidar que recordar.
  • 5:02 - 5:05
    En toda la historia
    fue mucho más dificil recordar.
  • 5:05 - 5:08
    Había que escribir pergaminos,
    después la imprenta.
  • 5:08 - 5:09
    Eso tiene un coste.
  • 5:09 - 5:16
    Ahora mismo lo difícil es poder olvidar,
    porque todo genera un registro digital.
  • 5:16 - 5:20
    Yo siempre digo que tengo la suerte
    de tener más de cuarenta años,
  • 5:20 - 5:24
    porque los primeros 20 años de mi vida
    no los grabó nadie,
  • 5:24 - 5:27
    tengo alguna foto, pero nada más.
  • 5:27 - 5:31
    A los jóvenes de ahora
    les condenamos a una vida de miedo,
  • 5:31 - 5:35
    por cómo su huella digital puede impactar
    en su vida en el futuro.
  • 5:36 - 5:41
    Esa foto de esa fiesta, ese comentario
    en una red social, ese momento
  • 5:41 - 5:47
    que queremos olvidar, ese conflicto,
    incluso esa condena judicial
  • 5:47 - 5:49
    o ese archivo de una causa.
  • 5:49 - 5:53
    Todo eso las personas que han nacido
    ya en la sociedad actual,
  • 5:53 - 5:57
    totalmente digitalizada,
    puede emerger en cualquier momento
  • 5:57 - 5:59
    y arruinarte la vida,
    tu relación de pareja,
  • 5:59 - 6:03
    la consecución de ese trabajo
    que tanto deseabas.
  • 6:03 - 6:07
    Por lo tanto,
    en mi trabajo sobre videovigilancia
  • 6:07 - 6:10
    me di cuenta de que había un montón
    de preguntas sobre tecnología
  • 6:10 - 6:15
    que no estábamos haciendo, y que era
    importantísimo que alguien realizara.
  • 6:15 - 6:19
    Desde entonces he tenido la suerte
    de poder dedicarme a hacer esas preguntas,
  • 6:19 - 6:22
    a explorar cuáles son las preguntas
    que deberíamos hacer, y cómo debería
  • 6:22 - 6:25
    la tecnología responder a esas preguntas,
  • 6:25 - 6:28
    y entender e incorporar
    todas esas preocupaciones.
  • 6:28 - 6:31
    Quería detallaros brevemente
    algunos de los proyectos
  • 6:31 - 6:33
    en los que estuve involucrada,
    para que veáis cómo se aterriza
  • 6:33 - 6:36
    este tema de la ética de la tecnología.
  • 6:36 - 6:37
    He trabajado mucho tiempo,
    por ejemplo,
  • 6:37 - 6:40
    en la automatización
    del paso de fronteras.
  • 6:40 - 6:42
    No sé si habéis ido
    a algún aeropuerto recientemente,
  • 6:42 - 6:44
    pero veréis que muchas veces
    quien nos controla
  • 6:44 - 6:47
    el pasaporte ya no es un policía,
    sino una máquina,
  • 6:47 - 6:51
    metéis vuestro pasaporte, se os hace
    un reconocimiento de la huella digital,
  • 6:51 - 6:53
    un match biométrico
    con vuestro documento de identidad,
  • 6:53 - 6:58
    y la máquina decide si podéis pasar o no.
  • 6:58 - 7:03
    Cuando empezamos a trabajar
    en las "fronteras inteligentes",
  • 7:03 - 7:05
    una de las primeras cosas
    que nos sorprendió,
  • 7:05 - 7:09
    y que después hemos visto
    reproducida en muchos otros casos,
  • 7:09 - 7:10
    es que cuando el parlamento europeo
  • 7:10 - 7:13
    empezó a plantearse la automatización
    del cruce de fronteras,
  • 7:15 - 7:19
    el debate no pasó por el parlamento
    europeo porque se consideró
  • 7:19 - 7:21
    una enmienda técnica.
  • 7:21 - 7:26
    Cambiar a policías por un proceso de datos
    era nada más que una enmienda técnica.
  • 7:26 - 7:29
    No afectaba
  • 7:29 - 7:32
    según las personas que inicialmente
    propusieron ese cambio,
  • 7:32 - 7:35
    a la conceptualización
    de lo que era la frontera,
  • 7:35 - 7:38
    con lo cual podía ser una
    enmienda técnica que no requería
  • 7:38 - 7:41
    ningún tipo de control público o político.
  • 7:42 - 7:46
    Para que veáis
    lo poco técnico que esto es,
  • 7:46 - 7:49
    la incorporación de automatización
    del paso de fronteras ha hecho,
  • 7:49 - 7:52
    por ejemplo, que la frontera desaparezca.
  • 7:53 - 8:00
    Hoy en día, el cruce de la frontera,
    la línea en el suelo, el aeropuerto,
  • 8:00 - 8:02
    no es lo importante.
  • 8:02 - 8:06
    Empezamos a viajar y se nos empieza
    a autorizar el viaje en el momento
  • 8:06 - 8:11
    en el que compramos nuestro billete
    o solicitamos la visa para viajar.
  • 8:11 - 8:14
    Y nuestro paso de frontera no acaba
    cuando cruzamos la frontera
  • 8:14 - 8:16
    o cuando llegamos a nuestro destino.
  • 8:17 - 8:20
    Si hemos pedido una visa continúa,
    porque la validez de nuestra visa
  • 8:20 - 8:22
    es controlada hasta que
    abandonamos el país,
  • 8:22 - 8:25
    o si no lo abandonamos salta una alarma,
  • 8:25 - 8:28
    para que la policía pueda
    tomar cartas en el asunto.
  • 8:28 - 8:33
    Con lo cual la introducción de los datos,
    la automatización de todo este proceso,
  • 8:33 - 8:36
    ha cambiado completamente
    lo que supone una frontera.
  • 8:36 - 8:39
    La frontera es ahora mismo
    un espacio larguísimo,
  • 8:39 - 8:43
    para muchas personas
    un espacio de control continuo.
  • 8:44 - 8:46
    Han pasado otras cosas.
  • 8:46 - 8:50
    con la automatización de fronteras
    hemos incorporado la biometría
  • 8:50 - 8:53
    como herramienta
    para comprobar la identidad.
  • 8:53 - 8:56
    ¿Qué pasaba en el pasado
    cuando alguien no quería
  • 8:56 - 8:58
    que su identidad fuera conocida?
  • 8:58 - 8:59
    Quemaba su pasaporte.
  • 8:59 - 9:01
    Cuando alguien no quería
    ser devuelto a su país,
  • 9:01 - 9:07
    porque consideraba que en ese país
    podía sufrir consecuencias indeseables,
  • 9:07 - 9:10
    podía quemar su pasaporte
    y con eso aspirar a quedarse
  • 9:10 - 9:13
    en un espacio
    y en un limbo legal y jurídico.
  • 9:14 - 9:19
    Hoy, nuestro pasaporte
    está en nuestros dedos.
  • 9:19 - 9:22
    ¿Qué están haciendo los migrantes?
  • 9:22 - 9:25
    Quemarse los dedos, mutilarse,
  • 9:25 - 9:30
    porque es la única forma de evitar
    que su cuerpo se convierta en su enemigo.
  • 9:30 - 9:34
    Eso que querían pasar como enmienda
    técnica, está teniendo unas consecuencias
  • 9:34 - 9:37
    brutales sobre los derechos
    fundamentales de los migrantes.
  • 9:37 - 9:41
    Inicialmente, hoy ya no, alguien quería
    que no habláramos de eso,
  • 9:41 - 9:46
    que no nos planteáramos cuáles eran
    las implicaciones de esa decisión.
  • 9:46 - 9:51
    No solo eso, a través de mi trabajo
    he podido hablar con más de 1500 personas
  • 9:51 - 9:56
    que han utilizado estos sistemas
    automáticos de control de la identidad
  • 9:56 - 9:58
    en pasos de fronteras.
  • 9:58 - 10:02
    Y es curioso ver como cuando les preguntas
    a los viajeros de terceros países,
  • 10:02 - 10:05
    no europeos, no personas del espacio
    del entorno Schengen:
  • 10:05 - 10:10
    ¿Qué prefieres, un control policial humano
    o un control automático?
  • 10:10 - 10:13
    La mayoría te dice:
    "Prefiero el control automático".
  • 10:14 - 10:18
    Confiamos en la tecnología,
    creemos que es más eficiente
  • 10:18 - 10:22
    y más justa incluso
    que la toma de decisiones humana.
  • 10:22 - 10:24
    Pero cuando les preguntábamos
    a estas mismas personas:
  • 10:24 - 10:29
    ¿Y si la máquina se equivoca?
    ¿Qué crees que va a pasar?
  • 10:29 - 10:33
    Todos coincidían:
    "Estoy perdido, no voy a poder salir".
  • 10:34 - 10:36
    Cuando hay lo que llamamos
    un falso positivo,
  • 10:36 - 10:38
    cuando la máquina se equivoca,
    no tenemos los mecanismos
  • 10:38 - 10:41
    ni las leyes que garanticen
    que podemos salir del hoyo
  • 10:41 - 10:44
    donde nos ha metido ese proceso
    de toma de decisiones automáticas.
  • 10:45 - 10:49
    Esas son algunas de las cosas
    que hemos encontrado en el trabajo
  • 10:49 - 10:51
    en el entorno de fronteras.
  • 10:52 - 10:56
    Otro ejemplo: también hemos trabajado
    con universidades,
  • 10:56 - 10:58
    para ver el impacto ético
    de la ciencia ciudadana.
  • 10:58 - 11:02
    La ciencia ciudadana es la ciencia
    que se hace con la ayuda de las personas,
  • 11:02 - 11:06
    gente que trabaja el movimiento de
    los mares o la migración de los pájaros,
  • 11:06 - 11:09
    si tuvieran que desplegar
    a investigadores a todas partes,
  • 11:09 - 11:12
    para hacer fotografías constantes
    de cómo está el mar,
  • 11:12 - 11:14
    o cómo se mueven los pájaros
    esto sería muy costoso.
  • 11:14 - 11:18
    Gracias a la tecnología podemos pedir
    a la gente que vive en espacios concretos
  • 11:18 - 11:21
    que nos manden una foto del mar cada día
    cuando se levanten a la misma hora
  • 11:21 - 11:24
    y yo proceso todos esos datos
    y a partir de ahí hago ciencia.
  • 11:24 - 11:26
    Está muy bien,
  • 11:26 - 11:29
    pero cuando empezamos a trabajar
    con la universidad y los investigadores,
  • 11:29 - 11:34
    nos encontramos un caso paradigmático
    de lo que yo llamo despotismo de los datos
  • 11:34 - 11:38
    que es "Todo por el pueblo, con los datos
    del pueblo, pero sin el pueblo".
  • 11:38 - 11:42
    Los investigadores pedían a la gente que
    les mandaran un montón de datos personales
  • 11:42 - 11:46
    donde una fotografía geolocalizada
    puede decir exactamente dónde vivimos,
  • 11:46 - 11:49
    cómo es nuestro entorno
    e incluso con quién estamos.
  • 11:49 - 11:53
    Pues no había ningún tipo de precaución
    en relación con la gestión de esos datos.
  • 11:53 - 11:56
    Y lo llamábamos "ciencia ciudadana".
  • 11:56 - 11:58
    Afortunadamente, hoy ya no es así,
  • 11:58 - 12:00
    y hemos creado mecanismos
    para que la ciencia ciudadana
  • 12:00 - 12:03
    sea realmente ciencia ciudadana,
    al servicio de las personas
  • 12:03 - 12:07
    y no solo un espacio de uso y abuso
    de las personas voluntarias
  • 12:07 - 12:09
    que se prestan para participar
    en esas investigaciones.
  • 12:10 - 12:13
    Trabajamos también mucho
    en el ámbito del trabajo,
  • 12:13 - 12:15
    el futuro del trabajo,
    inteligencia artificial,
  • 12:15 - 12:17
    los robots que nos van
    a quitar el trabajo,
  • 12:17 - 12:19
    todos esos miedos que tenemos.
  • 12:20 - 12:22
    ¿Y qué nos encontramos?.
  • 12:22 - 12:25
    Los directores de las empresas, los CEOs,
    los responsables de las empresas
  • 12:25 - 12:32
    tienden a tomar malas decisiones,
    cuando éstas involucran la tecnología.
  • 12:32 - 12:38
    Es decir, un responsable de una empresa
    estará mucho más dispuesto
  • 12:38 - 12:41
    a gastar dinero en tecnología
    que en procesos no tecnológicos,
  • 12:41 - 12:45
    con lo cual adquirimos tecnología
    sin pensar si realmente la necesitamos,
  • 12:45 - 12:48
    sobre todo en entornos de trabajo.
  • 12:48 - 12:50
    Estamos viendo la introducción
    de exoesqueletos,
  • 12:50 - 12:54
    de sensores de control 24 horas
    en entornos de trabajo
  • 12:54 - 12:57
    en los que no son necesarios
    para mejorar la eficacia, la eficiencia
  • 12:57 - 13:00
    ni la rentabilidad de esa empresa.
  • 13:00 - 13:03
    Pero, entre que la gente en las empresas
    no sabe que existen
  • 13:03 - 13:05
    tecnologías menos lesivas,
    y que quien vende la tecnología
  • 13:05 - 13:08
    siempre quiere venderte la máxima
    capacidad que puede desarrollar,
  • 13:08 - 13:12
    acabamos con entornos laborales
    que son insufribles
  • 13:12 - 13:14
    desde la perspectiva de los que trabajan.
  • 13:14 - 13:18
    Tomamos malas decisiones porque
    la tecnología nos fascina constantemente.
  • 13:18 - 13:21
    Cómo construimos los mecanismos
    para empoderarnos a todos
  • 13:21 - 13:24
    a saber distinguir cuando una tecnología
    realmente nos ayuda o no nos ayuda.
  • 13:24 - 13:28
    Pues a eso nos dedicamos
    en la ética de la tecnología.
  • 13:28 - 13:32
    Un cuarto ejemplo: trabajo mucho
    en tecnologías de seguridad.
  • 13:32 - 13:35
    La verdad es que podría dar 10 TED talks
    solo sobre seguridad,
  • 13:35 - 13:38
    porque es un ámbito terriblemente sensible
  • 13:38 - 13:42
    Un par de ejemplos: hace unos años
    estábamos auditando los algoritmos
  • 13:42 - 13:46
    de un proyecto que quería desplegar
    cámaras de videovigilancia inteligentes
  • 13:46 - 13:49
    en entornos sensibles;
    bancos y aeropuertos.
  • 13:50 - 13:53
    Las cámaras de videovigilancia
    inteligentes son capaces de reconocer
  • 13:53 - 13:58
    comportamientos potencialmente criminales
    de forma automática,
  • 13:58 - 14:02
    no es necesario que el ojo humano
    esté controlando lo que ocurre,
  • 14:02 - 14:05
    sino que pueden ver
    por la forma en que se mueve la gente,
  • 14:05 - 14:09
    si su forma de moverse por un espacio
    es potencialmente peligrosa
  • 14:09 - 14:12
    y así mandar una alarma
    y la intervención humana solo es necesaria
  • 14:12 - 14:15
    cuando se ha identificado
    un comportamiento peligroso.
  • 14:16 - 14:17
    ¿Qué nos encontramos?
  • 14:17 - 14:21
    Que los ingenieros se habían codificado
    a sí mismos como la normalidad.
  • 14:21 - 14:26
    Es decir, la forma de utilizar
    un banco es entrar y salir,
  • 14:26 - 14:28
    porque tienes mucha prisa,
    porque tienes trabajo,
  • 14:28 - 14:31
    porque eres joven y te lo puedes permitir.
  • 14:31 - 14:34
    En ese algoritmo quien emergía
    como potencialmente sospechoso
  • 14:34 - 14:39
    eran gente mayor, que tiene
    mucho más tiempo, claro, está lloviendo,
  • 14:39 - 14:42
    vas al banco, hay un sofá, oye pues
    me quedo un ratín, ¿no?
  • 14:42 - 14:46
    Eso no es potencialmente criminal,
    pero el algoritmo lo identificaba así
  • 14:46 - 14:50
    porque no era cómo el ingeniero
    habría utilizado ese espacio.
  • 14:50 - 14:53
    O las familias en aeropuertos.
  • 14:53 - 14:56
    Yo que viajo mucho, voy al aeropuerto
    y quiero salir lo antes posible,
  • 14:56 - 14:59
    pero yo no soy la mayoría,
    y no soy sobre todo la normalidad.
  • 15:00 - 15:02
    Hay gente que viaja
    y coge un avión una vez al año.
  • 15:02 - 15:06
    Para quien la experiencia del aeropuerto
    forma parte del viaje en sí,
  • 15:06 - 15:11
    que van 5 horas antes y dan vueltas,
    comen, vuelven a comer, descansan,
  • 15:11 - 15:14
    salen a la terraza, y todo eso es normal.
  • 15:14 - 15:18
    Debería ser normal, y en cambio
    el algoritmo de la cámara inteligente
  • 15:18 - 15:21
    lo había codificado como anormal,
    y eso pasa constantemente.
  • 15:21 - 15:25
    Como los ingenieros no tienen formación
    en este tipo de cosas,
  • 15:25 - 15:29
    no se dan cuenta de que codifican
    su normalidad como la de todos.
  • 15:29 - 15:32
    Y eso, en el ámbito de la seguridad
    es problemático,
  • 15:32 - 15:36
    porque todo lo que no es normal,
    es sospechoso.
  • 15:36 - 15:38
    Y todos tenemos derecho
    a no ser sospechosos,
  • 15:38 - 15:41
    a no ser que hagamos algo
    realmente sospechoso.
  • 15:41 - 15:45
    Con lo cual la cámara nos acaba
    convirtiendo en sospechosos constantemente
  • 15:45 - 15:51
    por salir fuera de esa normalidad
    tan pequeña definida por los tecnólogos.
  • 15:52 - 15:57
    Por no hablar de los algoritmos
    predictivos en el ámbito de la seguridad.
  • 15:58 - 16:02
    Yo no sé cómo se puede decir
    más alto y más claro.
  • 16:02 - 16:08
    No podemos predecir el futuro.
    Eso es magia. Y no sabemos hacerlo.
  • 16:08 - 16:10
    Lo máximo que podemos hacer
    con los algoritmos
  • 16:10 - 16:13
    es entender lo que ha pasado hasta hoy,
  • 16:13 - 16:16
    y a partir de ahí hacer
    que emerjan ciertos patrones,
  • 16:16 - 16:23
    y decir: el pasado me lleva a pensar
    que es posible que en el futuro ocurra eso
  • 16:23 - 16:28
    Esto es lo que podemos hacer.
    Llamar a eso predicción es muy arriesgado.
  • 16:28 - 16:33
    Y la insistencia actual de las muchísimas
    fuerzas policiales de todo el mundo
  • 16:33 - 16:36
    en pedir el algoritmo
    de la radicalización, de la prevención,
  • 16:36 - 16:40
    el pre-crimen, es imposible.
  • 16:40 - 16:42
    La tecnología nos puede ayudar,
    pero hasta cierto punto.
  • 16:42 - 16:45
    Y todos tenemos derecho
    a la presunción de inocencia
  • 16:45 - 16:48
    hasta que cometamos un acto ilícito.
  • 16:48 - 16:50
    La tecnología tiende a olvidar eso
  • 16:50 - 16:55
    y se siente tan poderosa y tan poco
    controlada por todos estos elementos
  • 16:55 - 16:58
    que se atreve a prometer
    la capacidad de prever y de saber
  • 16:58 - 17:03
    lo que vamos a hacer antes de que
    a nosotros se nos pase por la cabeza.
  • 17:03 - 17:07
    Y finalmente un último ejemplo:
    el de movilidad.
  • 17:07 - 17:10
    Todos habéis oído hablar
    de los coches autónomos ¿no?
  • 17:10 - 17:13
    Teóricamente en poco tiempo
    todas las ciudades estarán llenas
  • 17:13 - 17:15
    de coches que conducen solos.
  • 17:15 - 17:18
    Pues el coche autónomo
    es uno de los grandes ejemplos
  • 17:18 - 17:23
    de cómo la arrogancia de la ingeniería
    puede llevar al fracaso una buena idea.
  • 17:23 - 17:28
    El coche autónomo es muchísimo más seguro
    que el coche no autónomo.
  • 17:28 - 17:29
    Pero, ¿qué pasa?
  • 17:30 - 17:34
    A las muertes de los coches no autónomos
    nos hemos acostumbrado,
  • 17:34 - 17:38
    pero cada vez que un coche autónomo
    mata o hiere a alguien
  • 17:38 - 17:40
    es portada en todo el mundo.
  • 17:40 - 17:44
    Con lo cual la percepción social
    es que es mucho más inseguro
  • 17:44 - 17:47
    el coche autónomo que el no autónomo.
  • 17:47 - 17:51
    Y mientras los ingenieros insistan
    en decir tengo aquí todas estas cifras
  • 17:51 - 17:53
    que demuestran que es más seguro,
  • 17:53 - 17:56
    y no se preocupen
    de convencer a la población,
  • 17:56 - 17:59
    de trabajar la aceptabilidad
    de esa tecnología,
  • 17:59 - 18:03
    de incorporar los miedos
    y las preocupaciones sociales
  • 18:03 - 18:07
    en la conceptualización de esa tecnología,
    seguramente lo que va a pasar
  • 18:07 - 18:10
    es que lo que es una buena idea
    que podría salvar muchísimas vidas,
  • 18:10 - 18:14
    tardará muchísimo más en implementarse,
    porque los ingenieros
  • 18:14 - 18:18
    tienden a la arrogancia
    de los números y de la técnica.
  • 18:18 - 18:22
    Para que veáis que la ética
    de la tecnología no es solo un tema
  • 18:22 - 18:26
    de tu smartphone, de tu televisor,
    de los aparatos de consumo que usamos.
  • 18:26 - 18:30
    Hay una infraestructura de datos
    que marca todo lo que hacemos,
  • 18:30 - 18:35
    que requiere urgentemente
    de un cierto control, o como mínimo,
  • 18:35 - 18:37
    de la incorporación de responsabilidad.
  • 18:37 - 18:41
    Lo que he encontrado en mi trabajo,
    es que como hacemos tecnología actualmente
  • 18:41 - 18:44
    es profundamente irresponsable.
  • 18:45 - 18:49
    A ningún médico ni a ninguna
    empresa farmacéutica se le ocurriría
  • 18:49 - 18:53
    pedirle a la sociedad poder lanzar
    medicamentos no testados.
  • 18:53 - 18:58
    O lanzar medicamentos que dijeran: "Mira
    esto cura el constipado pero da cáncer".
  • 18:58 - 18:59
    No lo aceptaríamos.
  • 18:59 - 19:01
    No se puede vender.
  • 19:01 - 19:04
    Y en cambio en ingeniería informática
    se pide el derecho
  • 19:04 - 19:08
    a lanzar cosas a la sociedad
    sin testarlas de ninguna manera,
  • 19:08 - 19:12
    sin tener ningún tipo de conciencia
    de su impacto social.
  • 19:13 - 19:16
    La buena noticia es que creo
    que esto está empezando a cambiar.
  • 19:17 - 19:21
    Que existan perfiles como el mío,
    con conocimientos en ciencia social,
  • 19:21 - 19:24
    pero también en elementos técnicos
    de la matemática y de la física,
  • 19:25 - 19:28
    muestra que empieza a haber
    interés por estas cosas.
  • 19:28 - 19:33
    Cada vez hay más grupos de investigación
    y de trabajo en empresas, en universidades
  • 19:33 - 19:40
    y en espacios público-privados que aúnan
    a sociólogos, filósofos, abogados,
  • 19:40 - 19:44
    a físicos, matemáticos, ingenieros
    e informáticos para intentar entender
  • 19:44 - 19:49
    cuáles son esos impactos legales,
    sociales y éticos de las tecnologías,
  • 19:50 - 19:53
    que ayudan a dilucidar
    cuál es la deseabilidad
  • 19:53 - 19:56
    y cómo aumentar esa deseabilidad
    de los productos
  • 19:56 - 19:58
    que se quieren fabricar en el futuro.
  • 19:58 - 20:02
    Cada vez hay más grupos que trabajan
    en mejorar la transparencia
  • 20:02 - 20:05
    y el control de los algoritmos,
    por ejemplo.
  • 20:06 - 20:11
    La idea de los estudios de impacto
    está cada vez más extendida.
  • 20:12 - 20:15
    De la misma forma que no podemos
    construir un nuevo desarrollo
  • 20:15 - 20:20
    de infraestructuras, una nueva carretera,
    sin justificar su impacto ambiental,
  • 20:20 - 20:24
    no deberíamos poder lanzar
    productos tecnológicos al mercado
  • 20:24 - 20:27
    sin justificar antes que nos hemos
    planteado en algún momento
  • 20:27 - 20:30
    qué impacto va a tener eso
    sobre la sociedad
  • 20:30 - 20:32
    y si ese impacto es deseable o no,
    y si no es deseable,
  • 20:32 - 20:38
    qué medidas hemos tomado para
    aumentar la deseabilidad de ese producto.
  • 20:38 - 20:42
    Ahora mismo muchísima gente
    estamos implicados en crear la innovación
  • 20:42 - 20:46
    responsable del futuro,
    que creo que es muy necesaria.
  • 20:47 - 20:51
    Y no obstante, se siguen oyendo voces
    que dicen constantemente
  • 20:51 - 20:57
    que la prevención, ética y regulación
    van en contra de la innovación,
  • 20:57 - 21:00
    que no podemos poner límites
    a la capacidad creadora
  • 21:00 - 21:03
    de los hombres ingenieros
    y sus grandes ideas.
  • 21:05 - 21:07
    Pues lo siento pero no es así.
  • 21:07 - 21:09
    Como humanidad,
    llevamos toda nuestra historia
  • 21:09 - 21:11
    domesticando a la tecnología.
  • 21:12 - 21:15
    ¿Un coche necesita un cinturón
    de seguridad para circular?
  • 21:16 - 21:16
    No.
  • 21:17 - 21:20
    ¿Un coche necesita un límite de velocidad?
  • 21:20 - 21:21
    No.
  • 21:21 - 21:24
    Los coches podrían ir muchísimo más rápido
    de lo que van por nuestras calles.
  • 21:25 - 21:29
    ¿Un coche necesita pasos de cebra,
    semáforos,
  • 21:29 - 21:31
    control de emisiones contaminantes?
  • 21:31 - 21:31
    No.
  • 21:32 - 21:36
    Todas estas cosas se las hemos añadido
    las sociedad humana,
  • 21:36 - 21:39
    para asegurar que lo que es
    una innovación tecnológica deseable,
  • 21:39 - 21:44
    que es un motor, algo que nos lleve
    de A a B de forma más rápida,
  • 21:44 - 21:47
    sea también deseable
    desde la perspectiva social.
  • 21:47 - 21:50
    Hemos limitado las posibilidades
    de los coches,
  • 21:50 - 21:53
    porque hemos entendido
    que queremos ir más rápido de A a B,
  • 21:53 - 21:58
    pero no queremos que muera
    tanta gente en ese proceso.
  • 21:58 - 21:59
    Eso lo hemos hecho siempre.
  • 21:59 - 22:02
    Siempre hemos limitado
    las capacidades de la tecnología,
  • 22:02 - 22:05
    porque la tecnología
    solo tiene sentido si mejora,
  • 22:05 - 22:08
    si aborda las problemáticas sociales.
  • 22:09 - 22:10
    Y que desde la ingeniería informática
  • 22:10 - 22:15
    se hayan olvidado tantas veces esa lógica
    es claramente preocupante.
  • 22:17 - 22:19
    Al final lo que hemos hecho con el coche
  • 22:19 - 22:21
    es tener debates
    a lo largo de mucho tiempo,
  • 22:21 - 22:26
    el primero no tenía cinturón de seguridad,
    ni había semáforos, ni pasos de cebra.
  • 22:26 - 22:30
    Pero durante mucho tiempo
    creamos esos marcos, como sociedad,
  • 22:30 - 22:34
    esos consensos sociales que nos llevan
    a poder utilizar hoy los vehículos
  • 22:34 - 22:35
    de forma normalizada.
  • 22:36 - 22:39
    Estos son los debates y consensos sociales
    que deben emerger alrededor
  • 22:39 - 22:41
    de cualquier nueva tecnología.
  • 22:41 - 22:43
    Debemos dilucidar cuando aparece
    un nuevo algoritmo,
  • 22:43 - 22:46
    una nueva innovación tecnológica,
    un nuevo invento,
  • 22:46 - 22:48
    debemos decidir entre todos
    cuáles van a ser
  • 22:48 - 22:51
    los cinturones de seguridad,
    los límites de velocidad,
  • 22:51 - 22:55
    los límites de emisiones,
    los pasos de cebra y los semáforos
  • 22:55 - 22:57
    de esa nueva innovación.
  • 22:57 - 22:59
    A eso se dedica la ética de la tecnología.
  • 22:59 - 23:03
    Primero a fomentar esos debates,
    para que entre todos decidamos
  • 23:03 - 23:07
    si es mejor un control humano,
    o uno mecánico para cruzar una frontera,
  • 23:08 - 23:10
    para tomar entre todos
    responsabilidad de las decisiones
  • 23:10 - 23:14
    que tomamos en relación con la tecnología,
    y a partir de esa deseabilidad
  • 23:14 - 23:18
    lo que vemos es cómo construir
    valores fundamentales, cohesión social,
  • 23:18 - 23:23
    confianza, no discriminación, derechos
    humanos en las especificaciones técnicas.
  • 23:23 - 23:26
    Porque no es solo un tema de dar discursos
  • 23:26 - 23:29
    Hay formas a través
    de las especificaciones técnicas
  • 23:29 - 23:32
    para hacer que las tecnologías
    respondan mucho mejor
  • 23:32 - 23:35
    a las expectativas y deseos de la sociedad
  • 23:35 - 23:39
    De la misma forma que hemos podido
    construir coches que maten menos,
  • 23:39 - 23:43
    podemos construir tecnologías
    que no solo sean menos lesivas
  • 23:43 - 23:47
    sino que contribuyan de forma definitiva
    a mejorar el futuro de nuestras sociedades
  • 23:48 - 23:51
    En definitiva, de lo que se trata
    la ética de la tecnología
  • 23:51 - 23:54
    es de poner a las personas
    en el centro del desarrollo tecnológico,
  • 23:54 - 23:56
    y poner la tecnología
    al servicio de las personas.
  • 23:56 - 24:01
    Y no como estamos ahora muchísimas veces,
    las personas al servicio de la tecnologías
  • 24:02 - 24:02
    Gracias.
  • 24:02 - 24:05
    (Aplausos)
Title:
Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza
Description:

Los datos y la tecnología están cambiando, desde cómo pagamos a cómo nos desplazamos y nos enamoramos. Pero la tecnología no es ni neutral ni inevitable; existen algoritmos sesgados y/o racistas, y quienes diseñan los sistemas tienen que estar formados en las consecuencias éticas y sociales de la tecnología. Hace falta hacer las preguntas adecuadas, para incorporar conocimientos relacionados con la ética, para regular la seguridad de los ciudadanos ante la invasión de la privacidad. Una charla sobre la proliferación de la vigilancia en entornos urbanos, el coche autónomo, la videovigilancia, las fronteras inteligentes, y el impacto ético de la tecnología.

La Dr. Gemma Galdón-Clavell ha liderado más de 10 grandes proyectos como investigadora principal, y la fundadora y directora de Eticas Research and Consulting, es experta en Ética en la Dirección General de Investigación e Innovación de la Comisión Europea, enseña en varias universidades extranjeras, es miembro de la Red Latinoamericana de Estudios de Vigilancia y analista habitual en televisión, radio y prensa.

Su trabajo se centra en la construcción de arquitecturas de datos socio-técnicos que incorporan cuestiones legales, sociales y éticas en su concepción, producción e implementación y sus publicaciones académicas abordan cuestiones relacionadas con la proliferación de la vigilancia de datos en entornos urbanos, políticas locales de seguridad, la seguridad en grandes acontecimientos, la relación entre la privacidad, la ética y la tecnología y las ciudades inteligentes.

Es analista de políticas públicas por formación y ha trabajado en proyectos relacionados con la vigilancia, el impacto social, legal y ético de la tecnología, las ciudades inteligentes, la privacidad, las políticas de seguridad, y la resiliencia y la vigilancia. Doctora en vigilancia, seguridad y políticas urbanas en la UAB, DirTNI, Amsterdam) y el Instituto de las Naciones Unidas para la Formación y la Investigación.

Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED. Más información en: http://ted.com/tedx

https://tedxzaragoza.net/
https://www.facebook.com/tedxzaragoza2018/
https://twitter.com/TEDxZaragoza

This talk was given at a TEDx event using the TED conference format but independently organized by a local community. Learn more at https://www.ted.com/tedx

more » « less
Video Language:
Spanish
Team:
closed TED
Project:
TEDxTalks
Duration:
24:11

Spanish subtitles

Revisions