Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza
-
0:05 - 0:07Buenos días.
-
0:07 - 0:12Yo vengo a hablaros de qué es
la ética de la tecnología, -
0:12 - 0:16porque creo humildemente
que debería importaros. -
0:16 - 0:19Y es una buena semana para hacerlo,
porque seguramente -
0:19 - 0:23aún tenemos grabadas en el cerebro
las imágenes de Mark zuckerberg, -
0:23 - 0:26el CEO de Facebook,
hablando ante el congreso de EE.UU, -
0:26 - 0:30justificando un poco lo injustificable,
que es que básicamente Facebook -
0:30 - 0:35nos ha hecho creer que teníamos unos
niveles de privacidad en su plataforma -
0:35 - 0:37que en realidad no tenemos.
-
0:37 - 0:38Pero no solo eso.
-
0:38 - 0:42Por suerte, hoy somos menos ingenuos
en relación con la tecnología -
0:42 - 0:47y ya sabemos que cuando un producto
tecnológico no lo pagamos con dinero, -
0:47 - 0:49en realidad es que nosotros
somos el producto, -
0:49 - 0:55y nuestros datos son los que están
alimentando una maquinaria de anuncios, -
0:55 - 0:58un modelo de negocio
basado en la comercialización -
0:58 - 1:00de datos personales.
-
1:00 - 1:02Hoy también sabemos,
somos menos ingenuos, -
1:02 - 1:07que todo lo "smart", todas las
herramientas tecnológicas inteligentes -
1:07 - 1:08nos espian.
-
1:08 - 1:10Y si no, os reto si tenéis una smart TV
-
1:10 - 1:16a que leáis el manual de instrucciones,
donde veréis que os recomiendan -
1:16 - 1:20no tener conversaciones privadas
delante del televisor, -
1:20 - 1:24si tenéis televisor en vuestra habitación
igual tenéis un problema, -
1:24 - 1:29porque básicamente una smart TV,
como todo lo que es smart, nos espía. -
1:29 - 1:31El producto somos nosotros.
-
1:31 - 1:36Y en tecnología creo que por suerte
ya nos hemos acostumbrado a oír -
1:36 - 1:41a personas que nos hablan del problema
de la privacidad de los datos. -
1:41 - 1:45Pero la ética de la tecnología
va mucho más allá de la privacidad. -
1:45 - 1:48Y permitidme que dé un paso atrás
para contaros, -
1:48 - 1:49para compartir con vosotros
-
1:49 - 1:52cómo empecé yo a darme cuenta
de que en tecnología -
1:52 - 1:54teníamos que mirar
todo un universo de cosas -
1:54 - 1:57que muy poca gente estaba mirando.
-
1:57 - 2:00Yo empecé a hacer mi tesis
hace muchísimos años, -
2:00 - 2:02mi tesis doctoral en videovigilancia.
-
2:02 - 2:07Quería ver cómo las cámaras
impactaban sobre cómo utilizamos la ciudad -
2:07 - 2:11cuáles eran las motivaciones
de los diferentes actores -
2:11 - 2:15para confiar a una solución tecnológica
un problema social importantísimo, -
2:15 - 2:18como es la percepción de inseguridad.
-
2:18 - 2:21Y ahí estaba yo haciendo mi tesis,
descubriendo cosas interesantísimas, -
2:21 - 2:25viendo métricas y como las cámaras
eran capaces de capturar -
2:25 - 2:30dinámicas y expectativas sociales,
pero además devolvérnoslas a la sociedad -
2:30 - 2:32muchas veces con diferencias.
-
2:32 - 2:36La cámara no era solo
un actor tecnológico, o solo un cacharro. -
2:36 - 2:39La cámara intervenía
en cómo utilizábamos el espacio público, -
2:39 - 2:42las expectativas que teníamos
los unos sobre los otros, -
2:42 - 2:44cómo comprendíamos la seguridad.
-
2:44 - 2:48Pero en todo este proceso un buen día
se me ocurrió coger el libro, -
2:48 - 2:52un libro de Richard Sennett,
un conocido sociólogo, -
2:52 - 2:55"El declive del hombre público"
y en él se preguntaba, -
2:55 - 2:59mucho antes de que tuviéramos
drones y sensores -
2:59 - 3:01y cámaras por todas partes,
-
3:01 - 3:05y ojos constantes que nos vigilan
en nuestra deriva urbana, -
3:05 - 3:12él se preguntaba en estas ciudades
que estamos creando llenas de ojos, -
3:12 - 3:15dónde se enamorarían Romeo y Julieta.
-
3:16 - 3:21Y para mí ese fue mi "Aha moment",
mi momento de darme cuenta -
3:21 - 3:24de que mientras yo me focalizaba
en dinámicas sociales y métricas -
3:24 - 3:28y expectativas, me había olvidado
de una pregunta importantísima. -
3:28 - 3:32Esto que estamos haciendo ¿es deseable?
-
3:32 - 3:35¿Queremos que en nuestras ciudades,
Romeo y Julieta, -
3:35 - 3:40hijos de 2 familias enfrentadas,
un amor prohibido, -
3:40 - 3:43queremos crear ciudades donde
los jóvenes de familias -
3:43 - 3:46dispares o enfrentadas
no puedan enamorarse? -
3:46 - 3:49Y sobre todo pensando en la gente joven.
-
3:49 - 3:52Una de las cosas que más me
sorprendió en mi trabajo -
3:52 - 3:57es la ignorancia total que tenemos,
ignorancia por decirlo suave. -
3:57 - 4:01Cómo ignoramos los datos
y los derechos de los jóvenes, -
4:01 - 4:04los jóvenes aparecen en mi trabajo
de forma sistemática -
4:04 - 4:09como un colectivo constantemente
maltratado por la recogida de datos. -
4:09 - 4:13Los jóvenes, porque además
no tienen casa propia, -
4:13 - 4:15tienen una habitación
en el mejor de los casos -
4:15 - 4:17donde ponen candados
y carteles de no entrar, -
4:17 - 4:18mi zona de privacidad, etc.
-
4:18 - 4:21Su zona de privacidad
muchas veces es el espacio público, -
4:21 - 4:23y se lo estábamos quitando.
-
4:23 - 4:26Les estábamos y les estamos quitando
a los jóvenes los espacios -
4:26 - 4:30para darse el primer beso
en la clandestinidad, en la privacidad, -
4:30 - 4:34en la intimidad
que necesitan y que merecen, -
4:34 - 4:35pero no solo para los jóvenes.
-
4:35 - 4:38Se han preguntado
dónde se enamorarían Romeo y Julieta -
4:38 - 4:39y para mí la gran pregunta es
-
4:39 - 4:41todo esto que estamos haciendo
en tecnología, -
4:41 - 4:43ese dinero que estamos invirtiendo.
-
4:43 - 4:46¿Es deseable lo que estamos haciendo
a nuestro alrededor? -
4:46 - 4:50Cosas que ocurren con la tecnología,
por ejemplo, vinculado a los jóvenes -
4:50 - 4:54y a los entornos urbanos,
por primera vez en la historia -
4:54 - 4:58y a consecuencia de la penetración
de aparatos tecnológicos, -
4:58 - 5:01es más caro olvidar que recordar.
-
5:02 - 5:05En toda la historia
fue mucho más dificil recordar. -
5:05 - 5:08Había que escribir pergaminos,
después la imprenta. -
5:08 - 5:09Eso tiene un coste.
-
5:09 - 5:16Ahora mismo lo difícil es poder olvidar,
porque todo genera un registro digital. -
5:16 - 5:20Yo siempre digo que tengo la suerte
de tener más de cuarenta años, -
5:20 - 5:24porque los primeros 20 años de mi vida
no los grabó nadie, -
5:24 - 5:27tengo alguna foto, pero nada más.
-
5:27 - 5:31A los jóvenes de ahora
les condenamos a una vida de miedo, -
5:31 - 5:35por cómo su huella digital puede impactar
en su vida en el futuro. -
5:36 - 5:41Esa foto de esa fiesta, ese comentario
en una red social, ese momento -
5:41 - 5:47que queremos olvidar, ese conflicto,
incluso esa condena judicial -
5:47 - 5:49o ese archivo de una causa.
-
5:49 - 5:53Todo eso las personas que han nacido
ya en la sociedad actual, -
5:53 - 5:57totalmente digitalizada,
puede emerger en cualquier momento -
5:57 - 5:59y arruinarte la vida,
tu relación de pareja, -
5:59 - 6:03la consecución de ese trabajo
que tanto deseabas. -
6:03 - 6:07Por lo tanto,
en mi trabajo sobre videovigilancia -
6:07 - 6:10me di cuenta de que había un montón
de preguntas sobre tecnología -
6:10 - 6:15que no estábamos haciendo, y que era
importantísimo que alguien realizara. -
6:15 - 6:19Desde entonces he tenido la suerte
de poder dedicarme a hacer esas preguntas, -
6:19 - 6:22a explorar cuáles son las preguntas
que deberíamos hacer, y cómo debería -
6:22 - 6:25la tecnología responder a esas preguntas,
-
6:25 - 6:28y entender e incorporar
todas esas preocupaciones. -
6:28 - 6:31Quería detallaros brevemente
algunos de los proyectos -
6:31 - 6:33en los que estuve involucrada,
para que veáis cómo se aterriza -
6:33 - 6:36este tema de la ética de la tecnología.
-
6:36 - 6:37He trabajado mucho tiempo,
por ejemplo, -
6:37 - 6:40en la automatización
del paso de fronteras. -
6:40 - 6:42No sé si habéis ido
a algún aeropuerto recientemente, -
6:42 - 6:44pero veréis que muchas veces
quien nos controla -
6:44 - 6:47el pasaporte ya no es un policía,
sino una máquina, -
6:47 - 6:51metéis vuestro pasaporte, se os hace
un reconocimiento de la huella digital, -
6:51 - 6:53un match biométrico
con vuestro documento de identidad, -
6:53 - 6:58y la máquina decide si podéis pasar o no.
-
6:58 - 7:03Cuando empezamos a trabajar
en las "fronteras inteligentes", -
7:03 - 7:05una de las primeras cosas
que nos sorprendió, -
7:05 - 7:09y que después hemos visto
reproducida en muchos otros casos, -
7:09 - 7:10es que cuando el parlamento europeo
-
7:10 - 7:13empezó a plantearse la automatización
del cruce de fronteras, -
7:15 - 7:19el debate no pasó por el parlamento
europeo porque se consideró -
7:19 - 7:21una enmienda técnica.
-
7:21 - 7:26Cambiar a policías por un proceso de datos
era nada más que una enmienda técnica. -
7:26 - 7:29No afectaba
-
7:29 - 7:32según las personas que inicialmente
propusieron ese cambio, -
7:32 - 7:35a la conceptualización
de lo que era la frontera, -
7:35 - 7:38con lo cual podía ser una
enmienda técnica que no requería -
7:38 - 7:41ningún tipo de control público o político.
-
7:42 - 7:46Para que veáis
lo poco técnico que esto es, -
7:46 - 7:49la incorporación de automatización
del paso de fronteras ha hecho, -
7:49 - 7:52por ejemplo, que la frontera desaparezca.
-
7:53 - 8:00Hoy en día, el cruce de la frontera,
la línea en el suelo, el aeropuerto, -
8:00 - 8:02no es lo importante.
-
8:02 - 8:06Empezamos a viajar y se nos empieza
a autorizar el viaje en el momento -
8:06 - 8:11en el que compramos nuestro billete
o solicitamos la visa para viajar. -
8:11 - 8:14Y nuestro paso de frontera no acaba
cuando cruzamos la frontera -
8:14 - 8:16o cuando llegamos a nuestro destino.
-
8:17 - 8:20Si hemos pedido una visa continúa,
porque la validez de nuestra visa -
8:20 - 8:22es controlada hasta que
abandonamos el país, -
8:22 - 8:25o si no lo abandonamos salta una alarma,
-
8:25 - 8:28para que la policía pueda
tomar cartas en el asunto. -
8:28 - 8:33Con lo cual la introducción de los datos,
la automatización de todo este proceso, -
8:33 - 8:36ha cambiado completamente
lo que supone una frontera. -
8:36 - 8:39La frontera es ahora mismo
un espacio larguísimo, -
8:39 - 8:43para muchas personas
un espacio de control continuo. -
8:44 - 8:46Han pasado otras cosas.
-
8:46 - 8:50con la automatización de fronteras
hemos incorporado la biometría -
8:50 - 8:53como herramienta
para comprobar la identidad. -
8:53 - 8:56¿Qué pasaba en el pasado
cuando alguien no quería -
8:56 - 8:58que su identidad fuera conocida?
-
8:58 - 8:59Quemaba su pasaporte.
-
8:59 - 9:01Cuando alguien no quería
ser devuelto a su país, -
9:01 - 9:07porque consideraba que en ese país
podía sufrir consecuencias indeseables, -
9:07 - 9:10podía quemar su pasaporte
y con eso aspirar a quedarse -
9:10 - 9:13en un espacio
y en un limbo legal y jurídico. -
9:14 - 9:19Hoy, nuestro pasaporte
está en nuestros dedos. -
9:19 - 9:22¿Qué están haciendo los migrantes?
-
9:22 - 9:25Quemarse los dedos, mutilarse,
-
9:25 - 9:30porque es la única forma de evitar
que su cuerpo se convierta en su enemigo. -
9:30 - 9:34Eso que querían pasar como enmienda
técnica, está teniendo unas consecuencias -
9:34 - 9:37brutales sobre los derechos
fundamentales de los migrantes. -
9:37 - 9:41Inicialmente, hoy ya no, alguien quería
que no habláramos de eso, -
9:41 - 9:46que no nos planteáramos cuáles eran
las implicaciones de esa decisión. -
9:46 - 9:51No solo eso, a través de mi trabajo
he podido hablar con más de 1500 personas -
9:51 - 9:56que han utilizado estos sistemas
automáticos de control de la identidad -
9:56 - 9:58en pasos de fronteras.
-
9:58 - 10:02Y es curioso ver como cuando les preguntas
a los viajeros de terceros países, -
10:02 - 10:05no europeos, no personas del espacio
del entorno Schengen: -
10:05 - 10:10¿Qué prefieres, un control policial humano
o un control automático? -
10:10 - 10:13La mayoría te dice:
"Prefiero el control automático". -
10:14 - 10:18Confiamos en la tecnología,
creemos que es más eficiente -
10:18 - 10:22y más justa incluso
que la toma de decisiones humana. -
10:22 - 10:24Pero cuando les preguntábamos
a estas mismas personas: -
10:24 - 10:29¿Y si la máquina se equivoca?
¿Qué crees que va a pasar? -
10:29 - 10:33Todos coincidían:
"Estoy perdido, no voy a poder salir". -
10:34 - 10:36Cuando hay lo que llamamos
un falso positivo, -
10:36 - 10:38cuando la máquina se equivoca,
no tenemos los mecanismos -
10:38 - 10:41ni las leyes que garanticen
que podemos salir del hoyo -
10:41 - 10:44donde nos ha metido ese proceso
de toma de decisiones automáticas. -
10:45 - 10:49Esas son algunas de las cosas
que hemos encontrado en el trabajo -
10:49 - 10:51en el entorno de fronteras.
-
10:52 - 10:56Otro ejemplo: también hemos trabajado
con universidades, -
10:56 - 10:58para ver el impacto ético
de la ciencia ciudadana. -
10:58 - 11:02La ciencia ciudadana es la ciencia
que se hace con la ayuda de las personas, -
11:02 - 11:06gente que trabaja el movimiento de
los mares o la migración de los pájaros, -
11:06 - 11:09si tuvieran que desplegar
a investigadores a todas partes, -
11:09 - 11:12para hacer fotografías constantes
de cómo está el mar, -
11:12 - 11:14o cómo se mueven los pájaros
esto sería muy costoso. -
11:14 - 11:18Gracias a la tecnología podemos pedir
a la gente que vive en espacios concretos -
11:18 - 11:21que nos manden una foto del mar cada día
cuando se levanten a la misma hora -
11:21 - 11:24y yo proceso todos esos datos
y a partir de ahí hago ciencia. -
11:24 - 11:26Está muy bien,
-
11:26 - 11:29pero cuando empezamos a trabajar
con la universidad y los investigadores, -
11:29 - 11:34nos encontramos un caso paradigmático
de lo que yo llamo despotismo de los datos -
11:34 - 11:38que es "Todo por el pueblo, con los datos
del pueblo, pero sin el pueblo". -
11:38 - 11:42Los investigadores pedían a la gente que
les mandaran un montón de datos personales -
11:42 - 11:46donde una fotografía geolocalizada
puede decir exactamente dónde vivimos, -
11:46 - 11:49cómo es nuestro entorno
e incluso con quién estamos. -
11:49 - 11:53Pues no había ningún tipo de precaución
en relación con la gestión de esos datos. -
11:53 - 11:56Y lo llamábamos "ciencia ciudadana".
-
11:56 - 11:58Afortunadamente, hoy ya no es así,
-
11:58 - 12:00y hemos creado mecanismos
para que la ciencia ciudadana -
12:00 - 12:03sea realmente ciencia ciudadana,
al servicio de las personas -
12:03 - 12:07y no solo un espacio de uso y abuso
de las personas voluntarias -
12:07 - 12:09que se prestan para participar
en esas investigaciones. -
12:10 - 12:13Trabajamos también mucho
en el ámbito del trabajo, -
12:13 - 12:15el futuro del trabajo,
inteligencia artificial, -
12:15 - 12:17los robots que nos van
a quitar el trabajo, -
12:17 - 12:19todos esos miedos que tenemos.
-
12:20 - 12:22¿Y qué nos encontramos?.
-
12:22 - 12:25Los directores de las empresas, los CEOs,
los responsables de las empresas -
12:25 - 12:32tienden a tomar malas decisiones,
cuando éstas involucran la tecnología. -
12:32 - 12:38Es decir, un responsable de una empresa
estará mucho más dispuesto -
12:38 - 12:41a gastar dinero en tecnología
que en procesos no tecnológicos, -
12:41 - 12:45con lo cual adquirimos tecnología
sin pensar si realmente la necesitamos, -
12:45 - 12:48sobre todo en entornos de trabajo.
-
12:48 - 12:50Estamos viendo la introducción
de exoesqueletos, -
12:50 - 12:54de sensores de control 24 horas
en entornos de trabajo -
12:54 - 12:57en los que no son necesarios
para mejorar la eficacia, la eficiencia -
12:57 - 13:00ni la rentabilidad de esa empresa.
-
13:00 - 13:03Pero, entre que la gente en las empresas
no sabe que existen -
13:03 - 13:05tecnologías menos lesivas,
y que quien vende la tecnología -
13:05 - 13:08siempre quiere venderte la máxima
capacidad que puede desarrollar, -
13:08 - 13:12acabamos con entornos laborales
que son insufribles -
13:12 - 13:14desde la perspectiva de los que trabajan.
-
13:14 - 13:18Tomamos malas decisiones porque
la tecnología nos fascina constantemente. -
13:18 - 13:21Cómo construimos los mecanismos
para empoderarnos a todos -
13:21 - 13:24a saber distinguir cuando una tecnología
realmente nos ayuda o no nos ayuda. -
13:24 - 13:28Pues a eso nos dedicamos
en la ética de la tecnología. -
13:28 - 13:32Un cuarto ejemplo: trabajo mucho
en tecnologías de seguridad. -
13:32 - 13:35La verdad es que podría dar 10 TED talks
solo sobre seguridad, -
13:35 - 13:38porque es un ámbito terriblemente sensible
-
13:38 - 13:42Un par de ejemplos: hace unos años
estábamos auditando los algoritmos -
13:42 - 13:46de un proyecto que quería desplegar
cámaras de videovigilancia inteligentes -
13:46 - 13:49en entornos sensibles;
bancos y aeropuertos. -
13:50 - 13:53Las cámaras de videovigilancia
inteligentes son capaces de reconocer -
13:53 - 13:58comportamientos potencialmente criminales
de forma automática, -
13:58 - 14:02no es necesario que el ojo humano
esté controlando lo que ocurre, -
14:02 - 14:05sino que pueden ver
por la forma en que se mueve la gente, -
14:05 - 14:09si su forma de moverse por un espacio
es potencialmente peligrosa -
14:09 - 14:12y así mandar una alarma
y la intervención humana solo es necesaria -
14:12 - 14:15cuando se ha identificado
un comportamiento peligroso. -
14:16 - 14:17¿Qué nos encontramos?
-
14:17 - 14:21Que los ingenieros se habían codificado
a sí mismos como la normalidad. -
14:21 - 14:26Es decir, la forma de utilizar
un banco es entrar y salir, -
14:26 - 14:28porque tienes mucha prisa,
porque tienes trabajo, -
14:28 - 14:31porque eres joven y te lo puedes permitir.
-
14:31 - 14:34En ese algoritmo quien emergía
como potencialmente sospechoso -
14:34 - 14:39eran gente mayor, que tiene
mucho más tiempo, claro, está lloviendo, -
14:39 - 14:42vas al banco, hay un sofá, oye pues
me quedo un ratín, ¿no? -
14:42 - 14:46Eso no es potencialmente criminal,
pero el algoritmo lo identificaba así -
14:46 - 14:50porque no era cómo el ingeniero
habría utilizado ese espacio. -
14:50 - 14:53O las familias en aeropuertos.
-
14:53 - 14:56Yo que viajo mucho, voy al aeropuerto
y quiero salir lo antes posible, -
14:56 - 14:59pero yo no soy la mayoría,
y no soy sobre todo la normalidad. -
15:00 - 15:02Hay gente que viaja
y coge un avión una vez al año. -
15:02 - 15:06Para quien la experiencia del aeropuerto
forma parte del viaje en sí, -
15:06 - 15:11que van 5 horas antes y dan vueltas,
comen, vuelven a comer, descansan, -
15:11 - 15:14salen a la terraza, y todo eso es normal.
-
15:14 - 15:18Debería ser normal, y en cambio
el algoritmo de la cámara inteligente -
15:18 - 15:21lo había codificado como anormal,
y eso pasa constantemente. -
15:21 - 15:25Como los ingenieros no tienen formación
en este tipo de cosas, -
15:25 - 15:29no se dan cuenta de que codifican
su normalidad como la de todos. -
15:29 - 15:32Y eso, en el ámbito de la seguridad
es problemático, -
15:32 - 15:36porque todo lo que no es normal,
es sospechoso. -
15:36 - 15:38Y todos tenemos derecho
a no ser sospechosos, -
15:38 - 15:41a no ser que hagamos algo
realmente sospechoso. -
15:41 - 15:45Con lo cual la cámara nos acaba
convirtiendo en sospechosos constantemente -
15:45 - 15:51por salir fuera de esa normalidad
tan pequeña definida por los tecnólogos. -
15:52 - 15:57Por no hablar de los algoritmos
predictivos en el ámbito de la seguridad. -
15:58 - 16:02Yo no sé cómo se puede decir
más alto y más claro. -
16:02 - 16:08No podemos predecir el futuro.
Eso es magia. Y no sabemos hacerlo. -
16:08 - 16:10Lo máximo que podemos hacer
con los algoritmos -
16:10 - 16:13es entender lo que ha pasado hasta hoy,
-
16:13 - 16:16y a partir de ahí hacer
que emerjan ciertos patrones, -
16:16 - 16:23y decir: el pasado me lleva a pensar
que es posible que en el futuro ocurra eso -
16:23 - 16:28Esto es lo que podemos hacer.
Llamar a eso predicción es muy arriesgado. -
16:28 - 16:33Y la insistencia actual de las muchísimas
fuerzas policiales de todo el mundo -
16:33 - 16:36en pedir el algoritmo
de la radicalización, de la prevención, -
16:36 - 16:40el pre-crimen, es imposible.
-
16:40 - 16:42La tecnología nos puede ayudar,
pero hasta cierto punto. -
16:42 - 16:45Y todos tenemos derecho
a la presunción de inocencia -
16:45 - 16:48hasta que cometamos un acto ilícito.
-
16:48 - 16:50La tecnología tiende a olvidar eso
-
16:50 - 16:55y se siente tan poderosa y tan poco
controlada por todos estos elementos -
16:55 - 16:58que se atreve a prometer
la capacidad de prever y de saber -
16:58 - 17:03lo que vamos a hacer antes de que
a nosotros se nos pase por la cabeza. -
17:03 - 17:07Y finalmente un último ejemplo:
el de movilidad. -
17:07 - 17:10Todos habéis oído hablar
de los coches autónomos ¿no? -
17:10 - 17:13Teóricamente en poco tiempo
todas las ciudades estarán llenas -
17:13 - 17:15de coches que conducen solos.
-
17:15 - 17:18Pues el coche autónomo
es uno de los grandes ejemplos -
17:18 - 17:23de cómo la arrogancia de la ingeniería
puede llevar al fracaso una buena idea. -
17:23 - 17:28El coche autónomo es muchísimo más seguro
que el coche no autónomo. -
17:28 - 17:29Pero, ¿qué pasa?
-
17:30 - 17:34A las muertes de los coches no autónomos
nos hemos acostumbrado, -
17:34 - 17:38pero cada vez que un coche autónomo
mata o hiere a alguien -
17:38 - 17:40es portada en todo el mundo.
-
17:40 - 17:44Con lo cual la percepción social
es que es mucho más inseguro -
17:44 - 17:47el coche autónomo que el no autónomo.
-
17:47 - 17:51Y mientras los ingenieros insistan
en decir tengo aquí todas estas cifras -
17:51 - 17:53que demuestran que es más seguro,
-
17:53 - 17:56y no se preocupen
de convencer a la población, -
17:56 - 17:59de trabajar la aceptabilidad
de esa tecnología, -
17:59 - 18:03de incorporar los miedos
y las preocupaciones sociales -
18:03 - 18:07en la conceptualización de esa tecnología,
seguramente lo que va a pasar -
18:07 - 18:10es que lo que es una buena idea
que podría salvar muchísimas vidas, -
18:10 - 18:14tardará muchísimo más en implementarse,
porque los ingenieros -
18:14 - 18:18tienden a la arrogancia
de los números y de la técnica. -
18:18 - 18:22Para que veáis que la ética
de la tecnología no es solo un tema -
18:22 - 18:26de tu smartphone, de tu televisor,
de los aparatos de consumo que usamos. -
18:26 - 18:30Hay una infraestructura de datos
que marca todo lo que hacemos, -
18:30 - 18:35que requiere urgentemente
de un cierto control, o como mínimo, -
18:35 - 18:37de la incorporación de responsabilidad.
-
18:37 - 18:41Lo que he encontrado en mi trabajo,
es que como hacemos tecnología actualmente -
18:41 - 18:44es profundamente irresponsable.
-
18:45 - 18:49A ningún médico ni a ninguna
empresa farmacéutica se le ocurriría -
18:49 - 18:53pedirle a la sociedad poder lanzar
medicamentos no testados. -
18:53 - 18:58O lanzar medicamentos que dijeran: "Mira
esto cura el constipado pero da cáncer". -
18:58 - 18:59No lo aceptaríamos.
-
18:59 - 19:01No se puede vender.
-
19:01 - 19:04Y en cambio en ingeniería informática
se pide el derecho -
19:04 - 19:08a lanzar cosas a la sociedad
sin testarlas de ninguna manera, -
19:08 - 19:12sin tener ningún tipo de conciencia
de su impacto social. -
19:13 - 19:16La buena noticia es que creo
que esto está empezando a cambiar. -
19:17 - 19:21Que existan perfiles como el mío,
con conocimientos en ciencia social, -
19:21 - 19:24pero también en elementos técnicos
de la matemática y de la física, -
19:25 - 19:28muestra que empieza a haber
interés por estas cosas. -
19:28 - 19:33Cada vez hay más grupos de investigación
y de trabajo en empresas, en universidades -
19:33 - 19:40y en espacios público-privados que aúnan
a sociólogos, filósofos, abogados, -
19:40 - 19:44a físicos, matemáticos, ingenieros
e informáticos para intentar entender -
19:44 - 19:49cuáles son esos impactos legales,
sociales y éticos de las tecnologías, -
19:50 - 19:53que ayudan a dilucidar
cuál es la deseabilidad -
19:53 - 19:56y cómo aumentar esa deseabilidad
de los productos -
19:56 - 19:58que se quieren fabricar en el futuro.
-
19:58 - 20:02Cada vez hay más grupos que trabajan
en mejorar la transparencia -
20:02 - 20:05y el control de los algoritmos,
por ejemplo. -
20:06 - 20:11La idea de los estudios de impacto
está cada vez más extendida. -
20:12 - 20:15De la misma forma que no podemos
construir un nuevo desarrollo -
20:15 - 20:20de infraestructuras, una nueva carretera,
sin justificar su impacto ambiental, -
20:20 - 20:24no deberíamos poder lanzar
productos tecnológicos al mercado -
20:24 - 20:27sin justificar antes que nos hemos
planteado en algún momento -
20:27 - 20:30qué impacto va a tener eso
sobre la sociedad -
20:30 - 20:32y si ese impacto es deseable o no,
y si no es deseable, -
20:32 - 20:38qué medidas hemos tomado para
aumentar la deseabilidad de ese producto. -
20:38 - 20:42Ahora mismo muchísima gente
estamos implicados en crear la innovación -
20:42 - 20:46responsable del futuro,
que creo que es muy necesaria. -
20:47 - 20:51Y no obstante, se siguen oyendo voces
que dicen constantemente -
20:51 - 20:57que la prevención, ética y regulación
van en contra de la innovación, -
20:57 - 21:00que no podemos poner límites
a la capacidad creadora -
21:00 - 21:03de los hombres ingenieros
y sus grandes ideas. -
21:05 - 21:07Pues lo siento pero no es así.
-
21:07 - 21:09Como humanidad,
llevamos toda nuestra historia -
21:09 - 21:11domesticando a la tecnología.
-
21:12 - 21:15¿Un coche necesita un cinturón
de seguridad para circular? -
21:16 - 21:16No.
-
21:17 - 21:20¿Un coche necesita un límite de velocidad?
-
21:20 - 21:21No.
-
21:21 - 21:24Los coches podrían ir muchísimo más rápido
de lo que van por nuestras calles. -
21:25 - 21:29¿Un coche necesita pasos de cebra,
semáforos, -
21:29 - 21:31control de emisiones contaminantes?
-
21:31 - 21:31No.
-
21:32 - 21:36Todas estas cosas se las hemos añadido
las sociedad humana, -
21:36 - 21:39para asegurar que lo que es
una innovación tecnológica deseable, -
21:39 - 21:44que es un motor, algo que nos lleve
de A a B de forma más rápida, -
21:44 - 21:47sea también deseable
desde la perspectiva social. -
21:47 - 21:50Hemos limitado las posibilidades
de los coches, -
21:50 - 21:53porque hemos entendido
que queremos ir más rápido de A a B, -
21:53 - 21:58pero no queremos que muera
tanta gente en ese proceso. -
21:58 - 21:59Eso lo hemos hecho siempre.
-
21:59 - 22:02Siempre hemos limitado
las capacidades de la tecnología, -
22:02 - 22:05porque la tecnología
solo tiene sentido si mejora, -
22:05 - 22:08si aborda las problemáticas sociales.
-
22:09 - 22:10Y que desde la ingeniería informática
-
22:10 - 22:15se hayan olvidado tantas veces esa lógica
es claramente preocupante. -
22:17 - 22:19Al final lo que hemos hecho con el coche
-
22:19 - 22:21es tener debates
a lo largo de mucho tiempo, -
22:21 - 22:26el primero no tenía cinturón de seguridad,
ni había semáforos, ni pasos de cebra. -
22:26 - 22:30Pero durante mucho tiempo
creamos esos marcos, como sociedad, -
22:30 - 22:34esos consensos sociales que nos llevan
a poder utilizar hoy los vehículos -
22:34 - 22:35de forma normalizada.
-
22:36 - 22:39Estos son los debates y consensos sociales
que deben emerger alrededor -
22:39 - 22:41de cualquier nueva tecnología.
-
22:41 - 22:43Debemos dilucidar cuando aparece
un nuevo algoritmo, -
22:43 - 22:46una nueva innovación tecnológica,
un nuevo invento, -
22:46 - 22:48debemos decidir entre todos
cuáles van a ser -
22:48 - 22:51los cinturones de seguridad,
los límites de velocidad, -
22:51 - 22:55los límites de emisiones,
los pasos de cebra y los semáforos -
22:55 - 22:57de esa nueva innovación.
-
22:57 - 22:59A eso se dedica la ética de la tecnología.
-
22:59 - 23:03Primero a fomentar esos debates,
para que entre todos decidamos -
23:03 - 23:07si es mejor un control humano,
o uno mecánico para cruzar una frontera, -
23:08 - 23:10para tomar entre todos
responsabilidad de las decisiones -
23:10 - 23:14que tomamos en relación con la tecnología,
y a partir de esa deseabilidad -
23:14 - 23:18lo que vemos es cómo construir
valores fundamentales, cohesión social, -
23:18 - 23:23confianza, no discriminación, derechos
humanos en las especificaciones técnicas. -
23:23 - 23:26Porque no es solo un tema de dar discursos
-
23:26 - 23:29Hay formas a través
de las especificaciones técnicas -
23:29 - 23:32para hacer que las tecnologías
respondan mucho mejor -
23:32 - 23:35a las expectativas y deseos de la sociedad
-
23:35 - 23:39De la misma forma que hemos podido
construir coches que maten menos, -
23:39 - 23:43podemos construir tecnologías
que no solo sean menos lesivas -
23:43 - 23:47sino que contribuyan de forma definitiva
a mejorar el futuro de nuestras sociedades -
23:48 - 23:51En definitiva, de lo que se trata
la ética de la tecnología -
23:51 - 23:54es de poner a las personas
en el centro del desarrollo tecnológico, -
23:54 - 23:56y poner la tecnología
al servicio de las personas. -
23:56 - 24:01Y no como estamos ahora muchísimas veces,
las personas al servicio de la tecnologías -
24:02 - 24:02Gracias.
-
24:02 - 24:05(Aplausos)
- Title:
- Qué es la ética de la tecnología y por qué debería importarte | Gemma Galdón-Clavell | TEDxZaragoza
- Description:
-
Los datos y la tecnología están cambiando, desde cómo pagamos a cómo nos desplazamos y nos enamoramos. Pero la tecnología no es ni neutral ni inevitable; existen algoritmos sesgados y/o racistas, y quienes diseñan los sistemas tienen que estar formados en las consecuencias éticas y sociales de la tecnología. Hace falta hacer las preguntas adecuadas, para incorporar conocimientos relacionados con la ética, para regular la seguridad de los ciudadanos ante la invasión de la privacidad. Una charla sobre la proliferación de la vigilancia en entornos urbanos, el coche autónomo, la videovigilancia, las fronteras inteligentes, y el impacto ético de la tecnología.
La Dr. Gemma Galdón-Clavell ha liderado más de 10 grandes proyectos como investigadora principal, y la fundadora y directora de Eticas Research and Consulting, es experta en Ética en la Dirección General de Investigación e Innovación de la Comisión Europea, enseña en varias universidades extranjeras, es miembro de la Red Latinoamericana de Estudios de Vigilancia y analista habitual en televisión, radio y prensa.
Su trabajo se centra en la construcción de arquitecturas de datos socio-técnicos que incorporan cuestiones legales, sociales y éticas en su concepción, producción e implementación y sus publicaciones académicas abordan cuestiones relacionadas con la proliferación de la vigilancia de datos en entornos urbanos, políticas locales de seguridad, la seguridad en grandes acontecimientos, la relación entre la privacidad, la ética y la tecnología y las ciudades inteligentes.
Es analista de políticas públicas por formación y ha trabajado en proyectos relacionados con la vigilancia, el impacto social, legal y ético de la tecnología, las ciudades inteligentes, la privacidad, las políticas de seguridad, y la resiliencia y la vigilancia. Doctora en vigilancia, seguridad y políticas urbanas en la UAB, DirTNI, Amsterdam) y el Instituto de las Naciones Unidas para la Formación y la Investigación.
Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED. Más información en: http://ted.com/tedx
https://tedxzaragoza.net/
https://www.facebook.com/tedxzaragoza2018/
https://twitter.com/TEDxZaragozaThis talk was given at a TEDx event using the TED conference format but independently organized by a local community. Learn more at https://www.ted.com/tedx
- Video Language:
- Spanish
- Team:
closed TED
- Project:
- TEDxTalks
- Duration:
- 24:11