Return to Video

Encuentro de traductores | Daniel Suárez | TEDGlobal 2013

  • 0:09 - 0:12
    Buenas tardes a todos.
    Soy Doug Chilcott de TED.
  • 0:12 - 0:16
    Bienvenidos a TED Global
    aquí en el salón de Traducción Abierta.
  • 0:16 - 0:19
    Hoy contamos con Daniel Suárez, quien
    acaba de dejar el escenario hace minutos
  • 0:19 - 0:23
    con una charla bastante alarmante
    y ha dejado a muchas personas temblando
  • 0:23 - 0:25
    y yo tengo un montón de preguntas.
  • 0:25 - 0:26
    Así que volveremos contigo
    en cualquier momento.
  • 0:26 - 0:30
    También con nosotros en el escenario
    están Irteza de Pakistán,
  • 0:30 - 0:32
    Hugo de Francia,
  • 0:32 - 0:34
    Els de Bélgica,
  • 0:34 - 0:36
    y Krystian de Polonia.
  • 0:36 - 0:40
    Y a través de Skype,
    a toda hora, día y noche,
  • 0:40 - 0:43
    Lazaros desde Grecia,
  • 0:43 - 0:45
    Anja desde Eslovenia,
  • 0:45 - 0:48
    Alberto desde Italia,
  • 0:48 - 0:52
    and Yasushi, en Japón,
    donde actualmente es de medianoche.
  • 0:52 - 0:54
    Gracias por estar con nosotros.
  • 0:55 - 0:58
    Les arrojaré la pelota a ustedes.
  • 0:58 - 1:00
    Krystian, tenías una pregunta
    acerca del uso de la ficción.
  • 1:00 - 1:01
    - Sí.
  • 1:01 - 1:05
    Me estaba preguntando si, dado que
    su charla es un cuento con moraleja,
  • 1:05 - 1:09
    pero su novela fue probablemente
    no entendida como una.
  • 1:09 - 1:13
    Pero, ¿es este el ángulo en el que
    tenemos que tener cuidado que esto
  • 1:13 - 1:15
    crezca fuera de su investigación,
  • 1:15 - 1:19
    o fue su novela también entendida
    como algo para [prevenir]?
  • 1:19 - 1:23
    - Realmente hago cuentos con moraleja.
    Algunas personas piensan que
  • 1:23 - 1:26
    a los escritores de suspenso
    les gusta ser agoreros.
  • 1:26 - 1:29
    Pero no es así, realmente.
    Me encanta la tecnología.
  • 1:29 - 1:32
    Pasé casi 20 años
    diseñando software.
  • 1:32 - 1:36
    Trato de pensar en ella como la detección de
    icebergs en lugar de ser un agorero.
  • 1:36 - 1:38
    Eso no quiere decir que no van a ir
    a ninguna parte, significa que
  • 1:38 - 1:42
    tendrías que girar a la derecha
    o izquierda para sortear obstáculos.
  • 1:42 - 1:45
    Pienso que existe una manera en que
    podemos navegar a través de esto
  • 1:45 - 1:47
    y llegar a un lugar aún mejor
    del que estamos ahora.
  • 1:47 - 1:50
    Debemos prestar atención al terreno,
    eso es todo.
  • 1:50 - 1:51
    Eso es realmente lo que intento hacer.
  • 1:51 - 1:54
    Un cuento con moraleja es, probablemente,
    una descripción perfecta de ello.
  • 1:54 - 1:58
    - Irteza de Pakistán,
    estuvimos hablando antes sobre los drones
  • 1:58 - 2:00
    que formaron parte de la última campaña
    política en Pakistán.
  • 2:00 - 2:04
    ¿Podría hablarnos de la realidad
    de los aviones no tripulados en su país?
  • 2:04 - 2:09
    - El segundo partido más alto que acaba
    de ganar nuestras recientes elecciones,
  • 2:09 - 2:11
    en su campaña utilizó drones allá.
  • 2:11 - 2:13
    Una gran cantidad de incidentes
  • 2:13 - 2:17
    eran porque solo se dirigían
    al tipo equivocado.
  • 2:17 - 2:18
    Y los mataban.
  • 2:18 - 2:20
    Así que eso es realmente algo malo.
  • 2:20 - 2:24
    - Por cada persona que lastimas,
    100 podrían estar enojados
  • 2:24 - 2:27
    y entonces creas un problema más grande,
    y llegas a las personas equivocadas.
  • 2:27 - 2:29
    No es una manera efectiva de hacer las cosas.
  • 2:29 - 2:34
    Incluso aceptándola como tecnología,
    simplemente no es eficaz.
  • 2:34 - 2:38
    Creo que lo que va a cambiar el punto
    de vista de Estados Unidos sobre esto,
  • 2:38 - 2:42
    mientras esta tecnología se extiende,
    la tentación de usarla
  • 2:42 - 2:44
    cuando eres el único que la tiene
    es muy fuerte,
  • 2:44 - 2:46
    pero estamos llegando rápidamente al punto
  • 2:46 - 2:49
    donde vamos a ver 70 naciones
    desarrollando las propias.
  • 2:49 - 2:54
    Pienso que ayudará a conseguir finalmente
    esto en alguna situación en la que podamos
  • 2:54 - 2:56
    conseguir un marco legal
  • 2:56 - 2:59
    porque no es de interés para nadie
    continuar hacia dónde vamos.
  • 2:59 - 3:01
    No es algo gratis para todos.
  • 3:01 - 3:03
    - ¿Tienes ideas sobre este marco legal?
  • 3:03 - 3:05
    ¿Cómo sería?
  • 3:05 - 3:07
    Solo diciendo "puedes hacerlo"
    no es suficiente.
  • 3:07 - 3:11
    - No, no. Ahí está la cosa.
    Hemos hecho esto con todo tipo de cosas.
  • 3:11 - 3:13
    Los láser cegadores es un gran ejemplo.
  • 3:13 - 3:16
    No podemos sentarnos aquí y pensar
    en todos los horribles incidentes
  • 3:16 - 3:19
    con armas láser porque las personas
    se sentarán y dirán, claro,
  • 3:19 - 3:23
    es muy fácil cegar a las personas,
    no hagamos eso.
  • 3:23 - 3:25
    Y, por supuesto, existen todos estos
    controles internacionales.
  • 3:25 - 3:31
    Así, los drones son un poco diferentes porque
    en realidad tienen algunos usos civiles.
  • 3:31 - 3:35
    Por lo tanto, tendrás instancias
    donde los individuos o grupos pequeños
  • 3:35 - 3:37
    están poniendo armas
    en aviones no tripulados,
  • 3:37 - 3:39
    y es por eso que estaba pensando
    en tener un sistema inmune,
  • 3:39 - 3:44
    esta idea que crearía, ya sabes,
    drones que buscarían otros drones.
  • 3:44 - 3:47
    Y luego traerlos
    a la atención de los seres humanos.
  • 3:47 - 3:49
    Ellos no les dispararían desde el cielo.
  • 3:49 - 3:53
    Pero no hay manera de que dejes todo.
  • 3:53 - 3:55
    Pero no quieres militarizar
    toda la sociedad
  • 3:55 - 3:57
    para defenderla contra los robots.
  • 3:57 - 4:00
    - En realidad, vamos a usar
    uno de los beneficios de la tecnología.
  • 4:00 - 4:02
    Voy a traer a algunas
    de las personas de Skype.
  • 4:02 - 4:04
    Una tecnología no amenazante.
  • 4:04 - 4:07
    - No creo que esa tecnología
  • 4:07 - 4:09
    esté disponible
    en un par de años
  • 4:09 - 4:13
    porque he encontrado algunos sitios que
    citan que en realidad se puede construir
  • 4:13 - 4:18
    la mayoría de las piezas para aviones
    no tripulados con una impresora 3D.
  • 4:18 - 4:23
    Entonces, los drones están a la vuelta
    de la esquina para pequeños grupos,
  • 4:23 - 4:27
    no solo para organizaciones
    terroristas y países.
  • 4:27 - 4:33
    Por lo tanto, no creo que el tratado
    del que hablas en tu charla TED
  • 4:33 - 4:34
    lo logre.
  • 4:34 - 4:38
    Creo que necesitamos una perspectiva
    más amplia, basados más en Internet.
  • 4:38 - 4:42
    ¿No sé si usted tiene alguna sugerencia,
    que pienso todos apreciaremos?
  • 4:42 - 4:47
    - Bueno, tengo curiosidad
    cuando dijiste una solución más amplia,
  • 4:47 - 4:49
    ¿tienes alguna idea de lo que podría ser?
  • 4:50 - 4:52
    - No, ¡estaba esperando que tú la tuvieras!
  • 4:52 - 4:54
    (Risas)
  • 4:54 - 4:57
    - Permítanme decir, cuando digo
    marco jurídico internacional,
  • 4:57 - 4:59
    eso es realmente solo el comienzo.
  • 4:59 - 5:02
    Nuevamente, es para tratar de cambiar
    la psicología de la gente, decir más que,
  • 5:02 - 5:06
    mira las cosas interesantes
    que podemos hacer con estas armas.
  • 5:06 - 5:07
    Es el paso siguiente.
  • 5:07 - 5:11
    Es una apreciación de cómo puede ir
    en detrimento de la democracia,
  • 5:11 - 5:13
    esta idea de un gobierno popular,
    haciendo esa conexión,
  • 5:13 - 5:15
    más que estas son armas peligrosas.
  • 5:15 - 5:17
    Individualmente, pueden
    herir a las personas.
  • 5:17 - 5:19
    Pueden herir a toda nuestra sociedad.
  • 5:19 - 5:21
    Así que, tomo tu punto,
    estás en lo cierto en un cierto modo,
  • 5:21 - 5:23
    pero es lo mejor a lo que puedo llegar
  • 5:23 - 5:27
    ya sabes, creo tener una mente retorcida
    y es por eso que escribo estas cosas,
  • 5:27 - 5:28
    pero incluso con una mente retorcida,
  • 5:28 - 5:31
    no puedo llegar a
    la solución perfecta para ello.
  • 5:31 - 5:33
    - Hugo, ¿algún comentario?
  • 5:33 - 5:38
    - Si, cuando miramos hacia atrás
    de nuestras actuales tecnologías,
  • 5:38 - 5:44
    las más eficientes, como el GPS,
    el internet,
  • 5:44 - 5:46
    o el radar,
  • 5:46 - 5:51
    esas son tecnologías que obtuvimos
    de los militares, ¿verdad?
  • 5:51 - 5:56
    Entonces, mi pregunta para ti es
    ¿en qué se diferencia de los drones?
  • 5:56 - 5:58
    - No pienso que sea diferente.
  • 5:58 - 5:59
    - Yo tampoco lo pienso.
  • 5:59 - 6:04
    - El GPS es usado por todos nosotros,
    realmente. Piensa en lo genial que es.
  • 6:04 - 6:06
    Soy bastante optimista acerca de
    la naturaleza humana.
  • 6:06 - 6:08
    Trato de verlo como la curva
    de una campana.
  • 6:08 - 6:11
    A cada extremo, hay personas
    haciendo cosas extremas,
  • 6:11 - 6:14
    pero la mayoría de la gente quiere vivir
    su vida y hacer cosas buenas
  • 6:14 - 6:15
    y estar con sus familias.
  • 6:15 - 6:17
    Entonces, tomarán esas tecnologías,
  • 6:17 - 6:19
    desarrolladas por los militares o no,
  • 6:19 - 6:21
    y harán geniales y
    pacíficas cosas con ellas.
  • 6:21 - 6:24
    Logística, monitoreo ambiental,
    búsqueda y rescate,
  • 6:24 - 6:26
    fotografía aérea.
  • 6:26 - 6:29
    Y, luego, sí, tendrás estas personas
    que les colocarán armas
  • 6:29 - 6:33
    y luego van a atacar y ojalá
    haga de ellos unos parias.
  • 6:33 - 6:37
    Lo que cambiaría un montón de puntos de
    vista al respecto de los estadounidenses
  • 6:37 - 6:40
    es si Estados Unidos fuera
    atacado de esta manera,
  • 6:40 - 6:43
    sería un problema que tendríamos que tratar.
  • 6:43 - 6:48
    No digo que quiera que suceda eso,
    pero esto es a dónde eso va.
  • 6:48 - 6:51
    Si miras dentro de unos años la línea,
    dado el nivel de precios
  • 6:51 - 6:54
    y la accesibilidad de la tecnología,
    como has señalado,
  • 6:54 - 6:58
    cada país las tendrá
    y tendrá la tentación de usarlas
  • 6:58 - 7:02
    para resolver problemas intratables
    o problemas que nadie quiere enfrentar.
  • 7:02 - 7:04
    Una vez más, es esa cosa del anonimato.
  • 7:04 - 7:07
    Es por eso que tenemos que ir
    por delante y al menos declarar
  • 7:07 - 7:09
    que esa es una muy mala manera de seguir
  • 7:09 - 7:12
    porque desestabilizará a la geopolítica
    como la conocemos.
  • 7:12 - 7:14
    Y eso sería muy malo.
  • 7:14 - 7:15
    - ¿Anja?
  • 7:16 - 7:17
    - Tengo una pregunta.
  • 7:17 - 7:19
    ¿Estás solo en tu pelea contra los drones?
  • 7:19 - 7:24
    Es decir, ¿estás solo en la búsqueda de
    la convención, o tienes alguna,
  • 7:24 - 7:28
    no sé, asociaciones u organizaciones
    no gubernamentales ayudándote?
  • 7:28 - 7:32
    - Nuevamente, como decía
    he hablado con Human Rights Watch,
  • 7:32 - 7:35
    creo que están tratando con un grupo
    llamado el artículo 36.
  • 7:35 - 7:38
    Ahí está el Comité Internacional de
    Control de Armas Robóticas.
  • 7:38 - 7:40
    Son todas buenas organizaciones.
  • 7:41 - 7:43
    No estoy directamente afiliado con ellas.
  • 7:43 - 7:46
    Pero simpatizo fuertemente con lo que
    están tratando de hacer.
  • 7:46 - 7:48
    ¿Estoy solo? Definitivamente no.
  • 7:48 - 7:51
    Hay muchas personas realmente
    preocupadas sobre esto.
  • 7:51 - 7:56
    Con los aviones no tripulados autónomos,
    así como los dirigidos por control remoto
  • 7:56 - 8:00
    que están siendo utilizados para los
    asesinatos extrajudiciales, en esencia,
  • 8:00 - 8:05
    y creo que un montón de gente
    está muy molesta
  • 8:05 - 8:06
    y que quieren evitar que esto continúe.
  • 8:06 - 8:08
    Así que no, no creo que esté solo.
  • 8:08 - 8:11
    - Quiero traerte a la conversación,
  • 8:11 - 8:14
    si tienes alguna pregunta adicional
    para Daniel o algún comentario.
  • 8:14 - 8:16
    - Estaba pensando, OK,
    parece inevitable,
  • 8:16 - 8:17
    va a suceder,
  • 8:17 - 8:20
    vamos a tener robots asesinos
    en unos pocos años.
  • 8:20 - 8:23
    Por lo tanto, ¿deberíamos
    enfocarnos en la defensa
  • 8:23 - 8:29
    y tal vez empujar la investigación
    hacia la investigación abierta
  • 8:29 - 8:31
    en vez de etiquetarla
  • 8:31 - 8:36
    y asegurarnos que los sistemas de defensa
    puedan ser tan buenos como los malos?
  • 8:37 - 8:38
    - Eso es interesante.
  • 8:38 - 8:41
    Creo que empecé desde ese punto de vista,
  • 8:41 - 8:46
    esa idea de que sería importante para
    las democracias no solo tener
  • 8:46 - 8:50
    drones robóticos en defensa sino
    los mejores drones robóticos en defensa.
  • 8:50 - 8:54
    Realmente he llegado en torno a la idea
    de que no es la mejor manera.
  • 8:54 - 8:57
    La verdad es que creo que
    cambia el equilibrio
  • 8:57 - 9:01
    tanto hacia el delito que la defensa
    es realmente insostenible.
  • 9:01 - 9:04
    La mejor defensa es
    la de no construir las cosas malditas.
  • 9:04 - 9:07
    Dicho esto, yo creo que podemos tener
    sistemas muy avanzados
  • 9:07 - 9:11
    que estarían ocupados en detectar
    otros aviones no tripulados
  • 9:11 - 9:14
    que hagan levantar la cabeza a los humanos,
    para que puedan decir,
  • 9:14 - 9:15
    sí, son ellos de nuevo.
  • 9:15 - 9:18
    Y luego que un ser humano
    tome una decisión letal para, digamos,
  • 9:18 - 9:20
    destruir esos drones.
  • 9:20 - 9:24
    Pero no creo en el tener robots asesinos
    corriendo por encima de la cabeza,
  • 9:24 - 9:26
    eso se pondría muy feo muy rápidamente.
  • 9:26 - 9:29
    - Una vez más, va a ser
    robots contra robots, los buenos.
  • 9:29 - 9:30
    - ¡Exactamente!
  • 9:30 - 9:33
    Excepto, esto es interesante,
    porque he oído esto muchas veces:
  • 9:33 - 9:36
    ¿qué está mal con la guerra sin sangre?
  • 9:36 - 9:38
    Y, no sé, me siento como
    diciéndole a esta gente,
  • 9:38 - 9:40
    ¡¿No viste Terminator, maldita sea?!
  • 9:40 - 9:44
    Es la diferencia entre los seres humanos
    luchando en una guerra o ser los objetivos
  • 9:44 - 9:47
    porque, seamos sinceros,
    el punto débil no sería
  • 9:47 - 9:48
    el tenemos que evitar sus
    aviones no tripulados
  • 9:48 - 9:51
    para atacar a los líderes
    y a los ciudadanos y hacerles pagar.
  • 9:51 - 9:53
    Y los seres humanos serán
    los objetivos en ese punto.
  • 9:53 - 9:56
    Serán los robots de cada bando
    matando humanos.
  • 9:56 - 10:00
    El punto es que no creo que
    debamos construirlos en absoluto,
  • 10:00 - 10:03
    y creo que debemos asegurarnos de que
    no tengan armas en ellos.
  • 10:03 - 10:05
    - Bueno, creo que en realidad
    nos hemos quedado sin tiempo.
  • 10:05 - 10:07
    Quiero que todos regresen
    al teatro a tiempo,
  • 10:07 - 10:09
    Daniel, muchas gracias por acompañarnos.
  • 10:09 - 10:11
    Nos has dado mucho que pensar.
  • 10:11 - 10:14
    Gracias por unirse a nosotros desde Skype
    alrededor del mundo.
  • 10:14 - 10:17
    Y, todo el mundo, estamos aquí
    en cada pausa durante la semana,
  • 10:17 - 10:19
    con los oradores, durante toda la semana.
  • 10:19 - 10:21
    Así, espero verlos luego.
  • 10:21 - 10:22
    Adiós.
  • 10:22 - 10:25
    (Aplausos)
Title:
Encuentro de traductores | Daniel Suárez | TEDGlobal 2013
Description:

En la sesión TED Found in Translation después de su charla, Daniel explora el tema de los robots asesinos con mayor detalle con un panel mundial de traductores TED.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED Translator Resources
Duration:
10:39

Spanish subtitles

Revisions Compare revisions