Return to Video

Cómo la IA podría volverse una extensión de tu mente

  • 0:02 - 0:04
    Desde la invención de las computadoras,
  • 0:04 - 0:07
    hemos intentado que sean
    más inteligentes y más potentes:
  • 0:07 - 0:10
    de ábacos a máquinas
    del tamaño de una habitación;
  • 0:10 - 0:13
    de computadoras de escritorio
    a computadoras de bolsillo.
  • 0:13 - 0:16
    Y actualmente se diseña
    inteligencia artificial
  • 0:16 - 0:18
    para automatizar las tareas
    que requieren inteligencia humana.
  • 0:20 - 0:22
    Si revisan la historia de la computación,
  • 0:22 - 0:23
    siempre consideramos a las computadoras
  • 0:23 - 0:27
    como dispositivos externos
    que calculan y actúan por nosotros.
  • 0:28 - 0:30
    Lo que pretendo hacer es integrar
  • 0:30 - 0:34
    la computación, la IA
    e internet como parte de nosotros,
  • 0:34 - 0:36
    como parte de la cognición humana
  • 0:37 - 0:39
    para que nos permitan
    interactuar con el mundo;
  • 0:40 - 0:44
    integrar la inteligencia humana
    a la artificial dentro de nuestro cuerpo
  • 0:44 - 0:45
    para que nos amplifique,
  • 0:45 - 0:48
    en lugar de disminuirnos o reemplazarnos.
  • 0:49 - 0:51
    ¿Podríamos combinar
    lo mejor de las personas,
  • 0:51 - 0:53
    como la creatividad y la intuición,
  • 0:53 - 0:54
    con lo mejor de las computadoras:
  • 0:54 - 0:57
    la capacidad de procesar información
    y memorizar de forma perfecta?
  • 0:58 - 1:01
    ¿Podría el conjunto ser mejor
    que la suma de sus partes?
  • 1:02 - 1:05
    Tenemos un dispositivo
    que haría que esto sea posible.
  • 1:05 - 1:08
    Se llama "AlterEgo"
    y es un dispositivo portátil
  • 1:08 - 1:11
    que proporciona la experiencia
    de conversar con la IA
  • 1:11 - 1:12
    que reside en tu mente,
  • 1:12 - 1:14
    con la que podrías hablar
  • 1:14 - 1:16
    como si estuvieses hablando
    contigo mismo, en tu mente.
  • 1:17 - 1:21
    Hoy presentamos por primera vez
    en TED el nuevo prototipo.
  • 1:21 - 1:23
    Y funciona así.
  • 1:24 - 1:28
    Normalmente, al hablar, el cerebro envía
    señales neuronales a través de los nervios
  • 1:28 - 1:31
    a los sistemas internos del habla
  • 1:31 - 1:34
    para activarlos y hacer que
    las cuerdas vocales generen el habla:
  • 1:35 - 1:38
    una de las tareas cognitivas
    y motrices más compleja
  • 1:38 - 1:39
    que realizamos los seres humanos.
  • 1:40 - 1:43
    Ahora bien, imaginen que hablan
    consigo mismo sin tener que vocalizar,
  • 1:44 - 1:46
    sin mover la boca ni la mandíbula,
  • 1:46 - 1:49
    simplemente imaginando
    las palabras en la mente,
  • 1:50 - 1:54
    conectando así de forma sutil
    los sistemas internos del habla,
  • 1:55 - 1:58
    como la lengua y el paladar.
  • 1:59 - 2:00
    Cuando esto sucede,
  • 2:01 - 2:03
    el cerebro envía señales
    extremadamente débiles
  • 2:03 - 2:05
    a estos sistemas internos del habla.
  • 2:05 - 2:07
    AlterEgo cuenta con sensores
  • 2:07 - 2:11
    insertos en un dispositivo delgado
    de plástico, flexible y transparente,
  • 2:11 - 2:14
    que se pega al cuello como una calcomanía.
  • 2:16 - 2:19
    Los sensores detectan
    desde la superficie de la piel
  • 2:19 - 2:22
    esas señales internas que se originan
    en lo profundo de la cavidad bucal.
  • 2:24 - 2:26
    Luego, un programa de IA de fondo
  • 2:26 - 2:29
    intenta descifrar lo que
    el usuario está tratando de decir.
  • 2:29 - 2:34
    Después, envía una respuesta
    al usuario vía conducción ósea,
  • 2:34 - 2:38
    es decir, sonido que llega al oído
    a través de los huesos del cráneo
  • 2:38 - 2:42
    y que el usuario escucha mezclado
    con los sonidos naturales del entorno
  • 2:42 - 2:44
    pero sin bloquearlos.
  • 2:47 - 2:50
    La combinación de todo esto,
    la entrada, la salida y la IA
  • 2:50 - 2:54
    brinda una experiencia subjetiva
    de interacción dentro de tu mente
  • 2:54 - 2:57
    con la que podrían hablar como
    si estuviesen hablando con uno mismo.
  • 3:00 - 3:03
    Una aclaración importante: el dispositivo
    no graba ni lee tus pensamientos.
  • 3:04 - 3:07
    Registra información específica
    que quieres comunicar
  • 3:07 - 3:10
    por medio de la conexión
    con los sistemas internos del habla.
  • 3:10 - 3:12
    Las personas no desean
    que las lean, sino poder escribir.
  • 3:13 - 3:14
    Por esta razón diseñamos el sistema
  • 3:14 - 3:18
    para que registre intencionalmente
    a partir del sistema nervioso periférico.
  • 3:20 - 3:23
    Así el usuario siempre tiene el control
    en todo momento.
  • 3:25 - 3:28
    Haré una breve pausa para que
    vean una demostración en vivo.
  • 3:29 - 3:32
    Voy a hacerle a Eric una pregunta
  • 3:32 - 3:34
    y él va a buscar esa información
  • 3:34 - 3:39
    sin vocalizar, sin teclear
    y sin mover los dedos o la boca.
  • 3:39 - 3:42
    Tan solo se formulará
    esta pregunta en su mente.
  • 3:42 - 3:45
    La IA, entonces, descifrará
    la respuesta y se la transmitirá a Eric
  • 3:45 - 3:47
    en forma de audio
    a través del dispositivo.
  • 3:48 - 3:51
    Si bien ven una computadora portátil
    delante de él, no la está usando.
  • 3:51 - 3:53
    Todo se encuentra dentro del dispositivo.
  • 3:53 - 3:58
    Solo necesita ese dispositivo para
    interactuar con la IA y con internet.
  • 3:59 - 4:03
    Veamos, Eric, ¿cómo está
    el clima en Vancouver hoy?
  • 4:11 - 4:13
    Lo que ven en la pantalla
  • 4:13 - 4:17
    son las palabras que Eric
    está pensando ahora mismo.
  • 4:17 - 4:19
    Esto sucede en tiempo real.
  • 4:20 - 4:23
    Eric: Hace 50º y está lluvioso
    aquí en Vancouver.
  • 4:23 - 4:26
    Arnav Kapur: La IA envió la respuesta
  • 4:26 - 4:28
    en forma de audio
    a través del dispositivo a Eric.
  • 4:29 - 4:32
    ¿Cuáles serían las implicancias
    de algo como esto?
  • 4:33 - 4:36
    Imaginen poder memorizar
    las cosas de forma exacta,
  • 4:36 - 4:39
    poder registrar perfectamente
    la información que piensan,
  • 4:39 - 4:41
    y luego escucharla cuando la necesiten;
  • 4:41 - 4:43
    poder buscar información de forma interna
  • 4:43 - 4:46
    procesando números
    a la velocidad de una computadora;
  • 4:46 - 4:48
    enviar mensajes de forma silenciosa
    a otras personas;
  • 4:49 - 4:51
    volverte de repente multilingüe
  • 4:51 - 4:56
    y así pensar en un idioma y escuchar
    la traducción mentalmente en otro.
  • 4:57 - 4:59
    Las posibilidades son muchas.
  • 5:01 - 5:03
    Hay millones de personas en todo el mundo
  • 5:03 - 5:05
    que tienen dificultades
    para usar el habla natural:
  • 5:05 - 5:09
    personas que padecen ELA
    o esclerosis lateral amiotrófica,
  • 5:09 - 5:12
    ACV, cáncer de boca,
    entre muchas otras enfermedades.
  • 5:14 - 5:18
    Comunicarse les resulta un proceso
    agotador, lento y muy difícil.
  • 5:19 - 5:20
    Él es Doug.
  • 5:20 - 5:25
    Le diagnosticaron ELA hace unos 12 años
    y desde entonces no es capaz de hablar.
  • 5:25 - 5:27
    Actualmente, usa un teclado en pantalla
  • 5:27 - 5:31
    donde puede escribir letras individuales
    haciendo movimientos con la cabeza.
  • 5:31 - 5:34
    Le lleva varios minutos
    formar una sola oración.
  • 5:35 - 5:37
    Fuimos a visitar a Doug y le preguntamos
  • 5:37 - 5:41
    cuáles eran las palabras que quisiera
    comunicar usando nuestro sistema.
  • 5:42 - 5:47
    Quizá un saludo, como "Hola, ¿qué tal?",
    o indicar que necesitaba ayuda para algo.
  • 5:49 - 5:52
    Doug dijo que quería usar
    nuestro sistema para pedir
  • 5:52 - 5:55
    que reiniciaran el sistema antiguo
    que tenía, porque fallaba con frecuencia.
  • 5:55 - 5:57
    (Risas)
  • 5:58 - 6:00
    Nunca lo hubiéramos imaginado.
  • 6:01 - 6:05
    Voy a mostrarles un breve video de Doug
    usando nuestro sistema por primera vez.
  • 6:10 - 6:12
    (Voz) Reiniciar computadora.
  • 6:14 - 6:16
    AK: Lo que acabamos de ver
  • 6:16 - 6:19
    es cómo Doug se comunica o habla
    en tiempo real por primera vez
  • 6:19 - 6:21
    desde que perdió el habla.
  • 6:22 - 6:24
    Hay millones de personas
  • 6:24 - 6:27
    que podrían comunicarse
    en tiempo real, como Doug,
  • 6:27 - 6:30
    con otras personas,
    con sus amigos y parientes.
  • 6:31 - 6:35
    Mi anhelo es poder ayudarlos
    a expresar sus pensamientos e ideas.
  • 6:37 - 6:39
    Creo que la computación, la IA e internet
  • 6:39 - 6:42
    podrían integrarse a nosotros
    y ser extensiones de la cognición
  • 6:43 - 6:46
    en lugar de ser entidades
    externas o adversarios;
  • 6:46 - 6:49
    podrían amplificar el ingenio humano
  • 6:49 - 6:53
    dándonos habilidades inimaginables
    y liberando nuestro verdadero potencial;
  • 6:54 - 6:58
    y podría quizá incluso liberarnos
    para ser mejores seres humanos.
  • 6:58 - 7:00
    Muchas gracias.
  • 7:00 - 7:03
    (Aplausos)
  • 7:06 - 7:07
    Shoham Arad: Ven, acércate.
  • 7:08 - 7:09
    Ven.
  • 7:11 - 7:12
    Bien.
  • 7:14 - 7:17
    Quiero hacerte algunas preguntas
    antes de que desmonten el escenario.
  • 7:17 - 7:21
    Esto me parece increíble, innovador,
  • 7:22 - 7:24
    espeluznante, aterrador.
  • 7:24 - 7:27
    ¿Puedes contarnos cuáles son...?
  • 7:27 - 7:29
    Creo que hay algunos
    sentimientos negativos sobre esto.
  • 7:29 - 7:33
    Cuéntanos: ¿puede esto leernos la mente?,
    ¿podrá hacerlo en cinco años?,
  • 7:33 - 7:36
    ¿podría convertirse
    en un arma?, ¿cómo luce?.
  • 7:37 - 7:40
    AK: Nuestro primer principio de diseño,
    antes de comenzar a trabajar en esto,
  • 7:40 - 7:44
    fue que las cuestiones éticas
    no fuesen secundarias.
  • 7:44 - 7:47
    Así que quisimos introducir
    la ética en el diseño mismo.
  • 7:47 - 7:50
    Invertimos el diseño: en lugar
    de leer directamente el cerebro,
  • 7:50 - 7:52
    se lee el sistema nervioso somático
  • 7:52 - 7:55
    que necesariamente debes activar
    para comunicarte con el dispositivo;
  • 7:55 - 7:59
    pero aún cuenta con los beneficios
    de un dispositivo para hablar o pensar.
  • 7:59 - 8:01
    Tiene lo mejor de ambas áreas.
  • 8:01 - 8:04
    SA: Creo que la audiencia tendrá
    muchas otras preguntas.
  • 8:04 - 8:08
    Dijiste que es una calcomanía,
    ¿simplemente se ubica allí?
  • 8:08 - 8:13
    ¿Será así la última versión, la apariencia
    que quieren para el diseño final?
  • 8:14 - 8:19
    AK: Nuestro objetivo es que
    la tecnología desaparezca totalmente.
  • 8:19 - 8:20
    SA: ¿Qué quieres decir?
  • 8:20 - 8:23
    AK: Si la estás usando,
    yo no debería darme cuenta.
  • 8:23 - 8:26
    Nadie quiere la tecnología
    en el rostro, sino de fondo,
  • 8:26 - 8:28
    que te amplifique desde el fondo.
  • 8:28 - 8:32
    Tenemos una versión que se amolda
    a la piel, que luce como la piel,
  • 8:32 - 8:35
    pero estamos trabajando en una versión
    incluso más pequeña que vaya aquí.
  • 8:37 - 8:41
    SA: Bien, si alguien tiene
    otra pregunta para Arnav,
  • 8:41 - 8:43
    estará aquí toda la semana.
  • 8:43 - 8:44
    Muchas gracias, Arnav.
  • 8:44 - 8:46
    AK: Gracias, Shoham.
Title:
Cómo la IA podría volverse una extensión de tu mente
Speaker:
Arnav Kapur
Description:

Intenta hablar contigo mismo sin abrir la boca, solo imaginando las palabras en tu mente. ¿Y si pudieras realizar búsquedas en internet de esa forma y, además, obtener respuestas? En esta primera demostración en vivo de su nueva tecnología, el socio TED Arnav Kapur nos muestra AlterEgo: un dispositivo portátil de IA con el potencial de permitir que puedas comunicarte de manera silenciosa con un sistema de computación, como si de una voz en tu mente se tratara. Descubre cómo funciona este dispositivo y cuáles serían las implicaciones de esta nueva forma de interacción entre personas y computadoras.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:58

Spanish subtitles

Revisions