Return to Video

How you can make a fruit fly eat veggies

  • 0:00 - 0:02
    Greg Gage: La lectura del pensamiento.
  • 0:02 - 0:04
    Se ve en películas de ciencia ficción,
  • 0:04 - 0:06
    las máquinas que nos leen la mente.
  • 0:06 - 0:09
    Pero existen aparatos hoy
    que pueden leer la actividad eléctrica
  • 0:09 - 0:10
    del cerebro.
  • 0:10 - 0:11
    Lo llamamos el EEG.
  • 0:12 - 0:15
    ¿Hay información contenida
    en estas ondas cerebrales?
  • 0:15 - 0:18
    ¿Podríamos programar una computadora
    para leer los pensamientos?
  • 0:18 - 0:20
    Mi amigo Nathan
    está intentando hackear el EEG
  • 0:20 - 0:23
    para construir una máquina
    que pueda leer la mente.
  • 0:23 - 0:25
    [Neurociencia casera]
  • 0:25 - 0:27
    Así funciona el EEG:
  • 0:27 - 0:28
    dentro de la cabeza está el cerebro,
  • 0:28 - 0:31
    y el cerebro se compone de
    miles de millones de neuronas.
  • 0:31 - 0:34
    Cada neurona transmite
    un mensaje eléctrico la una a la otra.
  • 0:34 - 0:37
    Estos pequeños mensajes pueden combinarse
    para formar una onda eléctrica
  • 0:37 - 0:39
    que se detecta en un monitor.
  • 0:39 - 0:42
    Tradicionalmente, el EEG
    nos puede decir cosas generales,
  • 0:42 - 0:44
    por ejemplo, si uno está
    dormido o despierto.
  • 0:44 - 0:45
    Pero ¿nos puede decir algo más?
  • 0:45 - 0:47
    ¿Puede realmente leer los pensamientos?
  • 0:47 - 0:48
    Lo vamos a comprobar.
  • 0:48 - 0:52
    No empezaremos con pensamientos complejos;
    haremos algo muy sencillo.
  • 0:52 - 0:55
    ¿Podemos interpretar lo que alguien ve
    utilizando solo sus ondas cerebrales?
  • 0:56 - 0:59
    Nathan empezará por pegar electrodos
    en la cabeza de Christy.
  • 0:59 - 1:01
    Nathan: Mi vida está enredada.
  • 1:01 - 1:02
    (Risas)
  • 1:02 - 1:04
    GG: Luego le mostrará
    una serie de imágenes
  • 1:04 - 1:06
    de cuatro categorías diferentes.
  • 1:06 - 1:09
    Nathan: Una cara, una casa,
    un paisaje e imágenes raras.
  • 1:09 - 1:12
    GG: Mientras le mostramos a Christy
    centenares de estas imágenes,
  • 1:12 - 1:15
    se están registrando las ondas eléctricas
    en la computadora de Nathan.
  • 1:15 - 1:18
    Queremos ver si podemos detectar
    información visual sobre las fotos
  • 1:18 - 1:20
    contenida en las ondas cerebrales,
  • 1:20 - 1:23
    así que al terminar, sabremos
    si el EEG nos puede decir
  • 1:23 - 1:25
    qué tipo de imagen Christy está mirando.
  • 1:25 - 1:26
    Y si este es el caso,
  • 1:26 - 1:29
    cada categoría debe desencadenar
    una señal diferente del cerebro.
  • 1:29 - 1:31
    Bien, recolectamos todos los datos
    sin procesar del EEG,
  • 1:31 - 1:33
    y estos son los resultados.
  • 1:33 - 1:36
    Se ven bastante desorganizados,
    entonces ordenémoslos por imagen.
  • 1:36 - 1:39
    Aún está demasiado caótico
    para ver alguna diferencia,
  • 1:40 - 1:43
    pero si igualamos el EEG
    entre todos los tipos de imágenes
  • 1:43 - 1:45
    y las alineamos según el momento
    en que la imagen apareció
  • 1:45 - 1:47
    podemos normalizar el caos,
    y dentro de poco,
  • 1:47 - 1:51
    vemos que unas tendencias principales
    emergen para cada categoría.
  • 1:51 - 1:53
    Las señales todavía se ven
    bastante similares.
  • 1:53 - 1:54
    Mirémoslas más de cerca.
  • 1:54 - 1:57
    Como a cien milisegundos
    después de que sale la imagen,
  • 1:57 - 1:59
    vemos un aumento positivo
    en cada uno de los cuarto casos.
  • 2:00 - 2:01
    Lo llamamos el P100,
  • 2:01 - 2:03
    y creemos que eso es
    lo que pasa en el cerebro
  • 2:03 - 2:05
    cuando reconoces un objeto.
  • 2:05 - 2:07
    Pero ¡guau!, mira la señal para la cara.
  • 2:07 - 2:09
    Parece diferente de las otras.
  • 2:09 - 2:13
    Hay una baja a unos 170 milisegundos
    después de que sale la imagen.
  • 2:13 - 2:15
    ¿Qué estará pasando aquí?
  • 2:15 - 2:18
    Los estudios demuestran que
    el cerebro tiene muchas neuronas
  • 2:18 - 2:20
    dedicadas al reconocimiento
    de caras humanas.
  • 2:21 - 2:23
    Entonces esta caída de N170
    podrían ser todas esas neuronas
  • 2:23 - 2:25
    que se activan a la vez en el mismo sitio,
  • 2:25 - 2:27
    Y podemos detectarlo en el EEG.
  • 2:27 - 2:29
    Hay dos puntos claves aquí.
  • 2:29 - 2:32
    Uno: los ojos no pueden detectar
    diferencias en los patrones
  • 2:32 - 2:34
    sin que se iguale el ruido.
  • 2:34 - 2:36
    Y dos: aun después de que
    se elimina el ruido,
  • 2:36 - 2:39
    los ojos solo pueden detectar
    las señales asociadas con las caras.
  • 2:39 - 2:42
    Entonces, recurrimos
    al aprendizaje automático.
  • 2:42 - 2:43
    Los ojos no son muy buenos
  • 2:43 - 2:45
    para identificar patrones
    entre datos caóticos,
  • 2:45 - 2:47
    pero los algoritmos
    de aprendizaje automático
  • 2:47 - 2:49
    están precisamente para eso.
  • 2:49 - 2:51
    Entonces, ¿podríamos tomar
    muchas imágenes y datos
  • 2:51 - 2:53
    y entrarlos a una computadora
  • 2:53 - 2:57
    para programarla a interpretar
    lo que Christy está viendo en tiempo real?
  • 2:57 - 3:01
    Tratamos de escribir la información
    que sale de su EEG
  • 3:01 - 3:02
    en tiempo real,
  • 3:02 - 3:05
    y predecir lo que sus ojos están viendo.
  • 3:05 - 3:09
    Y si funciona, entonces cada vez
    que le toca una imagen del paisaje,
  • 3:09 - 3:11
    debe decir: paisaje, paisaje,
    paisaje, paisaje.
  • 3:11 - 3:13
    Y cuando es una cara:
    cara, cara, cara, cara.
  • 3:13 - 3:16
    Pero no está funcionando exactamente así,
  • 3:16 - 3:17
    aparentemente.
  • 3:22 - 3:25
    (Risas)
  • 3:25 - 3:26
    Muy bien.
  • 3:26 - 3:28
    Christy: ¿Qué está pasando aquí?
  • 3:28 - 3:30
    GG: Necesitamos una nueva carrera, creo.
  • 3:30 - 3:31
    (Risas)
  • 3:31 - 3:33
    GG: Bien, eso fue un enorme fracaso.
  • 3:33 - 3:34
    Pero seguimos curiosos:
  • 3:34 - 3:36
    ¿Hasta dónde podríamos
    llevar esta tecnología?
  • 3:36 - 3:38
    Revisamos lo que habíamos hecho.
  • 3:38 - 3:41
    Notamos que los datos entraban
    a la computadora muy rápido,
  • 3:41 - 3:44
    sin indicar dónde ocurrían
    los intervalos entre imágenes.
  • 3:44 - 3:46
    Eso sería el equivalente de leer
    una oración muy larga
  • 3:46 - 3:48
    sin espacios entre las palabras.
  • 3:48 - 3:49
    Algo así sería difícil de leer,
  • 3:50 - 3:53
    pero una vez que insertemos los espacios,
    aparecen las palabras individuales
  • 3:53 - 3:55
    y es mucho más comprensible.
  • 3:55 - 3:57
    Pero ¿qué pasa si hacemos trampa?
  • 3:57 - 4:00
    Utilizando un sensor, podemos
    decirle a la computadora
  • 4:00 - 4:01
    el momento en que sale la imagen.
  • 4:01 - 4:05
    De ese modo, la onda cerebral deja de ser
    un flujo continuo de información,
  • 4:05 - 4:08
    y en cambio se vuelven unidades
    individuales de significado.
  • 4:08 - 4:09
    Vamos a hacer un poquito más de trampa,
  • 4:09 - 4:11
    usando solo dos de las categorías.
  • 4:11 - 4:14
    Veamos si podemos leer la mente
    en tiempo real.
  • 4:14 - 4:17
    En este nuevo experimento,
    lo restringimos un poco más
  • 4:17 - 4:19
    para saber el momento
    en que sale la imagen,
  • 4:19 - 4:23
    y limitamos las categorías
    a solo "cara" y "paisaje".
  • 4:23 - 4:25
    Nathan: Cara. Correcto.
  • 4:26 - 4:27
    Paisaje. Correcto.
  • 4:28 - 4:31
    GG: Así que cada vez
    que aparece la imagen,
  • 4:31 - 4:33
    sacamos una foto del momento en que sale
  • 4:33 - 4:35
    y desciframos las ondas del EEG.
  • 4:35 - 4:36
    Está mejorando.
  • 4:36 - 4:38
    Nathan: Sí. Cara. Correcto.
  • 4:38 - 4:40
    GG: Entonces sí, hay información
    en la señal del EEG,
  • 4:40 - 4:43
    nada más la tuvimos que alinear
    con la apariencia de la imagen.
  • 4:43 - 4:45
    Nathan: Paisaje. Correcto.
  • 4:47 - 4:48
    Cara. Sí.
  • 4:49 - 4:51
    GG: Esto significa que sí,
    hay información presente,
  • 4:51 - 4:54
    y si sabemos el momento
    en que apareció la imagen,
  • 4:54 - 4:56
    podemos determinar qué tipo de imagen era,
  • 4:56 - 4:58
    posiblemente, o por lo menos en promedio,
  • 4:58 - 5:01
    observando estos potenciales activados.
  • 5:01 - 5:02
    Nathan: Exactamente.
  • 5:02 - 5:05
    GG: Si me hubieras dicho al principio
    que esto era posible,
  • 5:05 - 5:07
    habría dicho que no hay manera.
  • 5:07 - 5:08
    No creí que fuera posible.
  • 5:08 - 5:11
    ¿De verdad funcionó nuestro experimento
    de lectura del pensamiento?
  • 5:11 - 5:13
    Sí, pero tuvimos que hacer mucha trampa.
  • 5:13 - 5:16
    Al final, puedes encontrar
    algunas cosas interesantes en el EEG,
  • 5:16 - 5:19
    por ejemplo, si estás mirando
    la cara de alguien.
  • 5:19 - 5:21
    Pero está bastante limitado.
  • 5:21 - 5:24
    Quizás se harán grandes avances
    en el aprendizaje automático
  • 5:24 - 5:27
    y algún día podremos descifrar
    lo que pasa en nuestros pensamientos.
  • 5:27 - 5:31
    Pero por ahora, cuando una compañía dice
    que pueden emplear tus ondas cerebrales
  • 5:31 - 5:33
    para poder controlar aparatos,
  • 5:33 - 5:35
    es tu derecho --es tu obligación--
  • 5:35 - 5:36
    ser escéptico.
Title:
How you can make a fruit fly eat veggies
Speaker:
Greg Gage
Description:

more » « less
Video Language:
English
Team:
closed TED
Project:
TED Series
Duration:
04:29

Spanish subtitles

Revisions Compare revisions