< Return to Video

Este computador está aprendendo a ler a mente

  • 0:00 - 0:03
    Greg Gage: Leitura da mente.
    Você já viu em ficção científica:
  • 0:03 - 0:05
    máquinas capazes de ler pensamentos.
  • 0:05 - 0:07
    No entanto, hoje existem aparelhos
  • 0:07 - 0:09
    que podem ler a atividade
    elétrica do cérebro.
  • 0:09 - 0:11
    Chamamos isso de EEG.
  • 0:12 - 0:15
    Há informações contidas
    nessas ondas cerebrais?
  • 0:15 - 0:17
    Poderíamos treinar um computador
    para ler pensamentos?
  • 0:17 - 0:20
    Meu amigo Nathan vem
    trabalhando para invadir o EEG
  • 0:20 - 0:22
    e criar uma máquina que lê a mente.
  • 0:22 - 0:24
    [Neurociência Faça Você Mesmo]
  • 0:25 - 0:26
    É assim que o EEG funciona.
  • 0:27 - 0:28
    Dentro da cabeça, há um cérebro,
  • 0:28 - 0:31
    feito de bilhões de neurônios.
  • 0:31 - 0:34
    Cada um deles envia
    uma mensagem elétrica para o outro.
  • 0:34 - 0:36
    Essas mensagens podem se combinar
  • 0:36 - 0:38
    e criar uma onda elétrica
    que podemos detectar num monitor.
  • 0:38 - 0:41
    Tradicionalmente, o EEG
    dá informações em larga escala,
  • 0:41 - 0:44
    por exemplo, se estamos
    adormecidos ou alertas.
  • 0:44 - 0:45
    Mas pode nos informar algo mais?
  • 0:45 - 0:47
    Ele consegue ler pensamentos?
  • 0:47 - 0:48
    Vamos testar isso.
  • 0:48 - 0:50
    Não vamos começar
    com pensamentos complexos,
  • 0:50 - 0:52
    mas com algo bem simples.
  • 0:52 - 0:55
    É possível interpretar o que alguém vê
    usando apenas as ondas cerebrais?
  • 0:56 - 0:59
    Nathan vai começar colocando
    eletrodos na cabeça de Christy.
  • 0:59 - 1:01
    Nathan: Minha vida está enrolada.
  • 1:01 - 1:02
    (Risos)
  • 1:02 - 1:04
    GG: Depois ele vai
    mostrar a ela várias imagens
  • 1:04 - 1:06
    de quatro categorias diferentes.
  • 1:06 - 1:09
    Nathan: Rosto, casa, paisagens
    e imagens estranhas.
  • 1:09 - 1:11
    GG: Enquanto mostramos a Christy
    centenas de imagens,
  • 1:12 - 1:15
    também capturamos as ondas elétricas
    no computador de Nathan.
  • 1:15 - 1:18
    Queremos ver se detectamos
    alguma informação visual sobre as fotos
  • 1:18 - 1:20
    contida nas ondas cerebrais.
  • 1:20 - 1:22
    Assim, quando terminarmos,
    veremos se o EEG
  • 1:22 - 1:25
    consegue nos dizer
    que tipo de imagem Christy está vendo
  • 1:25 - 1:28
    e, se conseguir, cada categoria
    deve acionar um sinal cerebral diferente.
  • 1:28 - 1:31
    Coletamos todos os dados brutos do EEG
  • 1:31 - 1:33
    e obtivemos isto.
  • 1:33 - 1:36
    Tudo parece muito confuso,
    então vamos organizá-los por imagem.
  • 1:37 - 1:39
    Ainda está um pouco turbulento
    para ver as diferenças,
  • 1:40 - 1:43
    mas, se calcularmos a média do EEG
    em todos os tipos de imagem,
  • 1:43 - 1:45
    alinhando ao surgimento
    da imagem pela primeira vez,
  • 1:45 - 1:47
    podemos remover essa turbulência
  • 1:47 - 1:49
    e, em breve, podemos ver
    alguns padrões dominantes
  • 1:49 - 1:51
    que surgem para cada categoria.
  • 1:51 - 1:53
    Todos os sinais ainda se assemelham muito.
  • 1:53 - 1:54
    Vamos olhar mais de perto.
  • 1:54 - 1:57
    Cerca de 100 milissegundos
    após a imagem aparecer,
  • 1:57 - 1:59
    vemos um aumento positivo
    nos quatro casos,
  • 1:59 - 2:02
    que chamamos de P100, e achamos
  • 2:02 - 2:05
    que é o que acontece no cérebro
    quando reconhecemos um objeto.
  • 2:05 - 2:07
    Mas, caramba, observe
    esse sinal para o rosto.
  • 2:07 - 2:09
    Parece diferente dos outros.
  • 2:09 - 2:12
    Há uma queda negativa
    de cerca de 170 milissegundos
  • 2:12 - 2:13
    depois que a imagem é exibida.
  • 2:13 - 2:15
    O que poderia estar acontecendo aqui?
  • 2:15 - 2:18
    Pesquisas mostram que o cérebro
    possui muitos neurônios
  • 2:18 - 2:20
    dedicados a reconhecer rostos humanos.
  • 2:20 - 2:23
    Esse pico N170 pode ser todos os neurônios
  • 2:23 - 2:25
    que disparam ao mesmo tempo
    no mesmo local,
  • 2:25 - 2:27
    e podemos detectá-lo no EEG.
  • 2:27 - 2:29
    Há duas informações importantes aqui.
  • 2:29 - 2:32
    Primeira, os olhos não conseguem
    detectar as diferenças em padrões
  • 2:32 - 2:34
    sem calcular a média do ruído;
  • 2:34 - 2:36
    e segunda, mesmo depois de removê-lo,
  • 2:36 - 2:39
    os olhos só conseguem captar
    os sinais associados a rostos.
  • 2:39 - 2:41
    É aqui que nos voltamos
    ao aprendizado de máquina.
  • 2:41 - 2:45
    Os olhos não são muito bons
    em captar padrões em dados turbulentos,
  • 2:45 - 2:49
    mas algoritmos de aprendizado de máquina
    são feitos para isso.
  • 2:49 - 2:51
    Será que podemos pegar
    muitas fotos e dados,
  • 2:51 - 2:53
    introduzi-los e treinar um computador
  • 2:53 - 2:57
    para conseguir interpretar o que Christy
    está vendo em tempo real?
  • 2:57 - 3:01
    Estamos tentando codificar
    as informações que saem do EEG dela
  • 3:01 - 3:02
    em tempo real
  • 3:02 - 3:05
    e prever o que os olhos dela estão vendo.
  • 3:05 - 3:07
    Se funcionar, devemos ver
  • 3:07 - 3:09
    que, sempre que ela receber
    uma imagem de paisagem,
  • 3:09 - 3:11
    deverá repetir "paisagem";
  • 3:11 - 3:13
    um rosto, repetir "rosto";
  • 3:13 - 3:17
    mas descobrimos
    que não funciona bem assim.
  • 3:21 - 3:25
    (Risos)
  • 3:25 - 3:26
    Tudo bem.
  • 3:26 - 3:30
    Diretor: O que está havendo aqui?
    GG: Precisamos de uma nova carreira.
  • 3:30 - 3:31
    (Risos)
  • 3:31 - 3:33
    Tudo bem, foi um grande fracasso.
  • 3:33 - 3:36
    Mas continuamos curiosos: até onde
    poderíamos levar essa tecnologia?
  • 3:36 - 3:38
    Refletimos sobre o que fizemos.
  • 3:38 - 3:41
    Percebemos que os dados entravam
    muito rápido em nosso computador,
  • 3:41 - 3:43
    sem coordenação de quando
    as imagens apareciam.
  • 3:43 - 3:48
    Isso equivale a ler uma frase muito longa
    sem espaços entre as palavras.
  • 3:48 - 3:49
    Seria difícil de ler,
  • 3:49 - 3:52
    mas, com a inclusão dos espaços,
  • 3:52 - 3:55
    surgem palavras individuais,
    e fica muito mais compreensível.
  • 3:55 - 3:57
    Mas e se trapacearmos um pouco?
  • 3:57 - 4:01
    Com um sensor, podemos dizer ao computador
    a primeira vez que a imagem aparece.
  • 4:01 - 4:04
    Assim as ondas cerebrais deixam de ser
    um fluxo contínuo de informações
  • 4:04 - 4:07
    e se tornam pacotes
    individuais de significado.
  • 4:07 - 4:10
    Além disso, vamos trapacear um pouco mais,
  • 4:10 - 4:11
    limitando as categorias a duas.
  • 4:11 - 4:14
    Vamos ver se conseguimos
    ler a mente em tempo real.
  • 4:14 - 4:15
    Neste novo experimento,
  • 4:15 - 4:19
    vamos restringi-lo um pouco mais
    para sabermos o início da imagem
  • 4:20 - 4:23
    e limitar as categorias
    a "rosto" ou "paisagem".
  • 4:23 - 4:25
    Nathan: Rosto. Correto.
  • 4:26 - 4:28
    Paisagem. Correto.
  • 4:28 - 4:31
    GG: Agora, toda vez que a imagem aparecer,
  • 4:31 - 4:35
    tiraremos uma foto do início da imagem
    e decodificaremos o EEG.
  • 4:35 - 4:36
    Está ficando correto.
  • 4:36 - 4:37
    Nathan: Sim. Rosto.
  • 4:37 - 4:40
    GG: Portanto, há informações
    no sinal EEG, o que é legal.
  • 4:40 - 4:43
    Só tivemos que alinhá-lo
    ao início da imagem.
  • 4:44 - 4:45
    Nathan: Paisagem. Correto.
  • 4:47 - 4:48
    Rosto. Sim.
  • 4:49 - 4:51
    GG: Isso significa que há
    algumas informações lá.
  • 4:51 - 4:54
    Se soubermos o momento
    em que a imagem apareceu,
  • 4:54 - 4:56
    poderemos dizer o tipo de imagem,
  • 4:56 - 5:01
    possivelmente, pelo menos em média,
    analisando esses potenciais evocados.
  • 5:01 - 5:02
    Nathan: Exatamente.
  • 5:02 - 5:06
    GG: Se você me dissesse, no início
    deste projeto, que isso era possível,
  • 5:06 - 5:07
    eu diria que não.
  • 5:07 - 5:09
    Eu não achava que poderíamos fazer isso.
  • 5:09 - 5:11
    Nosso experimento de ler a mente
    funcionou mesmo?
  • 5:11 - 5:13
    Sim, mas tivemos que trapacear muito.
  • 5:13 - 5:16
    Podemos encontrar
    coisas interessantes no EEG,
  • 5:16 - 5:19
    por exemplo, se olhar
    para o rosto de alguém,
  • 5:19 - 5:21
    mas ele tem muitas limitações.
  • 5:21 - 5:24
    Talvez haja grandes avanços
    no aprendizado de máquina
  • 5:24 - 5:27
    e, um dia, poderemos decodificar
    o que acontece em nossos pensamentos.
  • 5:27 - 5:30
    Mas, por enquanto, da próxima vez
    que uma empresa disser
  • 5:30 - 5:33
    que pode aproveitar suas ondas cerebrais
    para controlar aparelhos,
  • 5:33 - 5:36
    é seu direito, é seu dever ser cético.
Title:
Este computador está aprendendo a ler a mente
Speaker:
DIY Neuroscience
Description:

A tecnologia moderna permite que neurocientistas examinem o cérebro humano. Mas será que ela também consegue ler a mente? Munidos do aparelho conhecido como eletroencefalograma, ou EEG, e de algumas habilidades de computação, nossos intrépidos neurocientistas tentam examinar os pensamentos de uma pessoa.

more » « less
Video Language:
English
Team:
closed TED
Project:
TED Series
Duration:
05:51

Portuguese, Brazilian subtitles

Revisions