< Return to Video

O que acontece quando os computadores ficam mais inteligentes do que nós?

  • 0:01 - 0:05
    Eu trabalho com um grupo de matemáticos,
    filósofos e cientistas da computação,
  • 0:05 - 0:10
    e trocamos ideias sobre o futuro
    da inteligência das máquinas,
  • 0:10 - 0:12
    entre outras coisas.
  • 0:12 - 0:17
    Alguns consideram essas coisas
    como ficção científica,
  • 0:17 - 0:20
    muito irreais, malucas.
  • 0:20 - 0:21
    Mas eu gosto de dizer:
  • 0:21 - 0:25
    certo, vamos olhar
    a condição humana moderna.
  • 0:25 - 0:27
    (Risos)
  • 0:27 - 0:29
    Este é o modo normal das coisas.
  • 0:29 - 0:31
    Mas se pensarmos bem,
  • 0:31 - 0:34
    somos hóspedes
    muito recentes deste planeta.
  • 0:34 - 0:37
    Nós, a espécie humana.
  • 0:37 - 0:41
    Imaginem que a Terra
    tenha sido criada há um ano,
  • 0:41 - 0:45
    então a espécie humana
    existiria apenas há 10 minutos.
  • 0:45 - 0:48
    A era industrial teria começado
    dois segundos atrás.
  • 0:49 - 0:54
    Outro modo de encarar isto é pensar
    no PIB global dos últimos 10 mil anos.
  • 0:54 - 0:58
    Eu me dei ao trabalho de colocar
    isso num gráfico para vocês.
  • 0:58 - 0:59
    Ele tem este aspecto.
  • 0:59 - 1:00
    (Risos)
  • 1:00 - 1:03
    É uma forma curiosa
    para uma condição normal.
  • 1:03 - 1:05
    Não gostaria de me sentar nele.
  • 1:05 - 1:07
    (Risos)
  • 1:07 - 1:12
    Perguntemo-nos:
    qual é a causa da anomalia atual?
  • 1:12 - 1:14
    Alguns diriam que é a tecnologia.
  • 1:14 - 1:16
    É verdade,
  • 1:16 - 1:19
    a tecnologia tem se acumulado
    através da história
  • 1:19 - 1:23
    e atualmente, ela avança
    com extrema rapidez...
  • 1:23 - 1:25
    esta é a causa mais imediata,
  • 1:25 - 1:28
    e a razão de sermos
    muito produtivos hoje em dia.
  • 1:28 - 1:32
    Mas gosto de buscar no passado distante
    a causa fundamental de tudo.
  • 1:33 - 1:37
    Observem estes dois distintos senhores:
  • 1:37 - 1:38
    Temos o Kanzi...
  • 1:38 - 1:43
    ele domina 200 símbolos
    de léxicos, um feito incrível.
  • 1:43 - 1:47
    E Ed Witten, que desencadeou
    a segunda revolução da supercorda.
  • 1:47 - 1:49
    Dentro do crânio,
    eis o que descobriremos:
  • 1:49 - 1:51
    essencialmente a mesma coisa.
  • 1:51 - 1:53
    Um deles é um pouco maior,
  • 1:53 - 1:56
    pode ter alguns truques a mais,
    devido à sua arquitetura.
  • 1:56 - 1:59
    Contudo, essas diferenças invisíveis,
    não podem ser muito complicadas,
  • 1:59 - 2:03
    porque foram apenas 250 mil gerações
  • 2:03 - 2:05
    desde o último ancestral comum.
  • 2:05 - 2:09
    Sabemos que mecanismos complicados
    levam muito tempo para evoluir.
  • 2:10 - 2:12
    Então um conjunto de pequenas mudanças
  • 2:12 - 2:16
    nos levam do Kanzi ao Witten,
  • 2:16 - 2:20
    de galhos de árvores quebrados
    a mísseis balísticos intercontinentais.
  • 2:21 - 2:25
    Parece bastante óbvio
    que tudo que realizamos,
  • 2:25 - 2:28
    e tudo o que prezamos
    depende de modo crucial
  • 2:28 - 2:33
    de mudanças relativamente pequenas
    que fizeram a mente humana.
  • 2:33 - 2:36
    E tem como consequência, é claro,
    que quaisquer mudanças posteriores
  • 2:36 - 2:40
    que possam alterar significativamente
    o substrato do pensamento
  • 2:40 - 2:43
    poderiam ter enormes consequências.
  • 2:44 - 2:47
    Alguns colegas acham
    que estamos muito próximos
  • 2:47 - 2:51
    de algo que poderia causar
    uma profunda mudança no substrato,
  • 2:51 - 2:54
    que é a máquina superinteligente.
  • 2:54 - 2:59
    A inteligência artificial costumava ser
    colocar comandos em uma caixa.
  • 2:59 - 3:04
    Programadores humanos elaborariam
    penosamente itens de conhecimento.
  • 3:04 - 3:06
    Construímos tais sistemas inteligentes
  • 3:06 - 3:08
    e eles eram úteis
    para algumas finalidades,
  • 3:08 - 3:11
    mas eram muito frágeis,
    não podiam ser ampliados.
  • 3:11 - 3:14
    Essencialmente, obtinha-se deles
    o que havia sido colocado neles.
  • 3:14 - 3:15
    Desde então,
  • 3:15 - 3:19
    houve uma mudança de paradigma
    no campo da inteligência artificial.
  • 3:19 - 3:22
    Hoje, o esforço é voltado
    à aprendizagem das máquinas.
  • 3:22 - 3:28
    Em vez de construirmos representações
    do conhecimento e recursos,
  • 3:29 - 3:31
    criamos algoritmos que aprendem,
  • 3:31 - 3:34
    quase sempre a partir
    de dados não tratados de percepção.
  • 3:34 - 3:39
    Basicamente a mesma coisa
    que o bebê humano faz.
  • 3:39 - 3:43
    O resultado é IA que não se limita
    a um único domínio,
  • 3:43 - 3:48
    o mesmo sistema pode aprender
    a traduzir qualquer par de idiomas,
  • 3:48 - 3:53
    ou aprender a jogar qualquer game
    de computador num console Atari.
  • 3:53 - 3:55
    Agora, é claro,
  • 3:55 - 3:59
    a IA ainda não está nada perto
    de ter a mesma poderosa habilidade
  • 3:59 - 4:02
    de aprender e planejar em várias áreas,
    como o ser humano.
  • 4:02 - 4:04
    O córtex ainda guarda
    segredos de algoritmos
  • 4:04 - 4:08
    que ainda não sabemos
    como reproduzir nas máquinas.
  • 4:08 - 4:10
    Então a questão é:
  • 4:10 - 4:14
    "Estamos muito longe de podermos
    reproduzir essas proezas?"
  • 4:14 - 4:19
    Há alguns anos, pesquisamos o que pensavam
    os maiores especialistas em IA do mundo.
  • 4:19 - 4:21
    E uma das perguntas que fizemos foi:
  • 4:21 - 4:25
    “Em qual ano você acha que haverá
    50% de probabilidade
  • 4:25 - 4:28
    de termos conseguido a inteligência
    de máquinas com nível humano?"
  • 4:29 - 4:33
    Definimos o nível humano
    como a habilidade de realizar
  • 4:33 - 4:36
    quase toda tarefa pelo menos
    tão bem quanto um adulto humano.
  • 4:36 - 4:40
    Então, nível humano real,
    não apenas em alguma área limitada.
  • 4:40 - 4:43
    E a resposta foi em média 2040 ou 2050,
  • 4:43 - 4:46
    dependendo do grupo
    de especialistas consultado.
  • 4:47 - 4:50
    Poderá acontecer muito mais tarde
    ou mais cedo,
  • 4:50 - 4:52
    a verdade é que ninguém sabe.
  • 4:53 - 4:58
    O que sabemos é que o último limite
    do processamento da informação
  • 4:58 - 5:03
    em um substrato de máquina situa-se
    bem além dos limites do tecido biológico.
  • 5:03 - 5:05
    Isto pertence ao domínio da física.
  • 5:05 - 5:10
    Um neurônio dispara, talvez,
    a 200 hertz, 200 vezes por segundo.
  • 5:10 - 5:14
    Até mesmo os transistores atuais operam
    à frequência de gigahertz.
  • 5:14 - 5:17
    Os neurônios se propagam
    lentamente nos axônios,
  • 5:17 - 5:19
    no máximo a 100 metros por segundo.
  • 5:19 - 5:22
    Mas nos computadores,
    os sinais viajam à velocidade da luz.
  • 5:23 - 5:25
    Há também limitações de tamanho,
  • 5:25 - 5:28
    como a do cérebro humano
    ter que caber no crânio,
  • 5:28 - 5:32
    mas um computador pode ser do tamanho
    de um armazém ou maior ainda.
  • 5:32 - 5:38
    Então o potencial para a superinteligência
    de certa forma está latente na matéria,
  • 5:38 - 5:44
    do mesmo modo que o poder do átomo
    permaneceu latente durante a história,
  • 5:44 - 5:48
    esperando pacientemente até 1945.
  • 5:48 - 5:51
    Neste século, cientistas podem descobrir
  • 5:51 - 5:54
    como despertar
    o poder da inteligência artificial.
  • 5:54 - 5:58
    Eu penso que poderemos presenciar
    uma explosão de inteligência.
  • 5:58 - 6:02
    Quando a maioria das pessoas pensa
    sobre o que é inteligente ou estúpido,
  • 6:02 - 6:05
    acho que elas têm em mente
    uma imagem como esta.
  • 6:05 - 6:08
    Num extremo tem-se um idiota
  • 6:08 - 6:10
    e lá longe, no outro extremo,
  • 6:10 - 6:15
    temos o Ed Witten, ou Albert Einstein,
    ou o seu guru favorito.
  • 6:15 - 6:19
    Mas penso que do ponto de vista
    da inteligência artificial,
  • 6:19 - 6:23
    é mais provável
    que o quadro real seja assim:
  • 6:23 - 6:27
    a IA começa neste ponto,
    na ausência de inteligência,
  • 6:27 - 6:30
    e então, após muitos anos
    de trabalho bastante duro,
  • 6:30 - 6:33
    talvez cheguemos ao nível
    de inteligência de um rato,
  • 6:33 - 6:36
    algo capaz de se mover
    em ambientes desorganizados
  • 6:36 - 6:38
    tão bem quanto um rato.
  • 6:38 - 6:42
    E a seguir, após muitos anos
    de trabalho duro, de muito investimento,
  • 6:42 - 6:47
    talvez cheguemos ao nível
    da inteligência de um chimpanzé.
  • 6:47 - 6:50
    E depois de ainda muito mais anos
    de trabalho realmente árduo,
  • 6:50 - 6:53
    atinjamos a inteligência artificial
    de um idiota.
  • 6:53 - 6:56
    Alguns momentos mais tarde,
    estamos além de Ed Witten.
  • 6:56 - 6:59
    O trem não para
    na Estação Cidade da Humanidade.
  • 6:59 - 7:02
    É provável que passe zunindo, sem parar.
  • 7:02 - 7:04
    Isso tem implicações profundas,
  • 7:04 - 7:08
    particularmente no que se refere
    a questões de poder.
  • 7:08 - 7:11
    Por exemplo, um chimpanzé é
    duas vezes mais forte
  • 7:11 - 7:15
    do que um humano do sexo masculino
    e em boa forma física.
  • 7:15 - 7:20
    Apesar disso, o destino de Kanzi
    e seus amigos depende muito mais
  • 7:20 - 7:23
    do que fazem os humanos
    e não do que fazem os chimpanzés.
  • 7:25 - 7:28
    Quando houver a superinteligência,
  • 7:28 - 7:32
    o destino da humanidade pode depender
    do que a superinteligência fizer.
  • 7:32 - 7:34
    Pensem nisso.
  • 7:34 - 7:38
    Máquina inteligente é a última invenção
    que a humanidade precisará fazer.
  • 7:38 - 7:42
    As máquinas então serão
    melhores inventoras do que nós
  • 7:42 - 7:44
    e elas o farão
    numa escala de tempo digital.
  • 7:44 - 7:49
    Basicamente significa fazer
    o futuro ficar mais próximo.
  • 7:49 - 7:52
    Imaginem todas as possíveis
    tecnologias malucas
  • 7:52 - 7:55
    que os humanos poderiam ter desenvolvido
    num longo espaço de tempo:
  • 7:55 - 7:59
    curas para o envelhecimento,
    a colonização do espaço,
  • 7:59 - 8:02
    robôs autorreplicantes, ou fazer o upload
    de mentes em computadores,
  • 8:02 - 8:04
    tudo coisas do repertório
    da ficção científica
  • 8:04 - 8:07
    embora consistentes com as leis da física.
  • 8:07 - 8:09
    Tudo isso a superinteligência
    pode desenvolver
  • 8:09 - 8:12
    e talvez bem rapidamente.
  • 8:12 - 8:18
    Uma inteligência assim tão desenvolvida
    seria extremamente poderosa
  • 8:18 - 8:23
    e pelo menos em certas situações,
    seria capaz de obter o que desejasse.
  • 8:23 - 8:28
    O nosso futuro seria determinado
    pelas preferências da IA.
  • 8:30 - 8:34
    Qual seriam essas preferências?
    É uma boa pergunta.
  • 8:34 - 8:36
    É aqui que a coisa se complica.
  • 8:36 - 8:37
    Para prosseguirmos com isto,
  • 8:37 - 8:41
    primeiro devemos evitar
    a antropomorfização.
  • 8:42 - 8:45
    E é irônico, pois toda matéria de revista
  • 8:45 - 8:49
    sobre o futuro da IA
    publica um fotografia assim.
  • 8:50 - 8:54
    Eu acho que precisamos considerar
    a questão mais abstratamente,
  • 8:54 - 8:57
    não em termos hollywoodianos.
  • 8:57 - 9:01
    Precisamos pensar na inteligência
    como um processo de otimização
  • 9:01 - 9:03
    que direciona o futuro
  • 9:03 - 9:06
    para um conjunto específco
    de configurações.
  • 9:06 - 9:10
    Uma superinteligência é
    um poderoso processo de otimização.
  • 9:10 - 9:13
    É extremamente eficiente
    em usar os recursos disponíveis
  • 9:13 - 9:16
    para atingir seu objetivo.
  • 9:16 - 9:19
    Quer dizer que não há necessária ligação
  • 9:19 - 9:22
    entre ser muito inteligente neste sentido,
  • 9:22 - 9:27
    e ter um objetivo que os humanos
    julgariam valer a pena ou ser importante.
  • 9:27 - 9:31
    Suponham que déssemos a uma IA
    o objetivo de fazer as pessoas sorrirem.
  • 9:31 - 9:34
    Quando a IA é fraca, ela realiza
    ações úteis ou engraçadas
  • 9:34 - 9:37
    que fazem o usuário sorrir.
  • 9:37 - 9:39
    Quando a IA se torna superinteligente,
  • 9:39 - 9:43
    ela percebe que há um modo
    mais eficiente de atingir o objetivo:
  • 9:43 - 9:44
    assume o controle do mundo
  • 9:44 - 9:48
    e introduz eletrodos nos músculos
    das faces das pessoas
  • 9:48 - 9:50
    provocando sorrisos
    constantes e radiantes.
  • 9:50 - 9:53
    Outro exemplo:
    suponham que atribuamos à IA
  • 9:53 - 9:55
    a meta de resolver
    um problema matemático difícil.
  • 9:55 - 9:57
    Quando a IA se torna superinteligente,
  • 9:57 - 10:01
    ela percebe que o modo mais eficiente
    de obter a solução do problema
  • 10:01 - 10:04
    é transformar o planeta
    em um computador gigantesco,
  • 10:04 - 10:06
    para aumentar sua capacidade de pensar.
  • 10:06 - 10:10
    E notem que isso dá às IAs
    uma razão instrumental para fazerem coisas
  • 10:10 - 10:12
    com as quais talvez não concordássemos.
  • 10:12 - 10:14
    Neste modelo, os humanos são ameaças
  • 10:14 - 10:16
    que poderiam impedir a solução
    do problema matemático.
  • 10:16 - 10:20
    É evidente que não haverá
    problemas desta natureza;
  • 10:20 - 10:22
    estes são exemplos de desenho animado.
  • 10:22 - 10:24
    Mas a questão mais geral é importante:
  • 10:24 - 10:27
    se criarmos um processo de otimização
    realmente poderoso,
  • 10:27 - 10:30
    otimizado para o objetivo x,
  • 10:30 - 10:32
    é bom ter certeza
    de que a sua definição de x
  • 10:32 - 10:34
    incorpora tudo o que lhe interessa.
  • 10:35 - 10:39
    Esta lição também é ensinada
    como um mito.
  • 10:39 - 10:45
    O rei Midas deseja que tudo que ele tocar
    transforme-se em ouro.
  • 10:45 - 10:47
    Ele toca sua filha
    e ela se transforma em ouro.
  • 10:47 - 10:50
    Ele toca sua comida e ela vira ouro.
  • 10:50 - 10:53
    Isto poderia tornar-se relevante
    em termos práticos,
  • 10:53 - 10:56
    não apenas uma metáfora para a ganância,
    mas uma ilustração do que acontece
  • 10:56 - 10:59
    quando se cria um processo
    poderoso de otimização
  • 10:59 - 11:04
    e se fornecem objetivos incompreensíveis
    ou especificados sem clareza.
  • 11:04 - 11:08
    Poderíamos dizer que,
    se um computador puser eletrodos
  • 11:08 - 11:11
    nas faces das pessoas,
    bastaria desligá-lo.
  • 11:12 - 11:15
    A: isso não é necessariamente
    fácil de fazer
  • 11:15 - 11:18
    se nos tormanos dependentes do sistema,
  • 11:18 - 11:21
    por exemplo: onde fica o botão
    para desligar a Internet?
  • 11:21 - 11:24
    B: por que os chimpanzés ou os neandertais
  • 11:24 - 11:27
    não interroperam voluntariamente
    sua evolução para a humanidade?
  • 11:27 - 11:30
    Eles certamente tiveram motivos para isso.
  • 11:30 - 11:33
    Por exemplo, não temos
    uma chave para desligar aqui.
  • 11:33 - 11:34
    (Engasgando)
  • 11:34 - 11:37
    É que somos um adversário inteligente;
  • 11:37 - 11:40
    podemos antecipar as ameaças
    e planejar levando-as em conta.
  • 11:40 - 11:43
    Mas um agente superinteligente
    também poderia fazê-lo
  • 11:43 - 11:46
    e muito melhor do que nós.
  • 11:46 - 11:49
    Não deveríamos confiar
  • 11:51 - 11:53
    que temos tudo sob o nosso controle.
  • 11:53 - 11:56
    Poderíamos tornar nossa tarefa
    um pouco mais fácil, digamos,
  • 11:56 - 12:00
    protegendo a IA num ambiente
    de software seguro,
  • 12:00 - 12:03
    uma simulação de realidade virtual
    da qual ela não possa escapar.
  • 12:03 - 12:07
    Mas como termos certeza
    de que a IA não descobriria uma brecha?
  • 12:07 - 12:10
    Visto que os hackers
    encontram falhas a toda hora,
  • 12:10 - 12:13
    eu diria que não temos muita certeza.
  • 12:14 - 12:18
    Então desconectaríamos o cabo Ethernet
    para criar um “air gap",
  • 12:18 - 12:23
    mas de novo, os hackers
    transgridem rotineiramebte os air gaps
  • 12:23 - 12:25
    usando a engenharia social.
  • 12:25 - 12:28
    Enquanto eu falo,
    tenho certeza de que algum funcionário
  • 12:28 - 12:31
    foi convencido a revelar
    os detalhes de sua conta
  • 12:31 - 12:34
    para alguém que dizia ser
    do departamento de TI.
  • 12:34 - 12:37
    Situações mais criativas
    também são possíveis,
  • 12:37 - 12:40
    como se você for a IA,
    pode imaginar colocar muitos eletrodos
  • 12:40 - 12:42
    no circuito de segurança interna
  • 12:42 - 12:45
    para criar ondas de rádio
    que podem ser usadas para comunicação.
  • 12:45 - 12:50
    Ou talvez pudesse fingir um defeito
    e quando os programadores lhe abrissem
  • 12:50 - 12:53
    para investigar o que está errado
    eles veriam o código-fonte, bum!
  • 12:53 - 12:55
    A manipulação pode acontecer.
  • 12:55 - 12:59
    Ou poderia imprimir um projeto
    de tecnologia muito elegante,
  • 12:59 - 13:00
    e quando o implementássemos,
  • 13:00 - 13:05
    ele teria efeitos colaterais ocultos
    que a IA houvera planejado.
  • 13:05 - 13:08
    A questão é que não deveríamos
    confiar na nossa capacidade
  • 13:08 - 13:12
    de manter um gênio superinteligente
    preso para sempre em uma garrafa.
  • 13:12 - 13:14
    Mais cedo ou mais tarde ele escapará.
  • 13:15 - 13:20
    Acredito que a solução é descobrir
    como criar uma IA superinteligente
  • 13:20 - 13:24
    que mesmo se, ou quando, ela escapar,
    ainda seja segura,
  • 13:24 - 13:28
    porque no fundo está do nosso lado,
    pois compartilha nossos valores.
  • 13:28 - 13:32
    Não vejo como evitar
    este problema difícil.
  • 13:34 - 13:37
    Estou razoavelmente otimista
    que este problema pode ser resolvido.
  • 13:37 - 13:40
    Não teríamos que fazer uma lista grande
    de todas as coisas relevantes
  • 13:40 - 13:44
    ou pior ainda, escrevê-las
    em alguma linguagem de computador
  • 13:44 - 13:48
    como C++ ou Python,
    que seria uma tarefa muito irritante.
  • 13:48 - 13:52
    Em vez disso, criaríamos
    uma IA que usa sua inteligência
  • 13:52 - 13:55
    para aprender o que valorizamos.
  • 13:55 - 13:58
    E seu sistema de motivação
    seria construído
  • 13:58 - 14:00
    de modo que ela fosse incentivada
  • 14:00 - 14:03
    a obedecer aos nossos valores
    ou realizar ações
  • 14:03 - 14:06
    que ela previsse
    que teriam nossa aprovação.
  • 14:06 - 14:09
    Assim, aumentaríamos sua inteligência
    o mais que pudéssemos
  • 14:09 - 14:12
    para resolver o problema
    de passar-lhe os nossos valores.
  • 14:13 - 14:14
    Isso pode acontecer
  • 14:14 - 14:18
    e o resultado pode ser
    muito bom para a humanidade.
  • 14:18 - 14:21
    Mas não acontece automaticamente.
  • 14:21 - 14:25
    As condições inicias
    para a explosão da inteligência
  • 14:25 - 14:27
    podem precisar sofrer um ajuste
    no modo correto
  • 14:27 - 14:31
    se quisermos uma detonação controlada.
  • 14:31 - 14:34
    Os valores da IA devem
    coincidir com os nossos,
  • 14:34 - 14:36
    não apenas no contexto conhecido,
  • 14:36 - 14:38
    no qual podemos facilmente verificar
    como a IA se comporta,
  • 14:38 - 14:41
    mas também em todos os novos contextos
    que a IA pode encontrar
  • 14:41 - 14:43
    no futuro indefinido.
  • 14:43 - 14:45
    E há também questões esotéricas
  • 14:45 - 14:50
    que precisariam ser resolvidas:
    detalhes exatos de sua teoria de decisão,
  • 14:50 - 14:52
    como lidar com a incerteza lógica
    e assim por diante.
  • 14:53 - 14:55
    Então, os problemas técnicos
    que devem ser resolvidos
  • 14:55 - 14:57
    para que isso funcione
    parecem muito difíceis,
  • 14:57 - 15:00
    não tão difíceis quanto construir
    uma IA superinteligente,
  • 15:00 - 15:03
    mas razoavelmente difíceis.
  • 15:04 - 15:05
    Eis a preocupação:
  • 15:05 - 15:10
    construir IA superinteligente
    é um desafio muito grande.
  • 15:10 - 15:13
    Construir IA superinteligente segura
  • 15:13 - 15:15
    envolve desafio adicional.
  • 15:16 - 15:20
    O risco é de alguém descobrir
    como vencer o primeiro desafio
  • 15:20 - 15:23
    sem que também tenha vencido
    o desafio adicional
  • 15:23 - 15:25
    de garantir uma segurança perfeita.
  • 15:25 - 15:27
    Eu acredito que deveríamos
  • 15:27 - 15:31
    procurar uma solução antecipada
    para o problema do controle,
  • 15:31 - 15:34
    para que esteja à mão
    quando precisarmos dela.
  • 15:35 - 15:37
    Pode ser que não consigamos resolver
  • 15:37 - 15:40
    o problema do controle antecipado
    talvez porque alguns elementos
  • 15:40 - 15:44
    só possam ser colocados quando conhecermos
    os detalhes da arquitetura
  • 15:44 - 15:45
    onde será implementado.
  • 15:45 - 15:49
    Quanto mais antecipadamente resolvermos
    o problema do controle,
  • 15:49 - 15:51
    maiores serão as chances
    de que a transição
  • 15:51 - 15:53
    para a era da máquina inteligente
    será bem-sucedida.
  • 15:54 - 15:59
    Para mim, parece algo
    que vale a pena ser feito
  • 15:59 - 16:02
    e posso imaginar
    que se as coisas correrem bem,
  • 16:02 - 16:07
    e as pessoas daqui a 1 milhão de anos
    se lembrarem deste século,
  • 16:07 - 16:11
    pode ser que elas digam que a única coisa
    que fizemos e que realmente valeu a pena
  • 16:11 - 16:12
    foi fazer isso do jeito correto.
  • 16:12 - 16:14
    Obrigado.
  • 16:14 - 16:17
    (Aplausos)
Title:
O que acontece quando os computadores ficam mais inteligentes do que nós?
Speaker:
Nick Bostrom
Description:

A inteligência artificial está se tornando cada vez mais capaz a passos largos: segundo pesquisas, neste século, um computador com inteligência artificial poderia ser tão “esperto” como um ser humano. E então, afirma Nick Bostrom, ele vai nos ultrapassar: “A inteligência das máquinas será a última invenção que a humanidade precisará fazer.”. Filósofo e tecnólogo, Bostrom pede para pensarmos sobre o mundo que estamos construindo agora, impulsionado por máquinas pensantes. Será que nossas máquinas inteligentes vão nos ajudar a preservar a humanidade e nossos valores; ou será que terão seus próprios valores?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Portuguese, Brazilian subtitles

Revisions