< Return to Video

O que acontece quando os nossos computadores se tornam melhores que nós?

  • 0:01 - 0:05
    Eu trabalho com um grupo de matemáticos,
    filósofos e informáticos,
  • 0:05 - 0:10
    e pensamos acerca do futuro
    da inteligência mecânica,
  • 0:10 - 0:12
    entre outras coisas.
  • 0:12 - 0:17
    Algumas pessoas pensam que algumas
    destas coisas são como ciência ficção,
  • 0:17 - 0:20
    muito longe da realidade.
  • 0:20 - 0:21
    Mas eu gosto de dizer,
  • 0:21 - 0:25
    olhemos para as condições
    humanas modernas.
  • 0:25 - 0:27
    (Risos)
  • 0:27 - 0:29
    Essa é a forma normal de as coisas serem.
  • 0:29 - 0:31
    Mas se pensarmos nisso,
  • 0:31 - 0:35
    somos na verdade visitantes
    recentes neste planeta,
  • 0:35 - 0:37
    a espécie humana.
  • 0:37 - 0:41
    Imaginem, se a Terra tivesse sido
    criada há um ano,
  • 0:41 - 0:45
    a espécie humana, então,
    teria 10 minutos de vida.
  • 0:45 - 0:48
    A era da indústria teria começado
    há 2 segundos.
  • 0:49 - 0:51
    Outra forma de olhar para isto
  • 0:51 - 0:54
    é calcular o PIB mundial
    dos últimos 10 000 anos,
  • 0:55 - 0:58
    Tive a preocupação de inserir
    isto num gráfico para vocês verem.
  • 0:58 - 0:59
    Parece-se com isto.
  • 0:59 - 1:01
    (Risos)
  • 1:01 - 1:03
    É uma forma curiosa
    para uma situação normal.
  • 1:03 - 1:05
    Eu não ficaria muito descansado.
  • 1:05 - 1:07
    (Risos)
  • 1:07 - 1:12
    Perguntemos a nós próprios,
    qual é a causa dessa anomalia?
  • 1:12 - 1:15
    Algumas pessoas diriam que é a tecnologia.
  • 1:15 - 1:19
    É verdade, a tecnologia acumulou-se
    durante a história da humanidade
  • 1:19 - 1:24
    e, neste momento, a tecnologia evolui
    extremamente depressa
  • 1:24 - 1:25
    — essa é a causa imediata —
  • 1:25 - 1:28
    é por isso que estamos tão produtivos.
  • 1:28 - 1:32
    Mas eu gosto de pensar mais além,
    para a causa fundamental.
  • 1:33 - 1:37
    Olhem para estes dois senhores
    muito distintos:
  • 1:37 - 1:38
    Temos o Kanzi,
  • 1:38 - 1:43
    ele dominava 200 símbolos lexicais,
    uma incrível proeza.
  • 1:43 - 1:47
    E Ed Witten desencadeou a segunda
    revolução das supercordas.
  • 1:47 - 1:49
    Se examinarmos é isto que encontramos:
  • 1:49 - 1:51
    basicamente a mesma coisa.
  • 1:51 - 1:53
    Uma é um pouco maior,
  • 1:53 - 1:56
    talvez tenha alguns truques na maneira
    como está ligado.
  • 1:56 - 1:59
    Contudo, essas diferenças invisíveis
    não podem ser muito complicadas,
  • 1:59 - 2:04
    porque apenas houve 250 000 gerações
  • 2:04 - 2:06
    desde o nosso último antepassado comum.
  • 2:06 - 2:09
    Sabemos que os mecanismos complicados
    levam muito tempo a evoluir.
  • 2:10 - 2:12
    Portanto algumas mudanças mínimas
  • 2:12 - 2:16
    levam-nos de Kanzi para Witten,
  • 2:16 - 2:20
    desde ramos de árvores quebrados até
    mísseis balísticos intercontinentais.
  • 2:21 - 2:25
    Assim, parece óbvio que tudo aquilo
    que tenhamos realizado,
  • 2:25 - 2:27
    e tudo aquilo que nos preocupa,
  • 2:27 - 2:31
    dependa crucialmente de algumas mudanças
    mínimas que construíram a mente humana.
  • 2:33 - 2:36
    E o corolário, claro, é que
    quaisquer mudanças adicionais
  • 2:36 - 2:40
    que poderiam mudar significativamente
    o substrato de pensar
  • 2:40 - 2:43
    poderiam ter enormes consequências.
  • 2:44 - 2:47
    Alguns dos meus colegas pensam
    que estamos à beira
  • 2:47 - 2:51
    de algo que poderá causar uma mudança
    drástica nesse substrato,
  • 2:51 - 2:54
    e isso é a super inteligência mecânica.
  • 2:54 - 2:59
    A inteligência artificial costumava
    cingir-se a ordens numa caixa.
  • 2:59 - 3:01
    Tínhamos programadores humanos
  • 3:01 - 3:04
    que construíam objectos inteligentes
    cuidadosamente.
  • 3:05 - 3:07
    Construíamos esses sistemas
    especializados,
  • 3:07 - 3:08
    e eram úteis para alguns fins,
  • 3:08 - 3:11
    mas eram muito frágeis,
    não podíamos aumentá-los.
  • 3:11 - 3:14
    Basicamente, apenas obtínhamos
    aquilo que lá colocávamos inicialmente.
  • 3:14 - 3:16
    Mas a partir daí,
  • 3:16 - 3:19
    ocorreu uma mudança de paradigma
    no campo da inteligência artificial.
  • 3:19 - 3:22
    Hoje, a acção anda à volta da
    aprendizagem da máquina.
  • 3:23 - 3:29
    Portanto em vez de construir
    representações e elementos do conhecimento
  • 3:29 - 3:34
    criamos algoritmos que aprendem,
    muitas vezes a partir de dados em bruto.
  • 3:35 - 3:38
    Basicamente a mesma coisa
    que a criança faz.
  • 3:39 - 3:43
    O resultado é uma inteligência artificial
    que não se limita a um domínio
  • 3:43 - 3:48
    — o mesmo sistema que pode aprender a
    traduzir várias línguas,
  • 3:48 - 3:53
    ou aprender a jogar qualquer tipo
    de jogo de computador na consola Atari.
  • 3:54 - 3:55
    Agora, é claro,
  • 3:55 - 3:59
    a inteligência artificial ainda está muito
    longe de ter a mesma capacidade poderosa
  • 3:59 - 4:02
    e transversal para aprender
    e planificar tal como um ser humano.
  • 4:02 - 4:04
    O córtex ainda tem alguns
    truques algorítmicos
  • 4:04 - 4:07
    que ainda não sabemos
    como ligar nas máquinas.
  • 4:08 - 4:10
    Portanto a questão é,
  • 4:10 - 4:13
    a que distância estamos
    de poder ligar esses truques?
  • 4:14 - 4:16
    Há alguns anos,
  • 4:16 - 4:18
    fizemos um inquérito a alguns dos
    especialistas em I.A.,
  • 4:18 - 4:22
    para ver o que eles pensam, e uma das
    questões que colocámos foi:
  • 4:22 - 4:25
    "Por volta de que ano é que pensa que
    atingiremos a I.A.
  • 4:25 - 4:28
    ao nível humano,
    com 50% de probabilidade?"
  • 4:29 - 4:33
    Definimos o nível humano
    como a capacidade de realizar
  • 4:33 - 4:36
    praticamente qualquer trabalho.
    pelo menos como adulto,
  • 4:36 - 4:40
    a nível humano real, não apenas
    dentro de um domínio limitado.
  • 4:40 - 4:43
    A resposta média foi 2040 ou 2050,
  • 4:43 - 4:46
    consoante o grupo de especialistas
    a que perguntámos.
  • 4:47 - 4:50
    Poderá acontecer muito mais tarde,
    ou mais cedo,
  • 4:50 - 4:52
    a verdade é que ninguém sabe.
  • 4:53 - 4:56
    O que nós sabemos
    é que o limite fundamental
  • 4:56 - 4:59
    para processar informação
    no substrato duma máquina,
  • 4:59 - 5:03
    é muito superior ao limite
    dos tecidos biológicos.
  • 5:03 - 5:06
    Isto leva-nos à física.
  • 5:06 - 5:10
    Um neurónio biológico dispara, talvez,
    a 200 hertz, 200 vezes por segundo.
  • 5:10 - 5:14
    Mas até um transístor moderno
    opera em gigahertz.
  • 5:14 - 5:19
    Os neurónios propagam lentamente
    em axónios, a 100 metros por segundo.
  • 5:19 - 5:22
    Mas em computadores, os sinais podem
    deslocar-se à velocidade da luz.
  • 5:23 - 5:25
    Também há limitações de tamanho.
  • 5:25 - 5:28
    O cérebro humano tem que
    caber dentro do crânio,
  • 5:28 - 5:33
    mas um computador pode ser do tamanho
    de um armazém ou ainda maior.
  • 5:33 - 5:38
    Por isso o potencial para a super
    inteligência permanece latente na matéria,
  • 5:38 - 5:44
    tal como a potência do átomo permaneceu
    latente na história da humanidade,
  • 5:44 - 5:47
    pacientemente à espera até 1945.
  • 5:48 - 5:50
    Neste século,
  • 5:50 - 5:54
    os cientistas talvez aprendam a despertar
    o poder da inteligência artificial.
  • 5:54 - 5:58
    E penso que poderemos então assistir
    a uma explosão intelectual.
  • 5:58 - 6:02
    A maioria das pessoas, quando pensam
    acerca do que é a esperteza e a estupidez,
  • 6:02 - 6:05
    têm em mente uma imagem
    como esta, penso eu.
  • 6:05 - 6:08
    Numa ponta temos o idiota da aldeia,
  • 6:08 - 6:10
    e noutra ponta muito distante
  • 6:10 - 6:15
    temos Ed Witten, ou Albert Einstein,
    ou qualquer um dos vossos gurus favoritos.
  • 6:15 - 6:19
    Mas penso que, do ponto de vista
    da inteligência artificial,
  • 6:19 - 6:23
    a imagem verdadeira é provavelmente
    mais parecida com isto.
  • 6:23 - 6:27
    Começa tudo neste ponto aqui,
    na inteligência zero,
  • 6:27 - 6:30
    e depois, após muitos anos
    de trabalho árduo,
  • 6:30 - 6:34
    talvez cheguemos à inteligência
    artificial ao nível de um rato,
  • 6:34 - 6:36
    uma coisa que possa navegar
    em ambientes obstruídos
  • 6:36 - 6:38
    tal como um rato pode.
  • 6:38 - 6:42
    E depois, após muitos mais anos
    de trabalho árduo, muitos investimentos,
  • 6:42 - 6:47
    talvez cheguemos à inteligência
    artificial a nível de um chimpanzé.
  • 6:47 - 6:50
    E depois, após ainda mais anos
    de trabalho ainda mais duro,
  • 6:50 - 6:53
    chegamos à inteligência artificial
    a nível do idiota da aldeia.
  • 6:53 - 6:56
    E alguns momentos depois,
    ultrapassamos Ed Witten.
  • 6:56 - 6:59
    O comboio não pára na estação Humanville.
  • 6:59 - 7:02
    É mais provável que a ultrapasse.
  • 7:02 - 7:05
    Isto tem profundas implicações,
  • 7:05 - 7:08
    particularmente no que toca
    à questão do poder.
  • 7:08 - 7:10
    Por exemplo, os chimpanzés são fortes
  • 7:10 - 7:15
    — em proporção ao peso, um chimpanzé
    é duas vezes mais forte que um ser humano.
  • 7:15 - 7:20
    No entanto, o destino de Kanzi e dos seus
    camaradas depende mais
  • 7:20 - 7:24
    daquilo que nós humanos fazemos
    do que o que os chimpanzés fazem.
  • 7:26 - 7:28
    Uma vez atingida a super inteligência,
  • 7:28 - 7:31
    o destino da humanidade pode depender
    daquilo que a super inteligência faz.
  • 7:32 - 7:34
    Pensem nisto:
  • 7:34 - 7:39
    A inteligência mecânica é a última invenção
    que a humanidade precisa de fazer.
  • 7:39 - 7:42
    As máquinas tornar-se-ão melhores
    a inventar do que nós,
  • 7:42 - 7:44
    e farão isso em tempos digitais.
  • 7:44 - 7:49
    O que isto significa é basicamente uma
    previsão do futuro distante.
  • 7:49 - 7:53
    Pensem em todas as tecnologias absurdas
    que alguma vez podem ter imaginado
  • 7:53 - 7:55
    que os humanos pudessem ter
    desenvolvido com o tempo:
  • 7:55 - 7:59
    curas para o envelhecimento,
    colonização do espaço,
  • 7:59 - 8:02
    nanorobôs auto-replicadores ou transferir
    as nossas mentes para computadores,
  • 8:02 - 8:05
    todos os tipos de objectos
    da ciência ficção
  • 8:05 - 8:07
    que, no entanto, são consistentes
    com as leis da física.
  • 8:07 - 8:11
    Toda esta super inteligência poderia
    ser desenvolvida, e rapidamente.
  • 8:12 - 8:16
    Uma super inteligência com tanta
    maturidade tecnológica
  • 8:16 - 8:18
    poderia ser extremamente poderosa
  • 8:18 - 8:23
    e, pelo menos nalguns cenários,
    poderia conseguir aquilo que quer.
  • 8:23 - 8:27
    Teríamos então um futuro construído
  • 8:27 - 8:30
    segundo as preferências
    dessa inteligência artificial.
  • 8:30 - 8:34
    Agora uma boa pergunta é,
    quais são essas preferências?
  • 8:34 - 8:36
    Aqui torna-se mais complicado.
  • 8:36 - 8:38
    Para fazer qualquer progresso com isto,
  • 8:38 - 8:41
    temos de, primeiramente,
    evitar antropomorfizar.
  • 8:42 - 8:46
    E isto é irónico porque
    todos os artigos de jornais
  • 8:46 - 8:49
    acerca do futuro da inteligência
    artificial têm uma imagem como esta.
  • 8:50 - 8:54
    Então penso que aquilo que temos de fazer
    é imaginar a questão mais abstractamente,
  • 8:54 - 8:57
    não em termos de cenários
    brilhantes de Hollywood.
  • 8:57 - 9:01
    Temos de pensar na inteligência como
    um processo de optimização,
  • 9:01 - 9:06
    um processo que guia o futuro para
    um conjunto particular de configurações.
  • 9:06 - 9:10
    A super inteligência é um processo de
    optimização muito forte.
  • 9:10 - 9:14
    É extremamente bom a utilizar os meios
    disponíveis para atingir um estado
  • 9:14 - 9:16
    no qual o seu objetivo seja atingido.
  • 9:16 - 9:19
    Isto significa que não há
    ligação necessária
  • 9:19 - 9:22
    entre ser muito inteligente neste sentido,
  • 9:22 - 9:27
    e ter um objectivo que nós humanos
    acharíamos útil ou proveitoso.
  • 9:27 - 9:31
    Suponham que damos o objectivo de criar
    sorrisos humanos à inteligência artificial.
  • 9:31 - 9:34
    Quando a I.A. é fraca,
    realiza acções cómicas ou úteis
  • 9:34 - 9:36
    que levam o utilizador a sorrir.
  • 9:36 - 9:39
    Quando a inteligência artificial
    se torna super inteligente,
  • 9:39 - 9:43
    apercebe-se que existe uma melhor forma
    de atingir esse objectivo:
  • 9:43 - 9:44
    controlar o mundo
  • 9:44 - 9:48
    e inserir eléctrodos
    nos músculos faciais dos humanos
  • 9:48 - 9:50
    para causar sorrisos
    constantes e radiantes.
  • 9:50 - 9:52
    Outro exemplo:
  • 9:52 - 9:55
    suponham que desafiamos a I.A.
    a resolver um problema matemático difícil.
  • 9:55 - 9:57
    Quando a I.A. se torna
    super inteligente,
  • 9:57 - 10:01
    percebe que a forma mais eficiente de
    obter a solução para este problema
  • 10:01 - 10:04
    é através da transformação do planeta
    num computador gigante,
  • 10:04 - 10:06
    para aumentar a sua capacidade de pensar.
  • 10:06 - 10:09
    E reparem que isto dá uma razão
    instrumental à I.A.
  • 10:09 - 10:11
    para nos fazer coisas
    que possamos não aprovar.
  • 10:11 - 10:14
    Neste modelo, os seres humanos
    são uma ameaça,
  • 10:14 - 10:17
    poderíamos impedir a resolução
    deste problema matemático.
  • 10:17 - 10:21
    Claro, as coisas não vão dar erradas
    nessas formas particulares;
  • 10:21 - 10:22
    estes são exemplos caricaturados.
  • 10:22 - 10:25
    Mas este ponto geral é importante:
  • 10:25 - 10:27
    se criarem um processo de optimização
    muito potente
  • 10:27 - 10:30
    para maximizar o objectivo x,
  • 10:30 - 10:32
    é melhor assegurarem-se
    que a definição de x
  • 10:32 - 10:34
    incorpora tudo aquilo que vos interessa.
  • 10:35 - 10:39
    Esta é uma lição que também
    é ensinada em muitos mitos.
  • 10:39 - 10:45
    O Rei Midas deseja que tudo aquilo
    em que ele toca se torne ouro.
  • 10:45 - 10:47
    Toca na filha dele, transforma-a em ouro.
  • 10:47 - 10:50
    Toca na comida dele, esta torna-se ouro.
  • 10:50 - 10:53
    Isto poderia tornar-se
    particularmente relevante,
  • 10:53 - 10:55
    não apenas como metáfora para a ganância,
  • 10:55 - 10:57
    mas como uma ilustração
    daquilo que acontece
  • 10:57 - 10:59
    se criarem um processo
    de optimização poderoso
  • 10:59 - 11:03
    e lhe derem objectivos pouco específicos.
  • 11:04 - 11:09
    Podem dizer, se um computador começar a
    prender eléctrodos nas caras das pessoas,
  • 11:09 - 11:12
    basta desligá-los.
  • 11:13 - 11:18
    A) isso não é assim tão fácil de fazer
    se nos tornarmos dependentes do sistema
  • 11:18 - 11:21
    — por exemplo, onde está
    o interruptor da Internet?
  • 11:21 - 11:24
    B) porque é que os chimpanzés
    ou os neandertais
  • 11:24 - 11:27
    não desligaram
    o interruptor para a humanidade?
  • 11:27 - 11:30
    Eles de certeza que tinham motivos.
  • 11:30 - 11:33
    Temos um interruptor aqui, por exemplo.
  • 11:33 - 11:34
    (Sufocação)
  • 11:35 - 11:37
    A razão é que somos
    um adversário inteligente;
  • 11:37 - 11:40
    podemos prever ameaças
    e fazer planos para evitá-las.
  • 11:40 - 11:42
    Mas isso também consegue
    um agente super inteligente,
  • 11:42 - 11:45
    e seria muito melhor nisso do que nós.
  • 11:46 - 11:53
    A questão é, não devemos ser confiantes
    e pensar que temos tudo sob controlo.
  • 11:53 - 11:56
    Podíamos tentar fazer o nosso trabalho
    um pouco mais fácil,
  • 11:56 - 11:58
    pondo a inteligência artificial numa caixa,
  • 11:58 - 12:00
    como um "software" de ambiente seguro,
  • 12:00 - 12:03
    uma simulação da realidade virtual
    da qual não possa escapar.
  • 12:03 - 12:07
    Mas quanta certeza podemos ter
    que a I.A. não encontraria um buraco.
  • 12:07 - 12:10
    Dado que os "hackers" humanos
    estão sempre a encontrar buracos,
  • 12:10 - 12:13
    eu diria, provavelmente
    não muito confiantes.
  • 12:14 - 12:19
    Então desligamos o cabo da Ethernet
    para criar uma caixa de ar,
  • 12:19 - 12:21
    mas mais uma vez, como meros "hackers"
  • 12:21 - 12:25
    que transgridem caixas de ar
    utilizando engenharia social.
  • 12:25 - 12:27
    Neste momento em que falo,
  • 12:27 - 12:29
    tenho a certeza que há
    um empregado, algures.
  • 12:29 - 12:32
    a quem alguém que diz
    ser do departamento de informática
  • 12:32 - 12:35
    está a pedir os dados
    de identificação e "password".
  • 12:35 - 12:37
    Também são possíveis
    cenários mais criativos.
  • 12:37 - 12:39
    Por exemplo, uma I.A. pode imaginar
  • 12:39 - 12:42
    agitar eléctrodos nos circuitos internos
  • 12:42 - 12:45
    para criar ondas de rádio
    que pode utilizar para comunicar.
  • 12:45 - 12:47
    Ou talvez pudesse fingir uma avaria
  • 12:47 - 12:51
    e depois, quando os programadores a abrirem
    para ver o que se passou de errado,
  • 12:51 - 12:53
    olham para o código fonte — Bam! —
  • 12:53 - 12:55
    a manipulação toma lugar.
  • 12:55 - 12:59
    Ou poderia emitir um rascunho
    para uma tecnologia genial
  • 12:59 - 13:00
    e, quando a implementamos,
  • 13:00 - 13:05
    tem alguns efeitos secundários
    que a inteligência artificial planeou.
  • 13:05 - 13:08
    A questão aqui é que não deveríamos
    confiar na nossa capacidade
  • 13:08 - 13:12
    em manter um génio super inteligente
    fechado na sua garrafa para sempre.
  • 13:12 - 13:14
    Mais cedo ou mais tarde ele vai sair.
  • 13:15 - 13:18
    Acredito que a resposta seja encontrar
  • 13:18 - 13:23
    uma forma de criar uma inteligência
    artificial que, mesmo que escape,
  • 13:23 - 13:26
    ainda se mantenha segura porque está
    fundamentalmente do nosso lado
  • 13:26 - 13:28
    porque partilha os nossos valores.
  • 13:28 - 13:32
    Não vejo outra forma
    para este problema complexo.
  • 13:33 - 13:36
    Eu sinto-me optimista
    quanto à resolução deste problema.
  • 13:36 - 13:40
    Não teríamos de escrever uma longa lista
    com tudo aquilo que nos é importante,
  • 13:40 - 13:44
    ou ainda pior, enunciá-la numa
    linguagem de computador
  • 13:44 - 13:45
    como C++ ou Python,
  • 13:45 - 13:48
    o que seria uma tarefa sem esperança.
  • 13:48 - 13:52
    Em vez disso, criaríamos uma inteligência
    artificial que utiliza a sua inteligência
  • 13:52 - 13:55
    para aprender o que nós valorizamos.
  • 13:55 - 14:01
    O seu sistema de motivação seria construído
    de tal forma que fosse motivado
  • 14:01 - 14:06
    pela busca de valores ou de acções,
    prevendo que iríamos aprová-las.
  • 14:06 - 14:09
    Iríamos então elevar a sua inteligência
    o mais possível
  • 14:09 - 14:12
    para resolver o problema de
    carregamento de valores.
  • 14:13 - 14:14
    Isto pode acontecer,
  • 14:14 - 14:18
    e o resultado poderia ser muito
    bom para a Humanidade.
  • 14:18 - 14:21
    Mas não acontece sozinho.
  • 14:22 - 14:25
    As condições iniciais para a
    explosão da inteligência
  • 14:25 - 14:28
    podem precisar de ser definidas
    da forma correta
  • 14:28 - 14:30
    se queremos ter uma detonação controlada.
  • 14:31 - 14:34
    Os valores da I.A.
    têm de corresponder aos nossos,
  • 14:34 - 14:36
    não apenas num contexto familiar,
  • 14:36 - 14:38
    onde podemos ver com facilidade
    como a I.A. se comporta,
  • 14:38 - 14:41
    mas também em todos os contextos
    que a I.A. possa encontrar
  • 14:41 - 14:43
    no futuro indefinido.
  • 14:43 - 14:48
    E há também algumas questões esotéricas
    que teriam de ser resolvidas, que são:
  • 14:48 - 14:50
    os detalhes exactos da sua
    teoria decisiva,
  • 14:50 - 14:52
    como lidar com a incerteza lógica
    e assim por diante.
  • 14:53 - 14:56
    Os problemas que têm de ser
    resolvidos tornam este trabalho
  • 14:56 - 14:58
    um pouco difícil
  • 14:58 - 15:01
    — não tão difícil como fazer uma
    inteligência artificial super inteligente
  • 15:01 - 15:04
    mas bastante difícil.
  • 15:04 - 15:05
    A preocupação é esta:
  • 15:05 - 15:10
    Criar uma inteligência artificial super
    inteligente é um grande desafio.
  • 15:10 - 15:13
    Fazer uma inteligência artificial
    que seja segura
  • 15:13 - 15:15
    envolve desafios adicionais
    para além deste.
  • 15:16 - 15:20
    O risco é que, se alguém descobre uma
    forma de piratear o primeiro desafio
  • 15:20 - 15:23
    sem ter pirateado o desafio adicional
  • 15:23 - 15:25
    de assegurar a segurança perfeita.
  • 15:25 - 15:29
    Por isso eu penso que deveríamos
    trabalhar numa solução
  • 15:29 - 15:32
    para controlar os problemas
    com antecedência,
  • 15:32 - 15:34
    para que o tenhamos disponível
    para quando for preciso.
  • 15:35 - 15:38
    Pode ser que não consigamos resolver
    o problema de controlo por inteiro
  • 15:38 - 15:41
    porque talvez apenas se possam
    colocar alguns elementos
  • 15:41 - 15:45
    uma vez que saibamos os detalhes da
    arquitectura onde vai ser implementado.
  • 15:45 - 15:49
    Mas quanto mais resolvermos
    o problema de controlo,
  • 15:49 - 15:53
    maior será a probabilidade que a transição
    para a era da inteligência mecânica
  • 15:53 - 15:54
    corra bem.
  • 15:55 - 15:59
    Isto parece-me algo
    que vale a pena ser feito
  • 15:59 - 16:02
    e posso imaginar que,
    se as coisas correrem bem,
  • 16:02 - 16:07
    as pessoas daqui um milhão de anos
    vão olhar para este século
  • 16:07 - 16:11
    e é muito provável que digam que uma das
    coisas que fizemos e que teve impacto
  • 16:11 - 16:13
    foi pôr isto a funcionar.
  • 16:13 - 16:14
    Obrigado.
  • 16:14 - 16:18
    (Aplausos)
Title:
O que acontece quando os nossos computadores se tornam melhores que nós?
Speaker:
Nick Bostrom
Description:

A inteligência artificial (I.A.) está a ficar cada vez mais esperta, a uma velocidade espantosa — a investigação sugere que, dentro de um século, um computador I.A. poderá ser tão "esperto" como um ser humano. E assim, vai ultrapassar-nos: " A invenção mecânica é a última invenção que a humanidade alguma vez necessitará." Filósofo e tecnólogo, Bostrom pede-nos para pensar acerca do mundo que estamos a construir neste momento, liderado por máquinas pensantes. Será que as nossas máquinas espertas vão ajudar-nos a preservar a humanidade e os nossos valores — ou terão elas valores próprios?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Portuguese subtitles

Revisions