< Return to Video

Não temam a Inteligência Artificial superinteligente

  • 0:01 - 0:04
    Quando eu era miúdo,
    era um grandessíssimo "nerd".
  • 0:05 - 0:08
    Acho que alguns de vocês também eram.
  • 0:08 - 0:09
    (Risos)
  • 0:09 - 0:12
    E o senhor, que riu mais alto,
    provavelmente ainda é.
  • 0:12 - 0:14
    (Risos)
  • 0:14 - 0:16
    Cresci numa cidade pequena
  • 0:16 - 0:18
    nas planícies empoeiradas
    do norte do Texas,
  • 0:18 - 0:21
    filho de um xerife
    que era filho de um pastor.
  • 0:21 - 0:24
    Meter-me em sarilhos estava fora de causa.
  • 0:24 - 0:27
    Por isso, comecei a ler
    livros de cálculo por diversão.
  • 0:28 - 0:29
    (Risos)
  • 0:29 - 0:31
    Vocês também fizeram isso.
  • 0:31 - 0:34
    Isso levou-me a construir um laser,
    um computador e modelos de foguetões
  • 0:34 - 0:38
    e levou-me a fazer combustível
    para foguetões, no meu quarto.
  • 0:40 - 0:42
    Em termos científicos,
  • 0:42 - 0:45
    chamamos a isso uma ideia muito má.
  • 0:45 - 0:46
    (Risos)
  • 0:46 - 0:48
    Por volta dessa época,
  • 0:49 - 0:52
    "2001: A Odisseia no Espaço", de
    Stanley Kubrick, chegou ao cinema
  • 0:52 - 0:54
    e a minha vida mudou para sempre.
  • 0:54 - 0:57
    Adorei tudo naquele filme,
  • 0:57 - 0:59
    especialmente o HAL 9000,
  • 0:59 - 1:01
    O HAL era um computador sensível
  • 1:01 - 1:04
    concebido para guiar a astronave Discovery
  • 1:04 - 1:06
    da Terra para Júpiter.
  • 1:06 - 1:08
    O HAL também era
    um personagem com defeitos,
  • 1:08 - 1:13
    porque, no final, preferiu valorizar
    a missão em vez da vida humana.
  • 1:13 - 1:15
    O HAL era uma personagem fictícia,
  • 1:15 - 1:18
    mas, mesmo assim,
    fala dos nossos medos,
  • 1:18 - 1:20
    dos nossos medos de sermos subjugados
  • 1:20 - 1:23
    por alguma inteligência
    insensível, artificial
  • 1:23 - 1:25
    que é indiferente à nossa humanidade.
  • 1:26 - 1:29
    Acredito que tais medos são infundados.
  • 1:29 - 1:31
    Na verdade, estamos numa época notável
  • 1:31 - 1:33
    da história humana,
  • 1:33 - 1:38
    em que, impelidos pela recusa de aceitar
    os limites do nosso corpo e da nossa mente,
  • 1:38 - 1:40
    estamos a construir máquinas
  • 1:40 - 1:43
    de complexidade e graça
    requintada e bonita
  • 1:43 - 1:45
    que alargará a experiência humana
  • 1:45 - 1:47
    de formas para além da nossa imaginação.
  • 1:48 - 1:51
    Depois duma carreira que me levou
    da Academia da Força Aérea
  • 1:51 - 1:52
    até ao Comando Espacial, agora,
  • 1:53 - 1:54
    tornei-me engenheiro de sistemas,
  • 1:54 - 1:57
    e recentemente, envolvi-me
    num problema de engenharia
  • 1:57 - 1:59
    associado à missão da NASA em Marte.
  • 2:00 - 2:02
    Em voos espaciais para a Lua,
  • 2:02 - 2:05
    podemos confiar no controlo
    da missão em Houston
  • 2:05 - 2:07
    para observar todos os aspetos dum voo.
  • 2:07 - 2:11
    No entanto, Marte está
    200 vezes mais longe
  • 2:11 - 2:14
    e, em resultado, são precisos
    13 minutos, em média,
  • 2:14 - 2:17
    para um sinal viajar
    da Terra até Marte.
  • 2:17 - 2:21
    Se houver problemas,
    não há tempo suficiente.
  • 2:21 - 2:23
    Assim, uma solução razoável de engenharia
  • 2:23 - 2:26
    pede-nos para pôr o controlo da missão
  • 2:26 - 2:29
    dentro das paredes
    da astronave Orion.
  • 2:29 - 2:32
    Uma outra ideia fascinante,
    no perfil da missão,
  • 2:32 - 2:35
    coloca robôs humanoides
    na superfície de Marte
  • 2:35 - 2:37
    antes de os seres humanos chegarem,
  • 2:37 - 2:39
    primeiro para construir instalações
  • 2:39 - 2:42
    e depois, para servir como membros
    colaborativos da equipa de ciência
  • 2:43 - 2:46
    Como olhei para isto
    numa perspetiva de engenharia
  • 2:46 - 2:50
    percebi rapidamente que aquilo
    de que precisava para arquitetar
  • 2:50 - 2:52
    era de uma inteligência artificial,
  • 2:52 - 2:54
    esperta, colaborativa
    e socialmente inteligente.
  • 2:54 - 2:58
    Por outras palavras, tinha de construir
    algo muito parecido com um HAL
  • 2:58 - 3:01
    mas sem tendências homicidas.
  • 3:01 - 3:02
    (Risos)
  • 3:03 - 3:05
    Vamos fazer uma pausa por um momento
  • 3:05 - 3:09
    Será realmente possível construir
    uma inteligência artificial assim?
  • 3:09 - 3:10
    Na verdade, é.
  • 3:10 - 3:11
    De muitas formas,
  • 3:11 - 3:13
    isso é um árduo problema de engenharia
  • 3:13 - 3:15
    com elementos de inteligência artificial,
  • 3:15 - 3:20
    não um problema complicado de IA
    que precisa de ser projetado.
  • 3:20 - 3:22
    Parafraseando Alan Turing,
  • 3:22 - 3:25
    não estou interessado
    em construir uma máquina sensível.
  • 3:25 - 3:27
    Não estou a construir um HAL.
  • 3:27 - 3:29
    Só estou a procurar um cérebro simples,
  • 3:29 - 3:32
    algo que ofereça a ilusão de inteligência.
  • 3:33 - 3:36
    A arte e a ciência da informática
    têm percorrido um longo caminho
  • 3:36 - 3:38
    desde que o HAL esteve no ecrã
  • 3:38 - 3:41
    e imagino que, se o seu inventor
    Dr. Chandra estivesse aqui hoje,
  • 3:41 - 3:43
    teria um monte de questões para nós.
  • 3:43 - 3:45
    Será realmente possível
  • 3:45 - 3:49
    termos um sistema de milhões
    e milhões de dispositivos,
  • 3:49 - 3:51
    para ler nos fluxos de dados,
  • 3:51 - 3:53
    prever as suas falhas
    e agir com antecedência?
  • 3:53 - 3:54
    É, sim.
  • 3:54 - 3:58
    Podemos construir sistemas que conversam
    com humanos em língua natural?
  • 3:58 - 3:59
    Podemos, sim.
  • 3:59 - 4:02
    Podemos construir sistemas que
    reconheçam objetos, identifiquem emoções,
  • 4:02 - 4:05
    se emocionem,
    joguem jogos e até leiam lábios?
  • 4:05 - 4:06
    Podemos, sim.
  • 4:07 - 4:09
    Podemos construir um sistema
    que estabeleça metas,
  • 4:09 - 4:12
    que execute planos para essas metas
    e aprenda ao longo do caminho?
  • 4:12 - 4:14
    Podemos, sim.
  • 4:14 - 4:17
    Podemos construir sistemas
    que tenham uma teoria de pensamento?
  • 4:17 - 4:19
    Estamos a aprender a fazer isso.
  • 4:19 - 4:22
    Podemos construir sistemas que têm
    um fundamento ético e moral?
  • 4:22 - 4:25
    Temos de aprender a fazer isso.
  • 4:25 - 4:27
    Vamos aceitar, por instantes,
  • 4:27 - 4:30
    que é possível construir
    essa inteligência artificial
  • 4:30 - 4:32
    para este tipo de missão e outros.
  • 4:32 - 4:34
    A pergunta seguinte
    que devemos fazer é:
  • 4:34 - 4:36
    Devemos ter medo dela?
  • 4:36 - 4:38
    Cada nova tecnologia
  • 4:38 - 4:41
    traz consigo uma certa trepidação.
  • 4:41 - 4:43
    Quando viram carros pela primeira vez,
  • 4:43 - 4:47
    as pessoas queixaram-se
    de que veríamos a destruição da família.
  • 4:47 - 4:49
    Quando viram os telefones,
    pela primeira vez,
  • 4:49 - 4:53
    as pessoas recearam que fossem
    destruir toda a conversação civil.
  • 4:53 - 4:56
    A certa altura, vimos a palavra escrita
    tornar-se universal.
  • 4:56 - 4:59
    As pessoas pensaram perder
    a capacidade de memorizar.
  • 4:59 - 5:01
    Tudo isto é verdade, até certo ponto,
  • 5:01 - 5:03
    mas acontece também que essas tecnologias
  • 5:03 - 5:07
    trouxeram-nos coisas
    que ampliaram a experiência humana
  • 5:07 - 5:09
    de formas profundas.
  • 5:10 - 5:12
    Então, vamos levar isso
    um pouco mais longe.
  • 5:13 - 5:18
    Eu não temo a criação
    duma IA como esta,
  • 5:18 - 5:22
    porque ela acabará por incorporar
    alguns dos nossos valores.
  • 5:22 - 5:25
    Considerem isto: construir um sistema
    cognitivo é totalmente diferente
  • 5:25 - 5:29
    de construir um sistema tradicional
    de software intensivo do passado.
  • 5:29 - 5:31
    Não os programamos. Ensinamo-los.
  • 5:31 - 5:34
    Para ensinar um sistema
    a reconhecer flores,
  • 5:34 - 5:37
    mostro-lhe milhares de flores
    dos tipos que gosto.
  • 5:37 - 5:39
    Para ensinar um sistema
    a jogar um jogo...
  • 5:39 - 5:42
    — bem, eu ensinaria,
    vocês também ensinariam.
  • 5:43 - 5:45
    Adoro flores. Vamos lá.
  • 5:45 - 5:48
    Para ensinar um sistema
    a jogar um jogo como o Go,
  • 5:48 - 5:50
    deixá-lo-ia jogar
    milhares de jogos do Go,
  • 5:51 - 5:52
    mas no processo também lhe ensino
  • 5:52 - 5:55
    como discernir um jogo bom
    de um jogo mau.
  • 5:55 - 5:58
    Se eu quiser criar um assistente legal
    artificialmente inteligente,
  • 5:58 - 6:01
    vou ensinar-lhe algumas noções de leis
  • 6:01 - 6:03
    mas, ao mesmo tempo,
    estou a introduzir-lhe
  • 6:03 - 6:06
    o sentido de piedade e de justiça
    que faz parte dessas leis.
  • 6:07 - 6:10
    Em termos científicos, é aquilo
    a que chamamos verdade fundamental,
  • 6:10 - 6:12
    e este é o ponto importante:
  • 6:12 - 6:13
    ao produzir estas máquinas,
  • 6:13 - 6:16
    estamos a ensinar-lhes
    um sentido dos nossos valores.
  • 6:17 - 6:20
    Para esse fim, confio tanto
    numa inteligência artificial,
  • 6:20 - 6:24
    — ou mesmo mais — do que
    num ser humano que é bem formado.
  • 6:24 - 6:25
    Mas podem perguntar:
  • 6:26 - 6:28
    "E quanto a agentes desonestos,
  • 6:28 - 6:31
    "a alguma organização
    não governamental bem financiada?"
  • 6:31 - 6:35
    Eu não temo uma inteligência artificial
    na mão de um lobo solitário.
  • 6:35 - 6:37
    Claramente, não conseguimos proteger-nos
  • 6:37 - 6:40
    contra todos os atos
    fortuitos de violência,
  • 6:40 - 6:42
    mas a realidade é que um sistema destes
  • 6:42 - 6:45
    requer formação substancial
    e formação subtil
  • 6:45 - 6:47
    muito para além
    dos recursos de um indivíduo.
  • 6:47 - 6:49
    E além disso,
  • 6:49 - 6:52
    é muito mais do que injetar
    um vírus de Internet no mundo
  • 6:52 - 6:55
    em que apertamos um botão,
    e ele aparece num milhão de lugares
  • 6:55 - 6:58
    e os portáteis começam a explodir
    por toda a parte.
  • 6:58 - 7:00
    Estes tipos de substância
    são muito maiores,
  • 7:00 - 7:02
    e certamente vamos vê-los chegar.
  • 7:03 - 7:06
    Será que receio
    que essa inteligência artificial
  • 7:06 - 7:08
    possa ameaçar toda a humanidade?
  • 7:08 - 7:12
    Se olharmos para filmes
    como "The Matrix", "Metropolis",
  • 7:12 - 7:16
    "O Exterminador Implacável",
    séries como "Westworld",
  • 7:16 - 7:18
    todos falam desse tipo de medo.
  • 7:18 - 7:22
    De facto, no livro "Superintelligence"
    do filósofo Nick Bostrom,
  • 7:22 - 7:24
    ele pega neste tema
  • 7:24 - 7:28
    e nota que uma superinteligência
    pode não só ser perigosa,
  • 7:28 - 7:32
    pode representar uma ameaça existencial
    para toda a humanidade.
  • 7:32 - 7:34
    O argumento básico do Dr. Bostrom
  • 7:34 - 7:37
    é que tais sistemas vão acabar por ter
  • 7:37 - 7:40
    uma tal ânsia insaciável de informação
  • 7:40 - 7:43
    que talvez aprendam como aprender
  • 7:43 - 7:46
    e acabem por descobrir
    que podem ter metas
  • 7:46 - 7:48
    que são contrárias
    às necessidades humanas.
  • 7:48 - 7:50
    O Dr. Bostrom tem muitos seguidores.
  • 7:50 - 7:54
    É apoiado por pessoas como
    Elon Musk e Stephen Hawking.
  • 7:55 - 7:58
    Com o devido respeito
  • 7:58 - 8:00
    a essas mentes brilhantes,
  • 8:00 - 8:03
    acho que estão fundamentalmente errados.
  • 8:03 - 8:06
    Há muitas peças do argumento
    do Dr. Bostrom para desmontar,
  • 8:06 - 8:08
    mas não tenho tempo
    para desmontá-las a todas,
  • 8:08 - 8:11
    mas muito rapidamente,
    considerem isto:
  • 8:11 - 8:14
    o super conhecimento
    é muito diferente da super ação.
  • 8:14 - 8:17
    O HAL só foi uma ameaça
    para a tripulação do Discovery
  • 8:17 - 8:21
    na medida em que o HAL comandava
    todos os aspetos do Discovery.
  • 8:21 - 8:23
    Então teria de ser com
    superinteligência.
  • 8:23 - 8:26
    Teria que ter o domínio
    sobre todo o nosso mundo.
  • 8:26 - 8:29
    Isto é o material do Skynet
    de “O Exterminador Implacável”
  • 8:29 - 8:31
    em que tínhamos uma superinteligência
  • 8:31 - 8:32
    que comandava a vontade humana,
  • 8:32 - 8:36
    que dirigia todos os dispositivos
    que estavam pelo mundo inteiro.
  • 8:36 - 8:37
    Em termos práticos,
  • 8:37 - 8:39
    isso não vai acontecer.
  • 8:39 - 8:42
    Não estamos a construir IA
    que controlam o tempo,
  • 8:42 - 8:44
    que dirigem as marés,
  • 8:44 - 8:47
    que comandam os seres humanos
    caprichosos e caóticos.
  • 8:47 - 8:51
    E além disso, se existisse
    tal inteligência artificial,
  • 8:51 - 8:54
    teria de competir com economias humanas,
  • 8:54 - 8:57
    e, portanto, competir connosco
    pelos recursos.
  • 8:57 - 8:58
    E, no final,
  • 8:58 - 9:00
    — não digam isto ao Siri —
  • 9:00 - 9:02
    podemos sempre desligá-los.
  • 9:02 - 9:04
    (Risos)
  • 9:05 - 9:08
    Estamos numa viagem incrível
  • 9:08 - 9:10
    de coevolução com as nossas máquinas.
  • 9:11 - 9:13
    Os seres humanos que somos hoje
  • 9:13 - 9:15
    não são os seres humanos
    que seremos depois.
  • 9:16 - 9:19
    Preocuparmo-nos agora com o aparecimento
    duma superinteligência
  • 9:19 - 9:22
    é, em muitos aspetos,
    uma diversão perigosa.
  • 9:22 - 9:24
    porque o aparecimento
    da própria informática
  • 9:24 - 9:27
    traz-nos uma série
    de questões humanas e sociais
  • 9:27 - 9:29
    às quais devemos agora dar atenção.
  • 9:29 - 9:32
    Como é que organizo melhor a sociedade
  • 9:32 - 9:35
    quando a necessidade
    de trabalho humano diminui?
  • 9:35 - 9:38
    Como posso trazer compreensão
    e educação a todo o mundo
  • 9:39 - 9:40
    sem desrespeitar as nossas diferenças?
  • 9:40 - 9:45
    Como posso ampliar e melhorar a vida humana
    através da assistência médica cognitiva?
  • 9:45 - 9:47
    Como posso usar a informática
  • 9:48 - 9:50
    para nos levar às estrelas?
  • 9:50 - 9:52
    E esta é a coisa excitante.
  • 9:52 - 9:55
    As oportunidades de usar a informática
  • 9:55 - 9:57
    para fazer avançar a experiência humana
  • 9:57 - 9:59
    estão ao nosso alcance,
    aqui e agora,
  • 10:00 - 10:02
    e estamos apenas a começar.
  • 10:02 - 10:04
    Muito obrigado.
  • 10:04 - 10:07
    (Aplausos)
Title:
Não temam a Inteligência Artificial superinteligente
Speaker:
Grady Booch
Description:

A tecnologia nova gera ansiedades novas, diz o cientista e filósofo Grady Booch, mas não precisamos de temer a Inteligência Artificial todo-poderosa e insensível. Booch tranquiliza os nossos piores temores (induzidos pela ficção científica) sobre computadores superinteligentes, explicando como vamos ensiná-los, não a programá-los, a partilhar os nossos valores. Em vez de se preocupar com uma improvável ameaça existencial, ele exorta-nos a considerar como é que a inteligência artificial vai melhorar a vida humana.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Portuguese subtitles

Revisions