Não temam a Inteligência Artificial superinteligente
-
0:01 - 0:04Quando eu era miúdo,
era um grandessíssimo "nerd". -
0:05 - 0:08Acho que alguns de vocês também eram.
-
0:08 - 0:09(Risos)
-
0:09 - 0:12E o senhor, que riu mais alto,
provavelmente ainda é. -
0:12 - 0:14(Risos)
-
0:14 - 0:16Cresci numa cidade pequena
-
0:16 - 0:18nas planícies empoeiradas
do norte do Texas, -
0:18 - 0:21filho de um xerife
que era filho de um pastor. -
0:21 - 0:24Meter-me em sarilhos estava fora de causa.
-
0:24 - 0:27Por isso, comecei a ler
livros de cálculo por diversão. -
0:28 - 0:29(Risos)
-
0:29 - 0:31Vocês também fizeram isso.
-
0:31 - 0:34Isso levou-me a construir um laser,
um computador e modelos de foguetões -
0:34 - 0:38e levou-me a fazer combustível
para foguetões, no meu quarto. -
0:40 - 0:42Em termos científicos,
-
0:42 - 0:45chamamos a isso uma ideia muito má.
-
0:45 - 0:46(Risos)
-
0:46 - 0:48Por volta dessa época,
-
0:49 - 0:52"2001: A Odisseia no Espaço", de
Stanley Kubrick, chegou ao cinema -
0:52 - 0:54e a minha vida mudou para sempre.
-
0:54 - 0:57Adorei tudo naquele filme,
-
0:57 - 0:59especialmente o HAL 9000,
-
0:59 - 1:01O HAL era um computador sensível
-
1:01 - 1:04concebido para guiar a astronave Discovery
-
1:04 - 1:06da Terra para Júpiter.
-
1:06 - 1:08O HAL também era
um personagem com defeitos, -
1:08 - 1:13porque, no final, preferiu valorizar
a missão em vez da vida humana. -
1:13 - 1:15O HAL era uma personagem fictícia,
-
1:15 - 1:18mas, mesmo assim,
fala dos nossos medos, -
1:18 - 1:20dos nossos medos de sermos subjugados
-
1:20 - 1:23por alguma inteligência
insensível, artificial -
1:23 - 1:25que é indiferente à nossa humanidade.
-
1:26 - 1:29Acredito que tais medos são infundados.
-
1:29 - 1:31Na verdade, estamos numa época notável
-
1:31 - 1:33da história humana,
-
1:33 - 1:38em que, impelidos pela recusa de aceitar
os limites do nosso corpo e da nossa mente, -
1:38 - 1:40estamos a construir máquinas
-
1:40 - 1:43de complexidade e graça
requintada e bonita -
1:43 - 1:45que alargará a experiência humana
-
1:45 - 1:47de formas para além da nossa imaginação.
-
1:48 - 1:51Depois duma carreira que me levou
da Academia da Força Aérea -
1:51 - 1:52até ao Comando Espacial, agora,
-
1:53 - 1:54tornei-me engenheiro de sistemas,
-
1:54 - 1:57e recentemente, envolvi-me
num problema de engenharia -
1:57 - 1:59associado à missão da NASA em Marte.
-
2:00 - 2:02Em voos espaciais para a Lua,
-
2:02 - 2:05podemos confiar no controlo
da missão em Houston -
2:05 - 2:07para observar todos os aspetos dum voo.
-
2:07 - 2:11No entanto, Marte está
200 vezes mais longe -
2:11 - 2:14e, em resultado, são precisos
13 minutos, em média, -
2:14 - 2:17para um sinal viajar
da Terra até Marte. -
2:17 - 2:21Se houver problemas,
não há tempo suficiente. -
2:21 - 2:23Assim, uma solução razoável de engenharia
-
2:23 - 2:26pede-nos para pôr o controlo da missão
-
2:26 - 2:29dentro das paredes
da astronave Orion. -
2:29 - 2:32Uma outra ideia fascinante,
no perfil da missão, -
2:32 - 2:35coloca robôs humanoides
na superfície de Marte -
2:35 - 2:37antes de os seres humanos chegarem,
-
2:37 - 2:39primeiro para construir instalações
-
2:39 - 2:42e depois, para servir como membros
colaborativos da equipa de ciência -
2:43 - 2:46Como olhei para isto
numa perspetiva de engenharia -
2:46 - 2:50percebi rapidamente que aquilo
de que precisava para arquitetar -
2:50 - 2:52era de uma inteligência artificial,
-
2:52 - 2:54esperta, colaborativa
e socialmente inteligente. -
2:54 - 2:58Por outras palavras, tinha de construir
algo muito parecido com um HAL -
2:58 - 3:01mas sem tendências homicidas.
-
3:01 - 3:02(Risos)
-
3:03 - 3:05Vamos fazer uma pausa por um momento
-
3:05 - 3:09Será realmente possível construir
uma inteligência artificial assim? -
3:09 - 3:10Na verdade, é.
-
3:10 - 3:11De muitas formas,
-
3:11 - 3:13isso é um árduo problema de engenharia
-
3:13 - 3:15com elementos de inteligência artificial,
-
3:15 - 3:20não um problema complicado de IA
que precisa de ser projetado. -
3:20 - 3:22Parafraseando Alan Turing,
-
3:22 - 3:25não estou interessado
em construir uma máquina sensível. -
3:25 - 3:27Não estou a construir um HAL.
-
3:27 - 3:29Só estou a procurar um cérebro simples,
-
3:29 - 3:32algo que ofereça a ilusão de inteligência.
-
3:33 - 3:36A arte e a ciência da informática
têm percorrido um longo caminho -
3:36 - 3:38desde que o HAL esteve no ecrã
-
3:38 - 3:41e imagino que, se o seu inventor
Dr. Chandra estivesse aqui hoje, -
3:41 - 3:43teria um monte de questões para nós.
-
3:43 - 3:45Será realmente possível
-
3:45 - 3:49termos um sistema de milhões
e milhões de dispositivos, -
3:49 - 3:51para ler nos fluxos de dados,
-
3:51 - 3:53prever as suas falhas
e agir com antecedência? -
3:53 - 3:54É, sim.
-
3:54 - 3:58Podemos construir sistemas que conversam
com humanos em língua natural? -
3:58 - 3:59Podemos, sim.
-
3:59 - 4:02Podemos construir sistemas que
reconheçam objetos, identifiquem emoções, -
4:02 - 4:05se emocionem,
joguem jogos e até leiam lábios? -
4:05 - 4:06Podemos, sim.
-
4:07 - 4:09Podemos construir um sistema
que estabeleça metas, -
4:09 - 4:12que execute planos para essas metas
e aprenda ao longo do caminho? -
4:12 - 4:14Podemos, sim.
-
4:14 - 4:17Podemos construir sistemas
que tenham uma teoria de pensamento? -
4:17 - 4:19Estamos a aprender a fazer isso.
-
4:19 - 4:22Podemos construir sistemas que têm
um fundamento ético e moral? -
4:22 - 4:25Temos de aprender a fazer isso.
-
4:25 - 4:27Vamos aceitar, por instantes,
-
4:27 - 4:30que é possível construir
essa inteligência artificial -
4:30 - 4:32para este tipo de missão e outros.
-
4:32 - 4:34A pergunta seguinte
que devemos fazer é: -
4:34 - 4:36Devemos ter medo dela?
-
4:36 - 4:38Cada nova tecnologia
-
4:38 - 4:41traz consigo uma certa trepidação.
-
4:41 - 4:43Quando viram carros pela primeira vez,
-
4:43 - 4:47as pessoas queixaram-se
de que veríamos a destruição da família. -
4:47 - 4:49Quando viram os telefones,
pela primeira vez, -
4:49 - 4:53as pessoas recearam que fossem
destruir toda a conversação civil. -
4:53 - 4:56A certa altura, vimos a palavra escrita
tornar-se universal. -
4:56 - 4:59As pessoas pensaram perder
a capacidade de memorizar. -
4:59 - 5:01Tudo isto é verdade, até certo ponto,
-
5:01 - 5:03mas acontece também que essas tecnologias
-
5:03 - 5:07trouxeram-nos coisas
que ampliaram a experiência humana -
5:07 - 5:09de formas profundas.
-
5:10 - 5:12Então, vamos levar isso
um pouco mais longe. -
5:13 - 5:18Eu não temo a criação
duma IA como esta, -
5:18 - 5:22porque ela acabará por incorporar
alguns dos nossos valores. -
5:22 - 5:25Considerem isto: construir um sistema
cognitivo é totalmente diferente -
5:25 - 5:29de construir um sistema tradicional
de software intensivo do passado. -
5:29 - 5:31Não os programamos. Ensinamo-los.
-
5:31 - 5:34Para ensinar um sistema
a reconhecer flores, -
5:34 - 5:37mostro-lhe milhares de flores
dos tipos que gosto. -
5:37 - 5:39Para ensinar um sistema
a jogar um jogo... -
5:39 - 5:42— bem, eu ensinaria,
vocês também ensinariam. -
5:43 - 5:45Adoro flores. Vamos lá.
-
5:45 - 5:48Para ensinar um sistema
a jogar um jogo como o Go, -
5:48 - 5:50deixá-lo-ia jogar
milhares de jogos do Go, -
5:51 - 5:52mas no processo também lhe ensino
-
5:52 - 5:55como discernir um jogo bom
de um jogo mau. -
5:55 - 5:58Se eu quiser criar um assistente legal
artificialmente inteligente, -
5:58 - 6:01vou ensinar-lhe algumas noções de leis
-
6:01 - 6:03mas, ao mesmo tempo,
estou a introduzir-lhe -
6:03 - 6:06o sentido de piedade e de justiça
que faz parte dessas leis. -
6:07 - 6:10Em termos científicos, é aquilo
a que chamamos verdade fundamental, -
6:10 - 6:12e este é o ponto importante:
-
6:12 - 6:13ao produzir estas máquinas,
-
6:13 - 6:16estamos a ensinar-lhes
um sentido dos nossos valores. -
6:17 - 6:20Para esse fim, confio tanto
numa inteligência artificial, -
6:20 - 6:24— ou mesmo mais — do que
num ser humano que é bem formado. -
6:24 - 6:25Mas podem perguntar:
-
6:26 - 6:28"E quanto a agentes desonestos,
-
6:28 - 6:31"a alguma organização
não governamental bem financiada?" -
6:31 - 6:35Eu não temo uma inteligência artificial
na mão de um lobo solitário. -
6:35 - 6:37Claramente, não conseguimos proteger-nos
-
6:37 - 6:40contra todos os atos
fortuitos de violência, -
6:40 - 6:42mas a realidade é que um sistema destes
-
6:42 - 6:45requer formação substancial
e formação subtil -
6:45 - 6:47muito para além
dos recursos de um indivíduo. -
6:47 - 6:49E além disso,
-
6:49 - 6:52é muito mais do que injetar
um vírus de Internet no mundo -
6:52 - 6:55em que apertamos um botão,
e ele aparece num milhão de lugares -
6:55 - 6:58e os portáteis começam a explodir
por toda a parte. -
6:58 - 7:00Estes tipos de substância
são muito maiores, -
7:00 - 7:02e certamente vamos vê-los chegar.
-
7:03 - 7:06Será que receio
que essa inteligência artificial -
7:06 - 7:08possa ameaçar toda a humanidade?
-
7:08 - 7:12Se olharmos para filmes
como "The Matrix", "Metropolis", -
7:12 - 7:16"O Exterminador Implacável",
séries como "Westworld", -
7:16 - 7:18todos falam desse tipo de medo.
-
7:18 - 7:22De facto, no livro "Superintelligence"
do filósofo Nick Bostrom, -
7:22 - 7:24ele pega neste tema
-
7:24 - 7:28e nota que uma superinteligência
pode não só ser perigosa, -
7:28 - 7:32pode representar uma ameaça existencial
para toda a humanidade. -
7:32 - 7:34O argumento básico do Dr. Bostrom
-
7:34 - 7:37é que tais sistemas vão acabar por ter
-
7:37 - 7:40uma tal ânsia insaciável de informação
-
7:40 - 7:43que talvez aprendam como aprender
-
7:43 - 7:46e acabem por descobrir
que podem ter metas -
7:46 - 7:48que são contrárias
às necessidades humanas. -
7:48 - 7:50O Dr. Bostrom tem muitos seguidores.
-
7:50 - 7:54É apoiado por pessoas como
Elon Musk e Stephen Hawking. -
7:55 - 7:58Com o devido respeito
-
7:58 - 8:00a essas mentes brilhantes,
-
8:00 - 8:03acho que estão fundamentalmente errados.
-
8:03 - 8:06Há muitas peças do argumento
do Dr. Bostrom para desmontar, -
8:06 - 8:08mas não tenho tempo
para desmontá-las a todas, -
8:08 - 8:11mas muito rapidamente,
considerem isto: -
8:11 - 8:14o super conhecimento
é muito diferente da super ação. -
8:14 - 8:17O HAL só foi uma ameaça
para a tripulação do Discovery -
8:17 - 8:21na medida em que o HAL comandava
todos os aspetos do Discovery. -
8:21 - 8:23Então teria de ser com
superinteligência. -
8:23 - 8:26Teria que ter o domínio
sobre todo o nosso mundo. -
8:26 - 8:29Isto é o material do Skynet
de “O Exterminador Implacável” -
8:29 - 8:31em que tínhamos uma superinteligência
-
8:31 - 8:32que comandava a vontade humana,
-
8:32 - 8:36que dirigia todos os dispositivos
que estavam pelo mundo inteiro. -
8:36 - 8:37Em termos práticos,
-
8:37 - 8:39isso não vai acontecer.
-
8:39 - 8:42Não estamos a construir IA
que controlam o tempo, -
8:42 - 8:44que dirigem as marés,
-
8:44 - 8:47que comandam os seres humanos
caprichosos e caóticos. -
8:47 - 8:51E além disso, se existisse
tal inteligência artificial, -
8:51 - 8:54teria de competir com economias humanas,
-
8:54 - 8:57e, portanto, competir connosco
pelos recursos. -
8:57 - 8:58E, no final,
-
8:58 - 9:00— não digam isto ao Siri —
-
9:00 - 9:02podemos sempre desligá-los.
-
9:02 - 9:04(Risos)
-
9:05 - 9:08Estamos numa viagem incrível
-
9:08 - 9:10de coevolução com as nossas máquinas.
-
9:11 - 9:13Os seres humanos que somos hoje
-
9:13 - 9:15não são os seres humanos
que seremos depois. -
9:16 - 9:19Preocuparmo-nos agora com o aparecimento
duma superinteligência -
9:19 - 9:22é, em muitos aspetos,
uma diversão perigosa. -
9:22 - 9:24porque o aparecimento
da própria informática -
9:24 - 9:27traz-nos uma série
de questões humanas e sociais -
9:27 - 9:29às quais devemos agora dar atenção.
-
9:29 - 9:32Como é que organizo melhor a sociedade
-
9:32 - 9:35quando a necessidade
de trabalho humano diminui? -
9:35 - 9:38Como posso trazer compreensão
e educação a todo o mundo -
9:39 - 9:40sem desrespeitar as nossas diferenças?
-
9:40 - 9:45Como posso ampliar e melhorar a vida humana
através da assistência médica cognitiva? -
9:45 - 9:47Como posso usar a informática
-
9:48 - 9:50para nos levar às estrelas?
-
9:50 - 9:52E esta é a coisa excitante.
-
9:52 - 9:55As oportunidades de usar a informática
-
9:55 - 9:57para fazer avançar a experiência humana
-
9:57 - 9:59estão ao nosso alcance,
aqui e agora, -
10:00 - 10:02e estamos apenas a começar.
-
10:02 - 10:04Muito obrigado.
-
10:04 - 10:07(Aplausos)
- Title:
- Não temam a Inteligência Artificial superinteligente
- Speaker:
- Grady Booch
- Description:
-
A tecnologia nova gera ansiedades novas, diz o cientista e filósofo Grady Booch, mas não precisamos de temer a Inteligência Artificial todo-poderosa e insensível. Booch tranquiliza os nossos piores temores (induzidos pela ficção científica) sobre computadores superinteligentes, explicando como vamos ensiná-los, não a programá-los, a partilhar os nossos valores. Em vez de se preocupar com uma improvável ameaça existencial, ele exorta-nos a considerar como é que a inteligência artificial vai melhorar a vida humana.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Margarida Ferreira approved Portuguese subtitles for Don't fear superintelligent AI | ||
Margarida Ferreira accepted Portuguese subtitles for Don't fear superintelligent AI | ||
Margarida Ferreira edited Portuguese subtitles for Don't fear superintelligent AI | ||
Margarida Ferreira edited Portuguese subtitles for Don't fear superintelligent AI | ||
Margarida Ferreira edited Portuguese subtitles for Don't fear superintelligent AI | ||
Yali Gao edited Portuguese subtitles for Don't fear superintelligent AI | ||
Yali Gao edited Portuguese subtitles for Don't fear superintelligent AI | ||
Yali Gao edited Portuguese subtitles for Don't fear superintelligent AI |