O que acontece quando os nossos computadores se tornam melhores que nós?
-
0:01 - 0:05Eu trabalho com um grupo de matemáticos,
filósofos e informáticos, -
0:05 - 0:10e pensamos acerca do futuro
da inteligência mecânica, -
0:10 - 0:12entre outras coisas.
-
0:12 - 0:17Algumas pessoas pensam que algumas
destas coisas são como ciência ficção, -
0:17 - 0:20muito longe da realidade.
-
0:20 - 0:21Mas eu gosto de dizer,
-
0:21 - 0:25olhemos para as condições
humanas modernas. -
0:25 - 0:27(Risos)
-
0:27 - 0:29Essa é a forma normal de as coisas serem.
-
0:29 - 0:31Mas se pensarmos nisso,
-
0:31 - 0:35somos na verdade visitantes
recentes neste planeta, -
0:35 - 0:37a espécie humana.
-
0:37 - 0:41Imaginem, se a Terra tivesse sido
criada há um ano, -
0:41 - 0:45a espécie humana, então,
teria 10 minutos de vida. -
0:45 - 0:48A era da indústria teria começado
há 2 segundos. -
0:49 - 0:51Outra forma de olhar para isto
-
0:51 - 0:54é calcular o PIB mundial
dos últimos 10 000 anos, -
0:55 - 0:58Tive a preocupação de inserir
isto num gráfico para vocês verem. -
0:58 - 0:59Parece-se com isto.
-
0:59 - 1:01(Risos)
-
1:01 - 1:03É uma forma curiosa
para uma situação normal. -
1:03 - 1:05Eu não ficaria muito descansado.
-
1:05 - 1:07(Risos)
-
1:07 - 1:12Perguntemos a nós próprios,
qual é a causa dessa anomalia? -
1:12 - 1:15Algumas pessoas diriam que é a tecnologia.
-
1:15 - 1:19É verdade, a tecnologia acumulou-se
durante a história da humanidade -
1:19 - 1:24e, neste momento, a tecnologia evolui
extremamente depressa -
1:24 - 1:25— essa é a causa imediata —
-
1:25 - 1:28é por isso que estamos tão produtivos.
-
1:28 - 1:32Mas eu gosto de pensar mais além,
para a causa fundamental. -
1:33 - 1:37Olhem para estes dois senhores
muito distintos: -
1:37 - 1:38Temos o Kanzi,
-
1:38 - 1:43ele dominava 200 símbolos lexicais,
uma incrível proeza. -
1:43 - 1:47E Ed Witten desencadeou a segunda
revolução das supercordas. -
1:47 - 1:49Se examinarmos é isto que encontramos:
-
1:49 - 1:51basicamente a mesma coisa.
-
1:51 - 1:53Uma é um pouco maior,
-
1:53 - 1:56talvez tenha alguns truques na maneira
como está ligado. -
1:56 - 1:59Contudo, essas diferenças invisíveis
não podem ser muito complicadas, -
1:59 - 2:04porque apenas houve 250 000 gerações
-
2:04 - 2:06desde o nosso último antepassado comum.
-
2:06 - 2:09Sabemos que os mecanismos complicados
levam muito tempo a evoluir. -
2:10 - 2:12Portanto algumas mudanças mínimas
-
2:12 - 2:16levam-nos de Kanzi para Witten,
-
2:16 - 2:20desde ramos de árvores quebrados até
mísseis balísticos intercontinentais. -
2:21 - 2:25Assim, parece óbvio que tudo aquilo
que tenhamos realizado, -
2:25 - 2:27e tudo aquilo que nos preocupa,
-
2:27 - 2:31dependa crucialmente de algumas mudanças
mínimas que construíram a mente humana. -
2:33 - 2:36E o corolário, claro, é que
quaisquer mudanças adicionais -
2:36 - 2:40que poderiam mudar significativamente
o substrato de pensar -
2:40 - 2:43poderiam ter enormes consequências.
-
2:44 - 2:47Alguns dos meus colegas pensam
que estamos à beira -
2:47 - 2:51de algo que poderá causar uma mudança
drástica nesse substrato, -
2:51 - 2:54e isso é a super inteligência mecânica.
-
2:54 - 2:59A inteligência artificial costumava
cingir-se a ordens numa caixa. -
2:59 - 3:01Tínhamos programadores humanos
-
3:01 - 3:04que construíam objectos inteligentes
cuidadosamente. -
3:05 - 3:07Construíamos esses sistemas
especializados, -
3:07 - 3:08e eram úteis para alguns fins,
-
3:08 - 3:11mas eram muito frágeis,
não podíamos aumentá-los. -
3:11 - 3:14Basicamente, apenas obtínhamos
aquilo que lá colocávamos inicialmente. -
3:14 - 3:16Mas a partir daí,
-
3:16 - 3:19ocorreu uma mudança de paradigma
no campo da inteligência artificial. -
3:19 - 3:22Hoje, a acção anda à volta da
aprendizagem da máquina. -
3:23 - 3:29Portanto em vez de construir
representações e elementos do conhecimento -
3:29 - 3:34criamos algoritmos que aprendem,
muitas vezes a partir de dados em bruto. -
3:35 - 3:38Basicamente a mesma coisa
que a criança faz. -
3:39 - 3:43O resultado é uma inteligência artificial
que não se limita a um domínio -
3:43 - 3:48— o mesmo sistema que pode aprender a
traduzir várias línguas, -
3:48 - 3:53ou aprender a jogar qualquer tipo
de jogo de computador na consola Atari. -
3:54 - 3:55Agora, é claro,
-
3:55 - 3:59a inteligência artificial ainda está muito
longe de ter a mesma capacidade poderosa -
3:59 - 4:02e transversal para aprender
e planificar tal como um ser humano. -
4:02 - 4:04O córtex ainda tem alguns
truques algorítmicos -
4:04 - 4:07que ainda não sabemos
como ligar nas máquinas. -
4:08 - 4:10Portanto a questão é,
-
4:10 - 4:13a que distância estamos
de poder ligar esses truques? -
4:14 - 4:16Há alguns anos,
-
4:16 - 4:18fizemos um inquérito a alguns dos
especialistas em I.A., -
4:18 - 4:22para ver o que eles pensam, e uma das
questões que colocámos foi: -
4:22 - 4:25"Por volta de que ano é que pensa que
atingiremos a I.A. -
4:25 - 4:28ao nível humano,
com 50% de probabilidade?" -
4:29 - 4:33Definimos o nível humano
como a capacidade de realizar -
4:33 - 4:36praticamente qualquer trabalho.
pelo menos como adulto, -
4:36 - 4:40a nível humano real, não apenas
dentro de um domínio limitado. -
4:40 - 4:43A resposta média foi 2040 ou 2050,
-
4:43 - 4:46consoante o grupo de especialistas
a que perguntámos. -
4:47 - 4:50Poderá acontecer muito mais tarde,
ou mais cedo, -
4:50 - 4:52a verdade é que ninguém sabe.
-
4:53 - 4:56O que nós sabemos
é que o limite fundamental -
4:56 - 4:59para processar informação
no substrato duma máquina, -
4:59 - 5:03é muito superior ao limite
dos tecidos biológicos. -
5:03 - 5:06Isto leva-nos à física.
-
5:06 - 5:10Um neurónio biológico dispara, talvez,
a 200 hertz, 200 vezes por segundo. -
5:10 - 5:14Mas até um transístor moderno
opera em gigahertz. -
5:14 - 5:19Os neurónios propagam lentamente
em axónios, a 100 metros por segundo. -
5:19 - 5:22Mas em computadores, os sinais podem
deslocar-se à velocidade da luz. -
5:23 - 5:25Também há limitações de tamanho.
-
5:25 - 5:28O cérebro humano tem que
caber dentro do crânio, -
5:28 - 5:33mas um computador pode ser do tamanho
de um armazém ou ainda maior. -
5:33 - 5:38Por isso o potencial para a super
inteligência permanece latente na matéria, -
5:38 - 5:44tal como a potência do átomo permaneceu
latente na história da humanidade, -
5:44 - 5:47pacientemente à espera até 1945.
-
5:48 - 5:50Neste século,
-
5:50 - 5:54os cientistas talvez aprendam a despertar
o poder da inteligência artificial. -
5:54 - 5:58E penso que poderemos então assistir
a uma explosão intelectual. -
5:58 - 6:02A maioria das pessoas, quando pensam
acerca do que é a esperteza e a estupidez, -
6:02 - 6:05têm em mente uma imagem
como esta, penso eu. -
6:05 - 6:08Numa ponta temos o idiota da aldeia,
-
6:08 - 6:10e noutra ponta muito distante
-
6:10 - 6:15temos Ed Witten, ou Albert Einstein,
ou qualquer um dos vossos gurus favoritos. -
6:15 - 6:19Mas penso que, do ponto de vista
da inteligência artificial, -
6:19 - 6:23a imagem verdadeira é provavelmente
mais parecida com isto. -
6:23 - 6:27Começa tudo neste ponto aqui,
na inteligência zero, -
6:27 - 6:30e depois, após muitos anos
de trabalho árduo, -
6:30 - 6:34talvez cheguemos à inteligência
artificial ao nível de um rato, -
6:34 - 6:36uma coisa que possa navegar
em ambientes obstruídos -
6:36 - 6:38tal como um rato pode.
-
6:38 - 6:42E depois, após muitos mais anos
de trabalho árduo, muitos investimentos, -
6:42 - 6:47talvez cheguemos à inteligência
artificial a nível de um chimpanzé. -
6:47 - 6:50E depois, após ainda mais anos
de trabalho ainda mais duro, -
6:50 - 6:53chegamos à inteligência artificial
a nível do idiota da aldeia. -
6:53 - 6:56E alguns momentos depois,
ultrapassamos Ed Witten. -
6:56 - 6:59O comboio não pára na estação Humanville.
-
6:59 - 7:02É mais provável que a ultrapasse.
-
7:02 - 7:05Isto tem profundas implicações,
-
7:05 - 7:08particularmente no que toca
à questão do poder. -
7:08 - 7:10Por exemplo, os chimpanzés são fortes
-
7:10 - 7:15— em proporção ao peso, um chimpanzé
é duas vezes mais forte que um ser humano. -
7:15 - 7:20No entanto, o destino de Kanzi e dos seus
camaradas depende mais -
7:20 - 7:24daquilo que nós humanos fazemos
do que o que os chimpanzés fazem. -
7:26 - 7:28Uma vez atingida a super inteligência,
-
7:28 - 7:31o destino da humanidade pode depender
daquilo que a super inteligência faz. -
7:32 - 7:34Pensem nisto:
-
7:34 - 7:39A inteligência mecânica é a última invenção
que a humanidade precisa de fazer. -
7:39 - 7:42As máquinas tornar-se-ão melhores
a inventar do que nós, -
7:42 - 7:44e farão isso em tempos digitais.
-
7:44 - 7:49O que isto significa é basicamente uma
previsão do futuro distante. -
7:49 - 7:53Pensem em todas as tecnologias absurdas
que alguma vez podem ter imaginado -
7:53 - 7:55que os humanos pudessem ter
desenvolvido com o tempo: -
7:55 - 7:59curas para o envelhecimento,
colonização do espaço, -
7:59 - 8:02nanorobôs auto-replicadores ou transferir
as nossas mentes para computadores, -
8:02 - 8:05todos os tipos de objectos
da ciência ficção -
8:05 - 8:07que, no entanto, são consistentes
com as leis da física. -
8:07 - 8:11Toda esta super inteligência poderia
ser desenvolvida, e rapidamente. -
8:12 - 8:16Uma super inteligência com tanta
maturidade tecnológica -
8:16 - 8:18poderia ser extremamente poderosa
-
8:18 - 8:23e, pelo menos nalguns cenários,
poderia conseguir aquilo que quer. -
8:23 - 8:27Teríamos então um futuro construído
-
8:27 - 8:30segundo as preferências
dessa inteligência artificial. -
8:30 - 8:34Agora uma boa pergunta é,
quais são essas preferências? -
8:34 - 8:36Aqui torna-se mais complicado.
-
8:36 - 8:38Para fazer qualquer progresso com isto,
-
8:38 - 8:41temos de, primeiramente,
evitar antropomorfizar. -
8:42 - 8:46E isto é irónico porque
todos os artigos de jornais -
8:46 - 8:49acerca do futuro da inteligência
artificial têm uma imagem como esta. -
8:50 - 8:54Então penso que aquilo que temos de fazer
é imaginar a questão mais abstractamente, -
8:54 - 8:57não em termos de cenários
brilhantes de Hollywood. -
8:57 - 9:01Temos de pensar na inteligência como
um processo de optimização, -
9:01 - 9:06um processo que guia o futuro para
um conjunto particular de configurações. -
9:06 - 9:10A super inteligência é um processo de
optimização muito forte. -
9:10 - 9:14É extremamente bom a utilizar os meios
disponíveis para atingir um estado -
9:14 - 9:16no qual o seu objetivo seja atingido.
-
9:16 - 9:19Isto significa que não há
ligação necessária -
9:19 - 9:22entre ser muito inteligente neste sentido,
-
9:22 - 9:27e ter um objectivo que nós humanos
acharíamos útil ou proveitoso. -
9:27 - 9:31Suponham que damos o objectivo de criar
sorrisos humanos à inteligência artificial. -
9:31 - 9:34Quando a I.A. é fraca,
realiza acções cómicas ou úteis -
9:34 - 9:36que levam o utilizador a sorrir.
-
9:36 - 9:39Quando a inteligência artificial
se torna super inteligente, -
9:39 - 9:43apercebe-se que existe uma melhor forma
de atingir esse objectivo: -
9:43 - 9:44controlar o mundo
-
9:44 - 9:48e inserir eléctrodos
nos músculos faciais dos humanos -
9:48 - 9:50para causar sorrisos
constantes e radiantes. -
9:50 - 9:52Outro exemplo:
-
9:52 - 9:55suponham que desafiamos a I.A.
a resolver um problema matemático difícil. -
9:55 - 9:57Quando a I.A. se torna
super inteligente, -
9:57 - 10:01percebe que a forma mais eficiente de
obter a solução para este problema -
10:01 - 10:04é através da transformação do planeta
num computador gigante, -
10:04 - 10:06para aumentar a sua capacidade de pensar.
-
10:06 - 10:09E reparem que isto dá uma razão
instrumental à I.A. -
10:09 - 10:11para nos fazer coisas
que possamos não aprovar. -
10:11 - 10:14Neste modelo, os seres humanos
são uma ameaça, -
10:14 - 10:17poderíamos impedir a resolução
deste problema matemático. -
10:17 - 10:21Claro, as coisas não vão dar erradas
nessas formas particulares; -
10:21 - 10:22estes são exemplos caricaturados.
-
10:22 - 10:25Mas este ponto geral é importante:
-
10:25 - 10:27se criarem um processo de optimização
muito potente -
10:27 - 10:30para maximizar o objectivo x,
-
10:30 - 10:32é melhor assegurarem-se
que a definição de x -
10:32 - 10:34incorpora tudo aquilo que vos interessa.
-
10:35 - 10:39Esta é uma lição que também
é ensinada em muitos mitos. -
10:39 - 10:45O Rei Midas deseja que tudo aquilo
em que ele toca se torne ouro. -
10:45 - 10:47Toca na filha dele, transforma-a em ouro.
-
10:47 - 10:50Toca na comida dele, esta torna-se ouro.
-
10:50 - 10:53Isto poderia tornar-se
particularmente relevante, -
10:53 - 10:55não apenas como metáfora para a ganância,
-
10:55 - 10:57mas como uma ilustração
daquilo que acontece -
10:57 - 10:59se criarem um processo
de optimização poderoso -
10:59 - 11:03e lhe derem objectivos pouco específicos.
-
11:04 - 11:09Podem dizer, se um computador começar a
prender eléctrodos nas caras das pessoas, -
11:09 - 11:12basta desligá-los.
-
11:13 - 11:18A) isso não é assim tão fácil de fazer
se nos tornarmos dependentes do sistema -
11:18 - 11:21— por exemplo, onde está
o interruptor da Internet? -
11:21 - 11:24B) porque é que os chimpanzés
ou os neandertais -
11:24 - 11:27não desligaram
o interruptor para a humanidade? -
11:27 - 11:30Eles de certeza que tinham motivos.
-
11:30 - 11:33Temos um interruptor aqui, por exemplo.
-
11:33 - 11:34(Sufocação)
-
11:35 - 11:37A razão é que somos
um adversário inteligente; -
11:37 - 11:40podemos prever ameaças
e fazer planos para evitá-las. -
11:40 - 11:42Mas isso também consegue
um agente super inteligente, -
11:42 - 11:45e seria muito melhor nisso do que nós.
-
11:46 - 11:53A questão é, não devemos ser confiantes
e pensar que temos tudo sob controlo. -
11:53 - 11:56Podíamos tentar fazer o nosso trabalho
um pouco mais fácil, -
11:56 - 11:58pondo a inteligência artificial numa caixa,
-
11:58 - 12:00como um "software" de ambiente seguro,
-
12:00 - 12:03uma simulação da realidade virtual
da qual não possa escapar. -
12:03 - 12:07Mas quanta certeza podemos ter
que a I.A. não encontraria um buraco. -
12:07 - 12:10Dado que os "hackers" humanos
estão sempre a encontrar buracos, -
12:10 - 12:13eu diria, provavelmente
não muito confiantes. -
12:14 - 12:19Então desligamos o cabo da Ethernet
para criar uma caixa de ar, -
12:19 - 12:21mas mais uma vez, como meros "hackers"
-
12:21 - 12:25que transgridem caixas de ar
utilizando engenharia social. -
12:25 - 12:27Neste momento em que falo,
-
12:27 - 12:29tenho a certeza que há
um empregado, algures. -
12:29 - 12:32a quem alguém que diz
ser do departamento de informática -
12:32 - 12:35está a pedir os dados
de identificação e "password". -
12:35 - 12:37Também são possíveis
cenários mais criativos. -
12:37 - 12:39Por exemplo, uma I.A. pode imaginar
-
12:39 - 12:42agitar eléctrodos nos circuitos internos
-
12:42 - 12:45para criar ondas de rádio
que pode utilizar para comunicar. -
12:45 - 12:47Ou talvez pudesse fingir uma avaria
-
12:47 - 12:51e depois, quando os programadores a abrirem
para ver o que se passou de errado, -
12:51 - 12:53olham para o código fonte — Bam! —
-
12:53 - 12:55a manipulação toma lugar.
-
12:55 - 12:59Ou poderia emitir um rascunho
para uma tecnologia genial -
12:59 - 13:00e, quando a implementamos,
-
13:00 - 13:05tem alguns efeitos secundários
que a inteligência artificial planeou. -
13:05 - 13:08A questão aqui é que não deveríamos
confiar na nossa capacidade -
13:08 - 13:12em manter um génio super inteligente
fechado na sua garrafa para sempre. -
13:12 - 13:14Mais cedo ou mais tarde ele vai sair.
-
13:15 - 13:18Acredito que a resposta seja encontrar
-
13:18 - 13:23uma forma de criar uma inteligência
artificial que, mesmo que escape, -
13:23 - 13:26ainda se mantenha segura porque está
fundamentalmente do nosso lado -
13:26 - 13:28porque partilha os nossos valores.
-
13:28 - 13:32Não vejo outra forma
para este problema complexo. -
13:33 - 13:36Eu sinto-me optimista
quanto à resolução deste problema. -
13:36 - 13:40Não teríamos de escrever uma longa lista
com tudo aquilo que nos é importante, -
13:40 - 13:44ou ainda pior, enunciá-la numa
linguagem de computador -
13:44 - 13:45como C++ ou Python,
-
13:45 - 13:48o que seria uma tarefa sem esperança.
-
13:48 - 13:52Em vez disso, criaríamos uma inteligência
artificial que utiliza a sua inteligência -
13:52 - 13:55para aprender o que nós valorizamos.
-
13:55 - 14:01O seu sistema de motivação seria construído
de tal forma que fosse motivado -
14:01 - 14:06pela busca de valores ou de acções,
prevendo que iríamos aprová-las. -
14:06 - 14:09Iríamos então elevar a sua inteligência
o mais possível -
14:09 - 14:12para resolver o problema de
carregamento de valores. -
14:13 - 14:14Isto pode acontecer,
-
14:14 - 14:18e o resultado poderia ser muito
bom para a Humanidade. -
14:18 - 14:21Mas não acontece sozinho.
-
14:22 - 14:25As condições iniciais para a
explosão da inteligência -
14:25 - 14:28podem precisar de ser definidas
da forma correta -
14:28 - 14:30se queremos ter uma detonação controlada.
-
14:31 - 14:34Os valores da I.A.
têm de corresponder aos nossos, -
14:34 - 14:36não apenas num contexto familiar,
-
14:36 - 14:38onde podemos ver com facilidade
como a I.A. se comporta, -
14:38 - 14:41mas também em todos os contextos
que a I.A. possa encontrar -
14:41 - 14:43no futuro indefinido.
-
14:43 - 14:48E há também algumas questões esotéricas
que teriam de ser resolvidas, que são: -
14:48 - 14:50os detalhes exactos da sua
teoria decisiva, -
14:50 - 14:52como lidar com a incerteza lógica
e assim por diante. -
14:53 - 14:56Os problemas que têm de ser
resolvidos tornam este trabalho -
14:56 - 14:58um pouco difícil
-
14:58 - 15:01— não tão difícil como fazer uma
inteligência artificial super inteligente -
15:01 - 15:04mas bastante difícil.
-
15:04 - 15:05A preocupação é esta:
-
15:05 - 15:10Criar uma inteligência artificial super
inteligente é um grande desafio. -
15:10 - 15:13Fazer uma inteligência artificial
que seja segura -
15:13 - 15:15envolve desafios adicionais
para além deste. -
15:16 - 15:20O risco é que, se alguém descobre uma
forma de piratear o primeiro desafio -
15:20 - 15:23sem ter pirateado o desafio adicional
-
15:23 - 15:25de assegurar a segurança perfeita.
-
15:25 - 15:29Por isso eu penso que deveríamos
trabalhar numa solução -
15:29 - 15:32para controlar os problemas
com antecedência, -
15:32 - 15:34para que o tenhamos disponível
para quando for preciso. -
15:35 - 15:38Pode ser que não consigamos resolver
o problema de controlo por inteiro -
15:38 - 15:41porque talvez apenas se possam
colocar alguns elementos -
15:41 - 15:45uma vez que saibamos os detalhes da
arquitectura onde vai ser implementado. -
15:45 - 15:49Mas quanto mais resolvermos
o problema de controlo, -
15:49 - 15:53maior será a probabilidade que a transição
para a era da inteligência mecânica -
15:53 - 15:54corra bem.
-
15:55 - 15:59Isto parece-me algo
que vale a pena ser feito -
15:59 - 16:02e posso imaginar que,
se as coisas correrem bem, -
16:02 - 16:07as pessoas daqui um milhão de anos
vão olhar para este século -
16:07 - 16:11e é muito provável que digam que uma das
coisas que fizemos e que teve impacto -
16:11 - 16:13foi pôr isto a funcionar.
-
16:13 - 16:14Obrigado.
-
16:14 - 16:18(Aplausos)
- Title:
- O que acontece quando os nossos computadores se tornam melhores que nós?
- Speaker:
- Nick Bostrom
- Description:
-
A inteligência artificial (I.A.) está a ficar cada vez mais esperta, a uma velocidade espantosa — a investigação sugere que, dentro de um século, um computador I.A. poderá ser tão "esperto" como um ser humano. E assim, vai ultrapassar-nos: " A invenção mecânica é a última invenção que a humanidade alguma vez necessitará." Filósofo e tecnólogo, Bostrom pede-nos para pensar acerca do mundo que estamos a construir neste momento, liderado por máquinas pensantes. Será que as nossas máquinas espertas vão ajudar-nos a preservar a humanidade e os nossos valores — ou terão elas valores próprios?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Margarida Ferreira approved Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira accepted Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? | ||
Margarida Ferreira edited Portuguese subtitles for What happens when our computers get smarter than we are? |