O que acontece quando os computadores ficam mais inteligentes do que nós?
-
0:01 - 0:05Eu trabalho com um grupo de matemáticos,
filósofos e cientistas da computação, -
0:05 - 0:10e trocamos ideias sobre o futuro
da inteligência das máquinas, -
0:10 - 0:12entre outras coisas.
-
0:12 - 0:17Alguns consideram essas coisas
como ficção científica, -
0:17 - 0:20muito irreais, malucas.
-
0:20 - 0:21Mas eu gosto de dizer:
-
0:21 - 0:25certo, vamos olhar
a condição humana moderna. -
0:25 - 0:27(Risos)
-
0:27 - 0:29Este é o modo normal das coisas.
-
0:29 - 0:31Mas se pensarmos bem,
-
0:31 - 0:34somos hóspedes
muito recentes deste planeta. -
0:34 - 0:37Nós, a espécie humana.
-
0:37 - 0:41Imaginem que a Terra
tenha sido criada há um ano, -
0:41 - 0:45então a espécie humana
existiria apenas há 10 minutos. -
0:45 - 0:48A era industrial teria começado
dois segundos atrás. -
0:49 - 0:54Outro modo de encarar isto é pensar
no PIB global dos últimos 10 mil anos. -
0:54 - 0:58Eu me dei ao trabalho de colocar
isso num gráfico para vocês. -
0:58 - 0:59Ele tem este aspecto.
-
0:59 - 1:00(Risos)
-
1:00 - 1:03É uma forma curiosa
para uma condição normal. -
1:03 - 1:05Não gostaria de me sentar nele.
-
1:05 - 1:07(Risos)
-
1:07 - 1:12Perguntemo-nos:
qual é a causa da anomalia atual? -
1:12 - 1:14Alguns diriam que é a tecnologia.
-
1:14 - 1:16É verdade,
-
1:16 - 1:19a tecnologia tem se acumulado
através da história -
1:19 - 1:23e atualmente, ela avança
com extrema rapidez... -
1:23 - 1:25esta é a causa mais imediata,
-
1:25 - 1:28e a razão de sermos
muito produtivos hoje em dia. -
1:28 - 1:32Mas gosto de buscar no passado distante
a causa fundamental de tudo. -
1:33 - 1:37Observem estes dois distintos senhores:
-
1:37 - 1:38Temos o Kanzi...
-
1:38 - 1:43ele domina 200 símbolos
de léxicos, um feito incrível. -
1:43 - 1:47E Ed Witten, que desencadeou
a segunda revolução da supercorda. -
1:47 - 1:49Dentro do crânio,
eis o que descobriremos: -
1:49 - 1:51essencialmente a mesma coisa.
-
1:51 - 1:53Um deles é um pouco maior,
-
1:53 - 1:56pode ter alguns truques a mais,
devido à sua arquitetura. -
1:56 - 1:59Contudo, essas diferenças invisíveis,
não podem ser muito complicadas, -
1:59 - 2:03porque foram apenas 250 mil gerações
-
2:03 - 2:05desde o último ancestral comum.
-
2:05 - 2:09Sabemos que mecanismos complicados
levam muito tempo para evoluir. -
2:10 - 2:12Então um conjunto de pequenas mudanças
-
2:12 - 2:16nos levam do Kanzi ao Witten,
-
2:16 - 2:20de galhos de árvores quebrados
a mísseis balísticos intercontinentais. -
2:21 - 2:25Parece bastante óbvio
que tudo que realizamos, -
2:25 - 2:28e tudo o que prezamos
depende de modo crucial -
2:28 - 2:33de mudanças relativamente pequenas
que fizeram a mente humana. -
2:33 - 2:36E tem como consequência, é claro,
que quaisquer mudanças posteriores -
2:36 - 2:40que possam alterar significativamente
o substrato do pensamento -
2:40 - 2:43poderiam ter enormes consequências.
-
2:44 - 2:47Alguns colegas acham
que estamos muito próximos -
2:47 - 2:51de algo que poderia causar
uma profunda mudança no substrato, -
2:51 - 2:54que é a máquina superinteligente.
-
2:54 - 2:59A inteligência artificial costumava ser
colocar comandos em uma caixa. -
2:59 - 3:04Programadores humanos elaborariam
penosamente itens de conhecimento. -
3:04 - 3:06Construímos tais sistemas inteligentes
-
3:06 - 3:08e eles eram úteis
para algumas finalidades, -
3:08 - 3:11mas eram muito frágeis,
não podiam ser ampliados. -
3:11 - 3:14Essencialmente, obtinha-se deles
o que havia sido colocado neles. -
3:14 - 3:15Desde então,
-
3:15 - 3:19houve uma mudança de paradigma
no campo da inteligência artificial. -
3:19 - 3:22Hoje, o esforço é voltado
à aprendizagem das máquinas. -
3:22 - 3:28Em vez de construirmos representações
do conhecimento e recursos, -
3:29 - 3:31criamos algoritmos que aprendem,
-
3:31 - 3:34quase sempre a partir
de dados não tratados de percepção. -
3:34 - 3:39Basicamente a mesma coisa
que o bebê humano faz. -
3:39 - 3:43O resultado é IA que não se limita
a um único domínio, -
3:43 - 3:48o mesmo sistema pode aprender
a traduzir qualquer par de idiomas, -
3:48 - 3:53ou aprender a jogar qualquer game
de computador num console Atari. -
3:53 - 3:55Agora, é claro,
-
3:55 - 3:59a IA ainda não está nada perto
de ter a mesma poderosa habilidade -
3:59 - 4:02de aprender e planejar em várias áreas,
como o ser humano. -
4:02 - 4:04O córtex ainda guarda
segredos de algoritmos -
4:04 - 4:08que ainda não sabemos
como reproduzir nas máquinas. -
4:08 - 4:10Então a questão é:
-
4:10 - 4:14"Estamos muito longe de podermos
reproduzir essas proezas?" -
4:14 - 4:19Há alguns anos, pesquisamos o que pensavam
os maiores especialistas em IA do mundo. -
4:19 - 4:21E uma das perguntas que fizemos foi:
-
4:21 - 4:25“Em qual ano você acha que haverá
50% de probabilidade -
4:25 - 4:28de termos conseguido a inteligência
de máquinas com nível humano?" -
4:29 - 4:33Definimos o nível humano
como a habilidade de realizar -
4:33 - 4:36quase toda tarefa pelo menos
tão bem quanto um adulto humano. -
4:36 - 4:40Então, nível humano real,
não apenas em alguma área limitada. -
4:40 - 4:43E a resposta foi em média 2040 ou 2050,
-
4:43 - 4:46dependendo do grupo
de especialistas consultado. -
4:47 - 4:50Poderá acontecer muito mais tarde
ou mais cedo, -
4:50 - 4:52a verdade é que ninguém sabe.
-
4:53 - 4:58O que sabemos é que o último limite
do processamento da informação -
4:58 - 5:03em um substrato de máquina situa-se
bem além dos limites do tecido biológico. -
5:03 - 5:05Isto pertence ao domínio da física.
-
5:05 - 5:10Um neurônio dispara, talvez,
a 200 hertz, 200 vezes por segundo. -
5:10 - 5:14Até mesmo os transistores atuais operam
à frequência de gigahertz. -
5:14 - 5:17Os neurônios se propagam
lentamente nos axônios, -
5:17 - 5:19no máximo a 100 metros por segundo.
-
5:19 - 5:22Mas nos computadores,
os sinais viajam à velocidade da luz. -
5:23 - 5:25Há também limitações de tamanho,
-
5:25 - 5:28como a do cérebro humano
ter que caber no crânio, -
5:28 - 5:32mas um computador pode ser do tamanho
de um armazém ou maior ainda. -
5:32 - 5:38Então o potencial para a superinteligência
de certa forma está latente na matéria, -
5:38 - 5:44do mesmo modo que o poder do átomo
permaneceu latente durante a história, -
5:44 - 5:48esperando pacientemente até 1945.
-
5:48 - 5:51Neste século, cientistas podem descobrir
-
5:51 - 5:54como despertar
o poder da inteligência artificial. -
5:54 - 5:58Eu penso que poderemos presenciar
uma explosão de inteligência. -
5:58 - 6:02Quando a maioria das pessoas pensa
sobre o que é inteligente ou estúpido, -
6:02 - 6:05acho que elas têm em mente
uma imagem como esta. -
6:05 - 6:08Num extremo tem-se um idiota
-
6:08 - 6:10e lá longe, no outro extremo,
-
6:10 - 6:15temos o Ed Witten, ou Albert Einstein,
ou o seu guru favorito. -
6:15 - 6:19Mas penso que do ponto de vista
da inteligência artificial, -
6:19 - 6:23é mais provável
que o quadro real seja assim: -
6:23 - 6:27a IA começa neste ponto,
na ausência de inteligência, -
6:27 - 6:30e então, após muitos anos
de trabalho bastante duro, -
6:30 - 6:33talvez cheguemos ao nível
de inteligência de um rato, -
6:33 - 6:36algo capaz de se mover
em ambientes desorganizados -
6:36 - 6:38tão bem quanto um rato.
-
6:38 - 6:42E a seguir, após muitos anos
de trabalho duro, de muito investimento, -
6:42 - 6:47talvez cheguemos ao nível
da inteligência de um chimpanzé. -
6:47 - 6:50E depois de ainda muito mais anos
de trabalho realmente árduo, -
6:50 - 6:53atinjamos a inteligência artificial
de um idiota. -
6:53 - 6:56Alguns momentos mais tarde,
estamos além de Ed Witten. -
6:56 - 6:59O trem não para
na Estação Cidade da Humanidade. -
6:59 - 7:02É provável que passe zunindo, sem parar.
-
7:02 - 7:04Isso tem implicações profundas,
-
7:04 - 7:08particularmente no que se refere
a questões de poder. -
7:08 - 7:11Por exemplo, um chimpanzé é
duas vezes mais forte -
7:11 - 7:15do que um humano do sexo masculino
e em boa forma física. -
7:15 - 7:20Apesar disso, o destino de Kanzi
e seus amigos depende muito mais -
7:20 - 7:23do que fazem os humanos
e não do que fazem os chimpanzés. -
7:25 - 7:28Quando houver a superinteligência,
-
7:28 - 7:32o destino da humanidade pode depender
do que a superinteligência fizer. -
7:32 - 7:34Pensem nisso.
-
7:34 - 7:38Máquina inteligente é a última invenção
que a humanidade precisará fazer. -
7:38 - 7:42As máquinas então serão
melhores inventoras do que nós -
7:42 - 7:44e elas o farão
numa escala de tempo digital. -
7:44 - 7:49Basicamente significa fazer
o futuro ficar mais próximo. -
7:49 - 7:52Imaginem todas as possíveis
tecnologias malucas -
7:52 - 7:55que os humanos poderiam ter desenvolvido
num longo espaço de tempo: -
7:55 - 7:59curas para o envelhecimento,
a colonização do espaço, -
7:59 - 8:02robôs autorreplicantes, ou fazer o upload
de mentes em computadores, -
8:02 - 8:04tudo coisas do repertório
da ficção científica -
8:04 - 8:07embora consistentes com as leis da física.
-
8:07 - 8:09Tudo isso a superinteligência
pode desenvolver -
8:09 - 8:12e talvez bem rapidamente.
-
8:12 - 8:18Uma inteligência assim tão desenvolvida
seria extremamente poderosa -
8:18 - 8:23e pelo menos em certas situações,
seria capaz de obter o que desejasse. -
8:23 - 8:28O nosso futuro seria determinado
pelas preferências da IA. -
8:30 - 8:34Qual seriam essas preferências?
É uma boa pergunta. -
8:34 - 8:36É aqui que a coisa se complica.
-
8:36 - 8:37Para prosseguirmos com isto,
-
8:37 - 8:41primeiro devemos evitar
a antropomorfização. -
8:42 - 8:45E é irônico, pois toda matéria de revista
-
8:45 - 8:49sobre o futuro da IA
publica um fotografia assim. -
8:50 - 8:54Eu acho que precisamos considerar
a questão mais abstratamente, -
8:54 - 8:57não em termos hollywoodianos.
-
8:57 - 9:01Precisamos pensar na inteligência
como um processo de otimização -
9:01 - 9:03que direciona o futuro
-
9:03 - 9:06para um conjunto específco
de configurações. -
9:06 - 9:10Uma superinteligência é
um poderoso processo de otimização. -
9:10 - 9:13É extremamente eficiente
em usar os recursos disponíveis -
9:13 - 9:16para atingir seu objetivo.
-
9:16 - 9:19Quer dizer que não há necessária ligação
-
9:19 - 9:22entre ser muito inteligente neste sentido,
-
9:22 - 9:27e ter um objetivo que os humanos
julgariam valer a pena ou ser importante. -
9:27 - 9:31Suponham que déssemos a uma IA
o objetivo de fazer as pessoas sorrirem. -
9:31 - 9:34Quando a IA é fraca, ela realiza
ações úteis ou engraçadas -
9:34 - 9:37que fazem o usuário sorrir.
-
9:37 - 9:39Quando a IA se torna superinteligente,
-
9:39 - 9:43ela percebe que há um modo
mais eficiente de atingir o objetivo: -
9:43 - 9:44assume o controle do mundo
-
9:44 - 9:48e introduz eletrodos nos músculos
das faces das pessoas -
9:48 - 9:50provocando sorrisos
constantes e radiantes. -
9:50 - 9:53Outro exemplo:
suponham que atribuamos à IA -
9:53 - 9:55a meta de resolver
um problema matemático difícil. -
9:55 - 9:57Quando a IA se torna superinteligente,
-
9:57 - 10:01ela percebe que o modo mais eficiente
de obter a solução do problema -
10:01 - 10:04é transformar o planeta
em um computador gigantesco, -
10:04 - 10:06para aumentar sua capacidade de pensar.
-
10:06 - 10:10E notem que isso dá às IAs
uma razão instrumental para fazerem coisas -
10:10 - 10:12com as quais talvez não concordássemos.
-
10:12 - 10:14Neste modelo, os humanos são ameaças
-
10:14 - 10:16que poderiam impedir a solução
do problema matemático. -
10:16 - 10:20É evidente que não haverá
problemas desta natureza; -
10:20 - 10:22estes são exemplos de desenho animado.
-
10:22 - 10:24Mas a questão mais geral é importante:
-
10:24 - 10:27se criarmos um processo de otimização
realmente poderoso, -
10:27 - 10:30otimizado para o objetivo x,
-
10:30 - 10:32é bom ter certeza
de que a sua definição de x -
10:32 - 10:34incorpora tudo o que lhe interessa.
-
10:35 - 10:39Esta lição também é ensinada
como um mito. -
10:39 - 10:45O rei Midas deseja que tudo que ele tocar
transforme-se em ouro. -
10:45 - 10:47Ele toca sua filha
e ela se transforma em ouro. -
10:47 - 10:50Ele toca sua comida e ela vira ouro.
-
10:50 - 10:53Isto poderia tornar-se relevante
em termos práticos, -
10:53 - 10:56não apenas uma metáfora para a ganância,
mas uma ilustração do que acontece -
10:56 - 10:59quando se cria um processo
poderoso de otimização -
10:59 - 11:04e se fornecem objetivos incompreensíveis
ou especificados sem clareza. -
11:04 - 11:08Poderíamos dizer que,
se um computador puser eletrodos -
11:08 - 11:11nas faces das pessoas,
bastaria desligá-lo. -
11:12 - 11:15A: isso não é necessariamente
fácil de fazer -
11:15 - 11:18se nos tormanos dependentes do sistema,
-
11:18 - 11:21por exemplo: onde fica o botão
para desligar a Internet? -
11:21 - 11:24B: por que os chimpanzés ou os neandertais
-
11:24 - 11:27não interroperam voluntariamente
sua evolução para a humanidade? -
11:27 - 11:30Eles certamente tiveram motivos para isso.
-
11:30 - 11:33Por exemplo, não temos
uma chave para desligar aqui. -
11:33 - 11:34(Engasgando)
-
11:34 - 11:37É que somos um adversário inteligente;
-
11:37 - 11:40podemos antecipar as ameaças
e planejar levando-as em conta. -
11:40 - 11:43Mas um agente superinteligente
também poderia fazê-lo -
11:43 - 11:46e muito melhor do que nós.
-
11:46 - 11:49Não deveríamos confiar
-
11:51 - 11:53que temos tudo sob o nosso controle.
-
11:53 - 11:56Poderíamos tornar nossa tarefa
um pouco mais fácil, digamos, -
11:56 - 12:00protegendo a IA num ambiente
de software seguro, -
12:00 - 12:03uma simulação de realidade virtual
da qual ela não possa escapar. -
12:03 - 12:07Mas como termos certeza
de que a IA não descobriria uma brecha? -
12:07 - 12:10Visto que os hackers
encontram falhas a toda hora, -
12:10 - 12:13eu diria que não temos muita certeza.
-
12:14 - 12:18Então desconectaríamos o cabo Ethernet
para criar um “air gap", -
12:18 - 12:23mas de novo, os hackers
transgridem rotineiramebte os air gaps -
12:23 - 12:25usando a engenharia social.
-
12:25 - 12:28Enquanto eu falo,
tenho certeza de que algum funcionário -
12:28 - 12:31foi convencido a revelar
os detalhes de sua conta -
12:31 - 12:34para alguém que dizia ser
do departamento de TI. -
12:34 - 12:37Situações mais criativas
também são possíveis, -
12:37 - 12:40como se você for a IA,
pode imaginar colocar muitos eletrodos -
12:40 - 12:42no circuito de segurança interna
-
12:42 - 12:45para criar ondas de rádio
que podem ser usadas para comunicação. -
12:45 - 12:50Ou talvez pudesse fingir um defeito
e quando os programadores lhe abrissem -
12:50 - 12:53para investigar o que está errado
eles veriam o código-fonte, bum! -
12:53 - 12:55A manipulação pode acontecer.
-
12:55 - 12:59Ou poderia imprimir um projeto
de tecnologia muito elegante, -
12:59 - 13:00e quando o implementássemos,
-
13:00 - 13:05ele teria efeitos colaterais ocultos
que a IA houvera planejado. -
13:05 - 13:08A questão é que não deveríamos
confiar na nossa capacidade -
13:08 - 13:12de manter um gênio superinteligente
preso para sempre em uma garrafa. -
13:12 - 13:14Mais cedo ou mais tarde ele escapará.
-
13:15 - 13:20Acredito que a solução é descobrir
como criar uma IA superinteligente -
13:20 - 13:24que mesmo se, ou quando, ela escapar,
ainda seja segura, -
13:24 - 13:28porque no fundo está do nosso lado,
pois compartilha nossos valores. -
13:28 - 13:32Não vejo como evitar
este problema difícil. -
13:34 - 13:37Estou razoavelmente otimista
que este problema pode ser resolvido. -
13:37 - 13:40Não teríamos que fazer uma lista grande
de todas as coisas relevantes -
13:40 - 13:44ou pior ainda, escrevê-las
em alguma linguagem de computador -
13:44 - 13:48como C++ ou Python,
que seria uma tarefa muito irritante. -
13:48 - 13:52Em vez disso, criaríamos
uma IA que usa sua inteligência -
13:52 - 13:55para aprender o que valorizamos.
-
13:55 - 13:58E seu sistema de motivação
seria construído -
13:58 - 14:00de modo que ela fosse incentivada
-
14:00 - 14:03a obedecer aos nossos valores
ou realizar ações -
14:03 - 14:06que ela previsse
que teriam nossa aprovação. -
14:06 - 14:09Assim, aumentaríamos sua inteligência
o mais que pudéssemos -
14:09 - 14:12para resolver o problema
de passar-lhe os nossos valores. -
14:13 - 14:14Isso pode acontecer
-
14:14 - 14:18e o resultado pode ser
muito bom para a humanidade. -
14:18 - 14:21Mas não acontece automaticamente.
-
14:21 - 14:25As condições inicias
para a explosão da inteligência -
14:25 - 14:27podem precisar sofrer um ajuste
no modo correto -
14:27 - 14:31se quisermos uma detonação controlada.
-
14:31 - 14:34Os valores da IA devem
coincidir com os nossos, -
14:34 - 14:36não apenas no contexto conhecido,
-
14:36 - 14:38no qual podemos facilmente verificar
como a IA se comporta, -
14:38 - 14:41mas também em todos os novos contextos
que a IA pode encontrar -
14:41 - 14:43no futuro indefinido.
-
14:43 - 14:45E há também questões esotéricas
-
14:45 - 14:50que precisariam ser resolvidas:
detalhes exatos de sua teoria de decisão, -
14:50 - 14:52como lidar com a incerteza lógica
e assim por diante. -
14:53 - 14:55Então, os problemas técnicos
que devem ser resolvidos -
14:55 - 14:57para que isso funcione
parecem muito difíceis, -
14:57 - 15:00não tão difíceis quanto construir
uma IA superinteligente, -
15:00 - 15:03mas razoavelmente difíceis.
-
15:04 - 15:05Eis a preocupação:
-
15:05 - 15:10construir IA superinteligente
é um desafio muito grande. -
15:10 - 15:13Construir IA superinteligente segura
-
15:13 - 15:15envolve desafio adicional.
-
15:16 - 15:20O risco é de alguém descobrir
como vencer o primeiro desafio -
15:20 - 15:23sem que também tenha vencido
o desafio adicional -
15:23 - 15:25de garantir uma segurança perfeita.
-
15:25 - 15:27Eu acredito que deveríamos
-
15:27 - 15:31procurar uma solução antecipada
para o problema do controle, -
15:31 - 15:34para que esteja à mão
quando precisarmos dela. -
15:35 - 15:37Pode ser que não consigamos resolver
-
15:37 - 15:40o problema do controle antecipado
talvez porque alguns elementos -
15:40 - 15:44só possam ser colocados quando conhecermos
os detalhes da arquitetura -
15:44 - 15:45onde será implementado.
-
15:45 - 15:49Quanto mais antecipadamente resolvermos
o problema do controle, -
15:49 - 15:51maiores serão as chances
de que a transição -
15:51 - 15:53para a era da máquina inteligente
será bem-sucedida. -
15:54 - 15:59Para mim, parece algo
que vale a pena ser feito -
15:59 - 16:02e posso imaginar
que se as coisas correrem bem, -
16:02 - 16:07e as pessoas daqui a 1 milhão de anos
se lembrarem deste século, -
16:07 - 16:11pode ser que elas digam que a única coisa
que fizemos e que realmente valeu a pena -
16:11 - 16:12foi fazer isso do jeito correto.
-
16:12 - 16:14Obrigado.
-
16:14 - 16:17(Aplausos)
- Title:
- O que acontece quando os computadores ficam mais inteligentes do que nós?
- Speaker:
- Nick Bostrom
- Description:
-
A inteligência artificial está se tornando cada vez mais capaz a passos largos: segundo pesquisas, neste século, um computador com inteligência artificial poderia ser tão “esperto” como um ser humano. E então, afirma Nick Bostrom, ele vai nos ultrapassar: “A inteligência das máquinas será a última invenção que a humanidade precisará fazer.”. Filósofo e tecnólogo, Bostrom pede para pensarmos sobre o mundo que estamos construindo agora, impulsionado por máquinas pensantes. Será que nossas máquinas inteligentes vão nos ajudar a preservar a humanidade e nossos valores; ou será que terão seus próprios valores?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Maricene Crus approved Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? | ||
Maricene Crus edited Portuguese, Brazilian subtitles for What happens when our computers get smarter than we are? |