Não tenha medo da superinteligência artificial
-
0:01 - 0:05Quando criança, eu era
fundamentalmente "nerd". -
0:05 - 0:07Acho que alguns de vocês também eram.
-
0:08 - 0:09(Risos)
-
0:09 - 0:12E o senhor, que deu a risada mais alta,
provavelmente ainda é. -
0:12 - 0:14(Risos)
-
0:14 - 0:18Cresci numa cidadezinha nas planícies
empoeiradas do norte do Texas, -
0:18 - 0:21filho de um xerife
que era filho de um pastor. -
0:21 - 0:23Me meter em confusão não era uma opção.
-
0:24 - 0:27Então, comecei a ler livros
de cálculo pra me distrair. -
0:27 - 0:29(Risos)
-
0:29 - 0:31Você também!
-
0:31 - 0:34Isso me levou a criar um lêiser,
um computador e protótipos de foguete, -
0:34 - 0:38o que me levou a inventar combustível
de foguete em meu quarto. -
0:38 - 0:42Bem, em termos científicos,
-
0:42 - 0:45chamamos isso de "péssima ideia".
-
0:45 - 0:46(Risos)
-
0:46 - 0:48Mais ou menos na mesma época,
-
0:48 - 0:51"2001: Uma odisseia no espaço",
de Stanley Kubrick, -
0:51 - 0:54estreou nos cinemas
e minha vida mudou para sempre. -
0:54 - 0:59Adorei tudo naquele filme,
principalmente o HAL 9000. -
0:59 - 1:01HAL era um computador consciente,
-
1:01 - 1:06projetado para conduzir
a nave Discovery da Terra até Júpiter. -
1:06 - 1:08HAL também era um personagem imperfeito,
-
1:08 - 1:13pois, no fim, decidiu priorizar
a missão em vez da vida humana. -
1:13 - 1:15Bem, HAL era um personagem de ficção,
-
1:15 - 1:17mas, mesmo assim,
traz à tona nossos medos, -
1:18 - 1:20medo de sermos subjugados
-
1:20 - 1:23por uma inteligência artificial
sem sentimentos, -
1:23 - 1:25indiferente à nossa humanidade.
-
1:26 - 1:28Acredito que esses medos
não têm fundamento. -
1:28 - 1:33De fato, vivemos numa época incrível
da história da humanidade, -
1:33 - 1:38em que, por nos recursarmos a aceitar
as limitações do nosso corpo e mente, -
1:38 - 1:43criamos máquinas graciosas
e de linda e primorosa complexidade, -
1:43 - 1:48que vão ampliar a experiência humana
de formas além do que imaginamos. -
1:48 - 1:50Depois de trabalhar na Academia
da Força Aérea americana -
1:50 - 1:54e chegar ao Comando Espacial americano,
me tornei engenheiro de sistemas, -
1:54 - 1:57e recentemente estou ajudando
num problema de engenharia -
1:57 - 1:59relacionado à missão da NASA a Marte.
-
1:59 - 2:02Bem, nos voos espaciais à Lua,
-
2:02 - 2:05podemos contar com o apoio
do controle de missão em Houston, -
2:05 - 2:07que monitora todos os aspectos do voo.
-
2:07 - 2:10Porém, Marte fica 200 vezes
mais distante de nós que a Lua -
2:11 - 2:14e, consequentemente,
leva em média 13 minutos -
2:14 - 2:17para que um sinal de comunicação
viaje da Terra a Marte. -
2:17 - 2:20Se houver algum problema,
não dá tempo de resolver. -
2:21 - 2:23Então, uma solução razoável de engenharia
-
2:23 - 2:29é colocarmos o controle de missão
dentro da nave Orion. -
2:29 - 2:32Outra ideia fascinante
no projeto da missão -
2:32 - 2:35é colocar robôs humanoides
na superfície de Marte -
2:35 - 2:37antes de os humanos chegarem,
-
2:37 - 2:38para construírem instalações
-
2:38 - 2:42e depois atuarem como colaboradores
da equipe científica. -
2:43 - 2:46Bom, de uma perspectiva de engenharia,
-
2:46 - 2:49ficou bem claro pra mim
que o que eu precisava projetar -
2:49 - 2:52era uma inteligência artificial
-
2:52 - 2:54moderna, colaborativa
e com habilidade social. -
2:54 - 2:58Em outras palavras, eu precisava criar
algo bem parecido com o HAL, -
2:58 - 3:01mas sem suas tendências homicidas.
-
3:01 - 3:02(Risos)
-
3:03 - 3:05Mas espera um pouco:
-
3:05 - 3:09será mesmo possível criar
uma inteligência artificial assim? -
3:09 - 3:10Na verdade, é possível sim.
-
3:10 - 3:13De muitas formas, trata-se de um desafio
complexo de engenharia, -
3:13 - 3:15com alguns elementos de IA;
-
3:15 - 3:20não da ideia mirabolante
de criar uma IA repulsiva. -
3:20 - 3:25Parafraseando Alan Turing,
não quero criar uma máquina consciente. -
3:25 - 3:26Não vou criar um HAL.
-
3:26 - 3:32Só quero criar um cérebro simples,
algo que cause a ilusão de inteligência. -
3:33 - 3:36A arte e a ciência da computação
evoluíram bastante -
3:36 - 3:38desde que HAL surgiu no cinema,
-
3:38 - 3:41e imagino que, se o Dr. Chandra,
seu inventor, estivesse aqui hoje, -
3:41 - 3:43ele teria um monte de perguntas pra nós.
-
3:43 - 3:45Será que conseguimos
-
3:45 - 3:49pegar um sistema com milhões
e milhões de dispositivos, -
3:49 - 3:51entrar com os dados,
-
3:51 - 3:53prever suas falhas
e nos anteciparmos a elas? -
3:53 - 3:54Sim.
-
3:54 - 3:58Será possível criar sistemas que conversem
conosco em nossa língua? -
3:58 - 3:58Sim.
-
3:59 - 4:02Será possível criar sistemas
que reconheçam objetos e emoções, -
4:02 - 4:05que reajam emotivamente,
usem de estratégia e até leitura labial? -
4:05 - 4:06Sim.
-
4:06 - 4:09Será possível criar um sistema
que estabeleça metas, -
4:09 - 4:12faça planos e aprenda
ao longo do caminho? -
4:12 - 4:13Sim.
-
4:13 - 4:17Será possível criarmos sistemas
com capacidade cognitiva? -
4:17 - 4:18Estamos aprendendo a fazer isso.
-
4:18 - 4:22Será possível criarmos sistemas
que tenham princípios éticos e morais? -
4:22 - 4:25Precisamos aprender a fazer isso.
-
4:25 - 4:27Então, digamos, por exemplo,
-
4:27 - 4:30que seja possível criar
uma inteligência artificial assim, -
4:30 - 4:32para esse tipo de missão e para outras.
-
4:32 - 4:36A próxima pergunta que precisamos
fazer é: devemos temer essa inteligência? -
4:36 - 4:41Bom, toda nova tecnologia
traz algum tipo de preocupação. -
4:41 - 4:42Quando surgiram os carros,
-
4:43 - 4:46as pessoas acharam que veríamos
a destruição da família. -
4:46 - 4:49Quando surgiram os telefones,
-
4:49 - 4:52as pessoas temiam que ele destruiria
a socialização entre as pessoas. -
4:52 - 4:56Quando vimos a palavra
escrita se espalhar, -
4:56 - 4:59acharam que perderíamos
nossa capacidade de memorizar. -
4:59 - 5:01Tudo isso é de certa forma verdade,
-
5:01 - 5:03mas também é verdade que essas tecnologias
-
5:03 - 5:07nos possibilitaram ampliar
a experiência humana -
5:07 - 5:09de formas profundas.
-
5:10 - 5:12Vou explicar melhor.
-
5:13 - 5:18Não temo a criação de uma IA assim,
-
5:18 - 5:22porque ela vai acabar assimilando
alguns dos nossos valores. -
5:22 - 5:25Pensem só: criar um sistema cognitivo
é fundamentalmente diferente -
5:25 - 5:29de criar um sistema complexo
e tradicional do passado. -
5:29 - 5:31Não a programamos. Nós lhe ensinamos.
-
5:31 - 5:34Para ensinar um sistema
a reconhecer flores, -
5:34 - 5:37mostro a ele milhares de flores
do tipo de que gosto. -
5:37 - 5:39Para ensinar um sistema a jogar...
-
5:39 - 5:41eu faria isso, e vocês também...
-
5:43 - 5:45Eu gosto de jogos. Qual é!
-
5:45 - 5:48Para ensinar um sistema
a jogar, por exemplo, o "Go", -
5:48 - 5:51eu o faria jogá-lo várias vezes,
mas, no processo, -
5:51 - 5:54eu também o ensinaria a diferenciar
um jogo bom de um jogo ruim. -
5:55 - 5:58Se quisesse criar um assistente jurídico
com inteligência artificial, -
5:58 - 6:01eu lhe ensinaria algumas leis,
mas, ao mesmo tempo, -
6:01 - 6:06colocaria nele o senso de compaixão
e de justiça que acompanham essas leis. -
6:06 - 6:10Em termos científicos,
é o que chamamos de situação fática, -
6:10 - 6:12e eis o mais importante:
-
6:12 - 6:13ao criar essas máquinas,
-
6:13 - 6:16estamos ensinando a elas
algo dos nossos valores. -
6:17 - 6:20Sendo assim, eu confio
na inteligência artificial -
6:20 - 6:23tanto quanto num humano
bem treinado; quem sabe até mais. -
6:24 - 6:25Talvez vocês perguntem:
-
6:25 - 6:31"E quanto a agentes maliciosos,
tipo, uma ONG bem financiada?" -
6:31 - 6:35Não temo uma inteligência artificial
nas mãos de um "lobo solitário". -
6:35 - 6:37Obviamente, não podemos nos proteger
-
6:37 - 6:40contra todos os possíveis
atos de violência, -
6:40 - 6:45mas a verdade é que um sistema assim
requer treinamento sólido e inteligente -
6:45 - 6:47muito além das capacidades
de um indivíduo. -
6:47 - 6:48Além disso,
-
6:48 - 6:52a coisa vai além de simplesmente
injetar um vírus virtual no mundo, -
6:52 - 6:55pressionando um botão e, de repente,
propagando-o por toda parte, -
6:55 - 6:57fazendo notebooks explodirem por aí.
-
6:57 - 7:02Esses tipos de coisas são bem maiores,
e certamente os veremos chegar. -
7:02 - 7:06Se eu temo que uma
inteligência artificial assim -
7:06 - 7:08possa ameaçar toda a espécie humana?
-
7:08 - 7:13Ao assistir a filmes
como "Matrix", "Metrópolis", -
7:13 - 7:16"O Exterminador do Futuro",
ou a séries como "Westworld", -
7:16 - 7:18vemos que todos falam desse tipo de medo.
-
7:18 - 7:22No livro "Superintelligence",
do filósofo Nick Bostrom, -
7:22 - 7:24ele aborda esse tema
-
7:24 - 7:28e explica que uma superinteligência
pode não só ser perigosa, -
7:28 - 7:32mas também representar uma ameaça
à existência da espécie humana. -
7:32 - 7:36O argumento básico do Dr. Bostrom
é o de que esses sistemas -
7:36 - 7:40vão acabar tendo tamanha
sede por informação -
7:40 - 7:43que vão talvez aprender a aprender
-
7:43 - 7:46e vão acabar descobrindo
que podem ter objetivos -
7:46 - 7:48que são contrários
às necessidades humanas. -
7:48 - 7:50O Dr. Bostrom têm alguns seguidores.
-
7:50 - 7:54Pessoas como Elon Musk
e Stephen Hawking concordam com ele. -
7:55 - 8:00Com todo o respeito
a essas mentes brilhantes, -
8:00 - 8:02creio que estejam
fundamentalmente equivocados. -
8:02 - 8:06São muitos os aspectos do argumento
do Dr. Bostrom para discutir -
8:06 - 8:08e não tenho tenho para falar sobre todos,
-
8:08 - 8:11mas, rapidamente, pensem no seguinte:
-
8:11 - 8:14ser "super" no saber é bem diferente
de ser "super" no fazer. -
8:14 - 8:16HAL foi uma ameaça
à tripulação da Discovery -
8:16 - 8:21só porque comandava
todos os aspectos da nave. -
8:21 - 8:23Assim teria que ser
com uma superinteligência. -
8:23 - 8:26Ela teria que ter controle
sobre todo o nosso mundo. -
8:26 - 8:28Isso é coisa da Skynet, do filme
"O Exterminador do Futuro", -
8:28 - 8:32uma superinteligência
que controlava a vontade humana, -
8:32 - 8:36que controlava qualquer dispositivo
em qualquer parte do mundo. -
8:36 - 8:39Em termos práticos, isso não vai rolar.
-
8:39 - 8:42Não estamos criando IAs
que controlem o clima, -
8:42 - 8:44que controlem as marés,
-
8:44 - 8:47ou que comandem a nós,
humanos inconstantes e caóticos. -
8:47 - 8:51Além do mais, se uma inteligência
artificial dessas existisse, -
8:51 - 8:54ela teria que competir
nas economias mundiais -
8:54 - 8:57e, portanto, competir
conosco por recursos. -
8:57 - 9:00No fim... não contem isso ao Siri...
-
9:00 - 9:02sempre é possível desligá-la.
-
9:02 - 9:04(Risos)
-
9:05 - 9:10Estamos numa jornada incrível
de coevolução com nossas máquinas. -
9:10 - 9:15Não seremos no futuro
os mesmos humanos que somos hoje. -
9:15 - 9:19Preocupar-se agora com o surgimento
de uma superinteligência -
9:19 - 9:22é, de várias maneiras,
uma distração perigosa -
9:22 - 9:24porque a ascensão da própria computação
-
9:24 - 9:27nos traz diversas questões,
humanas e sociais, -
9:27 - 9:29com as quais agora devemos lidar.
-
9:29 - 9:32Como organizar a sociedade
-
9:32 - 9:35quando a demanda
por trabalho humano diminuir? -
9:35 - 9:38Como disseminar entendimento
e educação por todo o planeta -
9:38 - 9:40sem desrespeitar nossas diferenças?
-
9:40 - 9:44Como prolongar e melhorar a vida com esse
tipo de inteligência na área de saúde? -
9:44 - 9:50Como posso usar a computação
para fazer com que cheguemos às estrelas? -
9:50 - 9:52Isso é o mais empolgante.
-
9:52 - 9:56As oportunidades de usar a computação
para ampliar a experiência humana -
9:56 - 10:00estão a nosso alcance, aqui e agora,
-
10:00 - 10:02e estamos apenas começando.
-
10:02 - 10:03Muito obrigado.
-
10:03 - 10:05(Aplausos)
- Title:
- Não tenha medo da superinteligência artificial
- Speaker:
- Grady Booch
- Description:
-
"Novas tecnologias trazem novas 'preocupações'", diz o cientista e filósofo Grady Booch, "mas não precisamos ter medo de uma inteligência artificial toda-poderosa e insensível". Booch alivia nossos piores medos (induzidos pela ficção científica) em relação a computadores superinteligentes, explicando como vamos ensiná-los a assimilar nossos valores, e não programá-los pra isso. Em vez de nos preocuparmos com uma improvável ameaça à nossa existência, ele nos leva a refletir sobre como a inteligência artificial vai melhorar a vida humana.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Leonardo Silva approved Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Retired user accepted Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Retired user edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Bruno Monteiro edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Don't fear superintelligent AI |