Como os algoritmos modelam o nosso mundo
-
0:01 - 0:04Esta é uma fotografia
tirada pelo artista Michael Najjar, -
0:04 - 0:06e é verdadeira,
-
0:06 - 0:09no sentido em que ele foi à Argentina
-
0:09 - 0:10para tirar esta foto.
-
0:10 - 0:12Mas também é uma ficção.
-
0:12 - 0:14Houve muito trabalho depois de tirá-la.
-
0:14 - 0:17Ele remodelou, digitalmente,
-
0:17 - 0:19todos os contornos das montanhas
-
0:19 - 0:22para que seguissem
as vicissitudes do índice Dow Jones. -
0:22 - 0:24Então o que aqui veem,
-
0:24 - 0:26este grande precipício com um vale,
-
0:26 - 0:29é a crise financeira de 2008.
-
0:29 - 0:32A foto foi tirada quando
estávamos ali em baixo, no vale. -
0:32 - 0:34Não sei onde estamos agora.
-
0:35 - 0:38Este é o índice Hang Seng, de Hong Kong.
-
0:38 - 0:40E uma topografia similar.
-
0:40 - 0:42Pergunto-me porquê.
-
0:42 - 0:45Isto é arte. Isto é uma metáfora.
-
0:46 - 0:50Mas eu acho que a questão
é que isto é uma metáfora com dentes. -
0:50 - 0:53É com esses dentes
que eu quero propor, hoje, -
0:53 - 0:55que repensemos um pouco
-
0:55 - 0:58no papel da matemática contemporânea
-
0:58 - 1:01— não só na matemática financeira,
mas na matemática em geral. -
1:01 - 1:03Ou seja, na transição duma coisa
-
1:03 - 1:06que extraímos e obtemos do mundo
-
1:06 - 1:08para uma coisa que lhe começa a dar forma,
-
1:08 - 1:11ao mundo à nossa volta
e ao mundo dentro de nós. -
1:11 - 1:14São especificamente os algoritmos,
-
1:14 - 1:16que são basicamente a matemática
-
1:16 - 1:18que os computadores usam
para tomar decisões. -
1:18 - 1:21Eles adquirem a sensibilidade da verdade,
-
1:21 - 1:23porque repetem e tornam a repetir,
vezes sem conta. -
1:23 - 1:28Ossificam-se, calcificam-se
e tornam-se reais. -
1:28 - 1:30Eu estava a pensar nisto
-
1:30 - 1:34num voo transatlântico há uns anos,
-
1:34 - 1:35porque aconteceu eu ir sentado
-
1:35 - 1:38ao lado de um físico húngaro
da minha idade. -
1:38 - 1:41Falámos em como era a vida
durante a Guerra Fria, -
1:41 - 1:43para os físicos na Hungria.
-
1:43 - 1:45E eu disse: "O que é que vocês faziam?"
-
1:45 - 1:47E ele: "Normalmente
destruíamos os escudos furtivos." -
1:47 - 1:50E eu: "Esse é um bom trabalho.
Interessante. -
1:51 - 1:52"Como é que funciona?"
-
1:52 - 1:54Para percebermos isto,
-
1:54 - 1:57temos de perceber um pouco
a tecnologia furtiva. -
1:57 - 1:59Assim — esta é uma extrema simplificação —
-
1:59 - 2:01mas basicamente, não é
-
2:01 - 2:03como se pudéssemos simplesmente
passar um sinal de radar -
2:03 - 2:07através de 156 toneladas de aço no céu.
-
2:07 - 2:09Não vai pura e simplesmente desaparecer.
-
2:09 - 2:13Mas, se pudermos pegar
nessas coisas enormes -
2:13 - 2:17e transformá-las em milhões
de coisinhas pequenas -
2:17 - 2:20— como um bando de pássaros —
-
2:20 - 2:22o radar que estiver à procura delas
-
2:22 - 2:25tem de ser capaz de ver
todos os bandos de pássaros no céu. -
2:26 - 2:29Para um radar, isso é um trabalho péssimo.
-
2:29 - 2:32E ele disse:
"Sim. Mas isso é se for um radar. -
2:32 - 2:34"Por isso, não usamos um radar;
-
2:34 - 2:38"construíamos uma caixa negra
que procurava sinais elétricos, -
2:38 - 2:40"comunicação eletrónica.
-
2:40 - 2:44"Sempre que víamos um bando de pássaros
dotado de comunicação eletrónica, -
2:44 - 2:47"pensávamos que devia ter
alguma coisa a ver com os americanos." -
2:47 - 2:50Eu disse "Sim. Essa é boa.
-
2:50 - 2:52"Então vocês efetivamente negaram
-
2:52 - 2:54"60 anos de pesquisa aeronáutica.
-
2:54 - 2:56"Qual é o segundo ato?
-
2:56 - 2:58"O que fazem quando crescerem?"
-
2:58 - 3:01E ele disse:
-
3:01 - 3:03"Serviços financeiros."
-
3:03 - 3:05E eu disse: "Oh."
-
3:05 - 3:07Porque isso tem estado
ultimamente nas notícias. -
3:07 - 3:10E eu disse: "Como é que isso funciona?"
-
3:10 - 3:13E ele disse: "Há 2000 físicos
em Wall Street, agora, -
3:13 - 3:14"e eu sou um deles."
-
3:14 - 3:17E eu disse:
"Qual é a caixa preta de Wall Street?" -
3:17 - 3:19E ele disse:
"Tem piada que me pergunte, -
3:19 - 3:21"porque chamam-lhe
comércio de caixa preta. -
3:22 - 3:25"E às vezes também lhe chamam
comércio algorítmico." -
3:26 - 3:29O comércio algorítmico evoluiu
-
3:29 - 3:33porque os investidores institucionais
têm os mesmos problemas -
3:33 - 3:35que a Força Aérea dos EUA teve,
-
3:35 - 3:38ou seja, movimentam as suas posições
-
3:38 - 3:41— seja Proctor & Gamble
ou Accenture, tanto faz — -
3:41 - 3:44movimentam milhões de ações
de qualquer coisa pelo mercado. -
3:44 - 3:46Se fizerem isso tudo de uma vez só,
-
3:46 - 3:49é como jogar póquer
e apostar tudo na primeira jogada. -
3:49 - 3:50Revelam o jogo todo.
-
3:50 - 3:52Então, precisam de encontrar uma forma
-
3:52 - 3:54e usam algoritmos para fazê-lo
-
3:54 - 3:58— quebrar o todo em milhões
de pequenas transações. -
3:58 - 4:01A magia e o horror disto
-
4:01 - 4:03é que a mesma matemática
-
4:03 - 4:06que é usada para quebrar o todo
em milhões de pequenas coisas -
4:06 - 4:09pode ser usada para encontrar
milhões de coisas pequenas, -
4:09 - 4:10uni-las novamente
-
4:10 - 4:12e descobrir o que está
a acontecer no mercado. -
4:12 - 4:14Se precisarem de uma imagem
-
4:14 - 4:17do que está a acontecer agora
no mercado de ações, -
4:17 - 4:20o que podem imaginar
um conjunto de algoritmos -
4:20 - 4:22que são basicamente programados
para esconder, -
4:22 - 4:26e um conjunto de algoritmos
programados para encontrá-los e agirem. -
4:26 - 4:28Tudo isso é ótimo, é porreiro.
-
4:29 - 4:32E isso é 70% do mercado
de ações americano, -
4:32 - 4:3470% do sistema operacional,
-
4:34 - 4:37antigamente conhecido
como as nossas reformas... -
4:37 - 4:39(Risos)
-
4:39 - 4:41...as nossas hipotecas.
-
4:41 - 4:43O que é que pode correr mal?
-
4:43 - 4:44O que pode correr mal
-
4:44 - 4:47é que há um ano, 9% de todo o mercado
-
4:47 - 4:50desapareceu no espaço de cinco minutos.
-
4:50 - 4:52Chamaram-lhe o "Flash Crash
das 2 horas e 45". -
4:53 - 4:55De repente, desapareceram 9%,
-
4:55 - 4:57e ainda ninguém até hoje
-
4:57 - 4:59consegue chegar a acordo
sobre o que aconteceu, -
4:59 - 5:02porque ninguém o ordenou,
ninguém o pediu. -
5:02 - 5:06Ninguém tinha controlo
sobre o que estava a acontecer. -
5:06 - 5:07Tudo que eles tinham
-
5:07 - 5:11era um monitor à frente que tinha números
-
5:11 - 5:14e um botão vermelho que dizia: "Parar."
-
5:16 - 5:17A questão é essa.
-
5:17 - 5:19Escrevemos coisas,
-
5:19 - 5:22escrevemos coisas
que já não conseguimos ler. -
5:22 - 5:26Demos origem a uma coisa ilegível.
-
5:27 - 5:29Perdemos a noção
-
5:29 - 5:31do que realmente está a acontecer
-
5:31 - 5:33neste mundo que construímos.
-
5:33 - 5:35Estamos a começar
a fazer o nosso percurso. -
5:35 - 5:38Há uma empresa em Boston chamada Nanex.
-
5:38 - 5:42Usam matemática e magia
e não sei mais o quê. -
5:42 - 5:45Têm acesso a todos os dados do mercado
-
5:45 - 5:48e encontram, às vezes,
alguns desses algoritmos. -
5:48 - 5:50Quando os encontram, extraem-nos
-
5:50 - 5:53e pregam-nos à parede como borboletas.
-
5:54 - 5:57Fazem o que sempre fizemos
quando confrontados -
5:57 - 5:59com grandes quantidades
de dados que não entendemos -
5:59 - 6:02— dão-lhe um nome e uma história.
-
6:02 - 6:04Este é um dos que eles encontraram,
-
6:04 - 6:07a que chamaram a Faca,
-
6:09 - 6:11o Carnaval,
-
6:11 - 6:13o Emplastro de Boston,
-
6:14 - 6:16o Crepúsculo.
-
6:17 - 6:21A piada é que eles
não andam apenas no mercado. -
6:21 - 6:24Podemos encontrar este tipo de coisas
para onde quer que olhemos, -
6:24 - 6:27depois de aprendermos a procurá-los.
-
6:27 - 6:30Podemos encontrá-los aqui:
neste livro sobre moscas -
6:30 - 6:32de que andámos à procura no Amazon.
-
6:32 - 6:33Podemos ter reparado nele
-
6:33 - 6:36quando o preço começou
em 1,7 milhões de dólares. -
6:36 - 6:38Está fora de impressão, mas...
-
6:38 - 6:39(Risos)
-
6:39 - 6:42se o tivéssemos comprado por 1,7 milhões,
teria sido uma pechincha. -
6:42 - 6:44Poucas horas depois, tinha aumentado
-
6:44 - 6:47para 23,6 milhões de dólares,
-
6:47 - 6:49mais os portes de envio.
-
6:49 - 6:50A questão é esta:
-
6:50 - 6:53Ninguém estava a comprar ou a vender;
o que é que aconteceu? -
6:53 - 6:55Este comportamento é visível na Amazon
-
6:55 - 6:57tal como se vê em Wall Street.
-
6:57 - 6:59Quando vemos este comportamento,
-
6:59 - 7:03estamos a ver a prova
de algoritmos em conflito, -
7:03 - 7:05algoritmos presos em círculos
com outros algoritmos, -
7:05 - 7:07sem vigilância humana,
-
7:07 - 7:09sem supervisão de um adulto que diga:
-
7:09 - 7:13"Na verdade, 1,7 milhões é muito."
-
7:13 - 7:15(Risos)
-
7:15 - 7:18Assim como acontece na Amazon,
acontece na Netflix. -
7:19 - 7:23A Netflix tem utilizado
vários algoritmos ao longo dos anos. -
7:23 - 7:25Começaram com o Cinemath,
e tentaram vários outros -
7:25 - 7:27— há o Dinosaur Planet; há o Gravity.
-
7:27 - 7:29Agora estão a usar o Pragmatic Chaos.
-
7:29 - 7:32O Pragmatic Chaos está,
como todos os algoritmos da Netflix, -
7:32 - 7:33a tentar fazer a mesma coisa.
-
7:33 - 7:35Está a tentar compreender
-
7:35 - 7:37a programação do" hardware
do crânio humano, -
7:37 - 7:40para poder recomendar que filme
-
7:40 - 7:42podemos querer ver em seguida
-
7:42 - 7:44— o que é um problema muito difícil.
-
7:44 - 7:46Mas a dificuldade do problema
-
7:46 - 7:50e o facto que ainda não entendemos,
-
7:50 - 7:53não elimina os efeitos
que o Pragmatic Chaos tem. -
7:53 - 7:56O Pragmatic Chaos, tal como todos
os algoritmos da Netflix, -
7:56 - 7:58acaba por determinar
-
7:58 - 8:03uns 60% dos filmes
que acabam por ser alugados. -
8:03 - 8:04Assim, um pedaço de código
-
8:04 - 8:08com uma ideia sobre cada um de nós,
-
8:08 - 8:10é responsável por 60% desses filmes.
-
8:10 - 8:15E se nós pudéssemos avaliar esses filmes
antes de serem feitos? -
8:15 - 8:17Não seria útil?
-
8:17 - 8:20Há alguns cientistas de dados
no Reino Unido, ou em Hollywood -
8:20 - 8:22que têm "algoritmos de história"
-
8:22 - 8:24— é uma empresa chamada Epagogix.
-
8:24 - 8:26Podemos apresentar-lhes o nosso guião
-
8:26 - 8:28e eles podem dizer, quantitativamente,
-
8:28 - 8:32se é um filme de 30 milhões de dólares
ou de 200 milhões de dólares. -
8:32 - 8:34O facto é que isto não é o Google.
-
8:34 - 8:36Isto não são informações.
-
8:36 - 8:39Não são estatísticas financeiras;
isto é cultura. -
8:40 - 8:43O que vemos aqui, ou o que
normalmente não vemos, -
8:43 - 8:46é que isto é a física da cultura.
-
8:47 - 8:49Se estes algoritmos
-
8:49 - 8:51— como os algoritmos em Wall Street —
-
8:51 - 8:53um dia falhassem e dessem para o torto,
-
8:53 - 8:55como é que saberíamos?
-
8:55 - 8:57Qual seria o aspeto?
-
8:57 - 9:00Eles estão em nossa casa.
Estão na nossa casa. -
9:00 - 9:03Há dois algoritmos que competem
pela nossa sala de estar. -
9:03 - 9:05São dois tipos de robôs de limpeza
-
9:05 - 9:08que têm ideias distintas
quanto ao significado de limpeza. -
9:08 - 9:09E podemos vê-lo
-
9:09 - 9:12se lhes reduzirmos a velocidade
e os iluminarmos. -
9:12 - 9:15São como arquitetos secretos
no nosso quarto. -
9:16 - 9:18A ideia de que a arquitetura em si
-
9:18 - 9:21está de certa forma sujeita
à otimização algorítmica -
9:21 - 9:23não é impossível.
-
9:23 - 9:26É muito real e está
a acontecer à nossa volta. -
9:26 - 9:28Sentimos mais isso
-
9:28 - 9:30quando estamos dentro
duma caixa de metal fechada, -
9:30 - 9:32dum elevador novo
-
9:32 - 9:34— são os elevadores
de destino controlado, -
9:34 - 9:37em que temos que escolher
o andar para onde vamos -
9:37 - 9:38antes de entrar no elevador.
-
9:38 - 9:41Usam um algoritmo 'bin-packing'.
-
9:41 - 9:42Portanto, nada daqueles disparates
-
9:42 - 9:44de deixar cada um entrar
no elevador que quiser. -
9:44 - 9:47Os que querem ir para o 10º andar
vão para a cabina 2, -
9:47 - 9:50e os que querem ir para o 3º andar
vão para a cabina 5. -
9:50 - 9:54O problema com isso é que
as pessoas passam-se. -
9:54 - 9:56As pessoas entram em pânico.
-
9:56 - 9:58E vemos porquê.
-
9:58 - 10:00É porque o elevador
-
10:00 - 10:03não tem componentes importantes,
como os botões. -
10:03 - 10:04(Risos)
-
10:04 - 10:07Como as coisas que as pessoas usam.
-
10:07 - 10:11Só tem o número que vai
para cima ou para baixo -
10:11 - 10:14e o botão vermelho que diz "Parar".
-
10:15 - 10:17É para isso que estamos a trabalhar.
-
10:17 - 10:21Estamos a trabalhar
para esse dialeto de máquinas. -
10:22 - 10:24Até onde é que isso pode levar? Até onde?
-
10:24 - 10:27Podemos levar isso muito longe.
-
10:27 - 10:31Então, vou voltar a Wall Street,
-
10:31 - 10:33porque os algoritmos de Wall Street
-
10:33 - 10:36dependem sobretudo de um atributo,
-
10:36 - 10:37que é a velocidade.
-
10:37 - 10:40Funcionam em milissegundos
e microssegundos. -
10:40 - 10:43Só para vos dar uma ideia
do que são microssegundos, -
10:43 - 10:47levamos 500 000 microssegundos
só para clicar no rato. -
10:47 - 10:48Mas se um algoritmo de Wall Street
-
10:48 - 10:50estiver atrasado cinco microssegundos,
-
10:50 - 10:52é um perdedor.
-
10:53 - 10:55Se fôssemos um algoritmo
-
10:55 - 10:58procuraríamos um arquiteto como
aquele que conheci em Frankfurt -
10:58 - 11:00que estava a esvaziar um arranha-céus,
-
11:00 - 11:03a deitar fora toda a mobília,
todas as infraestruturas para uso humano, -
11:03 - 11:05sobrando apenas aço nos pisos
-
11:05 - 11:08preparados para receber
as pilhas de servidores, -
11:08 - 11:10tudo para que um algoritmo
-
11:10 - 11:13possa estar mais perto da Internet.
-
11:13 - 11:17Pensamos na Internet como
um tipo de sistema distribuído. -
11:17 - 11:20Claro que é, mas é distribuído
a partir de locais diferentes. -
11:20 - 11:22Em Nova Iorque, é distribuído daqui:
-
11:22 - 11:25o Carrier Hotel,
localizado na Hudson Street. -
11:25 - 11:29É daqui que saem os cabos pela cidade.
-
11:29 - 11:32Na verdade, se estivermos
longe deste local, -
11:32 - 11:35estaremos sempre atrasados
uns microssegundos. -
11:35 - 11:37Aqueles tipos em Wall Street,
-
11:37 - 11:38Marco Polo e Cherokee Nation,
-
11:38 - 11:41estão oito microssegundos atrasados
-
11:41 - 11:43em relação a estes tipos
-
11:43 - 11:47que andam pelos edifícios
que estão a ser esvaziados -
11:47 - 11:49em volta do Carrier Hotel.
-
11:50 - 11:52Isso continuará a acontecer.
-
11:52 - 11:54Vamos continuar a esvaziar edifícios,
-
11:54 - 11:57porque nenhum de nós,
centímetro a centímetro -
11:57 - 12:00libra a libra, e dólar a dólar,
-
12:00 - 12:03nenhum de nós conseguiria
extrair lucro daquele espaço -
12:03 - 12:05como o Emplastro de Boston consegue.
-
12:06 - 12:10Mas se vocês se afastarem
-
12:10 - 12:14veriam um fosso com 1.3 km
-
12:14 - 12:16entre Nova Iorque e Chicago
-
12:16 - 12:18que foi construído nos últimos anos
-
12:18 - 12:20por uma empresa chamada "Spread Networks".
-
12:20 - 12:22Isto é um cabo de fibra ótica.
-
12:22 - 12:25que foi estendido entre as duas cidades
-
12:25 - 12:28para poder enviar um sinal
-
12:28 - 12:3137 vezes mais rápido
do que clicar no rato, -
12:31 - 12:33só para estes algoritmos,
-
12:33 - 12:36só para o Carnaval e a Faca.
-
12:37 - 12:38Se pensarem nisto,
-
12:38 - 12:41que estamos a percorrer os Estados Unidos
-
12:41 - 12:44com dinamite e serras
-
12:44 - 12:46para que um algoritmo
possa fechar um negócio -
12:46 - 12:48três microssegundos mais depressa,
-
12:48 - 12:51tudo para uma estrutura de comunicações
-
12:51 - 12:55que nenhum humano alguma vez conhecerá,
-
12:55 - 12:57isto é um tipo de destino manifesto;
-
12:57 - 13:00estaremos sempre à procura
duma nova fronteira. -
13:00 - 13:03Infelizmente, teremos muitas dificuldades.
-
13:03 - 13:05Isto é apenas teórico.
-
13:05 - 13:07Isto são alguns matemáticos no MIT.
-
13:07 - 13:10A verdade é que não compreendo bem
-
13:10 - 13:12grande parte do que falam.
-
13:12 - 13:14Envolve cones de luz
e emaranhamento quântico, -
13:14 - 13:17e eu não percebo muito sobre isso.
-
13:17 - 13:18Mas consigo ler este mapa.
-
13:18 - 13:22Este mapa diz que, se estivermos
a tentar fazer dinheiro no mercado -
13:22 - 13:24onde estão os pontos vermelhos,
-
13:24 - 13:26onde estão as pessoas e as cidades,
-
13:26 - 13:29temos que colocar os servidores
onde estiverem os pontos azuis -
13:29 - 13:31para fazer isso de forma mais eficaz.
-
13:31 - 13:33Podem reparar que muitos dos pontos azuis
-
13:33 - 13:36estão no meio do oceano.
-
13:37 - 13:39É isso que faremos:
vamos construir bolhas, -
13:39 - 13:41ou plataformas.
-
13:41 - 13:43Vamos separar a água
-
13:43 - 13:46para extrair dinheiro do ar,
-
13:46 - 13:49porque é um futuro risonho
para um algoritmo. -
13:49 - 13:51(Risos)
-
13:52 - 13:54Mas não é o dinheiro que é interessante.
-
13:54 - 13:56É aquilo que o dinheiro motiva,
-
13:56 - 14:01que nos leva a transformer o planeta Terra
-
14:01 - 14:03com este tipo de eficácia algorítmica.
-
14:03 - 14:06A essa luz, voltamos
-
14:06 - 14:08e olhamos para as fotografias
de Michael Najjar. -
14:08 - 14:11Percebemos que não são uma metáfora,
são uma profecia. -
14:11 - 14:13São uma profecia
-
14:13 - 14:17para o tipo de efeitos
sísmicos e terrestres -
14:17 - 14:19da matemática que andamos a fazer.
-
14:20 - 14:22A paisagem foi sempre feita
-
14:22 - 14:25através desta estranha
e inquietante colaboração -
14:25 - 14:28entre a natureza e o homem.
-
14:28 - 14:32Mas agora há esta terceira força
co-evolucionária: os algoritmos -
14:32 - 14:35— o Emplastro de Boston, o Carnaval.
-
14:35 - 14:38Teremos que os compreender como natureza.
-
14:38 - 14:40De certa forma, é o que eles são.
-
14:40 - 14:41Obrigado.
-
14:41 - 14:45(Aplausos)
- Title:
- Como os algoritmos modelam o nosso mundo
- Speaker:
- Kevin Slavin
- Description:
-
Kevin Slavin defende que vivemos num mundo construído para os algoritmos — e cada vez mais controlado por eles. Nesta palestra cativante do TEDGlobal, ele mostra como estes complexos programas de computador determinam táticas de espionagem, preços das ações, guiões de filmes e arquitetura. E faz um alerta quanto ao facto de escrevermos códigos que não entendemos, com consequências que não podemos controlar.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 15:02
![]() |
Margarida Ferreira approved Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira accepted Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world | |
![]() |
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world | |
![]() |
Retired user added a translation |