< Return to Video

Como os algoritmos modelam o nosso mundo

  • 0:01 - 0:04
    Esta é uma fotografia
    tirada pelo artista Michael Najjar,
  • 0:04 - 0:06
    e é verdadeira,
  • 0:06 - 0:09
    no sentido em que ele foi à Argentina
  • 0:09 - 0:10
    para tirar esta foto.
  • 0:10 - 0:12
    Mas também é uma ficção.
  • 0:12 - 0:14
    Houve muito trabalho depois de tirá-la.
  • 0:14 - 0:17
    Ele remodelou, digitalmente,
  • 0:17 - 0:19
    todos os contornos das montanhas
  • 0:19 - 0:22
    para que seguissem
    as vicissitudes do índice Dow Jones.
  • 0:22 - 0:24
    Então o que aqui veem,
  • 0:24 - 0:26
    este grande precipício com um vale,
  • 0:26 - 0:29
    é a crise financeira de 2008.
  • 0:29 - 0:32
    A foto foi tirada quando
    estávamos ali em baixo, no vale.
  • 0:32 - 0:34
    Não sei onde estamos agora.
  • 0:35 - 0:38
    Este é o índice Hang Seng, de Hong Kong.
  • 0:38 - 0:40
    E uma topografia similar.
  • 0:40 - 0:42
    Pergunto-me porquê.
  • 0:42 - 0:45
    Isto é arte. Isto é uma metáfora.
  • 0:46 - 0:50
    Mas eu acho que a questão
    é que isto é uma metáfora com dentes.
  • 0:50 - 0:53
    É com esses dentes
    que eu quero propor, hoje,
  • 0:53 - 0:55
    que repensemos um pouco
  • 0:55 - 0:58
    no papel da matemática contemporânea
  • 0:58 - 1:01
    — não só na matemática financeira,
    mas na matemática em geral.
  • 1:01 - 1:03
    Ou seja, na transição duma coisa
  • 1:03 - 1:06
    que extraímos e obtemos do mundo
  • 1:06 - 1:08
    para uma coisa que lhe começa a dar forma,
  • 1:08 - 1:11
    ao mundo à nossa volta
    e ao mundo dentro de nós.
  • 1:11 - 1:14
    São especificamente os algoritmos,
  • 1:14 - 1:16
    que são basicamente a matemática
  • 1:16 - 1:18
    que os computadores usam
    para tomar decisões.
  • 1:18 - 1:21
    Eles adquirem a sensibilidade da verdade,
  • 1:21 - 1:23
    porque repetem e tornam a repetir,
    vezes sem conta.
  • 1:23 - 1:28
    Ossificam-se, calcificam-se
    e tornam-se reais.
  • 1:28 - 1:30
    Eu estava a pensar nisto
  • 1:30 - 1:34
    num voo transatlântico há uns anos,
  • 1:34 - 1:35
    porque aconteceu eu ir sentado
  • 1:35 - 1:38
    ao lado de um físico húngaro
    da minha idade.
  • 1:38 - 1:41
    Falámos em como era a vida
    durante a Guerra Fria,
  • 1:41 - 1:43
    para os físicos na Hungria.
  • 1:43 - 1:45
    E eu disse: "O que é que vocês faziam?"
  • 1:45 - 1:47
    E ele: "Normalmente
    destruíamos os escudos furtivos."
  • 1:47 - 1:50
    E eu: "Esse é um bom trabalho.
    Interessante.
  • 1:51 - 1:52
    "Como é que funciona?"
  • 1:52 - 1:54
    Para percebermos isto,
  • 1:54 - 1:57
    temos de perceber um pouco
    a tecnologia furtiva.
  • 1:57 - 1:59
    Assim — esta é uma extrema simplificação —
  • 1:59 - 2:01
    mas basicamente, não é
  • 2:01 - 2:03
    como se pudéssemos simplesmente
    passar um sinal de radar
  • 2:03 - 2:07
    através de 156 toneladas de aço no céu.
  • 2:07 - 2:09
    Não vai pura e simplesmente desaparecer.
  • 2:09 - 2:13
    Mas, se pudermos pegar
    nessas coisas enormes
  • 2:13 - 2:17
    e transformá-las em milhões
    de coisinhas pequenas
  • 2:17 - 2:20
    — como um bando de pássaros —
  • 2:20 - 2:22
    o radar que estiver à procura delas
  • 2:22 - 2:25
    tem de ser capaz de ver
    todos os bandos de pássaros no céu.
  • 2:26 - 2:29
    Para um radar, isso é um trabalho péssimo.
  • 2:29 - 2:32
    E ele disse:
    "Sim. Mas isso é se for um radar.
  • 2:32 - 2:34
    "Por isso, não usamos um radar;
  • 2:34 - 2:38
    "construíamos uma caixa negra
    que procurava sinais elétricos,
  • 2:38 - 2:40
    "comunicação eletrónica.
  • 2:40 - 2:44
    "Sempre que víamos um bando de pássaros
    dotado de comunicação eletrónica,
  • 2:44 - 2:47
    "pensávamos que devia ter
    alguma coisa a ver com os americanos."
  • 2:47 - 2:50
    Eu disse "Sim. Essa é boa.
  • 2:50 - 2:52
    "Então vocês efetivamente negaram
  • 2:52 - 2:54
    "60 anos de pesquisa aeronáutica.
  • 2:54 - 2:56
    "Qual é o segundo ato?
  • 2:56 - 2:58
    "O que fazem quando crescerem?"
  • 2:58 - 3:01
    E ele disse:
  • 3:01 - 3:03
    "Serviços financeiros."
  • 3:03 - 3:05
    E eu disse: "Oh."
  • 3:05 - 3:07
    Porque isso tem estado
    ultimamente nas notícias.
  • 3:07 - 3:10
    E eu disse: "Como é que isso funciona?"
  • 3:10 - 3:13
    E ele disse: "Há 2000 físicos
    em Wall Street, agora,
  • 3:13 - 3:14
    "e eu sou um deles."
  • 3:14 - 3:17
    E eu disse:
    "Qual é a caixa preta de Wall Street?"
  • 3:17 - 3:19
    E ele disse:
    "Tem piada que me pergunte,
  • 3:19 - 3:21
    "porque chamam-lhe
    comércio de caixa preta.
  • 3:22 - 3:25
    "E às vezes também lhe chamam
    comércio algorítmico."
  • 3:26 - 3:29
    O comércio algorítmico evoluiu
  • 3:29 - 3:33
    porque os investidores institucionais
    têm os mesmos problemas
  • 3:33 - 3:35
    que a Força Aérea dos EUA teve,
  • 3:35 - 3:38
    ou seja, movimentam as suas posições
  • 3:38 - 3:41
    — seja Proctor & Gamble
    ou Accenture, tanto faz —
  • 3:41 - 3:44
    movimentam milhões de ações
    de qualquer coisa pelo mercado.
  • 3:44 - 3:46
    Se fizerem isso tudo de uma vez só,
  • 3:46 - 3:49
    é como jogar póquer
    e apostar tudo na primeira jogada.
  • 3:49 - 3:50
    Revelam o jogo todo.
  • 3:50 - 3:52
    Então, precisam de encontrar uma forma
  • 3:52 - 3:54
    e usam algoritmos para fazê-lo
  • 3:54 - 3:58
    — quebrar o todo em milhões
    de pequenas transações.
  • 3:58 - 4:01
    A magia e o horror disto
  • 4:01 - 4:03
    é que a mesma matemática
  • 4:03 - 4:06
    que é usada para quebrar o todo
    em milhões de pequenas coisas
  • 4:06 - 4:09
    pode ser usada para encontrar
    milhões de coisas pequenas,
  • 4:09 - 4:10
    uni-las novamente
  • 4:10 - 4:12
    e descobrir o que está
    a acontecer no mercado.
  • 4:12 - 4:14
    Se precisarem de uma imagem
  • 4:14 - 4:17
    do que está a acontecer agora
    no mercado de ações,
  • 4:17 - 4:20
    o que podem imaginar
    um conjunto de algoritmos
  • 4:20 - 4:22
    que são basicamente programados
    para esconder,
  • 4:22 - 4:26
    e um conjunto de algoritmos
    programados para encontrá-los e agirem.
  • 4:26 - 4:28
    Tudo isso é ótimo, é porreiro.
  • 4:29 - 4:32
    E isso é 70% do mercado
    de ações americano,
  • 4:32 - 4:34
    70% do sistema operacional,
  • 4:34 - 4:37
    antigamente conhecido
    como as nossas reformas...
  • 4:37 - 4:39
    (Risos)
  • 4:39 - 4:41
    ...as nossas hipotecas.
  • 4:41 - 4:43
    O que é que pode correr mal?
  • 4:43 - 4:44
    O que pode correr mal
  • 4:44 - 4:47
    é que há um ano, 9% de todo o mercado
  • 4:47 - 4:50
    desapareceu no espaço de cinco minutos.
  • 4:50 - 4:52
    Chamaram-lhe o "Flash Crash
    das 2 horas e 45".
  • 4:53 - 4:55
    De repente, desapareceram 9%,
  • 4:55 - 4:57
    e ainda ninguém até hoje
  • 4:57 - 4:59
    consegue chegar a acordo
    sobre o que aconteceu,
  • 4:59 - 5:02
    porque ninguém o ordenou,
    ninguém o pediu.
  • 5:02 - 5:06
    Ninguém tinha controlo
    sobre o que estava a acontecer.
  • 5:06 - 5:07
    Tudo que eles tinham
  • 5:07 - 5:11
    era um monitor à frente que tinha números
  • 5:11 - 5:14
    e um botão vermelho que dizia: "Parar."
  • 5:16 - 5:17
    A questão é essa.
  • 5:17 - 5:19
    Escrevemos coisas,
  • 5:19 - 5:22
    escrevemos coisas
    que já não conseguimos ler.
  • 5:22 - 5:26
    Demos origem a uma coisa ilegível.
  • 5:27 - 5:29
    Perdemos a noção
  • 5:29 - 5:31
    do que realmente está a acontecer
  • 5:31 - 5:33
    neste mundo que construímos.
  • 5:33 - 5:35
    Estamos a começar
    a fazer o nosso percurso.
  • 5:35 - 5:38
    Há uma empresa em Boston chamada Nanex.
  • 5:38 - 5:42
    Usam matemática e magia
    e não sei mais o quê.
  • 5:42 - 5:45
    Têm acesso a todos os dados do mercado
  • 5:45 - 5:48
    e encontram, às vezes,
    alguns desses algoritmos.
  • 5:48 - 5:50
    Quando os encontram, extraem-nos
  • 5:50 - 5:53
    e pregam-nos à parede como borboletas.
  • 5:54 - 5:57
    Fazem o que sempre fizemos
    quando confrontados
  • 5:57 - 5:59
    com grandes quantidades
    de dados que não entendemos
  • 5:59 - 6:02
    — dão-lhe um nome e uma história.
  • 6:02 - 6:04
    Este é um dos que eles encontraram,
  • 6:04 - 6:07
    a que chamaram a Faca,
  • 6:09 - 6:11
    o Carnaval,
  • 6:11 - 6:13
    o Emplastro de Boston,
  • 6:14 - 6:16
    o Crepúsculo.
  • 6:17 - 6:21
    A piada é que eles
    não andam apenas no mercado.
  • 6:21 - 6:24
    Podemos encontrar este tipo de coisas
    para onde quer que olhemos,
  • 6:24 - 6:27
    depois de aprendermos a procurá-los.
  • 6:27 - 6:30
    Podemos encontrá-los aqui:
    neste livro sobre moscas
  • 6:30 - 6:32
    de que andámos à procura no Amazon.
  • 6:32 - 6:33
    Podemos ter reparado nele
  • 6:33 - 6:36
    quando o preço começou
    em 1,7 milhões de dólares.
  • 6:36 - 6:38
    Está fora de impressão, mas...
  • 6:38 - 6:39
    (Risos)
  • 6:39 - 6:42
    se o tivéssemos comprado por 1,7 milhões,
    teria sido uma pechincha.
  • 6:42 - 6:44
    Poucas horas depois, tinha aumentado
  • 6:44 - 6:47
    para 23,6 milhões de dólares,
  • 6:47 - 6:49
    mais os portes de envio.
  • 6:49 - 6:50
    A questão é esta:
  • 6:50 - 6:53
    Ninguém estava a comprar ou a vender;
    o que é que aconteceu?
  • 6:53 - 6:55
    Este comportamento é visível na Amazon
  • 6:55 - 6:57
    tal como se vê em Wall Street.
  • 6:57 - 6:59
    Quando vemos este comportamento,
  • 6:59 - 7:03
    estamos a ver a prova
    de algoritmos em conflito,
  • 7:03 - 7:05
    algoritmos presos em círculos
    com outros algoritmos,
  • 7:05 - 7:07
    sem vigilância humana,
  • 7:07 - 7:09
    sem supervisão de um adulto que diga:
  • 7:09 - 7:13
    "Na verdade, 1,7 milhões é muito."
  • 7:13 - 7:15
    (Risos)
  • 7:15 - 7:18
    Assim como acontece na Amazon,
    acontece na Netflix.
  • 7:19 - 7:23
    A Netflix tem utilizado
    vários algoritmos ao longo dos anos.
  • 7:23 - 7:25
    Começaram com o Cinemath,
    e tentaram vários outros
  • 7:25 - 7:27
    — há o Dinosaur Planet; há o Gravity.
  • 7:27 - 7:29
    Agora estão a usar o Pragmatic Chaos.
  • 7:29 - 7:32
    O Pragmatic Chaos está,
    como todos os algoritmos da Netflix,
  • 7:32 - 7:33
    a tentar fazer a mesma coisa.
  • 7:33 - 7:35
    Está a tentar compreender
  • 7:35 - 7:37
    a programação do" hardware
    do crânio humano,
  • 7:37 - 7:40
    para poder recomendar que filme
  • 7:40 - 7:42
    podemos querer ver em seguida
  • 7:42 - 7:44
    — o que é um problema muito difícil.
  • 7:44 - 7:46
    Mas a dificuldade do problema
  • 7:46 - 7:50
    e o facto que ainda não entendemos,
  • 7:50 - 7:53
    não elimina os efeitos
    que o Pragmatic Chaos tem.
  • 7:53 - 7:56
    O Pragmatic Chaos, tal como todos
    os algoritmos da Netflix,
  • 7:56 - 7:58
    acaba por determinar
  • 7:58 - 8:03
    uns 60% dos filmes
    que acabam por ser alugados.
  • 8:03 - 8:04
    Assim, um pedaço de código
  • 8:04 - 8:08
    com uma ideia sobre cada um de nós,
  • 8:08 - 8:10
    é responsável por 60% desses filmes.
  • 8:10 - 8:15
    E se nós pudéssemos avaliar esses filmes
    antes de serem feitos?
  • 8:15 - 8:17
    Não seria útil?
  • 8:17 - 8:20
    Há alguns cientistas de dados
    no Reino Unido, ou em Hollywood
  • 8:20 - 8:22
    que têm "algoritmos de história"
  • 8:22 - 8:24
    — é uma empresa chamada Epagogix.
  • 8:24 - 8:26
    Podemos apresentar-lhes o nosso guião
  • 8:26 - 8:28
    e eles podem dizer, quantitativamente,
  • 8:28 - 8:32
    se é um filme de 30 milhões de dólares
    ou de 200 milhões de dólares.
  • 8:32 - 8:34
    O facto é que isto não é o Google.
  • 8:34 - 8:36
    Isto não são informações.
  • 8:36 - 8:39
    Não são estatísticas financeiras;
    isto é cultura.
  • 8:40 - 8:43
    O que vemos aqui, ou o que
    normalmente não vemos,
  • 8:43 - 8:46
    é que isto é a física da cultura.
  • 8:47 - 8:49
    Se estes algoritmos
  • 8:49 - 8:51
    — como os algoritmos em Wall Street —
  • 8:51 - 8:53
    um dia falhassem e dessem para o torto,
  • 8:53 - 8:55
    como é que saberíamos?
  • 8:55 - 8:57
    Qual seria o aspeto?
  • 8:57 - 9:00
    Eles estão em nossa casa.
    Estão na nossa casa.
  • 9:00 - 9:03
    Há dois algoritmos que competem
    pela nossa sala de estar.
  • 9:03 - 9:05
    São dois tipos de robôs de limpeza
  • 9:05 - 9:08
    que têm ideias distintas
    quanto ao significado de limpeza.
  • 9:08 - 9:09
    E podemos vê-lo
  • 9:09 - 9:12
    se lhes reduzirmos a velocidade
    e os iluminarmos.
  • 9:12 - 9:15
    São como arquitetos secretos
    no nosso quarto.
  • 9:16 - 9:18
    A ideia de que a arquitetura em si
  • 9:18 - 9:21
    está de certa forma sujeita
    à otimização algorítmica
  • 9:21 - 9:23
    não é impossível.
  • 9:23 - 9:26
    É muito real e está
    a acontecer à nossa volta.
  • 9:26 - 9:28
    Sentimos mais isso
  • 9:28 - 9:30
    quando estamos dentro
    duma caixa de metal fechada,
  • 9:30 - 9:32
    dum elevador novo
  • 9:32 - 9:34
    — são os elevadores
    de destino controlado,
  • 9:34 - 9:37
    em que temos que escolher
    o andar para onde vamos
  • 9:37 - 9:38
    antes de entrar no elevador.
  • 9:38 - 9:41
    Usam um algoritmo 'bin-packing'.
  • 9:41 - 9:42
    Portanto, nada daqueles disparates
  • 9:42 - 9:44
    de deixar cada um entrar
    no elevador que quiser.
  • 9:44 - 9:47
    Os que querem ir para o 10º andar
    vão para a cabina 2,
  • 9:47 - 9:50
    e os que querem ir para o 3º andar
    vão para a cabina 5.
  • 9:50 - 9:54
    O problema com isso é que
    as pessoas passam-se.
  • 9:54 - 9:56
    As pessoas entram em pânico.
  • 9:56 - 9:58
    E vemos porquê.
  • 9:58 - 10:00
    É porque o elevador
  • 10:00 - 10:03
    não tem componentes importantes,
    como os botões.
  • 10:03 - 10:04
    (Risos)
  • 10:04 - 10:07
    Como as coisas que as pessoas usam.
  • 10:07 - 10:11
    Só tem o número que vai
    para cima ou para baixo
  • 10:11 - 10:14
    e o botão vermelho que diz "Parar".
  • 10:15 - 10:17
    É para isso que estamos a trabalhar.
  • 10:17 - 10:21
    Estamos a trabalhar
    para esse dialeto de máquinas.
  • 10:22 - 10:24
    Até onde é que isso pode levar? Até onde?
  • 10:24 - 10:27
    Podemos levar isso muito longe.
  • 10:27 - 10:31
    Então, vou voltar a Wall Street,
  • 10:31 - 10:33
    porque os algoritmos de Wall Street
  • 10:33 - 10:36
    dependem sobretudo de um atributo,
  • 10:36 - 10:37
    que é a velocidade.
  • 10:37 - 10:40
    Funcionam em milissegundos
    e microssegundos.
  • 10:40 - 10:43
    Só para vos dar uma ideia
    do que são microssegundos,
  • 10:43 - 10:47
    levamos 500 000 microssegundos
    só para clicar no rato.
  • 10:47 - 10:48
    Mas se um algoritmo de Wall Street
  • 10:48 - 10:50
    estiver atrasado cinco microssegundos,
  • 10:50 - 10:52
    é um perdedor.
  • 10:53 - 10:55
    Se fôssemos um algoritmo
  • 10:55 - 10:58
    procuraríamos um arquiteto como
    aquele que conheci em Frankfurt
  • 10:58 - 11:00
    que estava a esvaziar um arranha-céus,
  • 11:00 - 11:03
    a deitar fora toda a mobília,
    todas as infraestruturas para uso humano,
  • 11:03 - 11:05
    sobrando apenas aço nos pisos
  • 11:05 - 11:08
    preparados para receber
    as pilhas de servidores,
  • 11:08 - 11:10
    tudo para que um algoritmo
  • 11:10 - 11:13
    possa estar mais perto da Internet.
  • 11:13 - 11:17
    Pensamos na Internet como
    um tipo de sistema distribuído.
  • 11:17 - 11:20
    Claro que é, mas é distribuído
    a partir de locais diferentes.
  • 11:20 - 11:22
    Em Nova Iorque, é distribuído daqui:
  • 11:22 - 11:25
    o Carrier Hotel,
    localizado na Hudson Street.
  • 11:25 - 11:29
    É daqui que saem os cabos pela cidade.
  • 11:29 - 11:32
    Na verdade, se estivermos
    longe deste local,
  • 11:32 - 11:35
    estaremos sempre atrasados
    uns microssegundos.
  • 11:35 - 11:37
    Aqueles tipos em Wall Street,
  • 11:37 - 11:38
    Marco Polo e Cherokee Nation,
  • 11:38 - 11:41
    estão oito microssegundos atrasados
  • 11:41 - 11:43
    em relação a estes tipos
  • 11:43 - 11:47
    que andam pelos edifícios
    que estão a ser esvaziados
  • 11:47 - 11:49
    em volta do Carrier Hotel.
  • 11:50 - 11:52
    Isso continuará a acontecer.
  • 11:52 - 11:54
    Vamos continuar a esvaziar edifícios,
  • 11:54 - 11:57
    porque nenhum de nós,
    centímetro a centímetro
  • 11:57 - 12:00
    libra a libra, e dólar a dólar,
  • 12:00 - 12:03
    nenhum de nós conseguiria
    extrair lucro daquele espaço
  • 12:03 - 12:05
    como o Emplastro de Boston consegue.
  • 12:06 - 12:10
    Mas se vocês se afastarem
  • 12:10 - 12:14
    veriam um fosso com 1.3 km
  • 12:14 - 12:16
    entre Nova Iorque e Chicago
  • 12:16 - 12:18
    que foi construído nos últimos anos
  • 12:18 - 12:20
    por uma empresa chamada "Spread Networks".
  • 12:20 - 12:22
    Isto é um cabo de fibra ótica.
  • 12:22 - 12:25
    que foi estendido entre as duas cidades
  • 12:25 - 12:28
    para poder enviar um sinal
  • 12:28 - 12:31
    37 vezes mais rápido
    do que clicar no rato,
  • 12:31 - 12:33
    só para estes algoritmos,
  • 12:33 - 12:36
    só para o Carnaval e a Faca.
  • 12:37 - 12:38
    Se pensarem nisto,
  • 12:38 - 12:41
    que estamos a percorrer os Estados Unidos
  • 12:41 - 12:44
    com dinamite e serras
  • 12:44 - 12:46
    para que um algoritmo
    possa fechar um negócio
  • 12:46 - 12:48
    três microssegundos mais depressa,
  • 12:48 - 12:51
    tudo para uma estrutura de comunicações
  • 12:51 - 12:55
    que nenhum humano alguma vez conhecerá,
  • 12:55 - 12:57
    isto é um tipo de destino manifesto;
  • 12:57 - 13:00
    estaremos sempre à procura
    duma nova fronteira.
  • 13:00 - 13:03
    Infelizmente, teremos muitas dificuldades.
  • 13:03 - 13:05
    Isto é apenas teórico.
  • 13:05 - 13:07
    Isto são alguns matemáticos no MIT.
  • 13:07 - 13:10
    A verdade é que não compreendo bem
  • 13:10 - 13:12
    grande parte do que falam.
  • 13:12 - 13:14
    Envolve cones de luz
    e emaranhamento quântico,
  • 13:14 - 13:17
    e eu não percebo muito sobre isso.
  • 13:17 - 13:18
    Mas consigo ler este mapa.
  • 13:18 - 13:22
    Este mapa diz que, se estivermos
    a tentar fazer dinheiro no mercado
  • 13:22 - 13:24
    onde estão os pontos vermelhos,
  • 13:24 - 13:26
    onde estão as pessoas e as cidades,
  • 13:26 - 13:29
    temos que colocar os servidores
    onde estiverem os pontos azuis
  • 13:29 - 13:31
    para fazer isso de forma mais eficaz.
  • 13:31 - 13:33
    Podem reparar que muitos dos pontos azuis
  • 13:33 - 13:36
    estão no meio do oceano.
  • 13:37 - 13:39
    É isso que faremos:
    vamos construir bolhas,
  • 13:39 - 13:41
    ou plataformas.
  • 13:41 - 13:43
    Vamos separar a água
  • 13:43 - 13:46
    para extrair dinheiro do ar,
  • 13:46 - 13:49
    porque é um futuro risonho
    para um algoritmo.
  • 13:49 - 13:51
    (Risos)
  • 13:52 - 13:54
    Mas não é o dinheiro que é interessante.
  • 13:54 - 13:56
    É aquilo que o dinheiro motiva,
  • 13:56 - 14:01
    que nos leva a transformer o planeta Terra
  • 14:01 - 14:03
    com este tipo de eficácia algorítmica.
  • 14:03 - 14:06
    A essa luz, voltamos
  • 14:06 - 14:08
    e olhamos para as fotografias
    de Michael Najjar.
  • 14:08 - 14:11
    Percebemos que não são uma metáfora,
    são uma profecia.
  • 14:11 - 14:13
    São uma profecia
  • 14:13 - 14:17
    para o tipo de efeitos
    sísmicos e terrestres
  • 14:17 - 14:19
    da matemática que andamos a fazer.
  • 14:20 - 14:22
    A paisagem foi sempre feita
  • 14:22 - 14:25
    através desta estranha
    e inquietante colaboração
  • 14:25 - 14:28
    entre a natureza e o homem.
  • 14:28 - 14:32
    Mas agora há esta terceira força
    co-evolucionária: os algoritmos
  • 14:32 - 14:35
    — o Emplastro de Boston, o Carnaval.
  • 14:35 - 14:38
    Teremos que os compreender como natureza.
  • 14:38 - 14:40
    De certa forma, é o que eles são.
  • 14:40 - 14:41
    Obrigado.
  • 14:41 - 14:45
    (Aplausos)
Title:
Como os algoritmos modelam o nosso mundo
Speaker:
Kevin Slavin
Description:

Kevin Slavin defende que vivemos num mundo construído para os algoritmos — e cada vez mais controlado por eles. Nesta palestra cativante do TEDGlobal, ele mostra como estes complexos programas de computador determinam táticas de espionagem, preços das ações, guiões de filmes e arquitetura. E faz um alerta quanto ao facto de escrevermos códigos que não entendemos, com consequências que não podemos controlar.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:02
Margarida Ferreira approved Portuguese subtitles for How algorithms shape our world
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world
Margarida Ferreira accepted Portuguese subtitles for How algorithms shape our world
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world
Margarida Ferreira edited Portuguese subtitles for How algorithms shape our world
Retired user added a translation

Portuguese subtitles

Revisions