0:00:00.820,0:00:05.096 Roy Price é um homem do qual [br]provavelmente nunca ouviram falar, 0:00:05.120,0:00:07.616 ainda que ele tenha sido responsável 0:00:07.640,0:00:14.116 por uns 22 minutos algo medíocres [br]da nossa vida, a 19 de Abril de 2013. 0:00:14.680,0:00:17.906 Pode ter sido também responsável[br]por 22 minutos muito agradáveis, 0:00:17.906,0:00:20.016 mas não para muitos de vocês. 0:00:20.040,0:00:22.046 E tudo isso remonta a uma decisão 0:00:22.046,0:00:24.210 que Roy teve de fazer [br]há cerca de três anos. 0:00:24.210,0:00:28.816 Pois vejam, Roy Price[br]é um executivo sénior na Amazon Studios. 0:00:29.000,0:00:31.856 É a empresa de produção televisiva[br]da Amazon. 0:00:31.880,0:00:35.266 Tem 47 anos, é esbelto,[br]com o cabelo espetado, 0:00:35.266,0:00:39.526 descreve-se no Twitter como[br]"filmes, TV, tecnologia, tacos." 0:00:41.490,0:00:45.160 Roy Price tem um trabalho importante,[br]porque é da sua responsabilidade 0:00:45.160,0:00:49.140 escolher programas, o conteúdo original [br]que a Amazon vai fazer. 0:00:49.280,0:00:51.866 Claro que esse é um espaço[br]muito competitivo. 0:00:51.866,0:00:54.446 Quero dizer, há tantos [br]programas televisivos já lançados, 0:00:54.446,0:00:57.026 que Roy não pode escolher [br]qualquer programa. 0:00:57.026,0:01:00.696 Tem que encontrar programas[br]que sejam mesmo, mesmo bons. 0:01:00.880,0:01:03.536 Por outras palavras,[br]tem que encontrar programas 0:01:03.560,0:01:05.936 que estejam do lado direito[br]desta curva aqui. 0:01:05.960,0:01:08.916 Esta curva aqui[br]é a distribuição de avaliações 0:01:08.916,0:01:13.376 de cerca de 2500 programas de TV,[br]no site do IMDb. 0:01:13.376,0:01:15.936 Essas avaliações vão de 1 a 10. 0:01:15.960,0:01:19.176 Esta altura aqui mostra quantos [br]programas obtêm essa avaliação. 0:01:19.176,0:01:23.766 Se o programa tem uma avaliação[br]de 9 pontos ou superior, é um vencedor. 0:01:23.766,0:01:25.926 Assim temos 2% de programas de topo. 0:01:25.926,0:01:29.466 São programas como o "Breaking Bad",[br]"Game of Thrones", "The Wire", 0:01:29.466,0:01:32.086 todos esses programas que são viciantes, 0:01:32.086,0:01:35.346 em que, depois de se ter visto uma série,[br]o cérebro fica assim como: 0:01:35.346,0:01:37.526 "Onde posso obter mais[br]destes episódios?" 0:01:37.526,0:01:39.130 Esse tipo de programas. 0:01:39.130,0:01:41.746 No lado esquerdo, só para clarificar,[br]tem-se, por outro lado, 0:01:41.746,0:01:44.786 um programa chamado [br]"Toddlers and Tiaras"... 0:01:44.976,0:01:46.786 (Risos) 0:01:47.320,0:01:48.856 ... que deve dizer o suficiente 0:01:48.880,0:01:51.141 sobre o que se passa neste lado da curva. 0:01:51.245,0:01:55.436 Agora, o Roy Price não está preocupado[br]em ficar do lado esquerdo da curva, 0:01:55.436,0:01:58.336 porque acho que é preciso ter [br]um sério poder mental 0:01:58.336,0:02:00.386 para superar "Toddlers e Tiaras." 0:02:00.386,0:02:03.906 Ele está preocupado[br]com esta parte aqui no meio, 0:02:03.920,0:02:05.936 a parte da TV mediana. 0:02:05.936,0:02:08.616 Vocês sabem, aqueles programas [br]que são mais ou menos, 0:02:08.639,0:02:10.555 que não vos deixam entusiasmados. 0:02:10.555,0:02:14.646 Ele tem que ter a certeza[br]que fica do lado direito da curva. 0:02:15.200,0:02:16.966 A pressão é máxima, 0:02:16.966,0:02:19.166 e claro que é também a primeira vez 0:02:19.166,0:02:21.396 que a Amazon está a fazer algo assim, 0:02:21.396,0:02:24.636 por isso o Roy Price não quer arriscar. 0:02:24.636,0:02:27.226 Ele quer fabricar um sucesso. 0:02:27.226,0:02:29.136 Ele precisa de sucesso garantido. 0:02:29.136,0:02:31.576 Então o que ele faz é[br]lançar uma competição. 0:02:31.576,0:02:34.576 Pega numa data de ideias [br]para programas de TV 0:02:34.600,0:02:36.976 e a partir dessas ideias,[br]através de uma avaliação, 0:02:36.976,0:02:41.016 selecionam 8 candidatos [br]para programas de TV. 0:02:41.040,0:02:44.256 Depois faz só o 1º episódio[br]de cada um desses programas 0:02:44.280,0:02:47.416 e põe-nos "online" grátis,[br]para toda a gente ver. 0:02:47.440,0:02:49.836 E quando a Amazon dá coisas grátis, 0:02:49.836,0:02:51.836 toda a gente a vai ver, não é? 0:02:51.836,0:02:56.246 Há milhões de telespectadores[br]a ver esses episódios. 0:02:56.440,0:02:59.656 O que eles não se apercebem é que,[br]enquanto estão a ver o programa, 0:02:59.680,0:03:01.976 estão ser observados. 0:03:02.190,0:03:04.546 Estão a ser observados[br]pelo Roy Price e pela sua equipa 0:03:04.546,0:03:06.116 que gravam tudo. 0:03:06.116,0:03:09.486 Gravam quando alguém pressiona "Play",[br]quando alguém pressiona "Pausa", 0:03:09.486,0:03:11.966 que partes passam à frente,[br]que partes vêem de novo. 0:03:11.966,0:03:14.266 Recolhem milhares de dados, 0:03:14.266,0:03:16.366 porque querem ter essa informação 0:03:16.366,0:03:18.976 para depois decidir[br]que programa devem fazer. 0:03:18.976,0:03:21.016 E claro, recolhem toda a informação, 0:03:21.040,0:03:23.616 analisam-na, e a resposta surge. 0:03:23.640,0:03:25.026 E a resposta é: 0:03:25.026,0:03:29.160 "A Amazon devia fazer uma comédia [br]sobre 4 senadores Republicanos dos EUA." 0:03:29.160,0:03:30.440 (Risos) 0:03:30.440,0:03:32.036 Fizeram esse programa. 0:03:32.036,0:03:34.350 Então? Alguém sabe o nome desse programa? 0:03:34.550,0:03:36.086 Audiência: "Alpha House." 0:03:36.086,0:03:37.656 Sim, "Alpha House," 0:03:37.656,0:03:41.616 mas parece que poucos aqui [br]se lembram desse programa, 0:03:41.640,0:03:43.496 porque não ficou assim tão bom. 0:03:43.520,0:03:45.766 Na verdade, é só um programa mediano, 0:03:45.766,0:03:49.976 literalmente, de facto,[br]porque a média da curva está em 7,4 0:03:50.000,0:03:52.576 e "Alpha House" tem 7,5. 0:03:52.576,0:03:54.746 Portanto, está ligeiramente acima da média, 0:03:54.746,0:03:58.190 mas certamente não é o que Roy Price[br]e a sua equipa queriam atingir. 0:03:58.320,0:04:01.176 Mas, entretanto, [br]por volta da mesma altura, 0:04:01.200,0:04:02.776 numa outra empresa 0:04:02.800,0:04:07.016 outro executivo produziu um programa [br]do topo, usando análise de dados. 0:04:07.040,0:04:09.646 Chama-se Ted, Ted Sarandos, 0:04:09.646,0:04:12.326 é o diretor de Conteúdos da Netflix. 0:04:12.326,0:04:14.546 Tal como o Roy,[br]ele está numa missão constante 0:04:14.546,0:04:16.256 para encontrar um programa de topo 0:04:16.256,0:04:18.200 e também usa dados para fazer isso, 0:04:18.200,0:04:20.365 excepto que o faz de forma[br]um pouco diferente. 0:04:20.365,0:04:23.576 Em vez de lançar uma competição,[br]ele e a sua equipa 0:04:23.580,0:04:27.196 olharam para todos os dados que tinham[br]sobre os telespectadores da Netflix, 0:04:27.196,0:04:29.486 as avaliações que dão aos programas, 0:04:29.486,0:04:32.196 o historial de visualizações,[br]o que gostam, etc. 0:04:32.196,0:04:34.196 Depois usaram esses dados [br]para descobrir 0:04:34.196,0:04:36.536 toda a informação e mais alguma[br]sobre a audiência: 0:04:36.560,0:04:38.196 que tipos de programas gostam, 0:04:38.196,0:04:40.486 que tipo de produtores,[br]que tipo de actores. 0:04:40.486,0:04:42.736 Depois de terem[br]toda essa informação junta, 0:04:42.760,0:04:44.696 num acto de fé, 0:04:44.696,0:04:46.696 decidiram licenciar, 0:04:46.696,0:04:49.406 não uma comédia sobre quatro senadores 0:04:49.406,0:04:52.410 mas uma série dramática sobre [br]um único senador. 0:04:52.760,0:04:54.456 Vocês conhecem o programa? 0:04:54.456,0:04:55.936 (Risos) 0:04:55.936,0:04:59.706 Sim, "House of Cards", e a Netflix claro,[br]acertou em cheio com esse programa, 0:04:59.706,0:05:02.226 pelos menos nas primeiras duas temporadas. 0:05:02.226,0:05:04.506 (Risos) 0:05:04.506,0:05:05.810 (Aplausos) 0:05:05.810,0:05:08.986 "House of Cards" tem uma avaliação[br]de 9,1 nesta curva. 0:05:08.986,0:05:12.056 Exactamente onde queriam[br]que estivesse. 0:05:12.080,0:05:14.540 Agora, a pergunta é:[br]"O que aconteceu aqui?" 0:05:14.540,0:05:17.666 Temos duas empresas muito competitivas[br]que usam análise de dados. 0:05:17.666,0:05:20.056 Relacionam estes milhões [br]de pontos de informação, 0:05:20.080,0:05:22.456 mas depois funciona lindamente[br]para um deles, 0:05:22.480,0:05:24.336 e não funciona para outro. 0:05:24.360,0:05:25.666 Então porquê? 0:05:25.666,0:05:29.056 Porque a lógica diz[br]que isto devia resultar todas as vezes. 0:05:29.080,0:05:31.536 Quero dizer, se estamos a recolher[br]milhares de dados 0:05:31.560,0:05:33.296 para tomar uma decisão 0:05:33.320,0:05:35.930 então devíamos conseguir[br]tomar uma boa decisão. 0:05:35.930,0:05:38.476 Temos 200 anos de estatísticas[br]com que podemos contar. 0:05:38.476,0:05:41.216 Estamos a amplificá-la [br]com computadores muito potentes.[br] 0:05:41.240,0:05:44.760 O mínimo que podíamos esperar [br]é boa televisão, ou não é? 0:05:45.880,0:05:49.090 Se a análise de dados não funciona[br]dessa maneira, 0:05:49.520,0:05:51.576 então torna-se assustador, 0:05:51.600,0:05:55.686 porque vivemos numa época[br]em que dependemos cada vez mais de dados 0:05:55.686,0:06:00.030 para tomar decisões sérias[br]que vão para além da televisão. 0:06:00.760,0:06:04.210 Alguém aqui conhece a empresa[br]Multi-Health Systems? 0:06:05.080,0:06:07.236 Ninguém. OK, isso é certamente bom. 0:06:07.236,0:06:09.976 A Multi-Health systems [br]é uma empresa de "software", 0:06:10.000,0:06:12.816 e espero que ninguém aqui nesta sala 0:06:12.840,0:06:16.016 venha a estar em contacto[br]com esse "software", 0:06:16.040,0:06:18.136 porque, se estiver,[br]significa que está preso. 0:06:18.160,0:06:19.596 (Risos) 0:06:19.596,0:06:23.246 Se alguém aqui nos EUA está na prisão,[br]e pretende a liberdade condicional 0:06:23.246,0:06:27.216 é muito provável que o "software"[br]de análise de dados dessa empresa 0:06:27.240,0:06:30.856 seja usado para determinar [br]se essa proposta é ou não aceite. 0:06:30.880,0:06:33.606 É o mesmo principio[br]que a Amazon e a Netflix utilizam, 0:06:33.606,0:06:38.096 mas agora em vez de decidir [br]se um programa vai ser bom ou mau, 0:06:38.120,0:06:41.016 vai-se decidir se uma pessoa[br]vai ser boa ou má. 0:06:41.660,0:06:46.726 Uma TV medíocre, 22 minutos,[br]pode ser muito mau, 0:06:46.726,0:06:49.640 mas mais anos na prisão,[br]acho eu, é ainda pior. 0:06:50.360,0:06:54.586 Infelizmente, há algumas provas[br]de que a análise de dados, 0:06:54.586,0:06:58.736 apesar da enormidade de dados,[br]nem sempre produz óptimos resultados. 0:06:58.760,0:07:01.426 E não é porque uma empresa[br]como a Multi-Health Systems. 0:07:01.426,0:07:03.133 não saiba o que fazer com os dados. 0:07:03.158,0:07:05.616 Até as empresas mais conhecedoras[br]na área falham. 0:07:05.616,0:07:08.150 Sim, até a Google erra às vezes. 0:07:08.680,0:07:13.176 Em 2009, a Google anunciou[br]que conseguia, com a análise de dados, 0:07:13.200,0:07:17.336 prever surtos de gripe da pior espécie, 0:07:17.360,0:07:21.136 fazendo análise de dados[br]nas pesquisas da Google. 0:07:21.160,0:07:25.016 E funcionou lindamente,[br]fazendo grande sensação nas notícias, 0:07:25.040,0:07:27.176 incluindo o pináculo[br]do sucesso científico: 0:07:27.200,0:07:29.656 uma publicação na revista "Nature". 0:07:29.680,0:07:33.296 Funcionou óptimamente,[br]ano após ano após ano, 0:07:33.320,0:07:34.976 até que um dia falhou. 0:07:35.000,0:07:37.250 Ninguém conseguiu dizer[br]exactamente porquê. 0:07:37.250,0:07:39.176 Simplesmente não funcionou nesse ano. 0:07:39.176,0:07:41.396 Claro que isso também [br]foi uma grande notícia, 0:07:41.396,0:07:42.886 incluindo agora uma retratação 0:07:42.886,0:07:45.720 de uma publicação [br]da revista "Nature". 0:07:46.480,0:07:50.116 Então, até as empresas mais conhecedoras,[br]como a Amazon e a Google, 0:07:50.116,0:07:51.976 às vezes erram. 0:07:52.780,0:07:54.936 Apesar de todos esses falhanços, 0:07:54.960,0:07:58.816 os dados intervêm cada vez mais[br]em decisões da vida real 0:07:58.840,0:08:00.656 — no espaço de trabalho, 0:08:00.680,0:08:02.496 no cumprimento da lei, 0:08:02.520,0:08:04.010 na medicina. 0:08:04.490,0:08:07.736 Então devíamos ter a certeza[br]de que os dados estão a ajudar. 0:08:07.760,0:08:10.896 Agora, pessoalmente, já vi [br]muita desta luta com dados, 0:08:10.920,0:08:12.916 porque trabalho com genética[br]computacional, 0:08:12.916,0:08:15.416 que é também um campo[br]onde muita gente inteligente 0:08:15.440,0:08:19.256 usa quantidades de dados inimagináveis[br]para tomar decisões importantes, 0:08:19.256,0:08:22.970 como decidir uma terapia de cancro[br]ou desenvolver uma droga. 0:08:23.520,0:08:25.896 Ao longo dos anos,[br]notei um tipo de padrão 0:08:25.920,0:08:28.376 ou uma regra, se quiserem,[br]sobre a diferença 0:08:28.400,0:08:31.096 [br]entre tomadas de decisão [br]bem sucedidas com dados[br] 0:08:31.120,0:08:33.226 e tomadas de decisão mal-sucedidas. 0:08:33.226,0:08:36.980 Acho que é um padrão que devo partilhar,[br]e é mais ou menos assim. 0:08:38.520,0:08:40.655 Sempre que se resolve um problema complexo 0:08:40.679,0:08:42.536 fazem-se basicamente duas coisas. 0:08:42.536,0:08:45.736 A primeira é dividir esse problema[br]em várias partes 0:08:45.760,0:08:48.256 para que se possa analisar [br]cada parte em separado. 0:08:48.280,0:08:50.296 Depois, claro, faz-se a segunda parte. 0:08:50.320,0:08:52.976 Juntam-se todas essas partes de novo[br] 0:08:53.000,0:08:54.536 para chegar a uma conclusão. 0:08:54.536,0:08:56.956 Às vezes é preciso fazer tudo de novo, 0:08:56.956,0:08:58.686 mas são sempre essas duas coisas: 0:08:58.686,0:09:01.430 Dividir e voltar a juntar de novo. 0:09:02.280,0:09:04.156 Agora a parte crucial é 0:09:04.156,0:09:06.816 que esses dados e a análise de dados 0:09:06.840,0:09:09.340 servem apenas para a primeira parte. 0:09:09.580,0:09:12.366 Os dados e análise de dados,[br]por mais poderosos que sejam, 0:09:12.366,0:09:16.056 só ajudam a dividir o problema [br]e a compreender as suas partes. 0:09:16.080,0:09:19.576 Não é adequado para voltar a juntar[br]essas partes de novo 0:09:19.600,0:09:21.496 e depois chegar a uma conclusão. 0:09:21.520,0:09:24.256 Há outra ferramenta que faz isso,[br]e todos a temos. 0:09:24.280,0:09:25.726 Essa ferramenta é o cérebro. 0:09:25.726,0:09:27.536 Se há uma coisa em que o cérebro é bom 0:09:27.560,0:09:29.816 é em pegar em pedaços [br]de informação e juntá-los 0:09:29.840,0:09:31.856 mesmo quando a informação é incompleta, 0:09:31.880,0:09:33.546 e chegar a uma boa conclusão, 0:09:33.546,0:09:36.416 especialmente se for o cérebro[br]de um especialista. 0:09:36.440,0:09:39.166 É por isso que acredito [br]que a Netflix teve tanto sucesso, 0:09:39.166,0:09:42.696 porque usaram dados e cérebros [br]onde devido, durante o processo. 0:09:42.720,0:09:46.256 Utilizaram dados para perceber[br]informações sobre a audiência 0:09:46.280,0:09:49.696 que, de outra maneira, não conseguiriam[br]perceber àquele nível. 0:09:49.720,0:09:52.336 Mas a decisão de pegar[br]em todas essas informações 0:09:52.360,0:09:55.696 e juntá-las de novo, para fazer [br]uma série como a "House of Cards," 0:09:55.720,0:09:57.136 isso não estava nos dados. 0:09:57.160,0:10:01.136 Ted Sarandos e a sua equipa[br]tomaram a decisão de licenciar a série, 0:10:01.160,0:10:03.541 o que também significou, [br]que eles estavam a correr 0:10:03.565,0:10:06.416 um grande risco pessoal[br]com essa decisão. 0:10:06.440,0:10:09.456 A Amazon, por outro lado, fez o oposto. 0:10:09.480,0:10:12.216 Usaram os dados para guiar[br]a sua tomada de decisão, 0:10:12.240,0:10:14.846 primeiro quando lançaram[br]a competição de ideias de TV, 0:10:14.846,0:10:18.376 depois quanto escolheram [br]"Alpha House" como série. 0:10:18.400,0:10:20.896 Claro que foi uma decisão [br]muito segura para eles, 0:10:20.920,0:10:23.376 porque podiam sempre [br]apontar para os dados e dizer: 0:10:23.400,0:10:25.096 "Isto é o que os dados nos dizem." 0:10:25.120,0:10:29.470 Mas não os levou aos resultados[br]excepcionais que eles estavam à espera. 0:10:30.120,0:10:35.096 Claro que os dados são uma ferramenta [br]muito útil para tomar melhores decisões, 0:10:35.120,0:10:37.686 mas acredito que as coisas [br]dão para o torto 0:10:37.686,0:10:40.186 quando os dados começam[br]a guiar tais decisões. 0:10:40.186,0:10:43.896 Não interessa quão poderosos possam[br]ser os dados, são só uma ferramenta. 0:10:43.920,0:10:47.256 Para manter isso presente, [br]acho este aparelho aqui muito útil. 0:10:47.280,0:10:48.716 Muitos de vocês vão... 0:10:48.716,0:10:49.736 (Risos) 0:10:49.760,0:10:51.546 Antes de haver dados, 0:10:51.546,0:10:54.186 este era o aparelho [br]de tomada de decisões que se usava. 0:10:54.186,0:10:55.336 (Risos) 0:10:55.336,0:10:58.586 Devem conhecer isto.[br]Este brinquedo chama-se "Magic 8 Ball", 0:10:58.586,0:10:59.886 E é realmente incrível, 0:10:59.886,0:11:02.906 Porque, se tivermos uma decisão a tomar,[br]uma questão de sim/não, 0:11:02.906,0:11:05.556 basta abanarmos a bola,[br]e recebemos uma resposta. 0:11:06.640,0:11:09.346 "Muito provavelmente"[br]— aqui nesta janela, em tempo real. 0:11:09.346,0:11:11.746 Vou deixá-la por aí para uma "tech demo". 0:11:12.600,0:11:16.286 Agora, eu tomei algumas decisões[br]na minha vida 0:11:16.286,0:11:19.216 em que, em retrospectiva,[br]eu devia ter dado ouvidos à bola. 0:11:19.216,0:11:22.456 Mas, claro,[br]se temos dados disponíveis, 0:11:22.480,0:11:25.536 queremos substituir a bola[br]por algo mais sofisticado, 0:11:25.560,0:11:29.176 como a análise de dados,[br]para tomar uma decisão melhor. 0:11:29.200,0:11:31.956 Mas tal não altera a configuração base. 0:11:31.956,0:11:35.016 A bola pode ficar[br]cada vez mais inteligente 0:11:35.040,0:11:37.946 mas eu acredito que somos nós[br]que temos que tomar decisões, 0:11:37.946,0:11:40.976 se queremos alcançar[br]algo extraordinário, 0:11:40.976,0:11:42.856 no lado direito da curva. 0:11:42.880,0:11:47.376 Acho que uma mensagem muito encorajadora 0:11:47.400,0:11:51.376 é que, mesmo perante imensa informação, 0:11:51.400,0:11:55.496 ainda compensa tomar decisões, 0:11:55.520,0:11:58.176 ser um especialista no que fazemos 0:11:58.200,0:12:00.296 e correr riscos. 0:12:00.320,0:12:03.306 Porque, afinal, não são os dados, 0:12:03.306,0:12:07.080 são os riscos que nos possibilitam[br]estar no lado direito da curva. 0:12:07.840,0:12:09.056 Obrigado. 0:12:09.080,0:12:12.760 (Aplausos)