0:00:00.820,0:00:05.096 Roy Price är en man som de flesta av er[br]förmodligen aldrig hört talas om, 0:00:05.120,0:00:07.616 även om han kan ha varit ansvarig 0:00:07.640,0:00:14.400 för 22 ganska mediokra minuter[br]av ditt liv den 19 april 2013. 0:00:14.400,0:00:17.846 Han kan också ha varit ansvarig[br]för 22 väldigt underhållande minuter, 0:00:17.846,0:00:20.016 men inte för så många av er. 0:00:20.040,0:00:21.680 Och allt beror på ett beslut 0:00:21.680,0:00:24.020 som Roy var tvungen att ta[br]för ungefär tre år sen. 0:00:24.020,0:00:28.816 Ni förstår, Roy Price är en hög chef[br]inom Amazon Studios. 0:00:28.840,0:00:31.856 Det är Amazons produktionsbolag för tv. 0:00:31.880,0:00:35.136 Han är 47 år gammal,[br]smal, med taggigt hår, 0:00:35.160,0:00:39.976 beskriver sig på Twitter[br]som "film, tv, teknik, tacos". 0:00:40.000,0:00:45.176 Roy Price har ett ansvarsfullt jobb,[br]för det är hans ansvar att välja 0:00:45.200,0:00:49.256 vilka serier, vilket originalinnehåll[br]som Amazon ska ta fram. 0:00:49.280,0:00:51.616 Självklart innebär det hög konkurrens. 0:00:51.640,0:00:54.376 Det görs så många tv-serier, 0:00:54.400,0:00:56.576 så Roy kan inte välja[br]vilken serie som helst. 0:00:56.600,0:01:00.696 Han måste hitta[br]en riktigt, riktigt bra serie. 0:01:00.720,0:01:03.536 Med andra ord måste han hitta serier 0:01:03.560,0:01:05.936 som ligger längst ut till höger[br]på den här kurvan. 0:01:05.960,0:01:08.616 Den här kurvan är betygsfördelningen 0:01:08.640,0:01:13.016 för ungefär 2 500 tv-serier[br]i IMDBs databas, 0:01:13.040,0:01:15.936 och betygssnittet[br]kan vara mellan 1 och 10, 0:01:15.960,0:01:18.936 och höjden här visar[br]hur många serier som får det betyget. 0:01:18.960,0:01:23.520 Så om en serie får ett snittbetyg[br]på 9 poäng eller högre är den en vinnare. 0:01:23.520,0:01:25.496 Då har man en serie bland de 2 procenten. 0:01:25.520,0:01:29.416 Det är serier som "Breaking Bad",[br]"Game of Thrones", "The Wire". 0:01:29.440,0:01:31.736 De här serierna är beroendeframkallande, 0:01:31.760,0:01:34.560 så när man har sett en säsong[br]säger ens hjärna liksom, 0:01:34.560,0:01:37.016 "Var kan jag hitta fler[br]sådana här avsnitt?" 0:01:37.040,0:01:38.650 Den sortens serie. 0:01:38.920,0:01:41.416 Till vänster, här borta,[br]för att vara tydlig, 0:01:41.440,0:01:44.616 finns en serie som heter[br]"Toddles and Tiaras" - 0:01:44.640,0:01:47.296 (Skratt) 0:01:47.320,0:01:48.856 - vilket borde säga nog om 0:01:48.880,0:01:51.071 vad som händer på den sidan av kurvan. 0:01:51.465,0:01:55.256 Roy Price är inte orolig för[br]att hamna på den sidan av kurvan, 0:01:55.280,0:01:57.970 för jag tror att man behöver ha[br]en riktigt skarp hjärna 0:01:57.970,0:01:59.996 för att bli sämre[br]än "Toddlers and Tiaras". 0:01:59.996,0:02:03.896 Vad han oroar sig för är klumpen i mitten, 0:02:03.920,0:02:05.736 klumpen av halvbra tv, 0:02:05.760,0:02:08.616 ni vet, sådana där serier[br]som varken är bra eller dåliga, 0:02:08.639,0:02:10.295 som inte gör någon exalterad. 0:02:10.320,0:02:15.110 Så han behöver bli säker på[br]att han verkligen hamnar rätt. 0:02:15.110,0:02:16.826 Det finns ett tryck på att lyckas, 0:02:16.826,0:02:18.976 och det är förstås också första gången 0:02:19.000,0:02:21.176 som Amazon ens gör något sånt här, 0:02:21.200,0:02:24.536 så Roy Price vill inte ta några risker. 0:02:24.560,0:02:27.016 Han vill bygga framgång. 0:02:27.040,0:02:28.816 Han behöver en garanterad succé, 0:02:28.840,0:02:31.416 så han anordnar en tävling. 0:02:31.440,0:02:34.576 Han tar ett antal tv-seriekoncept 0:02:34.600,0:02:36.896 och genom att utvärdera dem 0:02:36.920,0:02:40.800 tar de ut åtta kandidater till tv-serier, 0:02:40.800,0:02:44.256 och sen gör han det första avsnittet[br]av var och en av dessa tv-serier 0:02:44.280,0:02:47.416 och lägger ut dem gratis online[br]så att alla kan se dem. 0:02:47.440,0:02:49.696 Och när Amazon delar ut saker gratis 0:02:49.720,0:02:51.256 vill man ha dem, eller hur? 0:02:51.280,0:02:56.416 Så miljoner människor tittar på avsnitten. 0:02:56.440,0:02:59.656 Vad de inte inser är[br]att när de tittar på sina serier 0:02:59.680,0:03:01.976 är det de som blir betraktade. 0:03:02.000,0:03:04.336 De betraktas av Roy Price och hans team, 0:03:04.360,0:03:05.736 som spelar in allt. 0:03:05.760,0:03:09.136 De spelar in när någon trycker play,[br]när någon pausar, 0:03:09.160,0:03:11.696 vilka delar de hoppar över,[br]vilka delar de ser igen. 0:03:11.720,0:03:13.976 De samlar in miljontals datapunkter, 0:03:14.000,0:03:16.096 för de vill ha dem 0:03:16.120,0:03:18.816 när de bestämmer[br]vilken tv-serie de ska göra. 0:03:18.840,0:03:21.016 Så de samlar in datan, 0:03:21.040,0:03:23.616 de bearbetar informationen,[br]och ett svar träder fram, 0:03:23.640,0:03:24.856 och svaret är, 0:03:24.880,0:03:30.416 "Amazon borde göra en komedi[br]om fyra republikanska senatorer i USA." 0:03:30.440,0:03:31.656 De gjorde den serien. 0:03:31.680,0:03:33.840 Vet någon vad serien heter? 0:03:34.720,0:03:36.016 (Publiken: "Alpha House") 0:03:36.040,0:03:37.496 Ja, "Alpha House", 0:03:37.520,0:03:41.616 men det verkar faktiskt inte vara[br]så många av er som minns den serien, 0:03:41.640,0:03:43.496 för den blev inte så bra. 0:03:43.520,0:03:45.376 Det blev bara en medioker serie, 0:03:45.400,0:03:49.976 rent bokstavligen,[br]för mitten på kurvan är 7,4, 0:03:50.000,0:03:52.416 och "Alpha House" landade på 7,5, 0:03:52.440,0:03:54.456 en serie strax över genomsnittet, 0:03:54.480,0:03:57.700 men det var verkligen inte[br]vad Roy Price och hans team siktade på. 0:03:58.320,0:04:01.176 Men ungefär samtidigt 0:04:01.200,0:04:02.776 på ett annat företag[br] 0:04:02.800,0:04:07.016 lyckades en annan hög chef ro i land[br]en toppserie med hjälp av dataanalys, 0:04:07.040,0:04:08.616 och han heter Ted, 0:04:08.640,0:04:12.056 Ted Sarandos, som är[br]innehållschef på Netflix, 0:04:12.080,0:04:14.216 och precis som Roy letar han ständigt 0:04:14.240,0:04:15.736 efter den stora tv-serien, 0:04:15.760,0:04:17.730 och han använder data för att göra det, 0:04:17.730,0:04:19.815 men han gör det[br]på ett lite annorlunda sätt. 0:04:19.839,0:04:23.576 Så istället för att hålla en tävling, 0:04:23.600,0:04:27.136 tittade han och hans team på den data[br]som de redan hade om Netflixtittare, 0:04:27.160,0:04:29.090 som de betyg de gett till deras serier, 0:04:29.090,0:04:31.976 tittarhistoriken, vilka serier[br]de gillade, och så vidare. 0:04:32.000,0:04:33.896 De använde datan för att upptäcka 0:04:33.920,0:04:36.420 alla små detaljer om sin publik: 0:04:36.420,0:04:37.900 vilka slags serier de gillade, 0:04:37.900,0:04:40.266 vilka slags producenter,[br]vilka slags skådespelare. 0:04:40.266,0:04:42.736 Och när de väl hade satt ihop alla delar 0:04:42.760,0:04:44.416 gjorde de en chansning 0:04:44.440,0:04:46.536 och bestämde sig för att skapa 0:04:46.560,0:04:49.016 inte en komedi om fyra senatorer, 0:04:49.040,0:04:51.920 utan en dramaserie om en enda senator. 0:04:52.760,0:04:54.416 Vet ni vilken serie? 0:04:54.440,0:04:55.736 (Skratt) 0:04:55.760,0:04:59.496 Ja, "House of Cards", och Netflix[br]slog förstås huvudet på spiken med den, 0:04:59.520,0:05:01.656 iallafall de första två säsongerna. 0:05:01.680,0:05:05.656 (Skratt) (Applåder) 0:05:05.680,0:05:08.856 "House of Cards" får 9,1[br]i snittbetyg på kurvan, 0:05:08.880,0:05:12.056 så det är precis där de ville vara. 0:05:12.080,0:05:14.440 Nu är frågan, vad hände här? 0:05:14.440,0:05:17.176 Vi har två väldigt tävlingsinriktade,[br]datakunniga företag. 0:05:17.200,0:05:20.056 De kombinerar miljontals datapunkter, 0:05:20.080,0:05:22.456 och sen går det utmärkt för en av dem, 0:05:22.480,0:05:24.336 och det fungerar inte för den andra. 0:05:24.360,0:05:25.576 Varför? 0:05:25.600,0:05:29.056 För logiken säger[br]att det borde fungera varje gång. 0:05:29.080,0:05:31.536 Om man samlar ihop miljontals datapunkter 0:05:31.560,0:05:33.296 om ett beslut man ska fatta 0:05:33.320,0:05:35.936 så borde det bli ett ganska bra beslut. 0:05:35.960,0:05:38.176 Det finns 200 år av statistik[br]att luta sig mot. 0:05:38.200,0:05:41.216 Den förstärks med kraftfulla datorer. 0:05:41.240,0:05:44.520 Det minsta man kan begära[br]är bra tv, eller hur? 0:05:45.880,0:05:48.780 Om dataanalys inte fungerar på det sättet 0:05:49.520,0:05:51.576 så blir det lite skrämmande, 0:05:51.600,0:05:55.416 för vi lever i en tid[br]där vi allt oftare lutar oss mot data 0:05:55.440,0:05:59.920 för att fatta allvarliga beslut[br]som går långt bortom tv. 0:06:00.760,0:06:04.000 Känner någon här till[br]företaget Multi-Health Systems? 0:06:05.080,0:06:06.736 Ingen. OK, det är faktiskt bra. 0:06:06.760,0:06:09.976 Multi-Health Systems[br]är ett mjukvaruföretag, 0:06:10.000,0:06:12.816 och jag hoppas att ingen i det här rummet 0:06:12.840,0:06:16.016 någonsin kommer i kontakt[br]med deras mjukvara, 0:06:16.040,0:06:18.136 för det betyder att du sitter i fängelse. 0:06:18.160,0:06:19.320 (Skratt) 0:06:19.320,0:06:22.896 Om någon här i USA sitter i fängelse[br]och de ansöker om villkorlig frigivning 0:06:22.920,0:06:25.960 är det väldigt sannolikt[br]att dataanalysprogram 0:06:25.960,0:06:30.856 från det företaget kommer att användas[br]för att pröva frigivningen. 0:06:30.880,0:06:33.456 Så det är samma princip[br]som för Amazon och Netflix, 0:06:33.480,0:06:38.096 men istället för att bestämma[br]om en tv-serie ska bli bra eller dålig 0:06:38.120,0:06:41.016 bestämmer man om en person[br]ska bli bra eller dålig.[br] 0:06:41.040,0:06:46.536 Och 22 minuter av medioker tv[br]kan vara ganska dåligt, 0:06:46.560,0:06:49.200 men jag antar att fler år[br]i fängelse är ännu värre. 0:06:50.360,0:06:54.496 Oturligt nog finns det faktiskt[br]en del bevis för att den här dataanalysen, 0:06:54.520,0:06:58.400 även om den har massor av data,[br]inte alltid producerar optimala resultat. 0:06:58.400,0:07:01.296 Det beror inte på att ett företag[br]som Multi-Health Systems 0:07:01.296,0:07:03.293 inte vet vad de ska göra[br]med informationen. 0:07:03.293,0:07:05.456 Även datakunniga företag gör fel. 0:07:05.480,0:07:08.050 Ja, till och med Google har fel ibland. 0:07:08.680,0:07:13.176 2009 sa Google att de[br]med hjälp av dataanalys 0:07:13.200,0:07:17.336 kunde förutsäga utbrott av influensa,[br]den elaka sortens förkylning, 0:07:17.360,0:07:21.136 genom att genomföra dataanalys[br]av sina Google-sökningar. 0:07:21.160,0:07:24.710 Och det fungerade fint,[br]vilket gav stor uppmärksamhet i medierna, 0:07:24.710,0:07:27.356 inklusive det yttersta beviset[br]på vetenskaplig framgång: 0:07:27.356,0:07:29.656 en artikel i tidskriften "Nature". 0:07:29.680,0:07:33.190 Det fungerade fint i flera år, 0:07:33.190,0:07:35.096 tills det ett år inte fungerade längre. 0:07:35.096,0:07:37.256 Och ingen kunde ens säga riktigt varför. 0:07:37.280,0:07:38.910 Det fungerade bara inte det året, 0:07:38.910,0:07:41.046 och det fick förstås[br]också mycket publicitet, 0:07:41.046,0:07:42.576 inklusive ett tillbakadragande 0:07:42.600,0:07:45.440 av artikeln i "Nature". 0:07:46.480,0:07:48.960 Så till och med de med[br]de datakunniga företagen 0:07:48.960,0:07:51.976 som Amazon och Google har ibland fel. 0:07:52.000,0:07:54.936 Och trots alla dessa misslyckanden 0:07:54.960,0:07:58.816 får data snabbt ett större inflytande[br]över beslut i verkliga livet - 0:07:58.840,0:08:00.656 på arbetsplatsen, 0:08:00.680,0:08:02.496 inom rättsväsendet, 0:08:02.520,0:08:03.720 inom medicin. 0:08:04.400,0:08:07.736 Så vi borde verkligen ta reda på[br]ifall data verkligen hjälper oss. 0:08:07.760,0:08:10.730 Jag har personligen sett[br]en stor del av de här problemen, 0:08:10.730,0:08:12.896 för jag arbetar inom databeräknad genetik, 0:08:12.920,0:08:15.416 vilken också är ett fält[br]där många smarta människor 0:08:15.440,0:08:19.096 använder oerhörda mängder data[br]för att fatta ganska allvarliga beslut, 0:08:19.120,0:08:22.820 som att välja cancerbehandling[br]eller utveckla en ny medicin. 0:08:23.520,0:08:25.896 Över åren har jag noterat[br]ett slags mönster, 0:08:25.920,0:08:28.290 eller en slags regel,[br]kan man säga, om skillnaden 0:08:28.290,0:08:31.096 mellan framgångsrikt[br]och icke framgångsrikt 0:08:31.120,0:08:32.736 beslutsfattande med data 0:08:32.760,0:08:36.640 och jag har hittat ett mönster[br]som är värt att dela med sig av. 0:08:38.520,0:08:40.655 När man löser ett komplext problem 0:08:40.679,0:08:42.290 gör man i grunden två saker. 0:08:42.290,0:08:43.360 Den första är 0:08:43.360,0:08:48.256 att plocka isär problemet i små bitar[br]så att man kan analysera bitarna 0:08:48.280,0:08:50.180 och sen gör man det andra steget. 0:08:50.180,0:08:52.900 Men sätter ihop bitarna igen 0:08:52.900,0:08:54.336 för att komma till slutsatsen. 0:08:54.360,0:08:56.560 Ibland måste man göra om det, 0:08:56.560,0:08:58.376 men det handlar alltid de två sakerna: 0:08:58.400,0:09:01.240 plocka isär och sätta ihop saker igen. 0:09:02.280,0:09:03.896 Det viktiga är 0:09:03.920,0:09:06.816 att data och dataanalys 0:09:06.840,0:09:09.170 bara är bra för det första steget. 0:09:09.170,0:09:12.296 Hur kraftfulla data och dataanalys än är,[br]kan bara hjälpa till med 0:09:12.296,0:09:16.056 att plocka isär ett problem[br]och förstå dess delar. 0:09:16.080,0:09:19.576 Den passar inte för[br]att sätta ihop delarna igen 0:09:19.600,0:09:21.340 för att komma till en slutsats. 0:09:21.340,0:09:23.460 Det finns ett annat verktyg[br]som kan göra det, 0:09:23.460,0:09:25.716 vi har det allihop, och det är hjärnan. 0:09:25.716,0:09:27.470 Om det finns något hjärnan är bra på 0:09:27.470,0:09:29.610 så är att det att sätta ihop[br]små delar igen, 0:09:29.610,0:09:31.896 även när den inte har all information, 0:09:31.896,0:09:33.456 och kan nå en bra slutsats, 0:09:33.480,0:09:36.290 speciellt om det är en experts hjärna. 0:09:36.290,0:09:39.156 Jag tror att det är därför[br]Netflix blev så framgångsrika, 0:09:39.156,0:09:42.696 för att de använde data och hjärnor[br]där de passade i processen. 0:09:42.720,0:09:46.256 De använder data för att först förstå[br]många små detaljer om sin publik 0:09:46.280,0:09:49.696 som de annars inte skulle[br]ha kunnat förstå på samma djup, 0:09:49.720,0:09:52.336 men beslutet om hur de olika detaljerna 0:09:52.360,0:09:55.560 skulle sättas ihop igen[br]för att bli en serie som "House of Cards" 0:09:55.560,0:09:57.136 fanns ingenstans i deras data. 0:09:57.160,0:10:01.136 Ted Sarandos och hans team[br]tog beslutet att godkänna tv-serien, 0:10:01.160,0:10:03.415 vilket förresten också betydde 0:10:03.415,0:10:06.486 att de tog en ganska stor personlig risk[br]när de tog det beslutet. 0:10:06.486,0:10:09.110 Och Amazon, å andra sidan,[br]de gjorde saken på fel sätt. 0:10:09.110,0:10:11.360 De använde data[br]för allt sitt beslutsfattande, 0:10:11.360,0:10:14.280 först när de höll tävlingen[br]för tv-koncept, 0:10:14.280,0:10:18.376 och sen när de valde "Alpha House"[br]till den serie de skulle göra. 0:10:18.400,0:10:20.896 Vilket självklart var[br]ett säkert val för dem, 0:10:20.920,0:10:23.180 för de kunde alltid peka på data och säga 0:10:23.180,0:10:25.156 "Vår data säger det här." 0:10:25.156,0:10:29.360 Men det ledde inte till[br]de enastående resultat som de hoppades på. 0:10:29.820,0:10:33.190 Så data är förstås[br]ett oerhört kraftfullt verktyg 0:10:33.190,0:10:35.210 för att fatta bättre beslut, 0:10:35.210,0:10:40.096 men jag tror att saker går fel[br]när data börjar styra besluten. 0:10:40.120,0:10:43.820 Hur kraftfull den än är,[br]så är data bara ett verktyg, 0:10:43.820,0:10:47.256 och för att hålla det i minnet tycker jag[br]den här saken är användbar. 0:10:47.280,0:10:48.496 Många av er kommer ... 0:10:48.520,0:10:49.570 (Skratt) 0:10:49.570,0:10:51.526 Innan det fanns data, var det här 0:10:51.526,0:10:53.856 beslutsstödet som användes. 0:10:53.880,0:10:55.136 (Skratt) 0:10:55.160,0:10:56.496 Många känner nog igen den. 0:10:56.520,0:10:58.473 Den här leksaken heter Magic 8 Ball, 0:10:58.497,0:10:59.650 och den är fantastisk, 0:10:59.650,0:11:02.390 för om du har ett beslut att fatta,[br]en ja- eller nejfråga, 0:11:02.400,0:11:06.376 behöver du bara skaka bollen[br]för att få ett svar - 0:11:06.400,0:11:09.216 "Förmodligen" - just här[br]i den här stunden i realtid. 0:11:09.240,0:11:11.336 Jag kan dema den senare. 0:11:11.360,0:11:12.576 (Skratt) 0:11:12.600,0:11:16.030 Så här är det förstås,[br]att jag har fattat några beslut i mitt liv 0:11:16.030,0:11:19.266 där jag i efterhand har förstått[br]att jag borde ha lyssnat på bollen. 0:11:19.266,0:11:22.456 Men om man har data tillgängliga 0:11:22.480,0:11:25.536 vill man såklart ersätta den här[br]med något lite mer sofistikerat, 0:11:25.560,0:11:29.176 till exempel dataanalys,[br]för att fatta ett bättre beslut. 0:11:29.200,0:11:31.816 Men det ändrar inte[br]de grundläggande förutsättningarna. 0:11:31.840,0:11:35.016 Så bollen kan bli allt smartare 0:11:35.040,0:11:37.856 men jag tror att vi fortfarande[br]måste fatta besluten 0:11:37.880,0:11:40.896 om vi vill åstadkomma[br]något utöver det vanliga, 0:11:40.920,0:11:42.856 längst till höger på kurvan. 0:11:42.880,0:11:47.376 Och jag tycker faktiskt att det är[br]ett väldigt uppmuntrande budskap, 0:11:47.400,0:11:51.376 att även när vi står inför[br]enorma mängder data 0:11:51.400,0:11:55.496 lönar det sig fortfarande[br]att fatta beslut, 0:11:55.520,0:11:58.176 att vara en expert på det man gör, 0:11:58.200,0:12:00.296 och att ta risker. 0:12:00.320,0:12:03.096 För i slutändan är det inte data 0:12:03.120,0:12:07.450 utan risker som kommer att ta en[br]längst ut till höger på kurvan. 0:12:07.690,0:12:09.056 Tack. 0:12:09.080,0:12:12.070 (Applåder)