1 00:00:00,820 --> 00:00:05,096 Roy Price är en man som de flesta av er förmodligen aldrig hört talas om, 2 00:00:05,120 --> 00:00:07,616 även om han kan ha varit ansvarig 3 00:00:07,640 --> 00:00:14,400 för 22 ganska mediokra minuter av ditt liv den 19 april 2013. 4 00:00:14,400 --> 00:00:17,846 Han kan också ha varit ansvarig för 22 väldigt underhållande minuter, 5 00:00:17,846 --> 00:00:20,016 men inte för så många av er. 6 00:00:20,040 --> 00:00:21,680 Och allt beror på ett beslut 7 00:00:21,680 --> 00:00:24,020 som Roy var tvungen att ta för ungefär tre år sen. 8 00:00:24,020 --> 00:00:28,816 Ni förstår, Roy Price är en hög chef inom Amazon Studios. 9 00:00:28,840 --> 00:00:31,856 Det är Amazons produktionsbolag för tv. 10 00:00:31,880 --> 00:00:35,136 Han är 47 år gammal, smal, med taggigt hår, 11 00:00:35,160 --> 00:00:39,976 beskriver sig på Twitter som "film, tv, teknik, tacos". 12 00:00:40,000 --> 00:00:45,176 Roy Price har ett ansvarsfullt jobb, för det är hans ansvar att välja 13 00:00:45,200 --> 00:00:49,256 vilka serier, vilket originalinnehåll som Amazon ska ta fram. 14 00:00:49,280 --> 00:00:51,616 Självklart innebär det hög konkurrens. 15 00:00:51,640 --> 00:00:54,376 Det görs så många tv-serier, 16 00:00:54,400 --> 00:00:56,576 så Roy kan inte välja vilken serie som helst. 17 00:00:56,600 --> 00:01:00,696 Han måste hitta en riktigt, riktigt bra serie. 18 00:01:00,720 --> 00:01:03,536 Med andra ord måste han hitta serier 19 00:01:03,560 --> 00:01:05,936 som ligger längst ut till höger på den här kurvan. 20 00:01:05,960 --> 00:01:08,616 Den här kurvan är betygsfördelningen 21 00:01:08,640 --> 00:01:13,016 för ungefär 2 500 tv-serier i IMDBs databas, 22 00:01:13,040 --> 00:01:15,936 och betygssnittet kan vara mellan 1 och 10, 23 00:01:15,960 --> 00:01:18,936 och höjden här visar hur många serier som får det betyget. 24 00:01:18,960 --> 00:01:23,520 Så om en serie får ett snittbetyg på 9 poäng eller högre är den en vinnare. 25 00:01:23,520 --> 00:01:25,496 Då har man en serie bland de 2 procenten. 26 00:01:25,520 --> 00:01:29,416 Det är serier som "Breaking Bad", "Game of Thrones", "The Wire". 27 00:01:29,440 --> 00:01:31,736 De här serierna är beroendeframkallande, 28 00:01:31,760 --> 00:01:34,560 så när man har sett en säsong säger ens hjärna liksom, 29 00:01:34,560 --> 00:01:37,016 "Var kan jag hitta fler sådana här avsnitt?" 30 00:01:37,040 --> 00:01:38,650 Den sortens serie. 31 00:01:38,920 --> 00:01:41,416 Till vänster, här borta, för att vara tydlig, 32 00:01:41,440 --> 00:01:44,616 finns en serie som heter "Toddles and Tiaras" - 33 00:01:44,640 --> 00:01:47,296 (Skratt) 34 00:01:47,320 --> 00:01:48,856 - vilket borde säga nog om 35 00:01:48,880 --> 00:01:51,071 vad som händer på den sidan av kurvan. 36 00:01:51,465 --> 00:01:55,256 Roy Price är inte orolig för att hamna på den sidan av kurvan, 37 00:01:55,280 --> 00:01:57,970 för jag tror att man behöver ha en riktigt skarp hjärna 38 00:01:57,970 --> 00:01:59,996 för att bli sämre än "Toddlers and Tiaras". 39 00:01:59,996 --> 00:02:03,896 Vad han oroar sig för är klumpen i mitten, 40 00:02:03,920 --> 00:02:05,736 klumpen av halvbra tv, 41 00:02:05,760 --> 00:02:08,616 ni vet, sådana där serier som varken är bra eller dåliga, 42 00:02:08,639 --> 00:02:10,295 som inte gör någon exalterad. 43 00:02:10,320 --> 00:02:15,110 Så han behöver bli säker på att han verkligen hamnar rätt. 44 00:02:15,110 --> 00:02:16,826 Det finns ett tryck på att lyckas, 45 00:02:16,826 --> 00:02:18,976 och det är förstås också första gången 46 00:02:19,000 --> 00:02:21,176 som Amazon ens gör något sånt här, 47 00:02:21,200 --> 00:02:24,536 så Roy Price vill inte ta några risker. 48 00:02:24,560 --> 00:02:27,016 Han vill bygga framgång. 49 00:02:27,040 --> 00:02:28,816 Han behöver en garanterad succé, 50 00:02:28,840 --> 00:02:31,416 så han anordnar en tävling. 51 00:02:31,440 --> 00:02:34,576 Han tar ett antal tv-seriekoncept 52 00:02:34,600 --> 00:02:36,896 och genom att utvärdera dem 53 00:02:36,920 --> 00:02:40,800 tar de ut åtta kandidater till tv-serier, 54 00:02:40,800 --> 00:02:44,256 och sen gör han det första avsnittet av var och en av dessa tv-serier 55 00:02:44,280 --> 00:02:47,416 och lägger ut dem gratis online så att alla kan se dem. 56 00:02:47,440 --> 00:02:49,696 Och när Amazon delar ut saker gratis 57 00:02:49,720 --> 00:02:51,256 vill man ha dem, eller hur? 58 00:02:51,280 --> 00:02:56,416 Så miljoner människor tittar på avsnitten. 59 00:02:56,440 --> 00:02:59,656 Vad de inte inser är att när de tittar på sina serier 60 00:02:59,680 --> 00:03:01,976 är det de som blir betraktade. 61 00:03:02,000 --> 00:03:04,336 De betraktas av Roy Price och hans team, 62 00:03:04,360 --> 00:03:05,736 som spelar in allt. 63 00:03:05,760 --> 00:03:09,136 De spelar in när någon trycker play, när någon pausar, 64 00:03:09,160 --> 00:03:11,696 vilka delar de hoppar över, vilka delar de ser igen. 65 00:03:11,720 --> 00:03:13,976 De samlar in miljontals datapunkter, 66 00:03:14,000 --> 00:03:16,096 för de vill ha dem 67 00:03:16,120 --> 00:03:18,816 när de bestämmer vilken tv-serie de ska göra. 68 00:03:18,840 --> 00:03:21,016 Så de samlar in datan, 69 00:03:21,040 --> 00:03:23,616 de bearbetar informationen, och ett svar träder fram, 70 00:03:23,640 --> 00:03:24,856 och svaret är, 71 00:03:24,880 --> 00:03:30,416 "Amazon borde göra en komedi om fyra republikanska senatorer i USA." 72 00:03:30,440 --> 00:03:31,656 De gjorde den serien. 73 00:03:31,680 --> 00:03:33,840 Vet någon vad serien heter? 74 00:03:34,720 --> 00:03:36,016 (Publiken: "Alpha House") 75 00:03:36,040 --> 00:03:37,496 Ja, "Alpha House", 76 00:03:37,520 --> 00:03:41,616 men det verkar faktiskt inte vara så många av er som minns den serien, 77 00:03:41,640 --> 00:03:43,496 för den blev inte så bra. 78 00:03:43,520 --> 00:03:45,376 Det blev bara en medioker serie, 79 00:03:45,400 --> 00:03:49,976 rent bokstavligen, för mitten på kurvan är 7,4, 80 00:03:50,000 --> 00:03:52,416 och "Alpha House" landade på 7,5, 81 00:03:52,440 --> 00:03:54,456 en serie strax över genomsnittet, 82 00:03:54,480 --> 00:03:57,700 men det var verkligen inte vad Roy Price och hans team siktade på. 83 00:03:58,320 --> 00:04:01,176 Men ungefär samtidigt 84 00:04:01,200 --> 00:04:02,776 på ett annat företag 85 00:04:02,800 --> 00:04:07,016 lyckades en annan hög chef ro i land en toppserie med hjälp av dataanalys, 86 00:04:07,040 --> 00:04:08,616 och han heter Ted, 87 00:04:08,640 --> 00:04:12,056 Ted Sarandos, som är innehållschef på Netflix, 88 00:04:12,080 --> 00:04:14,216 och precis som Roy letar han ständigt 89 00:04:14,240 --> 00:04:15,736 efter den stora tv-serien, 90 00:04:15,760 --> 00:04:17,730 och han använder data för att göra det, 91 00:04:17,730 --> 00:04:19,815 men han gör det på ett lite annorlunda sätt. 92 00:04:19,839 --> 00:04:23,576 Så istället för att hålla en tävling, 93 00:04:23,600 --> 00:04:27,136 tittade han och hans team på den data som de redan hade om Netflixtittare, 94 00:04:27,160 --> 00:04:29,090 som de betyg de gett till deras serier, 95 00:04:29,090 --> 00:04:31,976 tittarhistoriken, vilka serier de gillade, och så vidare. 96 00:04:32,000 --> 00:04:33,896 De använde datan för att upptäcka 97 00:04:33,920 --> 00:04:36,420 alla små detaljer om sin publik: 98 00:04:36,420 --> 00:04:37,900 vilka slags serier de gillade, 99 00:04:37,900 --> 00:04:40,266 vilka slags producenter, vilka slags skådespelare. 100 00:04:40,266 --> 00:04:42,736 Och när de väl hade satt ihop alla delar 101 00:04:42,760 --> 00:04:44,416 gjorde de en chansning 102 00:04:44,440 --> 00:04:46,536 och bestämde sig för att skapa 103 00:04:46,560 --> 00:04:49,016 inte en komedi om fyra senatorer, 104 00:04:49,040 --> 00:04:51,920 utan en dramaserie om en enda senator. 105 00:04:52,760 --> 00:04:54,416 Vet ni vilken serie? 106 00:04:54,440 --> 00:04:55,736 (Skratt) 107 00:04:55,760 --> 00:04:59,496 Ja, "House of Cards", och Netflix slog förstås huvudet på spiken med den, 108 00:04:59,520 --> 00:05:01,656 iallafall de första två säsongerna. 109 00:05:01,680 --> 00:05:05,656 (Skratt) (Applåder) 110 00:05:05,680 --> 00:05:08,856 "House of Cards" får 9,1 i snittbetyg på kurvan, 111 00:05:08,880 --> 00:05:12,056 så det är precis där de ville vara. 112 00:05:12,080 --> 00:05:14,440 Nu är frågan, vad hände här? 113 00:05:14,440 --> 00:05:17,176 Vi har två väldigt tävlingsinriktade, datakunniga företag. 114 00:05:17,200 --> 00:05:20,056 De kombinerar miljontals datapunkter, 115 00:05:20,080 --> 00:05:22,456 och sen går det utmärkt för en av dem, 116 00:05:22,480 --> 00:05:24,336 och det fungerar inte för den andra. 117 00:05:24,360 --> 00:05:25,576 Varför? 118 00:05:25,600 --> 00:05:29,056 För logiken säger att det borde fungera varje gång. 119 00:05:29,080 --> 00:05:31,536 Om man samlar ihop miljontals datapunkter 120 00:05:31,560 --> 00:05:33,296 om ett beslut man ska fatta 121 00:05:33,320 --> 00:05:35,936 så borde det bli ett ganska bra beslut. 122 00:05:35,960 --> 00:05:38,176 Det finns 200 år av statistik att luta sig mot. 123 00:05:38,200 --> 00:05:41,216 Den förstärks med kraftfulla datorer. 124 00:05:41,240 --> 00:05:44,520 Det minsta man kan begära är bra tv, eller hur? 125 00:05:45,880 --> 00:05:48,780 Om dataanalys inte fungerar på det sättet 126 00:05:49,520 --> 00:05:51,576 så blir det lite skrämmande, 127 00:05:51,600 --> 00:05:55,416 för vi lever i en tid där vi allt oftare lutar oss mot data 128 00:05:55,440 --> 00:05:59,920 för att fatta allvarliga beslut som går långt bortom tv. 129 00:06:00,760 --> 00:06:04,000 Känner någon här till företaget Multi-Health Systems? 130 00:06:05,080 --> 00:06:06,736 Ingen. OK, det är faktiskt bra. 131 00:06:06,760 --> 00:06:09,976 Multi-Health Systems är ett mjukvaruföretag, 132 00:06:10,000 --> 00:06:12,816 och jag hoppas att ingen i det här rummet 133 00:06:12,840 --> 00:06:16,016 någonsin kommer i kontakt med deras mjukvara, 134 00:06:16,040 --> 00:06:18,136 för det betyder att du sitter i fängelse. 135 00:06:18,160 --> 00:06:19,320 (Skratt) 136 00:06:19,320 --> 00:06:22,896 Om någon här i USA sitter i fängelse och de ansöker om villkorlig frigivning 137 00:06:22,920 --> 00:06:25,960 är det väldigt sannolikt att dataanalysprogram 138 00:06:25,960 --> 00:06:30,856 från det företaget kommer att användas för att pröva frigivningen. 139 00:06:30,880 --> 00:06:33,456 Så det är samma princip som för Amazon och Netflix, 140 00:06:33,480 --> 00:06:38,096 men istället för att bestämma om en tv-serie ska bli bra eller dålig 141 00:06:38,120 --> 00:06:41,016 bestämmer man om en person ska bli bra eller dålig. 142 00:06:41,040 --> 00:06:46,536 Och 22 minuter av medioker tv kan vara ganska dåligt, 143 00:06:46,560 --> 00:06:49,200 men jag antar att fler år i fängelse är ännu värre. 144 00:06:50,360 --> 00:06:54,496 Oturligt nog finns det faktiskt en del bevis för att den här dataanalysen, 145 00:06:54,520 --> 00:06:58,400 även om den har massor av data, inte alltid producerar optimala resultat. 146 00:06:58,400 --> 00:07:01,296 Det beror inte på att ett företag som Multi-Health Systems 147 00:07:01,296 --> 00:07:03,293 inte vet vad de ska göra med informationen. 148 00:07:03,293 --> 00:07:05,456 Även datakunniga företag gör fel. 149 00:07:05,480 --> 00:07:08,050 Ja, till och med Google har fel ibland. 150 00:07:08,680 --> 00:07:13,176 2009 sa Google att de med hjälp av dataanalys 151 00:07:13,200 --> 00:07:17,336 kunde förutsäga utbrott av influensa, den elaka sortens förkylning, 152 00:07:17,360 --> 00:07:21,136 genom att genomföra dataanalys av sina Google-sökningar. 153 00:07:21,160 --> 00:07:24,710 Och det fungerade fint, vilket gav stor uppmärksamhet i medierna, 154 00:07:24,710 --> 00:07:27,356 inklusive det yttersta beviset på vetenskaplig framgång: 155 00:07:27,356 --> 00:07:29,656 en artikel i tidskriften "Nature". 156 00:07:29,680 --> 00:07:33,190 Det fungerade fint i flera år, 157 00:07:33,190 --> 00:07:35,096 tills det ett år inte fungerade längre. 158 00:07:35,096 --> 00:07:37,256 Och ingen kunde ens säga riktigt varför. 159 00:07:37,280 --> 00:07:38,910 Det fungerade bara inte det året, 160 00:07:38,910 --> 00:07:41,046 och det fick förstås också mycket publicitet, 161 00:07:41,046 --> 00:07:42,576 inklusive ett tillbakadragande 162 00:07:42,600 --> 00:07:45,440 av artikeln i "Nature". 163 00:07:46,480 --> 00:07:48,960 Så till och med de med de datakunniga företagen 164 00:07:48,960 --> 00:07:51,976 som Amazon och Google har ibland fel. 165 00:07:52,000 --> 00:07:54,936 Och trots alla dessa misslyckanden 166 00:07:54,960 --> 00:07:58,816 får data snabbt ett större inflytande över beslut i verkliga livet - 167 00:07:58,840 --> 00:08:00,656 på arbetsplatsen, 168 00:08:00,680 --> 00:08:02,496 inom rättsväsendet, 169 00:08:02,520 --> 00:08:03,720 inom medicin. 170 00:08:04,400 --> 00:08:07,736 Så vi borde verkligen ta reda på ifall data verkligen hjälper oss. 171 00:08:07,760 --> 00:08:10,730 Jag har personligen sett en stor del av de här problemen, 172 00:08:10,730 --> 00:08:12,896 för jag arbetar inom databeräknad genetik, 173 00:08:12,920 --> 00:08:15,416 vilken också är ett fält där många smarta människor 174 00:08:15,440 --> 00:08:19,096 använder oerhörda mängder data för att fatta ganska allvarliga beslut, 175 00:08:19,120 --> 00:08:22,820 som att välja cancerbehandling eller utveckla en ny medicin. 176 00:08:23,520 --> 00:08:25,896 Över åren har jag noterat ett slags mönster, 177 00:08:25,920 --> 00:08:28,290 eller en slags regel, kan man säga, om skillnaden 178 00:08:28,290 --> 00:08:31,096 mellan framgångsrikt och icke framgångsrikt 179 00:08:31,120 --> 00:08:32,736 beslutsfattande med data 180 00:08:32,760 --> 00:08:36,640 och jag har hittat ett mönster som är värt att dela med sig av. 181 00:08:38,520 --> 00:08:40,655 När man löser ett komplext problem 182 00:08:40,679 --> 00:08:42,290 gör man i grunden två saker. 183 00:08:42,290 --> 00:08:43,360 Den första är 184 00:08:43,360 --> 00:08:48,256 att plocka isär problemet i små bitar så att man kan analysera bitarna 185 00:08:48,280 --> 00:08:50,180 och sen gör man det andra steget. 186 00:08:50,180 --> 00:08:52,900 Men sätter ihop bitarna igen 187 00:08:52,900 --> 00:08:54,336 för att komma till slutsatsen. 188 00:08:54,360 --> 00:08:56,560 Ibland måste man göra om det, 189 00:08:56,560 --> 00:08:58,376 men det handlar alltid de två sakerna: 190 00:08:58,400 --> 00:09:01,240 plocka isär och sätta ihop saker igen. 191 00:09:02,280 --> 00:09:03,896 Det viktiga är 192 00:09:03,920 --> 00:09:06,816 att data och dataanalys 193 00:09:06,840 --> 00:09:09,170 bara är bra för det första steget. 194 00:09:09,170 --> 00:09:12,296 Hur kraftfulla data och dataanalys än är, kan bara hjälpa till med 195 00:09:12,296 --> 00:09:16,056 att plocka isär ett problem och förstå dess delar. 196 00:09:16,080 --> 00:09:19,576 Den passar inte för att sätta ihop delarna igen 197 00:09:19,600 --> 00:09:21,340 för att komma till en slutsats. 198 00:09:21,340 --> 00:09:23,460 Det finns ett annat verktyg som kan göra det, 199 00:09:23,460 --> 00:09:25,716 vi har det allihop, och det är hjärnan. 200 00:09:25,716 --> 00:09:27,470 Om det finns något hjärnan är bra på 201 00:09:27,470 --> 00:09:29,610 så är att det att sätta ihop små delar igen, 202 00:09:29,610 --> 00:09:31,896 även när den inte har all information, 203 00:09:31,896 --> 00:09:33,456 och kan nå en bra slutsats, 204 00:09:33,480 --> 00:09:36,290 speciellt om det är en experts hjärna. 205 00:09:36,290 --> 00:09:39,156 Jag tror att det är därför Netflix blev så framgångsrika, 206 00:09:39,156 --> 00:09:42,696 för att de använde data och hjärnor där de passade i processen. 207 00:09:42,720 --> 00:09:46,256 De använder data för att först förstå många små detaljer om sin publik 208 00:09:46,280 --> 00:09:49,696 som de annars inte skulle ha kunnat förstå på samma djup, 209 00:09:49,720 --> 00:09:52,336 men beslutet om hur de olika detaljerna 210 00:09:52,360 --> 00:09:55,560 skulle sättas ihop igen för att bli en serie som "House of Cards" 211 00:09:55,560 --> 00:09:57,136 fanns ingenstans i deras data. 212 00:09:57,160 --> 00:10:01,136 Ted Sarandos och hans team tog beslutet att godkänna tv-serien, 213 00:10:01,160 --> 00:10:03,415 vilket förresten också betydde 214 00:10:03,415 --> 00:10:06,486 att de tog en ganska stor personlig risk när de tog det beslutet. 215 00:10:06,486 --> 00:10:09,110 Och Amazon, å andra sidan, de gjorde saken på fel sätt. 216 00:10:09,110 --> 00:10:11,360 De använde data för allt sitt beslutsfattande, 217 00:10:11,360 --> 00:10:14,280 först när de höll tävlingen för tv-koncept, 218 00:10:14,280 --> 00:10:18,376 och sen när de valde "Alpha House" till den serie de skulle göra. 219 00:10:18,400 --> 00:10:20,896 Vilket självklart var ett säkert val för dem, 220 00:10:20,920 --> 00:10:23,180 för de kunde alltid peka på data och säga 221 00:10:23,180 --> 00:10:25,156 "Vår data säger det här." 222 00:10:25,156 --> 00:10:29,360 Men det ledde inte till de enastående resultat som de hoppades på. 223 00:10:29,820 --> 00:10:33,190 Så data är förstås ett oerhört kraftfullt verktyg 224 00:10:33,190 --> 00:10:35,210 för att fatta bättre beslut, 225 00:10:35,210 --> 00:10:40,096 men jag tror att saker går fel när data börjar styra besluten. 226 00:10:40,120 --> 00:10:43,820 Hur kraftfull den än är, så är data bara ett verktyg, 227 00:10:43,820 --> 00:10:47,256 och för att hålla det i minnet tycker jag den här saken är användbar. 228 00:10:47,280 --> 00:10:48,496 Många av er kommer ... 229 00:10:48,520 --> 00:10:49,570 (Skratt) 230 00:10:49,570 --> 00:10:51,526 Innan det fanns data, var det här 231 00:10:51,526 --> 00:10:53,856 beslutsstödet som användes. 232 00:10:53,880 --> 00:10:55,136 (Skratt) 233 00:10:55,160 --> 00:10:56,496 Många känner nog igen den. 234 00:10:56,520 --> 00:10:58,473 Den här leksaken heter Magic 8 Ball, 235 00:10:58,497 --> 00:10:59,650 och den är fantastisk, 236 00:10:59,650 --> 00:11:02,390 för om du har ett beslut att fatta, en ja- eller nejfråga, 237 00:11:02,400 --> 00:11:06,376 behöver du bara skaka bollen för att få ett svar - 238 00:11:06,400 --> 00:11:09,216 "Förmodligen" - just här i den här stunden i realtid. 239 00:11:09,240 --> 00:11:11,336 Jag kan dema den senare. 240 00:11:11,360 --> 00:11:12,576 (Skratt) 241 00:11:12,600 --> 00:11:16,030 Så här är det förstås, att jag har fattat några beslut i mitt liv 242 00:11:16,030 --> 00:11:19,266 där jag i efterhand har förstått att jag borde ha lyssnat på bollen. 243 00:11:19,266 --> 00:11:22,456 Men om man har data tillgängliga 244 00:11:22,480 --> 00:11:25,536 vill man såklart ersätta den här med något lite mer sofistikerat, 245 00:11:25,560 --> 00:11:29,176 till exempel dataanalys, för att fatta ett bättre beslut. 246 00:11:29,200 --> 00:11:31,816 Men det ändrar inte de grundläggande förutsättningarna. 247 00:11:31,840 --> 00:11:35,016 Så bollen kan bli allt smartare 248 00:11:35,040 --> 00:11:37,856 men jag tror att vi fortfarande måste fatta besluten 249 00:11:37,880 --> 00:11:40,896 om vi vill åstadkomma något utöver det vanliga, 250 00:11:40,920 --> 00:11:42,856 längst till höger på kurvan. 251 00:11:42,880 --> 00:11:47,376 Och jag tycker faktiskt att det är ett väldigt uppmuntrande budskap, 252 00:11:47,400 --> 00:11:51,376 att även när vi står inför enorma mängder data 253 00:11:51,400 --> 00:11:55,496 lönar det sig fortfarande att fatta beslut, 254 00:11:55,520 --> 00:11:58,176 att vara en expert på det man gör, 255 00:11:58,200 --> 00:12:00,296 och att ta risker. 256 00:12:00,320 --> 00:12:03,096 För i slutändan är det inte data 257 00:12:03,120 --> 00:12:07,450 utan risker som kommer att ta en längst ut till höger på kurvan. 258 00:12:07,690 --> 00:12:09,056 Tack. 259 00:12:09,080 --> 00:12:12,070 (Applåder)