[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:06.46,0:00:08.31,Default,,0000,0000,0000,,Vous venez d'être arrêté par la police. Dialogue: 0,0:00:09.77,0:00:11.48,Default,,0000,0000,0000,,Vous étiez en voyage aux États-Unis. Dialogue: 0,0:00:12.52,0:00:16.16,Default,,0000,0000,0000,,Au bord d'une petite route, on vous\Na arrêté, on vous a jeté en prison, Dialogue: 0,0:00:16.16,0:00:17.80,Default,,0000,0000,0000,,et vous serez présenté à un juge. Dialogue: 0,0:00:17.80,0:00:21.61,Default,,0000,0000,0000,,On vous accuse d'un délit que, bien sûr,\Nvous pensez que vous n'avez pas commis. Dialogue: 0,0:00:21.84,0:00:23.16,Default,,0000,0000,0000,,Et là on vous explique que Dialogue: 0,0:00:23.49,0:00:25.32,Default,,0000,0000,0000,,le juge va d’abord décider Dialogue: 0,0:00:25.32,0:00:27.94,Default,,0000,0000,0000,,si on vous libère sous caution\Nen attendant le jugement, Dialogue: 0,0:00:27.94,0:00:29.81,Default,,0000,0000,0000,,peut-être dans plusieurs semaines, Dialogue: 0,0:00:29.81,0:00:33.03,Default,,0000,0000,0000,,ou si on vous garde au frais,\Nce qui serait peut-être bien ce soir, Dialogue: 0,0:00:33.03,0:00:34.08,Default,,0000,0000,0000,,pendant quelque temps. Dialogue: 0,0:00:35.13,0:00:37.13,Default,,0000,0000,0000,,Enfin quand même, vous préféreriez sortir. Dialogue: 0,0:00:38.23,0:00:39.57,Default,,0000,0000,0000,,Et voilà qu'on vous dit : Dialogue: 0,0:00:39.57,0:00:43.49,Default,,0000,0000,0000,,« Cette décision de vous\Nlibérer sous caution ou pas, Dialogue: 0,0:00:43.49,0:00:45.90,Default,,0000,0000,0000,,elle va être prise par un algorithme. » Dialogue: 0,0:00:47.34,0:00:49.62,Default,,0000,0000,0000,,Techniquement, c'est\Npar un juge, mais en fait, Dialogue: 0,0:00:49.62,0:00:52.46,Default,,0000,0000,0000,,il y a un algorithme\Nqui va étudier votre profil, Dialogue: 0,0:00:52.96,0:00:54.84,Default,,0000,0000,0000,,calculer le risque que vous présentez, Dialogue: 0,0:00:54.84,0:00:57.80,Default,,0000,0000,0000,,qui, en fonction de cela, va faire\Nune recommandation au juge, Dialogue: 0,0:00:57.98,0:01:00.98,Default,,0000,0000,0000,,et, pratiquement toujours,\Nle juge va suivre la recommandation. Dialogue: 0,0:01:02.38,0:01:03.86,Default,,0000,0000,0000,,Qu'est-ce que ça vous inspire ? Dialogue: 0,0:01:05.27,0:01:06.42,Default,,0000,0000,0000,,Ça vous inquiète un peu. Dialogue: 0,0:01:07.90,0:01:10.57,Default,,0000,0000,0000,,En général, si je parle d'algorithmes,\Nça jette un froid, Dialogue: 0,0:01:10.57,0:01:14.22,Default,,0000,0000,0000,,mais on est très inquiets dès\Nqu'on nous parle d'algorithmes. Dialogue: 0,0:01:14.22,0:01:15.32,Default,,0000,0000,0000,,L'an dernier en France, Dialogue: 0,0:01:15.32,0:01:19.12,Default,,0000,0000,0000,,on a eu deux grands rapports\Nsur l’IA et les big data, Dialogue: 0,0:01:19.12,0:01:21.24,Default,,0000,0000,0000,,par la CNIL et par la Commission Villani. Dialogue: 0,0:01:21.24,0:01:22.90,Default,,0000,0000,0000,,Les deux ont pris le même exemple, Dialogue: 0,0:01:22.90,0:01:24.05,Default,,0000,0000,0000,,celui dont j'ai parlé, Dialogue: 0,0:01:24.05,0:01:28.40,Default,,0000,0000,0000,,un algorithme américain d'aide\Nà la décision judiciaire, Compas, Dialogue: 0,0:01:28.40,0:01:30.97,Default,,0000,0000,0000,,pour expliquer, dans les deux\Ncas avec la même formule, Dialogue: 0,0:01:30.97,0:01:34.30,Default,,0000,0000,0000,,qu'il est très important\Nque l'homme garde la main, Dialogue: 0,0:01:35.20,0:01:37.96,Default,,0000,0000,0000,,qu'on ne laisse pas les algorithmes\Ndécider à notre place. Dialogue: 0,0:01:38.57,0:01:42.25,Default,,0000,0000,0000,,Et c'est un sujet important, parce que,\Ndans tous les domaines de notre vie, Dialogue: 0,0:01:42.25,0:01:44.78,Default,,0000,0000,0000,,ils prennent une place\Nde plus en plus importante. Dialogue: 0,0:01:44.78,0:01:46.59,Default,,0000,0000,0000,,Si vous avez passé le bac cette année, Dialogue: 0,0:01:47.03,0:01:50.03,Default,,0000,0000,0000,,c'est un algorithme qui décide\Nquelles études vous allez faire. Dialogue: 0,0:01:50.88,0:01:54.10,Default,,0000,0000,0000,,Et quand vous aurez fini vos études,\Nque vous chercherez un job, Dialogue: 0,0:01:54.10,0:01:57.39,Default,,0000,0000,0000,,vous enverrez des CV : c'est sans\Ndoute un algorithme qui les triera. Dialogue: 0,0:01:58.22,0:02:02.14,Default,,0000,0000,0000,,Ensuite peut-être même que l'entretien que\Nvous passerez, si votre CV a été trié, Dialogue: 0,0:02:02.14,0:02:04.45,Default,,0000,0000,0000,,sera analysé en vidéo par un algorithme, Dialogue: 0,0:02:04.45,0:02:06.76,Default,,0000,0000,0000,,ça commence à être\Nde plus en plus fréquent. Dialogue: 0,0:02:06.94,0:02:09.84,Default,,0000,0000,0000,,Puis si vous avez le job,\Nil faudra une voiture pour y aller. Dialogue: 0,0:02:10.37,0:02:11.72,Default,,0000,0000,0000,,Alors il faudra un crédit - Dialogue: 0,0:02:11.72,0:02:14.18,Default,,0000,0000,0000,,c'est un algorithme qui décidera - Dialogue: 0,0:02:14.18,0:02:18.59,Default,,0000,0000,0000,,puis une assurance - un algorithme fixera\Nle prix de de la prime d'assurance - Dialogue: 0,0:02:18.59,0:02:22.12,Default,,0000,0000,0000,,et ainsi de suite jusqu'au jour où\Nvous serez percuté par une voiture, Dialogue: 0,0:02:22.12,0:02:25.54,Default,,0000,0000,0000,,dont l'algorithme aura décidé qu'il\Nvalait mieux vous tuer vous que vous. Dialogue: 0,0:02:25.54,0:02:27.90,Default,,0000,0000,0000,,Puisqu'on nous explique\Nque les voitures autonomes Dialogue: 0,0:02:27.90,0:02:31.31,Default,,0000,0000,0000,,vont être pilotées par des algorithmes\Nqui feront ce genre de calculs. Dialogue: 0,0:02:31.31,0:02:32.46,Default,,0000,0000,0000,,Bref, Dialogue: 0,0:02:32.46,0:02:37.92,Default,,0000,0000,0000,,on nous décrit sans cesse un monde où\Non va être les victimes des algorithmes, Dialogue: 0,0:02:37.93,0:02:41.63,Default,,0000,0000,0000,,un peu comme les passagers du vaisseau\Nde « 2001, l'Odyssée de l'espace », Dialogue: 0,0:02:41.63,0:02:44.52,Default,,0000,0000,0000,,sont sous l'emprise de l'ordinateur,\Nvous vous rappelez ? Dialogue: 0,0:02:45.96,0:02:48.48,Default,,0000,0000,0000,,Je voudrais vous inviter\Nà reconsidérer cette vision, Dialogue: 0,0:02:49.47,0:02:52.61,Default,,0000,0000,0000,,à questionner cette aversion\Naux algorithmes que nous avons, Dialogue: 0,0:02:53.50,0:02:57.33,Default,,0000,0000,0000,,et peut-être même à changer\Nd'avis sur les algorithmes. Dialogue: 0,0:02:58.85,0:03:02.27,Default,,0000,0000,0000,,Qu'est-ce qu'on reproche aux algorithmes,\Ndans toutes ces histoires ? Dialogue: 0,0:03:02.27,0:03:05.76,Default,,0000,0000,0000,,La 1e chose qu'on leur reproche\Ntrès souvent, c'est d'avoir des biais. Dialogue: 0,0:03:05.76,0:03:08.15,Default,,0000,0000,0000,,Vous avez entendu parler\Ndes biais algorithmiques. Dialogue: 0,0:03:08.48,0:03:09.78,Default,,0000,0000,0000,,Par exemple, Dialogue: 0,0:03:09.78,0:03:12.18,Default,,0000,0000,0000,,le fameux algorithme Compas\Ndont je vous parlais Dialogue: 0,0:03:12.18,0:03:15.09,Default,,0000,0000,0000,,a été étudié par des\Njournalistes de ProPublica, Dialogue: 0,0:03:15.09,0:03:17.72,Default,,0000,0000,0000,,grand organisme de\Njournalisme d'investigation, Dialogue: 0,0:03:18.32,0:03:21.49,Default,,0000,0000,0000,,qui ont démontré que\Nl'algorithme est raciste Dialogue: 0,0:03:21.49,0:03:24.93,Default,,0000,0000,0000,,puisqu'il se trompe plus souvent\Nau détriment des Noirs que des Blancs, Dialogue: 0,0:03:24.93,0:03:27.84,Default,,0000,0000,0000,,et plus souvent en faveur des Blancs\Nqu'en faveur des Noirs. Dialogue: 0,0:03:27.84,0:03:29.74,Default,,0000,0000,0000,,Donc c'est un algorithme qui est biaisé. Dialogue: 0,0:03:30.78,0:03:33.44,Default,,0000,0000,0000,,On vous a peut-être parlé\Nd'un algorithme de recrutement Dialogue: 0,0:03:33.44,0:03:35.30,Default,,0000,0000,0000,,qu'Amazon a dû cesser d'utiliser Dialogue: 0,0:03:35.30,0:03:38.83,Default,,0000,0000,0000,,parce que l'algorithme avait été\Nentraîné sur des données existantes Dialogue: 0,0:03:38.83,0:03:42.11,Default,,0000,0000,0000,,et donc, comme Amazon avait recruté\Nbeaucoup d'hommes dans le passé, Dialogue: 0,0:03:42.11,0:03:45.57,Default,,0000,0000,0000,,l'algorithme préférait les profils\Nd'hommes aux profils de femmes, Dialogue: 0,0:03:45.57,0:03:47.24,Default,,0000,0000,0000,,et donc l'algorithme était sexiste. Dialogue: 0,0:03:47.74,0:03:51.84,Default,,0000,0000,0000,,Peut-être avez entendu parler de\Nces algorithmes de reconnaissance faciale Dialogue: 0,0:03:52.03,0:03:54.87,Default,,0000,0000,0000,,qui sont assez bons\Npour reconnaître les blancs Dialogue: 0,0:03:54.87,0:03:57.44,Default,,0000,0000,0000,,mais qui sont très mauvais\Npour reconnaître les noirs. Dialogue: 0,0:03:57.44,0:03:59.68,Default,,0000,0000,0000,,Bref, il y a des algorithmes\Nqui ont des biais. Dialogue: 0,0:04:00.35,0:04:02.49,Default,,0000,0000,0000,,Et soyons clairs, c'est vrai. Dialogue: 0,0:04:03.07,0:04:04.08,Default,,0000,0000,0000,,Ces algorithmes, Dialogue: 0,0:04:04.26,0:04:06.69,Default,,0000,0000,0000,,même si, certains de ces\Nexemples ont été exagérés, Dialogue: 0,0:04:07.05,0:04:09.46,Default,,0000,0000,0000,,ces algorithmes biaisés existent. Dialogue: 0,0:04:09.87,0:04:13.52,Default,,0000,0000,0000,,Rien de plus facile d'ailleurs\Nque de fabriquer un algorithme biaisé. Dialogue: 0,0:04:13.52,0:04:16.48,Default,,0000,0000,0000,,Mais, quand on dit :\N« Il existe des algorithmes biaisés, Dialogue: 0,0:04:16.68,0:04:19.02,Default,,0000,0000,0000,,donc il faut se méfier\Nde tous les algorithmes, » Dialogue: 0,0:04:19.70,0:04:24.44,Default,,0000,0000,0000,,est-ce qu'on n'est pas en train de\Ncommettre la même erreur de logique Dialogue: 0,0:04:24.44,0:04:26.63,Default,,0000,0000,0000,,que les racistes qui\Nutilisent un stéréotype ? Dialogue: 0,0:04:27.86,0:04:31.62,Default,,0000,0000,0000,,On est en train, en fait, de reprocher aux\Nalgorithmes de faire des stéréotypes, Dialogue: 0,0:04:31.62,0:04:34.32,Default,,0000,0000,0000,,en utilisant un stéréotype\Ncontre les algorithmes. Dialogue: 0,0:04:34.32,0:04:35.85,Default,,0000,0000,0000,,C'est quand même un peu bizarre. Dialogue: 0,0:04:35.92,0:04:37.03,Default,,0000,0000,0000,,La question n'est pas : Dialogue: 0,0:04:37.03,0:04:41.04,Default,,0000,0000,0000,,« Y a-t-il des algorithmes biaisés ? » -\Nbien sûr qu'il y en a - mais : Dialogue: 0,0:04:41.04,0:04:44.15,Default,,0000,0000,0000,,« Est-ce qu'on peut faire des\Nalgorithmes qui ne le soient pas ? » Dialogue: 0,0:04:44.15,0:04:46.27,Default,,0000,0000,0000,,ou qui en tout cas le\Nsoient moins que nous. Dialogue: 0,0:04:46.27,0:04:48.23,Default,,0000,0000,0000,,Il faut arrêter de se comparer à un idéal Dialogue: 0,0:04:48.23,0:04:52.42,Default,,0000,0000,0000,,et se demander ce que ferait les humains\Nauxquels on compare ces algorithmes. Dialogue: 0,0:04:53.39,0:04:54.58,Default,,0000,0000,0000,,Et là, c'est intéressant. Dialogue: 0,0:04:55.15,0:04:58.23,Default,,0000,0000,0000,,Prenez les juges américains,\Npuisque c'est d'eux dont on parlait. Dialogue: 0,0:04:58.23,0:05:01.19,Default,,0000,0000,0000,,Il y a une étude sur les juges\Nde l'immigration aux États-Unis Dialogue: 0,0:05:01.88,0:05:04.97,Default,,0000,0000,0000,,qui montre qu'il y a des disparités\Nconsidérables entre deux juges Dialogue: 0,0:05:04.97,0:05:07.25,Default,,0000,0000,0000,,qui ont la même population de demandeurs. Dialogue: 0,0:05:07.25,0:05:08.26,Default,,0000,0000,0000,,Dans un cas extrême, Dialogue: 0,0:05:08.52,0:05:09.100,Default,,0000,0000,0000,,en Floride, dans la même ville, Dialogue: 0,0:05:10.11,0:05:12.20,Default,,0000,0000,0000,,dans le même tribunal,\Nvous avez deux juges, Dialogue: 0,0:05:12.21,0:05:15.07,Default,,0000,0000,0000,,auxquels les demandeurs d'asile\Nsont affectés aléatoirement, Dialogue: 0,0:05:15.44,0:05:19.53,Default,,0000,0000,0000,,Il y en a un qui accorde 4%\Ndes demandes, l'autre 88%. Dialogue: 0,0:05:20.80,0:05:22.08,Default,,0000,0000,0000,,Ce n'est pas un biais, ça ? Dialogue: 0,0:05:22.31,0:05:24.17,Default,,0000,0000,0000,,Vous pensez que l'algorithme est pire ? Dialogue: 0,0:05:24.58,0:05:28.48,Default,,0000,0000,0000,,Dans tous les domaines où on regarde le\Njugement humain, on trouve ces biais. Dialogue: 0,0:05:28.48,0:05:32.06,Default,,0000,0000,0000,,Exemple au bureau des brevets américains ;\Nvous direz : « Pas très grave. » Dialogue: 0,0:05:32.06,0:05:34.49,Default,,0000,0000,0000,,Mais si vous êtes l'inventeur\Nqui dépose un brevet, Dialogue: 0,0:05:34.49,0:05:35.95,Default,,0000,0000,0000,,ça vous embête un peu Dialogue: 0,0:05:35.95,0:05:40.57,Default,,0000,0000,0000,,qu'il y ait des employés qui donnent\Ndeux fois moins de brevets que d'autres. Dialogue: 0,0:05:42.33,0:05:43.35,Default,,0000,0000,0000,,Plus embêtant : Dialogue: 0,0:05:43.35,0:05:46.25,Default,,0000,0000,0000,,si vous avez à faire un jour au service Dialogue: 0,0:05:46.25,0:05:47.76,Default,,0000,0000,0000,,qui s'occupe de venir décider Dialogue: 0,0:05:47.76,0:05:52.24,Default,,0000,0000,0000,,si vous êtes un mauvais parent\Net si on va vous retirer vos enfants, Dialogue: 0,0:05:52.24,0:05:54.32,Default,,0000,0000,0000,,en fonction du travailleur social, Dialogue: 0,0:05:54.32,0:05:56.84,Default,,0000,0000,0000,,vous avez des écarts là aussi\Nqui vont de un à trois. Dialogue: 0,0:05:57.99,0:06:01.28,Default,,0000,0000,0000,,Donc les biais des algorithmes\Nsont un vrai problème, Dialogue: 0,0:06:01.28,0:06:04.24,Default,,0000,0000,0000,,mais enfin, les biais des humains\Nsont un vrai problème aussi. Dialogue: 0,0:06:04.24,0:06:06.82,Default,,0000,0000,0000,,Pour que ils soient\Naussi biaisés que les humains, Dialogue: 0,0:06:06.82,0:06:10.25,Default,,0000,0000,0000,,il faudrait que les algorithmes soient\Nvraiment très très très biaisés. Dialogue: 0,0:06:10.25,0:06:14.38,Default,,0000,0000,0000,,On a un autre problème, qui est\Nen fait beaucoup plus important : Dialogue: 0,0:06:14.38,0:06:18.06,Default,,0000,0000,0000,,même les humains les plus biaisés Dialogue: 0,0:06:18.06,0:06:20.74,Default,,0000,0000,0000,,ne se trompent pas seulement\Ndans le sens de leurs biais. Dialogue: 0,0:06:20.74,0:06:24.71,Default,,0000,0000,0000,,Le biais, c'est une erreur prévisible,\Nune erreur qu'on commet pour une raison. Dialogue: 0,0:06:24.71,0:06:26.87,Default,,0000,0000,0000,,Mais on peut aussi se tromper sans raison. Dialogue: 0,0:06:27.38,0:06:28.71,Default,,0000,0000,0000,,Prenez le recruteur sexiste, Dialogue: 0,0:06:29.18,0:06:31.70,Default,,0000,0000,0000,,qui va recruter beaucoup\Nplus d'hommes que de femmes, Dialogue: 0,0:06:32.15,0:06:33.25,Default,,0000,0000,0000,,déjà, c'est une erreur, Dialogue: 0,0:06:33.47,0:06:36.47,Default,,0000,0000,0000,,mais vous pensez que parmi les\Nhommes, il va recruter les bons ? Dialogue: 0,0:06:37.33,0:06:41.78,Default,,0000,0000,0000,,S'il n'est pas très malin, il n'y a pas de\Nraison qu'il recrute les meilleurs hommes. Dialogue: 0,0:06:41.78,0:06:45.02,Default,,0000,0000,0000,,Il va se tromper aussi dans ses choix\Nà l'intérieur d'une catégorie. Dialogue: 0,0:06:45.26,0:06:50.79,Default,,0000,0000,0000,,Et cette erreur sans raison qu'on\Nsoit capable d'identifier clairement, Dialogue: 0,0:06:50.79,0:06:53.55,Default,,0000,0000,0000,,c'est ce qu'on appelle le bruit,\Nc'est l'erreur aléatoire. Dialogue: 0,0:06:53.58,0:06:56.38,Default,,0000,0000,0000,,Le biais, c'est l'erreur\Ndirectionnelle, explicable ; Dialogue: 0,0:06:56.38,0:07:00.18,Default,,0000,0000,0000,,le bruit, c'est l'erreur qu'on ne sait\Npas expliquer, l'erreur aléatoire. Dialogue: 0,0:07:00.18,0:07:04.05,Default,,0000,0000,0000,,L'exemple le plus frappant, pour vous\Nen donner une représentation tangible, Dialogue: 0,0:07:04.05,0:07:08.57,Default,,0000,0000,0000,,c'est quand on prend la même personne en\Nlui demandant de faire le même jugement, Dialogue: 0,0:07:08.57,0:07:09.85,Default,,0000,0000,0000,,à partir des mêmes données, Dialogue: 0,0:07:10.61,0:07:11.85,Default,,0000,0000,0000,,à deux moments différents. Dialogue: 0,0:07:12.50,0:07:14.88,Default,,0000,0000,0000,,Il y a par exemple des\Nétudes sur les radiologues. Dialogue: 0,0:07:14.92,0:07:16.11,Default,,0000,0000,0000,,On leur montre une radio, Dialogue: 0,0:07:16.80,0:07:19.14,Default,,0000,0000,0000,,qu'en fait ils ont déjà\Nvue il y a quelques mois. Dialogue: 0,0:07:19.25,0:07:23.77,Default,,0000,0000,0000,,Ils en ont vu des centaines depuis, donc\Nils ne se souviennent pas de la radio. Dialogue: 0,0:07:23.84,0:07:25.92,Default,,0000,0000,0000,,Et dans un nombre non négligeable de cas, Dialogue: 0,0:07:25.92,0:07:30.46,Default,,0000,0000,0000,,leur jugement, leur diagnostic,\Nva changer entre les deux fois. Dialogue: 0,0:07:30.46,0:07:33.44,Default,,0000,0000,0000,,Ou bien prenez un exemple\Nencore plus étonnant : Dialogue: 0,0:07:34.03,0:07:36.54,Default,,0000,0000,0000,,les experts en empreintes digitales. Dialogue: 0,0:07:37.50,0:07:39.00,Default,,0000,0000,0000,,Quand vous leur soumettez Dialogue: 0,0:07:39.00,0:07:41.29,Default,,0000,0000,0000,,l'empreinte relevée sur la scène du crime Dialogue: 0,0:07:41.29,0:07:43.40,Default,,0000,0000,0000,,et l'empreinte prélevée sur le suspect, Dialogue: 0,0:07:43.40,0:07:45.92,Default,,0000,0000,0000,,en lui demandant de tremper\Nson doigt dans l'encre, Dialogue: 0,0:07:45.92,0:07:47.84,Default,,0000,0000,0000,,en leur demandant si ça correspond. Dialogue: 0,0:07:47.84,0:07:49.13,Default,,0000,0000,0000,,Ils vous disent oui ou non. Dialogue: 0,0:07:49.67,0:07:52.44,Default,,0000,0000,0000,,Vous leur montrez les mêmes\Nempreintes des mois plus tard - Dialogue: 0,0:07:52.44,0:07:54.82,Default,,0000,0000,0000,,là aussi, ils en ont vu\Ndes centaines entretemps - Dialogue: 0,0:07:54.82,0:07:58.39,Default,,0000,0000,0000,,dans un nombre non négligeable de cas,\Nstatistiquement significatifs, Dialogue: 0,0:07:58.39,0:07:59.58,Default,,0000,0000,0000,,leur jugement va changer. Dialogue: 0,0:08:00.39,0:08:03.22,Default,,0000,0000,0000,,Donc ce jugement humain\Nqu'on croit fiable, Dialogue: 0,0:08:03.22,0:08:04.64,Default,,0000,0000,0000,,qu'on croit stable, Dialogue: 0,0:08:04.64,0:08:07.02,Default,,0000,0000,0000,,en fait, il a une grande\Ncomposante de bruit, Dialogue: 0,0:08:07.02,0:08:09.36,Default,,0000,0000,0000,,il a une grande composante d'aléatoire. Dialogue: 0,0:08:10.18,0:08:11.42,Default,,0000,0000,0000,,Pourquoi c'est important ? Dialogue: 0,0:08:11.45,0:08:14.85,Default,,0000,0000,0000,,Parce que l'algorithme, c'est ça,\Nsa force : lui, il n'a pas de bruit. Dialogue: 0,0:08:15.77,0:08:19.91,Default,,0000,0000,0000,,Si on donne à l'algorithme les mêmes\Ndonnées, il donne la même réponse. Dialogue: 0,0:08:20.11,0:08:21.51,Default,,0000,0000,0000,,Donc il peut avoir des biais, Dialogue: 0,0:08:22.03,0:08:24.37,Default,,0000,0000,0000,,mais il en aura moins que\Nla plupart des humains, Dialogue: 0,0:08:24.79,0:08:26.61,Default,,0000,0000,0000,,et surtout il n'aura pas de bruit, Dialogue: 0,0:08:27.17,0:08:29.75,Default,,0000,0000,0000,,donc fera beaucoup moins\Nd'erreurs que les humains. Dialogue: 0,0:08:29.75,0:08:31.52,Default,,0000,0000,0000,,C'est ce qui explique sa supériorité. Dialogue: 0,0:08:32.50,0:08:35.29,Default,,0000,0000,0000,,Mais je ne vous sens pas convaincus.\N(Rires) Dialogue: 0,0:08:35.54,0:08:36.83,Default,,0000,0000,0000,,Vous ne voulez toujours pas Dialogue: 0,0:08:36.83,0:08:40.79,Default,,0000,0000,0000,,que ça soit un algorithme qui vous juge\Nsur le bord de la route en Louisiane. Dialogue: 0,0:08:40.79,0:08:42.22,Default,,0000,0000,0000,,Non, vous n'en avez pas envie. Dialogue: 0,0:08:43.13,0:08:44.56,Default,,0000,0000,0000,,Je crois que je sais pourquoi. Dialogue: 0,0:08:45.42,0:08:48.85,Default,,0000,0000,0000,,C'est parce que l'algorithme,\Non ne comprend pas ce que c'est. Dialogue: 0,0:08:50.38,0:08:52.93,Default,,0000,0000,0000,,C'est opaque, ce n'est pas transparent - Dialogue: 0,0:08:52.93,0:08:54.85,Default,,0000,0000,0000,,le jugement humain non plus d'ailleurs - Dialogue: 0,0:08:54.85,0:08:57.94,Default,,0000,0000,0000,,mais être jugé par un homme\Nou par une femme, Dialogue: 0,0:08:57.94,0:08:59.99,Default,,0000,0000,0000,,vous savez à peu près\Ncomment ça fonctionne. Dialogue: 0,0:08:59.99,0:09:01.07,Default,,0000,0000,0000,,Un algorithme, Dialogue: 0,0:09:01.07,0:09:02.98,Default,,0000,0000,0000,,c'est mystérieux, c'est une boîte noire. Dialogue: 0,0:09:03.26,0:09:04.57,Default,,0000,0000,0000,,En fait, Dialogue: 0,0:09:04.57,0:09:06.84,Default,,0000,0000,0000,,on vous demande d'aimer\Nune espèce de saucisse Dialogue: 0,0:09:07.56,0:09:09.51,Default,,0000,0000,0000,,sans vous dire quels sont ses ingrédients Dialogue: 0,0:09:09.75,0:09:12.27,Default,,0000,0000,0000,,et sans vous montrer l'usine\Noù elle a été fabriquée. Dialogue: 0,0:09:13.00,0:09:14.43,Default,,0000,0000,0000,,Ce n'est pas très appétissant. Dialogue: 0,0:09:15.15,0:09:18.83,Default,,0000,0000,0000,,En fait, on voudrait un algorithme\Nqui ne ressemble pas une saucisse, Dialogue: 0,0:09:18.83,0:09:21.45,Default,,0000,0000,0000,,mais qui ressemble à une\Nassiette de crudités bio : Dialogue: 0,0:09:22.65,0:09:26.33,Default,,0000,0000,0000,,on sait exactement ce qu'on a devant nous,\Nc'est complètement transparent. Dialogue: 0,0:09:27.67,0:09:30.19,Default,,0000,0000,0000,,Mais peut-être que dans\Ncertains cas, c'est possible. Dialogue: 0,0:09:30.88,0:09:33.16,Default,,0000,0000,0000,,Je reprends mon exemple\Nde l'algorithme Compas, Dialogue: 0,0:09:34.30,0:09:37.60,Default,,0000,0000,0000,,ce fameux algorithme de\Ndécision judiciaire américain. Dialogue: 0,0:09:38.00,0:09:41.15,Default,,0000,0000,0000,,Il est basé sur 137 critères. Dialogue: 0,0:09:41.41,0:09:42.75,Default,,0000,0000,0000,,Alors ça, c'est du big data. Dialogue: 0,0:09:43.01,0:09:46.94,Default,,0000,0000,0000,,On va triturer 137 informations\Nsur chaque prévenu Dialogue: 0,0:09:46.94,0:09:49.08,Default,,0000,0000,0000,,pour calculer un score\Nde risque de récidive. Dialogue: 0,0:09:49.43,0:09:52.52,Default,,0000,0000,0000,,Et évidemment la formule qui va\Nfaire ce calcul est secrète, Dialogue: 0,0:09:52.52,0:09:54.53,Default,,0000,0000,0000,,puisque propriété de l'entreprise privée Dialogue: 0,0:09:54.53,0:09:56.08,Default,,0000,0000,0000,,qui met cet algorithme Dialogue: 0,0:09:56.08,0:09:59.35,Default,,0000,0000,0000,,à la disposition des tribunaux\Ndes différents États américains. Dialogue: 0,0:09:59.36,0:10:01.17,Default,,0000,0000,0000,,Donc ce n'est pas transparent du tout. Dialogue: 0,0:10:01.76,0:10:06.29,Default,,0000,0000,0000,,Voilà que cinq chercheurs\Naméricains, de Stanford et de NYU, Dialogue: 0,0:10:07.22,0:10:09.17,Default,,0000,0000,0000,,se disent : « Et si on essayait un truc ? Dialogue: 0,0:10:09.93,0:10:13.13,Default,,0000,0000,0000,,Si on prenait les deux\Ncritères parmi ces 137, Dialogue: 0,0:10:13.13,0:10:15.07,Default,,0000,0000,0000,,les deux paramètres seulement, Dialogue: 0,0:10:15.14,0:10:17.83,Default,,0000,0000,0000,,dont on sait, d'après toutes\Nles études de criminologie, Dialogue: 0,0:10:17.83,0:10:20.45,Default,,0000,0000,0000,,que ce sont les meilleurs\Nprédicteurs de la récidive. » Dialogue: 0,0:10:20.62,0:10:21.63,Default,,0000,0000,0000,,Qu'est-ce que c'est ? Dialogue: 0,0:10:21.74,0:10:22.96,Default,,0000,0000,0000,,L'âge du prévenu Dialogue: 0,0:10:23.84,0:10:27.12,Default,,0000,0000,0000,,et le nombre de condamnations\Nqu'il a déjà sur son casier judiciaire. Dialogue: 0,0:10:27.55,0:10:31.64,Default,,0000,0000,0000,,Qu'est-ce qu'on serait capable de\Nprévoir comme risque de récidive Dialogue: 0,0:10:32.20,0:10:34.26,Default,,0000,0000,0000,,en utilisant simplement\Nces deux paramètres Dialogue: 0,0:10:34.34,0:10:37.58,Default,,0000,0000,0000,,et en les combinant d'une manière\Ntrès simple, de manière linéaire ? Dialogue: 0,0:10:38.23,0:10:39.80,Default,,0000,0000,0000,,Eh bien avec ces deux paramètres, Dialogue: 0,0:10:39.96,0:10:43.10,Default,,0000,0000,0000,,ils arrivent à exactement\Nla même fiabilité de prévision Dialogue: 0,0:10:43.19,0:10:45.27,Default,,0000,0000,0000,,que les 137 critères de Compas. Dialogue: 0,0:10:46.71,0:10:48.99,Default,,0000,0000,0000,,Vous avez avec ce small data Dialogue: 0,0:10:49.31,0:10:51.60,Default,,0000,0000,0000,,avec très peu de données,\Navec une règle simple, Dialogue: 0,0:10:52.01,0:10:53.38,Default,,0000,0000,0000,,la même qualité de prévision Dialogue: 0,0:10:53.92,0:10:57.26,Default,,0000,0000,0000,,que vous aviez avec l'énorme complexité\Nde la moulinette du big data. Dialogue: 0,0:10:58.30,0:10:59.70,Default,,0000,0000,0000,,Et ça, sur le principe, Dialogue: 0,0:10:59.71,0:11:03.80,Default,,0000,0000,0000,,on le sait en fait depuis très longtemps,\Ndepuis une soixantaine d'années. Dialogue: 0,0:11:03.80,0:11:07.62,Default,,0000,0000,0000,,Pourquoi on ne le fait pas plus ? Pourquoi\Non ne voit pas du small data partout ? Dialogue: 0,0:11:07.62,0:11:10.49,Default,,0000,0000,0000,,Pourquoi on nous parle\Ntout le temps de big data ? Dialogue: 0,0:11:10.49,0:11:13.83,Default,,0000,0000,0000,,Parce que c'est juste un exemple,\Nça ne marche pas à tous les coups - Dialogue: 0,0:11:13.83,0:11:14.97,Default,,0000,0000,0000,,il faudrait chercher. Dialogue: 0,0:11:15.50,0:11:16.51,Default,,0000,0000,0000,,Mais aussi, Dialogue: 0,0:11:16.55,0:11:18.03,Default,,0000,0000,0000,,et surtout je crois, parce que, Dialogue: 0,0:11:19.01,0:11:21.84,Default,,0000,0000,0000,,quand je vous dis que ça atteint\Nle même score de prévision, Dialogue: 0,0:11:21.84,0:11:27.01,Default,,0000,0000,0000,,la même qualité d'exactitude de\Nscore de risque, de quoi on parle ? Dialogue: 0,0:11:27.01,0:11:29.21,Default,,0000,0000,0000,,On parle de 65% dans le cas d'espèce, Dialogue: 0,0:11:29.29,0:11:32.53,Default,,0000,0000,0000,,c'est-à-dire qu'on a des algorithmes\Nqui vont dans 65% des cas Dialogue: 0,0:11:32.96,0:11:35.34,Default,,0000,0000,0000,,prévoir qui va récidiver,\Nqui ne va pas récidiver, Dialogue: 0,0:11:35.65,0:11:38.25,Default,,0000,0000,0000,,et qui dans 35% des cas se trompent. Dialogue: 0,0:11:38.99,0:11:40.53,Default,,0000,0000,0000,,65%, ce n'est pas mal, Dialogue: 0,0:11:40.53,0:11:43.75,Default,,0000,0000,0000,,c'est un petit peu mieux que les\Njuges humains, pas beaucoup mieux, Dialogue: 0,0:11:43.75,0:11:45.88,Default,,0000,0000,0000,,mais enfin on espère\Nqu'on peut faire mieux. Dialogue: 0,0:11:46.11,0:11:48.22,Default,,0000,0000,0000,,Ce qu'on attend du big data, c'est que, Dialogue: 0,0:11:48.22,0:11:50.46,Default,,0000,0000,0000,,en changeant ses formules,\Nen apprenant plus, Dialogue: 0,0:11:50.46,0:11:55.65,Default,,0000,0000,0000,,en s'entraînant mieux, en améliorant les\Nalgorithmes, il arrive à 70, à 75, à 80. Dialogue: 0,0:11:56.12,0:11:57.84,Default,,0000,0000,0000,,En fait, on rêve qu'il arrive à 100. Dialogue: 0,0:11:58.46,0:12:00.39,Default,,0000,0000,0000,,La promesse du big data, Dialogue: 0,0:12:00.40,0:12:04.49,Default,,0000,0000,0000,,c'est qu'avec ses algorithmes,\Nil va arriver à une prévision parfaite. Dialogue: 0,0:12:04.69,0:12:06.30,Default,,0000,0000,0000,,C'est de ça qu'on rêve. Dialogue: 0,0:12:07.17,0:12:09.07,Default,,0000,0000,0000,,Si on y réfléchit deux secondes, Dialogue: 0,0:12:09.07,0:12:11.69,Default,,0000,0000,0000,,on voit bien que c'est un\Nrêve complètement irréaliste : Dialogue: 0,0:12:12.22,0:12:16.24,Default,,0000,0000,0000,,jamais on n'arrivera à avoir un algorithme\Nqui prévoira avec 100% d'exactitude, Dialogue: 0,0:12:16.24,0:12:18.97,Default,,0000,0000,0000,,ni même, je pense, avec\Nbeaucoup plus de 65%, Dialogue: 0,0:12:18.97,0:12:23.82,Default,,0000,0000,0000,,le risque de récidive de vraies personnes\Nhumaines qui ont un libre-arbitre. Dialogue: 0,0:12:24.40,0:12:28.78,Default,,0000,0000,0000,,Dans « Minority Report », ce n'était pas\Nun algorithme qui faisait la prévision, Dialogue: 0,0:12:28.78,0:12:30.64,Default,,0000,0000,0000,,c'était une espèce de créature magique. Dialogue: 0,0:12:31.11,0:12:33.51,Default,,0000,0000,0000,,Donc c'est un rêve qui\Nne se réalisera pas, Dialogue: 0,0:12:34.07,0:12:36.07,Default,,0000,0000,0000,,mais c'est pourtant la quête de ce rêve, Dialogue: 0,0:12:36.07,0:12:40.99,Default,,0000,0000,0000,,le fantasme de la machine omnisciente,\Ncapable de prévoir l'avenir parfaitement, Dialogue: 0,0:12:41.49,0:12:44.92,Default,,0000,0000,0000,,qui nous conduit à vouloir des\Nalgorithmes toujours plus compliqués Dialogue: 0,0:12:45.60,0:12:48.83,Default,,0000,0000,0000,,au prix d'une complexité et d'une\Nopacité de plus en plus grandes, Dialogue: 0,0:12:49.18,0:12:52.57,Default,,0000,0000,0000,,qui créent cette réaction de rejet\Nque nous avons face aux algorithmes. Dialogue: 0,0:12:53.13,0:12:57.23,Default,,0000,0000,0000,,Le small data, ou les règles simples,\Nc'est le contre-pied de ce raisonnement, Dialogue: 0,0:12:57.23,0:13:00.51,Default,,0000,0000,0000,,c'est de se dire que dans beaucoup de cas, Dialogue: 0,0:13:00.88,0:13:03.06,Default,,0000,0000,0000,,on devrait faire mieux\Nque le jugement humain Dialogue: 0,0:13:03.95,0:13:07.27,Default,,0000,0000,0000,,avec des algorithmes simples,\Ntotalement transparents, Dialogue: 0,0:13:07.75,0:13:10.80,Default,,0000,0000,0000,,et évidemment imparfaits -\Ndont on accepte l'imperfection - Dialogue: 0,0:13:11.28,0:13:13.85,Default,,0000,0000,0000,,parce qu'on préfère un petit\Npeu plus de transparence. Dialogue: 0,0:13:14.27,0:13:15.28,Default,,0000,0000,0000,,Et peut-être que là, Dialogue: 0,0:13:16.60,0:13:18.65,Default,,0000,0000,0000,,quand on aura un\Nalgorithme de ce genre-là, Dialogue: 0,0:13:18.68,0:13:21.16,Default,,0000,0000,0000,,quand vous serez arrêté\Nsur la route aux États-Unis Dialogue: 0,0:13:21.16,0:13:23.65,Default,,0000,0000,0000,,et qu'on vous dira qu'un\Nalgorithme qui va décider, Dialogue: 0,0:13:23.65,0:13:25.46,Default,,0000,0000,0000,,vous vous direz : « Bonne nouvelle ! » Dialogue: 0,0:13:26.17,0:13:28.65,Default,,0000,0000,0000,,Parce que, pour que les\Nalgorithmes soient nos amis, Dialogue: 0,0:13:29.09,0:13:33.57,Default,,0000,0000,0000,,pas besoin qu'ils soient parfaits,\Njuste qu'ils soient meilleurs que nous. Dialogue: 0,0:13:34.10,0:13:35.16,Default,,0000,0000,0000,,Merci. Dialogue: 0,0:13:35.16,0:13:40.58,Default,,0000,0000,0000,,(Applaudissements)