1 00:00:06,455 --> 00:00:08,313 Vous venez d'être arrêté par la police. 2 00:00:09,770 --> 00:00:11,485 Vous étiez en voyage aux États-Unis. 3 00:00:12,518 --> 00:00:16,160 Au bord d'une petite route, on vous a arrêté, on vous a jeté en prison, 4 00:00:16,161 --> 00:00:17,797 et vous serez présenté à un juge. 5 00:00:17,797 --> 00:00:21,607 On vous accuse d'un délit que, bien sûr, vous pensez que vous n'avez pas commis. 6 00:00:21,836 --> 00:00:23,161 Et là on vous explique que 7 00:00:23,494 --> 00:00:25,316 le juge va d’abord décider 8 00:00:25,317 --> 00:00:27,941 si on vous libère sous caution en attendant le jugement, 9 00:00:27,941 --> 00:00:29,812 peut-être dans plusieurs semaines, 10 00:00:29,812 --> 00:00:33,034 ou si on vous garde au frais, ce qui serait peut-être bien ce soir, 11 00:00:33,034 --> 00:00:34,082 pendant quelque temps. 12 00:00:35,129 --> 00:00:37,129 Enfin quand même, vous préféreriez sortir. 13 00:00:38,233 --> 00:00:39,574 Et voilà qu'on vous dit : 14 00:00:39,574 --> 00:00:43,487 « Cette décision de vous libérer sous caution ou pas, 15 00:00:43,487 --> 00:00:45,899 elle va être prise par un algorithme. » 16 00:00:47,336 --> 00:00:49,620 Techniquement, c'est par un juge, mais en fait, 17 00:00:49,621 --> 00:00:52,455 il y a un algorithme qui va étudier votre profil, 18 00:00:52,955 --> 00:00:54,844 calculer le risque que vous présentez, 19 00:00:54,844 --> 00:00:57,797 qui, en fonction de cela, va faire une recommandation au juge, 20 00:00:57,979 --> 00:01:00,979 et, pratiquement toujours, le juge va suivre la recommandation. 21 00:01:02,383 --> 00:01:03,860 Qu'est-ce que ça vous inspire ? 22 00:01:05,272 --> 00:01:06,415 Ça vous inquiète un peu. 23 00:01:07,899 --> 00:01:10,569 En général, si je parle d'algorithmes, ça jette un froid, 24 00:01:10,569 --> 00:01:14,217 mais on est très inquiets dès qu'on nous parle d'algorithmes. 25 00:01:14,217 --> 00:01:15,319 L'an dernier en France, 26 00:01:15,320 --> 00:01:19,121 on a eu deux grands rapports sur l’IA et les big data, 27 00:01:19,121 --> 00:01:21,237 par la CNIL et par la Commission Villani. 28 00:01:21,237 --> 00:01:22,896 Les deux ont pris le même exemple, 29 00:01:22,897 --> 00:01:24,051 celui dont j'ai parlé, 30 00:01:24,052 --> 00:01:28,398 un algorithme américain d'aide à la décision judiciaire, Compas, 31 00:01:28,399 --> 00:01:30,971 pour expliquer, dans les deux cas avec la même formule, 32 00:01:30,971 --> 00:01:34,296 qu'il est très important que l'homme garde la main, 33 00:01:35,201 --> 00:01:37,963 qu'on ne laisse pas les algorithmes décider à notre place. 34 00:01:38,566 --> 00:01:42,249 Et c'est un sujet important, parce que, dans tous les domaines de notre vie, 35 00:01:42,250 --> 00:01:44,781 ils prennent une place de plus en plus importante. 36 00:01:44,781 --> 00:01:46,591 Si vous avez passé le bac cette année, 37 00:01:47,026 --> 00:01:50,026 c'est un algorithme qui décide quelles études vous allez faire. 38 00:01:50,883 --> 00:01:54,104 Et quand vous aurez fini vos études, que vous chercherez un job, 39 00:01:54,105 --> 00:01:57,391 vous enverrez des CV : c'est sans doute un algorithme qui les triera. 40 00:01:58,217 --> 00:02:02,144 Ensuite peut-être même que l'entretien que vous passerez, si votre CV a été trié, 41 00:02:02,145 --> 00:02:04,446 sera analysé en vidéo par un algorithme, 42 00:02:04,447 --> 00:02:06,756 ça commence à être de plus en plus fréquent. 43 00:02:06,939 --> 00:02:09,844 Puis si vous avez le job, il faudra une voiture pour y aller. 44 00:02:10,367 --> 00:02:11,724 Alors il faudra un crédit - 45 00:02:11,725 --> 00:02:14,176 c'est un algorithme qui décidera - 46 00:02:14,176 --> 00:02:18,594 puis une assurance - un algorithme fixera le prix de de la prime d'assurance - 47 00:02:18,594 --> 00:02:22,115 et ainsi de suite jusqu'au jour où vous serez percuté par une voiture, 48 00:02:22,115 --> 00:02:25,543 dont l'algorithme aura décidé qu'il valait mieux vous tuer vous que vous. 49 00:02:25,543 --> 00:02:27,901 Puisqu'on nous explique que les voitures autonomes 50 00:02:27,901 --> 00:02:31,312 vont être pilotées par des algorithmes qui feront ce genre de calculs. 51 00:02:31,312 --> 00:02:32,455 Bref, 52 00:02:32,455 --> 00:02:37,923 on nous décrit sans cesse un monde où on va être les victimes des algorithmes, 53 00:02:37,931 --> 00:02:41,629 un peu comme les passagers du vaisseau de « 2001, l'Odyssée de l'espace », 54 00:02:41,630 --> 00:02:44,517 sont sous l'emprise de l'ordinateur, vous vous rappelez ? 55 00:02:45,955 --> 00:02:48,479 Je voudrais vous inviter à reconsidérer cette vision, 56 00:02:49,471 --> 00:02:52,613 à questionner cette aversion aux algorithmes que nous avons, 57 00:02:53,502 --> 00:02:57,327 et peut-être même à changer d'avis sur les algorithmes. 58 00:02:58,852 --> 00:03:02,269 Qu'est-ce qu'on reproche aux algorithmes, dans toutes ces histoires ? 59 00:03:02,269 --> 00:03:05,765 La 1e chose qu'on leur reproche très souvent, c'est d'avoir des biais. 60 00:03:05,765 --> 00:03:08,146 Vous avez entendu parler des biais algorithmiques. 61 00:03:08,479 --> 00:03:09,780 Par exemple, 62 00:03:09,780 --> 00:03:12,177 le fameux algorithme Compas dont je vous parlais 63 00:03:12,177 --> 00:03:15,090 a été étudié par des journalistes de ProPublica, 64 00:03:15,090 --> 00:03:17,725 grand organisme de journalisme d'investigation, 65 00:03:18,320 --> 00:03:21,486 qui ont démontré que l'algorithme est raciste 66 00:03:21,487 --> 00:03:24,930 puisqu'il se trompe plus souvent au détriment des Noirs que des Blancs, 67 00:03:24,930 --> 00:03:27,835 et plus souvent en faveur des Blancs qu'en faveur des Noirs. 68 00:03:27,836 --> 00:03:29,741 Donc c'est un algorithme qui est biaisé. 69 00:03:30,780 --> 00:03:33,435 On vous a peut-être parlé d'un algorithme de recrutement 70 00:03:33,435 --> 00:03:35,301 qu'Amazon a dû cesser d'utiliser 71 00:03:35,302 --> 00:03:38,832 parce que l'algorithme avait été entraîné sur des données existantes 72 00:03:38,833 --> 00:03:42,109 et donc, comme Amazon avait recruté beaucoup d'hommes dans le passé, 73 00:03:42,109 --> 00:03:45,574 l'algorithme préférait les profils d'hommes aux profils de femmes, 74 00:03:45,574 --> 00:03:47,241 et donc l'algorithme était sexiste. 75 00:03:47,740 --> 00:03:51,836 Peut-être avez entendu parler de ces algorithmes de reconnaissance faciale 76 00:03:52,026 --> 00:03:54,871 qui sont assez bons pour reconnaître les blancs 77 00:03:54,872 --> 00:03:57,438 mais qui sont très mauvais pour reconnaître les noirs. 78 00:03:57,439 --> 00:03:59,678 Bref, il y a des algorithmes qui ont des biais. 79 00:04:00,352 --> 00:04:02,487 Et soyons clairs, c'est vrai. 80 00:04:03,074 --> 00:04:04,082 Ces algorithmes, 81 00:04:04,264 --> 00:04:06,693 même si, certains de ces exemples ont été exagérés, 82 00:04:07,050 --> 00:04:09,463 ces algorithmes biaisés existent. 83 00:04:09,867 --> 00:04:13,518 Rien de plus facile d'ailleurs que de fabriquer un algorithme biaisé. 84 00:04:13,518 --> 00:04:16,479 Mais, quand on dit : « Il existe des algorithmes biaisés, 85 00:04:16,685 --> 00:04:19,019 donc il faut se méfier de tous les algorithmes, » 86 00:04:19,701 --> 00:04:24,439 est-ce qu'on n'est pas en train de commettre la même erreur de logique 87 00:04:24,439 --> 00:04:26,630 que les racistes qui utilisent un stéréotype ? 88 00:04:27,859 --> 00:04:31,621 On est en train, en fait, de reprocher aux algorithmes de faire des stéréotypes, 89 00:04:31,621 --> 00:04:34,323 en utilisant un stéréotype contre les algorithmes. 90 00:04:34,324 --> 00:04:35,848 C'est quand même un peu bizarre. 91 00:04:35,924 --> 00:04:37,026 La question n'est pas : 92 00:04:37,027 --> 00:04:41,042 « Y a-t-il des algorithmes biaisés ? » - bien sûr qu'il y en a - mais : 93 00:04:41,042 --> 00:04:44,149 « Est-ce qu'on peut faire des algorithmes qui ne le soient pas ? » 94 00:04:44,149 --> 00:04:46,271 ou qui en tout cas le soient moins que nous. 95 00:04:46,272 --> 00:04:48,228 Il faut arrêter de se comparer à un idéal 96 00:04:48,228 --> 00:04:52,419 et se demander ce que ferait les humains auxquels on compare ces algorithmes. 97 00:04:53,391 --> 00:04:54,582 Et là, c'est intéressant. 98 00:04:55,153 --> 00:04:58,233 Prenez les juges américains, puisque c'est d'eux dont on parlait. 99 00:04:58,233 --> 00:05:01,186 Il y a une étude sur les juges de l'immigration aux États-Unis 100 00:05:01,875 --> 00:05:04,973 qui montre qu'il y a des disparités considérables entre deux juges 101 00:05:04,973 --> 00:05:07,248 qui ont la même population de demandeurs. 102 00:05:07,248 --> 00:05:08,256 Dans un cas extrême, 103 00:05:08,518 --> 00:05:09,995 en Floride, dans la même ville, 104 00:05:10,106 --> 00:05:12,202 dans le même tribunal, vous avez deux juges, 105 00:05:12,209 --> 00:05:15,067 auxquels les demandeurs d'asile sont affectés aléatoirement, 106 00:05:15,439 --> 00:05:19,526 Il y en a un qui accorde 4% des demandes, l'autre 88%. 107 00:05:20,796 --> 00:05:22,082 Ce n'est pas un biais, ça ? 108 00:05:22,312 --> 00:05:24,170 Vous pensez que l'algorithme est pire ? 109 00:05:24,582 --> 00:05:28,483 Dans tous les domaines où on regarde le jugement humain, on trouve ces biais. 110 00:05:28,483 --> 00:05:32,058 Exemple au bureau des brevets américains ; vous direz : « Pas très grave. » 111 00:05:32,058 --> 00:05:34,494 Mais si vous êtes l'inventeur qui dépose un brevet, 112 00:05:34,494 --> 00:05:35,947 ça vous embête un peu 113 00:05:35,947 --> 00:05:40,567 qu'il y ait des employés qui donnent deux fois moins de brevets que d'autres. 114 00:05:42,328 --> 00:05:43,347 Plus embêtant : 115 00:05:43,348 --> 00:05:46,248 si vous avez à faire un jour au service 116 00:05:46,248 --> 00:05:47,760 qui s'occupe de venir décider 117 00:05:47,761 --> 00:05:52,240 si vous êtes un mauvais parent et si on va vous retirer vos enfants, 118 00:05:52,240 --> 00:05:54,316 en fonction du travailleur social, 119 00:05:54,316 --> 00:05:56,840 vous avez des écarts là aussi qui vont de un à trois. 120 00:05:57,994 --> 00:06:01,282 Donc les biais des algorithmes sont un vrai problème, 121 00:06:01,283 --> 00:06:04,236 mais enfin, les biais des humains sont un vrai problème aussi. 122 00:06:04,236 --> 00:06:06,820 Pour que ils soient aussi biaisés que les humains, 123 00:06:06,820 --> 00:06:10,248 il faudrait que les algorithmes soient vraiment très très très biaisés. 124 00:06:10,248 --> 00:06:14,375 On a un autre problème, qui est en fait beaucoup plus important : 125 00:06:14,375 --> 00:06:18,064 même les humains les plus biaisés 126 00:06:18,065 --> 00:06:20,740 ne se trompent pas seulement dans le sens de leurs biais. 127 00:06:20,740 --> 00:06:24,709 Le biais, c'est une erreur prévisible, une erreur qu'on commet pour une raison. 128 00:06:24,709 --> 00:06:26,867 Mais on peut aussi se tromper sans raison. 129 00:06:27,375 --> 00:06:28,709 Prenez le recruteur sexiste, 130 00:06:29,177 --> 00:06:31,701 qui va recruter beaucoup plus d'hommes que de femmes, 131 00:06:32,153 --> 00:06:33,249 déjà, c'est une erreur, 132 00:06:33,471 --> 00:06:36,471 mais vous pensez que parmi les hommes, il va recruter les bons ? 133 00:06:37,328 --> 00:06:41,780 S'il n'est pas très malin, il n'y a pas de raison qu'il recrute les meilleurs hommes. 134 00:06:41,780 --> 00:06:45,019 Il va se tromper aussi dans ses choix à l'intérieur d'une catégorie. 135 00:06:45,256 --> 00:06:50,788 Et cette erreur sans raison qu'on soit capable d'identifier clairement, 136 00:06:50,788 --> 00:06:53,550 c'est ce qu'on appelle le bruit, c'est l'erreur aléatoire. 137 00:06:53,582 --> 00:06:56,380 Le biais, c'est l'erreur directionnelle, explicable ; 138 00:06:56,381 --> 00:07:00,181 le bruit, c'est l'erreur qu'on ne sait pas expliquer, l'erreur aléatoire. 139 00:07:00,182 --> 00:07:04,050 L'exemple le plus frappant, pour vous en donner une représentation tangible, 140 00:07:04,050 --> 00:07:08,566 c'est quand on prend la même personne en lui demandant de faire le même jugement, 141 00:07:08,566 --> 00:07:09,852 à partir des mêmes données, 142 00:07:10,613 --> 00:07:11,852 à deux moments différents. 143 00:07:12,502 --> 00:07:14,883 Il y a par exemple des études sur les radiologues. 144 00:07:14,915 --> 00:07:16,106 On leur montre une radio, 145 00:07:16,804 --> 00:07:19,138 qu'en fait ils ont déjà vue il y a quelques mois. 146 00:07:19,248 --> 00:07:23,772 Ils en ont vu des centaines depuis, donc ils ne se souviennent pas de la radio. 147 00:07:23,836 --> 00:07:25,919 Et dans un nombre non négligeable de cas, 148 00:07:25,920 --> 00:07:30,463 leur jugement, leur diagnostic, va changer entre les deux fois. 149 00:07:30,463 --> 00:07:33,439 Ou bien prenez un exemple encore plus étonnant : 150 00:07:34,034 --> 00:07:36,542 les experts en empreintes digitales. 151 00:07:37,502 --> 00:07:39,003 Quand vous leur soumettez 152 00:07:39,003 --> 00:07:41,292 l'empreinte relevée sur la scène du crime 153 00:07:41,292 --> 00:07:43,396 et l'empreinte prélevée sur le suspect, 154 00:07:43,396 --> 00:07:45,915 en lui demandant de tremper son doigt dans l'encre, 155 00:07:45,915 --> 00:07:47,844 en leur demandant si ça correspond. 156 00:07:47,844 --> 00:07:49,130 Ils vous disent oui ou non. 157 00:07:49,669 --> 00:07:52,437 Vous leur montrez les mêmes empreintes des mois plus tard - 158 00:07:52,437 --> 00:07:54,818 là aussi, ils en ont vu des centaines entretemps - 159 00:07:54,819 --> 00:07:58,390 dans un nombre non négligeable de cas, statistiquement significatifs, 160 00:07:58,391 --> 00:07:59,582 leur jugement va changer. 161 00:08:00,391 --> 00:08:03,216 Donc ce jugement humain qu'on croit fiable, 162 00:08:03,217 --> 00:08:04,645 qu'on croit stable, 163 00:08:04,645 --> 00:08:07,018 en fait, il a une grande composante de bruit, 164 00:08:07,018 --> 00:08:09,360 il a une grande composante d'aléatoire. 165 00:08:10,177 --> 00:08:11,416 Pourquoi c'est important ? 166 00:08:11,447 --> 00:08:14,852 Parce que l'algorithme, c'est ça, sa force : lui, il n'a pas de bruit. 167 00:08:15,772 --> 00:08:19,907 Si on donne à l'algorithme les mêmes données, il donne la même réponse. 168 00:08:20,113 --> 00:08:21,510 Donc il peut avoir des biais, 169 00:08:22,034 --> 00:08:24,368 mais il en aura moins que la plupart des humains, 170 00:08:24,788 --> 00:08:26,613 et surtout il n'aura pas de bruit, 171 00:08:27,169 --> 00:08:29,753 donc fera beaucoup moins d'erreurs que les humains. 172 00:08:29,753 --> 00:08:31,515 C'est ce qui explique sa supériorité. 173 00:08:32,502 --> 00:08:35,291 Mais je ne vous sens pas convaincus. (Rires) 174 00:08:35,542 --> 00:08:36,831 Vous ne voulez toujours pas 175 00:08:36,832 --> 00:08:40,791 que ça soit un algorithme qui vous juge sur le bord de la route en Louisiane. 176 00:08:40,792 --> 00:08:42,221 Non, vous n'en avez pas envie. 177 00:08:43,129 --> 00:08:44,558 Je crois que je sais pourquoi. 178 00:08:45,415 --> 00:08:48,852 C'est parce que l'algorithme, on ne comprend pas ce que c'est. 179 00:08:50,375 --> 00:08:52,934 C'est opaque, ce n'est pas transparent - 180 00:08:52,934 --> 00:08:54,852 le jugement humain non plus d'ailleurs - 181 00:08:54,852 --> 00:08:57,939 mais être jugé par un homme ou par une femme, 182 00:08:57,939 --> 00:08:59,987 vous savez à peu près comment ça fonctionne. 183 00:08:59,987 --> 00:09:01,074 Un algorithme, 184 00:09:01,074 --> 00:09:02,979 c'est mystérieux, c'est une boîte noire. 185 00:09:03,256 --> 00:09:04,574 En fait, 186 00:09:04,574 --> 00:09:06,844 on vous demande d'aimer une espèce de saucisse 187 00:09:07,558 --> 00:09:09,511 sans vous dire quels sont ses ingrédients 188 00:09:09,748 --> 00:09:12,272 et sans vous montrer l'usine où elle a été fabriquée. 189 00:09:13,002 --> 00:09:14,431 Ce n'est pas très appétissant. 190 00:09:15,153 --> 00:09:18,828 En fait, on voudrait un algorithme qui ne ressemble pas une saucisse, 191 00:09:18,828 --> 00:09:21,447 mais qui ressemble à une assiette de crudités bio : 192 00:09:22,653 --> 00:09:26,328 on sait exactement ce qu'on a devant nous, c'est complètement transparent. 193 00:09:27,669 --> 00:09:30,193 Mais peut-être que dans certains cas, c'est possible. 194 00:09:30,875 --> 00:09:33,161 Je reprends mon exemple de l'algorithme Compas, 195 00:09:34,299 --> 00:09:37,598 ce fameux algorithme de décision judiciaire américain. 196 00:09:38,002 --> 00:09:41,153 Il est basé sur 137 critères. 197 00:09:41,414 --> 00:09:42,748 Alors ça, c'est du big data. 198 00:09:43,010 --> 00:09:46,935 On va triturer 137 informations sur chaque prévenu 199 00:09:46,936 --> 00:09:49,079 pour calculer un score de risque de récidive. 200 00:09:49,431 --> 00:09:52,523 Et évidemment la formule qui va faire ce calcul est secrète, 201 00:09:52,524 --> 00:09:54,526 puisque propriété de l'entreprise privée 202 00:09:54,526 --> 00:09:56,080 qui met cet algorithme 203 00:09:56,081 --> 00:09:59,352 à la disposition des tribunaux des différents États américains. 204 00:09:59,360 --> 00:10:01,170 Donc ce n'est pas transparent du tout. 205 00:10:01,764 --> 00:10:06,288 Voilà que cinq chercheurs américains, de Stanford et de NYU, 206 00:10:07,217 --> 00:10:09,170 se disent : « Et si on essayait un truc ? 207 00:10:09,931 --> 00:10:13,132 Si on prenait les deux critères parmi ces 137, 208 00:10:13,133 --> 00:10:15,066 les deux paramètres seulement, 209 00:10:15,137 --> 00:10:17,833 dont on sait, d'après toutes les études de criminologie, 210 00:10:17,833 --> 00:10:20,453 que ce sont les meilleurs prédicteurs de la récidive. » 211 00:10:20,621 --> 00:10:21,629 Qu'est-ce que c'est ? 212 00:10:21,740 --> 00:10:22,963 L'âge du prévenu 213 00:10:23,836 --> 00:10:27,122 et le nombre de condamnations qu'il a déjà sur son casier judiciaire. 214 00:10:27,550 --> 00:10:31,645 Qu'est-ce qu'on serait capable de prévoir comme risque de récidive 215 00:10:32,201 --> 00:10:34,264 en utilisant simplement ces deux paramètres 216 00:10:34,344 --> 00:10:37,583 et en les combinant d'une manière très simple, de manière linéaire ? 217 00:10:38,233 --> 00:10:39,805 Eh bien avec ces deux paramètres, 218 00:10:39,963 --> 00:10:43,098 ils arrivent à exactement la même fiabilité de prévision 219 00:10:43,193 --> 00:10:45,272 que les 137 critères de Compas. 220 00:10:46,709 --> 00:10:48,987 Vous avez avec ce small data 221 00:10:49,312 --> 00:10:51,598 avec très peu de données, avec une règle simple, 222 00:10:52,010 --> 00:10:53,375 la même qualité de prévision 223 00:10:53,915 --> 00:10:57,264 que vous aviez avec l'énorme complexité de la moulinette du big data. 224 00:10:58,304 --> 00:10:59,705 Et ça, sur le principe, 225 00:10:59,706 --> 00:11:03,796 on le sait en fait depuis très longtemps, depuis une soixantaine d'années. 226 00:11:03,797 --> 00:11:07,624 Pourquoi on ne le fait pas plus ? Pourquoi on ne voit pas du small data partout ? 227 00:11:07,625 --> 00:11:10,493 Pourquoi on nous parle tout le temps de big data ? 228 00:11:10,494 --> 00:11:13,831 Parce que c'est juste un exemple, ça ne marche pas à tous les coups - 229 00:11:13,831 --> 00:11:14,974 il faudrait chercher. 230 00:11:15,502 --> 00:11:16,510 Mais aussi, 231 00:11:16,550 --> 00:11:18,027 et surtout je crois, parce que, 232 00:11:19,010 --> 00:11:21,836 quand je vous dis que ça atteint le même score de prévision, 233 00:11:21,836 --> 00:11:27,008 la même qualité d'exactitude de score de risque, de quoi on parle ? 234 00:11:27,009 --> 00:11:29,209 On parle de 65% dans le cas d'espèce, 235 00:11:29,288 --> 00:11:32,526 c'est-à-dire qu'on a des algorithmes qui vont dans 65% des cas 236 00:11:32,962 --> 00:11:35,343 prévoir qui va récidiver, qui ne va pas récidiver, 237 00:11:35,653 --> 00:11:38,248 et qui dans 35% des cas se trompent. 238 00:11:38,987 --> 00:11:40,529 65%, ce n'est pas mal, 239 00:11:40,530 --> 00:11:43,748 c'est un petit peu mieux que les juges humains, pas beaucoup mieux, 240 00:11:43,748 --> 00:11:45,875 mais enfin on espère qu'on peut faire mieux. 241 00:11:46,113 --> 00:11:48,221 Ce qu'on attend du big data, c'est que, 242 00:11:48,222 --> 00:11:50,464 en changeant ses formules, en apprenant plus, 243 00:11:50,465 --> 00:11:55,650 en s'entraînant mieux, en améliorant les algorithmes, il arrive à 70, à 75, à 80. 244 00:11:56,125 --> 00:11:57,840 En fait, on rêve qu'il arrive à 100. 245 00:11:58,455 --> 00:12:00,394 La promesse du big data, 246 00:12:00,395 --> 00:12:04,491 c'est qu'avec ses algorithmes, il va arriver à une prévision parfaite. 247 00:12:04,693 --> 00:12:06,299 C'est de ça qu'on rêve. 248 00:12:07,169 --> 00:12:09,070 Si on y réfléchit deux secondes, 249 00:12:09,071 --> 00:12:11,691 on voit bien que c'est un rêve complètement irréaliste : 250 00:12:12,225 --> 00:12:16,239 jamais on n'arrivera à avoir un algorithme qui prévoira avec 100% d'exactitude, 251 00:12:16,240 --> 00:12:18,973 ni même, je pense, avec beaucoup plus de 65%, 252 00:12:18,974 --> 00:12:23,820 le risque de récidive de vraies personnes humaines qui ont un libre-arbitre. 253 00:12:24,399 --> 00:12:28,778 Dans « Minority Report », ce n'était pas un algorithme qui faisait la prévision, 254 00:12:28,778 --> 00:12:30,636 c'était une espèce de créature magique. 255 00:12:31,106 --> 00:12:33,510 Donc c'est un rêve qui ne se réalisera pas, 256 00:12:34,066 --> 00:12:36,068 mais c'est pourtant la quête de ce rêve, 257 00:12:36,069 --> 00:12:40,994 le fantasme de la machine omnisciente, capable de prévoir l'avenir parfaitement, 258 00:12:41,487 --> 00:12:44,915 qui nous conduit à vouloir des algorithmes toujours plus compliqués 259 00:12:45,598 --> 00:12:48,828 au prix d'une complexité et d'une opacité de plus en plus grandes, 260 00:12:49,185 --> 00:12:52,566 qui créent cette réaction de rejet que nous avons face aux algorithmes. 261 00:12:53,129 --> 00:12:57,227 Le small data, ou les règles simples, c'est le contre-pied de ce raisonnement, 262 00:12:57,227 --> 00:13:00,510 c'est de se dire que dans beaucoup de cas, 263 00:13:00,883 --> 00:13:03,058 on devrait faire mieux que le jugement humain 264 00:13:03,947 --> 00:13:07,272 avec des algorithmes simples, totalement transparents, 265 00:13:07,748 --> 00:13:10,804 et évidemment imparfaits - dont on accepte l'imperfection - 266 00:13:11,280 --> 00:13:13,852 parce qu'on préfère un petit peu plus de transparence. 267 00:13:14,272 --> 00:13:15,280 Et peut-être que là, 268 00:13:16,598 --> 00:13:18,646 quand on aura un algorithme de ce genre-là, 269 00:13:18,677 --> 00:13:21,159 quand vous serez arrêté sur la route aux États-Unis 270 00:13:21,159 --> 00:13:23,653 et qu'on vous dira qu'un algorithme qui va décider, 271 00:13:23,653 --> 00:13:25,463 vous vous direz : « Bonne nouvelle ! » 272 00:13:26,169 --> 00:13:28,646 Parce que, pour que les algorithmes soient nos amis, 273 00:13:29,090 --> 00:13:33,572 pas besoin qu'ils soient parfaits, juste qu'ils soient meilleurs que nous. 274 00:13:34,098 --> 00:13:35,160 Merci. 275 00:13:35,161 --> 00:13:40,582 (Applaudissements)