WEBVTT 00:00:06.455 --> 00:00:08.313 Vous venez d'être arrêté par la police. 00:00:09.770 --> 00:00:11.485 Vous étiez en voyage aux États-Unis. 00:00:12.518 --> 00:00:16.160 Au bord d'une petite route, on vous a arrêté, on vous a jeté en prison, 00:00:16.161 --> 00:00:17.797 et vous serez présenté à un juge. 00:00:17.797 --> 00:00:21.607 On vous accuse d'un délit que, bien sûr, vous pensez que vous n'avez pas commis. 00:00:21.836 --> 00:00:23.161 Et là on vous explique que 00:00:23.494 --> 00:00:25.316 le juge va d’abord décider 00:00:25.317 --> 00:00:27.941 si on vous libère sous caution en attendant le jugement, 00:00:27.941 --> 00:00:29.812 peut-être dans plusieurs semaines, 00:00:29.812 --> 00:00:33.034 ou si on vous garde au frais, ce qui serait peut-être bien ce soir, 00:00:33.034 --> 00:00:34.082 pendant quelque temps. 00:00:35.129 --> 00:00:37.129 Enfin quand même, vous préféreriez sortir. 00:00:38.233 --> 00:00:39.574 Et voilà qu'on vous dit : 00:00:39.574 --> 00:00:43.487 « Cette décision de vous libérer sous caution ou pas, 00:00:43.487 --> 00:00:45.899 elle va être prise par un algorithme. » 00:00:47.336 --> 00:00:49.620 Techniquement, c'est par un juge, mais en fait, 00:00:49.621 --> 00:00:52.455 il y a un algorithme qui va étudier votre profil, 00:00:52.955 --> 00:00:54.844 calculer le risque que vous présentez, 00:00:54.844 --> 00:00:57.797 qui, en fonction de cela, va faire une recommandation au juge, 00:00:57.979 --> 00:01:00.979 et, pratiquement toujours, le juge va suivre la recommandation. 00:01:02.383 --> 00:01:03.860 Qu'est-ce que ça vous inspire ? 00:01:05.272 --> 00:01:06.415 Ça vous inquiète un peu. 00:01:07.899 --> 00:01:10.569 En général, si je parle d'algorithmes, ça jette un froid, 00:01:10.569 --> 00:01:14.217 mais on est très inquiets dès qu'on nous parle d'algorithmes. 00:01:14.217 --> 00:01:15.319 L'an dernier en France, 00:01:15.320 --> 00:01:19.121 on a eu deux grands rapports sur l’IA et les big data, 00:01:19.121 --> 00:01:21.237 par la CNIL et par la Commission Villani. 00:01:21.237 --> 00:01:22.896 Les deux ont pris le même exemple, 00:01:22.897 --> 00:01:24.051 celui dont j'ai parlé, 00:01:24.052 --> 00:01:28.398 un algorithme américain d'aide à la décision judiciaire, Compas, 00:01:28.399 --> 00:01:30.971 pour expliquer, dans les deux cas avec la même formule, 00:01:30.971 --> 00:01:34.296 qu'il est très important que l'homme garde la main, 00:01:35.201 --> 00:01:37.963 qu'on ne laisse pas les algorithmes décider à notre place. 00:01:38.566 --> 00:01:42.249 Et c'est un sujet important, parce que, dans tous les domaines de notre vie, 00:01:42.250 --> 00:01:44.781 ils prennent une place de plus en plus importante. 00:01:44.781 --> 00:01:46.591 Si vous avez passé le bac cette année, 00:01:47.026 --> 00:01:50.026 c'est un algorithme qui décide quelles études vous allez faire. 00:01:50.883 --> 00:01:54.104 Et quand vous aurez fini vos études, que vous chercherez un job, 00:01:54.105 --> 00:01:57.391 vous enverrez des CV : c'est sans doute un algorithme qui les triera. 00:01:58.217 --> 00:02:02.144 Ensuite peut-être même que l'entretien que vous passerez, si votre CV a été trié, 00:02:02.145 --> 00:02:04.446 sera analysé en vidéo par un algorithme, 00:02:04.447 --> 00:02:06.756 ça commence à être de plus en plus fréquent. 00:02:06.939 --> 00:02:09.844 Puis si vous avez le job, il faudra une voiture pour y aller. 00:02:10.367 --> 00:02:11.724 Alors il faudra un crédit - 00:02:11.725 --> 00:02:14.176 c'est un algorithme qui décidera - 00:02:14.176 --> 00:02:18.594 puis une assurance - un algorithme fixera le prix de de la prime d'assurance - 00:02:18.594 --> 00:02:22.115 et ainsi de suite jusqu'au jour où vous serez percuté par une voiture, 00:02:22.115 --> 00:02:25.543 dont l'algorithme aura décidé qu'il valait mieux vous tuer vous que vous. 00:02:25.543 --> 00:02:27.901 Puisqu'on nous explique que les voitures autonomes 00:02:27.901 --> 00:02:31.312 vont être pilotées par des algorithmes qui feront ce genre de calculs. 00:02:31.312 --> 00:02:32.455 Bref, 00:02:32.455 --> 00:02:37.923 on nous décrit sans cesse un monde où on va être les victimes des algorithmes, 00:02:37.931 --> 00:02:41.629 un peu comme les passagers du vaisseau de « 2001, l'Odyssée de l'espace », 00:02:41.630 --> 00:02:44.517 sont sous l'emprise de l'ordinateur, vous vous rappelez ? 00:02:45.955 --> 00:02:48.479 Je voudrais vous inviter à reconsidérer cette vision, 00:02:49.471 --> 00:02:52.613 à questionner cette aversion aux algorithmes que nous avons, 00:02:53.502 --> 00:02:57.327 et peut-être même à changer d'avis sur les algorithmes. 00:02:58.852 --> 00:03:02.269 Qu'est-ce qu'on reproche aux algorithmes, dans toutes ces histoires ? 00:03:02.269 --> 00:03:05.765 La 1e chose qu'on leur reproche très souvent, c'est d'avoir des biais. 00:03:05.765 --> 00:03:08.146 Vous avez entendu parler des biais algorithmiques. 00:03:08.479 --> 00:03:09.780 Par exemple, 00:03:09.780 --> 00:03:12.177 le fameux algorithme Compas dont je vous parlais 00:03:12.177 --> 00:03:15.090 a été étudié par des journalistes de ProPublica, 00:03:15.090 --> 00:03:17.725 grand organisme de journalisme d'investigation, 00:03:18.320 --> 00:03:21.486 qui ont démontré que l'algorithme est raciste 00:03:21.487 --> 00:03:24.930 puisqu'il se trompe plus souvent au détriment des Noirs que des Blancs, 00:03:24.930 --> 00:03:27.835 et plus souvent en faveur des Blancs qu'en faveur des Noirs. 00:03:27.836 --> 00:03:29.741 Donc c'est un algorithme qui est biaisé. 00:03:30.780 --> 00:03:33.435 On vous a peut-être parlé d'un algorithme de recrutement 00:03:33.435 --> 00:03:35.301 qu'Amazon a dû cesser d'utiliser 00:03:35.302 --> 00:03:38.832 parce que l'algorithme avait été entraîné sur des données existantes 00:03:38.833 --> 00:03:42.109 et donc, comme Amazon avait recruté beaucoup d'hommes dans le passé, 00:03:42.109 --> 00:03:45.574 l'algorithme préférait les profils d'hommes aux profils de femmes, 00:03:45.574 --> 00:03:47.241 et donc l'algorithme était sexiste. 00:03:47.740 --> 00:03:51.836 Peut-être avez entendu parler de ces algorithmes de reconnaissance faciale 00:03:52.026 --> 00:03:54.871 qui sont assez bons pour reconnaître les blancs 00:03:54.872 --> 00:03:57.438 mais qui sont très mauvais pour reconnaître les noirs. 00:03:57.439 --> 00:03:59.678 Bref, il y a des algorithmes qui ont des biais. 00:04:00.352 --> 00:04:02.487 Et soyons clairs, c'est vrai. 00:04:03.074 --> 00:04:04.082 Ces algorithmes, 00:04:04.264 --> 00:04:06.693 même si, certains de ces exemples ont été exagérés, 00:04:07.050 --> 00:04:09.463 ces algorithmes biaisés existent. 00:04:09.867 --> 00:04:13.518 Rien de plus facile d'ailleurs que de fabriquer un algorithme biaisé. 00:04:13.518 --> 00:04:16.479 Mais, quand on dit : « Il existe des algorithmes biaisés, 00:04:16.685 --> 00:04:19.019 donc il faut se méfier de tous les algorithmes, » 00:04:19.701 --> 00:04:24.439 est-ce qu'on n'est pas en train de commettre la même erreur de logique 00:04:24.439 --> 00:04:26.630 que les racistes qui utilisent un stéréotype ? 00:04:27.859 --> 00:04:31.621 On est en train, en fait, de reprocher aux algorithmes de faire des stéréotypes, 00:04:31.621 --> 00:04:34.323 en utilisant un stéréotype contre les algorithmes. 00:04:34.324 --> 00:04:35.848 C'est quand même un peu bizarre. 00:04:35.924 --> 00:04:37.026 La question n'est pas : 00:04:37.027 --> 00:04:41.042 « Y a-t-il des algorithmes biaisés ? » - bien sûr qu'il y en a - mais : 00:04:41.042 --> 00:04:44.149 « Est-ce qu'on peut faire des algorithmes qui ne le soient pas ? » 00:04:44.149 --> 00:04:46.271 ou qui en tout cas le soient moins que nous. 00:04:46.272 --> 00:04:48.228 Il faut arrêter de se comparer à un idéal 00:04:48.228 --> 00:04:52.419 et se demander ce que ferait les humains auxquels on compare ces algorithmes. 00:04:53.391 --> 00:04:54.582 Et là, c'est intéressant. 00:04:55.153 --> 00:04:58.233 Prenez les juges américains, puisque c'est d'eux dont on parlait. 00:04:58.233 --> 00:05:01.186 Il y a une étude sur les juges de l'immigration aux États-Unis 00:05:01.875 --> 00:05:04.973 qui montre qu'il y a des disparités considérables entre deux juges 00:05:04.973 --> 00:05:07.248 qui ont la même population de demandeurs. 00:05:07.248 --> 00:05:08.256 Dans un cas extrême, 00:05:08.518 --> 00:05:09.995 en Floride, dans la même ville, 00:05:10.106 --> 00:05:12.202 dans le même tribunal, vous avez deux juges, 00:05:12.209 --> 00:05:15.067 auxquels les demandeurs d'asile sont affectés aléatoirement, 00:05:15.439 --> 00:05:19.526 Il y en a un qui accorde 4% des demandes, l'autre 88%. 00:05:20.796 --> 00:05:22.082 Ce n'est pas un biais, ça ? 00:05:22.312 --> 00:05:24.170 Vous pensez que l'algorithme est pire ? 00:05:24.582 --> 00:05:28.483 Dans tous les domaines où on regarde le jugement humain, on trouve ces biais. 00:05:28.483 --> 00:05:32.058 Exemple au bureau des brevets américains ; vous direz : « Pas très grave. » 00:05:32.058 --> 00:05:34.494 Mais si vous êtes l'inventeur qui dépose un brevet, 00:05:34.494 --> 00:05:35.947 ça vous embête un peu 00:05:35.947 --> 00:05:40.567 qu'il y ait des employés qui donnent deux fois moins de brevets que d'autres. 00:05:42.328 --> 00:05:43.347 Plus embêtant : 00:05:43.348 --> 00:05:46.248 si vous avez à faire un jour au service 00:05:46.248 --> 00:05:47.760 qui s'occupe de venir décider 00:05:47.761 --> 00:05:52.240 si vous êtes un mauvais parent et si on va vous retirer vos enfants, 00:05:52.240 --> 00:05:54.316 en fonction du travailleur social, 00:05:54.316 --> 00:05:56.840 vous avez des écarts là aussi qui vont de un à trois. 00:05:57.994 --> 00:06:01.282 Donc les biais des algorithmes sont un vrai problème, 00:06:01.283 --> 00:06:04.236 mais enfin, les biais des humains sont un vrai problème aussi. 00:06:04.236 --> 00:06:06.820 Pour que ils soient aussi biaisés que les humains, 00:06:06.820 --> 00:06:10.248 il faudrait que les algorithmes soient vraiment très très très biaisés. 00:06:10.248 --> 00:06:14.375 On a un autre problème, qui est en fait beaucoup plus important : 00:06:14.375 --> 00:06:18.064 même les humains les plus biaisés 00:06:18.065 --> 00:06:20.740 ne se trompent pas seulement dans le sens de leurs biais. 00:06:20.740 --> 00:06:24.709 Le biais, c'est une erreur prévisible, une erreur qu'on commet pour une raison. 00:06:24.709 --> 00:06:26.867 Mais on peut aussi se tromper sans raison. 00:06:27.375 --> 00:06:28.709 Prenez le recruteur sexiste, 00:06:29.177 --> 00:06:31.701 qui va recruter beaucoup plus d'hommes que de femmes, 00:06:32.153 --> 00:06:33.249 déjà, c'est une erreur, 00:06:33.471 --> 00:06:36.471 mais vous pensez que parmi les hommes, il va recruter les bons ? 00:06:37.328 --> 00:06:41.780 S'il n'est pas très malin, il n'y a pas de raison qu'il recrute les meilleurs hommes. 00:06:41.780 --> 00:06:45.019 Il va se tromper aussi dans ses choix à l'intérieur d'une catégorie. 00:06:45.256 --> 00:06:50.788 Et cette erreur sans raison qu'on soit capable d'identifier clairement, 00:06:50.788 --> 00:06:53.550 c'est ce qu'on appelle le bruit, c'est l'erreur aléatoire. 00:06:53.582 --> 00:06:56.380 Le biais, c'est l'erreur directionnelle, explicable ; 00:06:56.381 --> 00:07:00.181 le bruit, c'est l'erreur qu'on ne sait pas expliquer, l'erreur aléatoire. 00:07:00.182 --> 00:07:04.050 L'exemple le plus frappant, pour vous en donner une représentation tangible, 00:07:04.050 --> 00:07:08.566 c'est quand on prend la même personne en lui demandant de faire le même jugement, 00:07:08.566 --> 00:07:09.852 à partir des mêmes données, 00:07:10.613 --> 00:07:11.852 à deux moments différents. 00:07:12.502 --> 00:07:14.883 Il y a par exemple des études sur les radiologues. 00:07:14.915 --> 00:07:16.106 On leur montre une radio, 00:07:16.804 --> 00:07:19.138 qu'en fait ils ont déjà vue il y a quelques mois. 00:07:19.248 --> 00:07:23.772 Ils en ont vu des centaines depuis, donc ils ne se souviennent pas de la radio. 00:07:23.836 --> 00:07:25.919 Et dans un nombre non négligeable de cas, 00:07:25.920 --> 00:07:30.463 leur jugement, leur diagnostic, va changer entre les deux fois. 00:07:30.463 --> 00:07:33.439 Ou bien prenez un exemple encore plus étonnant : 00:07:34.034 --> 00:07:36.542 les experts en empreintes digitales. 00:07:37.502 --> 00:07:39.003 Quand vous leur soumettez 00:07:39.003 --> 00:07:41.292 l'empreinte relevée sur la scène du crime 00:07:41.292 --> 00:07:43.396 et l'empreinte prélevée sur le suspect, 00:07:43.396 --> 00:07:45.915 en lui demandant de tremper son doigt dans l'encre, 00:07:45.915 --> 00:07:47.844 en leur demandant si ça correspond. 00:07:47.844 --> 00:07:49.130 Ils vous disent oui ou non. 00:07:49.669 --> 00:07:52.437 Vous leur montrez les mêmes empreintes des mois plus tard - 00:07:52.437 --> 00:07:54.818 là aussi, ils en ont vu des centaines entretemps - 00:07:54.819 --> 00:07:58.390 dans un nombre non négligeable de cas, statistiquement significatifs, 00:07:58.391 --> 00:07:59.582 leur jugement va changer. 00:08:00.391 --> 00:08:03.216 Donc ce jugement humain qu'on croit fiable, 00:08:03.217 --> 00:08:04.645 qu'on croit stable, 00:08:04.645 --> 00:08:07.018 en fait, il a une grande composante de bruit, 00:08:07.018 --> 00:08:09.360 il a une grande composante d'aléatoire. 00:08:10.177 --> 00:08:11.416 Pourquoi c'est important ? 00:08:11.447 --> 00:08:14.852 Parce que l'algorithme, c'est ça, sa force : lui, il n'a pas de bruit. 00:08:15.772 --> 00:08:19.907 Si on donne à l'algorithme les mêmes données, il donne la même réponse. 00:08:20.113 --> 00:08:21.510 Donc il peut avoir des biais, 00:08:22.034 --> 00:08:24.368 mais il en aura moins que la plupart des humains, 00:08:24.788 --> 00:08:26.613 et surtout il n'aura pas de bruit, 00:08:27.169 --> 00:08:29.753 donc fera beaucoup moins d'erreurs que les humains. 00:08:29.753 --> 00:08:31.515 C'est ce qui explique sa supériorité. 00:08:32.502 --> 00:08:35.291 Mais je ne vous sens pas convaincus. (Rires) 00:08:35.542 --> 00:08:36.831 Vous ne voulez toujours pas 00:08:36.832 --> 00:08:40.791 que ça soit un algorithme qui vous juge sur le bord de la route en Louisiane. 00:08:40.792 --> 00:08:42.221 Non, vous n'en avez pas envie. 00:08:43.129 --> 00:08:44.558 Je crois que je sais pourquoi. 00:08:45.415 --> 00:08:48.852 C'est parce que l'algorithme, on ne comprend pas ce que c'est. 00:08:50.375 --> 00:08:52.934 C'est opaque, ce n'est pas transparent - 00:08:52.934 --> 00:08:54.852 le jugement humain non plus d'ailleurs - 00:08:54.852 --> 00:08:57.939 mais être jugé par un homme ou par une femme, 00:08:57.939 --> 00:08:59.987 vous savez à peu près comment ça fonctionne. 00:08:59.987 --> 00:09:01.074 Un algorithme, 00:09:01.074 --> 00:09:02.979 c'est mystérieux, c'est une boîte noire. 00:09:03.256 --> 00:09:04.574 En fait, 00:09:04.574 --> 00:09:06.844 on vous demande d'aimer une espèce de saucisse 00:09:07.558 --> 00:09:09.511 sans vous dire quels sont ses ingrédients 00:09:09.748 --> 00:09:12.272 et sans vous montrer l'usine où elle a été fabriquée. 00:09:13.002 --> 00:09:14.431 Ce n'est pas très appétissant. 00:09:15.153 --> 00:09:18.828 En fait, on voudrait un algorithme qui ne ressemble pas une saucisse, 00:09:18.828 --> 00:09:21.447 mais qui ressemble à une assiette de crudités bio : 00:09:22.653 --> 00:09:26.328 on sait exactement ce qu'on a devant nous, c'est complètement transparent. 00:09:27.669 --> 00:09:30.193 Mais peut-être que dans certains cas, c'est possible. 00:09:30.875 --> 00:09:33.161 Je reprends mon exemple de l'algorithme Compas, 00:09:34.299 --> 00:09:37.598 ce fameux algorithme de décision judiciaire américain. 00:09:38.002 --> 00:09:41.153 Il est basé sur 137 critères. 00:09:41.414 --> 00:09:42.748 Alors ça, c'est du big data. 00:09:43.010 --> 00:09:46.935 On va triturer 137 informations sur chaque prévenu 00:09:46.936 --> 00:09:49.079 pour calculer un score de risque de récidive. 00:09:49.431 --> 00:09:52.523 Et évidemment la formule qui va faire ce calcul est secrète, 00:09:52.524 --> 00:09:54.526 puisque propriété de l'entreprise privée 00:09:54.526 --> 00:09:56.080 qui met cet algorithme 00:09:56.081 --> 00:09:59.352 à la disposition des tribunaux des différents États américains. 00:09:59.360 --> 00:10:01.170 Donc ce n'est pas transparent du tout. 00:10:01.764 --> 00:10:06.288 Voilà que cinq chercheurs américains, de Stanford et de NYU, 00:10:07.217 --> 00:10:09.170 se disent : « Et si on essayait un truc ? 00:10:09.931 --> 00:10:13.132 Si on prenait les deux critères parmi ces 137, 00:10:13.133 --> 00:10:15.066 les deux paramètres seulement, 00:10:15.137 --> 00:10:17.833 dont on sait, d'après toutes les études de criminologie, 00:10:17.833 --> 00:10:20.453 que ce sont les meilleurs prédicteurs de la récidive. » 00:10:20.621 --> 00:10:21.629 Qu'est-ce que c'est ? 00:10:21.740 --> 00:10:22.963 L'âge du prévenu 00:10:23.836 --> 00:10:27.122 et le nombre de condamnations qu'il a déjà sur son casier judiciaire. 00:10:27.550 --> 00:10:31.645 Qu'est-ce qu'on serait capable de prévoir comme risque de récidive 00:10:32.201 --> 00:10:34.264 en utilisant simplement ces deux paramètres 00:10:34.344 --> 00:10:37.583 et en les combinant d'une manière très simple, de manière linéaire ? 00:10:38.233 --> 00:10:39.805 Eh bien avec ces deux paramètres, 00:10:39.963 --> 00:10:43.098 ils arrivent à exactement la même fiabilité de prévision 00:10:43.193 --> 00:10:45.272 que les 137 critères de Compas. 00:10:46.709 --> 00:10:48.987 Vous avez avec ce small data 00:10:49.312 --> 00:10:51.598 avec très peu de données, avec une règle simple, 00:10:52.010 --> 00:10:53.375 la même qualité de prévision 00:10:53.915 --> 00:10:57.264 que vous aviez avec l'énorme complexité de la moulinette du big data. 00:10:58.304 --> 00:10:59.705 Et ça, sur le principe, 00:10:59.706 --> 00:11:03.796 on le sait en fait depuis très longtemps, depuis une soixantaine d'années. 00:11:03.797 --> 00:11:07.624 Pourquoi on ne le fait pas plus ? Pourquoi on ne voit pas du small data partout ? 00:11:07.625 --> 00:11:10.493 Pourquoi on nous parle tout le temps de big data ? 00:11:10.494 --> 00:11:13.831 Parce que c'est juste un exemple, ça ne marche pas à tous les coups - 00:11:13.831 --> 00:11:14.974 il faudrait chercher. 00:11:15.502 --> 00:11:16.510 Mais aussi, 00:11:16.550 --> 00:11:18.027 et surtout je crois, parce que, 00:11:19.010 --> 00:11:21.836 quand je vous dis que ça atteint le même score de prévision, 00:11:21.836 --> 00:11:27.008 la même qualité d'exactitude de score de risque, de quoi on parle ? 00:11:27.009 --> 00:11:29.209 On parle de 65% dans le cas d'espèce, 00:11:29.288 --> 00:11:32.526 c'est-à-dire qu'on a des algorithmes qui vont dans 65% des cas 00:11:32.962 --> 00:11:35.343 prévoir qui va récidiver, qui ne va pas récidiver, 00:11:35.653 --> 00:11:38.248 et qui dans 35% des cas se trompent. 00:11:38.987 --> 00:11:40.529 65%, ce n'est pas mal, 00:11:40.530 --> 00:11:43.748 c'est un petit peu mieux que les juges humains, pas beaucoup mieux, 00:11:43.748 --> 00:11:45.875 mais enfin on espère qu'on peut faire mieux. 00:11:46.113 --> 00:11:48.221 Ce qu'on attend du big data, c'est que, 00:11:48.222 --> 00:11:50.464 en changeant ses formules, en apprenant plus, 00:11:50.465 --> 00:11:55.650 en s'entraînant mieux, en améliorant les algorithmes, il arrive à 70, à 75, à 80. 00:11:56.125 --> 00:11:57.840 En fait, on rêve qu'il arrive à 100. 00:11:58.455 --> 00:12:00.394 La promesse du big data, 00:12:00.395 --> 00:12:04.491 c'est qu'avec ses algorithmes, il va arriver à une prévision parfaite. 00:12:04.693 --> 00:12:06.299 C'est de ça qu'on rêve. 00:12:07.169 --> 00:12:09.070 Si on y réfléchit deux secondes, 00:12:09.071 --> 00:12:11.691 on voit bien que c'est un rêve complètement irréaliste : 00:12:12.225 --> 00:12:16.239 jamais on n'arrivera à avoir un algorithme qui prévoira avec 100% d'exactitude, 00:12:16.240 --> 00:12:18.973 ni même, je pense, avec beaucoup plus de 65%, 00:12:18.974 --> 00:12:23.820 le risque de récidive de vraies personnes humaines qui ont un libre-arbitre. 00:12:24.399 --> 00:12:28.778 Dans « Minority Report », ce n'était pas un algorithme qui faisait la prévision, 00:12:28.778 --> 00:12:30.636 c'était une espèce de créature magique. 00:12:31.106 --> 00:12:33.510 Donc c'est un rêve qui ne se réalisera pas, 00:12:34.066 --> 00:12:36.068 mais c'est pourtant la quête de ce rêve, 00:12:36.069 --> 00:12:40.994 le fantasme de la machine omnisciente, capable de prévoir l'avenir parfaitement, 00:12:41.487 --> 00:12:44.915 qui nous conduit à vouloir des algorithmes toujours plus compliqués 00:12:45.598 --> 00:12:48.828 au prix d'une complexité et d'une opacité de plus en plus grandes, 00:12:49.185 --> 00:12:52.566 qui créent cette réaction de rejet que nous avons face aux algorithmes. 00:12:53.129 --> 00:12:57.227 Le small data, ou les règles simples, c'est le contre-pied de ce raisonnement, 00:12:57.227 --> 00:13:00.510 c'est de se dire que dans beaucoup de cas, 00:13:00.883 --> 00:13:03.058 on devrait faire mieux que le jugement humain 00:13:03.947 --> 00:13:07.272 avec des algorithmes simples, totalement transparents, 00:13:07.748 --> 00:13:10.804 et évidemment imparfaits - dont on accepte l'imperfection - 00:13:11.280 --> 00:13:13.852 parce qu'on préfère un petit peu plus de transparence. 00:13:14.272 --> 00:13:15.280 Et peut-être que là, 00:13:16.598 --> 00:13:18.646 quand on aura un algorithme de ce genre-là, 00:13:18.677 --> 00:13:21.159 quand vous serez arrêté sur la route aux États-Unis 00:13:21.159 --> 00:13:23.653 et qu'on vous dira qu'un algorithme qui va décider, 00:13:23.653 --> 00:13:25.463 vous vous direz : « Bonne nouvelle ! » 00:13:26.169 --> 00:13:28.646 Parce que, pour que les algorithmes soient nos amis, 00:13:29.090 --> 00:13:33.572 pas besoin qu'ils soient parfaits, juste qu'ils soient meilleurs que nous. 00:13:34.098 --> 00:13:35.160 Merci. 00:13:35.161 --> 00:13:40.582 (Applaudissements)