1 00:00:00,759 --> 00:00:02,950 Gli algoritmi non sono obiettivi. 2 00:00:02,950 --> 00:00:06,920 L'IA e molte delle nuove tecnologie stanno perpetuando i pregiudizi. 3 00:00:06,920 --> 00:00:09,985 Loro non predicono il futuro, loro causano il futuro. 4 00:00:11,915 --> 00:00:14,610 CONTINUANDO LA CONVERSAZIONE 5 00:00:14,647 --> 00:00:17,737 IL DILEMMA SOCIALE 6 00:00:19,954 --> 00:00:23,324 Passo molto del mio tempo pensando ai pregiudizi, 7 00:00:23,324 --> 00:00:25,824 perché sono fatta così. 8 00:00:25,847 --> 00:00:28,857 E inoltre, l'incapacità del governo 9 00:00:28,890 --> 00:00:31,350 di comprendere queste questioni 10 00:00:31,377 --> 00:00:34,367 porta alla mancanza di normative e leggi che aiutino 11 00:00:34,367 --> 00:00:37,897 ad attenuare alcuni dei problemi che abbiamo già visto con l'IA. 12 00:00:38,266 --> 00:00:40,326 Gli algoritmi non sono obbiettivi. 13 00:00:41,307 --> 00:00:45,067 Gli algoritmi sono ottimizzati per una strana definizione di successo. 14 00:00:45,067 --> 00:00:49,060 Utilizzano dati storici per predire i successi futuri. 15 00:00:49,407 --> 00:00:51,157 La gente crede ciecamente 16 00:00:51,157 --> 00:00:53,960 che gli algoritmi siano giusti e obbiettivi per natura 17 00:00:54,049 --> 00:00:56,919 e forse perché credono in questa lealtà 18 00:00:56,919 --> 00:00:58,839 non mettono in dubbio l'algoritmo. 19 00:00:58,893 --> 00:01:01,713 Quindi, quando l'algoritmo si mostra razzista come i dati 20 00:01:01,713 --> 00:01:03,583 che vi inseriamo, 21 00:01:03,693 --> 00:01:08,853 riproduce esattamente i modelli che vorremmo evitasse. 22 00:01:09,350 --> 00:01:13,040 I sistemi stanno introducendo tonnellate di informazioni senza contesto, 23 00:01:13,165 --> 00:01:16,475 senza storia e persino senza questioni politiche, 24 00:01:16,526 --> 00:01:18,306 economiche e sociali. 25 00:01:18,483 --> 00:01:22,483 Quindi ci sono maggiori probabilità che un sistema di IA 26 00:01:22,483 --> 00:01:25,903 incarni questi pregiudizi o che addirittura li peggiori. 27 00:01:26,537 --> 00:01:28,544 Esistono quattro tipi di algoritmo 28 00:01:28,549 --> 00:01:31,209 che credo vengano utilizzati indebitamente 29 00:01:31,439 --> 00:01:34,979 e questo potrebbe causare gravi danni alla società. 30 00:01:35,690 --> 00:01:37,330 Le quattro categorie sono: 31 00:01:37,365 --> 00:01:38,505 Finanziario. 32 00:01:38,505 --> 00:01:40,065 Sono algoritmi che decidono 33 00:01:40,065 --> 00:01:42,395 se la gente comprerà un'assicurazione e a quanto, 34 00:01:42,395 --> 00:01:44,193 se avrà delle buone carte di credito, 35 00:01:44,193 --> 00:01:45,243 se otterrà l'ipoteca, 36 00:01:45,243 --> 00:01:46,293 se troverà una casa. 37 00:01:46,324 --> 00:01:48,404 Se apri il sito web di una carta di credito, 38 00:01:48,404 --> 00:01:50,614 non avrai informazioni sulle carte di credito. 39 00:01:50,614 --> 00:01:53,664 Ti studiano e ti analizzano 40 00:01:53,683 --> 00:01:57,283 e sono loro a mostrarti che carta di credito fa per te. 41 00:01:57,738 --> 00:02:00,188 La seconda categoria ha a che vedere con la libertà. 42 00:02:00,602 --> 00:02:01,642 Come sei sorvegliato? 43 00:02:01,643 --> 00:02:03,193 Per quanto tempo vai in carcere? 44 00:02:03,193 --> 00:02:05,443 Sei stato in carcere in attesa di processo? 45 00:02:05,845 --> 00:02:08,365 La terza categoria riguarda i mezzi di sostentamento: 46 00:02:08,365 --> 00:02:09,235 il tuo lavoro. 47 00:02:09,578 --> 00:02:11,688 Ottieni un colloquio per il lavoro richiesto? 48 00:02:11,688 --> 00:02:12,940 Hai trovato lavoro? 49 00:02:12,940 --> 00:02:14,739 Hai ricevuto un aumento di stipendio? 50 00:02:14,739 --> 00:02:16,229 Qual è il tuo orario di lavoro? 51 00:02:16,812 --> 00:02:19,762 Un esempio che attirò l'attenzione dei mezzi di comunicazione 52 00:02:19,762 --> 00:02:21,392 era un algoritmo di contrattazione 53 00:02:21,392 --> 00:02:25,392 che favorì in modo spropositato le persone che si chiamavano "Jared" 54 00:02:25,392 --> 00:02:27,312 e che giocavano a lacrosse, perché 55 00:02:27,312 --> 00:02:30,662 la maggior parte delle persone con un buon rendimento in quell'azienda 56 00:02:30,662 --> 00:02:32,501 avevano queste due cose in comune. 57 00:02:33,092 --> 00:02:35,736 E la quarta categoria è l'informazione stessa. 58 00:02:36,053 --> 00:02:37,553 Come si ottiene l'informazione? 59 00:02:37,553 --> 00:02:38,583 In cosa crediamo? 60 00:02:38,583 --> 00:02:40,454 Informazione politica, principalemente. 61 00:02:40,693 --> 00:02:42,453 Queste cose sono algoritmi adesso. 62 00:02:42,628 --> 00:02:43,968 A volte sono ingiuste. 63 00:02:43,968 --> 00:02:45,218 Altre volte illegali. 64 00:02:45,553 --> 00:02:49,732 Però non abbiamo scoperto come applicare le nostre leggi contro la discriminazione. 65 00:02:50,127 --> 00:02:54,046 La distopia che mi preoccupa è che... 66 00:02:54,046 --> 00:02:58,607 non noi freniamo gli oscuri e pericolosi algoritmi. 67 00:02:58,607 --> 00:03:00,629 "Ehi, ti stiamo seguendo dalla tua nascita. 68 00:03:00,788 --> 00:03:02,058 Sappiamo che 69 00:03:02,344 --> 00:03:03,854 hai avuto un'infanzia infelice, 70 00:03:03,854 --> 00:03:07,121 in un quartiere dove molta gente non ha avuto successo e... 71 00:03:07,564 --> 00:03:09,684 Prevediamo che non avrai successo. 72 00:03:09,820 --> 00:03:11,803 Non solo questo, 73 00:03:11,803 --> 00:03:13,732 ma faremo il possibile affinché accada". 74 00:03:13,780 --> 00:03:15,470 Non andrai in una buona università. 75 00:03:15,470 --> 00:03:16,800 Né otterrai un buon lavoro 76 00:03:16,800 --> 00:03:17,860 e nemmeno un prestito. 77 00:03:17,860 --> 00:03:19,980 Perché questo fanno realmente gli algoritmi. 78 00:03:19,980 --> 00:03:22,596 Non predicono il futuro, loro causano il futuro. 79 00:03:24,683 --> 00:03:26,983 IL DILEMMA SOCIALE 80 00:03:26,991 --> 00:03:31,641 IL NOSTRO DILEMMA SOCIALE