Gli algoritmi non sono obiettivi. L'IA e molte delle nuove tecnologie stanno perpetuando i pregiudizi. Loro non predicono il futuro, loro causano il futuro. CONTINUANDO LA CONVERSAZIONE IL DILEMMA SOCIALE Passo molto del mio tempo pensando ai pregiudizi, perché sono fatta così. E inoltre, l'incapacità del governo di comprendere queste questioni porta alla mancanza di normative e leggi che aiutino ad attenuare alcuni dei problemi che abbiamo già visto con l'IA. Gli algoritmi non sono obbiettivi. Gli algoritmi sono ottimizzati per una strana definizione di successo. Utilizzano dati storici per predire i successi futuri. La gente crede ciecamente che gli algoritmi siano giusti e obbiettivi per natura e forse perché credono in questa lealtà non mettono in dubbio l'algoritmo. Quindi, quando l'algoritmo si mostra razzista come i dati che vi inseriamo, riproduce esattamente i modelli che vorremmo evitasse. I sistemi stanno introducendo tonnellate di informazioni senza contesto, senza storia e persino senza questioni politiche, economiche e sociali. Quindi ci sono maggiori probabilità che un sistema di IA incarni questi pregiudizi o che addirittura li peggiori. Esistono quattro tipi di algoritmo che credo vengano utilizzati indebitamente e questo potrebbe causare gravi danni alla società. Le quattro categorie sono: Finanziario. Sono algoritmi che decidono se la gente comprerà un'assicurazione e a quanto, se avrà delle buone carte di credito, se otterrà l'ipoteca, se troverà una casa. Se apri il sito web di una carta di credito, non avrai informazioni sulle carte di credito. Ti studiano e ti analizzano e sono loro a mostrarti che carta di credito fa per te. La seconda categoria ha a che vedere con la libertà. Come sei sorvegliato? Per quanto tempo vai in carcere? Sei stato in carcere in attesa di processo? La terza categoria riguarda i mezzi di sostentamento: il tuo lavoro. Ottieni un colloquio per il lavoro richiesto? Hai trovato lavoro? Hai ricevuto un aumento di stipendio? Qual è il tuo orario di lavoro? Un esempio che attirò l'attenzione dei mezzi di comunicazione era un algoritmo di contrattazione che favorì in modo spropositato le persone che si chiamavano "Jared" e che giocavano a lacrosse, perché la maggior parte delle persone con un buon rendimento in quell'azienda avevano queste due cose in comune. E la quarta categoria è l'informazione stessa. Come si ottiene l'informazione? In cosa crediamo? Informazione politica, principalemente. Queste cose sono algoritmi adesso. A volte sono ingiuste. Altre volte illegali. Però non abbiamo scoperto come applicare le nostre leggi contro la discriminazione. La distopia che mi preoccupa è che... non noi freniamo gli oscuri e pericolosi algoritmi. "Ehi, ti stiamo seguendo dalla tua nascita. Sappiamo che hai avuto un'infanzia infelice, in un quartiere dove molta gente non ha avuto successo e... Prevediamo che non avrai successo. Non solo questo, ma faremo il possibile affinché accada". Non andrai in una buona università. Né otterrai un buon lavoro e nemmeno un prestito. Perché questo fanno realmente gli algoritmi. Non predicono il futuro, loro causano il futuro. IL DILEMMA SOCIALE IL NOSTRO DILEMMA SOCIALE