Så kämpar jag mot partiska algoritmer
-
0:01 - 0:04Hej, jag är Joy, jag är poet i kod,
-
0:04 - 0:09med uppdrag att stoppa
en osynlig kraft som vaknat, -
0:09 - 0:12en kraft som jag kallar
"den kodade blicken," -
0:12 - 0:15min term för fördomar i algoritmer.
-
0:15 - 0:20Algoritmiska fördomar, precis som
mänskliga, resulterar i orättvisa. -
0:20 - 0:26Men, algoritmer kan, precis som virus,
sprida fördomar i stor skala -
0:26 - 0:27och i snabb takt.
-
0:28 - 0:32Fördomar i algoritmer kan också
leda till att människor sållas bort -
0:32 - 0:34och till diskriminerande praxis.
-
0:35 - 0:37Låt mig visa vad jag menar.
-
0:37 - 0:40(Video) Joy Buolamwini: Hej, kamera.
Jag har ett ansikte. -
0:40 - 0:42Kan du se mitt ansikte?
-
0:42 - 0:44Utan glasögon?
-
0:44 - 0:46Du kan se hennes ansikte.
-
0:46 - 0:48Mitt ansikte då?
-
0:52 - 0:56Jag har en mask. Kan du se min mask?
-
0:56 - 0:59Joy Buolamwini: Hur hände det här?
-
0:59 - 1:02Varför sitter jag framför en dator
-
1:02 - 1:03med en vit mask,
-
1:03 - 1:07och försöker få en billig webbkamera
att upptäcka mig? -
1:07 - 1:10Jo, när jag inte slåss
mot den kodade blicken, -
1:10 - 1:11som en poet i kod,
-
1:11 - 1:14är jag doktorand på MIT Media Lab,
-
1:14 - 1:19och där har jag möjlighet att arbeta
i en massa egendomliga projekt, -
1:19 - 1:21inklusive Aspire Mirror,
-
1:21 - 1:26ett projekt jag startade för att projicera
digitala masker på min spegelbild. -
1:26 - 1:29Så på morgonen,
när jag ville känna mig stark, -
1:29 - 1:30kunde jag projicera ett lejon,
-
1:30 - 1:34Om jag ville peppa mig själv,
projicerade jag kanske ett citat. -
1:34 - 1:37Jag använde mjukvara för
generisk ansiktsigenkänning -
1:37 - 1:38för att bygga systemet,
-
1:38 - 1:43men upptäckte att det var väldigt svårt
att testa om jag inte bar en vit mask. -
1:44 - 1:49Tyvärr har jag upplevt
det här bekymret tidigare. -
1:49 - 1:53När jag studerade datavetenskap på
Georgia Institute of Technology, -
1:53 - 1:55brukade jag arbeta med mänskliga robotar,
-
1:55 - 1:59och en av mina uppgifter var
att få roboten att leka tittut, -
1:59 - 2:01en enkel lek mellan två personer
-
2:01 - 2:05där man täcker sina ansikten och
sedan visar dem och säger "Tittut!" -
2:05 - 2:09Problemet är att tittut inte fungerar
om man inte ser varandra, -
2:09 - 2:12och min robot kunde inte se mig.
-
2:12 - 2:16Men jag lånade min rumskamrats ansikte
för att göra klart projektet, -
2:16 - 2:17lämnade in uppgiften,
-
2:17 - 2:21och tänkte, vet ni vad,
någon annan kommer att lösa problemet. -
2:22 - 2:24Inte så långt därefter,
-
2:24 - 2:28var jag i Hong Kong och deltog i
en tävling för entreprenörer. -
2:28 - 2:31Organisatörerna tog med deltagarna
-
2:31 - 2:33på en rundtur bland
lokala startup-företag. -
2:33 - 2:36Ett av dessa hade en mänsklig robot,
-
2:36 - 2:38och de ville köra en demo.
-
2:38 - 2:41Demon fungerade på alla
tills den kom till mig, -
2:41 - 2:43och ni kan säkert gissa varför.
-
2:43 - 2:46Den kunde inte upptäcka mitt ansikte.
-
2:46 - 2:49Jag frågade utvecklarna vad som hänt,
-
2:49 - 2:54och det visade sig att de använt samma
mjukvara för ansiktsigenkänning som jag. -
2:54 - 2:56På andra sidan jordklotet,
-
2:56 - 3:00lärde jag mig att fördomsfulla algoritmer
kan färdas lika snabbt -
3:00 - 3:03som det tar att ladda ner
några filer från internet. -
3:04 - 3:07Vad är det som pågår?
Varför upptäcks inte mitt ansikte? -
3:07 - 3:10Jo, vi måste titta på hur
vi ger maskinerna syn. -
3:10 - 3:14Datorigenkänning använder
maskininlärningsteknik -
3:14 - 3:16för att känna igen ansikten.
-
3:16 - 3:19Så här fungerar det, du skapar en modell
med exempel på olika ansikten. -
3:19 - 3:23Här är ett ansikte, och ett till.
Detta är inte ett ansikte. -
3:23 - 3:27Över tid, kan du lära datorn
att upptäcka andra ansikten. -
3:27 - 3:31Men, om modellen inte speglar
mångfalden tillräckligt mycket, -
3:31 - 3:34kommer ansikten som skiljer sig för mycket
från den fastställda normen -
3:34 - 3:36bli svårare att upptäcka,
-
3:36 - 3:38vilket var det som hände mig.
-
3:38 - 3:40Men oroa er inte -
det finns något gott i det. -
3:40 - 3:43Träningsmodellerna kommer inte
från ingenstans. -
3:43 - 3:45Vi kan faktiskt skapa dem.
-
3:45 - 3:49Det finns möjligheter
att skapa heltäckande modeller -
3:49 - 3:53som skapar en djupare bild
av mänskligheten. -
3:53 - 3:55Som ni sett i mina exempel
-
3:55 - 3:57var mänskliga robotar anledningen
-
3:57 - 4:02till att jag upptäckte exkluderingen
med fördomsfulla algoritmer. -
4:02 - 4:06Men fördomar i algoritmer kan också
leda till diskriminerande normer. -
4:07 - 4:09Över hela USA,
-
4:09 - 4:13har polismyndigheterna börjat använda
mjukvara för ansiktsigenkänning -
4:13 - 4:16som ett bland andra redskap
för brottsbekämpning. -
4:16 - 4:18Georgetown Law publicerade en rapport
-
4:18 - 4:24som visade att varannan vuxen i USA -
det är 117 miljoner människor - -
4:24 - 4:28har sina ansikten registrerade
i nätverk för ansiktsigenkänning. -
4:28 - 4:33Polisyndigheterna kan använda
de här nätverken helt oreglerat, -
4:33 - 4:37genom att använda algoritmer
vars tillförlitlighet inte granskats. -
4:37 - 4:41Trots att vi vet att ansiktsigenkänning
inte är tillförlitlig, -
4:41 - 4:45och att kunna kategorisera ansikten
fortfarande är en utmaning. -
4:45 - 4:47Du har kanske sett det på Facebook.
-
4:47 - 4:50Mina vänner och jag
skrattar varje gång vi ser andra -
4:50 - 4:52som blivit felaktigt taggade
i våra bilder. -
4:52 - 4:58Men att felaktigt identifiera en misstänkt
kriminell är inget att skratta åt, -
4:58 - 5:01inte heller att åsidosätta
de mänskliga rättigheterna. -
5:01 - 5:04Maskininlärning används
för ansiktsigenkänning, -
5:04 - 5:08men den används också inom andra områden.
-
5:09 - 5:13I boken "Weapons of Math Destruction,"
-
5:13 - 5:20skriver forskaren Cathy O´Neil
om de framväxande UMD:na - -
5:20 - 5:24utbredda, mystiska och
destruktiva algoritmer -
5:24 - 5:27som i ökande utsträckning
används för att ta beslut -
5:27 - 5:31som påverkar fler och fler
aspekter i våra liv. -
5:31 - 5:32Vem blir anställd eller sparkad?
-
5:32 - 5:35Får du ta lån?
Får du teckna försäkringar? -
5:35 - 5:38Kommer du in på det universitet du vill?
-
5:38 - 5:42Betalar du och jag samma pris
för samma produkt -
5:42 - 5:44köpt på samma sätt?
-
5:44 - 5:48Lagstiftningen börjar också
använda maskininlärning -
5:48 - 5:50i förebyggande polisarbete.
-
5:50 - 5:54Vissa domare använder maskingenererade
riskbedömningar för att besluta -
5:54 - 5:58hur långa fängelsestraff som ska utdömas.
-
5:58 - 6:01Vi behöver verkligen fundera
över de här besluten. -
6:01 - 6:02Är de rättvisa?
-
6:02 - 6:05Vi har sett att fördomarna i algoritmerna
-
6:05 - 6:08inte nödvändigtvis
leder till rättvisa resultat. -
6:08 - 6:10Så vad kan vi göra?
-
6:10 - 6:14Tja, vi kan börja fundera på
hur vi skapar en mer inkluderande kod -
6:14 - 6:17och använda en mer inkluderande praxis.
-
6:17 - 6:19Det börjar med människor.
-
6:20 - 6:22Så vem som programmerar har betydelse.
-
6:22 - 6:26Bygger vi arbetsgrupper
med individer olika erfarenheter -
6:26 - 6:28som kan se utanför varandras skygglappar?
-
6:28 - 6:32På den tekniska sidan har det betydelse
hur vi programmerar. -
6:32 - 6:35Har vi med rättviseperspektivet
när vi utvecklar system? -
6:36 - 6:38Slutligen, varför vi programmerar
har betydelse. -
6:39 - 6:44Vi har använt datorkraft för beräkningar
som skapat enorma rikedomar. -
6:44 - 6:48Nu har vi möjlighet
att skapa ännu större jämlikhet -
6:48 - 6:51om vi prioriterar sociala förändringar
-
6:51 - 6:53och inte tar dem i efterhand.
-
6:54 - 6:59De här tre principerna
kommer att utgöra "inkodnings"-rörelsen. -
6:59 - 7:00Vem som kodar har betydelse,
-
7:00 - 7:02hur vi kodar har betydelse
-
7:02 - 7:04och varför vi kodar har betydelse.
-
7:04 - 7:07Så för att komma närmare inkodning
kan vi börja fundera på -
7:07 - 7:10att bygga plattformar
som kan identifiera fördomar -
7:10 - 7:13genom att samla in folks erfarenheter
som den jag pratade om, -
7:13 - 7:16men också genom att
granska existerande mjukvara. -
7:16 - 7:20Vi kan också börja skapa mer
inkluderande modeller. -
7:20 - 7:23Tänk er en kampanj
för "Selfies för inkludering" -
7:23 - 7:27där du och jag kan hjälpa
utvecklarna testa och skapa -
7:27 - 7:29mer inkluderande modeller.
-
7:29 - 7:32Vi kan också börja tänka mer samvetsgrant
-
7:32 - 7:38kring de sociala effekterna
av tekniken som vi utvecklar. -
7:38 - 7:40För att få fart på "inkodnings"-rörelsen,
-
7:40 - 7:43har jag lanserat
Algorithmic Justice League, -
7:43 - 7:49där alla som bryr sig om rättvisa kan
hjälpa till att kämpa mot fördomsfull kod. -
7:49 - 7:52På www.codegaze.com,
kan du rapportera partisk kod, -
7:52 - 7:55begära granskningar, bli testare
-
7:55 - 7:57och delta i den pågående diskussionen,
-
7:57 - 8:00#codedgaze
-
8:01 - 8:03Jag bjuder in er till
att ansluta er till mig -
8:03 - 8:07i skapandet av en värld
där tekniken fungerar för oss alla, -
8:07 - 8:09inte bara för några av oss,
-
8:09 - 8:14en värld där vi värdesätter inkludering
och fokuserar på social förändring. -
8:14 - 8:15Tack.
-
8:15 - 8:18(Applåder)
-
8:21 - 8:24Men jag har en fråga:
-
8:24 - 8:26Kommer ni att ansluta er till kampen?
-
8:26 - 8:27(Skratt)
-
8:27 - 8:30(Applåder)
- Title:
- Så kämpar jag mot partiska algoritmer
- Speaker:
- Joy Buolamwini
- Description:
-
MIT-doktoranden Joy Buolamwini jobbade med mjukvara för ansiktsigenkänning när hon upptäckte ett problem: mjukvaran upptäckte inte hennes ansikte - eftersom de personer som kodade algoritmerna inte hade tänkt på att de behövde upptäcka olika hudtoner och ansiktsstrukturer. Nu är hon på ett uppdrag för att slåss mot fördomar i maskininlärning, ett fenomen hon kallar "den kodade blicken." Det här är ett ögonöppnande föredrag kring nödvändigheten av att koden är tillförlitlig ... eftersom algoritmerna tar över fler och fler aspekter av våra liv.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Lisbeth Pekkari approved Swedish subtitles for How I'm fighting bias in algorithms | ||
Lisbeth Pekkari accepted Swedish subtitles for How I'm fighting bias in algorithms | ||
Lisbeth Pekkari edited Swedish subtitles for How I'm fighting bias in algorithms | ||
Lisbeth Pekkari edited Swedish subtitles for How I'm fighting bias in algorithms | ||
Anette Smedberg edited Swedish subtitles for How I'm fighting bias in algorithms | ||
Anette Smedberg edited Swedish subtitles for How I'm fighting bias in algorithms | ||
Anette Smedberg edited Swedish subtitles for How I'm fighting bias in algorithms | ||
Anette Smedberg edited Swedish subtitles for How I'm fighting bias in algorithms |