1 00:00:01,041 --> 00:00:04,175 Sziasztok, én Joy vagyok, a kód poétája, 2 00:00:04,199 --> 00:00:09,192 és küldetésem egy láthatatlan, egyre hatalmasabb erő, 3 00:00:09,216 --> 00:00:12,072 a "kódolt csőlátás" megfékezése. 4 00:00:12,096 --> 00:00:15,405 Így nevezem én az algoritmikus torzítást. 5 00:00:15,429 --> 00:00:19,729 Ez, akárcsak az emberi előítélet, igazságtalanságokhoz vezet. 6 00:00:19,753 --> 00:00:25,209 Az algoritmusok azonban képesek e torzításokat járványszerűen, 7 00:00:25,249 --> 00:00:28,071 óriási területen és hihetetlen sebességgel terjeszteni. 8 00:00:28,091 --> 00:00:32,330 Az algoritmikus torzítás emellett kizárásos tapasztalatokhoz, 9 00:00:32,354 --> 00:00:34,482 és diszkriminációs gyakorlathoz is vezethet. 10 00:00:34,506 --> 00:00:36,567 Bemutatom, mire gondolok. 11 00:00:36,980 --> 00:00:39,416 (Videó) Szia, kamera. Van egy arcom. 12 00:00:40,162 --> 00:00:42,026 Látod az arcom? 13 00:00:42,051 --> 00:00:43,676 A szemüveg nélküli arcom? 14 00:00:43,701 --> 00:00:45,915 Az ő arcát látod. 15 00:00:46,237 --> 00:00:48,482 Mi a helyzet az én arcommal? 16 00:00:51,890 --> 00:00:55,640 Van egy maszkom. Látod a maszkom? 17 00:00:56,474 --> 00:00:58,839 Szóval, hogy hogy is történt ez? 18 00:00:58,863 --> 00:01:02,004 Miért ülök egy számítógéppel szemben 19 00:01:02,028 --> 00:01:03,452 egy fehér maszkban, 20 00:01:03,476 --> 00:01:07,126 próbálva egy olcsó webkamerával felismertetni magam? 21 00:01:07,150 --> 00:01:09,441 Mikor épp nem a kódolt csőlátás ellen harcolo 22 00:01:09,465 --> 00:01:10,985 kódpoétaként, 23 00:01:11,009 --> 00:01:14,281 akkor vagyok végzős hallgató az MIT Media Lab-en, 24 00:01:14,305 --> 00:01:19,222 ahol lehetőségem van mindenféle furcsa projekten dolgozni. 25 00:01:19,246 --> 00:01:21,273 Ezek egyike az Aspire Mirror, 26 00:01:21,297 --> 00:01:26,431 melyben digitális maszkokat tudok a tükörképemre vetíteni. 27 00:01:26,455 --> 00:01:28,805 Reggel, ha erősnek akarom érezni magam, 28 00:01:28,829 --> 00:01:30,263 felveszek egy oroszlánt. 29 00:01:30,287 --> 00:01:33,783 Ha lelkesítésre van szükségem, akkor talán egy idézetet. 30 00:01:33,807 --> 00:01:35,690 E rendszer megépítéséhez 31 00:01:35,750 --> 00:01:38,171 egy általános arcfelismerő programot használtam, 32 00:01:38,195 --> 00:01:43,298 de fehér maszk nélkül nehéz volt tesztelni. 33 00:01:44,282 --> 00:01:48,628 Sajnos korábban már beleütköztem ebbe a problémába. 34 00:01:48,652 --> 00:01:52,955 Amikor a Georgia Tech-en számítástudományt tanultam. 35 00:01:52,979 --> 00:01:55,034 társas robotokon dolgoztam, 36 00:01:55,058 --> 00:01:58,835 és az egyik feladat az volt, hogy bújócskázzak egyikükkel, 37 00:01:58,859 --> 00:02:00,542 ami egy egyszerű oda-vissza játék. 38 00:02:00,566 --> 00:02:04,887 A partnerek eltakarták az arcukat, aztán felfedték: "Aki bújt, aki nem..." 39 00:02:04,911 --> 00:02:09,340 A probléma, hogy nehéz bújócskázni, ha nem látjuk egymást. 40 00:02:09,364 --> 00:02:11,863 A robotom pedig nem látott engem. 41 00:02:11,887 --> 00:02:15,837 Ezért kölcsönvettem a szobatársam arcát a projekt idejére, 42 00:02:15,861 --> 00:02:17,241 aztán beadtam a feladatot. 43 00:02:17,265 --> 00:02:21,018 Majd rájöttem, hogy valaki más fogja megoldani ezt a problémát. 44 00:02:21,669 --> 00:02:23,672 Nem sokkal később, 45 00:02:23,696 --> 00:02:27,855 Hong Kongban voltam egy vállalkozói versenyen. 46 00:02:28,339 --> 00:02:31,033 A szervezők látogatásra vitték a résztvevőket 47 00:02:31,057 --> 00:02:33,429 helybeli startup vállalkozásokhoz. 48 00:02:33,453 --> 00:02:36,168 Az egyiknek volt egy társas robotja, 49 00:02:36,192 --> 00:02:38,104 amivel készítettek egy bemutatót. 50 00:02:38,128 --> 00:02:41,108 Ez mindenkin működött, kivéve engem, 51 00:02:41,132 --> 00:02:43,055 és valószínűleg kitalálják: 52 00:02:43,079 --> 00:02:46,044 az én arcomat nem érzékelte. 53 00:02:46,068 --> 00:02:48,579 Kérdeztem a fejlesztőket, mi történik. 54 00:02:48,603 --> 00:02:53,930 Kiderült, hogy ugyanazt az arcfelismerő programot használtuk. 55 00:02:53,950 --> 00:02:55,810 A világ másik felén jöttem rá, 56 00:02:55,834 --> 00:02:59,686 hogy az algoritmikus torzítás terjedése olyan gyors, 57 00:02:59,710 --> 00:03:02,880 mint pár fájl letöltése az internetről. 58 00:03:03,745 --> 00:03:06,821 De mi is történik itt? Miért nem érzékeli az arcom? 59 00:03:06,845 --> 00:03:10,201 Nézzük meg, hogy tanítjuk meg látni a gépeket. 60 00:03:10,225 --> 00:03:13,634 A gépi látás gépi tanulási technikákat használnak 61 00:03:13,658 --> 00:03:15,538 az arcfelismeréshez. 62 00:03:15,562 --> 00:03:19,459 Ez úgy működik, hogy különböző arcokból betanító adathalmazokat készítünk. 63 00:03:19,483 --> 00:03:22,301 Ez egy arc. Ez egy arc. Ez nem egy arc. 64 00:03:22,325 --> 00:03:26,844 A gép idővel megtanul más arcokat is felismerni. 65 00:03:26,868 --> 00:03:30,857 Ha azonban a betanító sorozat nem elég változatos, 66 00:03:30,881 --> 00:03:34,230 az átlagtól jelentősen eltérő arcokat 67 00:03:34,254 --> 00:03:35,903 nehezen fogja felismerni. 68 00:03:35,927 --> 00:03:37,890 Ez történt az esetemben is. 69 00:03:37,914 --> 00:03:40,296 De semmi gond, vannak azért jó hírek is. 70 00:03:40,320 --> 00:03:43,091 A betanító adathalmazok nem a semmiből lesznek. 71 00:03:43,115 --> 00:03:44,903 Mi tudunk ilyeneket készíteni. 72 00:03:44,927 --> 00:03:49,103 Tudunk teljes spektrumú betanító készleteket gyártani, 73 00:03:49,127 --> 00:03:52,951 melyek jobban tükrözik az emberi arcok sokféleségét. 74 00:03:52,975 --> 00:03:55,196 Láthatták a példáimon, 75 00:03:55,220 --> 00:03:57,128 hogyan vettem észre a társas robotoknál 76 00:03:57,158 --> 00:04:01,623 ezeket az algoritmikus torzításokat. 77 00:04:01,647 --> 00:04:06,462 Az algoritmikus torzítás azonban diszkriminációhoz vezethet. 78 00:04:07,437 --> 00:04:08,890 A rendőrség Amerika-szerte 79 00:04:08,914 --> 00:04:13,112 elkezdett arcfelismerő programokat használni 80 00:04:13,136 --> 00:04:15,595 a bűnözés elleni harcban. 81 00:04:15,619 --> 00:04:17,632 A Georgtown-i törvényszék jelentése szerint 82 00:04:17,656 --> 00:04:24,419 minden második amerikai felnőtt - azaz 117 millió ember - 83 00:04:24,443 --> 00:04:27,977 arca szerepel arcfelismerő hálózatokban. 84 00:04:28,001 --> 00:04:32,553 A rendőrség szabályozatlanul fér hozzá e hálózatokhoz, 85 00:04:32,577 --> 00:04:36,863 olyan algoritmusokkal, melyek pontosságát senki nem ellenőrizte. 86 00:04:36,887 --> 00:04:40,751 Tudjuk, hogy az arcfelismerés nem elég megbízható, 87 00:04:40,775 --> 00:04:44,954 és az arcok következetes felismerése továbbra is gondot okoz. 88 00:04:44,978 --> 00:04:46,740 Láthatták a Facebookon. 89 00:04:46,764 --> 00:04:49,752 A barátaim és én mindig nevetünk 90 00:04:49,776 --> 00:04:52,234 mások félrejelölt képein a fotóinkon. 91 00:04:52,258 --> 00:04:57,849 De tévesen felismerni egy bűnözőt, nem vicces, 92 00:04:57,873 --> 00:05:00,700 mint ahogy a személyes szabadság megsértése sem az. 93 00:05:00,724 --> 00:05:03,929 A gépi tanulást arcfelismerésre használják, 94 00:05:03,953 --> 00:05:08,458 de már a a számítógépes látás területén kívül is használják. 95 00:05:09,266 --> 00:05:13,282 "Weapons of Math Destruction" [Matematikai fegyverek] című könyvében 96 00:05:13,306 --> 00:05:19,987 Cathy O'Neil adattudós a WMO-k - egyre szaporodó, 97 00:05:20,011 --> 00:05:24,364 rejtélyes és pusztító algoritmusok - térnyeréséről ír, 98 00:05:24,388 --> 00:05:27,352 melyeket fontos döntések során használnak, 99 00:05:27,376 --> 00:05:30,553 és melyek életünk több területére kihatnak. 100 00:05:30,577 --> 00:05:32,447 Kit veszünk fel és kit rúgunk ki? 101 00:05:32,471 --> 00:05:34,583 Ki kap hitelt? Ki köthet biztosítást? 102 00:05:34,607 --> 00:05:38,110 Felvesznek a fősulira, ahova be akarunk kerülni? 103 00:05:38,134 --> 00:05:41,643 Az egy adott helyez vásárolt azonos termékekért 104 00:05:41,667 --> 00:05:44,109 vajon ugyanazt az árat fizetjük? 105 00:05:44,133 --> 00:05:47,892 A törvénykezés elkezdte a gépi tanulást 106 00:05:47,916 --> 00:05:50,205 a bűnmegelőzésben is használni. 107 00:05:50,229 --> 00:05:53,723 Egyes bírók gép által generált kockázati értékek alapján döntik el, 108 00:05:53,747 --> 00:05:58,149 mennyi időt üljön valaki börtönben. 109 00:05:58,173 --> 00:06:00,627 Nagyon el kell gondolkoznunk ezeken a döntéseken. 110 00:06:00,651 --> 00:06:01,833 Igazságosak vajon? 111 00:06:01,857 --> 00:06:04,747 Láthattuk, hogy az algoritmikus torzítás 112 00:06:04,771 --> 00:06:08,145 nem mindig vezet igazságos végkimenetelhez. 113 00:06:08,169 --> 00:06:10,133 Mit tudunk hát tenni? 114 00:06:10,157 --> 00:06:13,837 Ki kell találnunk, hogyan készítsünk tökéletesebb kódokat, 115 00:06:13,861 --> 00:06:16,851 jobb kódolási gyakorlatok alkalmazásával. 116 00:06:16,875 --> 00:06:19,184 És ez az emberekkel kezdődik. 117 00:06:19,708 --> 00:06:21,669 A kódolókkal, programozókkal. 118 00:06:21,693 --> 00:06:25,812 Vajon a fejlesztői teamek összetétele elég változatos ahhoz, 119 00:06:25,836 --> 00:06:29,097 hogy a tagok képesek legyenek egymás gyenge pontjait kiküszöbölni? 120 00:06:29,157 --> 00:06:31,866 Technikai oldalról nézve az számít, hogy hogyan kódolunk. 121 00:06:31,906 --> 00:06:35,491 Beépítjük az igazságosságot a rendszerek fejlesztése során? 122 00:06:35,515 --> 00:06:38,428 És végül: miért is kódolunk? 123 00:06:38,785 --> 00:06:43,868 A számítástechnika eszközei hatalmas gazdagságra nyitottak kaput. 124 00:06:43,892 --> 00:06:48,339 Most lehetőségünk van nagyobb egyenlőség elérésére, 125 00:06:48,363 --> 00:06:51,293 ha rendszereinket kezdettől fogva 126 00:06:51,317 --> 00:06:53,977 a társadalmi változásokat szem előtt tartva fejlesztjük. 127 00:06:54,008 --> 00:06:58,530 Ez a "belekódolás" mozgalom három alapeleme: 128 00:06:58,554 --> 00:07:00,206 Ki kódol? 129 00:07:00,230 --> 00:07:01,773 Hogyan kódol? 130 00:07:01,797 --> 00:07:03,820 Miért kódol? 131 00:07:03,844 --> 00:07:06,943 A "belekódolás" irányába való elmozduláshoz szükségünk lesz 132 00:07:06,967 --> 00:07:10,131 olyan megoldásokra, amelyek képesek az enyémhez hasonló 133 00:07:10,155 --> 00:07:13,603 emberi tapasztalatok gyűjtésével, és létező rendszerek ellenőrzésével 134 00:07:13,633 --> 00:07:16,327 felismerni az algoritmikus torzítást. 135 00:07:16,351 --> 00:07:20,116 Közben elkezdhetünk jobb betanító készleteket összeállítani. 136 00:07:20,140 --> 00:07:22,943 Képzeljünk el egy "Közreműködő selfie-k" kampányt, 137 00:07:22,967 --> 00:07:26,622 mellyel segíthetjük a fejlesztőket átfogóbb betanítási készletek 138 00:07:26,646 --> 00:07:28,739 létrehozásában és tesztelésében. 139 00:07:29,302 --> 00:07:32,130 És elkezdhetünk lelkiismeretesebben gondolkozni 140 00:07:32,154 --> 00:07:37,545 az általunk fejlesztett technológia társadalmi hatásairól. 141 00:07:37,569 --> 00:07:39,962 A "belekódolási" mozgalom elindításához 142 00:07:39,986 --> 00:07:42,833 Megalapítottam az Algoritmikus Igazság Ligáját, 143 00:07:42,857 --> 00:07:48,729 melyhez bárki csatlakozhat, és segíthet a kódolt csőlátás elleni harcban. 144 00:07:48,753 --> 00:07:52,049 A codedgaze.com oldalon bejelenthetnek részrehajlást, 145 00:07:52,073 --> 00:07:54,518 kérhetnek felülvizsgálatot, jelentkezhetnek tesztelőnek, 146 00:07:54,542 --> 00:07:57,313 és csatlakozhatnak beszélgetésekhez. 147 00:07:57,337 --> 00:07:59,624 #codedgaze. 148 00:08:00,742 --> 00:08:03,229 Kérem hát önöket, csatlakozzanak egy világhoz, 149 00:08:03,253 --> 00:08:06,972 ahol a technika mindnyájunkért van, 150 00:08:06,996 --> 00:08:08,893 nem csak néhányunkért. 151 00:08:08,917 --> 00:08:13,505 Egy világhoz, ahol a részvétel és a társadalmi változás van a központban! 152 00:08:13,529 --> 00:08:14,704 Köszönöm. 153 00:08:14,728 --> 00:08:18,999 ( Taps) 154 00:08:20,873 --> 00:08:23,727 Végül van még egy kérdésem: 155 00:08:23,751 --> 00:08:25,810 Csatlakoznak hozzám e harcban? 156 00:08:25,834 --> 00:08:27,119 (Nevetés) 157 00:08:27,143 --> 00:08:30,830 (Taps)