0:00:01.041,0:00:04.175 Sziasztok, én Joy vagyok, a kód poétája, 0:00:04.199,0:00:09.192 és küldetésem egy láthatatlan, [br]egyre hatalmasabb erő, 0:00:09.216,0:00:12.072 a "kódolt csőlátás" megfékezése. 0:00:12.096,0:00:15.405 Így nevezem én az algoritmikus torzítást. 0:00:15.429,0:00:19.729 Ez, akárcsak az emberi előítélet, [br]igazságtalanságokhoz vezet. 0:00:19.753,0:00:25.209 Az algoritmusok azonban[br]képesek e torzításokat járványszerűen, 0:00:25.249,0:00:28.071 óriási területen és hihetetlen [br]sebességgel terjeszteni. 0:00:28.091,0:00:32.330 Az algoritmikus torzítás emellett[br]kizárásos tapasztalatokhoz, 0:00:32.354,0:00:34.482 és diszkriminációs gyakorlathoz [br]is vezethet. 0:00:34.506,0:00:36.567 Bemutatom, mire gondolok. 0:00:36.980,0:00:39.416 (Videó) Szia, kamera. Van egy arcom. 0:00:40.162,0:00:42.026 Látod az arcom? 0:00:42.051,0:00:43.676 A szemüveg nélküli arcom? 0:00:43.701,0:00:45.915 Az ő arcát látod. 0:00:46.237,0:00:48.482 Mi a helyzet az én arcommal? 0:00:51.890,0:00:55.640 Van egy maszkom. Látod a maszkom? 0:00:56.474,0:00:58.839 Szóval, hogy hogy is történt ez? 0:00:58.863,0:01:02.004 Miért ülök egy számítógéppel szemben 0:01:02.028,0:01:03.452 egy fehér maszkban, 0:01:03.476,0:01:07.126 próbálva egy olcsó webkamerával[br]felismertetni magam? 0:01:07.150,0:01:09.441 Mikor épp nem a kódolt [br]csőlátás ellen harcolo 0:01:09.465,0:01:10.985 kódpoétaként, 0:01:11.009,0:01:14.281 akkor vagyok végzős hallgató[br]az MIT Media Lab-en,[br] 0:01:14.305,0:01:19.222 ahol lehetőségem van mindenféle [br]furcsa projekten dolgozni. 0:01:19.246,0:01:21.273 Ezek egyike az Aspire Mirror, 0:01:21.297,0:01:26.431 melyben digitális maszkokat tudok [br]a tükörképemre vetíteni. 0:01:26.455,0:01:28.805 Reggel, ha erősnek akarom érezni magam, 0:01:28.829,0:01:30.263 felveszek egy oroszlánt. 0:01:30.287,0:01:33.783 Ha lelkesítésre van szükségem,[br]akkor talán egy idézetet. 0:01:33.807,0:01:35.690 E rendszer megépítéséhez 0:01:35.750,0:01:38.171 egy általános arcfelismerő [br]programot használtam, 0:01:38.195,0:01:43.298 de fehér maszk nélkül [br]nehéz volt tesztelni. 0:01:44.282,0:01:48.628 Sajnos korábban már[br]beleütköztem ebbe a problémába. 0:01:48.652,0:01:52.955 Amikor a Georgia Tech-en [br]számítástudományt tanultam. 0:01:52.979,0:01:55.034 társas robotokon dolgoztam, 0:01:55.058,0:01:58.835 és az egyik feladat az volt, [br]hogy bújócskázzak egyikükkel, 0:01:58.859,0:02:00.542 ami egy egyszerű oda-vissza játék. 0:02:00.566,0:02:04.887 A partnerek eltakarták az arcukat, [br]aztán felfedték: "Aki bújt, aki nem..." 0:02:04.911,0:02:09.340 A probléma, hogy nehéz bújócskázni, [br]ha nem látjuk egymást. 0:02:09.364,0:02:11.863 A robotom pedig nem látott engem. 0:02:11.887,0:02:15.837 Ezért kölcsönvettem a szobatársam arcát[br]a projekt idejére, 0:02:15.861,0:02:17.241 aztán beadtam a feladatot. 0:02:17.265,0:02:21.018 Majd rájöttem, hogy valaki más [br]fogja megoldani ezt a problémát. 0:02:21.669,0:02:23.672 Nem sokkal később, 0:02:23.696,0:02:27.855 Hong Kongban voltam [br]egy vállalkozói versenyen. 0:02:28.339,0:02:31.033 A szervezők látogatásra [br]vitték a résztvevőket 0:02:31.057,0:02:33.429 helybeli startup vállalkozásokhoz. 0:02:33.453,0:02:36.168 Az egyiknek volt egy társas robotja, 0:02:36.192,0:02:38.104 amivel készítettek egy bemutatót. 0:02:38.128,0:02:41.108 Ez mindenkin működött, kivéve engem, 0:02:41.132,0:02:43.055 és valószínűleg kitalálják: 0:02:43.079,0:02:46.044 az én arcomat nem érzékelte. 0:02:46.068,0:02:48.579 Kérdeztem a fejlesztőket, mi történik. 0:02:48.603,0:02:53.930 Kiderült, hogy ugyanazt [br]az arcfelismerő programot használtuk. 0:02:53.950,0:02:55.810 A világ másik felén jöttem rá, 0:02:55.834,0:02:59.686 hogy az algoritmikus torzítás[br]terjedése olyan gyors, 0:02:59.710,0:03:02.880 mint pár fájl letöltése az internetről. 0:03:03.745,0:03:06.821 De mi is történik itt?[br]Miért nem érzékeli az arcom? 0:03:06.845,0:03:10.201 Nézzük meg, [br]hogy tanítjuk meg látni a gépeket. 0:03:10.225,0:03:13.634 A gépi látás gépi tanulási [br]technikákat használnak 0:03:13.658,0:03:15.538 az arcfelismeréshez. 0:03:15.562,0:03:19.459 Ez úgy működik, hogy különböző arcokból[br]betanító adathalmazokat készítünk. 0:03:19.483,0:03:22.301 Ez egy arc. Ez egy arc. Ez nem egy arc. 0:03:22.325,0:03:26.844 A gép idővel megtanul [br]más arcokat is felismerni. 0:03:26.868,0:03:30.857 Ha azonban a betanító sorozat [br]nem elég változatos, 0:03:30.881,0:03:34.230 az átlagtól jelentősen eltérő arcokat 0:03:34.254,0:03:35.903 nehezen fogja felismerni. 0:03:35.927,0:03:37.890 Ez történt az esetemben is. 0:03:37.914,0:03:40.296 De semmi gond, vannak azért jó hírek is. 0:03:40.320,0:03:43.091 A betanító adathalmazok[br]nem a semmiből lesznek. 0:03:43.115,0:03:44.903 Mi tudunk ilyeneket készíteni. 0:03:44.927,0:03:49.103 Tudunk teljes spektrumú [br]betanító készleteket gyártani, 0:03:49.127,0:03:52.951 melyek jobban tükrözik [br]az emberi arcok sokféleségét. 0:03:52.975,0:03:55.196 Láthatták a példáimon, 0:03:55.220,0:03:57.128 hogyan vettem észre a társas robotoknál 0:03:57.158,0:04:01.623 ezeket az algoritmikus torzításokat. 0:04:01.647,0:04:06.462 Az algoritmikus torzítás azonban[br]diszkriminációhoz vezethet. 0:04:07.437,0:04:08.890 A rendőrség Amerika-szerte 0:04:08.914,0:04:13.112 elkezdett arcfelismerő [br]programokat használni 0:04:13.136,0:04:15.595 a bűnözés elleni harcban. 0:04:15.619,0:04:17.632 A Georgtown-i törvényszék[br]jelentése szerint 0:04:17.656,0:04:24.419 minden második amerikai felnőtt -[br]azaz 117 millió ember - 0:04:24.443,0:04:27.977 arca szerepel arcfelismerő hálózatokban. 0:04:28.001,0:04:32.553 A rendőrség szabályozatlanul[br]fér hozzá e hálózatokhoz, 0:04:32.577,0:04:36.863 olyan algoritmusokkal, melyek pontosságát[br]senki nem ellenőrizte. 0:04:36.887,0:04:40.751 Tudjuk, hogy az arcfelismerés [br]nem elég megbízható, 0:04:40.775,0:04:44.954 és az arcok következetes felismerése[br]továbbra is gondot okoz. 0:04:44.978,0:04:46.740 Láthatták a Facebookon. 0:04:46.764,0:04:49.752 A barátaim és én mindig nevetünk 0:04:49.776,0:04:52.234 mások félrejelölt képein a fotóinkon. 0:04:52.258,0:04:57.849 De tévesen felismerni [br]egy bűnözőt, nem vicces, 0:04:57.873,0:05:00.700 mint ahogy a személyes szabadság [br]megsértése sem az. 0:05:00.724,0:05:03.929 A gépi tanulást [br]arcfelismerésre használják, 0:05:03.953,0:05:08.458 de már a a számítógépes látás[br]területén kívül is használják. 0:05:09.266,0:05:13.282 "Weapons of Math Destruction"[br][Matematikai fegyverek] című könyvében 0:05:13.306,0:05:19.987 Cathy O'Neil adattudós [br]a WMO-k - egyre szaporodó, 0:05:20.011,0:05:24.364 rejtélyes és pusztító algoritmusok -[br]térnyeréséről ír, 0:05:24.388,0:05:27.352 melyeket fontos döntések során használnak, 0:05:27.376,0:05:30.553 és melyek életünk [br]több területére kihatnak. 0:05:30.577,0:05:32.447 Kit veszünk fel és kit rúgunk ki? 0:05:32.471,0:05:34.583 Ki kap hitelt? Ki köthet biztosítást? 0:05:34.607,0:05:38.110 Felvesznek a fősulira, [br]ahova be akarunk kerülni? 0:05:38.134,0:05:41.643 Az egy adott helyez vásárolt[br]azonos termékekért 0:05:41.667,0:05:44.109 vajon ugyanazt az árat fizetjük? 0:05:44.133,0:05:47.892 A törvénykezés elkezdte a gépi tanulást 0:05:47.916,0:05:50.205 a bűnmegelőzésben is használni. 0:05:50.229,0:05:53.723 Egyes bírók gép által generált[br]kockázati értékek alapján döntik el, 0:05:53.747,0:05:58.149 mennyi időt üljön valaki börtönben. 0:05:58.173,0:06:00.627 Nagyon el kell gondolkoznunk[br]ezeken a döntéseken. 0:06:00.651,0:06:01.833 Igazságosak vajon? 0:06:01.857,0:06:04.747 Láthattuk, hogy az algoritmikus torzítás 0:06:04.771,0:06:08.145 nem mindig vezet [br]igazságos végkimenetelhez. 0:06:08.169,0:06:10.133 Mit tudunk hát tenni? 0:06:10.157,0:06:13.837 Ki kell találnunk, hogyan készítsünk [br]tökéletesebb kódokat, 0:06:13.861,0:06:16.851 jobb kódolási gyakorlatok alkalmazásával. 0:06:16.875,0:06:19.184 És ez az emberekkel kezdődik. 0:06:19.708,0:06:21.669 A kódolókkal, programozókkal. 0:06:21.693,0:06:25.812 Vajon a fejlesztői teamek[br]összetétele elég változatos ahhoz, 0:06:25.836,0:06:29.097 hogy a tagok képesek legyenek[br]egymás gyenge pontjait kiküszöbölni? 0:06:29.157,0:06:31.866 Technikai oldalról nézve az számít,[br]hogy hogyan kódolunk. 0:06:31.906,0:06:35.491 Beépítjük az igazságosságot[br]a rendszerek fejlesztése során? 0:06:35.515,0:06:38.428 És végül: miért is kódolunk? 0:06:38.785,0:06:43.868 A számítástechnika eszközei[br]hatalmas gazdagságra nyitottak kaput. 0:06:43.892,0:06:48.339 Most lehetőségünk van nagyobb[br]egyenlőség elérésére, 0:06:48.363,0:06:51.293 ha rendszereinket kezdettől fogva 0:06:51.317,0:06:53.977 a társadalmi változásokat[br]szem előtt tartva fejlesztjük. 0:06:54.008,0:06:58.530 Ez a "belekódolás" mozgalom[br]három alapeleme: 0:06:58.554,0:07:00.206 Ki kódol? 0:07:00.230,0:07:01.773 Hogyan kódol? 0:07:01.797,0:07:03.820 Miért kódol? 0:07:03.844,0:07:06.943 A "belekódolás" irányába való[br]elmozduláshoz szükségünk lesz 0:07:06.967,0:07:10.131 olyan megoldásokra, amelyek képesek[br]az enyémhez hasonló 0:07:10.155,0:07:13.603 emberi tapasztalatok gyűjtésével,[br]és létező rendszerek ellenőrzésével 0:07:13.633,0:07:16.327 felismerni az algoritmikus torzítást. 0:07:16.351,0:07:20.116 Közben elkezdhetünk jobb [br]betanító készleteket összeállítani. 0:07:20.140,0:07:22.943 Képzeljünk el egy "Közreműködő selfie-k" [br]kampányt, 0:07:22.967,0:07:26.622 mellyel segíthetjük a fejlesztőket[br]átfogóbb betanítási készletek 0:07:26.646,0:07:28.739 létrehozásában és tesztelésében. 0:07:29.302,0:07:32.130 És elkezdhetünk lelkiismeretesebben[br]gondolkozni 0:07:32.154,0:07:37.545 az általunk fejlesztett technológia[br]társadalmi hatásairól. 0:07:37.569,0:07:39.962 A "belekódolási" mozgalom elindításához 0:07:39.986,0:07:42.833 Megalapítottam [br]az Algoritmikus Igazság Ligáját, 0:07:42.857,0:07:48.729 melyhez bárki csatlakozhat, és segíthet [br]a kódolt csőlátás elleni harcban. 0:07:48.753,0:07:52.049 A codedgaze.com oldalon [br]bejelenthetnek részrehajlást, 0:07:52.073,0:07:54.518 kérhetnek felülvizsgálatot,[br]jelentkezhetnek tesztelőnek, 0:07:54.542,0:07:57.313 és csatlakozhatnak beszélgetésekhez. 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.229 Kérem hát önöket, [br]csatlakozzanak egy világhoz, 0:08:03.253,0:08:06.972 ahol a technika mindnyájunkért van, 0:08:06.996,0:08:08.893 nem csak néhányunkért. 0:08:08.917,0:08:13.505 Egy világhoz, ahol a részvétel[br]és a társadalmi változás van a központban! 0:08:13.529,0:08:14.704 Köszönöm. 0:08:14.728,0:08:18.999 ( Taps) 0:08:20.873,0:08:23.727 Végül van még egy kérdésem: 0:08:23.751,0:08:25.810 Csatlakoznak hozzám e harcban? 0:08:25.834,0:08:27.119 (Nevetés) 0:08:27.143,0:08:30.830 (Taps)