WEBVTT 00:00:01.041 --> 00:00:04.175 Sziasztok, én Joy vagyok, a kód poétája, 00:00:04.199 --> 00:00:09.192 és küldetésem egy láthatatlan, egyre hatalmasabb erő, 00:00:09.216 --> 00:00:12.072 a "kódolt csőlátás" megfékezése. 00:00:12.096 --> 00:00:15.405 Így nevezem én az algoritmikus torzítást. NOTE Paragraph 00:00:15.429 --> 00:00:19.729 Ez, akárcsak az emberi előítélet, igazságtalanságokhoz vezet. 00:00:19.753 --> 00:00:25.209 Az algoritmusok azonban képesek e torzításokat járványszerűen, 00:00:25.249 --> 00:00:28.071 óriási területen és hihetetlen sebességgel terjeszteni. 00:00:28.091 --> 00:00:32.330 Az algoritmikus torzítás emellett kizárásos tapasztalatokhoz, 00:00:32.354 --> 00:00:34.482 és diszkriminációs gyakorlathoz is vezethet. 00:00:34.506 --> 00:00:36.567 Bemutatom, mire gondolok. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (Videó) Szia, kamera. Van egy arcom. 00:00:40.162 --> 00:00:42.026 Látod az arcom? 00:00:42.051 --> 00:00:43.676 A szemüveg nélküli arcom? 00:00:43.701 --> 00:00:45.915 Az ő arcát látod. 00:00:46.237 --> 00:00:48.482 Mi a helyzet az én arcommal? 00:00:51.890 --> 00:00:55.640 Van egy maszkom. Látod a maszkom? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 Szóval, hogy hogy is történt ez? 00:00:58.863 --> 00:01:02.004 Miért ülök egy számítógéppel szemben 00:01:02.028 --> 00:01:03.452 egy fehér maszkban, 00:01:03.476 --> 00:01:07.126 próbálva egy olcsó webkamerával felismertetni magam? 00:01:07.150 --> 00:01:09.441 Mikor épp nem a kódolt csőlátás ellen harcolo 00:01:09.465 --> 00:01:10.985 kódpoétaként, 00:01:11.009 --> 00:01:14.281 akkor vagyok végzős hallgató az MIT Media Lab-en, 00:01:14.305 --> 00:01:19.222 ahol lehetőségem van mindenféle furcsa projekten dolgozni. 00:01:19.246 --> 00:01:21.273 Ezek egyike az Aspire Mirror, 00:01:21.297 --> 00:01:26.431 melyben digitális maszkokat tudok a tükörképemre vetíteni. 00:01:26.455 --> 00:01:28.805 Reggel, ha erősnek akarom érezni magam, 00:01:28.829 --> 00:01:30.263 felveszek egy oroszlánt. 00:01:30.287 --> 00:01:33.783 Ha lelkesítésre van szükségem, akkor talán egy idézetet. 00:01:33.807 --> 00:01:35.690 E rendszer megépítéséhez 00:01:35.750 --> 00:01:38.171 egy általános arcfelismerő programot használtam, 00:01:38.195 --> 00:01:43.298 de fehér maszk nélkül nehéz volt tesztelni. NOTE Paragraph 00:01:44.282 --> 00:01:48.628 Sajnos korábban már beleütköztem ebbe a problémába. 00:01:48.652 --> 00:01:52.955 Amikor a Georgia Tech-en számítástudományt tanultam. 00:01:52.979 --> 00:01:55.034 társas robotokon dolgoztam, 00:01:55.058 --> 00:01:58.835 és az egyik feladat az volt, hogy bújócskázzak egyikükkel, 00:01:58.859 --> 00:02:00.542 ami egy egyszerű oda-vissza játék. 00:02:00.566 --> 00:02:04.887 A partnerek eltakarták az arcukat, aztán felfedték: "Aki bújt, aki nem..." 00:02:04.911 --> 00:02:09.340 A probléma, hogy nehéz bújócskázni, ha nem látjuk egymást. 00:02:09.364 --> 00:02:11.863 A robotom pedig nem látott engem. 00:02:11.887 --> 00:02:15.837 Ezért kölcsönvettem a szobatársam arcát a projekt idejére, 00:02:15.861 --> 00:02:17.241 aztán beadtam a feladatot. 00:02:17.265 --> 00:02:21.018 Majd rájöttem, hogy valaki más fogja megoldani ezt a problémát. NOTE Paragraph 00:02:21.669 --> 00:02:23.672 Nem sokkal később, 00:02:23.696 --> 00:02:27.855 Hong Kongban voltam egy vállalkozói versenyen. 00:02:28.339 --> 00:02:31.033 A szervezők látogatásra vitték a résztvevőket 00:02:31.057 --> 00:02:33.429 helybeli startup vállalkozásokhoz. 00:02:33.453 --> 00:02:36.168 Az egyiknek volt egy társas robotja, 00:02:36.192 --> 00:02:38.104 amivel készítettek egy bemutatót. 00:02:38.128 --> 00:02:41.108 Ez mindenkin működött, kivéve engem, 00:02:41.132 --> 00:02:43.055 és valószínűleg kitalálják: 00:02:43.079 --> 00:02:46.044 az én arcomat nem érzékelte. 00:02:46.068 --> 00:02:48.579 Kérdeztem a fejlesztőket, mi történik. 00:02:48.603 --> 00:02:53.930 Kiderült, hogy ugyanazt az arcfelismerő programot használtuk. 00:02:53.950 --> 00:02:55.810 A világ másik felén jöttem rá, 00:02:55.834 --> 00:02:59.686 hogy az algoritmikus torzítás terjedése olyan gyors, 00:02:59.710 --> 00:03:02.880 mint pár fájl letöltése az internetről. NOTE Paragraph 00:03:03.745 --> 00:03:06.821 De mi is történik itt? Miért nem érzékeli az arcom? 00:03:06.845 --> 00:03:10.201 Nézzük meg, hogy tanítjuk meg látni a gépeket. 00:03:10.225 --> 00:03:13.634 A gépi látás gépi tanulási technikákat használnak 00:03:13.658 --> 00:03:15.538 az arcfelismeréshez. 00:03:15.562 --> 00:03:19.459 Ez úgy működik, hogy különböző arcokból betanító adathalmazokat készítünk. 00:03:19.483 --> 00:03:22.301 Ez egy arc. Ez egy arc. Ez nem egy arc. 00:03:22.325 --> 00:03:26.844 A gép idővel megtanul más arcokat is felismerni. 00:03:26.868 --> 00:03:30.857 Ha azonban a betanító sorozat nem elég változatos, 00:03:30.881 --> 00:03:34.230 az átlagtól jelentősen eltérő arcokat 00:03:34.254 --> 00:03:35.903 nehezen fogja felismerni. 00:03:35.927 --> 00:03:37.890 Ez történt az esetemben is. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 De semmi gond, vannak azért jó hírek is. 00:03:40.320 --> 00:03:43.091 A betanító adathalmazok nem a semmiből lesznek. 00:03:43.115 --> 00:03:44.903 Mi tudunk ilyeneket készíteni. 00:03:44.927 --> 00:03:49.103 Tudunk teljes spektrumú betanító készleteket gyártani, 00:03:49.127 --> 00:03:52.951 melyek jobban tükrözik az emberi arcok sokféleségét. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 Láthatták a példáimon, 00:03:55.220 --> 00:03:57.128 hogyan vettem észre a társas robotoknál 00:03:57.158 --> 00:04:01.623 ezeket az algoritmikus torzításokat. 00:04:01.647 --> 00:04:06.462 Az algoritmikus torzítás azonban diszkriminációhoz vezethet. 00:04:07.437 --> 00:04:08.890 A rendőrség Amerika-szerte 00:04:08.914 --> 00:04:13.112 elkezdett arcfelismerő programokat használni 00:04:13.136 --> 00:04:15.595 a bűnözés elleni harcban. 00:04:15.619 --> 00:04:17.632 A Georgtown-i törvényszék jelentése szerint 00:04:17.656 --> 00:04:24.419 minden második amerikai felnőtt - azaz 117 millió ember - 00:04:24.443 --> 00:04:27.977 arca szerepel arcfelismerő hálózatokban. 00:04:28.001 --> 00:04:32.553 A rendőrség szabályozatlanul fér hozzá e hálózatokhoz, 00:04:32.577 --> 00:04:36.863 olyan algoritmusokkal, melyek pontosságát senki nem ellenőrizte. 00:04:36.887 --> 00:04:40.751 Tudjuk, hogy az arcfelismerés nem elég megbízható, 00:04:40.775 --> 00:04:44.954 és az arcok következetes felismerése továbbra is gondot okoz. 00:04:44.978 --> 00:04:46.740 Láthatták a Facebookon. 00:04:46.764 --> 00:04:49.752 A barátaim és én mindig nevetünk 00:04:49.776 --> 00:04:52.234 mások félrejelölt képein a fotóinkon. 00:04:52.258 --> 00:04:57.849 De tévesen felismerni egy bűnözőt, nem vicces, 00:04:57.873 --> 00:05:00.700 mint ahogy a személyes szabadság megsértése sem az. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 A gépi tanulást arcfelismerésre használják, 00:05:03.953 --> 00:05:08.458 de már a a számítógépes látás területén kívül is használják. 00:05:09.266 --> 00:05:13.282 "Weapons of Math Destruction" [Matematikai fegyverek] című könyvében 00:05:13.306 --> 00:05:19.987 Cathy O'Neil adattudós a WMO-k - egyre szaporodó, 00:05:20.011 --> 00:05:24.364 rejtélyes és pusztító algoritmusok - térnyeréséről ír, 00:05:24.388 --> 00:05:27.352 melyeket fontos döntések során használnak, 00:05:27.376 --> 00:05:30.553 és melyek életünk több területére kihatnak. 00:05:30.577 --> 00:05:32.447 Kit veszünk fel és kit rúgunk ki? 00:05:32.471 --> 00:05:34.583 Ki kap hitelt? Ki köthet biztosítást? 00:05:34.607 --> 00:05:38.110 Felvesznek a fősulira, ahova be akarunk kerülni? 00:05:38.134 --> 00:05:41.643 Az egy adott helyez vásárolt azonos termékekért 00:05:41.667 --> 00:05:44.109 vajon ugyanazt az árat fizetjük? NOTE Paragraph 00:05:44.133 --> 00:05:47.892 A törvénykezés elkezdte a gépi tanulást 00:05:47.916 --> 00:05:50.205 a bűnmegelőzésben is használni. 00:05:50.229 --> 00:05:53.723 Egyes bírók gép által generált kockázati értékek alapján döntik el, 00:05:53.747 --> 00:05:58.149 mennyi időt üljön valaki börtönben. 00:05:58.173 --> 00:06:00.627 Nagyon el kell gondolkoznunk ezeken a döntéseken. 00:06:00.651 --> 00:06:01.833 Igazságosak vajon? 00:06:01.857 --> 00:06:04.747 Láthattuk, hogy az algoritmikus torzítás 00:06:04.771 --> 00:06:08.145 nem mindig vezet igazságos végkimenetelhez. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 Mit tudunk hát tenni? 00:06:10.157 --> 00:06:13.837 Ki kell találnunk, hogyan készítsünk tökéletesebb kódokat, 00:06:13.861 --> 00:06:16.851 jobb kódolási gyakorlatok alkalmazásával. 00:06:16.875 --> 00:06:19.184 És ez az emberekkel kezdődik. 00:06:19.708 --> 00:06:21.669 A kódolókkal, programozókkal. 00:06:21.693 --> 00:06:25.812 Vajon a fejlesztői teamek összetétele elég változatos ahhoz, 00:06:25.836 --> 00:06:29.097 hogy a tagok képesek legyenek egymás gyenge pontjait kiküszöbölni? 00:06:29.157 --> 00:06:31.866 Technikai oldalról nézve az számít, hogy hogyan kódolunk. 00:06:31.906 --> 00:06:35.491 Beépítjük az igazságosságot a rendszerek fejlesztése során? 00:06:35.515 --> 00:06:38.428 És végül: miért is kódolunk? 00:06:38.785 --> 00:06:43.868 A számítástechnika eszközei hatalmas gazdagságra nyitottak kaput. 00:06:43.892 --> 00:06:48.339 Most lehetőségünk van nagyobb egyenlőség elérésére, 00:06:48.363 --> 00:06:51.293 ha rendszereinket kezdettől fogva 00:06:51.317 --> 00:06:53.977 a társadalmi változásokat szem előtt tartva fejlesztjük. 00:06:54.008 --> 00:06:58.530 Ez a "belekódolás" mozgalom három alapeleme: 00:06:58.554 --> 00:07:00.206 Ki kódol? 00:07:00.230 --> 00:07:01.773 Hogyan kódol? 00:07:01.797 --> 00:07:03.820 Miért kódol? NOTE Paragraph 00:07:03.844 --> 00:07:06.943 A "belekódolás" irányába való elmozduláshoz szükségünk lesz 00:07:06.967 --> 00:07:10.131 olyan megoldásokra, amelyek képesek az enyémhez hasonló 00:07:10.155 --> 00:07:13.603 emberi tapasztalatok gyűjtésével, és létező rendszerek ellenőrzésével 00:07:13.633 --> 00:07:16.327 felismerni az algoritmikus torzítást. 00:07:16.351 --> 00:07:20.116 Közben elkezdhetünk jobb betanító készleteket összeállítani. 00:07:20.140 --> 00:07:22.943 Képzeljünk el egy "Közreműködő selfie-k" kampányt, 00:07:22.967 --> 00:07:26.622 mellyel segíthetjük a fejlesztőket átfogóbb betanítási készletek 00:07:26.646 --> 00:07:28.739 létrehozásában és tesztelésében. 00:07:29.302 --> 00:07:32.130 És elkezdhetünk lelkiismeretesebben gondolkozni 00:07:32.154 --> 00:07:37.545 az általunk fejlesztett technológia társadalmi hatásairól. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 A "belekódolási" mozgalom elindításához 00:07:39.986 --> 00:07:42.833 Megalapítottam az Algoritmikus Igazság Ligáját, 00:07:42.857 --> 00:07:48.729 melyhez bárki csatlakozhat, és segíthet a kódolt csőlátás elleni harcban. 00:07:48.753 --> 00:07:52.049 A codedgaze.com oldalon bejelenthetnek részrehajlást, 00:07:52.073 --> 00:07:54.518 kérhetnek felülvizsgálatot, jelentkezhetnek tesztelőnek, 00:07:54.542 --> 00:07:57.313 és csatlakozhatnak beszélgetésekhez. 00:07:57.337 --> 00:07:59.624 #codedgaze. NOTE Paragraph 00:08:00.742 --> 00:08:03.229 Kérem hát önöket, csatlakozzanak egy világhoz, 00:08:03.253 --> 00:08:06.972 ahol a technika mindnyájunkért van, 00:08:06.996 --> 00:08:08.893 nem csak néhányunkért. 00:08:08.917 --> 00:08:13.505 Egy világhoz, ahol a részvétel és a társadalmi változás van a központban! NOTE Paragraph 00:08:13.529 --> 00:08:14.704 Köszönöm. NOTE Paragraph 00:08:14.728 --> 00:08:18.999 ( Taps) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 Végül van még egy kérdésem: 00:08:23.751 --> 00:08:25.810 Csatlakoznak hozzám e harcban? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (Nevetés) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (Taps)