1 00:00:00,759 --> 00:00:02,950 Algoritme tidaklah objektif. 2 00:00:02,950 --> 00:00:06,920 AI dan banyak teknologi baru melestarikan prasangka. 3 00:00:06,920 --> 00:00:09,985 Mereka tidak memprediksi masa depan, mereka membuat masa depan. 4 00:00:11,915 --> 00:00:14,610 MELANJUTKAN PERCAKAPAN 5 00:00:14,647 --> 00:00:17,737 DILEMA SOSIAL 6 00:00:19,954 --> 00:00:23,324 Saya menghabiskan banyak waktu saya berpikir tentang prasangka, 7 00:00:23,324 --> 00:00:25,824 ya karena itulah saya. 8 00:00:25,847 --> 00:00:28,857 Selain itu, ketidakmampuan pemerintah 9 00:00:28,890 --> 00:00:31,350 untuk memahami isu-isu ini 10 00:00:31,377 --> 00:00:34,367 menyebabkan kurangnya peraturan dan hukum yang membantu 11 00:00:34,367 --> 00:00:37,897 mengurangi beberapa masalah yang sudah kita lihat dengan AI. 12 00:00:38,266 --> 00:00:40,326 Algoritme tidaklah objektif. 13 00:00:41,307 --> 00:00:45,067 Algoritma dioptimalkan dengan beberapa definisi kesuksesan. 14 00:00:45,067 --> 00:00:49,060 Mereka menggunakan data historis untuk memprediksi kesuksesan di masa depan. 15 00:00:49,407 --> 00:00:51,157 Orang-orang secara membabi buta percaya 16 00:00:51,157 --> 00:00:53,960 bahwa secara natural algoritma itu adil dan objektif 17 00:00:54,049 --> 00:00:56,919 dan karena sebagian percaya pada kewajaran ini 18 00:00:56,919 --> 00:00:58,839 mereka tidak mempertanyakannya. 19 00:00:58,893 --> 00:01:01,713 Jadi, saat algoritma berakhir serasis data 20 00:01:01,713 --> 00:01:03,583 yang kita taruh di sana 21 00:01:03,693 --> 00:01:08,853 justru mereproduksi secara persis pola-pola yang ingin kita hindari. 22 00:01:09,350 --> 00:01:13,040 Sistem memperkenalkan berton informasi tanpa konteks, 23 00:01:13,165 --> 00:01:16,475 tanpa sejarah, dan bahkan tanpa masalah politik dan 24 00:01:16,526 --> 00:01:18,306 ekonomi serta keterlibatan sosial. 25 00:01:18,483 --> 00:01:22,483 Jadi ada kemungkinan lebih besar bahwa sistem AI 26 00:01:22,483 --> 00:01:25,903 mewujudkan prasangka-prasangka ini atau bahkan membuatnya lebih buruk. 27 00:01:26,537 --> 00:01:28,544 Ada empat jenis algoritma 28 00:01:28,549 --> 00:01:31,209 yang saya yakini sedang disalahgunakan 29 00:01:31,439 --> 00:01:34,979 dan bisa menyebabkan kerusakan serius pada masyarakat. 30 00:01:35,690 --> 00:01:37,330 Keempat kategori tersebut adalah: 31 00:01:37,365 --> 00:01:38,505 Keuangan. 32 00:01:38,505 --> 00:01:40,065 Ini adalah algoritme yang memutuskan 33 00:01:40,065 --> 00:01:42,395 apakah orang akan membeli asuransi dan berapa banyak, 34 00:01:42,395 --> 00:01:44,193 apakah ia memiliki kartu kredit yang bagus, 35 00:01:44,193 --> 00:01:45,243 apakah ia mendapatkan hipotek, 36 00:01:45,243 --> 00:01:46,293 apakah mereka mendapatkan rumah. 37 00:01:46,324 --> 00:01:48,404 Jika Anda membuka situs kartu kredit, 38 00:01:48,404 --> 00:01:50,614 Anda tidak akan mendapatkan informasi mengenai kartu kredit. 39 00:01:50,614 --> 00:01:53,664 Kamu dipelajari dan dianalisis 40 00:01:53,683 --> 00:01:57,283 dan mereka menunjukkan kepada Anda kartu kredit mana yang tepat untuk Anda. 41 00:01:57,738 --> 00:02:00,188 Kategori kedua ada hubungannya dengan kebebasan. 42 00:02:00,602 --> 00:02:01,642 bagaimana Anda diawasi 43 00:02:01,643 --> 00:02:03,193 Berapa lama Anda masuk penjara? 44 00:02:03,193 --> 00:02:05,443 Apakah Anda pernah dipenjara menunggu persidangan? 45 00:02:05,845 --> 00:02:08,365 Kategori ketiga menyangkut sarana mata pencaharian: 46 00:02:08,365 --> 00:02:09,235 Pekerjaanmu. 47 00:02:09,578 --> 00:02:11,688 Apakah kamu diwawancara untuk pekerjaan yang kamu lamar? 48 00:02:11,688 --> 00:02:12,940 Apakah Anda sudah mendapatkan pekerjaan? 49 00:02:12,940 --> 00:02:14,739 Apakah Anda menerima kenaikan gaji? 50 00:02:14,739 --> 00:02:16,229 Berapa jam kerja Anda? 51 00:02:16,812 --> 00:02:19,762 Satu contoh yang menarik perhatian media 52 00:02:19,762 --> 00:02:21,392 adalah algoritme perekrutan 53 00:02:21,392 --> 00:02:25,392 yang secara tidak proporsional menguntungkan orang yang menyebut diri mereka "Jared" 54 00:02:25,392 --> 00:02:27,312 dan bermain lacrosse, karena 55 00:02:27,312 --> 00:02:30,662 kebanyakan orang dengan kinerja yang baik di perusahaan itu 56 00:02:30,662 --> 00:02:32,501 memiliki kesamaan dua fakta ini. 57 00:02:33,092 --> 00:02:35,736 Dan kategori keempat adalah informasi itu sendiri. 58 00:02:36,053 --> 00:02:37,553 Bagaimana kita mendapatkan informasi? 59 00:02:37,553 --> 00:02:38,583 Apa yang kita percayai? 60 00:02:38,583 --> 00:02:40,454 Terutama informasi politik. 61 00:02:40,693 --> 00:02:42,453 Hal-hal ini adalah algoritme saat ini. 62 00:02:42,628 --> 00:02:43,968 Sering kali mereka tidak adil. 63 00:02:43,968 --> 00:02:45,218 Sering kali mereka ilegal. 64 00:02:45,553 --> 00:02:49,732 Tetapi kami belum menemukan cara menerapkan undang-undang anti-diskriminasi kita. 65 00:02:50,127 --> 00:02:54,046 Keadaan yang mengkhawatirkan saya adalah bahwa... 66 00:02:54,046 --> 00:02:58,607 kita tidak menghentikan algoritma yang gelap dan membahayakan. 67 00:02:58,607 --> 00:03:00,629 "Hei, kami telah mengikuti Anda sejak kelahiranmu. 68 00:03:00,788 --> 00:03:02,058 Kita mengetahui bahwa 69 00:03:02,344 --> 00:03:03,854 Anda mengalami masa kecil yang tidak bahagia, 70 00:03:03,854 --> 00:03:07,121 di lingkungan di mana banyak orang tidak berhasil dan... 71 00:03:07,564 --> 00:03:09,684 Kami memprediksi Anda tidak akan berhasil. 72 00:03:09,820 --> 00:03:11,803 Tidak hanya itu, 73 00:03:11,803 --> 00:03:13,732 kami akan melakukan segala cara untuk mewujudkannya. 74 00:03:13,780 --> 00:03:15,470 Anda tidak akan masuk ke universitas yang bagus. 75 00:03:15,470 --> 00:03:16,800 Anda juga tidak akan mendapatkan pekerjaan yang bagus 76 00:03:16,800 --> 00:03:17,860 atau pinjaman. 77 00:03:17,860 --> 00:03:19,980 Karena itulah yang sesungguhnya dilakukan algoritme. 78 00:03:19,980 --> 00:03:22,596 Mereka tidak memprediksi masa depan, mereka membuat masa depan. 79 00:03:24,683 --> 00:03:26,983 DILEMA SOSIAL 80 00:03:26,991 --> 00:03:31,641 DILEMA SOSIAL KITA