WEBVTT 00:00:00.759 --> 00:00:02.950 Algoritme tidaklah objektif. 00:00:02.950 --> 00:00:06.920 AI dan banyak teknologi baru melestarikan prasangka. 00:00:06.920 --> 00:00:09.985 Mereka tidak memprediksi masa depan, mereka membuat masa depan. 00:00:11.915 --> 00:00:14.610 MELANJUTKAN PERCAKAPAN 00:00:14.647 --> 00:00:17.737 DILEMA SOSIAL 00:00:19.954 --> 00:00:23.324 Saya menghabiskan banyak waktu saya berpikir tentang prasangka, 00:00:23.324 --> 00:00:25.824 ya karena itulah saya. 00:00:25.847 --> 00:00:28.857 Selain itu, ketidakmampuan pemerintah 00:00:28.890 --> 00:00:31.350 untuk memahami isu-isu ini 00:00:31.377 --> 00:00:34.367 menyebabkan kurangnya peraturan dan hukum yang membantu 00:00:34.367 --> 00:00:37.897 mengurangi beberapa masalah yang sudah kita lihat dengan AI. 00:00:38.266 --> 00:00:40.326 Algoritme tidaklah objektif. 00:00:41.307 --> 00:00:45.067 Algoritma dioptimalkan dengan beberapa definisi kesuksesan. 00:00:45.067 --> 00:00:49.060 Mereka menggunakan data historis untuk memprediksi kesuksesan di masa depan. 00:00:49.407 --> 00:00:51.157 Orang-orang secara membabi buta percaya 00:00:51.157 --> 00:00:53.960 bahwa secara natural algoritma itu adil dan objektif 00:00:54.049 --> 00:00:56.919 dan karena sebagian percaya pada kewajaran ini 00:00:56.919 --> 00:00:58.839 mereka tidak mempertanyakannya. 00:00:58.893 --> 00:01:01.713 Jadi, saat algoritma berakhir serasis data 00:01:01.713 --> 00:01:03.583 yang kita taruh di sana 00:01:03.693 --> 00:01:08.853 justru mereproduksi secara persis pola-pola yang ingin kita hindari. 00:01:09.350 --> 00:01:13.040 Sistem memperkenalkan berton informasi tanpa konteks, 00:01:13.165 --> 00:01:16.475 tanpa sejarah, dan bahkan tanpa masalah politik dan 00:01:16.526 --> 00:01:18.306 ekonomi serta keterlibatan sosial. 00:01:18.483 --> 00:01:22.483 Jadi ada kemungkinan lebih besar bahwa sistem AI 00:01:22.483 --> 00:01:25.903 mewujudkan prasangka-prasangka ini atau bahkan membuatnya lebih buruk. 00:01:26.537 --> 00:01:28.544 Ada empat jenis algoritma 00:01:28.549 --> 00:01:31.209 yang saya yakini sedang disalahgunakan 00:01:31.439 --> 00:01:34.979 dan bisa menyebabkan kerusakan serius pada masyarakat. 00:01:35.690 --> 00:01:37.330 Keempat kategori tersebut adalah: 00:01:37.365 --> 00:01:38.505 Keuangan. 00:01:38.505 --> 00:01:40.065 Ini adalah algoritme yang memutuskan 00:01:40.065 --> 00:01:42.395 apakah orang akan membeli asuransi dan berapa banyak, 00:01:42.395 --> 00:01:44.193 apakah ia memiliki kartu kredit yang bagus, 00:01:44.193 --> 00:01:45.243 apakah ia mendapatkan hipotek, 00:01:45.243 --> 00:01:46.293 apakah mereka mendapatkan rumah. 00:01:46.324 --> 00:01:48.404 Jika Anda membuka situs kartu kredit, 00:01:48.404 --> 00:01:50.614 Anda tidak akan mendapatkan informasi mengenai kartu kredit. 00:01:50.614 --> 00:01:53.664 Kamu dipelajari dan dianalisis 00:01:53.683 --> 00:01:57.283 dan mereka menunjukkan kepada Anda kartu kredit mana yang tepat untuk Anda. 00:01:57.738 --> 00:02:00.188 Kategori kedua ada hubungannya dengan kebebasan. 00:02:00.602 --> 00:02:01.642 bagaimana Anda diawasi 00:02:01.643 --> 00:02:03.193 Berapa lama Anda masuk penjara? 00:02:03.193 --> 00:02:05.443 Apakah Anda pernah dipenjara menunggu persidangan? 00:02:05.845 --> 00:02:08.365 Kategori ketiga menyangkut sarana mata pencaharian: 00:02:08.365 --> 00:02:09.235 Pekerjaanmu. 00:02:09.578 --> 00:02:11.688 Apakah kamu diwawancara untuk pekerjaan yang kamu lamar? 00:02:11.688 --> 00:02:12.940 Apakah Anda sudah mendapatkan pekerjaan? 00:02:12.940 --> 00:02:14.739 Apakah Anda menerima kenaikan gaji? 00:02:14.739 --> 00:02:16.229 Berapa jam kerja Anda? 00:02:16.812 --> 00:02:19.762 Satu contoh yang menarik perhatian media 00:02:19.762 --> 00:02:21.392 adalah algoritme perekrutan 00:02:21.392 --> 00:02:25.392 yang secara tidak proporsional menguntungkan orang yang menyebut diri mereka "Jared" 00:02:25.392 --> 00:02:27.312 dan bermain lacrosse, karena 00:02:27.312 --> 00:02:30.662 kebanyakan orang dengan kinerja yang baik di perusahaan itu 00:02:30.662 --> 00:02:32.501 memiliki kesamaan dua fakta ini. 00:02:33.092 --> 00:02:35.736 Dan kategori keempat adalah informasi itu sendiri. 00:02:36.053 --> 00:02:37.553 Bagaimana kita mendapatkan informasi? 00:02:37.553 --> 00:02:38.583 Apa yang kita percayai? 00:02:38.583 --> 00:02:40.454 Terutama informasi politik. 00:02:40.693 --> 00:02:42.453 Hal-hal ini adalah algoritme saat ini. 00:02:42.628 --> 00:02:43.968 Sering kali mereka tidak adil. 00:02:43.968 --> 00:02:45.218 Sering kali mereka ilegal. 00:02:45.553 --> 00:02:49.732 Tetapi kami belum menemukan cara menerapkan undang-undang anti-diskriminasi kita. 00:02:50.127 --> 00:02:54.046 Keadaan yang mengkhawatirkan saya adalah bahwa... 00:02:54.046 --> 00:02:58.607 kita tidak menghentikan algoritma yang gelap dan membahayakan. 00:02:58.607 --> 00:03:00.629 "Hei, kami telah mengikuti Anda sejak kelahiranmu. 00:03:00.788 --> 00:03:02.058 Kita mengetahui bahwa 00:03:02.344 --> 00:03:03.854 Anda mengalami masa kecil yang tidak bahagia, 00:03:03.854 --> 00:03:07.121 di lingkungan di mana banyak orang tidak berhasil dan... 00:03:07.564 --> 00:03:09.684 Kami memprediksi Anda tidak akan berhasil. 00:03:09.820 --> 00:03:11.803 Tidak hanya itu, 00:03:11.803 --> 00:03:13.732 kami akan melakukan segala cara untuk mewujudkannya. 00:03:13.780 --> 00:03:15.470 Anda tidak akan masuk ke universitas yang bagus. 00:03:15.470 --> 00:03:16.800 Anda juga tidak akan mendapatkan pekerjaan yang bagus 00:03:16.800 --> 00:03:17.860 atau pinjaman. 00:03:17.860 --> 00:03:19.980 Karena itulah yang sesungguhnya dilakukan algoritme. 00:03:19.980 --> 00:03:22.596 Mereka tidak memprediksi masa depan, mereka membuat masa depan. 00:03:24.683 --> 00:03:26.983 DILEMA SOSIAL 00:03:26.991 --> 00:03:31.641 DILEMA SOSIAL KITA