0:00:00.759,0:00:02.950 Algoritme tidaklah objektif. 0:00:02.950,0:00:06.920 AI dan banyak teknologi baru [br]melestarikan prasangka. 0:00:06.920,0:00:09.985 Mereka tidak memprediksi masa depan,[br]mereka membuat masa depan. 0:00:11.915,0:00:14.610 MELANJUTKAN PERCAKAPAN 0:00:14.647,0:00:17.737 DILEMA SOSIAL 0:00:19.954,0:00:23.324 Saya menghabiskan banyak waktu saya[br]berpikir tentang prasangka, 0:00:23.324,0:00:25.824 ya karena itulah saya. 0:00:25.847,0:00:28.857 Selain itu, ketidakmampuan pemerintah 0:00:28.890,0:00:31.350 untuk memahami isu-isu ini 0:00:31.377,0:00:34.367 menyebabkan kurangnya peraturan [br]dan hukum yang membantu 0:00:34.367,0:00:37.897 mengurangi beberapa masalah [br]yang sudah kita lihat dengan AI. 0:00:38.266,0:00:40.326 Algoritme tidaklah objektif. 0:00:41.307,0:00:45.067 Algoritma dioptimalkan[br]dengan beberapa definisi kesuksesan. 0:00:45.067,0:00:49.060 Mereka menggunakan data historis[br]untuk memprediksi kesuksesan di masa depan. 0:00:49.407,0:00:51.157 Orang-orang secara membabi buta percaya 0:00:51.157,0:00:53.960 bahwa secara natural algoritma itu[br]adil dan objektif 0:00:54.049,0:00:56.919 dan karena sebagian[br]percaya pada kewajaran ini 0:00:56.919,0:00:58.839 mereka tidak mempertanyakannya. 0:00:58.893,0:01:01.713 Jadi, saat algoritma berakhir serasis data 0:01:01.713,0:01:03.583 yang kita taruh di sana 0:01:03.693,0:01:08.853 justru mereproduksi secara persis pola-pola[br]yang ingin kita hindari. 0:01:09.350,0:01:13.040 Sistem memperkenalkan[br]berton informasi tanpa konteks, 0:01:13.165,0:01:16.475 tanpa sejarah, dan bahkan[br]tanpa masalah politik dan 0:01:16.526,0:01:18.306 ekonomi serta keterlibatan sosial. 0:01:18.483,0:01:22.483 Jadi ada kemungkinan lebih besar[br]bahwa sistem AI 0:01:22.483,0:01:25.903 mewujudkan prasangka-prasangka ini [br]atau bahkan membuatnya lebih buruk. 0:01:26.537,0:01:28.544 Ada empat jenis algoritma 0:01:28.549,0:01:31.209 yang saya yakini sedang disalahgunakan 0:01:31.439,0:01:34.979 dan bisa menyebabkan[br]kerusakan serius pada masyarakat. 0:01:35.690,0:01:37.330 Keempat kategori tersebut adalah: 0:01:37.365,0:01:38.505 Keuangan. 0:01:38.505,0:01:40.065 Ini adalah algoritme yang memutuskan 0:01:40.065,0:01:42.395 apakah orang akan membeli[br]asuransi dan berapa banyak, 0:01:42.395,0:01:44.193 apakah ia memiliki kartu kredit yang bagus, 0:01:44.193,0:01:45.243 apakah ia mendapatkan hipotek, 0:01:45.243,0:01:46.293 apakah mereka mendapatkan rumah. 0:01:46.324,0:01:48.404 Jika Anda membuka situs kartu kredit, 0:01:48.404,0:01:50.614 Anda tidak akan mendapatkan informasi mengenai[br]kartu kredit. 0:01:50.614,0:01:53.664 Kamu dipelajari dan dianalisis 0:01:53.683,0:01:57.283 dan mereka menunjukkan kepada Anda[br]kartu kredit mana yang tepat untuk Anda. 0:01:57.738,0:02:00.188 Kategori kedua[br]ada hubungannya dengan kebebasan. 0:02:00.602,0:02:01.642 bagaimana Anda diawasi 0:02:01.643,0:02:03.193 Berapa lama Anda masuk penjara? 0:02:03.193,0:02:05.443 Apakah Anda pernah dipenjara[br]menunggu persidangan? 0:02:05.845,0:02:08.365 Kategori ketiga menyangkut[br]sarana mata pencaharian: 0:02:08.365,0:02:09.235 Pekerjaanmu. 0:02:09.578,0:02:11.688 Apakah kamu diwawancara[br]untuk pekerjaan yang kamu lamar? 0:02:11.688,0:02:12.940 Apakah Anda sudah mendapatkan pekerjaan? 0:02:12.940,0:02:14.739 Apakah Anda menerima kenaikan gaji? 0:02:14.739,0:02:16.229 Berapa jam kerja Anda? 0:02:16.812,0:02:19.762 Satu contoh yang menarik[br]perhatian media 0:02:19.762,0:02:21.392 adalah algoritme perekrutan 0:02:21.392,0:02:25.392 yang secara tidak proporsional menguntungkan[br]orang yang menyebut diri mereka "Jared" 0:02:25.392,0:02:27.312 dan bermain lacrosse, karena 0:02:27.312,0:02:30.662 kebanyakan orang[br]dengan kinerja yang baik di perusahaan itu 0:02:30.662,0:02:32.501 memiliki kesamaan dua fakta ini. 0:02:33.092,0:02:35.736 Dan kategori keempat[br]adalah informasi itu sendiri. 0:02:36.053,0:02:37.553 Bagaimana kita mendapatkan informasi? 0:02:37.553,0:02:38.583 Apa yang kita percayai? 0:02:38.583,0:02:40.454 Terutama informasi politik. 0:02:40.693,0:02:42.453 Hal-hal ini adalah algoritme saat ini. 0:02:42.628,0:02:43.968 Sering kali mereka tidak adil. 0:02:43.968,0:02:45.218 Sering kali mereka ilegal. 0:02:45.553,0:02:49.732 Tetapi kami belum menemukan cara menerapkan[br]undang-undang anti-diskriminasi kita. 0:02:50.127,0:02:54.046 Keadaan yang mengkhawatirkan saya adalah bahwa... 0:02:54.046,0:02:58.607 kita tidak menghentikan[br]algoritma yang gelap dan membahayakan. 0:02:58.607,0:03:00.629 "Hei, kami telah mengikuti Anda[br]sejak kelahiranmu. 0:03:00.788,0:03:02.058 Kita mengetahui bahwa 0:03:02.344,0:03:03.854 Anda mengalami masa kecil yang tidak bahagia, 0:03:03.854,0:03:07.121 di lingkungan di mana banyak orang[br]tidak berhasil dan... 0:03:07.564,0:03:09.684 Kami memprediksi Anda tidak akan berhasil. 0:03:09.820,0:03:11.803 Tidak hanya itu, 0:03:11.803,0:03:13.732 kami akan melakukan segala cara untuk mewujudkannya. 0:03:13.780,0:03:15.470 Anda tidak akan masuk ke universitas yang bagus. 0:03:15.470,0:03:16.800 Anda juga tidak akan mendapatkan pekerjaan yang bagus 0:03:16.800,0:03:17.860 atau pinjaman. 0:03:17.860,0:03:19.980 Karena itulah yang sesungguhnya [br]dilakukan algoritme. 0:03:19.980,0:03:22.596 Mereka tidak memprediksi masa depan,[br]mereka membuat masa depan. 0:03:24.683,0:03:26.983 DILEMA SOSIAL 0:03:26.991,0:03:31.641 DILEMA SOSIAL KITA