Return to Video

The Social Dilemma – Bonus Clip: The Discrimination Dilemma

  • 0:01 - 0:03
    Algoritme tidaklah objektif.
  • 0:03 - 0:07
    AI dan banyak teknologi baru
    melestarikan prasangka.
  • 0:07 - 0:10
    Mereka tidak memprediksi masa depan,
    mereka membuat masa depan.
  • 0:12 - 0:15
    MELANJUTKAN PERCAKAPAN
  • 0:15 - 0:18
    DILEMA SOSIAL
  • 0:20 - 0:23
    Saya menghabiskan banyak waktu saya
    berpikir tentang prasangka,
  • 0:23 - 0:26
    ya karena itulah saya.
  • 0:26 - 0:29
    Selain itu, ketidakmampuan pemerintah
  • 0:29 - 0:31
    untuk memahami isu-isu ini
  • 0:31 - 0:34
    menyebabkan kurangnya peraturan
    dan hukum yang membantu
  • 0:34 - 0:38
    mengurangi beberapa masalah
    yang sudah kita lihat dengan AI.
  • 0:38 - 0:40
    Algoritme tidaklah objektif.
  • 0:41 - 0:45
    Algoritma dioptimalkan
    dengan beberapa definisi kesuksesan.
  • 0:45 - 0:49
    Mereka menggunakan data historis
    untuk memprediksi kesuksesan di masa depan.
  • 0:49 - 0:51
    Orang-orang secara membabi buta percaya
  • 0:51 - 0:54
    bahwa secara natural algoritma itu
    adil dan objektif
  • 0:54 - 0:57
    dan karena sebagian
    percaya pada kewajaran ini
  • 0:57 - 0:59
    mereka tidak mempertanyakannya.
  • 0:59 - 1:02
    Jadi, saat algoritma berakhir serasis data
  • 1:02 - 1:04
    yang kita taruh di sana
  • 1:04 - 1:09
    justru mereproduksi secara persis pola-pola
    yang ingin kita hindari.
  • 1:09 - 1:13
    Sistem memperkenalkan
    berton informasi tanpa konteks,
  • 1:13 - 1:16
    tanpa sejarah, dan bahkan
    tanpa masalah politik dan
  • 1:17 - 1:18
    ekonomi serta keterlibatan sosial.
  • 1:18 - 1:22
    Jadi ada kemungkinan lebih besar
    bahwa sistem AI
  • 1:22 - 1:26
    mewujudkan prasangka-prasangka ini
    atau bahkan membuatnya lebih buruk.
  • 1:27 - 1:29
    Ada empat jenis algoritma
  • 1:29 - 1:31
    yang saya yakini sedang disalahgunakan
  • 1:31 - 1:35
    dan bisa menyebabkan
    kerusakan serius pada masyarakat.
  • 1:36 - 1:37
    Keempat kategori tersebut adalah:
  • 1:37 - 1:39
    Keuangan.
  • 1:39 - 1:40
    Ini adalah algoritme yang memutuskan
  • 1:40 - 1:42
    apakah orang akan membeli
    asuransi dan berapa banyak,
  • 1:42 - 1:44
    apakah ia memiliki kartu kredit yang bagus,
  • 1:44 - 1:45
    apakah ia mendapatkan hipotek,
  • 1:45 - 1:46
    apakah mereka mendapatkan rumah.
  • 1:46 - 1:48
    Jika Anda membuka situs kartu kredit,
  • 1:48 - 1:51
    Anda tidak akan mendapatkan informasi mengenai
    kartu kredit.
  • 1:51 - 1:54
    Kamu dipelajari dan dianalisis
  • 1:54 - 1:57
    dan mereka menunjukkan kepada Anda
    kartu kredit mana yang tepat untuk Anda.
  • 1:58 - 2:00
    Kategori kedua
    ada hubungannya dengan kebebasan.
  • 2:01 - 2:02
    bagaimana Anda diawasi
  • 2:02 - 2:03
    Berapa lama Anda masuk penjara?
  • 2:03 - 2:05
    Apakah Anda pernah dipenjara
    menunggu persidangan?
  • 2:06 - 2:08
    Kategori ketiga menyangkut
    sarana mata pencaharian:
  • 2:08 - 2:09
    Pekerjaanmu.
  • 2:10 - 2:12
    Apakah kamu diwawancara
    untuk pekerjaan yang kamu lamar?
  • 2:12 - 2:13
    Apakah Anda sudah mendapatkan pekerjaan?
  • 2:13 - 2:15
    Apakah Anda menerima kenaikan gaji?
  • 2:15 - 2:16
    Berapa jam kerja Anda?
  • 2:17 - 2:20
    Satu contoh yang menarik
    perhatian media
  • 2:20 - 2:21
    adalah algoritme perekrutan
  • 2:21 - 2:25
    yang secara tidak proporsional menguntungkan
    orang yang menyebut diri mereka "Jared"
  • 2:25 - 2:27
    dan bermain lacrosse, karena
  • 2:27 - 2:31
    kebanyakan orang
    dengan kinerja yang baik di perusahaan itu
  • 2:31 - 2:33
    memiliki kesamaan dua fakta ini.
  • 2:33 - 2:36
    Dan kategori keempat
    adalah informasi itu sendiri.
  • 2:36 - 2:38
    Bagaimana kita mendapatkan informasi?
  • 2:38 - 2:39
    Apa yang kita percayai?
  • 2:39 - 2:40
    Terutama informasi politik.
  • 2:41 - 2:42
    Hal-hal ini adalah algoritme saat ini.
  • 2:43 - 2:44
    Sering kali mereka tidak adil.
  • 2:44 - 2:45
    Sering kali mereka ilegal.
  • 2:46 - 2:50
    Tetapi kami belum menemukan cara menerapkan
    undang-undang anti-diskriminasi kita.
  • 2:50 - 2:54
    Keadaan yang mengkhawatirkan saya adalah bahwa...
  • 2:54 - 2:59
    kita tidak menghentikan
    algoritma yang gelap dan membahayakan.
  • 2:59 - 3:01
    "Hei, kami telah mengikuti Anda
    sejak kelahiranmu.
  • 3:01 - 3:02
    Kita mengetahui bahwa
  • 3:02 - 3:04
    Anda mengalami masa kecil yang tidak bahagia,
  • 3:04 - 3:07
    di lingkungan di mana banyak orang
    tidak berhasil dan...
  • 3:08 - 3:10
    Kami memprediksi Anda tidak akan berhasil.
  • 3:10 - 3:12
    Tidak hanya itu,
  • 3:12 - 3:14
    kami akan melakukan segala cara untuk mewujudkannya.
  • 3:14 - 3:15
    Anda tidak akan masuk ke universitas yang bagus.
  • 3:15 - 3:17
    Anda juga tidak akan mendapatkan pekerjaan yang bagus
  • 3:17 - 3:18
    atau pinjaman.
  • 3:18 - 3:20
    Karena itulah yang sesungguhnya
    dilakukan algoritme.
  • 3:20 - 3:23
    Mereka tidak memprediksi masa depan,
    mereka membuat masa depan.
  • 3:25 - 3:27
    DILEMA SOSIAL
  • 3:27 - 3:32
    DILEMA SOSIAL KITA
Title:
The Social Dilemma – Bonus Clip: The Discrimination Dilemma
Description:

more » « less
Video Language:
English
Team:
Mozilla
Project:
Non-Mozilla videos
Duration:
03:37

Indonesian subtitles

Revisions Compare revisions