Kecerdasan buatan (AI)
dikenal mengganggu
berbagai macam industri.
Bagaimana dengan es krim?
Rasa baru mencengangkan seperti apa
yang bisa kita ciptakan
dengan kecanggihan kecerdasan buatan?
Saya bekerja sama dengan pembuat kode
dari SMP Kealing
untuk mencari jawaban pertanyaan ini.
Mereka mengumpulkan 1.600 lebih
rasa es krim yang sudah ada,
lalu kami memasukkannya ke algoritme
untuk melihat hasilnya.
Ini beberapa rasa yang diciptakan AI.
[Patahan Sampah Labu]
(Tertawa)
[Lendir Selai Kacang]
[Penyakit Es Krim Stroberi]
(Tertawa)
Rasa-rasa ini tidak seenak harapan kami.
Pertanyaannya, apa yang terjadi?
Apa yang salah?
Apakah AI ingin membunuh kita?
Atau hanya menuruti perintah,
tapi ada masalah?
Dalam film, jika AI bermasalah,
itu biasanya karena kecerdasan buatan itu
tidak ingin patuh pada manusia lagi.
Dia memiliki tujuan sendiri,
terima kasih.
Namun di kehidupan nyata,
AI yang kita miliki
tidak cukup pintar untuk itu.
AI yang ada memiliki daya komputasi
seperti cacing tanah
atau setidaknya seperti lebah madu.
Mungkin kurang dari itu.
Kita terus mempelajari hal baru
tentang otak
dan menunjukkan bahwa AI
tak sebanding dengan otak kita.
AI saat ini
bisa mengenali pejalan kaki dalam foto,
tapi tidak paham apa itu pejalan kaki
selain bahwa itu hanya kumpulan garis,
tekstur, dan lainnya.
AI tak tahu apa itu manusia.
Apakah AI saat ini
akan menuruti perintah kita?
Ya, jika bisa.
Namun, mungkin tak sesuai keinginan kita.
Anggap Anda ingin kecerdasan buatan
mengambil suku cadang robot,
menyusunnya menjadi robot,
dan pindah dari Poin A ke Poin B.
Jika Anda ingin selesaikan masalah ini
dengan membuat program komputer biasa,
Anda memberi instruksi
langkah demi langkah pada program
untuk mengambil suku cadang,
menyusunnya menjadi robot berkaki,
dan cara menggunakan kakinya
untuk berjalan ke Poin B.
Namun, jika memakai kecerdasan buatan,
caranya berbeda.
Tak perlu menjelaskan
cara menyelesaikan masalah,
Anda hanya memberi tujuan.
AI harus mencoba mencari cara sendiri
untuk mencapai tujuan itu.
Ternyata, AI cenderung
mengatasi masalah ini
seperti ini:
dia membentuk dirinya menjadi menara,
lalu jatuh
dan mendarat di Poin B.
Secara teknis, masalahnya terpecahkan.
Dia sampai ke Poin B.
Bahaya kecerdasan buatan
bukan kemungkinan dia memberontak,
tapi AI akan benar-benar mematuhi kita.
Maka, trik menggunakan AI adalah
bagaimana kita menyusun masalah
agar AI berfungsi sesuai harapan?
Robot kecil ini dikontrol oleh AI.
AI membuat desain untuk kaki robotnya
dan bisa menggunakannya
untuk melalui rintangan ini.
Namun, saat David Ha
membuat eksperimen ini,
dia harus membuat batasan tegas
seberapa besar kaki
yang bisa dibuat oleh AI.
Jika tidak...
(Tertawa)
Secara teknis,
rintangan itu berhasil dilalui.
Sangat sulit membuat AI
melakukan hal sederhana seperti berjalan.
Saat melihat ini,
Anda mungkin berkata itu tidak adil.
Anda tak boleh menjadi menara tinggi,
lalu jatuh.
Anda harus menggunakan kaki
untuk berjalan.
Ternyata, itu tidak selalu berhasil.
Tugas AI ini adalah bergerak cepat.
Kami tak memintanya berlari
menghadap ke depan
atau tak boleh menggunakan tangan.
Ini yang terjadi saat Anda melatih AI
bergerak cepat.
Hasilnya adalah jungkir balik
dan cara berjalan aneh.
Ini biasa terjadi.
Juga bergeliat di lantai
dalam bentuk gumpalan.
(Tertawa)
Menurut pendapat saya,
yang semestinya lebih aneh
adalah robot "Terminator".
AI mungkin akan meretas "The Matrix"
jika dicoba.
Jika AI dilatih dalam sebuah simulasi,
dia akan belajar cara meretas
kesalahan matematis simulasi itu
dan menjadikannya energi.
Atau dia akan bisa bergerak lebih cepat
dengan bergeliat di lantai.
Bekerja dengan AI
tidak seperti bekerja dengan manusia,
tapi seperti bekerja
dengan kekuatan alam yang aneh.
Kesalahan sangat mudah terjadi
saat memberi perintah pada AI,
dan kami sering kali tak sadar
sampai ada yang salah.
Ini eksperimen yang saya lakukan.
Saya ingin AI menyalin warna cat
untuk menciptakan warna cat baru
dengan daftar seperti gambar
di sebelah kiri.
Inilah yang diciptakan oleh AI.
[Kotoran Sindi, Kerdil,
Menderita, Kemaluan Abu-Abu]
(Tertawa)
Secara teknis,
perintah saya dipatuhi.
Saya sudah memintanya
membuat nama cat yang bagus,
tapi yang sebenarnya saya perintahkan
adalah meniru kombinasi huruf
dari daftar aslinya.
Saya tak menjelaskan apa arti kata-kata
atau mungkin ada kata-kata
yang harus dihindari dalam warna cat ini.
Seluruh dunia AI ini
adalah data yang saya berikan.
Seperti rasa es krim,
AI itu tidak tahu tentang hal lain.
Jadi, melalui data,
kami sering salah memberi perintah
secara tak sengaja.
Ini adalah ikan mas tinca.
Ada sekelompok peneliti
yang melatih AI
untuk mengenali ikan ini dalam foto.
Saat mereka bertanya
bagian foto mana yang digunakan
untuk mengenali ikannya,
ini bagian yang disorot.
Ya, itu jari manusia.
Kenapa AI mencari jari manusia
untuk mengenali ikan?
Ternyata, ikan mas tinca
adalah ikan trofi.
Jadi, dalam banyak foto yang dilihat AI
selama pelatihan,
ikannya tampak seperti ini.
(Tertawa)
AI tak tahu
jari itu bukan bagian dari ikan.
Itulah sebabnya sangat sulit
merancang AI
yang bisa mengerti apa yang dilihatnya.
Inilah alasan
merancang pengenalan gambar
dalam mobil tanpa pengemudi
sangat sulit.
Banyak mobil tanpa pengemudi gagal,
karena AI menjadi bingung.
Saya ingin membahas contoh
dari tahun 2016.
Terjadi kecelakaan fatal saat seseorang
mengendarai Tesla dengan autopilot.
Namun, alih-alih memakainya di jalan tol
seperti tujuan awalnya,
dia menggunakannya di jalanan kota.
Yang terjadi adalah
truk melaju ke depan mobil
dan mobilnya tak mengerem.
AI itu sudah dilatih
untuk mengenali truk dalam foto.
Namun, sepertinya yang terjadi adalah
AI itu dilatih
untuk mengenali truk di jalan tol,
di mana biasanya truk datang
dari belakang.
Truk di samping tidak seharusnya ada
di jalan tol.
Saat AI melihat truk itu,
sepertinya AI mengenalinya
sebagai rambu lalu lintas,
dan melaju di bawahnya akan aman.
Ini kesalahan AI di bidang yang berbeda.
Baru-baru ini, Amazon menghentikan
algoritme penyortiran CV
yang mereka kerjakan
saat mereka tahu algoritme itu
mendiskriminasi wanita.
Itu karena mereka melatih AI
dengan contoh CV
dari orang-orang
yang pernah mereka terima.
Dari contoh itu, AI belajar
menghindari CV orang-orang
yang pernah belajar di universitas putri
atau yang berisi kata "wanita" di CV-nya,
seperti "tim sepak bola wanita"
atau "Perhimpunan Insinyur Wanita".
AI itu tidak tahu
dia tak seharusnya menyalin hal tertentu
dari yang dilakukan manusia.
Secara teknis,
AI itu sudah mematuhi perintah.
Mereka hanya tak sengaja
memberi perintah yang salah.
Ini sering terjadi dengan AI.
AI bisa sangat merusak
tanpa menyadarinya.
Jadi, AI yang menyarankan konten baru
di Facebook dan YouTube
dioptimalkan untuk meningkatkan
jumlah klik dan tontonan.
Sayangnya, cara yang mereka pelajari
untuk melakukan itu
adalah menyarankan konten teori konspirasi
atau kefanatikan.
AI itu sendiri tak mengerti
apa itu konten.
AI juga tak mengerti konsekuensi
dari menyarankan konten seperti itu.
Saat kita bekerja dengan AI,
kita yang menjadi penentu
untuk menghindari masalah.
Menghindari kesalahan
mungkin mengarah pada masalah komunikasi
yang sudah ada sejak lama,
di mana manusia harus belajar
cara berkomunikasi dengan AI.
Kita harus mempelajari
yang bisa dilakukan AI dan tidak.
Juga memahami,
dengan kemampuan berpikirnya,
AI tidak begitu mengerti perintah kita.
Dengan kata lain,
kita harus siap bekerja dengan AI
yang tak begitu kompeten dan canggih
seperti dalam fiksi ilmiah.
Kita harus siap bekerja dengan AI
yang kita miliki saat ini.
Dan AI masa kini agak aneh.
Terima kasih.
(Tepuk tangan)