Kecerdasan buatan (AI) dikenal mengganggu berbagai macam industri. Bagaimana dengan es krim? Rasa baru mencengangkan seperti apa yang bisa kita ciptakan dengan kecanggihan kecerdasan buatan? Saya bekerja sama dengan pembuat kode dari SMP Kealing untuk mencari jawaban pertanyaan ini. Mereka mengumpulkan 1.600 lebih rasa es krim yang sudah ada, lalu kami memasukkannya ke algoritme untuk melihat hasilnya. Ini beberapa rasa yang diciptakan AI. [Patahan Sampah Labu] (Tertawa) [Lendir Selai Kacang] [Penyakit Es Krim Stroberi] (Tertawa) Rasa-rasa ini tidak seenak harapan kami. Pertanyaannya, apa yang terjadi? Apa yang salah? Apakah AI ingin membunuh kita? Atau hanya menuruti perintah, tapi ada masalah? Dalam film, jika AI bermasalah, itu biasanya karena kecerdasan buatan itu tidak ingin patuh pada manusia lagi. Dia memiliki tujuan sendiri, terima kasih. Namun di kehidupan nyata, AI yang kita miliki tidak cukup pintar untuk itu. AI yang ada memiliki daya komputasi seperti cacing tanah atau setidaknya seperti lebah madu. Mungkin kurang dari itu. Kita terus mempelajari hal baru tentang otak dan menunjukkan bahwa AI tak sebanding dengan otak kita. AI saat ini bisa mengenali pejalan kaki dalam foto, tapi tidak paham apa itu pejalan kaki selain bahwa itu hanya kumpulan garis, tekstur, dan lainnya. AI tak tahu apa itu manusia. Apakah AI saat ini akan menuruti perintah kita? Ya, jika bisa. Namun, mungkin tak sesuai keinginan kita. Anggap Anda ingin kecerdasan buatan mengambil suku cadang robot, menyusunnya menjadi robot, dan pindah dari Poin A ke Poin B. Jika Anda ingin selesaikan masalah ini dengan membuat program komputer biasa, Anda memberi instruksi langkah demi langkah pada program untuk mengambil suku cadang, menyusunnya menjadi robot berkaki, dan cara menggunakan kakinya untuk berjalan ke Poin B. Namun, jika memakai kecerdasan buatan, caranya berbeda. Tak perlu menjelaskan cara menyelesaikan masalah, Anda hanya memberi tujuan. AI harus mencoba mencari cara sendiri untuk mencapai tujuan itu. Ternyata, AI cenderung mengatasi masalah ini seperti ini: dia membentuk dirinya menjadi menara, lalu jatuh dan mendarat di Poin B. Secara teknis, masalahnya terpecahkan. Dia sampai ke Poin B. Bahaya kecerdasan buatan bukan kemungkinan dia memberontak, tapi AI akan benar-benar mematuhi kita. Maka, trik menggunakan AI adalah bagaimana kita menyusun masalah agar AI berfungsi sesuai harapan? Robot kecil ini dikontrol oleh AI. AI membuat desain untuk kaki robotnya dan bisa menggunakannya untuk melalui rintangan ini. Namun, saat David Ha membuat eksperimen ini, dia harus membuat batasan tegas seberapa besar kaki yang bisa dibuat oleh AI. Jika tidak... (Tertawa) Secara teknis, rintangan itu berhasil dilalui. Sangat sulit membuat AI melakukan hal sederhana seperti berjalan. Saat melihat ini, Anda mungkin berkata itu tidak adil. Anda tak boleh menjadi menara tinggi, lalu jatuh. Anda harus menggunakan kaki untuk berjalan. Ternyata, itu tidak selalu berhasil. Tugas AI ini adalah bergerak cepat. Kami tak memintanya berlari menghadap ke depan atau tak boleh menggunakan tangan. Ini yang terjadi saat Anda melatih AI bergerak cepat. Hasilnya adalah jungkir balik dan cara berjalan aneh. Ini biasa terjadi. Juga bergeliat di lantai dalam bentuk gumpalan. (Tertawa) Menurut pendapat saya, yang semestinya lebih aneh adalah robot "Terminator". AI mungkin akan meretas "The Matrix" jika dicoba. Jika AI dilatih dalam sebuah simulasi, dia akan belajar cara meretas kesalahan matematis simulasi itu dan menjadikannya energi. Atau dia akan bisa bergerak lebih cepat dengan bergeliat di lantai. Bekerja dengan AI tidak seperti bekerja dengan manusia, tapi seperti bekerja dengan kekuatan alam yang aneh. Kesalahan sangat mudah terjadi saat memberi perintah pada AI, dan kami sering kali tak sadar sampai ada yang salah. Ini eksperimen yang saya lakukan. Saya ingin AI menyalin warna cat untuk menciptakan warna cat baru dengan daftar seperti gambar di sebelah kiri. Inilah yang diciptakan oleh AI. [Kotoran Sindi, Kerdil, Menderita, Kemaluan Abu-Abu] (Tertawa) Secara teknis, perintah saya dipatuhi. Saya sudah memintanya membuat nama cat yang bagus, tapi yang sebenarnya saya perintahkan adalah meniru kombinasi huruf dari daftar aslinya. Saya tak menjelaskan apa arti kata-kata atau mungkin ada kata-kata yang harus dihindari dalam warna cat ini. Seluruh dunia AI ini adalah data yang saya berikan. Seperti rasa es krim, AI itu tidak tahu tentang hal lain. Jadi, melalui data, kami sering salah memberi perintah secara tak sengaja. Ini adalah ikan mas tinca. Ada sekelompok peneliti yang melatih AI untuk mengenali ikan ini dalam foto. Saat mereka bertanya bagian foto mana yang digunakan untuk mengenali ikannya, ini bagian yang disorot. Ya, itu jari manusia. Kenapa AI mencari jari manusia untuk mengenali ikan? Ternyata, ikan mas tinca adalah ikan trofi. Jadi, dalam banyak foto yang dilihat AI selama pelatihan, ikannya tampak seperti ini. (Tertawa) AI tak tahu jari itu bukan bagian dari ikan. Itulah sebabnya sangat sulit merancang AI yang bisa mengerti apa yang dilihatnya. Inilah alasan merancang pengenalan gambar dalam mobil tanpa pengemudi sangat sulit. Banyak mobil tanpa pengemudi gagal, karena AI menjadi bingung. Saya ingin membahas contoh dari tahun 2016. Terjadi kecelakaan fatal saat seseorang mengendarai Tesla dengan autopilot. Namun, alih-alih memakainya di jalan tol seperti tujuan awalnya, dia menggunakannya di jalanan kota. Yang terjadi adalah truk melaju ke depan mobil dan mobilnya tak mengerem. AI itu sudah dilatih untuk mengenali truk dalam foto. Namun, sepertinya yang terjadi adalah AI itu dilatih untuk mengenali truk di jalan tol, di mana biasanya truk datang dari belakang. Truk di samping tidak seharusnya ada di jalan tol. Saat AI melihat truk itu, sepertinya AI mengenalinya sebagai rambu lalu lintas, dan melaju di bawahnya akan aman. Ini kesalahan AI di bidang yang berbeda. Baru-baru ini, Amazon menghentikan algoritme penyortiran CV yang mereka kerjakan saat mereka tahu algoritme itu mendiskriminasi wanita. Itu karena mereka melatih AI dengan contoh CV dari orang-orang yang pernah mereka terima. Dari contoh itu, AI belajar menghindari CV orang-orang yang pernah belajar di universitas putri atau yang berisi kata "wanita" di CV-nya, seperti "tim sepak bola wanita" atau "Perhimpunan Insinyur Wanita". AI itu tidak tahu dia tak seharusnya menyalin hal tertentu dari yang dilakukan manusia. Secara teknis, AI itu sudah mematuhi perintah. Mereka hanya tak sengaja memberi perintah yang salah. Ini sering terjadi dengan AI. AI bisa sangat merusak tanpa menyadarinya. Jadi, AI yang menyarankan konten baru di Facebook dan YouTube dioptimalkan untuk meningkatkan jumlah klik dan tontonan. Sayangnya, cara yang mereka pelajari untuk melakukan itu adalah menyarankan konten teori konspirasi atau kefanatikan. AI itu sendiri tak mengerti apa itu konten. AI juga tak mengerti konsekuensi dari menyarankan konten seperti itu. Saat kita bekerja dengan AI, kita yang menjadi penentu untuk menghindari masalah. Menghindari kesalahan mungkin mengarah pada masalah komunikasi yang sudah ada sejak lama, di mana manusia harus belajar cara berkomunikasi dengan AI. Kita harus mempelajari yang bisa dilakukan AI dan tidak. Juga memahami, dengan kemampuan berpikirnya, AI tidak begitu mengerti perintah kita. Dengan kata lain, kita harus siap bekerja dengan AI yang tak begitu kompeten dan canggih seperti dalam fiksi ilmiah. Kita harus siap bekerja dengan AI yang kita miliki saat ini. Dan AI masa kini agak aneh. Terima kasih. (Tepuk tangan)