WEBVTT 00:00:01.765 --> 00:00:04.765 Yapay zekânın, 00:00:04.789 --> 00:00:08.318 her tür endüstriyi bozduğu bilinmektedir. 00:00:08.961 --> 00:00:11.004 Peki ya dondurma? 00:00:11.879 --> 00:00:15.518 Gelişmiş bir yapay zekânın gücüyle 00:00:15.542 --> 00:00:18.518 akıllara durgunluk verecek ne tür tatlar oluşturabiliriz? 00:00:19.011 --> 00:00:22.842 Bu sorunun cevabını bulmak için Kealing orta okulundan 00:00:22.842 --> 00:00:25.437 bir grup kodlayıcı ile birlikte çalıştım. 00:00:25.461 --> 00:00:30.542 Mevcut olan yaklaşık 1600 dondurma tadını topladılar 00:00:30.566 --> 00:00:36.088 ve birlikte, ne oluşturacağını görmek için onları bir algoritmaya çevirdik. 00:00:36.112 --> 00:00:39.265 İşte yapay zekânın ürettiği tatlardan birkaçı. NOTE Paragraph 00:00:39.265 --> 00:00:41.375 [Kabak Çöpü Parçası] NOTE Paragraph 00:00:41.375 --> 00:00:42.811 (Gülüşmeler) NOTE Paragraph 00:00:42.811 --> 00:00:46.212 [Fıstık Ezmesi Balçığı] NOTE Paragraph 00:00:46.212 --> 00:00:48.165 [Çilek Kreması Hastalığı] NOTE Paragraph 00:00:48.165 --> 00:00:49.765 (Gülüşmeler) NOTE Paragraph 00:00:50.025 --> 00:00:54.936 Bu tatlar umduğumuz gibi lezzetli değiller. 00:00:54.960 --> 00:00:56.824 Soru şu: Ne oldu? 00:00:56.848 --> 00:00:58.242 Yanlış giden neydi? 00:00:58.266 --> 00:01:00.225 Yapay zekâ bizi öldürmeye mi çalışıyor? 00:01:01.027 --> 00:01:05.337 Yoksa istediğimiz şeyi yapmaya mı çalışıyor ve bir problem mi oluyor? NOTE Paragraph 00:01:06.567 --> 00:01:09.031 Filmlerde yapay zekâyla ilgili bir hata olduğunda 00:01:09.055 --> 00:01:11.097 bu genelde yapay zekânın, 00:01:11.097 --> 00:01:14.063 artık insanlara itaat etmemeye karar vermesi nedeniyle olur 00:01:14.087 --> 00:01:16.710 ve artık kendi kuralları vardır, çok teşekkürler. 00:01:17.266 --> 00:01:20.482 Ancak, gerçek hayatta sahip olduğumuz yapay zekâ 00:01:20.506 --> 00:01:22.369 bunu yapabilecek kadar zeki değil. 00:01:22.781 --> 00:01:24.423 Yaklaşık bir solucanın 00:01:24.423 --> 00:01:27.737 veya belki de olsa olsa tek bir bal arısının 00:01:27.737 --> 00:01:30.490 programlama gücüne sahiptir 00:01:30.514 --> 00:01:32.729 ve aslında, belki de daha azına sahiptir. 00:01:32.729 --> 00:01:36.721 Beyinlerle ilgili sürekli yeni şeyler öğreniyoruz ve bu da yapay zekânın 00:01:36.721 --> 00:01:39.731 neden gerçek beyinlerle aynı düzeyde olmayacağını açıklıyor. 00:01:39.755 --> 00:01:44.988 Günümüzdeki yapay zekâ, bir resimde yayayı saptamak gibi 00:01:44.988 --> 00:01:48.425 bir görevi yapabilir, fakat bir yayanın ne olduğunu kavrayamaz, 00:01:48.449 --> 00:01:53.273 yaya onun için bir çizgiler, dokular ve bazı şeylerin toplamıdır. 00:01:53.792 --> 00:01:56.313 Bir insanın aslında ne olduğunu bilmez. 00:01:56.822 --> 00:02:00.104 Peki günümüzün yapay zekâsı biz ne istersek onu mu yapacak? 00:02:00.128 --> 00:02:01.722 Eğer yapabilirse evet, 00:02:01.746 --> 00:02:04.472 fakat gerçekten istediğimizi yapamayabilir. NOTE Paragraph 00:02:04.496 --> 00:02:07.785 Diyelim ki bir yapay zekânın bu robot parçalarını alıp 00:02:07.785 --> 00:02:09.554 A noktasından B noktasına gidecek 00:02:09.578 --> 00:02:13.775 bir robota dönüştürmesini istiyorsunuz. 00:02:13.799 --> 00:02:17.054 Bu problemi geleneksel türden bir bilgisayar programı yazarak 00:02:17.054 --> 00:02:18.655 çözmeyi deneyecek olsaydınız, 00:02:18.679 --> 00:02:21.186 programa bu parçaları nasıl alacağına, 00:02:21.186 --> 00:02:23.449 bunları bacaklı bir robota nasıl dönüştüreceğine 00:02:23.449 --> 00:02:26.744 ve o bacakları B noktasına gitmesi için nasıl kullanacağına dair 00:02:26.744 --> 00:02:28.846 adım adım talimatlar verirdiniz. 00:02:29.321 --> 00:02:31.855 Fakat problemi çözmek için yapay zekâ kullandığınızda 00:02:31.855 --> 00:02:33.003 işler farklı ilerliyor. 00:02:33.003 --> 00:02:35.385 Ona problemi nasıl çözeceğini söylemiyorsunuz, 00:02:35.409 --> 00:02:36.888 ona sadece amacı veriyorsunuz 00:02:36.912 --> 00:02:40.174 ve onun, amaca ulaşmak için deneme yanılma aracılığıyla 00:02:40.198 --> 00:02:41.682 kendisi çözmesi gerekiyor. 00:02:42.254 --> 00:02:46.356 Yapay zekânın bu problemi çözmek için gittiği yol 00:02:46.380 --> 00:02:47.864 şu şekilde görünüyor: 00:02:47.888 --> 00:02:51.255 kendisini bir kuleye monte ediyor, sonra düşüyor 00:02:51.279 --> 00:02:53.106 ve B noktasına iniş yapıyor. 00:02:53.130 --> 00:02:55.959 Bu, teknik olarak problemi çözüyor. 00:02:55.983 --> 00:02:57.622 Teknik olarak B noktasına gidiyor. 00:02:57.646 --> 00:03:01.911 Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacağı değil, 00:03:01.935 --> 00:03:06.209 tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır. 00:03:06.876 --> 00:03:09.568 O zaman da yapay zekâyla çalışma hilesi şu hale geliyor: 00:03:09.568 --> 00:03:13.226 Problemi nasıl düzenleyelim ki gerçekten istediğimizi yapsın? NOTE Paragraph 00:03:14.726 --> 00:03:18.032 Bu küçük robot bir yapay zekâ tarafından kontrol ediliyor. 00:03:18.056 --> 00:03:20.870 Yapay zekâ robot bacakları için bir tasarım buldu 00:03:20.894 --> 00:03:24.972 ve sonra onları, bu engelleri aşmak için nasıl kullanacağını çözdü. 00:03:24.996 --> 00:03:27.737 Fakat David Ha bu deneyi oluşturduğunda 00:03:27.761 --> 00:03:30.707 yapay zekânın bacakları ne kadar büyük yapabileceğine dair 00:03:30.707 --> 00:03:33.933 çok, çok katı kısıtlamalarla oluşturmalıydı, 00:03:33.957 --> 00:03:35.507 çünkü, aksi takdirde... NOTE Paragraph 00:03:43.058 --> 00:03:46.989 (Gülüşmeler) NOTE Paragraph 00:03:48.563 --> 00:03:52.308 Teknik olarak bu engel rotasının sonuna varabildi. 00:03:52.332 --> 00:03:57.274 Bir yapay zekânın, yürümek gibi basit bir eylemi yapmasını sağlamak çok zor. NOTE Paragraph 00:03:57.298 --> 00:04:01.118 Yapay zekânın bunu yaptığını görünce, bu haksızlık diyebilirsiniz, 00:04:01.142 --> 00:04:03.722 yüksek bir kule olup düşemezsiniz, 00:04:03.746 --> 00:04:07.181 yürümek için bacak kullanmanız gerek diyebilirsiniz. 00:04:07.205 --> 00:04:09.964 Görünen o ki, bu da her zaman işe yaramıyor. 00:04:09.988 --> 00:04:12.747 Yapay zekânın işi hızlı hareket etmek. 00:04:13.115 --> 00:04:16.708 Ona ileri doğru koşması gerektiğini 00:04:16.732 --> 00:04:18.990 veya kollarını kullanamayacağını söylemediler. 00:04:19.487 --> 00:04:24.105 Yapay zekâya hızlı hareket etmeyi öğrettiğiniz zaman olan şey budur, 00:04:24.129 --> 00:04:27.663 takla atmak veya şaşkınca yürüyüşler gibi şeylerle karşılaşırsınız. 00:04:27.687 --> 00:04:29.087 Bu gerçekten yaygın. 00:04:29.667 --> 00:04:32.846 Yerde sürünmek de yaygın. NOTE Paragraph 00:04:32.870 --> 00:04:34.020 (Gülüşmeler) NOTE Paragraph 00:04:35.241 --> 00:04:38.495 Bana göre, bundan çok daha garip olan şey, 00:04:38.519 --> 00:04:39.915 "Terminatör" robotları. 00:04:40.256 --> 00:04:44.011 Ona bir şans verirseniz, yapay zekanın yapacağı diğer şey "Matrix"e girmektir. 00:04:44.035 --> 00:04:46.552 Bir simülasyonda yapay zekâyı eğitirseniz, 00:04:46.576 --> 00:04:50.689 simülasyonun matematik hatalarına girmek ve onları enerji için saklamak 00:04:50.713 --> 00:04:52.920 gibi şeyleri yapmayı öğrenir. 00:04:52.944 --> 00:04:58.419 Sürekli yerde sürünerek hızlı hareket etmeyi de çözebilir. 00:04:58.443 --> 00:05:00.028 Bir yapay zekâyla çalışırken 00:05:00.052 --> 00:05:02.441 bu diğer bir insanla çalışmaktan ziyade, 00:05:02.465 --> 00:05:06.094 daha çok doğanın garip bir gücüyle çalışmaya benziyor. 00:05:06.562 --> 00:05:11.185 Yapay zekâya çözmesi için kazara yanlış problemi vermek de çok kolay 00:05:11.209 --> 00:05:15.747 ve bir şeyler yanlış gidene dek bunu genelde fark etmeyiz. NOTE Paragraph 00:05:16.242 --> 00:05:18.322 Yaptığım bir deneyde 00:05:18.346 --> 00:05:21.528 yapay zekâdan boya renklerini kopyalamasını 00:05:21.552 --> 00:05:23.802 ve yeni boya renkleri yaratmasını istedim, 00:05:23.802 --> 00:05:26.309 bu soldaki listedekiler gibi bir liste verdim. 00:05:26.798 --> 00:05:29.802 Yapay zekânın önerdikleri ise şunlar. NOTE Paragraph 00:05:29.826 --> 00:05:32.969 [Sindi Kakası, Gübremsi, Acı, Gri Kasık] NOTE Paragraph 00:05:32.993 --> 00:05:35.273 (Gülüşmeler) NOTE Paragraph 00:05:39.177 --> 00:05:41.063 Teknik olarak 00:05:41.087 --> 00:05:42.951 istediğimi yaptı. 00:05:42.975 --> 00:05:46.283 Ben güzel boya renkleri isimleri istediğimi düşünmüştüm, 00:05:46.307 --> 00:05:48.614 fakat aslında yapmasını istediğim şey 00:05:48.638 --> 00:05:51.724 orijinalinde gördüğü harf kombinasyonları türlerini 00:05:51.748 --> 00:05:53.653 taklit etmesiydi. 00:05:53.677 --> 00:05:56.205 Kelimelerin ne anlama geldiğine dair 00:05:56.205 --> 00:05:59.383 veya isimleri bulurken kullanmaması gereken bazı kelimeler 00:05:59.383 --> 00:06:02.272 olabileceğine dair hiçbir şey söylemedim. 00:06:03.141 --> 00:06:06.635 Yani onun tüm dünyası, benim ona sağladığım veri. 00:06:06.659 --> 00:06:10.687 Dondurma tatları gibi, başka hiçbir şey bilmiyor. NOTE Paragraph 00:06:12.491 --> 00:06:14.129 Yani genelde veri aracılığıyla 00:06:14.153 --> 00:06:18.197 yapay zekâya kazara yanlış şeyi yapmasını söylüyoruz. 00:06:18.694 --> 00:06:21.726 Bu, karabalık adlı bir balık. 00:06:21.750 --> 00:06:23.565 Bir grup araştırmacı da yapay zekâyı 00:06:23.589 --> 00:06:27.463 resimlerde karabalığı saptaması için eğitmişti. 00:06:27.463 --> 00:06:29.037 fakat ona, balığı saptamak için 00:06:29.037 --> 00:06:32.233 resmin hangi kısmını kullandığını sorduklarında, 00:06:32.257 --> 00:06:33.615 işte bunu vurguladı. 00:06:35.203 --> 00:06:37.392 Evet, bunlar insan elinin parmakları. 00:06:37.416 --> 00:06:39.475 Bir balığı saptamayı deniyorsa, 00:06:39.499 --> 00:06:41.420 neden insan elinin parmaklarını arıyor? 00:06:42.126 --> 00:06:45.290 Görünen o ki bu karabalık bir ödül balığı 00:06:45.314 --> 00:06:49.125 ve eğitimi sırasında yapay zekânın gördüğü 00:06:49.149 --> 00:06:50.300 birçok resimde, 00:06:50.324 --> 00:06:51.814 balık böyle görünüyordu. NOTE Paragraph 00:06:51.838 --> 00:06:53.473 (Gülüşmeler) NOTE Paragraph 00:06:53.497 --> 00:06:56.827 Parmakların, balığın bir parçası olmadığını bilmiyordu. NOTE Paragraph 00:06:58.808 --> 00:07:02.928 Baktığı şeyi gerçekten anlayabilecek bir yapay zekâ tasarlamanın 00:07:02.952 --> 00:07:06.271 neden çok zor olduğunu görüyorsunuz. 00:07:06.295 --> 00:07:08.487 Ayrıca sürücüsüz arabalarda 00:07:08.487 --> 00:07:11.248 görüntü tanımayı tasarlamanın zor olmasının nedeni de bu 00:07:11.272 --> 00:07:13.691 ve sürücüsüz arabalardaki birçok başarısızlık da 00:07:13.691 --> 00:07:16.386 yapay zekânın şaşırması nedenlidir. 00:07:16.410 --> 00:07:20.418 2016'dan bir örnek vermek istiyorum. 00:07:20.442 --> 00:07:24.897 Birisi Tesla'nın oto-pilot yapay zekasını kullanırken ölümcül bir kaza oldu, 00:07:24.921 --> 00:07:28.335 fakat tasarlandığı üzere otoyolda kullanmak yerine, 00:07:28.359 --> 00:07:30.564 şehrin sokaklarında kullandılar. 00:07:31.239 --> 00:07:32.414 Olan şey de şuydu; 00:07:32.438 --> 00:07:35.834 bir kamyon, arabanın önüne sürdü ve araba fren yapamadı. 00:07:36.507 --> 00:07:41.269 Yapay zekâ kesinlikle resimlerde kamyonları saptamak üzere eğitilmişti. 00:07:41.293 --> 00:07:43.438 Fakat olan şey şu gibi görünüyor, 00:07:43.462 --> 00:07:46.393 yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, 00:07:46.417 --> 00:07:49.316 yani kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. 00:07:49.340 --> 00:07:52.760 Yanı görünen kamyonların otoyolda olmaları beklenmez 00:07:52.784 --> 00:07:56.239 ve yapay zekâ bu kamyonu gördüğünde, 00:07:56.263 --> 00:07:59.980 büyük olasılıkla bir yol işareti olarak algıladı 00:07:59.980 --> 00:08:03.387 ve altından geçmenin güvenli olduğunu düşündü. NOTE Paragraph 00:08:04.114 --> 00:08:06.694 Yapay zekânın başka alanda attığı yanlış bir adım daha. 00:08:06.718 --> 00:08:10.178 Amazon, algoritmanın kadınlara karşı ayrımcılık yapmayı öğrendiğini 00:08:10.202 --> 00:08:11.422 keşfettiği zaman, 00:08:11.446 --> 00:08:15.354 bir özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı. 00:08:15.378 --> 00:08:18.878 Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları insanlara ait 00:08:18.878 --> 00:08:20.360 örnek özgeçmişlerle eğittiler. 00:08:20.384 --> 00:08:24.407 Yapay zekâ da bu örneklerden, kadın okullarına gitmiş olan 00:08:24.431 --> 00:08:26.457 veya özgeçmişinin herhangi bir yerinde 00:08:26.481 --> 00:08:29.287 "kadın" kelimesi geçen, -- "kadın futbol takımı" 00:08:29.311 --> 00:08:33.887 veya "Kadın Mühendisler Derneği" gibi -- özgeçmişlerden kaçınmayı öğrendi. 00:08:33.911 --> 00:08:37.885 Yapay zekâ, insanların yaptığını gördüğü bu şeyi 00:08:37.909 --> 00:08:39.887 kopyalaması gerekmediğini bilmiyordu. 00:08:39.911 --> 00:08:43.088 Teknik olarak da yapmasını istedikleri şeyi yaptı. 00:08:43.112 --> 00:08:45.909 Sadece, yanlış şeyi yapmasını istediler. NOTE Paragraph 00:08:46.653 --> 00:08:49.548 Yapay zekâyla bu her zaman olur. 00:08:50.120 --> 00:08:53.711 Yapay zeka çok zararlı olabilir ve bunu bilmeyebilir. 00:08:53.735 --> 00:08:58.813 Facebook, YouTube'da yeni içerik öneren yapay zekâlar, 00:08:58.837 --> 00:09:02.376 tıklama ve görüntüleme sayısını yükseltmek üzere optimize edilmiştir. 00:09:02.400 --> 00:09:05.836 Ne yazık ki bunu yapmak için buldukları bir yol da, 00:09:05.860 --> 00:09:10.363 komplo teorisi veya fanatiklik içerikleri önermek. 00:09:10.902 --> 00:09:16.204 Yapay zekâların, bu içeriklere dair herhangi bir fikirleri yok 00:09:16.228 --> 00:09:19.623 ve bu içeriği önerdikleri zaman sonucun ne olacağına dair de 00:09:19.647 --> 00:09:21.756 herhangi bir fikirleri yok. NOTE Paragraph 00:09:22.296 --> 00:09:24.307 Yani, yapay zekâyla çalışırken 00:09:24.331 --> 00:09:28.513 problemlerden kaçınmak bize bağlıdır. 00:09:28.537 --> 00:09:30.860 Yanlış giden şeylerden kaçınmak da öyle, 00:09:30.884 --> 00:09:35.410 bu çok eski iletişim problemine kadar da inebilir, 00:09:35.434 --> 00:09:39.179 insanlar yapay zekâyla nasıl iletişim kuracağını öğrenmelidir. 00:09:39.203 --> 00:09:43.242 Yapay zekânın ne yapabildiğini ve ne yapamadığını öğrenmeliyiz 00:09:43.266 --> 00:09:46.352 ve yapay zekânın, çok küçük solucan beyniyle, 00:09:46.376 --> 00:09:50.389 ondan yapmasını istediğimiz şeyi aslında anlamadığını anlamalıyız. 00:09:51.148 --> 00:09:55.473 Yani, süper-yetkili, her şeyi bilen bilim kurgu yapay zekâlarına benzemeyen 00:09:55.473 --> 00:09:59.751 yapay zekâ ile çalışmaya hazırlıklı olmalıyız. 00:09:59.775 --> 00:10:02.637 Şimdiki zamanda sahip olduğumuz 00:10:02.661 --> 00:10:05.599 tek yapay zekâyla çalışmaya hazırlıklı olmalıyız. 00:10:05.623 --> 00:10:09.828 Günümüzün yapay zekâsı da yeterince garip. NOTE Paragraph 00:10:09.852 --> 00:10:11.042 Teşekkürler. NOTE Paragraph 00:10:11.066 --> 00:10:16.291 (Alkış)