0:00:00.792,0:00:03.059 Her gün, her hafta 0:00:03.083,0:00:05.268 farklı şart ve koşulları kabul ediyoruz. 0:00:05.292,0:00:06.768 Bunu yaparken de 0:00:06.792,0:00:09.268 şirketlere hem bizim verilerimizle 0:00:09.292,0:00:12.976 hem de çocuklarımızın verileriyle 0:00:13.000,0:00:15.375 istediklerini yapma hakkını veriyoruz. 0:00:16.792,0:00:19.768 Bu da bizi düşündürüyor: 0:00:19.792,0:00:22.684 Çocuklarımızın verilerinin[br]ne kadarını açık ediyoruz 0:00:22.708,0:00:24.708 ve bunun sonuçları ne olabilir? 0:00:26.500,0:00:27.893 Ben bir antropoloğum. 0:00:27.917,0:00:30.518 Aynı zamanda iki küçük kız annesiyim. 0:00:30.542,0:00:35.018 Bu soruyla ilgilenmeye 2015'te başladım. 0:00:35.042,0:00:37.768 Çocuklarla ilgili çok fazla 0:00:37.792,0:00:40.809 hatta inanılmaz sayıda veri izinin 0:00:40.833,0:00:44.000 üretilip toplandığını fark ettiğimde. 0:00:44.792,0:00:46.768 Çocuk Verisi Vatandaşı isminde 0:00:46.792,0:00:49.268 bir araştırma projesi başlattım. 0:00:49.292,0:00:51.417 Hedefim bu boşluğu doldurmaktı. 0:00:52.583,0:00:55.601 Çocuklarınızın fotoğraflarını[br]sosyal medyada paylaştığınız için 0:00:55.625,0:00:58.393 sizi kınamaya geldiğimi düşünebilirsiniz 0:00:58.417,0:01:00.559 fakat demek istediğim şey bu değil. 0:01:00.583,0:01:04.000 Sorun sosyal medya [br]ebeveynliğinden çok daha büyük. 0:01:04.792,0:01:08.893 Bu bireylerle değil sistemlerle ilgili. 0:01:08.917,0:01:11.208 Suçlu olan siz ve alışkanlıklarınız değil. 0:01:12.833,0:01:15.684 Tarihte ilk kez 0:01:15.708,0:01:18.268 çocukların bireysel [br]verilerini takip ediyoruz, 0:01:18.292,0:01:20.059 doğumlarından çok daha öncesinden -- 0:01:20.083,0:01:22.768 bazen gebeliğin başladığı andan itibaren 0:01:22.792,0:01:25.143 ve tüm hayatları boyunca. 0:01:25.167,0:01:28.268 Ebeveynler çocuk yapmaya karar verdiğinde 0:01:28.292,0:01:31.268 internetten "hamile kalma yöntemleri" arar 0:01:31.292,0:01:34.042 ya da ovülasyon takip[br]uygulamaları indirirler. 0:01:35.250,0:01:37.851 Hamile kaldıklarında 0:01:37.875,0:01:41.018 ultrason resimlerini[br]sosyal medyada paylaşır, 0:01:41.042,0:01:43.059 hamilelik uygulamaları indirir 0:01:43.083,0:01:46.809 ya da her türlü konuda[br]Dr. Google'a danışırlar. 0:01:46.833,0:01:48.351 Şunun gibi konular: 0:01:48.375,0:01:50.934 "Uçak yolculuğunda düşük riski" 0:01:50.958,0:01:53.726 ya da "erken hamilelik [br]döneminde mide krampları" 0:01:53.750,0:01:55.559 Biliyorum çünkü ben de yaşadım, 0:01:55.583,0:01:57.208 defalarca. 0:01:58.458,0:02:01.268 Sonrasında, bebek doğduğunda[br]farklı teknolojiler kullanarak 0:02:01.292,0:02:02.559 her uykuyu, her beslenmeyi 0:02:02.583,0:02:05.167 hayattaki her anı takip ederler. 0:02:06.083,0:02:07.559 Bu teknolojilerin tümü 0:02:07.583,0:02:13.606 bebeğin en mahrem [br]davranışlarını ve sağlık verilerini 0:02:13.606,0:02:15.722 başkalarıyla paylaşarak paraya dönüştürür. 0:02:16.583,0:02:18.726 Nasıl çalıştığını size anlatayım. 0:02:18.750,0:02:23.934 2019'dan bir British Medical Journal[br]araştırması gösteriyor ki 0:02:23.958,0:02:27.601 her 24 mobil sağlık uygulamasından 19'u 0:02:27.625,0:02:31.083 bilgilerinizi üçüncü [br]şahıslarla paylaşıyor. 0:02:32.083,0:02:37.917 Bu üçüncü şahıslar da bilgileri[br]216 başka kurumla paylaşıyor. 0:02:38.875,0:02:42.309 Bu 216 dördüncü şahıstan 0:02:42.333,0:02:45.476 sadece 3'ü sağlık sektöründe bulunuyor. 0:02:45.500,0:02:50.018 Bu verilere erişimi olan diğer şirketler 0:02:50.042,0:02:53.559 Google, Facebook, Oracle gibi[br]büyük teknoloji şirketleri, 0:02:53.583,0:02:56.184 dijital reklam şirketleri 0:02:56.208,0:03:00.333 ve aralarında bir tüketici kredisi [br]rapor ajansı da vardı. 0:03:01.125,0:03:02.559 Doğru anladınız. 0:03:02.583,0:03:07.708 Reklam ve kredi ajansları küçük bebeğiniz[br]hakkında verilere sahip olabilir. 0:03:09.125,0:03:11.893 Mobil uyulamalar, internet [br]aramaları ve sosyal medya 0:03:11.917,0:03:15.018 buzdağının sadece görünen kısmıdır. 0:03:15.042,0:03:17.573 Çocuklar günlük hayatlarında da 0:03:17.573,0:03:19.643 pek çok teknoloji[br]tarafından takip ediliyor. 0:03:19.667,0:03:23.809 Evlerindeki sanal asistan [br]ve ev teknolojilerinden takip ediliyorlar. 0:03:23.833,0:03:25.809 Okullarındaki eğitim platformları 0:03:25.833,0:03:28.018 ve eğitim teknolojilerinden[br]takip ediliyorlar. 0:03:28.042,0:03:29.643 Doktorlarının ofislerindeki 0:03:29.667,0:03:32.684 çevrimiçi kayıt ve portallardan[br]takip ediliyorlar. 0:03:32.708,0:03:35.059 İnternete bağlı oyuncaklarından, 0:03:35.083,0:03:36.393 çevrim içi oyunlardan 0:03:36.417,0:03:39.083 ve başka pek çok teknoloji [br]tarafından takip ediliyorlar. 0:03:40.250,0:03:41.893 Araştırmam sırasında 0:03:41.917,0:03:46.059 pek çok ebeveyn bana gelip[br]"Ee, yani?" diye sordu. 0:03:46.083,0:03:49.000 "Çocuğumun takip edilmesi[br]neden bu kadar önemli? 0:03:50.042,0:03:51.375 Sakladığımız bir şey yok." 0:03:52.958,0:03:54.458 Aslında önemli. 0:03:55.083,0:04:01.101 Çünkü günümüzde bireyler[br]sadece takip edilmiyor. 0:04:01.125,0:04:05.226 Ayrıca veri izlerine göre[br]profilleri çıkartılıyor. 0:04:05.250,0:04:09.059 Yapay zeka ve kestirimsel analizler 0:04:09.083,0:04:11.526 farklı kaynaklar üzerinden 0:04:11.526,0:04:14.601 bireyin hayatından maksimum [br]veriyi elde etmek için kullanılır: 0:04:14.625,0:04:19.143 Aile geçmişi, satın alma alışkanlıkları,[br]sosyal medya yorumları. 0:04:19.167,0:04:20.878 Bu veriler bir araya getirilip 0:04:20.878,0:04:23.792 birey hakkında veri güdümlü[br]kararlar vermek için kullanılır. 0:04:24.792,0:04:28.226 Bu teknolojiler her yerde kullanılıyor. 0:04:28.250,0:04:30.643 Bankalar kredilere karar vermek, 0:04:30.667,0:04:33.332 sigorta şirketleri oranlara karar vermek, 0:04:34.208,0:04:36.684 İşe alım uzmanları ve işverenler 0:04:36.708,0:04:39.625 bireyin işe uygun olup olmadığına[br]karar vermek için kullanır. 0:04:40.750,0:04:43.851 Polis ve mahkemeler ise 0:04:43.875,0:04:47.393 bireyin potansiyel bir suçlu[br]olup olmadığına 0:04:47.417,0:04:50.432 ya da tekrar suç işleyip işlemeyeceğini[br]saptamak için kullanır. 0:04:52.458,0:04:56.518 Verilerimizi satın alarak,[br]satarak ve işleyerek 0:04:56.542,0:05:00.184 bizim ve çocuklarımızın [br]profilini çıkaran yollar üzerinde 0:05:00.208,0:05:02.917 herhangi bir bilgimiz ve kontrolümüz yok. 0:05:03.625,0:05:07.667 Ama bu profiller haklarımızı [br]ciddi şekilde etkileyebilir. 0:05:08.917,0:05:11.125 Örnek vermek gerekirse, 0:05:13.792,0:05:15.981 2018 yılında ''New York Times'' 0:05:17.105,0:05:19.081 Amerika'da üniversite programı 0:05:19.325,0:05:23.554 veya burs arayan milyonlarca lise[br]öğrencisi tarafından tamamlanan 0:05:23.668,0:05:26.394 çevrim içi üniversite [br]planlama hizmetleri yoluyla 0:05:27.698,0:05:31.341 toplanan verilerin 0:05:31.375,0:05:34.417 eğitim veri aracılarına [br]satıldığı haberini yayınladı. 0:05:35.792,0:05:41.226 Fordham Üniversitesinde eğitim veri [br]aracıları üzerinde çalışan araştırmacılar 0:05:41.250,0:05:46.476 bu şirketlerin iki yaşından [br]itibaren çocukların profillerini 0:05:46.500,0:05:49.559 şu farklı kategorileri baz alarak [br]çıkardıkları bilgisine ulaştı: 0:05:49.583,0:05:53.768 Etnik köken, din, varlık, 0:05:53.792,0:05:55.851 sosyal uygunsuzluk 0:05:55.875,0:05:58.809 ve diğer birçok rastgele kategori. 0:05:58.833,0:06:03.851 Daha sonra çıkarılan bu profilleri, 0:06:03.875,0:06:06.684 çocuğun ismiyle birlikte [br]ev adresi ve iletişim detaylarını, 0:06:06.708,0:06:08.559 farklı firmalara satıyorlar 0:06:08.583,0:06:11.042 ki bunlara ticaret ve kariyer kurumları, 0:06:12.083,0:06:13.231 öğrenci kredisi 0:06:13.231,0:06:15.305 ve öğrenci kredi kartı[br]şirketleri de dahil. 0:06:16.542,0:06:17.893 Sınırları zorlarsak, 0:06:17.917,0:06:21.726 Fordham'daki araştırmacılar,[br]eğitim veri aracılarından 0:06:21.750,0:06:27.559 aile planlama hizmetleriyle ilgilenen 0:06:27.583,0:06:30.958 14 ile 15 yaşındaki kızların [br]listesini sunmalarını istedi. 0:06:32.208,0:06:34.684 Veri aracısı listeyi sunmayı kabul etti. 0:06:34.708,0:06:39.583 Yani bunun çocuklarımız için ne kadar[br]mahrem ve müdahaleci olduğunu siz düşünün. 0:06:40.833,0:06:44.809 Fakat eğitim veri aracıları[br]sadece bir örnek. 0:06:44.833,0:06:49.518 İşin aslı çocuklarımızın profillerinin[br]bizim denetleyemeyeceğimiz ölçüde 0:06:49.542,0:06:52.958 çıkarılıyor olması ki bu onların hayatını[br]önemli derecede etkileyebilir. 0:06:54.167,0:06:57.643 O yüzden kendimize şu soruyu sormalıyız: 0:06:57.667,0:07:02.351 Çocuklarımızın profilinin çıkarılmasında[br]bu teknolojilere güvenebilir miyiz? 0:07:02.375,0:07:03.625 Güvenebilir miyiz? 0:07:05.708,0:07:06.958 Benim cevabım hayır. 0:07:07.792,0:07:09.059 Bir antropolog olarak, 0:07:09.083,0:07:12.851 yapay zekanın ve kestirimsel analizlerin[br]felaketlerin gidişatını tahmin etmek 0:07:12.875,0:07:14.893 ve iklim değişikliği ile savaşmak için 0:07:14.917,0:07:16.750 harika olabileceğine inanıyorum. 0:07:18.000,0:07:19.943 Ama bu teknolojilerin, 0:07:19.967,0:07:22.261 insan profillerini [br]objektif olarak çıkardığına 0:07:22.261,0:07:25.569 ve bireylerin hayatlarıyla ilgili [br]veri güdümlü kararlar vermek için 0:07:25.569,0:07:28.476 onlara güvenebileceğimize[br]olan inancı terk etmemiz gerekiyor. 0:07:28.500,0:07:31.059 Çünkü insan profillerini çıkaramazlar. 0:07:31.083,0:07:34.434 Veri izleri bizim kim [br]olduğumuzun aynası değildir. 0:07:34.458,0:07:36.559 İnsanlar bir şey düşünür[br]ve tersini söyler, 0:07:36.583,0:07:39.018 bir yönde hisseder ve farklı hareket eder. 0:07:39.042,0:07:41.518 Algoritmik tahminler [br]veya dijital alışkanlıklarımız, 0:07:41.542,0:07:46.708 insan deneyiminin tahmin edilememezlik [br]ve karmaşıklığını açıklayamaz. 0:07:48.417,0:07:49.976 Üstüne üstlük 0:07:50.000,0:07:52.684 bu teknolojiler daima -- 0:07:52.708,0:07:53.976 daima -- 0:07:54.000,0:07:55.917 öyle ya da böyle, peşin hükümlüdür. 0:07:57.125,0:08:02.184 Gördüğünüz gibi, algoritmalar [br]tanım gereği spesifik bir sonuca 0:08:02.208,0:08:05.917 ulaşmak için tasarlanmış kurallar ve[br]adımlar bütünüdür. Tamam mı? 0:08:06.833,0:08:09.559 Ama bu kurallar ve adımlar [br]bütünü objektif olamaz, 0:08:09.583,0:08:11.726 çünkü insanlar tarafından[br]tasarlanmışlardır, 0:08:11.750,0:08:13.746 spesifik bir kültürel içeriği vardır 0:08:13.770,0:08:16.461 ve spesifik kültürel değerler[br]tarafından şekillendirilir. 0:08:16.667,0:08:18.393 Yani makineler öğrenirken, 0:08:18.417,0:08:20.667 peşin hükümlü algoritmalardan 0:08:21.625,0:08:24.833 ve sıklıkla da peşin hükümlü[br]veri tabanlarından öğrenirler. 0:08:25.833,0:08:29.559 Şimdi, algoritmik peşin hükmün[br]ilk örneklerini görüyoruz. 0:08:29.583,0:08:33.083 Bu örneklerden bazıları [br]açıkçası dehşet verici. 0:08:34.500,0:08:37.479 Bu sene, New York'taki Al Now Enstitüsü 0:08:37.479,0:08:41.060 kestirimsel güvenlik işlemleri için[br]kullanılan yapay zeka teknolojilerinin 0:08:41.060,0:08:44.230 "kirli" veriler üzerinde eğitildiğini 0:08:44.606,0:08:47.625 ortaya çıkaran bir rapor yayınladı. 0:08:48.333,0:08:51.226 Kirli veriler; ırksal peşin hükmün 0:08:51.250,0:08:55.434 ve şeffaf olmayan polis[br]uygulamalarının olduğu 0:08:55.458,0:08:57.858 tarihsel dönemler boyunca[br]toplanan veriler demek. 0:08:58.542,0:09:02.601 Çünkü bu teknolojiler[br]kirli veri ile eğitiliyor, 0:09:02.625,0:09:04.059 objektif değiller 0:09:04.083,0:09:08.601 ve bunun sonuçları sadece [br]polis peşin hükmünü 0:09:08.625,0:09:10.580 ve hatalarını arttırıp devam ettiriyor. 0:09:13.167,0:09:15.399 Bundan dolayı, bence 0:09:15.399,0:09:17.976 toplumumuzda temel bir [br]problem ile karşı karşıyayız. 0:09:18.000,0:09:23.072 İnsan profili çıkarmaya gelince[br]bu teknolojilere güvenmeye başlıyoruz. 0:09:23.750,0:09:26.268 Biliyoruz ki insan profili çıkarırken, 0:09:26.292,0:09:29.101 bu teknolojiler her zaman[br]peşin hükümlü olacaklar 0:09:29.125,0:09:31.851 ve asla gerçekten doğru olmayacaklar. 0:09:31.875,0:09:34.809 Bu yüzden asıl ihtiyacımız [br]olan siyasal bir çözüm. 0:09:34.833,0:09:40.292 Bize veri haklarımızın insan haklarımız[br]olduğunu tanıyan hükümetler lazım. 0:09:40.292,0:09:44.795 (Alkış) 0:09:47.833,0:09:51.917 Bu olana kadar, daha adil[br]bir gelecek umut edemeyiz. 0:09:52.750,0:09:55.476 Kızlarım her tür algoritmik [br]ayrımcılık ve yanlışa 0:09:55.500,0:09:59.226 maruz kalacağı için endişeleniyorum. 0:09:59.250,0:10:01.643 Ben ve kızlarım arasındaki[br]farkı görüyorsunuz: 0:10:01.775,0:10:04.653 Benim çocukluğumun halka açık kaydı yok. 0:10:04.997,0:10:07.649 Gençken yaptığım ve düşündüğüm[br]tüm o aptal şeylerin 0:10:08.293,0:10:11.223 bulunduğu bir veritabanı yok. 0:10:11.463,0:10:13.033 (Kahkaha) 0:10:13.712,0:10:16.508 Ama kızlarım için daha farklı olabilir. 0:10:17.110,0:10:20.059 Bugün onlardan toplanan veriler 0:10:20.243,0:10:23.581 gelecekte onları yargılamak[br]için kullanılabilir, 0:10:24.093,0:10:27.371 onları umut ve rüyalarından alıkoyabilir. 0:10:28.435,0:10:29.960 Bence zamanı geldi. 0:10:29.960,0:10:31.935 Artık hepimizin öne çıkma zamanı geldi. 0:10:31.935,0:10:33.605 Bireyler olarak, 0:10:33.982,0:10:35.609 organizasyon ve kurumlar olarak, 0:10:35.609,0:10:38.148 çok geç olmadan 0:10:38.158,0:10:40.105 beraber çalışmaya başlamamızın, 0:10:40.105,0:10:41.669 kendimiz ve çocuklarımız için 0:10:41.669,0:10:44.171 daha fazla veri adaleti [br]talep etmenin zamanı geldi. 0:10:44.171,0:10:45.489 Teşekkürler. 0:10:45.489,0:10:46.849 (Alkış)