WEBVTT 00:00:00.792 --> 00:00:03.059 Her gün, her hafta 00:00:03.083 --> 00:00:05.268 farklı şart ve koşulları kabul ediyoruz. 00:00:05.292 --> 00:00:06.768 Bunu yaparken de 00:00:06.792 --> 00:00:09.268 şirketlere hem bizim verilerimizle 00:00:09.292 --> 00:00:12.976 hem de çocuklarımızın verileriyle 00:00:13.000 --> 00:00:15.375 istediklerini yapma hakkını veriyoruz. 00:00:16.792 --> 00:00:19.768 Bu da bizi düşündürüyor: 00:00:19.792 --> 00:00:22.684 Çocuklarımızın verilerinin ne kadarını açık ediyoruz 00:00:22.708 --> 00:00:24.708 ve bunun sonuçları ne olabilir? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 Ben bir antropoloğum. 00:00:27.917 --> 00:00:30.518 Aynı zamanda iki küçük kız annesiyim. 00:00:30.542 --> 00:00:35.018 Bu soruyla ilgilenmeye 2015'te başladım. 00:00:35.042 --> 00:00:37.768 Çocuklarla ilgili çok fazla 00:00:37.792 --> 00:00:40.809 hatta inanılmaz sayıda veri izinin 00:00:40.833 --> 00:00:44.000 üretilip toplandığını fark ettiğimde. 00:00:44.792 --> 00:00:46.768 Çocuk Verisi Vatandaşı isminde 00:00:46.792 --> 00:00:49.268 bir araştırma projesi başlattım. 00:00:49.292 --> 00:00:51.417 Hedefim bu boşluğu doldurmaktı. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 Çocuklarınızın fotoğraflarını sosyal medyada paylaştığınız için 00:00:55.625 --> 00:00:58.393 sizi kınamaya geldiğimi düşünebilirsiniz 00:00:58.417 --> 00:01:00.559 fakat demek istediğim şey bu değil. 00:01:00.583 --> 00:01:04.000 Sorun sosyal medya ebeveynliğinden çok daha büyük. 00:01:04.792 --> 00:01:08.893 Bu bireylerle değil sistemlerle ilgili. 00:01:08.917 --> 00:01:11.208 Suçlu olan siz ve alışkanlıklarınız değil. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 Tarihte ilk kez 00:01:15.708 --> 00:01:18.268 çocukların bireysel verilerini takip ediyoruz, 00:01:18.292 --> 00:01:20.059 doğumlarından çok daha öncesinden -- 00:01:20.083 --> 00:01:22.768 bazen gebeliğin başladığı andan itibaren 00:01:22.792 --> 00:01:25.143 ve tüm hayatları boyunca. 00:01:25.167 --> 00:01:28.268 Ebeveynler çocuk yapmaya karar verdiğinde 00:01:28.292 --> 00:01:31.268 internetten "hamile kalma yöntemleri" arar 00:01:31.292 --> 00:01:34.042 ya da ovülasyon takip uygulamaları indirirler. 00:01:35.250 --> 00:01:37.851 Hamile kaldıklarında 00:01:37.875 --> 00:01:41.018 ultrason resimlerini sosyal medyada paylaşır, 00:01:41.042 --> 00:01:43.059 hamilelik uygulamaları indirir 00:01:43.083 --> 00:01:46.809 ya da her türlü konuda Dr. Google'a danışırlar. 00:01:46.833 --> 00:01:48.351 Şunun gibi konular: 00:01:48.375 --> 00:01:50.934 "Uçak yolculuğunda düşük riski" 00:01:50.958 --> 00:01:53.726 ya da "erken hamilelik döneminde mide krampları" 00:01:53.750 --> 00:01:55.559 Biliyorum çünkü ben de yaşadım, 00:01:55.583 --> 00:01:57.208 defalarca. 00:01:58.458 --> 00:02:01.268 Sonrasında, bebek doğduğunda farklı teknolojiler kullanarak 00:02:01.292 --> 00:02:02.559 her uykuyu, her beslenmeyi 00:02:02.583 --> 00:02:05.167 hayattaki her anı takip ederler. 00:02:06.083 --> 00:02:07.559 Bu teknolojilerin tümü 00:02:07.583 --> 00:02:13.606 bebeğin en mahrem davranışlarını ve sağlık verilerini 00:02:13.606 --> 00:02:15.722 başkalarıyla paylaşarak paraya dönüştürür. NOTE Paragraph 00:02:16.583 --> 00:02:18.726 Nasıl çalıştığını size anlatayım. 00:02:18.750 --> 00:02:23.934 2019'dan bir British Medical Journal araştırması gösteriyor ki 00:02:23.958 --> 00:02:27.601 her 24 mobil sağlık uygulamasından 19'u 00:02:27.625 --> 00:02:31.083 bilgilerinizi üçüncü şahıslarla paylaşıyor. 00:02:32.083 --> 00:02:37.917 Bu üçüncü şahıslar da bilgileri 216 başka kurumla paylaşıyor. 00:02:38.875 --> 00:02:42.309 Bu 216 dördüncü şahıstan 00:02:42.333 --> 00:02:45.476 sadece 3'ü sağlık sektöründe bulunuyor. 00:02:45.500 --> 00:02:50.018 Bu verilere erişimi olan diğer şirketler 00:02:50.042 --> 00:02:53.559 Google, Facebook, Oracle gibi büyük teknoloji şirketleri, 00:02:53.583 --> 00:02:56.184 dijital reklam şirketleri 00:02:56.208 --> 00:03:00.333 ve aralarında bir tüketici kredisi rapor ajansı da vardı. 00:03:01.125 --> 00:03:02.559 Doğru anladınız. 00:03:02.583 --> 00:03:07.708 Reklam ve kredi ajansları küçük bebeğiniz hakkında verilere sahip olabilir. 00:03:09.125 --> 00:03:11.893 Mobil uyulamalar, internet aramaları ve sosyal medya 00:03:11.917 --> 00:03:15.018 buzdağının sadece görünen kısmıdır. 00:03:15.042 --> 00:03:17.573 Çocuklar günlük hayatlarında da 00:03:17.573 --> 00:03:19.643 pek çok teknoloji tarafından takip ediliyor. 00:03:19.667 --> 00:03:23.809 Evlerindeki sanal asistan ve ev teknolojilerinden takip ediliyorlar. 00:03:23.833 --> 00:03:25.809 Okullarındaki eğitim platformları 00:03:25.833 --> 00:03:28.018 ve eğitim teknolojilerinden takip ediliyorlar. 00:03:28.042 --> 00:03:29.643 Doktorlarının ofislerindeki 00:03:29.667 --> 00:03:32.684 çevrimiçi kayıt ve portallardan takip ediliyorlar. 00:03:32.708 --> 00:03:35.059 İnternete bağlı oyuncaklarından, 00:03:35.083 --> 00:03:36.393 çevrim içi oyunlardan 00:03:36.417 --> 00:03:39.083 ve başka pek çok teknoloji tarafından takip ediliyorlar. NOTE Paragraph 00:03:40.250 --> 00:03:41.893 Araştırmam sırasında 00:03:41.917 --> 00:03:46.059 pek çok ebeveyn bana gelip "Ee, yani?" diye sordu. 00:03:46.083 --> 00:03:49.000 "Çocuğumun takip edilmesi neden bu kadar önemli? 00:03:50.042 --> 00:03:51.375 Sakladığımız bir şey yok." 00:03:52.958 --> 00:03:54.458 Aslında önemli. 00:03:55.083 --> 00:04:01.101 Çünkü günümüzde bireyler sadece takip edilmiyor. 00:04:01.125 --> 00:04:05.226 Ayrıca veri izlerine göre profilleri çıkartılıyor. 00:04:05.250 --> 00:04:09.059 Yapay zeka ve kestirimsel analizler 00:04:09.083 --> 00:04:11.526 farklı kaynaklar üzerinden 00:04:11.526 --> 00:04:14.601 bireyin hayatından maksimum veriyi elde etmek için kullanılır: 00:04:14.625 --> 00:04:19.143 Aile geçmişi, satın alma alışkanlıkları, sosyal medya yorumları. 00:04:19.167 --> 00:04:20.878 Bu veriler bir araya getirilip 00:04:20.878 --> 00:04:23.792 birey hakkında veri güdümlü kararlar vermek için kullanılır. 00:04:24.792 --> 00:04:28.226 Bu teknolojiler her yerde kullanılıyor. NOTE Paragraph 00:04:28.250 --> 00:04:30.643 Bankalar kredilere karar vermek, 00:04:30.667 --> 00:04:33.332 sigorta şirketleri oranlara karar vermek, 00:04:34.208 --> 00:04:36.684 İşe alım uzmanları ve işverenler 00:04:36.708 --> 00:04:39.625 bireyin işe uygun olup olmadığına karar vermek için kullanır. 00:04:40.750 --> 00:04:43.851 Polis ve mahkemeler ise 00:04:43.875 --> 00:04:47.393 bireyin potansiyel bir suçlu olup olmadığına 00:04:47.417 --> 00:04:50.432 ya da tekrar suç işleyip işlemeyeceğini saptamak için kullanır. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 Verilerimizi satın alarak, satarak ve işleyerek 00:04:56.542 --> 00:05:00.184 bizim ve çocuklarımızın profilini çıkaran yollar üzerinde 00:05:00.208 --> 00:05:02.917 herhangi bir bilgimiz ve kontrolümüz yok. 00:05:03.625 --> 00:05:07.667 Ama bu profiller haklarımızı ciddi şekilde etkileyebilir. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 Örnek vermek gerekirse, 00:05:13.792 --> 00:05:15.981 2018 yılında ''New York Times'' 00:05:17.105 --> 00:05:19.081 Amerika'da üniversite programı 00:05:19.325 --> 00:05:23.554 veya burs arayan milyonlarca lise öğrencisi tarafından tamamlanan 00:05:23.668 --> 00:05:26.394 çevrim içi üniversite planlama hizmetleri yoluyla 00:05:27.698 --> 00:05:31.341 toplanan verilerin 00:05:31.375 --> 00:05:34.417 eğitim veri aracılarına satıldığı haberini yayınladı. 00:05:35.792 --> 00:05:41.226 Fordham Üniversitesinde eğitim veri aracıları üzerinde çalışan araştırmacılar 00:05:41.250 --> 00:05:46.476 bu şirketlerin iki yaşından itibaren çocukların profillerini 00:05:46.500 --> 00:05:49.559 şu farklı kategorileri baz alarak çıkardıkları bilgisine ulaştı: 00:05:49.583 --> 00:05:53.768 Etnik köken, din, varlık, 00:05:53.792 --> 00:05:55.851 sosyal uygunsuzluk 00:05:55.875 --> 00:05:58.809 ve diğer birçok rastgele kategori. 00:05:58.833 --> 00:06:03.851 Daha sonra çıkarılan bu profilleri, 00:06:03.875 --> 00:06:06.684 çocuğun ismiyle birlikte ev adresi ve iletişim detaylarını, 00:06:06.708 --> 00:06:08.559 farklı firmalara satıyorlar 00:06:08.583 --> 00:06:11.042 ki bunlara ticaret ve kariyer kurumları, 00:06:12.083 --> 00:06:13.231 öğrenci kredisi 00:06:13.231 --> 00:06:15.305 ve öğrenci kredi kartı şirketleri de dahil. 00:06:16.542 --> 00:06:17.893 Sınırları zorlarsak, 00:06:17.917 --> 00:06:21.726 Fordham'daki araştırmacılar, eğitim veri aracılarından 00:06:21.750 --> 00:06:27.559 aile planlama hizmetleriyle ilgilenen 00:06:27.583 --> 00:06:30.958 14 ile 15 yaşındaki kızların listesini sunmalarını istedi. 00:06:32.208 --> 00:06:34.684 Veri aracısı listeyi sunmayı kabul etti. 00:06:34.708 --> 00:06:39.583 Yani bunun çocuklarımız için ne kadar mahrem ve müdahaleci olduğunu siz düşünün. 00:06:40.833 --> 00:06:44.809 Fakat eğitim veri aracıları sadece bir örnek. 00:06:44.833 --> 00:06:49.518 İşin aslı çocuklarımızın profillerinin bizim denetleyemeyeceğimiz ölçüde 00:06:49.542 --> 00:06:52.958 çıkarılıyor olması ki bu onların hayatını önemli derecede etkileyebilir. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 O yüzden kendimize şu soruyu sormalıyız: 00:06:57.667 --> 00:07:02.351 Çocuklarımızın profilinin çıkarılmasında bu teknolojilere güvenebilir miyiz? 00:07:02.375 --> 00:07:03.625 Güvenebilir miyiz? 00:07:05.708 --> 00:07:06.958 Benim cevabım hayır. 00:07:07.792 --> 00:07:09.059 Bir antropolog olarak, 00:07:09.083 --> 00:07:12.851 yapay zekanın ve kestirimsel analizlerin felaketlerin gidişatını tahmin etmek 00:07:12.875 --> 00:07:14.893 ve iklim değişikliği ile savaşmak için 00:07:14.917 --> 00:07:16.750 harika olabileceğine inanıyorum. 00:07:18.000 --> 00:07:19.943 Ama bu teknolojilerin, 00:07:19.967 --> 00:07:22.261 insan profillerini objektif olarak çıkardığına 00:07:22.261 --> 00:07:25.569 ve bireylerin hayatlarıyla ilgili veri güdümlü kararlar vermek için 00:07:25.569 --> 00:07:28.476 onlara güvenebileceğimize olan inancı terk etmemiz gerekiyor. 00:07:28.500 --> 00:07:31.059 Çünkü insan profillerini çıkaramazlar. 00:07:31.083 --> 00:07:34.434 Veri izleri bizim kim olduğumuzun aynası değildir. 00:07:34.458 --> 00:07:36.559 İnsanlar bir şey düşünür ve tersini söyler, 00:07:36.583 --> 00:07:39.018 bir yönde hisseder ve farklı hareket eder. 00:07:39.042 --> 00:07:41.518 Algoritmik tahminler veya dijital alışkanlıklarımız, 00:07:41.542 --> 00:07:46.708 insan deneyiminin tahmin edilememezlik ve karmaşıklığını açıklayamaz. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 Üstüne üstlük 00:07:50.000 --> 00:07:52.684 bu teknolojiler daima -- 00:07:52.708 --> 00:07:53.976 daima -- 00:07:54.000 --> 00:07:55.917 öyle ya da böyle, peşin hükümlüdür. 00:07:57.125 --> 00:08:02.184 Gördüğünüz gibi, algoritmalar tanım gereği spesifik bir sonuca 00:08:02.208 --> 00:08:05.917 ulaşmak için tasarlanmış kurallar ve adımlar bütünüdür. Tamam mı? 00:08:06.833 --> 00:08:09.559 Ama bu kurallar ve adımlar bütünü objektif olamaz, 00:08:09.583 --> 00:08:11.726 çünkü insanlar tarafından tasarlanmışlardır, 00:08:11.750 --> 00:08:13.746 spesifik bir kültürel içeriği vardır 00:08:13.770 --> 00:08:16.461 ve spesifik kültürel değerler tarafından şekillendirilir. 00:08:16.667 --> 00:08:18.393 Yani makineler öğrenirken, 00:08:18.417 --> 00:08:20.667 peşin hükümlü algoritmalardan 00:08:21.625 --> 00:08:24.833 ve sıklıkla da peşin hükümlü veri tabanlarından öğrenirler. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 Şimdi, algoritmik peşin hükmün ilk örneklerini görüyoruz. 00:08:29.583 --> 00:08:33.083 Bu örneklerden bazıları açıkçası dehşet verici. 00:08:34.500 --> 00:08:37.479 Bu sene, New York'taki Al Now Enstitüsü 00:08:37.479 --> 00:08:41.060 kestirimsel güvenlik işlemleri için kullanılan yapay zeka teknolojilerinin 00:08:41.060 --> 00:08:44.230 "kirli" veriler üzerinde eğitildiğini 00:08:44.606 --> 00:08:47.625 ortaya çıkaran bir rapor yayınladı. 00:08:48.333 --> 00:08:51.226 Kirli veriler; ırksal peşin hükmün 00:08:51.250 --> 00:08:55.434 ve şeffaf olmayan polis uygulamalarının olduğu 00:08:55.458 --> 00:08:57.858 tarihsel dönemler boyunca toplanan veriler demek. 00:08:58.542 --> 00:09:02.601 Çünkü bu teknolojiler kirli veri ile eğitiliyor, 00:09:02.625 --> 00:09:04.059 objektif değiller 00:09:04.083 --> 00:09:08.601 ve bunun sonuçları sadece polis peşin hükmünü 00:09:08.625 --> 00:09:10.580 ve hatalarını arttırıp devam ettiriyor. NOTE Paragraph 00:09:13.167 --> 00:09:15.399 Bundan dolayı, bence 00:09:15.399 --> 00:09:17.976 toplumumuzda temel bir problem ile karşı karşıyayız. 00:09:18.000 --> 00:09:23.072 İnsan profili çıkarmaya gelince bu teknolojilere güvenmeye başlıyoruz. 00:09:23.750 --> 00:09:26.268 Biliyoruz ki insan profili çıkarırken, 00:09:26.292 --> 00:09:29.101 bu teknolojiler her zaman peşin hükümlü olacaklar 00:09:29.125 --> 00:09:31.851 ve asla gerçekten doğru olmayacaklar. 00:09:31.875 --> 00:09:34.809 Bu yüzden asıl ihtiyacımız olan siyasal bir çözüm. 00:09:34.833 --> 00:09:40.292 Bize veri haklarımızın insan haklarımız olduğunu tanıyan hükümetler lazım. NOTE Paragraph 00:09:40.292 --> 00:09:44.795 (Alkış) NOTE Paragraph 00:09:47.833 --> 00:09:51.917 Bu olana kadar, daha adil bir gelecek umut edemeyiz. 00:09:52.750 --> 00:09:55.476 Kızlarım her tür algoritmik ayrımcılık ve yanlışa 00:09:55.500 --> 00:09:59.226 maruz kalacağı için endişeleniyorum. 00:09:59.250 --> 00:10:01.643 Ben ve kızlarım arasındaki farkı görüyorsunuz: 00:10:01.775 --> 00:10:04.653 Benim çocukluğumun halka açık kaydı yok. 00:10:04.997 --> 00:10:07.649 Gençken yaptığım ve düşündüğüm tüm o aptal şeylerin 00:10:08.293 --> 00:10:11.223 bulunduğu bir veritabanı yok. NOTE Paragraph 00:10:11.463 --> 00:10:13.033 (Kahkaha) NOTE Paragraph 00:10:13.712 --> 00:10:16.508 Ama kızlarım için daha farklı olabilir. 00:10:17.110 --> 00:10:20.059 Bugün onlardan toplanan veriler 00:10:20.243 --> 00:10:23.581 gelecekte onları yargılamak için kullanılabilir, 00:10:24.093 --> 00:10:27.371 onları umut ve rüyalarından alıkoyabilir. NOTE Paragraph 00:10:28.435 --> 00:10:29.960 Bence zamanı geldi. 00:10:29.960 --> 00:10:31.935 Artık hepimizin öne çıkma zamanı geldi. 00:10:31.935 --> 00:10:33.605 Bireyler olarak, 00:10:33.982 --> 00:10:35.609 organizasyon ve kurumlar olarak, 00:10:35.609 --> 00:10:38.148 çok geç olmadan 00:10:38.158 --> 00:10:40.105 beraber çalışmaya başlamamızın, 00:10:40.105 --> 00:10:41.669 kendimiz ve çocuklarımız için 00:10:41.669 --> 00:10:44.171 daha fazla veri adaleti talep etmenin zamanı geldi. NOTE Paragraph 00:10:44.171 --> 00:10:45.489 Teşekkürler. NOTE Paragraph 00:10:45.489 --> 00:10:46.849 (Alkış)