Turkish 字幕

← Teknoloji şirketlerinin çocuklarınız hakkında bildikleri

埋め込みコードを取得する
36言語

Showing Revision 8 created 08/02/2020 by Cihan Ekmekçi.

  1. Her gün, her hafta
  2. farklı şart ve koşulları kabul ediyoruz.
  3. Bunu yaparken de
  4. şirketlere hem bizim verilerimizle
  5. hem de çocuklarımızın verileriyle
  6. istediklerini yapma hakkını veriyoruz.
  7. Bu da bizi düşündürüyor:
  8. Çocuklarımızın verilerinin
    ne kadarını açık ediyoruz
  9. ve bunun sonuçları ne olabilir?
  10. Ben bir antropoloğum.

  11. Aynı zamanda iki küçük kız annesiyim.
  12. Bu soruyla ilgilenmeye 2015'te başladım.
  13. Çocuklarla ilgili çok fazla
  14. hatta inanılmaz sayıda veri izinin
  15. üretilip toplandığını fark ettiğimde.
  16. Çocuk Verisi Vatandaşı isminde
  17. bir araştırma projesi başlattım.
  18. Hedefim bu boşluğu doldurmaktı.
  19. Çocuklarınızın fotoğraflarını
    sosyal medyada paylaştığınız için

  20. sizi kınamaya geldiğimi düşünebilirsiniz
  21. fakat demek istediğim şey bu değil.
  22. Sorun sosyal medya
    ebeveynliğinden çok daha büyük.
  23. Bu bireylerle değil sistemlerle ilgili.
  24. Suçlu olan siz ve alışkanlıklarınız değil.
  25. Tarihte ilk kez

  26. çocukların bireysel
    verilerini takip ediyoruz,
  27. doğumlarından çok daha öncesinden --
  28. bazen gebeliğin başladığı andan itibaren
  29. ve tüm hayatları boyunca.
  30. Ebeveynler çocuk yapmaya karar verdiğinde
  31. internetten "hamile kalma yöntemleri" arar
  32. ya da ovülasyon takip
    uygulamaları indirirler.
  33. Hamile kaldıklarında
  34. ultrason resimlerini
    sosyal medyada paylaşır,
  35. hamilelik uygulamaları indirir
  36. ya da her türlü konuda
    Dr. Google'a danışırlar.
  37. Şunun gibi konular:
  38. "Uçak yolculuğunda düşük riski"
  39. ya da "erken hamilelik
    döneminde mide krampları"
  40. Biliyorum çünkü ben de yaşadım,
  41. defalarca.
  42. Sonrasında, bebek doğduğunda
    farklı teknolojiler kullanarak
  43. her uykuyu, her beslenmeyi
  44. hayattaki her anı takip ederler.
  45. Bu teknolojilerin tümü
  46. bebeğin en mahrem
    davranışlarını ve sağlık verilerini
  47. başkalarıyla paylaşarak paraya dönüştürür.
  48. Nasıl çalıştığını size anlatayım.

  49. 2019'dan bir British Medical Journal
    araştırması gösteriyor ki
  50. her 24 mobil sağlık uygulamasından 19'u
  51. bilgilerinizi üçüncü
    şahıslarla paylaşıyor.
  52. Bu üçüncü şahıslar da bilgileri
    216 başka kurumla paylaşıyor.
  53. Bu 216 dördüncü şahıstan
  54. sadece 3'ü sağlık sektöründe bulunuyor.
  55. Bu verilere erişimi olan diğer şirketler
  56. Google, Facebook, Oracle gibi
    büyük teknoloji şirketleri,
  57. dijital reklam şirketleri
  58. ve aralarında bir tüketici kredisi
    rapor ajansı da vardı.
  59. Doğru anladınız.
  60. Reklam ve kredi ajansları küçük bebeğiniz
    hakkında verilere sahip olabilir.
  61. Mobil uyulamalar, internet
    aramaları ve sosyal medya
  62. buzdağının sadece görünen kısmıdır.
  63. Çocuklar günlük hayatlarında da
  64. pek çok teknoloji
    tarafından takip ediliyor.
  65. Evlerindeki sanal asistan
    ve ev teknolojilerinden takip ediliyorlar.
  66. Okullarındaki eğitim platformları
  67. ve eğitim teknolojilerinden
    takip ediliyorlar.
  68. Doktorlarının ofislerindeki
  69. çevrimiçi kayıt ve portallardan
    takip ediliyorlar.
  70. İnternete bağlı oyuncaklarından,
  71. çevrim içi oyunlardan
  72. ve başka pek çok teknoloji
    tarafından takip ediliyorlar.
  73. Araştırmam sırasında

  74. pek çok ebeveyn bana gelip
    "Ee, yani?" diye sordu.
  75. "Çocuğumun takip edilmesi
    neden bu kadar önemli?
  76. Sakladığımız bir şey yok."
  77. Aslında önemli.
  78. Çünkü günümüzde bireyler
    sadece takip edilmiyor.
  79. Ayrıca veri izlerine göre
    profilleri çıkartılıyor.
  80. Yapay zeka ve kestirimsel analizler
  81. farklı kaynaklar üzerinden
  82. bireyin hayatından maksimum
    veriyi elde etmek için kullanılır:
  83. Aile geçmişi, satın alma alışkanlıkları,
    sosyal medya yorumları.
  84. Bu veriler bir araya getirilip
  85. birey hakkında veri güdümlü
    kararlar vermek için kullanılır.
  86. Bu teknolojiler her yerde kullanılıyor.
  87. Bankalar kredilere karar vermek,

  88. sigorta şirketleri oranlara karar vermek,
  89. İşe alım uzmanları ve işverenler
  90. bireyin işe uygun olup olmadığına
    karar vermek için kullanır.
  91. Polis ve mahkemeler ise
  92. bireyin potansiyel bir suçlu
    olup olmadığına
  93. ya da tekrar suç işleyip işlemeyeceğini
    saptamak için kullanır.
  94. Verilerimizi satın alarak,
    satarak ve işleyerek

  95. bizim ve çocuklarımızın
    profilini çıkaran yollar üzerinde
  96. herhangi bir bilgimiz ve kontrolümüz yok.
  97. Ama bu profiller haklarımızı
    ciddi şekilde etkileyebilir.
  98. Örnek vermek gerekirse,

  99. 2018 yılında ''New York Times''
  100. Amerika'da üniversite programı
  101. veya burs arayan milyonlarca lise
    öğrencisi tarafından tamamlanan
  102. çevrim içi üniversite
    planlama hizmetleri yoluyla
  103. toplanan verilerin
  104. eğitim veri aracılarına
    satıldığı haberini yayınladı.
  105. Fordham Üniversitesinde eğitim veri
    aracıları üzerinde çalışan araştırmacılar
  106. bu şirketlerin iki yaşından
    itibaren çocukların profillerini
  107. şu farklı kategorileri baz alarak
    çıkardıkları bilgisine ulaştı:
  108. Etnik köken, din, varlık,
  109. sosyal uygunsuzluk
  110. ve diğer birçok rastgele kategori.
  111. Daha sonra çıkarılan bu profilleri,
  112. çocuğun ismiyle birlikte
    ev adresi ve iletişim detaylarını,
  113. farklı firmalara satıyorlar
  114. ki bunlara ticaret ve kariyer kurumları,
  115. öğrenci kredisi
  116. ve öğrenci kredi kartı
    şirketleri de dahil.
  117. Sınırları zorlarsak,
  118. Fordham'daki araştırmacılar,
    eğitim veri aracılarından
  119. aile planlama hizmetleriyle ilgilenen
  120. 14 ile 15 yaşındaki kızların
    listesini sunmalarını istedi.
  121. Veri aracısı listeyi sunmayı kabul etti.
  122. Yani bunun çocuklarımız için ne kadar
    mahrem ve müdahaleci olduğunu siz düşünün.
  123. Fakat eğitim veri aracıları
    sadece bir örnek.
  124. İşin aslı çocuklarımızın profillerinin
    bizim denetleyemeyeceğimiz ölçüde
  125. çıkarılıyor olması ki bu onların hayatını
    önemli derecede etkileyebilir.
  126. O yüzden kendimize şu soruyu sormalıyız:

  127. Çocuklarımızın profilinin çıkarılmasında
    bu teknolojilere güvenebilir miyiz?
  128. Güvenebilir miyiz?
  129. Benim cevabım hayır.
  130. Bir antropolog olarak,
  131. yapay zekanın ve kestirimsel analizlerin
    felaketlerin gidişatını tahmin etmek
  132. ve iklim değişikliği ile savaşmak için
  133. harika olabileceğine inanıyorum.
  134. Ama bu teknolojilerin,
  135. insan profillerini
    objektif olarak çıkardığına
  136. ve bireylerin hayatlarıyla ilgili
    veri güdümlü kararlar vermek için
  137. onlara güvenebileceğimize
    olan inancı terk etmemiz gerekiyor.
  138. Çünkü insan profillerini çıkaramazlar.
  139. Veri izleri bizim kim
    olduğumuzun aynası değildir.
  140. İnsanlar bir şey düşünür
    ve tersini söyler,
  141. bir yönde hisseder ve farklı hareket eder.
  142. Algoritmik tahminler
    veya dijital alışkanlıklarımız,
  143. insan deneyiminin tahmin edilememezlik
    ve karmaşıklığını açıklayamaz.
  144. Üstüne üstlük

  145. bu teknolojiler daima --
  146. daima --
  147. öyle ya da böyle, peşin hükümlüdür.
  148. Gördüğünüz gibi, algoritmalar
    tanım gereği spesifik bir sonuca
  149. ulaşmak için tasarlanmış kurallar ve
    adımlar bütünüdür. Tamam mı?
  150. Ama bu kurallar ve adımlar
    bütünü objektif olamaz,
  151. çünkü insanlar tarafından
    tasarlanmışlardır,
  152. spesifik bir kültürel içeriği vardır
  153. ve spesifik kültürel değerler
    tarafından şekillendirilir.
  154. Yani makineler öğrenirken,
  155. peşin hükümlü algoritmalardan
  156. ve sıklıkla da peşin hükümlü
    veri tabanlarından öğrenirler.
  157. Şimdi, algoritmik peşin hükmün
    ilk örneklerini görüyoruz.

  158. Bu örneklerden bazıları
    açıkçası dehşet verici.
  159. Bu sene, New York'taki Al Now Enstitüsü
  160. kestirimsel güvenlik işlemleri için
    kullanılan yapay zeka teknolojilerinin
  161. "kirli" veriler üzerinde eğitildiğini
  162. ortaya çıkaran bir rapor yayınladı.
  163. Kirli veriler; ırksal peşin hükmün
  164. ve şeffaf olmayan polis
    uygulamalarının olduğu
  165. tarihsel dönemler boyunca
    toplanan veriler demek.
  166. Çünkü bu teknolojiler
    kirli veri ile eğitiliyor,
  167. objektif değiller
  168. ve bunun sonuçları sadece
    polis peşin hükmünü
  169. ve hatalarını arttırıp devam ettiriyor.
  170. Bundan dolayı, bence

  171. toplumumuzda temel bir
    problem ile karşı karşıyayız.
  172. İnsan profili çıkarmaya gelince
    bu teknolojilere güvenmeye başlıyoruz.
  173. Biliyoruz ki insan profili çıkarırken,
  174. bu teknolojiler her zaman
    peşin hükümlü olacaklar
  175. ve asla gerçekten doğru olmayacaklar.
  176. Bu yüzden asıl ihtiyacımız
    olan siyasal bir çözüm.
  177. Bize veri haklarımızın insan haklarımız
    olduğunu tanıyan hükümetler lazım.
  178. (Alkış)

  179. Bu olana kadar, daha adil
    bir gelecek umut edemeyiz.

  180. Kızlarım her tür algoritmik
    ayrımcılık ve yanlışa
  181. maruz kalacağı için endişeleniyorum.
  182. Ben ve kızlarım arasındaki
    farkı görüyorsunuz:
  183. Benim çocukluğumun halka açık kaydı yok.
  184. Gençken yaptığım ve düşündüğüm
    tüm o aptal şeylerin
  185. bulunduğu bir veritabanı yok.
  186. (Kahkaha)

  187. Ama kızlarım için daha farklı olabilir.

  188. Bugün onlardan toplanan veriler
  189. gelecekte onları yargılamak
    için kullanılabilir,
  190. onları umut ve rüyalarından alıkoyabilir.
  191. Bence zamanı geldi.

  192. Artık hepimizin öne çıkma zamanı geldi.
  193. Bireyler olarak,
  194. organizasyon ve kurumlar olarak,
  195. çok geç olmadan
  196. beraber çalışmaya başlamamızın,
  197. kendimiz ve çocuklarımız için
  198. daha fazla veri adaleti
    talep etmenin zamanı geldi.
  199. Teşekkürler.

  200. (Alkış)