Return to Video

Teknoloji şirketlerinin çocuklarınız hakkında bildikleri

  • 0:01 - 0:03
    Her gün, her hafta
  • 0:03 - 0:05
    farklı şart ve koşulları kabul ediyoruz.
  • 0:05 - 0:07
    Bunu yaparken de
  • 0:07 - 0:09
    şirketlere hem bizim verilerimizle
  • 0:09 - 0:13
    hem de çocuklarımızın verileriyle
  • 0:13 - 0:15
    istediklerini yapma hakkını veriyoruz.
  • 0:17 - 0:20
    Bu da bizi düşündürüyor:
  • 0:20 - 0:23
    Çocuklarımızın verilerinin
    ne kadarını açık ediyoruz
  • 0:23 - 0:25
    ve bunun sonuçları ne olabilir?
  • 0:26 - 0:28
    Ben bir antropoloğum.
  • 0:28 - 0:31
    Aynı zamanda iki küçük kız annesiyim.
  • 0:31 - 0:35
    Bu soruyla ilgilenmeye 2015'te başladım.
  • 0:35 - 0:38
    Çocuklarla ilgili çok fazla
  • 0:38 - 0:41
    hatta inanılmaz sayıda veri izinin
  • 0:41 - 0:44
    üretilip toplandığını fark ettiğimde.
  • 0:45 - 0:47
    Çocuk Verisi Vatandaşı isminde
  • 0:47 - 0:49
    bir araştırma projesi başlattım.
  • 0:49 - 0:51
    Hedefim bu boşluğu doldurmaktı.
  • 0:53 - 0:56
    Çocuklarınızın fotoğraflarını
    sosyal medyada paylaştığınız için
  • 0:56 - 0:58
    sizi kınamaya geldiğimi düşünebilirsiniz
  • 0:58 - 1:01
    fakat demek istediğim şey bu değil.
  • 1:01 - 1:04
    Sorun sosyal medya
    ebeveynliğinden çok daha büyük.
  • 1:05 - 1:09
    Bu bireylerle değil sistemlerle ilgili.
  • 1:09 - 1:11
    Suçlu olan siz ve alışkanlıklarınız değil.
  • 1:13 - 1:16
    Tarihte ilk kez
  • 1:16 - 1:18
    çocukların bireysel
    verilerini takip ediyoruz,
  • 1:18 - 1:20
    doğumlarından çok daha öncesinden --
  • 1:20 - 1:23
    bazen gebeliğin başladığı andan itibaren
  • 1:23 - 1:25
    ve tüm hayatları boyunca.
  • 1:25 - 1:28
    Ebeveynler çocuk yapmaya karar verdiğinde
  • 1:28 - 1:31
    internetten "hamile kalma yöntemleri" arar
  • 1:31 - 1:34
    ya da ovülasyon takip
    uygulamaları indirirler.
  • 1:35 - 1:38
    Hamile kaldıklarında
  • 1:38 - 1:41
    ultrason resimlerini
    sosyal medyada paylaşır,
  • 1:41 - 1:43
    hamilelik uygulamaları indirir
  • 1:43 - 1:47
    ya da her türlü konuda
    Dr. Google'a danışırlar.
  • 1:47 - 1:48
    Şunun gibi konular:
  • 1:48 - 1:51
    "Uçak yolculuğunda düşük riski"
  • 1:51 - 1:54
    ya da "erken hamilelik
    döneminde mide krampları"
  • 1:54 - 1:56
    Biliyorum çünkü ben de yaşadım,
  • 1:56 - 1:57
    defalarca.
  • 1:58 - 2:01
    Sonrasında, bebek doğduğunda
    farklı teknolojiler kullanarak
  • 2:01 - 2:03
    her uykuyu, her beslenmeyi
  • 2:03 - 2:05
    hayattaki her anı takip ederler.
  • 2:06 - 2:08
    Bu teknolojilerin tümü
  • 2:08 - 2:14
    bebeğin en mahrem
    davranışlarını ve sağlık verilerini
  • 2:14 - 2:16
    başkalarıyla paylaşarak paraya dönüştürür.
  • 2:17 - 2:19
    Nasıl çalıştığını size anlatayım.
  • 2:19 - 2:24
    2019'dan bir British Medical Journal
    araştırması gösteriyor ki
  • 2:24 - 2:28
    her 24 mobil sağlık uygulamasından 19'u
  • 2:28 - 2:31
    bilgilerinizi üçüncü
    şahıslarla paylaşıyor.
  • 2:32 - 2:38
    Bu üçüncü şahıslar da bilgileri
    216 başka kurumla paylaşıyor.
  • 2:39 - 2:42
    Bu 216 dördüncü şahıstan
  • 2:42 - 2:45
    sadece 3'ü sağlık sektöründe bulunuyor.
  • 2:46 - 2:50
    Bu verilere erişimi olan diğer şirketler
  • 2:50 - 2:54
    Google, Facebook, Oracle gibi
    büyük teknoloji şirketleri,
  • 2:54 - 2:56
    dijital reklam şirketleri
  • 2:56 - 3:00
    ve aralarında bir tüketici kredisi
    rapor ajansı da vardı.
  • 3:01 - 3:03
    Doğru anladınız.
  • 3:03 - 3:08
    Reklam ve kredi ajansları küçük bebeğiniz
    hakkında verilere sahip olabilir.
  • 3:09 - 3:12
    Mobil uyulamalar, internet
    aramaları ve sosyal medya
  • 3:12 - 3:15
    buzdağının sadece görünen kısmıdır.
  • 3:15 - 3:18
    Çocuklar günlük hayatlarında da
  • 3:18 - 3:20
    pek çok teknoloji
    tarafından takip ediliyor.
  • 3:20 - 3:24
    Evlerindeki sanal asistan
    ve ev teknolojilerinden takip ediliyorlar.
  • 3:24 - 3:26
    Okullarındaki eğitim platformları
  • 3:26 - 3:28
    ve eğitim teknolojilerinden
    takip ediliyorlar.
  • 3:28 - 3:30
    Doktorlarının ofislerindeki
  • 3:30 - 3:33
    çevrimiçi kayıt ve portallardan
    takip ediliyorlar.
  • 3:33 - 3:35
    İnternete bağlı oyuncaklarından,
  • 3:35 - 3:36
    çevrim içi oyunlardan
  • 3:36 - 3:39
    ve başka pek çok teknoloji
    tarafından takip ediliyorlar.
  • 3:40 - 3:42
    Araştırmam sırasında
  • 3:42 - 3:46
    pek çok ebeveyn bana gelip
    "Ee, yani?" diye sordu.
  • 3:46 - 3:49
    "Çocuğumun takip edilmesi
    neden bu kadar önemli?
  • 3:50 - 3:51
    Sakladığımız bir şey yok."
  • 3:53 - 3:54
    Aslında önemli.
  • 3:55 - 4:01
    Çünkü günümüzde bireyler
    sadece takip edilmiyor.
  • 4:01 - 4:05
    Ayrıca veri izlerine göre
    profilleri çıkartılıyor.
  • 4:05 - 4:09
    Yapay zeka ve kestirimsel analizler
  • 4:09 - 4:12
    farklı kaynaklar üzerinden
  • 4:12 - 4:15
    bireyin hayatından maksimum
    veriyi elde etmek için kullanılır:
  • 4:15 - 4:19
    Aile geçmişi, satın alma alışkanlıkları,
    sosyal medya yorumları.
  • 4:19 - 4:21
    Bu veriler bir araya getirilip
  • 4:21 - 4:24
    birey hakkında veri güdümlü
    kararlar vermek için kullanılır.
  • 4:25 - 4:28
    Bu teknolojiler her yerde kullanılıyor.
  • 4:28 - 4:31
    Bankalar kredilere karar vermek,
  • 4:31 - 4:33
    sigorta şirketleri oranlara karar vermek,
  • 4:34 - 4:37
    İşe alım uzmanları ve işverenler
  • 4:37 - 4:40
    bireyin işe uygun olup olmadığına
    karar vermek için kullanır.
  • 4:41 - 4:44
    Polis ve mahkemeler ise
  • 4:44 - 4:47
    bireyin potansiyel bir suçlu
    olup olmadığına
  • 4:47 - 4:50
    ya da tekrar suç işleyip işlemeyeceğini
    saptamak için kullanır.
  • 4:52 - 4:57
    Verilerimizi satın alarak,
    satarak ve işleyerek
  • 4:57 - 5:00
    bizim ve çocuklarımızın
    profilini çıkaran yollar üzerinde
  • 5:00 - 5:03
    herhangi bir bilgimiz ve kontrolümüz yok.
  • 5:04 - 5:08
    Ama bu profiller haklarımızı
    ciddi şekilde etkileyebilir.
  • 5:09 - 5:11
    Örnek vermek gerekirse,
  • 5:14 - 5:16
    2018 yılında ''New York Times''
  • 5:17 - 5:19
    Amerika'da üniversite programı
  • 5:19 - 5:24
    veya burs arayan milyonlarca lise
    öğrencisi tarafından tamamlanan
  • 5:24 - 5:26
    çevrim içi üniversite
    planlama hizmetleri yoluyla
  • 5:28 - 5:31
    toplanan verilerin
  • 5:31 - 5:34
    eğitim veri aracılarına
    satıldığı haberini yayınladı.
  • 5:36 - 5:41
    Fordham Üniversitesinde eğitim veri
    aracıları üzerinde çalışan araştırmacılar
  • 5:41 - 5:46
    bu şirketlerin iki yaşından
    itibaren çocukların profillerini
  • 5:46 - 5:50
    şu farklı kategorileri baz alarak
    çıkardıkları bilgisine ulaştı:
  • 5:50 - 5:54
    Etnik köken, din, varlık,
  • 5:54 - 5:56
    sosyal uygunsuzluk
  • 5:56 - 5:59
    ve diğer birçok rastgele kategori.
  • 5:59 - 6:04
    Daha sonra çıkarılan bu profilleri,
  • 6:04 - 6:07
    çocuğun ismiyle birlikte
    ev adresi ve iletişim detaylarını,
  • 6:07 - 6:09
    farklı firmalara satıyorlar
  • 6:09 - 6:11
    ki bunlara ticaret ve kariyer kurumları,
  • 6:12 - 6:13
    öğrenci kredisi
  • 6:13 - 6:15
    ve öğrenci kredi kartı
    şirketleri de dahil.
  • 6:17 - 6:18
    Sınırları zorlarsak,
  • 6:18 - 6:22
    Fordham'daki araştırmacılar,
    eğitim veri aracılarından
  • 6:22 - 6:28
    aile planlama hizmetleriyle ilgilenen
  • 6:28 - 6:31
    14 ile 15 yaşındaki kızların
    listesini sunmalarını istedi.
  • 6:32 - 6:35
    Veri aracısı listeyi sunmayı kabul etti.
  • 6:35 - 6:40
    Yani bunun çocuklarımız için ne kadar
    mahrem ve müdahaleci olduğunu siz düşünün.
  • 6:41 - 6:45
    Fakat eğitim veri aracıları
    sadece bir örnek.
  • 6:45 - 6:50
    İşin aslı çocuklarımızın profillerinin
    bizim denetleyemeyeceğimiz ölçüde
  • 6:50 - 6:53
    çıkarılıyor olması ki bu onların hayatını
    önemli derecede etkileyebilir.
  • 6:54 - 6:58
    O yüzden kendimize şu soruyu sormalıyız:
  • 6:58 - 7:02
    Çocuklarımızın profilinin çıkarılmasında
    bu teknolojilere güvenebilir miyiz?
  • 7:02 - 7:04
    Güvenebilir miyiz?
  • 7:06 - 7:07
    Benim cevabım hayır.
  • 7:08 - 7:09
    Bir antropolog olarak,
  • 7:09 - 7:13
    yapay zekanın ve kestirimsel analizlerin
    felaketlerin gidişatını tahmin etmek
  • 7:13 - 7:15
    ve iklim değişikliği ile savaşmak için
  • 7:15 - 7:17
    harika olabileceğine inanıyorum.
  • 7:18 - 7:20
    Ama bu teknolojilerin,
  • 7:20 - 7:22
    insan profillerini
    objektif olarak çıkardığına
  • 7:22 - 7:26
    ve bireylerin hayatlarıyla ilgili
    veri güdümlü kararlar vermek için
  • 7:26 - 7:28
    onlara güvenebileceğimize
    olan inancı terk etmemiz gerekiyor.
  • 7:28 - 7:31
    Çünkü insan profillerini çıkaramazlar.
  • 7:31 - 7:34
    Veri izleri bizim kim
    olduğumuzun aynası değildir.
  • 7:34 - 7:37
    İnsanlar bir şey düşünür
    ve tersini söyler,
  • 7:37 - 7:39
    bir yönde hisseder ve farklı hareket eder.
  • 7:39 - 7:42
    Algoritmik tahminler
    veya dijital alışkanlıklarımız,
  • 7:42 - 7:47
    insan deneyiminin tahmin edilememezlik
    ve karmaşıklığını açıklayamaz.
  • 7:48 - 7:50
    Üstüne üstlük
  • 7:50 - 7:53
    bu teknolojiler daima --
  • 7:53 - 7:54
    daima --
  • 7:54 - 7:56
    öyle ya da böyle, peşin hükümlüdür.
  • 7:57 - 8:02
    Gördüğünüz gibi, algoritmalar
    tanım gereği spesifik bir sonuca
  • 8:02 - 8:06
    ulaşmak için tasarlanmış kurallar ve
    adımlar bütünüdür. Tamam mı?
  • 8:07 - 8:10
    Ama bu kurallar ve adımlar
    bütünü objektif olamaz,
  • 8:10 - 8:12
    çünkü insanlar tarafından
    tasarlanmışlardır,
  • 8:12 - 8:14
    spesifik bir kültürel içeriği vardır
  • 8:14 - 8:16
    ve spesifik kültürel değerler
    tarafından şekillendirilir.
  • 8:17 - 8:18
    Yani makineler öğrenirken,
  • 8:18 - 8:21
    peşin hükümlü algoritmalardan
  • 8:22 - 8:25
    ve sıklıkla da peşin hükümlü
    veri tabanlarından öğrenirler.
  • 8:26 - 8:30
    Şimdi, algoritmik peşin hükmün
    ilk örneklerini görüyoruz.
  • 8:30 - 8:33
    Bu örneklerden bazıları
    açıkçası dehşet verici.
  • 8:34 - 8:37
    Bu sene, New York'taki Al Now Enstitüsü
  • 8:37 - 8:41
    kestirimsel güvenlik işlemleri için
    kullanılan yapay zeka teknolojilerinin
  • 8:41 - 8:44
    "kirli" veriler üzerinde eğitildiğini
  • 8:45 - 8:48
    ortaya çıkaran bir rapor yayınladı.
  • 8:48 - 8:51
    Kirli veriler; ırksal peşin hükmün
  • 8:51 - 8:55
    ve şeffaf olmayan polis
    uygulamalarının olduğu
  • 8:55 - 8:58
    tarihsel dönemler boyunca
    toplanan veriler demek.
  • 8:59 - 9:03
    Çünkü bu teknolojiler
    kirli veri ile eğitiliyor,
  • 9:03 - 9:04
    objektif değiller
  • 9:04 - 9:09
    ve bunun sonuçları sadece
    polis peşin hükmünü
  • 9:09 - 9:11
    ve hatalarını arttırıp devam ettiriyor.
  • 9:13 - 9:15
    Bundan dolayı, bence
  • 9:15 - 9:18
    toplumumuzda temel bir
    problem ile karşı karşıyayız.
  • 9:18 - 9:23
    İnsan profili çıkarmaya gelince
    bu teknolojilere güvenmeye başlıyoruz.
  • 9:24 - 9:26
    Biliyoruz ki insan profili çıkarırken,
  • 9:26 - 9:29
    bu teknolojiler her zaman
    peşin hükümlü olacaklar
  • 9:29 - 9:32
    ve asla gerçekten doğru olmayacaklar.
  • 9:32 - 9:35
    Bu yüzden asıl ihtiyacımız
    olan siyasal bir çözüm.
  • 9:35 - 9:40
    Bize veri haklarımızın insan haklarımız
    olduğunu tanıyan hükümetler lazım.
  • 9:40 - 9:45
    (Alkış)
  • 9:48 - 9:52
    Bu olana kadar, daha adil
    bir gelecek umut edemeyiz.
  • 9:53 - 9:55
    Kızlarım her tür algoritmik
    ayrımcılık ve yanlışa
  • 9:56 - 9:59
    maruz kalacağı için endişeleniyorum.
  • 9:59 - 10:02
    Ben ve kızlarım arasındaki
    farkı görüyorsunuz:
  • 10:02 - 10:05
    Benim çocukluğumun halka açık kaydı yok.
  • 10:05 - 10:08
    Gençken yaptığım ve düşündüğüm
    tüm o aptal şeylerin
  • 10:08 - 10:11
    bulunduğu bir veritabanı yok.
  • 10:11 - 10:13
    (Kahkaha)
  • 10:14 - 10:17
    Ama kızlarım için daha farklı olabilir.
  • 10:17 - 10:20
    Bugün onlardan toplanan veriler
  • 10:20 - 10:24
    gelecekte onları yargılamak
    için kullanılabilir,
  • 10:24 - 10:27
    onları umut ve rüyalarından alıkoyabilir.
  • 10:28 - 10:30
    Bence zamanı geldi.
  • 10:30 - 10:32
    Artık hepimizin öne çıkma zamanı geldi.
  • 10:32 - 10:34
    Bireyler olarak,
  • 10:34 - 10:36
    organizasyon ve kurumlar olarak,
  • 10:36 - 10:38
    çok geç olmadan
  • 10:38 - 10:40
    beraber çalışmaya başlamamızın,
  • 10:40 - 10:42
    kendimiz ve çocuklarımız için
  • 10:42 - 10:44
    daha fazla veri adaleti
    talep etmenin zamanı geldi.
  • 10:44 - 10:45
    Teşekkürler.
  • 10:45 - 10:47
    (Alkış)
タイトル:
Teknoloji şirketlerinin çocuklarınız hakkında bildikleri
話者:
Veronica Barassi
概説:

Antropolog Veronica Barassi diyor ki: "Sizin ve ailenizin her gün kullandığı dijital platformlar -- çevrimiçi oyunlardan eğitim uygulamalarına ve sağlık portallarına -- çocuğunuzun verilerini toplayıp satıyor olabilir." Aydınlatıcı araştırmasını paylaşırken, Barassi ebeveynleri dijital şartları ve koşulları körü körüne kabul etmek yerine iki kere düşünmeye ve çocuklarının gelecekte sorun yaşamaması için verilerinin korunmasını talep etmeye sevk ediyor.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Turkish subtitles

改訂