Teknoloji şirketlerinin çocuklarınız hakkında bildikleri
-
0:01 - 0:03Her gün, her hafta
-
0:03 - 0:05farklı şart ve koşulları kabul ediyoruz.
-
0:05 - 0:07Bunu yaparken de
-
0:07 - 0:09şirketlere hem bizim verilerimizle
-
0:09 - 0:13hem de çocuklarımızın verileriyle
-
0:13 - 0:15istediklerini yapma hakkını veriyoruz.
-
0:17 - 0:20Bu da bizi düşündürüyor:
-
0:20 - 0:23Çocuklarımızın verilerinin
ne kadarını açık ediyoruz -
0:23 - 0:25ve bunun sonuçları ne olabilir?
-
0:26 - 0:28Ben bir antropoloğum.
-
0:28 - 0:31Aynı zamanda iki küçük kız annesiyim.
-
0:31 - 0:35Bu soruyla ilgilenmeye 2015'te başladım.
-
0:35 - 0:38Çocuklarla ilgili çok fazla
-
0:38 - 0:41hatta inanılmaz sayıda veri izinin
-
0:41 - 0:44üretilip toplandığını fark ettiğimde.
-
0:45 - 0:47Çocuk Verisi Vatandaşı isminde
-
0:47 - 0:49bir araştırma projesi başlattım.
-
0:49 - 0:51Hedefim bu boşluğu doldurmaktı.
-
0:53 - 0:56Çocuklarınızın fotoğraflarını
sosyal medyada paylaştığınız için -
0:56 - 0:58sizi kınamaya geldiğimi düşünebilirsiniz
-
0:58 - 1:01fakat demek istediğim şey bu değil.
-
1:01 - 1:04Sorun sosyal medya
ebeveynliğinden çok daha büyük. -
1:05 - 1:09Bu bireylerle değil sistemlerle ilgili.
-
1:09 - 1:11Suçlu olan siz ve alışkanlıklarınız değil.
-
1:13 - 1:16Tarihte ilk kez
-
1:16 - 1:18çocukların bireysel
verilerini takip ediyoruz, -
1:18 - 1:20doğumlarından çok daha öncesinden --
-
1:20 - 1:23bazen gebeliğin başladığı andan itibaren
-
1:23 - 1:25ve tüm hayatları boyunca.
-
1:25 - 1:28Ebeveynler çocuk yapmaya karar verdiğinde
-
1:28 - 1:31internetten "hamile kalma yöntemleri" arar
-
1:31 - 1:34ya da ovülasyon takip
uygulamaları indirirler. -
1:35 - 1:38Hamile kaldıklarında
-
1:38 - 1:41ultrason resimlerini
sosyal medyada paylaşır, -
1:41 - 1:43hamilelik uygulamaları indirir
-
1:43 - 1:47ya da her türlü konuda
Dr. Google'a danışırlar. -
1:47 - 1:48Şunun gibi konular:
-
1:48 - 1:51"Uçak yolculuğunda düşük riski"
-
1:51 - 1:54ya da "erken hamilelik
döneminde mide krampları" -
1:54 - 1:56Biliyorum çünkü ben de yaşadım,
-
1:56 - 1:57defalarca.
-
1:58 - 2:01Sonrasında, bebek doğduğunda
farklı teknolojiler kullanarak -
2:01 - 2:03her uykuyu, her beslenmeyi
-
2:03 - 2:05hayattaki her anı takip ederler.
-
2:06 - 2:08Bu teknolojilerin tümü
-
2:08 - 2:14bebeğin en mahrem
davranışlarını ve sağlık verilerini -
2:14 - 2:16başkalarıyla paylaşarak paraya dönüştürür.
-
2:17 - 2:19Nasıl çalıştığını size anlatayım.
-
2:19 - 2:242019'dan bir British Medical Journal
araştırması gösteriyor ki -
2:24 - 2:28her 24 mobil sağlık uygulamasından 19'u
-
2:28 - 2:31bilgilerinizi üçüncü
şahıslarla paylaşıyor. -
2:32 - 2:38Bu üçüncü şahıslar da bilgileri
216 başka kurumla paylaşıyor. -
2:39 - 2:42Bu 216 dördüncü şahıstan
-
2:42 - 2:45sadece 3'ü sağlık sektöründe bulunuyor.
-
2:46 - 2:50Bu verilere erişimi olan diğer şirketler
-
2:50 - 2:54Google, Facebook, Oracle gibi
büyük teknoloji şirketleri, -
2:54 - 2:56dijital reklam şirketleri
-
2:56 - 3:00ve aralarında bir tüketici kredisi
rapor ajansı da vardı. -
3:01 - 3:03Doğru anladınız.
-
3:03 - 3:08Reklam ve kredi ajansları küçük bebeğiniz
hakkında verilere sahip olabilir. -
3:09 - 3:12Mobil uyulamalar, internet
aramaları ve sosyal medya -
3:12 - 3:15buzdağının sadece görünen kısmıdır.
-
3:15 - 3:18Çocuklar günlük hayatlarında da
-
3:18 - 3:20pek çok teknoloji
tarafından takip ediliyor. -
3:20 - 3:24Evlerindeki sanal asistan
ve ev teknolojilerinden takip ediliyorlar. -
3:24 - 3:26Okullarındaki eğitim platformları
-
3:26 - 3:28ve eğitim teknolojilerinden
takip ediliyorlar. -
3:28 - 3:30Doktorlarının ofislerindeki
-
3:30 - 3:33çevrimiçi kayıt ve portallardan
takip ediliyorlar. -
3:33 - 3:35İnternete bağlı oyuncaklarından,
-
3:35 - 3:36çevrim içi oyunlardan
-
3:36 - 3:39ve başka pek çok teknoloji
tarafından takip ediliyorlar. -
3:40 - 3:42Araştırmam sırasında
-
3:42 - 3:46pek çok ebeveyn bana gelip
"Ee, yani?" diye sordu. -
3:46 - 3:49"Çocuğumun takip edilmesi
neden bu kadar önemli? -
3:50 - 3:51Sakladığımız bir şey yok."
-
3:53 - 3:54Aslında önemli.
-
3:55 - 4:01Çünkü günümüzde bireyler
sadece takip edilmiyor. -
4:01 - 4:05Ayrıca veri izlerine göre
profilleri çıkartılıyor. -
4:05 - 4:09Yapay zeka ve kestirimsel analizler
-
4:09 - 4:12farklı kaynaklar üzerinden
-
4:12 - 4:15bireyin hayatından maksimum
veriyi elde etmek için kullanılır: -
4:15 - 4:19Aile geçmişi, satın alma alışkanlıkları,
sosyal medya yorumları. -
4:19 - 4:21Bu veriler bir araya getirilip
-
4:21 - 4:24birey hakkında veri güdümlü
kararlar vermek için kullanılır. -
4:25 - 4:28Bu teknolojiler her yerde kullanılıyor.
-
4:28 - 4:31Bankalar kredilere karar vermek,
-
4:31 - 4:33sigorta şirketleri oranlara karar vermek,
-
4:34 - 4:37İşe alım uzmanları ve işverenler
-
4:37 - 4:40bireyin işe uygun olup olmadığına
karar vermek için kullanır. -
4:41 - 4:44Polis ve mahkemeler ise
-
4:44 - 4:47bireyin potansiyel bir suçlu
olup olmadığına -
4:47 - 4:50ya da tekrar suç işleyip işlemeyeceğini
saptamak için kullanır. -
4:52 - 4:57Verilerimizi satın alarak,
satarak ve işleyerek -
4:57 - 5:00bizim ve çocuklarımızın
profilini çıkaran yollar üzerinde -
5:00 - 5:03herhangi bir bilgimiz ve kontrolümüz yok.
-
5:04 - 5:08Ama bu profiller haklarımızı
ciddi şekilde etkileyebilir. -
5:09 - 5:11Örnek vermek gerekirse,
-
5:14 - 5:162018 yılında ''New York Times''
-
5:17 - 5:19Amerika'da üniversite programı
-
5:19 - 5:24veya burs arayan milyonlarca lise
öğrencisi tarafından tamamlanan -
5:24 - 5:26çevrim içi üniversite
planlama hizmetleri yoluyla -
5:28 - 5:31toplanan verilerin
-
5:31 - 5:34eğitim veri aracılarına
satıldığı haberini yayınladı. -
5:36 - 5:41Fordham Üniversitesinde eğitim veri
aracıları üzerinde çalışan araştırmacılar -
5:41 - 5:46bu şirketlerin iki yaşından
itibaren çocukların profillerini -
5:46 - 5:50şu farklı kategorileri baz alarak
çıkardıkları bilgisine ulaştı: -
5:50 - 5:54Etnik köken, din, varlık,
-
5:54 - 5:56sosyal uygunsuzluk
-
5:56 - 5:59ve diğer birçok rastgele kategori.
-
5:59 - 6:04Daha sonra çıkarılan bu profilleri,
-
6:04 - 6:07çocuğun ismiyle birlikte
ev adresi ve iletişim detaylarını, -
6:07 - 6:09farklı firmalara satıyorlar
-
6:09 - 6:11ki bunlara ticaret ve kariyer kurumları,
-
6:12 - 6:13öğrenci kredisi
-
6:13 - 6:15ve öğrenci kredi kartı
şirketleri de dahil. -
6:17 - 6:18Sınırları zorlarsak,
-
6:18 - 6:22Fordham'daki araştırmacılar,
eğitim veri aracılarından -
6:22 - 6:28aile planlama hizmetleriyle ilgilenen
-
6:28 - 6:3114 ile 15 yaşındaki kızların
listesini sunmalarını istedi. -
6:32 - 6:35Veri aracısı listeyi sunmayı kabul etti.
-
6:35 - 6:40Yani bunun çocuklarımız için ne kadar
mahrem ve müdahaleci olduğunu siz düşünün. -
6:41 - 6:45Fakat eğitim veri aracıları
sadece bir örnek. -
6:45 - 6:50İşin aslı çocuklarımızın profillerinin
bizim denetleyemeyeceğimiz ölçüde -
6:50 - 6:53çıkarılıyor olması ki bu onların hayatını
önemli derecede etkileyebilir. -
6:54 - 6:58O yüzden kendimize şu soruyu sormalıyız:
-
6:58 - 7:02Çocuklarımızın profilinin çıkarılmasında
bu teknolojilere güvenebilir miyiz? -
7:02 - 7:04Güvenebilir miyiz?
-
7:06 - 7:07Benim cevabım hayır.
-
7:08 - 7:09Bir antropolog olarak,
-
7:09 - 7:13yapay zekanın ve kestirimsel analizlerin
felaketlerin gidişatını tahmin etmek -
7:13 - 7:15ve iklim değişikliği ile savaşmak için
-
7:15 - 7:17harika olabileceğine inanıyorum.
-
7:18 - 7:20Ama bu teknolojilerin,
-
7:20 - 7:22insan profillerini
objektif olarak çıkardığına -
7:22 - 7:26ve bireylerin hayatlarıyla ilgili
veri güdümlü kararlar vermek için -
7:26 - 7:28onlara güvenebileceğimize
olan inancı terk etmemiz gerekiyor. -
7:28 - 7:31Çünkü insan profillerini çıkaramazlar.
-
7:31 - 7:34Veri izleri bizim kim
olduğumuzun aynası değildir. -
7:34 - 7:37İnsanlar bir şey düşünür
ve tersini söyler, -
7:37 - 7:39bir yönde hisseder ve farklı hareket eder.
-
7:39 - 7:42Algoritmik tahminler
veya dijital alışkanlıklarımız, -
7:42 - 7:47insan deneyiminin tahmin edilememezlik
ve karmaşıklığını açıklayamaz. -
7:48 - 7:50Üstüne üstlük
-
7:50 - 7:53bu teknolojiler daima --
-
7:53 - 7:54daima --
-
7:54 - 7:56öyle ya da böyle, peşin hükümlüdür.
-
7:57 - 8:02Gördüğünüz gibi, algoritmalar
tanım gereği spesifik bir sonuca -
8:02 - 8:06ulaşmak için tasarlanmış kurallar ve
adımlar bütünüdür. Tamam mı? -
8:07 - 8:10Ama bu kurallar ve adımlar
bütünü objektif olamaz, -
8:10 - 8:12çünkü insanlar tarafından
tasarlanmışlardır, -
8:12 - 8:14spesifik bir kültürel içeriği vardır
-
8:14 - 8:16ve spesifik kültürel değerler
tarafından şekillendirilir. -
8:17 - 8:18Yani makineler öğrenirken,
-
8:18 - 8:21peşin hükümlü algoritmalardan
-
8:22 - 8:25ve sıklıkla da peşin hükümlü
veri tabanlarından öğrenirler. -
8:26 - 8:30Şimdi, algoritmik peşin hükmün
ilk örneklerini görüyoruz. -
8:30 - 8:33Bu örneklerden bazıları
açıkçası dehşet verici. -
8:34 - 8:37Bu sene, New York'taki Al Now Enstitüsü
-
8:37 - 8:41kestirimsel güvenlik işlemleri için
kullanılan yapay zeka teknolojilerinin -
8:41 - 8:44"kirli" veriler üzerinde eğitildiğini
-
8:45 - 8:48ortaya çıkaran bir rapor yayınladı.
-
8:48 - 8:51Kirli veriler; ırksal peşin hükmün
-
8:51 - 8:55ve şeffaf olmayan polis
uygulamalarının olduğu -
8:55 - 8:58tarihsel dönemler boyunca
toplanan veriler demek. -
8:59 - 9:03Çünkü bu teknolojiler
kirli veri ile eğitiliyor, -
9:03 - 9:04objektif değiller
-
9:04 - 9:09ve bunun sonuçları sadece
polis peşin hükmünü -
9:09 - 9:11ve hatalarını arttırıp devam ettiriyor.
-
9:13 - 9:15Bundan dolayı, bence
-
9:15 - 9:18toplumumuzda temel bir
problem ile karşı karşıyayız. -
9:18 - 9:23İnsan profili çıkarmaya gelince
bu teknolojilere güvenmeye başlıyoruz. -
9:24 - 9:26Biliyoruz ki insan profili çıkarırken,
-
9:26 - 9:29bu teknolojiler her zaman
peşin hükümlü olacaklar -
9:29 - 9:32ve asla gerçekten doğru olmayacaklar.
-
9:32 - 9:35Bu yüzden asıl ihtiyacımız
olan siyasal bir çözüm. -
9:35 - 9:40Bize veri haklarımızın insan haklarımız
olduğunu tanıyan hükümetler lazım. -
9:40 - 9:45(Alkış)
-
9:48 - 9:52Bu olana kadar, daha adil
bir gelecek umut edemeyiz. -
9:53 - 9:55Kızlarım her tür algoritmik
ayrımcılık ve yanlışa -
9:56 - 9:59maruz kalacağı için endişeleniyorum.
-
9:59 - 10:02Ben ve kızlarım arasındaki
farkı görüyorsunuz: -
10:02 - 10:05Benim çocukluğumun halka açık kaydı yok.
-
10:05 - 10:08Gençken yaptığım ve düşündüğüm
tüm o aptal şeylerin -
10:08 - 10:11bulunduğu bir veritabanı yok.
-
10:11 - 10:13(Kahkaha)
-
10:14 - 10:17Ama kızlarım için daha farklı olabilir.
-
10:17 - 10:20Bugün onlardan toplanan veriler
-
10:20 - 10:24gelecekte onları yargılamak
için kullanılabilir, -
10:24 - 10:27onları umut ve rüyalarından alıkoyabilir.
-
10:28 - 10:30Bence zamanı geldi.
-
10:30 - 10:32Artık hepimizin öne çıkma zamanı geldi.
-
10:32 - 10:34Bireyler olarak,
-
10:34 - 10:36organizasyon ve kurumlar olarak,
-
10:36 - 10:38çok geç olmadan
-
10:38 - 10:40beraber çalışmaya başlamamızın,
-
10:40 - 10:42kendimiz ve çocuklarımız için
-
10:42 - 10:44daha fazla veri adaleti
talep etmenin zamanı geldi. -
10:44 - 10:45Teşekkürler.
-
10:45 - 10:47(Alkış)
- Title:
- Teknoloji şirketlerinin çocuklarınız hakkında bildikleri
- Speaker:
- Veronica Barassi
- Description:
-
Antropolog Veronica Barassi diyor ki: "Sizin ve ailenizin her gün kullandığı dijital platformlar -- çevrimiçi oyunlardan eğitim uygulamalarına ve sağlık portallarına -- çocuğunuzun verilerini toplayıp satıyor olabilir." Aydınlatıcı araştırmasını paylaşırken, Barassi ebeveynleri dijital şartları ve koşulları körü körüne kabul etmek yerine iki kere düşünmeye ve çocuklarının gelecekte sorun yaşamaması için verilerinin korunmasını talep etmeye sevk ediyor.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Cihan Ekmekçi approved Turkish subtitles for What tech companies know about your kids | ||
Cihan Ekmekçi edited Turkish subtitles for What tech companies know about your kids | ||
Ezgisu Karakaya accepted Turkish subtitles for What tech companies know about your kids | ||
Ezgisu Karakaya edited Turkish subtitles for What tech companies know about your kids | ||
bulent yavuz edited Turkish subtitles for What tech companies know about your kids | ||
bulent yavuz edited Turkish subtitles for What tech companies know about your kids | ||
bulent yavuz edited Turkish subtitles for What tech companies know about your kids | ||
bulent yavuz edited Turkish subtitles for What tech companies know about your kids |