Texnologiya kompaniyalari farzandlaringiz haqida nima bilishadi
-
0:01 - 0:03Har kuni, har hafta
-
0:03 - 0:05biz foydalanish shartlariga rozi bo'lamiz.
-
0:05 - 0:07Va biz rozi bo'lganimzida
-
0:07 - 0:09biz kompaniyalarga
qonuniy huquq taqdim etamiz -
0:09 - 0:13ma'lumotlarimiz bilan
istalgan ish qilishiga -
0:13 - 0:15va farzandlarimizning
ma'lumotlari bilan ham. -
0:17 - 0:20Hayron qolarlisi,
-
0:20 - 0:23biz bolalarning ancha ma'lumotlarini
berib yuboryapmiz. -
0:23 - 0:25Bularning oqibati qanday bo'ladi?
-
0:26 - 0:28Men antropologman,
-
0:28 - 0:31shuningdek, ikki qizchaning onasiman.
-
0:31 - 0:35Men bu savolga
2015-yilda qiziqishni boshlagandim. -
0:35 - 0:38O'shanda kutilmaganda shuni angladim,
-
0:38 - 0:41ulkan va aql bovar qilmas
hajmdagi bolalar haqidagi ma'lumotlar -
0:41 - 0:44ishlab chiqarilishi va to'planishini.
-
0:45 - 0:47Shu tarzda ilmiy loyihamni boshladim.
-
0:47 - 0:49Uni Bola Ma'lumot Fuqaro deb nomladim
-
0:49 - 0:51va bo'shliqni to'ldirishni maqsad qildim.
-
0:53 - 0:56Endi o'ylashingiz mumkin
meni hozir sizni aybdor qiladi deb -
0:56 - 0:58ijtimoiy tarmoqga farzandingiz
rasmini joylaganingiz uchun -
0:58 - 1:01ammo gap bunda emas,
-
1:01 - 1:04Muammo bundan ko'ra ancha yirikroqdir.
-
1:05 - 1:09Hammasi tizimga bog'liq,
odamlarga emas. -
1:09 - 1:11SIz va sizning odatlaringiz aybdor emas.
-
1:13 - 1:16Tarixda birinchi bor,
-
1:16 - 1:18biz bolalarning
ma'lumotlarini kuzatmoqdamiz -
1:18 - 1:20ularning tug'ilishidan ancha oldin
-
1:20 - 1:23urug'lanish paytidan boshlab,
-
1:23 - 1:25va butun hayoti davomida.
-
1:25 - 1:28Bilamizki, ota-onalar farzand
ko'rishmoqchi bo'lsihganida, -
1:28 - 1:31ular "homilador bo'lish yo'llari"ni
onlayn qidirishadi, -
1:31 - 1:34yoki ovulyatsiyani kuzatadgan
ilovalarni yuklab olishadi. -
1:35 - 1:38Ular homilador bo'lishganida esa,
-
1:38 - 1:41ular chaqalog'ining ultratovushini
ijtimoiy tarmoqqa yuklaydi, -
1:41 - 1:43homiladorlik ilovalarini yuklab olishadi
-
1:43 - 1:47yoki Doktor Google bilan
hamma narsa haqida maslahatlashishadi, -
1:47 - 1:48o'zingiz bilasiz --
-
1:48 - 1:51"parvoz davomida
bolaning tushib qolish xavfi" -
1:51 - 1:54yoki "erta homiladorlikdagi
qorindagi spazmlar" haqida. -
1:54 - 1:56Men bilaman, chunki
shunday qilganman -
1:56 - 1:57va ko'p marta.
-
1:58 - 2:01Bola tug'ilganida esa,
ular kuzatishadi: uning har uyqusini, -
2:01 - 2:03ovqatlanishini,
-
2:03 - 2:05hayotining har bir harakatini,
turli texnologiyalarda. -
2:06 - 2:08Va bu texnologiyalar
-
2:08 - 2:14chaqaloqning shaxsiy ma'lumotlarini
foydaga aylantirishadi, ularni -
2:14 - 2:16boshqalar bilan
ulashgan holda. -
2:17 - 2:19Mana bu qanday ishlaydi,
-
2:19 - 2:242019-yilda Britaniya Tibbiyot Jurnali
bir tadqiqotni nashr qildi. -
2:24 - 2:28Unda aytilishicha 24 mobil
sog'liq ilovasidan -
2:28 - 2:3119 tasi ma'lumotlarni
uchinchi tomon bilan bo'lishishgan. -
2:32 - 2:38Va bu uchinchi tomonlar ma'lumotni
216 tashkilot bilan bo'lishishgan. -
2:39 - 2:42Bu 216 tashkilotdan
-
2:42 - 2:45bor-yo'g'i uchtasi sog'liqni saqlash
tizimiga oid. -
2:46 - 2:50Ma'lumotga kirish huquqi bor kompaniyalar
orasida katta texnologiya kompaniyalari -
2:50 - 2:54Google, Facebook va Oracle
kabilar bor. -
2:54 - 2:56Ular raqamli reklama kompaniyalaridir,
-
2:56 - 3:00shuningdek iste'mol kreditlari bo'yicha
agentlik ham bor. -
3:01 - 3:03Siz to'g'ri topdingiz:
-
3:03 - 3:08Ularda allaqachon chaqaloqlar haqida
ma'lumotlar bor. -
3:09 - 3:12Ammo mobil ilovalar, veb qidiruvlar
va ijtimoiy tarmoqlar -
3:12 - 3:15shunchaki aysbergning bir uchidir.
-
3:15 - 3:18Chunki turli texnologiyalar
bolalarni kuzatib borishadi -
3:18 - 3:20Ularning kundalik hayoti davomida.
-
3:20 - 3:24Ular uy texnologiyalari va uydagi
virtual yordamchilar tomonidan kuzatiladi. -
3:24 - 3:26Ta'lim platformasi ham
ularni kuzatishadi -
3:26 - 3:28va maktabdagi ta'lim
texnologiyalari ham. -
3:28 - 3:30Onlayn yozuvlari ham kuzatiladi
-
3:30 - 3:33va shifoxonalaridagi
onlayn portallari ham. -
3:33 - 3:35Ularni internetli o'yinchoqlar,
ularning onlayn -
3:35 - 3:36o'yinlari orqali
kuzatishadi -
3:36 - 3:39va boshqa judayam ko'plab
texnologiyalar orqali. -
3:40 - 3:42Tadqiqotim davomida
-
3:42 - 3:46ko'plab ota-onalar oldimga kelishardi
va "Ho'sh nima bo'libdi?" deyishardi. -
3:46 - 3:49"Nima farqi bor bolalarim kuzatilishini?
-
3:50 - 3:51Yashiradigan narsamiz yo'q."
-
3:53 - 3:54Lekin, farqi bor.
-
3:55 - 4:01Farqi bor, chunki hozirda odamlarni
nafaqat kuzatishadi, -
4:01 - 4:05balki, ularning ma'lumoti alohida
yig'iladi qidiruv tarixiga asoslanib, -
4:05 - 4:09sun'iy ong va
bashorat tahlillari uchun ishlatiladi. -
4:09 - 4:13Inson hayoti bo'yicha iloji boricha
ko'p ma'lumot yig'ish uchun -
4:13 - 4:15turli manbalardan:
-
4:15 - 4:19oila tarixi, xarid qilish odatlari
va ijtimoiy tarmoq izohlaridan. -
4:19 - 4:21Keyin ular bu ma'lumotlarni
jamlashadi. -
4:21 - 4:24Ma'lumotga asoslangan qaror
chiqarish uchun -
4:25 - 4:28bunday texnologiyalar
hamma yerda ishlatiladi. -
4:28 - 4:31Banklar bularni
kredit, qarz berishda ishlatishadi, -
4:31 - 4:33sug'urta kompaniayalari esa
premiyani aniqlashda. -
4:34 - 4:37Ish beruvchilar ham ulardan
foydalanishadi. -
4:37 - 4:40Nomzod ishga to'gri kelishi
yoki kelmasligini aniqlashda. -
4:41 - 4:44Shuningdek, politsiya va
sud ham jinoyatchini aniqlashda -
4:44 - 4:47ulardan foydalanishadi,
-
4:47 - 4:50yoki qayta jinoyatga moyilligini
aniqlaganda. -
4:52 - 4:57Bizda ma'lumotlarni sotadigan,
sotib oladigan va tahlil qiladiganlar -
4:57 - 5:00ustidan hech qanday ko'nikma
yoki nazorat yo'q. -
5:00 - 5:03Ular bizni va bolalarimizning
ma'lumotlarini yig'ishadi. -
5:04 - 5:08Lekin bu yig'ilgan ma'lumotlar
huquqlarimizni yetarlicha buzishadi. -
5:09 - 5:11Misol uchun,
-
5:14 - 5:182018-yil New York Times yangiligida
aytilishicha -
5:18 - 5:20onlayn kollejni reja qilish
tizimi orqali -
5:20 - 5:23yig'ilgan ma'lumotlarda
-
5:23 - 5:28AQSH bo'ylab millionlab
maktab o'quvchilari ma'lumoti yig'ilgan -
5:28 - 5:31kollej programmasi yoki
grant qidirib yurgan o'quvchilar orasidan -
5:31 - 5:34va bu ma'lumotlar
o'quv brokerlariga sotilgan. -
5:36 - 5:41Hozirda, Fordhamda o'quv brokerlarini
o'rgangan tadqiqotchilar -
5:41 - 5:46bolalarning ikki yoshligidan
ma'lumoti to'planishini oshkor qilishdi. -
5:46 - 5:50Turli yo'nalishlar bo'yicha:
-
5:50 - 5:54millati, dini, boyligi,
-
5:54 - 5:56ijtimoiy ahvoli
-
5:56 - 5:59va ko'plab boshqa turli
yo'nalishlar bo'yicha. -
5:59 - 6:04Keyin ular bu yig'ilgan profillarni
bolalarning ismi, -
6:04 - 6:07uy manzili va kontaktlari bilan birga
-
6:07 - 6:09turli kompaniyalarga sotishadi,
-
6:09 - 6:11savdo va ta'lim dargohlaridan tortib,
-
6:12 - 6:13talaba qarzlari,
-
6:13 - 6:15talaba kredit karta
kompaniyasigacha. -
6:17 - 6:18Aniqlashtirish uchun,
-
6:18 - 6:22Fordhamdagi tadqiqotchilar
o'quv brokeridan -
6:22 - 6:2814-15 yoshli qizlar ro'yxati bilan
ta'minlashni so'rashdi. -
6:28 - 6:31Masalan, oilaviy reja
qilishga qiziqadiganlarini. -
6:32 - 6:35Broker ro'yxatni berishga rozi bo'ldi.
-
6:35 - 6:40Tasavvur qiling, bu qanchalik
bolalarimiz uchun havfli bo'lishi mumkin. -
6:41 - 6:45Lekin o'quv brokerlari shunchaki
bir misol. -
6:45 - 6:50Haqiqat shuki, bolalarimizning ma'lumoti
yig'ilishini biz nazorat qilolmaymiz, -
6:50 - 6:53ammo bu narsa ularning hayotiga
yetarlicha ta'sir qiladi. -
6:54 - 6:58Biz o'zimizdan so'rashimiz kerak:
-
6:58 - 7:02bolalarimizning ma'lumoti yig'ilganda
biz bu texnologiyalarga ishona olamizmi? -
7:02 - 7:04Aniq ishona olamizmi?
-
7:06 - 7:07Mening javobim "yo'q."
-
7:08 - 7:09Antropolog sifatida,
-
7:09 - 7:13Sun'iy ong va bashorat tahlillari
ajoyibdir. -
7:13 - 7:15Kasallik izini topishda
-
7:15 - 7:17yoki iqlim o'zgarishga
qarshi kurashda. -
7:18 - 7:20Bu qarashdan
voz kechishimiz kerak: -
7:20 - 7:23ularning xolisona ma'lumot yig'ishida
-
7:23 - 7:27va dalillarga asoslanib qaror chiqarishda
ularga ishonishimizda, -
7:27 - 7:28insonlar hayoti haqida.
-
7:28 - 7:31Chunki ular insonning aslini ko'rsatmaydi.
-
7:31 - 7:34Ma'lumotlar bizning kimligimizning
ko'zgusi emas. -
7:34 - 7:37Odam bir narsani o'ylab,
teskarisini aytadi, -
7:37 - 7:39ko'ngli buni desa,
o'zi boshqa ishni qiladi. -
7:39 - 7:42Algoritmik bashoratlar
yoki raqamli amaliyotlar -
7:42 - 7:47insonning murakab tizimini
oldindan aytib berolmaydi. -
7:48 - 7:50Lekin, avvalambor
-
7:50 - 7:53bu texnologiyalar har doim ham
-
7:53 - 7:54har doim ham
-
7:54 - 7:56xolis emas.
-
7:57 - 8:02Bilamizki, algoritmlar
qoidalar yoki qadamlar to'plamidir. -
8:02 - 8:06Ma'lum bir natijaga erishish uchun
ishlab chiqilgan, shunday emasmi? -
8:07 - 8:10Lekin bu qoidalar yoki qadamlar to'plami
xolis emas, -
8:10 - 8:12chunki ularni odamlar ishlab chiqishgan.
-
8:12 - 8:13Ma'lum bir madaniy jabxada
-
8:14 - 8:16va o'ziga xos madaniy jihatlar bilan
sayqallashgan. -
8:17 - 8:18Shunday ekan, mashinalar
o'rganishsa -
8:18 - 8:21ular noxolis algoritmlar
orqali o'rganishadi, -
8:22 - 8:25va ular noxolis ma'lumotlar
bazasidan ham tezroq o'rganishadi. -
8:26 - 8:30Ayni paytda, algoritmik taraqqiyotning
ilk misollarini ko'rishimiz mumkin. -
8:30 - 8:33Va ba'zi misollar
rostan qo'rqinchlidir. -
8:34 - 8:39Shu yili, Ney-Yorkdagi AI Now Instituti
hisobot chop etishdi: -
8:39 - 8:41shuni oshkor qilishdiki,
sun'iy ong texnologiyalari -
8:41 - 8:44bashorat qilishda ishlatilayotgan ekan,
-
8:44 - 8:48"kir" ma'lumotlarni aniqlashga
o'rgatilgan. -
8:48 - 8:51Bu asosan shunday yig'ilganki,
-
8:51 - 8:55tarixiy irqchillika oid ma'lumotlardan
iborat va -
8:55 - 8:58shaffof bo'lmagan politsiya
ishlari ham bor. -
8:59 - 9:03Bu texnologiyalar qora ma'lumotlarni
ishlatgani uchun -
9:03 - 9:04ular xolis emas,
-
9:04 - 9:09ularning oqibatlari esa faqatgina
politsiya qilmishi va xatolarini -
9:09 - 9:10ko'paytiradi va abadiylashtiradi.
-
9:13 - 9:16Xo'sh, menimcha bizning
jamiyatimiz muhim bir -
9:16 - 9:18muammoga duch keldi.
-
9:18 - 9:23Biz ma'lumotlar yig'ishda ishlatiladigan
texnologiyalarga ishonishni boshladik. -
9:24 - 9:26Bilamizki,
inson ma'lumotlarini yig'ishda -
9:26 - 9:29bu texnologiyalar har doim ham
xolis bo'lmaydi -
9:29 - 9:32va hech qachon aniq bo'lmaydi.
-
9:32 - 9:35Hozir bizga kerak bo'lgan narsa
bu siyosiy yechimdir. -
9:35 - 9:40Hukumatlarimiz bizning ma'lumot huquqimiz
insoniy huquqimiz ekanini tan olishi kerak -
9:40 - 9:44(Qarsaklar va hayqiriqlar)
-
9:48 - 9:52Ungacha biz kelajakka
umid bilan qaray olmaymiz. -
9:53 - 9:55Men qizlarimning algoritmik
kamsitilishi va xatolarga -
9:56 - 9:59duchor bo'lishidan xavotirdaman.
-
9:59 - 10:02Men bilan qizlarim o'rtasidagi
farq shundaki, -
10:02 - 10:05mening bolaligim haqida
umuman ochiq ma'lumotlar yo'q. -
10:05 - 10:09Shubhasiz men o'smirlik vaqtimda qilgan
va o'ylagan barcha ahmoqona ishlarning -
10:09 - 10:11ma'lumot bazasi yo'q.
-
10:11 - 10:13(Kulgi)
-
10:14 - 10:17Ammo qizlarim uchun
bu boshqacha bo'lishi mumkin. -
10:17 - 10:20Ularning ma'lumoti bugundan
boshlab yig'ilib borilmoqda, -
10:20 - 10:24u kelajakda ularni ustidan
hukm chiqarish uchun ishlatilishi mumkin -
10:24 - 10:27va ularning orzu-umidlariga
to'sqinlik qilishi mumkin. -
10:29 - 10:30Menimcha, vaqti keldi.
-
10:30 - 10:32Harakat qilish vaqt keldi.
-
10:32 - 10:34Barchamizning
birga ishlash vaqtimiz keldi -
10:34 - 10:36inson sifatida,
-
10:36 - 10:38tashkilot va muassassa sifatida,
-
10:38 - 10:41va biz ko'proq ma'lumot adolatini
talab qilamiz, o'zimiz uchun -
10:41 - 10:43va farzandlarimiz uchun
-
10:43 - 10:44juda kech bo'lishidan oldin.
-
10:44 - 10:45Tashakkur.
-
10:45 - 10:47(Qarsaklar)
- Title:
- Texnologiya kompaniyalari farzandlaringiz haqida nima bilishadi
- Speaker:
- Veronika Barassi
- Description:
-
Siz va sizning oilangiz ishlatadigan raqamli platformalar -- onlayn o'yinlardan tortib to ta'lim ilovalari va tibbiyot portaligacha farzandlaringizning ma'lumotlarini yig'ayotgan va sotayotgan bo'lishi mumkin, deydi antropolog Veronika Barassi. O'zining ko'zni ochadigan tadqiqoti bilan, Barassi ota-onalarni raqamli foydalanish qoidalarini ko'r-ko'rona qabul qilishni o'rniga, ularni ikki martalab qarab chiqishga undaydi. Shuningdek farzandlarining ma'lumotlari ularning kelajagiga rahna solmasligini ta'minlaydigan himoya qilish choralarini talab qilishga chaqiradi.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Nazarbek Nazarov approved Uzbek subtitles for What tech companies know about your kids | ||
Nazarbek Nazarov edited Uzbek subtitles for What tech companies know about your kids | ||
Nazarbek Nazarov accepted Uzbek subtitles for What tech companies know about your kids | ||
Nazarbek Nazarov edited Uzbek subtitles for What tech companies know about your kids | ||
Shokhnur Akhmedov edited Uzbek subtitles for What tech companies know about your kids | ||
Shokhnur Akhmedov edited Uzbek subtitles for What tech companies know about your kids | ||
Shokhnur Akhmedov edited Uzbek subtitles for What tech companies know about your kids |