Return to Video

Texnologiya kompaniyalari farzandlaringiz haqida nima bilishadi

  • 0:01 - 0:03
    Har kuni, har hafta
  • 0:03 - 0:05
    biz foydalanish shartlariga rozi bo'lamiz.
  • 0:05 - 0:07
    Va biz rozi bo'lganimzida
  • 0:07 - 0:09
    biz kompaniyalarga
    qonuniy huquq taqdim etamiz
  • 0:09 - 0:13
    ma'lumotlarimiz bilan
    istalgan ish qilishiga
  • 0:13 - 0:15
    va farzandlarimizning
    ma'lumotlari bilan ham.
  • 0:17 - 0:20
    Hayron qolarlisi,
  • 0:20 - 0:23
    biz bolalarning ancha ma'lumotlarini
    berib yuboryapmiz.
  • 0:23 - 0:25
    Bularning oqibati qanday bo'ladi?
  • 0:26 - 0:28
    Men antropologman,
  • 0:28 - 0:31
    shuningdek, ikki qizchaning onasiman.
  • 0:31 - 0:35
    Men bu savolga
    2015-yilda qiziqishni boshlagandim.
  • 0:35 - 0:38
    O'shanda kutilmaganda shuni angladim,
  • 0:38 - 0:41
    ulkan va aql bovar qilmas
    hajmdagi bolalar haqidagi ma'lumotlar
  • 0:41 - 0:44
    ishlab chiqarilishi va to'planishini.
  • 0:45 - 0:47
    Shu tarzda ilmiy loyihamni boshladim.
  • 0:47 - 0:49
    Uni Bola Ma'lumot Fuqaro deb nomladim
  • 0:49 - 0:51
    va bo'shliqni to'ldirishni maqsad qildim.
  • 0:53 - 0:56
    Endi o'ylashingiz mumkin
    meni hozir sizni aybdor qiladi deb
  • 0:56 - 0:58
    ijtimoiy tarmoqga farzandingiz
    rasmini joylaganingiz uchun
  • 0:58 - 1:01
    ammo gap bunda emas,
  • 1:01 - 1:04
    Muammo bundan ko'ra ancha yirikroqdir.
  • 1:05 - 1:09
    Hammasi tizimga bog'liq,
    odamlarga emas.
  • 1:09 - 1:11
    SIz va sizning odatlaringiz aybdor emas.
  • 1:13 - 1:16
    Tarixda birinchi bor,
  • 1:16 - 1:18
    biz bolalarning
    ma'lumotlarini kuzatmoqdamiz
  • 1:18 - 1:20
    ularning tug'ilishidan ancha oldin
  • 1:20 - 1:23
    urug'lanish paytidan boshlab,
  • 1:23 - 1:25
    va butun hayoti davomida.
  • 1:25 - 1:28
    Bilamizki, ota-onalar farzand
    ko'rishmoqchi bo'lsihganida,
  • 1:28 - 1:31
    ular "homilador bo'lish yo'llari"ni
    onlayn qidirishadi,
  • 1:31 - 1:34
    yoki ovulyatsiyani kuzatadgan
    ilovalarni yuklab olishadi.
  • 1:35 - 1:38
    Ular homilador bo'lishganida esa,
  • 1:38 - 1:41
    ular chaqalog'ining ultratovushini
    ijtimoiy tarmoqqa yuklaydi,
  • 1:41 - 1:43
    homiladorlik ilovalarini yuklab olishadi
  • 1:43 - 1:47
    yoki Doktor Google bilan
    hamma narsa haqida maslahatlashishadi,
  • 1:47 - 1:48
    o'zingiz bilasiz --
  • 1:48 - 1:51
    "parvoz davomida
    bolaning tushib qolish xavfi"
  • 1:51 - 1:54
    yoki "erta homiladorlikdagi
    qorindagi spazmlar" haqida.
  • 1:54 - 1:56
    Men bilaman, chunki
    shunday qilganman
  • 1:56 - 1:57
    va ko'p marta.
  • 1:58 - 2:01
    Bola tug'ilganida esa,
    ular kuzatishadi: uning har uyqusini,
  • 2:01 - 2:03
    ovqatlanishini,
  • 2:03 - 2:05
    hayotining har bir harakatini,
    turli texnologiyalarda.
  • 2:06 - 2:08
    Va bu texnologiyalar
  • 2:08 - 2:14
    chaqaloqning shaxsiy ma'lumotlarini
    foydaga aylantirishadi, ularni
  • 2:14 - 2:16
    boshqalar bilan
    ulashgan holda.
  • 2:17 - 2:19
    Mana bu qanday ishlaydi,
  • 2:19 - 2:24
    2019-yilda Britaniya Tibbiyot Jurnali
    bir tadqiqotni nashr qildi.
  • 2:24 - 2:28
    Unda aytilishicha 24 mobil
    sog'liq ilovasidan
  • 2:28 - 2:31
    19 tasi ma'lumotlarni
    uchinchi tomon bilan bo'lishishgan.
  • 2:32 - 2:38
    Va bu uchinchi tomonlar ma'lumotni
    216 tashkilot bilan bo'lishishgan.
  • 2:39 - 2:42
    Bu 216 tashkilotdan
  • 2:42 - 2:45
    bor-yo'g'i uchtasi sog'liqni saqlash
    tizimiga oid.
  • 2:46 - 2:50
    Ma'lumotga kirish huquqi bor kompaniyalar
    orasida katta texnologiya kompaniyalari
  • 2:50 - 2:54
    Google, Facebook va Oracle
    kabilar bor.
  • 2:54 - 2:56
    Ular raqamli reklama kompaniyalaridir,
  • 2:56 - 3:00
    shuningdek iste'mol kreditlari bo'yicha
    agentlik ham bor.
  • 3:01 - 3:03
    Siz to'g'ri topdingiz:
  • 3:03 - 3:08
    Ularda allaqachon chaqaloqlar haqida
    ma'lumotlar bor.
  • 3:09 - 3:12
    Ammo mobil ilovalar, veb qidiruvlar
    va ijtimoiy tarmoqlar
  • 3:12 - 3:15
    shunchaki aysbergning bir uchidir.
  • 3:15 - 3:18
    Chunki turli texnologiyalar
    bolalarni kuzatib borishadi
  • 3:18 - 3:20
    Ularning kundalik hayoti davomida.
  • 3:20 - 3:24
    Ular uy texnologiyalari va uydagi
    virtual yordamchilar tomonidan kuzatiladi.
  • 3:24 - 3:26
    Ta'lim platformasi ham
    ularni kuzatishadi
  • 3:26 - 3:28
    va maktabdagi ta'lim
    texnologiyalari ham.
  • 3:28 - 3:30
    Onlayn yozuvlari ham kuzatiladi
  • 3:30 - 3:33
    va shifoxonalaridagi
    onlayn portallari ham.
  • 3:33 - 3:35
    Ularni internetli o'yinchoqlar,
    ularning onlayn
  • 3:35 - 3:36
    o'yinlari orqali
    kuzatishadi
  • 3:36 - 3:39
    va boshqa judayam ko'plab
    texnologiyalar orqali.
  • 3:40 - 3:42
    Tadqiqotim davomida
  • 3:42 - 3:46
    ko'plab ota-onalar oldimga kelishardi
    va "Ho'sh nima bo'libdi?" deyishardi.
  • 3:46 - 3:49
    "Nima farqi bor bolalarim kuzatilishini?
  • 3:50 - 3:51
    Yashiradigan narsamiz yo'q."
  • 3:53 - 3:54
    Lekin, farqi bor.
  • 3:55 - 4:01
    Farqi bor, chunki hozirda odamlarni
    nafaqat kuzatishadi,
  • 4:01 - 4:05
    balki, ularning ma'lumoti alohida
    yig'iladi qidiruv tarixiga asoslanib,
  • 4:05 - 4:09
    sun'iy ong va
    bashorat tahlillari uchun ishlatiladi.
  • 4:09 - 4:13
    Inson hayoti bo'yicha iloji boricha
    ko'p ma'lumot yig'ish uchun
  • 4:13 - 4:15
    turli manbalardan:
  • 4:15 - 4:19
    oila tarixi, xarid qilish odatlari
    va ijtimoiy tarmoq izohlaridan.
  • 4:19 - 4:21
    Keyin ular bu ma'lumotlarni
    jamlashadi.
  • 4:21 - 4:24
    Ma'lumotga asoslangan qaror
    chiqarish uchun
  • 4:25 - 4:28
    bunday texnologiyalar
    hamma yerda ishlatiladi.
  • 4:28 - 4:31
    Banklar bularni
    kredit, qarz berishda ishlatishadi,
  • 4:31 - 4:33
    sug'urta kompaniayalari esa
    premiyani aniqlashda.
  • 4:34 - 4:37
    Ish beruvchilar ham ulardan
    foydalanishadi.
  • 4:37 - 4:40
    Nomzod ishga to'gri kelishi
    yoki kelmasligini aniqlashda.
  • 4:41 - 4:44
    Shuningdek, politsiya va
    sud ham jinoyatchini aniqlashda
  • 4:44 - 4:47
    ulardan foydalanishadi,
  • 4:47 - 4:50
    yoki qayta jinoyatga moyilligini
    aniqlaganda.
  • 4:52 - 4:57
    Bizda ma'lumotlarni sotadigan,
    sotib oladigan va tahlil qiladiganlar
  • 4:57 - 5:00
    ustidan hech qanday ko'nikma
    yoki nazorat yo'q.
  • 5:00 - 5:03
    Ular bizni va bolalarimizning
    ma'lumotlarini yig'ishadi.
  • 5:04 - 5:08
    Lekin bu yig'ilgan ma'lumotlar
    huquqlarimizni yetarlicha buzishadi.
  • 5:09 - 5:11
    Misol uchun,
  • 5:14 - 5:18
    2018-yil New York Times yangiligida
    aytilishicha
  • 5:18 - 5:20
    onlayn kollejni reja qilish
    tizimi orqali
  • 5:20 - 5:23
    yig'ilgan ma'lumotlarda
  • 5:23 - 5:28
    AQSH bo'ylab millionlab
    maktab o'quvchilari ma'lumoti yig'ilgan
  • 5:28 - 5:31
    kollej programmasi yoki
    grant qidirib yurgan o'quvchilar orasidan
  • 5:31 - 5:34
    va bu ma'lumotlar
    o'quv brokerlariga sotilgan.
  • 5:36 - 5:41
    Hozirda, Fordhamda o'quv brokerlarini
    o'rgangan tadqiqotchilar
  • 5:41 - 5:46
    bolalarning ikki yoshligidan
    ma'lumoti to'planishini oshkor qilishdi.
  • 5:46 - 5:50
    Turli yo'nalishlar bo'yicha:
  • 5:50 - 5:54
    millati, dini, boyligi,
  • 5:54 - 5:56
    ijtimoiy ahvoli
  • 5:56 - 5:59
    va ko'plab boshqa turli
    yo'nalishlar bo'yicha.
  • 5:59 - 6:04
    Keyin ular bu yig'ilgan profillarni
    bolalarning ismi,
  • 6:04 - 6:07
    uy manzili va kontaktlari bilan birga
  • 6:07 - 6:09
    turli kompaniyalarga sotishadi,
  • 6:09 - 6:11
    savdo va ta'lim dargohlaridan tortib,
  • 6:12 - 6:13
    talaba qarzlari,
  • 6:13 - 6:15
    talaba kredit karta
    kompaniyasigacha.
  • 6:17 - 6:18
    Aniqlashtirish uchun,
  • 6:18 - 6:22
    Fordhamdagi tadqiqotchilar
    o'quv brokeridan
  • 6:22 - 6:28
    14-15 yoshli qizlar ro'yxati bilan
    ta'minlashni so'rashdi.
  • 6:28 - 6:31
    Masalan, oilaviy reja
    qilishga qiziqadiganlarini.
  • 6:32 - 6:35
    Broker ro'yxatni berishga rozi bo'ldi.
  • 6:35 - 6:40
    Tasavvur qiling, bu qanchalik
    bolalarimiz uchun havfli bo'lishi mumkin.
  • 6:41 - 6:45
    Lekin o'quv brokerlari shunchaki
    bir misol.
  • 6:45 - 6:50
    Haqiqat shuki, bolalarimizning ma'lumoti
    yig'ilishini biz nazorat qilolmaymiz,
  • 6:50 - 6:53
    ammo bu narsa ularning hayotiga
    yetarlicha ta'sir qiladi.
  • 6:54 - 6:58
    Biz o'zimizdan so'rashimiz kerak:
  • 6:58 - 7:02
    bolalarimizning ma'lumoti yig'ilganda
    biz bu texnologiyalarga ishona olamizmi?
  • 7:02 - 7:04
    Aniq ishona olamizmi?
  • 7:06 - 7:07
    Mening javobim "yo'q."
  • 7:08 - 7:09
    Antropolog sifatida,
  • 7:09 - 7:13
    Sun'iy ong va bashorat tahlillari
    ajoyibdir.
  • 7:13 - 7:15
    Kasallik izini topishda
  • 7:15 - 7:17
    yoki iqlim o'zgarishga
    qarshi kurashda.
  • 7:18 - 7:20
    Bu qarashdan
    voz kechishimiz kerak:
  • 7:20 - 7:23
    ularning xolisona ma'lumot yig'ishida
  • 7:23 - 7:27
    va dalillarga asoslanib qaror chiqarishda
    ularga ishonishimizda,
  • 7:27 - 7:28
    insonlar hayoti haqida.
  • 7:28 - 7:31
    Chunki ular insonning aslini ko'rsatmaydi.
  • 7:31 - 7:34
    Ma'lumotlar bizning kimligimizning
    ko'zgusi emas.
  • 7:34 - 7:37
    Odam bir narsani o'ylab,
    teskarisini aytadi,
  • 7:37 - 7:39
    ko'ngli buni desa,
    o'zi boshqa ishni qiladi.
  • 7:39 - 7:42
    Algoritmik bashoratlar
    yoki raqamli amaliyotlar
  • 7:42 - 7:47
    insonning murakab tizimini
    oldindan aytib berolmaydi.
  • 7:48 - 7:50
    Lekin, avvalambor
  • 7:50 - 7:53
    bu texnologiyalar har doim ham
  • 7:53 - 7:54
    har doim ham
  • 7:54 - 7:56
    xolis emas.
  • 7:57 - 8:02
    Bilamizki, algoritmlar
    qoidalar yoki qadamlar to'plamidir.
  • 8:02 - 8:06
    Ma'lum bir natijaga erishish uchun
    ishlab chiqilgan, shunday emasmi?
  • 8:07 - 8:10
    Lekin bu qoidalar yoki qadamlar to'plami
    xolis emas,
  • 8:10 - 8:12
    chunki ularni odamlar ishlab chiqishgan.
  • 8:12 - 8:13
    Ma'lum bir madaniy jabxada
  • 8:14 - 8:16
    va o'ziga xos madaniy jihatlar bilan
    sayqallashgan.
  • 8:17 - 8:18
    Shunday ekan, mashinalar
    o'rganishsa
  • 8:18 - 8:21
    ular noxolis algoritmlar
    orqali o'rganishadi,
  • 8:22 - 8:25
    va ular noxolis ma'lumotlar
    bazasidan ham tezroq o'rganishadi.
  • 8:26 - 8:30
    Ayni paytda, algoritmik taraqqiyotning
    ilk misollarini ko'rishimiz mumkin.
  • 8:30 - 8:33
    Va ba'zi misollar
    rostan qo'rqinchlidir.
  • 8:34 - 8:39
    Shu yili, Ney-Yorkdagi AI Now Instituti
    hisobot chop etishdi:
  • 8:39 - 8:41
    shuni oshkor qilishdiki,
    sun'iy ong texnologiyalari
  • 8:41 - 8:44
    bashorat qilishda ishlatilayotgan ekan,
  • 8:44 - 8:48
    "kir" ma'lumotlarni aniqlashga
    o'rgatilgan.
  • 8:48 - 8:51
    Bu asosan shunday yig'ilganki,
  • 8:51 - 8:55
    tarixiy irqchillika oid ma'lumotlardan
    iborat va
  • 8:55 - 8:58
    shaffof bo'lmagan politsiya
    ishlari ham bor.
  • 8:59 - 9:03
    Bu texnologiyalar qora ma'lumotlarni
    ishlatgani uchun
  • 9:03 - 9:04
    ular xolis emas,
  • 9:04 - 9:09
    ularning oqibatlari esa faqatgina
    politsiya qilmishi va xatolarini
  • 9:09 - 9:10
    ko'paytiradi va abadiylashtiradi.
  • 9:13 - 9:16
    Xo'sh, menimcha bizning
    jamiyatimiz muhim bir
  • 9:16 - 9:18
    muammoga duch keldi.
  • 9:18 - 9:23
    Biz ma'lumotlar yig'ishda ishlatiladigan
    texnologiyalarga ishonishni boshladik.
  • 9:24 - 9:26
    Bilamizki,
    inson ma'lumotlarini yig'ishda
  • 9:26 - 9:29
    bu texnologiyalar har doim ham
    xolis bo'lmaydi
  • 9:29 - 9:32
    va hech qachon aniq bo'lmaydi.
  • 9:32 - 9:35
    Hozir bizga kerak bo'lgan narsa
    bu siyosiy yechimdir.
  • 9:35 - 9:40
    Hukumatlarimiz bizning ma'lumot huquqimiz
    insoniy huquqimiz ekanini tan olishi kerak
  • 9:40 - 9:44
    (Qarsaklar va hayqiriqlar)
  • 9:48 - 9:52
    Ungacha biz kelajakka
    umid bilan qaray olmaymiz.
  • 9:53 - 9:55
    Men qizlarimning algoritmik
    kamsitilishi va xatolarga
  • 9:56 - 9:59
    duchor bo'lishidan xavotirdaman.
  • 9:59 - 10:02
    Men bilan qizlarim o'rtasidagi
    farq shundaki,
  • 10:02 - 10:05
    mening bolaligim haqida
    umuman ochiq ma'lumotlar yo'q.
  • 10:05 - 10:09
    Shubhasiz men o'smirlik vaqtimda qilgan
    va o'ylagan barcha ahmoqona ishlarning
  • 10:09 - 10:11
    ma'lumot bazasi yo'q.
  • 10:11 - 10:13
    (Kulgi)
  • 10:14 - 10:17
    Ammo qizlarim uchun
    bu boshqacha bo'lishi mumkin.
  • 10:17 - 10:20
    Ularning ma'lumoti bugundan
    boshlab yig'ilib borilmoqda,
  • 10:20 - 10:24
    u kelajakda ularni ustidan
    hukm chiqarish uchun ishlatilishi mumkin
  • 10:24 - 10:27
    va ularning orzu-umidlariga
    to'sqinlik qilishi mumkin.
  • 10:29 - 10:30
    Menimcha, vaqti keldi.
  • 10:30 - 10:32
    Harakat qilish vaqt keldi.
  • 10:32 - 10:34
    Barchamizning
    birga ishlash vaqtimiz keldi
  • 10:34 - 10:36
    inson sifatida,
  • 10:36 - 10:38
    tashkilot va muassassa sifatida,
  • 10:38 - 10:41
    va biz ko'proq ma'lumot adolatini
    talab qilamiz, o'zimiz uchun
  • 10:41 - 10:43
    va farzandlarimiz uchun
  • 10:43 - 10:44
    juda kech bo'lishidan oldin.
  • 10:44 - 10:45
    Tashakkur.
  • 10:45 - 10:47
    (Qarsaklar)
タイトル:
Texnologiya kompaniyalari farzandlaringiz haqida nima bilishadi
話者:
Veronika Barassi
概説:

Siz va sizning oilangiz ishlatadigan raqamli platformalar -- onlayn o'yinlardan tortib to ta'lim ilovalari va tibbiyot portaligacha farzandlaringizning ma'lumotlarini yig'ayotgan va sotayotgan bo'lishi mumkin, deydi antropolog Veronika Barassi. O'zining ko'zni ochadigan tadqiqoti bilan, Barassi ota-onalarni raqamli foydalanish qoidalarini ko'r-ko'rona qabul qilishni o'rniga, ularni ikki martalab qarab chiqishga undaydi. Shuningdek farzandlarining ma'lumotlari ularning kelajagiga rahna solmasligini ta'minlaydigan himoya qilish choralarini talab qilishga chaqiradi.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Uzbek subtitles

改訂