Return to Video

कैसे गहरे सच को कमजोर करते हैं और लोकतंत्र को खतरे में डालते हैं

  • 0:04 - 0:07
    इस व्याख्यान में प्रौढ़ भाषा
    का उपयोग किया गया हैं ।
  • 0:08 - 0:11
    राना अय्यूब भारत में एक पत्रकार है
  • 0:11 - 0:13
    जिनका काम सरकारी भ्रष्टाचारी
  • 0:14 - 0:16
    एवं मानव अधिकारों का
    उल्लंघन को सामने लाया ।
  • 0:16 - 0:17
    पिछले कुछ वर्षों में
  • 0:17 - 0:20
    वह अपनी काम को लेकर
    व्यंग्य और विवाद की आदत दाल ली ।
  • 0:20 - 0:24
    परन्तु अप्रैल 2018 के घटनाओं के लिए
    कुछ भी उन्हें तैयार नहीं कर सकता था ।
  • 0:28 - 0:32
    वह अपने मित्र के साथ
    कैफ़े में बैठे थे जब उन्होंने देखा -
  • 0:32 - 0:35
    यौन क्रिया करते हुए उनका एक
    2 मिनट, 20 सेकंड की वीडियो ।
  • 0:35 - 0:38
    उनको विश्वास नहीं हो रहा था
  • 0:38 - 0:40
    उन्होंने कभी ऐसे वीडियो नहीं बनायीं
  • 0:41 - 0:44
    परन्तु दुर्भाग्य से
    लाखों लोगों ने मान लिया
  • 0:44 - 0:46
    की यह वीडियो उनका ही था ।
  • 0:46 - 0:48
    तीन महीने पेहले,
    मेरी किताब के सम्बन्ध में
  • 0:48 - 0:51
    मैंने उनका साक्षात्कार किया
    जो यौन गोपनीयता के बारे में है
  • 0:53 - 0:56
    मैं एक कानून का प्रोफेसर, वकील
    और नागरिक अधिकार कार्यकर्ता हूँ
  • 0:56 - 1:01
    अतः मुझे निराशा होती है कि
  • 1:01 - 1:03
    कानून उसकी मदद नहीं कर सका ।
  • 1:03 - 1:05
    और बात करते करते
  • 1:05 - 1:10
    उन्होंने बताया की उन्हें ऐसे वीडियो
    के लिए तैयार रहना चाहिए था ।
  • 1:10 - 1:16
    उन्होंने बताया, "आख़िरकार, यौन क्रिया
    महिलाओं को अपमान और बदनाम
  • 1:16 - 1:18
    करने के लिए उपयोग होता है,
  • 1:18 - 1:22
    विशेष रूप से अल्पसंख्यक महिलाओं,
  • 1:22 - 1:25
    और विशेष रूप से ऐसे महिला
    जो प्रभावशाली पुरुषों को
  • 1:25 - 1:29
    चुनौती देने का साहस करती हैं
    जैसे उनहोंने अपने काम में किया था ।
  • 1:30 - 1:35
    वो नकली वीडियो 48 घंटे में वायरल हो गयी ।
  • 1:35 - 1:38
    उनके सारे ऑनलाइन अकाउंट
    उस वीडियो के स्क्रीनशॉट,
  • 1:38 - 1:41
    अश्लील बलात्कार और मौत की धमकी,
  • 1:41 - 1:44
    और उनकी इस्लामी आस्था
    के बारे में गालियां से भर गएँ ।
  • 1:44 - 1:47
    ऑनलाइन पोस्ट में बताया गया की
    वह यौन क्रिया के लिए "उपलब्ध" है ।
  • 1:48 - 1:50
    और उनको डॉक्स (Dox) भी किया गया ।
  • 1:50 - 1:53
    जिसका मतलब यह है कि उनका
    घर का पता और मोबाइल नंबर
  • 1:53 - 1:57
    इंटरनेट पे फैला फैला गया था ।
  • 1:58 - 2:02
    वो वीडियो 40000 से अधिक बार
    शेयर किया गया था ।
  • 2:02 - 2:04
    जब कोई ऐसे ऑनलाइन गिरोह
    का शिकार बन जाता है,
  • 2:04 - 2:08
    उसका नुक्सान गहरा होता है ।
  • 2:08 - 2:12
    राना अय्यूब की ज़िन्दगी बदल गयी ।
  • 2:12 - 2:16
    हफ़्तों तक वह शायद ही खा पाती या सो पाती ।
  • 2:16 - 2:19
    उन्होंने लिखना रोक दिया और अपने सारे
    सोशल मीडिया अकाउंट को बंद कर दी
  • 2:19 - 2:23
    जो एक पत्रकार होने के नाते
    करना मुश्किल है ।
  • 2:23 - 2:26
    वह अपने घर से बाहर जाने से डरती थी ।
  • 2:26 - 2:31
    संयुक्त राष्ट्र मानवाधिकार परिषद
    पुष्टि की गई कि वह पागल नहीं थी।
  • 2:31 - 2:35
    यूनाइटेड नेशंस कौंसिल ऑन ह्यूमन राइट्स
    (UNCHR) ने पुष्टि की कि वह पागल नहीं थी ।
  • 2:37 - 2:41
    उन्होंने सार्वजनिक बयां दिया कि
    वे उनकी सुरक्षा को लेकर चिंतित थे ।
  • 2:41 - 2:44
    उन्होंने जो सामना किया वो
    एक डीपफेक (deepfake) था -
  • 2:44 - 2:46
    मशीन का सीखने की प्रौद्योगिकी
    (machine learning)
  • 2:47 - 2:50
    जो ऑडियो और वीडियो रिकॉर्डिंग
    का हेरफेर करके लोगों को ऐसा काम करते हुए
  • 2:50 - 2:52
    या बोलते हुए दिखा सकता है
  • 2:53 - 2:56
    जो उन्होंने न कभी किया या कहा ।
  • 2:56 - 2:58
    वे प्रामाणिक और वास्तविक
    दीखते है, पर वे नहीं हैं
  • 2:59 - 3:03
    वे पूरी तरह से नकली हैं ।
  • 3:03 - 3:05
    हालांकि यह प्रौद्योगिकी
    अभी विकसित हो रही है
  • 3:05 - 3:08
    यह व्यापक रूप से उपलब्ध है ।
  • 3:08 - 3:11
    हाल ही में, डीपफेक पे
    ध्यान कामोद्दीपक वीडियो से आया,
  • 3:11 - 3:12
    जैसे अक्सर ऑनलाइन
    चीज़ों के साथ होता है ।
  • 3:12 - 3:15
    2018 की शुरुआत में,
  • 3:15 - 3:17
    किसीने ने रेड्डिट (Reddit)
    पर एक साधन डाला
  • 3:17 - 3:22
    जिससे लोग कामोद्दीपक वीडियो
    पे किसीका भी चेहरा लगा सकते है ।
  • 3:22 - 3:25
    उसके बाद जो आया वो लोगों के
    मनपसंद महिला हस्तियां की
  • 3:25 - 3:28
    नकली कामोद्दीपक वीडियो का झरना था ।
  • 3:29 - 3:32
    आज भी आपको यूट्यूब पर
    कदम से कदम निर्देश के साथ
  • 3:32 - 3:34
    ऐसे हज़ार प्रशिक्षण मिलेंगे
  • 3:35 - 3:38
    जिससे आप अपने डेस्कटॉप पर
    डीपफेक बना सकते है ।
  • 3:38 - 3:42
    और जल्द ही हम अपने
    मोबाइल फ़ोन पर भी बना सकते है ।
  • 3:43 - 3:48
    अब, मानवीय कमज़ोरियाँ एवं
  • 3:48 - 3:50
    ऐसे साधन मिलके
  • 3:50 - 3:53
    डीपफेक को हतियार बना सकते हैं ।
  • 3:53 - 3:54
    मैं समझती हूँ ।
  • 3:55 - 3:59
    मनुष्य होने के नाते हम भावनात्मक रूप से
    ऑडियो और वीडियो पर प्रतिक्रिया देते हैं ।
  • 4:00 - 4:01
    हम उस विचार पर
    इनको सच मान लेते है
  • 4:01 - 4:03
    जो हमें बताता है की जो दिखता है
  • 4:03 - 4:06
    और सुनाई देता है वोह सच ही होगा ।
  • 4:06 - 4:08
    और यह वोह तंत्र है जो हमारी
  • 4:08 - 4:12
    वास्तविकता का साझा समझ
    को कमज़ोर कर सकती है ।
  • 4:12 - 4:15
    जिस डीपफेक को हम सच मानते है
    वह असलियत में नकली है ।
  • 4:16 - 4:20
    और हम उत्तेजक एवं कामुक चीज़ों
    की ओर आकर्षित हो जाते हैं
  • 4:20 - 4:23
    और हम ऐसे जानकारी को
    मानते एवं शेयर करते है
  • 4:23 - 4:25
    जो नवीन और नकारात्मक है ।
  • 4:26 - 4:31
    और शोधकर्ताओं ने पाया है कि
    इंटरनेट पर ग़लत जानकारी
  • 4:31 - 4:32
    सच जानकारी से
    10 गुना तेज फैलता है।
  • 4:34 - 4:38
    हम ऐसे जानकारी की ओर आकर्षित हो जाते है
  • 4:38 - 4:40
    जो हमारे विचारों के साथ मिलते हैं ।
  • 4:41 - 4:45
    मनोवैज्ञानिकों इस प्रवत्ति को कन्फर्मेशन
    बायस "confirmation bias" बोलते है।
  • 4:45 - 4:50
    और सोशल मीडिया उस प्रवत्ति को बढ़ाता है
  • 4:50 - 4:54
    क्योंकि इस पर हम अपने विचारधारा
    के प्रति जानकारियों को तेज़ी से
  • 4:54 - 4:55
    और व्यापक रूप से शेयर कर सकते हैं ।
  • 4:57 - 5:02
    डीपफेक प्रौद्योगिकी के पास व्यक्तिगत या
    सामाजिक नुकसान पहुँचाने की शक्ति है ।
  • 5:03 - 5:05
    ज़रा सोचिये - अगर एक डीपफेक में
  • 5:05 - 5:09
    दिखाया जाता है कि अफ़ग़ानिस्तान में
    अमरीकी सैनिकों ने कुरान को जलाया ।
  • 5:11 - 5:14
    अब सोचो - उस एक
    डीपफके से उन सैनिकों पर
  • 5:14 - 5:15
    कितनी हिंसा हो सकती है ।
  • 5:16 - 5:19
    और अगर अगले ही दिन
  • 5:19 - 5:21
    एक और डीपफेक प्रकाशित होता है
  • 5:21 - 5:24
    जो एक प्रसिद्ध इमाम को दर्शाता है
    लंदन में स्थित है
  • 5:24 - 5:27
    उन सैनिकों के खिलाफ।
  • 5:27 - 5:30
    और क्या होगा अगर अगले ही दिन
  • 5:30 - 5:32
    एक और डीपफेक है जो गिरता है,
  • 5:32 - 5:35
    जो एक प्रसिद्ध इमाम को दर्शाता है
    लंदन में स्थित है
  • 5:35 - 5:37
    उन सैनिकों पर हमले की प्रशंसा?
  • 5:37 - 5:39
    हम हिंसा और नागरिक अशांति देख सकते हैं,
  • 5:39 - 5:41
    अफगानिस्तान में ही नहीं
    और यूनाइटेड किंगडम,
  • 5:41 - 5:43
    लेकिन दुनिया भर में।
  • 5:44 - 5:46
    और आप मुझसे कह सकते हैं,
  • 5:46 - 5:49
    "चलो, डैनियल, यह बहुत दूर की बात है।"
  • 5:49 - 5:51
    लेकिन ऐसा नहीं है।
  • 5:51 - 5:53
    हमने झूठ फैलाते हुए देखा है
  • 5:55 - 6:00
    व्हाट्सएप और अन्य पर
    ऑनलाइन संदेश सेवाएं
  • 6:00 - 6:02
    हिंसा के लिए नेतृत्व
    जातीय अल्पसंख्यकों के खिलाफ।
  • 6:03 - 6:06
    और वह सिर्फ पाठ था -
  • 6:06 - 6:09
    कल्पना कीजिए कि यह वीडियो था।
  • 6:09 - 6:10
    डीपफेक की क्षमता है पर भरोसा करने के लिए
  • 6:11 - 6:14
    लोकतांत्रिक संस्थानों में
  • 6:14 - 6:17
    इसलिए, चुनाव से पहले की रात की कल्पना करें
  • 6:19 - 6:22
    एक गहरा दिखावा है
    पार्टी के प्रमुख उम्मीदवारों में से एक
  • 6:22 - 6:24
    गंभीर रूप से बीमार
  • 6:24 - 6:27
    डीपफेक चुनाव को टाल सकता है
  • 6:27 - 6:30
    और हमारी भावना को हिला
    कि चुनाव वैध हैं।
  • 6:31 - 6:34
    अगर रात पहले की कल्पना करो
    एक प्रारंभिक सार्वजनिक पेशकश
  • 6:34 - 6:38
    एक प्रमुख वैश्विक बैंक की,
  • 6:39 - 6:46
    वहाँ एक गहरा था
    बैंक के सीईओ को दिखा रहा है
  • 6:46 - 6:51
    नशे में धुत षड्यंत्र की थ्योरी।
  • 6:51 - 6:54
    डीपफेक आईपीओ को टैंक कर सकता है,
  • 6:55 - 6:58
    और बुरा, हमारी भावना को हिला
    वित्तीय बाजार स्थिर हैं।
  • 6:59 - 7:03
    इसलिए डीपफेक शोषण और बढ़ सकता है
    हमारे पास जो गहरा अविश्वास है
  • 7:03 - 7:06
    राजनीतिके व्यापार जगत के नेताओं में
    और अन्य प्रभावशाली नेता।
  • 7:06 - 7:10
    उन्हें एक दर्शक मिलता है
    उन पर विश्वास करने का प्रण किया।
  • 7:11 - 7:16
    और सत्य की खोज
    लाइन पर भी है।
  • 7:17 - 7:20
    प्रौद्योगिकीविदों की उम्मीद है
    एअर इंडिया में अग्रिमों के साथ,
  • 7:20 - 7:22
    जल्द ही यह असंभव
    नहीं तो मुश्किल हो सकता है
  • 7:22 - 7:25
    के बीच अंतर बताने के लिए
    एक वास्तविक वीडियो और एक नकली।
  • 7:25 - 7:28
    तो सच्चाई कैसे सामने आ सकती है
    विचारों की गहराई से ग्रस्त बाज़ार में?
  • 7:28 - 7:31
    क्या हम सिर्फ आगे बढ़ेंगे
    कम से कम प्रतिरोध का रास्ता
  • 7:32 - 7:36
    और विश्वास करो कि हम
    क्या विश्वास करना चाहते हैं,
  • 7:36 - 7:40
    सत्य को धिक्कार है?
  • 7:40 - 7:46
    और न केवल हम फकीरी पर विश्वास कर सकते हैं
  • 7:46 - 7:48
    हम सच्चाई पर अविश्वास
    करना शुरू कर सकते हैं।
  • 7:48 - 7:52
    हमने पहले ही लोगों को आह्वान करते देखा है
    डीपफेक की घटना
  • 7:52 - 7:54
    असली सबूत पर संदेह करना
    उनके अधर्म का।
  • 7:54 - 8:00
    राजनेताओं को ऑडियो के बारे में सुना है
    उनकी परेशान करने वाली टिप्पणी
  • 8:00 - 8:03
    Fake fake चलो, वह फर्जी खबर है।
  • 8:03 - 8:06
    आप विश्वास नहीं कर सकते कि आपकी आँखें
    और कान तुम्हें बता रहे हैं। "
  • 8:07 - 8:10
    और यह जोखिम है
  • 8:11 - 8:14
    उस प्रोफेसर रॉबर्ट चेसनी और मैं
    "झूठा लाभांश" कहें:
  • 8:14 - 8:17
    जोखिम है कि झूठे deepfakes आह्वान करेंगे
  • 8:17 - 8:19
    जवाबदेही से बचने के लिए
    उनके अधर्म के लिए।
  • 8:20 - 8:24
    इसलिए हमने अपना काम हमारे लिए काट लिया है,
    इसके बारे में कोई संदेह नहीं है।
  • 8:26 - 8:29
    और हमें जरूरत पड़ने वाली है
    एक सक्रिय समाधान
  • 8:29 - 8:32
    टेक कंपनियों से, सांसदों से,
  • 8:33 - 8:36
    कानून प्रवर्तक और मीडिया।
  • 8:36 - 8:40
    और हमें जरूरत पड़ने वाली है
    सामाजिक लचीलापन की एक स्वस्थ खुराक।
  • 8:40 - 8:43
    तो अब, हम अभी लगे हुए हैं
    बहुत ही सार्वजनिक बातचीत में
  • 8:43 - 8:47
    जिम्मेदारी के बारे में
    तकनीकी कंपनियों की।
  • 8:47 - 8:49
    और सोशल मीडिया प्लेटफॉर्म को मेरी सलाह
  • 8:49 - 8:52
    सेवा शर्तों को बदलने के लिए किया गया है
    और सामुदायिक दिशानिर्देश
  • 8:52 - 8:55
    नुकसान का कारण बनने वाले
    डीपफेक पर प्रतिबंध लगाने के लिए।
  • 8:55 - 8:57
    वह दृढ़ संकल्प,
    मानव निर्णय की आवश्यकता है
  • 8:57 - 8:59
    और यह महंगा है
  • 8:59 - 9:00
    लेकिन हमें इंसान की जरूरत है
  • 9:00 - 9:03
    सामग्री को देखने के लिए
    और एक गहरे संदर्भ का संदर्भ
  • 9:03 - 9:06
    अगर यह पता लगाने के लिए
    एक हानिकारक प्रतिरूपण
  • 9:06 - 9:11
    या इसके बजाय, अगर यह मूल्यवान है
    व्यंग्य, कला या शिक्षा।
  • 9:11 - 9:13
    तो अब, कानून का क्या?
  • 9:13 - 9:16
    कानून हमारा शिक्षक है
  • 9:16 - 9:18
    यह हमें सिखाता है
    क्या हानिकारक है और क्या गलत है।
  • 9:18 - 9:21
    और यह व्यवहार को बिगड़ता है
    अपराधियों को दंडित करके
  • 9:21 - 9:24
    और पीड़ितों के लिए उपचार हासिल करना।
  • 9:24 - 9:26
    अभी, कानून तक नहीं है
    डीपफेक की चुनौती
  • 9:26 - 9:28
    दुनिया भर में
  • 9:28 - 9:30
    हमारे पास सुसंगत कानूनों का अभाव है
  • 9:30 - 9:34
    कि से निपटने के लिए डिज़ाइन किया जाएगा
    डिजिटल प्रतिरूपण
  • 9:34 - 9:36
    कि यौन गोपनीयता पर आक्रमण,
  • 9:36 - 9:38
    कि क्षति प्रतिष्ठा
  • 9:40 - 9:43
    और जो भावनात्मक संकट का कारण बनता है।
  • 9:46 - 9:48
    राणा अय्यूब के साथ क्या हुआ
    तेजी से आम हो रहा है।
  • 9:48 - 9:51
    फिर भी, जब वह चली गई
    दिल्ली में कानून प्रवर्तन के लिए,
  • 9:51 - 9:55
    उसे बताया गया कि कुछ नहीं किया जा सकता है।
  • 9:55 - 9:57
    और दुखद सत्य है
    वही सच होगा
  • 9:58 - 10:01
    संयुक्त राज्य अमेरिका में और यूरोप में।
  • 10:01 - 10:04
    इसलिए हमारे पास एक कानूनी वैक्यूम है
    जिसे भरने की जरूरत है।
  • 10:05 - 10:09
    मेरी सहयोगी डॉ। मेरी ऐनी फ्रैंक्स और मैं
    अमेरिकी सांसदों के साथ काम कर रहे हैं
  • 10:09 - 10:12
    प्रतिबंध लगाने के लिए कानून बनाना
    हानिकारक डिजिटल प्रतिरूपण
  • 10:12 - 10:15
    कि पहचान की चोरी के लिए समान हैं।
  • 10:15 - 10:17
    और हमने ऐसी ही चालें देखी हैं
  • 10:18 - 10:20
    आइसलैंड, यूके और ऑस्ट्रेलिया में
  • 10:20 - 10:24
    लेकिन निश्चित रूप से, यह सिर्फ एक
    छोटा सा टुकड़ा है नियामक पहेली की
  • 10:24 - 10:27
    अब, मुझे पता है कि कानून
    इलाज नहीं है। सही?
  • 10:27 - 10:30
    यह एक कुंद यंत्र है
  • 10:33 - 10:36
    और हमें इसे बुद्धिमानी से
    उपयोग करने के लिए मिला है
  • 10:36 - 10:39
    इसमें कुछ व्यावहारिक बाधाएं भी हैं।
  • 10:39 - 10:42
    आप लोगों के खिलाफ कानून का लाभ नहीं
    उठा सकते आप पहचान नहीं पाते हैं।
  • 10:42 - 10:44
    और अगर कोई अपराधी रहता है
    देश से बाहर
  • 10:44 - 10:48
    जहाँ एक पीड़ित रहता है,
  • 10:48 - 10:51
    तो आप जोर नहीं दे सकते
  • 10:51 - 10:55
    वह अपराधी
    स्थानीय अदालतों में आते हैं
  • 10:55 - 10:56
    न्याय का सामना करना
  • 10:56 - 10:59
    और इसलिए हमें जरूरत है
    एक समन्वित अंतर्राष्ट्रीय प्रतिक्रिया।
  • 10:59 - 11:03
    शिक्षा का हिस्सा बनना है
    हमारी प्रतिक्रिया के रूप में अच्छी तरह से।
  • 11:03 - 11:06
    कानून लागू करने वाले नहीं हैं
    कानूनों को लागू करने के लिए जा रहा है
  • 11:06 - 11:09
    वे नहीं जानते
  • 11:09 - 11:11
    और समस्याओं का हल
    उन्हें समझ नहीं आया।
  • 11:11 - 11:14
    साइबरस्टॉकिंग पर मेरे शोध में
  • 11:14 - 11:17
    मैंने पाया कि कानून प्रवर्तन
    प्रशिक्षण का अभाव था
  • 11:18 - 11:20
    उनके लिए उपलब्ध कानूनों को समझना
  • 11:20 - 11:23
    और ऑनलाइन दुरुपयोग की समस्या।
  • 11:23 - 11:26
    और इसलिए अक्सर उन्होंने पीड़ितों को बताया,
  • 11:27 - 11:30
    “बस अपने कंप्यूटर को बंद कर दो।
    अनदेखी करो इसे। यह चला जाएगा। "
  • 11:30 - 11:34
    और हमने देखा कि राणा अय्यूब के मामले में।
  • 11:35 - 11:39
    उसे बताया गया, "आओ,
    आप इस बारे में इतनी बड़ी बात कर रहे हैं।
  • 11:40 - 11:44
    यह लड़के वाले लड़के हैं। ”
  • 11:44 - 11:47
    और इसलिए हमें नए कानून बनाने की जरूरत है
    प्रशिक्षण में प्रयासों के साथ।
  • 11:47 - 11:50
    और शिक्षा को लक्ष्य बनाना है
    मीडिया पर भी।
  • 11:50 - 11:53
    पत्रकारों को शिक्षित करने की आवश्यकता है
    डीपफेक की घटना के बारे में
  • 11:53 - 11:56
    इसलिए वे बढ़ाना और उन्हें फैलाना नहीं है।
  • 11:56 - 11:59
    और यह हिस्सा है
    हम सब शामिल हैं।
  • 11:59 - 12:02
    हम में से हर एक को शिक्षित
    होने की जरूरत है।
  • 12:02 - 12:06
    साझा करते हैं, हम पसंद करते हैं,
    और हम इसके बारे में सोचते भी नहीं हैं।
  • 12:09 - 12:12
    हमें और बेहतर करने की जरूरत है
  • 12:14 - 12:18
    हमें फकीरी के लिए कहीं
    बेहतर रडार की जरूरत है।
  • 12:18 - 12:21
    तो जैसा हम काम कर रहे हैं
    इन समाधानों के माध्यम से,
  • 12:21 - 12:24
    होने जा रहा है
    चारों ओर जाने के लिए बहुत दुख।
  • 12:27 - 12:30
    राणा अय्यूब अभी भी कुश्ती कर रहे हैं
    नतीजे के साथ।
  • 12:30 - 12:33
    उसे नही लगता वह स्वतंत्र है
    खुद को व्यक्त करने के लिए।
  • 12:33 - 12:36
    और जैसा उसने मुझे बताया,
  • 12:37 - 12:40
    खासकर जब वह किसी को नहीं जानता
    उसकी तस्वीर लेने की कोशिश करता है।
  • 12:41 - 12:45
    “अगर वे बनाने जा रहे हैं तो क्या होगा
    एक और गहरा? "वह खुद के लिए सोचता है।
  • 12:46 - 12:48
    और इसलिए के लिए
    राणा अय्यूब जैसे व्यक्ति
  • 12:49 - 12:51
    और हमारे लोकतंत्र की खातिर
  • 12:51 - 12:53
    हमें अभी कुछ करने की जरूरत है।
  • 12:53 - 12:56
    धन्यवाद।
  • 12:59 - 13:03
    (तालियां)
Title:
कैसे गहरे सच को कमजोर करते हैं और लोकतंत्र को खतरे में डालते हैं
Speaker:
डेनिएल सिट्रॉन्न
Description:

दुर्भावनापूर्ण उद्देश्यों के लिए वीडियो और ऑडियो में हेरफेर करने के लिए डीपफेक तकनीक का उपयोग - चाहे वह हिंसा को भड़काने या नेताओं और पत्रकारों को बदनाम करने के लिए हो - एक वास्तविक खतरा बन रहा है। जैसे-जैसे ये उपकरण और अधिक सुलभ होते जाते हैं और उनके उत्पाद अधिक यथार्थवादी होते जाते हैं, वे दुनिया के बारे में हमारे विश्वास को कैसे आकार देंगे? एक आकर्षक बातचीत में, कानून के प्रोफेसर डेनिएल सिट्रोन ने खुलासा किया कि कैसे डीफेक हमारे अविश्वास को बढ़ाते हैं - और सच्चाई की सुरक्षा के लिए दृष्टिकोण का सुझाव देते हैं।

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:16

Hindi subtitles

Revisions