چطور میتوانیم اینترنت را به فضای قابل اعتمادی تبدیل کنیم
-
0:02 - 0:04مهم نیست چه کسی هستید
و یا کجا زندگی میکنید، -
0:04 - 0:06حدس میزنم شما هم
حداقل یک دوست یا آشنایی دارید که -
0:06 - 0:09دوست دارد چنین پیامهایی را
برای شما ارسال کند. -
0:09 - 0:11میدانید کدام پیامها را میگویم،
-
0:11 - 0:14پیامهایی که شامل ادعاهای مشکوک
و فیلمهای توطئه آمیز هستند. -
0:14 - 0:17و احتمالاً به خاطرِ
به اشتراک گذاشتن چنین مطالبی، -
0:17 - 0:19آنها را در فیسبوکتان بی صدا کردهاید.
-
0:19 - 0:21این تصویر یک موز است
-
0:21 - 0:23که از وسط آن،
صلیب قرمز عجیبی گذشته است. -
0:23 - 0:26و متنی در بالای آن،
که به مردم هشدار میدهد -
0:26 - 0:28هرگز میوههایی مانند این را نخورند،
-
0:28 - 0:30چراکه آنها را با خونی آلوده کردهاند،
-
0:30 - 0:32که حاوی ویروس اچآیوی است.
-
0:32 - 0:35و پیام نوشته شده در بالای آن
تأکید زیادی دارد که، -
0:35 - 0:37«برای نجات انسانها،
پیام را به اشتراک بگذارید.» -
0:38 - 0:41با اینکه محققان سالهاست
شایعه بودن این خبر را تائید کردهاند، -
0:41 - 0:44اما این یکی از آن شایعاتی است که
هرگز از بین نمیرود. -
0:44 - 0:45یک شایعهی زامبی!
-
0:46 - 0:48و مطمئن هستیم که کاملاً اشتباه است.
-
0:48 - 0:51ممکن است به چنین مثالی بخندید، و بگویید،
-
0:51 - 0:53«به هر حال چه کسی این را باور میکند؟»
-
0:53 - 0:55اما دلیل برگشتن دوباره این شایعه،
این است که -
0:55 - 0:59عمیقترین ترسهای انسانها را
در مورد سلامتی خودشان و عزیزانشان، -
0:59 - 1:01مورد هدف قرار میدهد.
-
1:02 - 1:05و اگر به اندازهی من، زمانتان را
صرف بررسی اطلاعات جعلی کرده باشید، -
1:05 - 1:08میفهمید که این تنها
یک نمونه از بیشمار خبری است که -
1:08 - 1:11به ترسها و آسیبپذیریهای
عمیق مردم حمله میکند. -
1:11 - 1:16هر روزه در سراسر جهان،
شاهد جوکهای زیادی در اینستاگرام هستیم، -
1:16 - 1:19که والدین را تشویق میکند
به کودکانشان واکسن نزنند. -
1:19 - 1:23فیلمهای زیادی در یوتیوب توضیح میدهند که
چرا گرمایش زمین برای گول زدن ماست، -
1:23 - 1:28و در همهی شبکههای اجتماعی،
مطالب بیشماری میبینیم که ساختهشدهاند، -
1:28 - 1:31تا بر اساس نژاد، مذهب یا جنسیت،
دیگران را قضاوت و سرزنش کنند. -
1:32 - 1:35به یکی از اساسیترین
چالشهای عصر ما خوش آمدید. -
1:36 - 1:40چگونه میتوانیم اینترنتی بسازیم که
در بطن آن، آزادی بیان وجود داشته باشد، -
1:40 - 1:43اما مطمئن باشیم مطالبی که
در آن منتشر میشوند، -
1:43 - 1:47به دموکراسی، اقلیتها
و سلامت جسم و روانمان، -
1:47 - 1:49آسیبهای جبرانناپذیری نمیزنند؟
-
1:50 - 1:52از آنجا که ما در عصر اطلاعات
زندگی میکنیم، -
1:52 - 1:56ارز رایجی هست که همه
به آن وابستهایم -یعنی اطلاعات- -
1:56 - 1:58اما دیگر، کاملاً قابل اعتماد
به نظر نمیرسد -
1:58 - 2:00و در مواقعی میتواند بسیار خطرناک عمل کند.
-
2:01 - 2:05علت آن رشد غیرقابلکنترلِ
پلتفرمهای اجتماعی متعددی است که -
2:05 - 2:06به ما اجازه میدهند در میانِ
-
2:06 - 2:09خبرهایی بگردیم که
حقیقت و دروغ در آنها مخلوط شدهاند، -
2:09 - 2:12اما هیچ یک از نشانههای مرسوم
اعتمادپذیری وجود ندارد. -
2:12 - 2:16و شکر خدا، اصطلاحاتمان هم در این زمینه
به طرز وحشتناکی بههمریخته است. -
2:16 - 2:19مردم هنوز به عبارت
«اخبار جعلی» توجه نشان میدهند، -
2:19 - 2:22با اینکه در اکثر مواقع هیچ کمکی نمیکند،
-
2:22 - 2:25و برای توصیف چیزهای
بسیار متفاوتی استفاده میشود: -
2:25 - 2:28دروغ، شایعه، فریب، توطئه، پروپاگاندا.
-
2:29 - 2:32و من آرزو میکنم که بتوانیم
استفاده از این عبارت را متوقف کنیم. -
2:32 - 2:35عبارتی که سیاستمداران همه احزاب
در سراسر دنیا -
2:35 - 2:36توافق کردهاند که از آن
-
2:36 - 2:39برای حمله به رسانههای آزاد
و مستقل استفاده کنند. -
2:40 - 2:45(تشویق حضار)
-
2:45 - 2:48چراکه ما بیش از هر زمان دیگری
به رسانههای خبری حرفهای نیاز داریم. -
2:49 - 2:52و علاوه بر آن، بیشتر این محتوا
حتی شبیه به اخبار هم نیست، -
2:52 - 2:55بلکه کمیک، ویدیو و پستهای اجتماعی است.
-
2:55 - 2:58و بیشتر آنها کاملاً جعلی نیست؛
بلکه تنها گمراهکننده است. -
2:58 - 3:01ما سعی داریم ثابت کنیم
چه چیزی درست یا غلط است. -
3:01 - 3:05اما در واقع بزرگترین نگرانی،
تبدیل این مسئله به یک سلاح است. -
3:07 - 3:09چراکه مؤثرترین نمونههای شایعات،
-
3:09 - 3:12همواره مواردی بودهاند که
در پوستهای از حقیقت قرار داشتهاند. -
3:12 - 3:15بیایید این مثال از ماه مارس سال ۲۰۱۷،
در لندن را ببینیم: -
3:15 - 3:17یک توییت، که بسیار هم دیده شد،
-
3:17 - 3:21بعد از یک واقعهی تروریستی
بر روی پل «وستمینیستر». -
3:21 - 3:23این یک عکس واقعی است، و نه تقلبی.
-
3:23 - 3:26زنی در این عکس دیده میشود،
که بعداً با او مصاحبه شد، -
3:26 - 3:28و توضیح داد که در زمان حادثه
کاملاً شوکه شده بود. -
3:28 - 3:30او در حال صحبت کردن
با یکی از عزیزانش بوده، -
3:30 - 3:33و به منظور حفظ احترام،
به قربانی نگاه نمیکرد. -
3:33 - 3:37اما این عکس، همچنان با نگاهی
اسلامستیزانِ در حال پخش شدن بود. -
3:37 - 3:40با چندین هشتک مانند #BanIslam.
-
3:40 - 3:43خب اگر شما در توییتر کار میکردید
چه کار میکردید؟ -
3:43 - 3:45آن را حذف میکردید؟
یا همینطور که هست رهایش میکردید؟ -
3:47 - 3:50واکنش لحظهای و احساسی من
این است که آن را حذف کنم. -
3:50 - 3:52من طرز نگاه این تصویر را، نمیپسندم.
-
3:53 - 3:55اما آزادی بیان یک حق انسانی است.
-
3:55 - 3:58و اگر ما شروع کنیم به حذف کردنِ
هر سخنی که برایمان ناخوشایند است، -
3:58 - 3:59به مشکل برمیخوریم.
-
3:59 - 4:02و در این نمونه، ممکن است
تصمیم واضح به نظر برسد، -
4:02 - 4:04اما، بیشتر موارد اینطور نیستند.
-
4:04 - 4:06مشخص کردن مرزها کار بسیار سختی است.
-
4:06 - 4:08تصمیم درست از نظر یک نفر،
-
4:08 - 4:10ممکن است از نظر فرد دیگری
سانسور مطلق باشد. -
4:11 - 4:14چیزی که الآن میدانیم، این است که،
این کاربر «Texas Lone Star» -
4:14 - 4:17بخشی از یک کمپین بزرگ روسی
برای انتشار اطلاعات نادرست بوده، -
4:17 - 4:19که از آن زمان با آن مقابله شده است.
-
4:19 - 4:21آیا این نظرتان را عوض میکند؟
-
4:21 - 4:22نظر من را که عوض میکند،
-
4:23 - 4:25زیرا حالا با یک کمپینِ
سازمانیافته طرف هستیم، -
4:25 - 4:26که هدفش ایجاد دعوا است.
-
4:26 - 4:28و برای بعضی از شما،
که دوست دارید فکر کنید -
4:28 - 4:31که هوش مصنوعی
همه مشکلات را حل خواهد کرد، -
4:31 - 4:33فکر میکنم با هم توافق داریم که
تا سطحی از هوش مصنوعی -
4:33 - 4:36که قادر باشد چنین پستهایی را
تشخیص دهد، فاصلهی زیادی داریم. -
4:37 - 4:39من قصد دارم ۳ مشکل مرتبط را شرح دهم،
-
4:39 - 4:42که این کار را بسیار پیچیده میکنند.
-
4:42 - 4:45و سپس راهحلهایی برای فکر کردن
در مورد این مشکلات پیشنهاد دهم. -
4:45 - 4:49اول از همه، ما تنها
رابطهی منطقی با اطلاعات نداریم، -
4:49 - 4:51این یک ارتباط احساسی است.
-
4:51 - 4:55مشاهده حقایق بیشتر، مشکل را حل نمیکند،
-
4:55 - 4:58زیرا الگوریتمهایی که محتوایی را
که میبینیم، انتخاب میکنند، -
4:58 - 5:01طوری طراحی شدهاند که
به پاسخهای احساسی ما جایزه بدهند. -
5:01 - 5:02و زمانی که ما ترسیده باشیم،
-
5:02 - 5:05روایتهای سادهشده، توضیحات توطئه آمیز،
-
5:05 - 5:09و متهم کردن دیگران
بسیار مؤثرتر عمل میکنند. -
5:10 - 5:11علاوه بر آن، بسیاری از این کمپانیها،
-
5:11 - 5:14حیاتی وابسته به توجه دارند.
-
5:14 - 5:18و به این معناست که این الگوریتمها،
همواره به سمت احساسات متمایل خواهند بود. -
5:18 - 5:23دوم، بیشترِ مطالبی که من در موردشان
صحبت میکنم، موارد قانونی هستند. -
5:23 - 5:25اگر در موردِ مطالبی حرف میزدم که
-
5:25 - 5:28مربوط به سوءاستفادهی جنسی از کودکان
یا ترویج کنندهی خشونت هستند، -
5:28 - 5:29اوضاع بسیار فرق میکرد.
-
5:29 - 5:32اما انتشار دروغی آشکار، کاملاً قانونی است.
-
5:33 - 5:37مردم همواره از حذف کردنِ
مطالب مشکلساز و آسیبزا صحبت میکنند، -
5:37 - 5:40اما تعریف دقیق و مشخصی
از آن ارائه نمیدهند، -
5:40 - 5:41ازجمله «مارک زاکربرگ»
-
5:41 - 5:45که اخیراً خواستار وضع مقررات جهانی
برای تعدیل صحبتها شد. -
5:45 - 5:47و نگرانی من این است که میبینیم دولتها
-
5:47 - 5:48در همه جای جهان
-
5:48 - 5:51عجولانه در حال گرفتن تصمیمهایی هستند که
-
5:51 - 5:54ممکن است تبعاتی بسیار جدی
در پی داشته باشد -
5:54 - 5:56بهخصوص اکنونکه موضوع،
صحبت کردن ماست. -
5:56 - 6:00و اگر میتوانستیم تصمیم بگیریم کدام سخن را
نگهداریم و کدامیک را حذف کنیم، -
6:00 - 6:02هرگز این حجم از مطالب را نداشتیم.
-
6:02 - 6:04در هر ثانیه میلیونها عکس و متن
-
6:04 - 6:06توسط افراد مختلف در جهان آپلود میشود
-
6:06 - 6:07به زبانهای متفاوت،
-
6:07 - 6:10و با هزاران زمینه فرهنگی متفاوت.
-
6:10 - 6:13ما هرگز روش مناسبی
-
6:13 - 6:15برای تعدیل کردن این حجم از صحبتها را
-
6:15 - 6:17چه به وسیله انسان و
چه کامپیوتر، نداشتهایم. -
6:18 - 6:22و سوم، این کمپانیها
مانند گوگل، توییتر، فیسبوک و واتساپ -
6:22 - 6:25بخشی از اکوسیستم اطلاعاتی بزرگتری هستند.
-
6:25 - 6:28ما علاقه داریم همهی تقصیرها را
گردن آنها بیندازیم، -
6:28 - 6:32اما در حقیقت رسانههای جمعی
و مقامات رسمی هنگامیکه بخواهند، -
6:32 - 6:36میتوانند نقشی به همان مقدار
در تشدید شایعات و توطئهها داشته باشند. -
6:36 - 6:41همانقدرهم، ما میتوانیم بدون هیچ تلاشی،
با بازپخش کردن چشمبسته مطالب گمراهکننده -
6:41 - 6:42نقش داشته باشیم.
-
6:42 - 6:44ما هم داریم این آلودگی را اضافه میکنیم.
-
6:45 - 6:48همهی ما به دنبال یک راهحل ساده هستیم.
-
6:48 - 6:50اما چنین راهی وجود ندارد.
-
6:50 - 6:54هر راهحلی لازم است در مقیاس بزرگی
بهاندازهی اینترنت اعمال شود. -
6:54 - 6:58و بله، پلتفرمها در این سطح عمل میکنند.
-
6:58 - 7:01اما آیا میتوانیم و خوب است که
به آنها اجازه حل این مشکل را بدهیم؟ -
7:02 - 7:03آنها در حال تلاش هستند.
-
7:03 - 7:07اما بیشتر ما، مایل نیستیم
این شرکتهای بینالمللی -
7:07 - 7:09محافظان حقیقت و عدالت
در فضای آنلاین باشند. -
7:09 - 7:12و فکر میکنم خود این پلتفرمها هم
با من همنظر باشند. -
7:12 - 7:15هماکنون آنها در حالِ
نمره دادن به تکالیف خودشان هستند. -
7:15 - 7:16آنها دوست دارند بگویند که
-
7:16 - 7:18مداخلههایشان تابهحال جواب داده است،
-
7:18 - 7:21اما از آنجا که آنها
گزارش شفافیت خودشان را میدهند، -
7:21 - 7:25راهی نیست که ما مستقیماً بفهمیم
واقعاً چه اتفاقی در حال افتادن است. -
7:26 - 7:30(تشویق حضار)
-
7:30 - 7:33و بگذارید این را هم صراحتاً بگویم
بیشتر تغییراتی که میبینیم، -
7:33 - 7:36زمانی اتفاق میافتند که
روزنامهنگاران دست به تحقیقات میزنند -
7:36 - 7:37و مدارکی نشاندهنده جانبداری
-
7:37 - 7:40یا محتوای ناقض قواعد اجتماعی پیدا میکنند.
-
7:41 - 7:45بله، این کمپانیها باید نقش مهمی
در این جریان داشته باشند، -
7:45 - 7:47اما نمیتوانند آن را کنترل کنند.
-
7:48 - 7:49در مورد دولتها چطور؟
-
7:50 - 7:53بسیاری از مردم فکر میکنند
که مقررات جهانی، -
7:53 - 7:56بهمنظور تمیز کردن فضای اطلاعاتی،
آخرین امید ما باشند. -
7:56 - 7:58اما قانونگذارانی که من میبینم،
-
7:58 - 8:01قادر نیستند پابهپای تغییراتِ
سریع تکنولوژی حرکت کنند. -
8:01 - 8:03و بدتر اینکه آنها در تاریکی حرکت میکنند.
-
8:03 - 8:05چراکه دسترسی کافی به دادهها ندارند
-
8:05 - 8:08که بفهمند در این پلتفرمها
دقیقاً چه اتفاقی میافتند. -
8:08 - 8:11و از طرفی، ما به کدام دولت اعتماد میکنیم
که چنین کاری را انجام دهد؟ -
8:11 - 8:14ما به یک پاسخ بینالمللی نیاز داریم،
نه یک پاسخ ملی. -
8:15 - 8:18پس حلقه گم شده خود ما هستیم.
-
8:18 - 8:21ما مردمی که روزانه
از این تکنولوژیها استفاده میکنیم. -
8:21 - 8:26آیا میتوانیم زیرساخت تازهای بنا کنیم
که از کیفیت اطلاعات حمایت کند؟ -
8:26 - 8:28من باور دارم که میتوانیم،
-
8:28 - 8:31و چند ایده دارم که در عمل
چهکاری میتوانیم انجام دهیم. -
8:31 - 8:34اول از همه، اگر ما قصد داریم
مردم را در این کار داخل کنیم، -
8:34 - 8:37آیا میتوانیم از ویکیپدیا انگیزه بگیریم؟
-
8:37 - 8:38آنها نشان دادند که چهکاری ممکن است.
-
8:38 - 8:40بله، این کار بینقص نیست،
-
8:40 - 8:42اما آنها نشان دادهاند با زیرساخت مناسب،
-
8:42 - 8:44با چشماندازی جهانی،
و شفافیتی فوقالعاده، -
8:44 - 8:48میتوان چیزی ساخت که
اعتماد اکثر مردم را جلب کند. -
8:48 - 8:51زیرا ما باید راهی برای
کمک گرفتن از خِردِ جمعی -
8:51 - 8:53و تجربیات همهی کاربران پیدا کنیم.
-
8:54 - 8:56بهخصوص از طریق زنان، رنگینپوستان
-
8:56 - 8:58و گروههایی که در اقلیت هستند.
-
8:58 - 8:59حدس میزنید چرا؟
-
8:59 - 9:01چون این افراد متخصص اطلاعات نادرست
و نفرت پراکنی هستند، -
9:02 - 9:05چراکه سالهاست هدفِ
چنین کمپینهایی بودهاند. -
9:05 - 9:07و در طی سالها پرچمدارِ
این مبارزات بودهاند، -
9:07 - 9:09و به آنها گوش داده نشده است.
-
9:09 - 9:10این باید تغییر کند.
-
9:11 - 9:15آیا میتوانیم یک ویکیپدیا
از افراد مورد اعتماد بسازیم؟ -
9:15 - 9:19آیا میتوانیم راهی پیدا کنیم که کاربران
-
9:19 - 9:23در مورد تصمیمگیریهای دشوار
برای تعدیل محتوا نظر بدهند. -
9:23 - 9:25اگر پلتفرمی تصمیم بگیرد که
-
9:25 - 9:28تغییرات جدیدی اعمال کند،
آنها میتوانند بازخورد بدهند. -
9:28 - 9:32دوم آنکه تجربه افراد از اطلاعات،
شخصیسازی شده است. -
9:32 - 9:35خبرهای فیسبوک من با شما بسیار تفاوت دارد.
-
9:35 - 9:38پیشنهادهای یوتیوب شما با من متفاوت است.
-
9:38 - 9:40بنابراین عملاً غیرممکن است بررسی کنیم که
-
9:40 - 9:42چه کسی چه اطلاعاتی را مشاهده میکند.
-
9:43 - 9:44پس آیا میتوانید تصور کنید
-
9:44 - 9:49یک مجموعه متمرکز
و منبع باز از دادههای ناشناس -
9:49 - 9:52با رعایت محرمانگی
و حساسیتهای اخلاقی جمعآوری کنیم؟ -
9:52 - 9:54فکر کنید چه چیزهایی میتوانیم بفهمیم،
-
9:54 - 9:57اگر یک شبکهی جهانی،
از شهروندان نگرانی بسازیم که -
9:57 - 10:01دوست دارند دادههای
شبکههای اجتماعیشان را وقف علم کنند. -
10:01 - 10:03چراکه ما واقعاً خیلی کم
-
10:03 - 10:06در مورد آثار درازمدتِ
نفرت پراکنی و اطلاعات اشتباه -
10:06 - 10:08روی دیدگاهها و رفتارهای مردم، میدانیم.
-
10:08 - 10:09و آنچه میدانیم نیز،
-
10:09 - 10:12عمدتاً در ایالاتمتحده بررسی شده است،
-
10:12 - 10:14بدون توجه به اینکه
این یک مشکل جهانی است. -
10:14 - 10:16لازم است روی این مشکل هم کار کنیم.
-
10:16 - 10:17و سوم،
-
10:17 - 10:20راهی هست که نهادهای مختلف
را به هم متصل کنیم؟ -
10:20 - 10:23هیچ نهادی، اعم از غیرانتفاعی،
استارتآپ و یا دولت، -
10:23 - 10:25این مشکل را حل نخواهد کرد.
-
10:25 - 10:27اما افراد بسیار باهوشی سرتاسر جهان،
-
10:27 - 10:29روی این مشکلات کار میکنند،
-
10:29 - 10:32از خبرنگاران، جوامع مدنی،
دانشگاهیان و اکتیویستها -
10:32 - 10:34که تصویر تعدادی از آنها را
مشاهده میکنید. -
10:34 - 10:37بعضی از آنها در حال ایجاد
شاخصهای اعتبار محتوا هستند. -
10:37 - 10:38برخی در حال چک کردن حقایق،
-
10:38 - 10:42تا ادعاها، تصاویر و فیلمهای نادرست
توسط پلتفرمها محدود شوند. -
10:42 - 10:44نهاد غیرانتفاعی به نام «فرست درفت»
که در تأسیس آن کمک کردم، -
10:44 - 10:47سعی میکند با کمک
خبرگزاریهای مختلف سراسر جهان، -
10:47 - 10:51برنامههای تحقیقاتی مشترکی راهاندازی کند.
-
10:51 - 10:54و «دنی هیلیس»، یک معمار نرمافزار،
-
10:54 - 10:56در حال طراحی یک سیستم جدید
به نام «آندرلی» است، -
10:56 - 10:58که یک بانک اطلاعاتی،
برای اظهارات عمومی از حقایق -
10:58 - 11:00و اتصال آنها به منبعشان خواهد بود.
-
11:00 - 11:04تا انسانها و الگوریتمها بهتر بتوانند
موارد معتبر را تشخیص دهند. -
11:05 - 11:08و معلمانی از کشورهای مختلف
روشهای مختلفی را آزمایش میکنند، -
11:08 - 11:12تا به مردم یاد دهند نگاهی انتقادی
به مطالبی که مصرف میکنند داشته باشند. -
11:13 - 11:16همه این تلاشها عالیاند، اما هر کدام
به دور از سایرین انجام میشود، -
11:16 - 11:18و بسیاری از آنها کسری بودجه
قابلتوجهی دارند. -
11:19 - 11:21همچنین صدها انسان بسیار باهوش
-
11:21 - 11:22در این کمپانیها کار میکنند،
-
11:22 - 11:25اما باز هم، این تلاشها ممکن است
ایزوله احساس شوند، -
11:25 - 11:29زیرا به دنبال راهحلهای مختلفی
برای یک مشکل یکسان هستند. -
11:29 - 11:31چگونه میتوانیم راهی بیابیم که این افراد
-
11:31 - 11:35برای چند روز یا چند هفته
در مکانی دور هم جمع شوند، -
11:35 - 11:37تا بتوانند به کمک یکدیگر
با این مشکل مقابله کنند -
11:37 - 11:39اما هر یک از دیدگاه خودشان؟
-
11:39 - 11:40آیا از عهده این کار برمیآییم؟
-
11:40 - 11:44میتوانیم یک پاسخ بلندپروازانِ همگانی،
-
11:44 - 11:47متناسب برای مسئلهای
با این ابعاد و پیچیدگی پیدا کنیم؟ -
11:48 - 11:49من فکر میکنم، بله.
-
11:49 - 11:52بیایید با کمک همدیگر،
فضای اطلاعاتیمان را بازسازی کنیم. -
11:53 - 11:54متشکرم.
-
11:54 - 11:58(تشویق حضار)
- Title:
- چطور میتوانیم اینترنت را به فضای قابل اعتمادی تبدیل کنیم
- Speaker:
- کلر واردل
- Description:
-
چطور میتوانیم جلوی پخش شدن محتوای نادرست و حتی خطرناک در اینترنت را بگیریم درحالیکه آزادی بیان را در آن محدود نکرده باشیم؟ متخصص اطلاعات گمراهکننده، «کلر واردل» چالشهای جدید فضای مجازی آلودهی فعلی را بررسی میکند و پیشنهادهایی میدهد که اینترنت را با کمک کاربران روزانهاش به جایی قابل اعتماد تبدیل کنیم. او میگوید: «بیایید با هم، فضای اطلاعاتیمان را بازسازی کنیم.»
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Leila Ataei approved Persian subtitles for How you can help transform the internet into a place of trust | ||
Leila Ataei edited Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi accepted Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi edited Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi edited Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi edited Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi edited Persian subtitles for How you can help transform the internet into a place of trust | ||
Masood Mousavi edited Persian subtitles for How you can help transform the internet into a place of trust |