فیسبوک عزیز، اینگونه دموکراسی را از بین میبری
-
0:01 - 0:03تقریبا پنج سال قبل،
-
0:03 - 0:05متوجه شدم که توانایی
-
0:05 - 0:08برقراری ارتباط با کسانی که با من
همفکرنیستند ندارم. -
0:09 - 0:13ایدهی بحث در مورد موضوعات جنجالی
با دوستان آمریکاییام -
0:13 - 0:15به من احساس ناراحتی بیشتری
-
0:15 - 0:19نسبت به اوقاتی که با افراطیهای مشکوک
خارجی در ارتباط بودم میداد. -
0:20 - 0:23به من حس ناخشنودی و درماندگی میداد.
-
0:23 - 0:25و به همین شکل،
-
0:25 - 0:27تمامی تمرکزم را
-
0:27 - 0:29از تهدیدهای امنیت ملی جهانی
-
0:29 - 0:32به تلاش برای فهمیدن علت این فشار
-
0:32 - 0:36به سمت دوگانگی مفرط در خانه تغییر دادم.
-
0:36 - 0:38به عنوان یک افسر سابق سی آی ای
و دیپلماتی که -
0:38 - 0:41سالها بر روی مسائل مقابله با افراطی گرایی
کار کردم، -
0:41 - 0:45ترسیدم که این مسئله در حال تبدیل به
تهدیدی بسیار بزرگتر -
0:45 - 0:48از هر دشمن خارجی برای
دموکراسیمان باشد. -
0:48 - 0:50بنابراین شروع به تحقیق کردم،
-
0:50 - 0:51و عقایدم را بیان کردم،
-
0:51 - 0:54که سرانجام مرا به استخدام شدن
در فیس بوک -
0:54 - 0:57و در نهایت به امروز و اینجا رساند
-
0:57 - 1:00تا به شما درباره اینکه چگونه این شبکهها
-
1:00 - 1:04در حال سوء استفاده و افراطی کردن
بسیاری از ما هستند هشدار دهم -
1:04 - 1:07و درباره چگونگی بازپسگیری افکار
عمومیمان صحبت کنم. -
1:08 - 1:10من یک افسر خدمات خارجی در کنیا بودم
-
1:10 - 1:13تنها چند سال پس از حملات ۱۱ سپتامبر،
-
1:13 - 1:15و کمپینی که برخی آن را
«قلبها و ذهنها» مینامیدند -
1:15 - 1:17در امتداد مرز سومالی
هدایت میکردم. -
1:17 - 1:21قسمت بزرگی از شغل من ایجاد
اعتماد در جوامعی که -
1:21 - 1:23که حساسترین قسمت برای پیامهای
افراطی تلقی میشدند بود. -
1:24 - 1:28ساعاتی را با نوشیدن چای با روحانیون
صریح ضد-غربی صرف میکردم -
1:28 - 1:32و حتی با برخی تروریستهای
مشکوک گفتگو کردم، -
1:32 - 1:35وبا اینکه بسیاری از این تعاملات
با سوءظن مشترک آغاز شد، -
1:35 - 1:39به یاد نمیآورم که هیچ کدام از آنها
منجر به فریاد یا توهین شده باشد، -
1:39 - 1:43وحتی در برخی موارد در کنار هم
بر روی علایق مشترک کار کردیم. -
1:44 - 1:48نیرومندترین ابزاری که داشتیم صرفا
گوش دادن، آموختن -
1:48 - 1:50و ایجاد همدردی بود.
-
1:50 - 1:53این اساس کار قلبها و ذهنهاست،
-
1:53 - 1:56زیرا چیزی که بارها آن را یافتم
این بود که بیشتر مردم -
1:56 - 2:00میخواهند حس کنند که شنیده شدهاند،
تایید شدهاند و محترم شمرده میشوند. -
2:00 - 2:03و معتقدم این چیزی است که اکثر
ما خواستار آن هستیم. -
2:03 - 2:06مشاهده آنچه که امروز در فضای آنلاین اتفاق
می افتد بسیار دلخراش است -
2:06 - 2:08و حل کردن آن یک مسئله دشوارتر است.
-
2:09 - 2:13ما توسط اکوسیستم اطلاعات موجود
تحت تاثیر قرار داده میشویم -
2:13 - 2:16که بسیاری از ما را به حدی در استبداد
و دیکتاتوری محصور کرده -
2:16 - 2:19که سازش به کلمهای کثیف تبدیل شده است.
-
2:20 - 2:21چرا که هماکنون،
-
2:21 - 2:23شرکتهای شبکههای اجتماعی مثل فیس بوک
-
2:23 - 2:27با دستهبندی و رساندن محتویات شخصیسازی
شده به ما سود میبرند -
2:27 - 2:31که جهتگیریهایمان را معتبر
و مخدوش میکند. -
2:31 - 2:34هدف نهایی آنها به برانگیختن یک
احساس قدرتمند بستگی دارد -
2:34 - 2:36که ما را سرگرم نگه دارد،
-
2:36 - 2:40اغلب مشوق آشوب انگیزترین و
متضادترین نظراتمان هستند، -
2:40 - 2:45تا جایی که یافتن نقاط مشترک
امکان پذیر نباشد. -
2:45 - 2:49و علی رغم وجود گروههای در حال رشد مردم
که به شدت خواستار تغییر این رسانهها هستند -
2:49 - 2:52واضح است که آنها به تنهایی
کاری از پیش نخواهند برد. -
2:52 - 2:55بنابراین دولت باید مسئولیتهایی
-
2:55 - 2:59برای صدمات وارده بر دنیای واقعی توسط
این مدلهای تجاری مشخص کند -
2:59 - 3:02و هزینههای واقعی برای آثار مخربی که
-
3:02 - 3:07آنها بر روی سلامت اجتماعی، افکار عمومی
و مردم سالاریمان تحمیل کند. -
3:07 - 3:12اما متاسفانه، این موضوع در زمان انتخابات
ریاست جمهوری آمریکا اتفاق نمیافتد، -
3:12 - 3:15بنابراین به هشدار دادن ادامه میدهم،
-
3:15 - 3:18چون حتی اگر روزی قوانین قدرتمندی
به جای قوانین فعلی داشته باشیم، -
3:18 - 3:20به همه ما برای حل این موضوع نیاز است.
-
3:21 - 3:24وقتی تغییر تمرکز خود را از تهدیدهای خارجی
-
3:24 - 3:26به اختلال گفتگوی مدنی در خانه آغاز کردم،
-
3:26 - 3:30فکر کردم آیا میتوانیم برخی از این
کمپینهای قلبها و ذهنها را به منظور -
3:30 - 3:32حل اختلافاتمان مجددا هدف گذاری کنیم.
-
3:32 - 3:36تجربه بیش از ۲۰۰ ساله ما
در زمینه مردم سالاری -
3:36 - 3:40تا حد زیادی نتیجه بخش است چرا که
ما آمادهایم تا با صراحت و اشتیاق -
3:40 - 3:43در مورد ایدههایمان برای رسیدن
به بهترین راه حل بحث کنیم. -
3:43 - 3:45اما با اینکه من عمیقا به
-
3:45 - 3:47قدرت گفتمان مدنی رو در رو معتقدم،
-
3:47 - 3:49ولی در حال حاضر توانایی رقابت با
-
3:49 - 3:53اثرات متضاد و صعود رسانه های اجتماعی
را ندارد. -
3:53 - 3:55افرادی که به دام این لانههای خرگوش
-
3:55 - 3:56خشم شبکههای اجتماعی
-
3:56 - 4:00میافتند اغلب دشواری بیشتری در تغییر
نگرش ایدئولوژیک خود -
4:00 - 4:03نسبت به جوامع آسیب پذیری که
تا به حال با آنها کار کردم احساس میکنند. -
4:04 - 4:06بنابراین وقتی فیس بوک در
سال ۲۰۱۸ با من تماس گرفت -
4:06 - 4:07و به من وظیفهی
-
4:07 - 4:11هدایت عملیات مربوط به سلامت انتخابات خود
برای تبلیغات سیاسی را پیشنهاد داد، -
4:11 - 4:13حس کردم که باید قبول کنم.
-
4:13 - 4:16این توهم را نداشتم که همه چیز
را درست میکنم، -
4:16 - 4:18اما وقتی فرصتی فراهم شد
-
4:18 - 4:20برای کمک به هدایت کشتی به سمت و سویی بهتر
-
4:20 - 4:21حداقل باید سعی میکردم.
-
4:23 - 4:25من به طور مستقیم روی تضاد و
دوگانگی کار نکردم، -
4:25 - 4:29اما نفاقانگیزترین مسائل موجود در
جامعهمان -
4:29 - 4:33و طبعاً پرنفوذترین عوامل در تلاشهای
دخالت در انتخابات را بررسی کردم، -
4:33 - 4:36که تاکتیک روسیه پیش از سال ۲۰۱۶ بود.
-
4:37 - 4:39بنابراین من کار را با پرسیدن
سوالات آغاز کردم. -
4:39 - 4:42میخواستم درباره موضوعات اساسی سیستمی
-
4:42 - 4:44که اجازه رخداد این اتفاقات
را میداد را بفهمم. -
4:44 - 4:46تا راهی برای برطرف کردنشان پیدا کنم.
-
4:48 - 4:50من همچنان به قدرت اینترنت
-
4:50 - 4:53برای فراهم سازی صداهای
بیشتردر صحنه باور دارم، -
4:53 - 4:56اما علی رغم هدف بیان شده آنها
برای تشکیل جوامع، -
4:56 - 4:59بزرگترین کمپانیهای شبکههای اجتماعی
که اخیرا ساخته شدهاند -
4:59 - 5:03مخالف مفهوم گفتمان منطقی هستند.
-
5:03 - 5:05هیچ راهی برای پاداش دادن
به گوش دادن، -
5:05 - 5:07برای تشویق بحث مدنی
-
5:07 - 5:11و محافظت از مردمی که میخواهند
محترمانه سوالاتی بپرسند وجود ندارد -
5:11 - 5:14در تجارتی که بهینه سازی مشارکت
و افزایش کاربر -
5:14 - 5:17دو معیار مهم برای موفقیت است.
-
5:17 - 5:21هیچ انگیزهای برای کمک به
آرام کردن مردم وجود ندارد، -
5:21 - 5:24برای ساختن اصطکاک کافی که
مردم مجبور به توقف شوند، -
5:24 - 5:27عکسالعمل احساسی خود به چیزی را بشناسند،
-
5:27 - 5:29و پیش از درگیر شدن فرضیات خودشان
را زیر سوال ببرند. -
5:31 - 5:33واقعیت ناخوشایند این است:
-
5:33 - 5:36در فضای آنلاین دروغ از حقیقت جذابتر است.
-
5:36 - 5:39و وقاحت استدلال بیثبات و مبتنی بر حقایق
را شکست میدهد -
5:39 - 5:42در جهانی که برای گسترش بدون
دردسر بهینه شده. -
5:43 - 5:47تا زمانی که هدف الگوریتمها
سرگرم نگه داشتن ما باشد، -
5:47 - 5:51آنها سمی را به خورد ما میدهند که
از بدترین غرایزمان سوء استفاده میکند -
5:51 - 5:52و ضعفهای بشری.
-
5:53 - 5:56و بله، خشم، بیاعتمادی،
-
5:56 - 5:58فرهنگ ترس، نفرت:
-
5:58 - 6:01هیج یک از اینها در آمریکا جدید نیست.
-
6:01 - 6:04اما در سالهای اخیر، رسانههای اجتماعی
همه اینها را کنترل کرده -
6:04 - 6:08و به نظر من،
به طور چشمگیری تعادل را به هم زده است. -
6:08 - 6:10و فیس بوک این موضوع را میداند.
-
6:10 - 6:12مقاله اخیر «وال استریت ژورنال»
-
6:12 - 6:16ارائهای داخلی ازفیس بوک در
سال ۲۰۱۸ را منتشر کرد -
6:16 - 6:20که به ویژه به الگوریتمهای خود
کمپانی اشاره میکند -
6:20 - 6:23در پی افزایش حضور گروههای
افراطی در شبکههایشان -
6:23 - 6:26و برای ایجاد دودستگی بین کاربرانشان.
-
6:27 - 6:30اما آنها با سرگرم کردن ما
درآمد کسب میکنند. -
6:30 - 6:35محیط اطلاعاتی مدرن پیرامون
مشخصات ما شکل گرفته -
6:35 - 6:38و سپس ما را به دستهبندیهای
کوچکتر تقسیم بندی میکند -
6:38 - 6:41تا فرایند شخصی سازی تکمیل شود.
-
6:41 - 6:45سپس با اطلاعاتی که مطابق نظرمان
هستند بمباران میشویم. -
6:45 - 6:47جهتگیریهایمان را تقویت میکنند،
-
6:47 - 6:50و به ما این حس را القا میکنند
که ما به چیزی تعلق داریم. -
6:50 - 6:54اینها همان روشهایی است که
به کار گیرندگان تروریست -
6:54 - 6:56روی جوانان آسیب پذیر به کار میبرند،
-
6:56 - 7:00هرچند با روشهایی کوچکتر و بومیتر
قبل از رسانههای اجتماعی، -
7:00 - 7:03با هدف نهایی پیشبرد رفتارشان.
-
7:03 - 7:08متاسفانه، هیچگاه توسط فیس بوک به من قدرتی
داده نشد تا تاثیری حقیقی بر جای بگذارم. -
7:08 - 7:12در واقع، در روز دومم، عنوان و
شرح وظایفم تغییر کرد -
7:12 - 7:15و از جلسات تصمیم گیری کنار گذاشته شدم.
-
7:15 - 7:16بزرگترین کوشش من ،
-
7:16 - 7:18تلاش برای ایجاد استراتژیهایی
-
7:18 - 7:21برای مبارزه با اطلاعات نادرست
و سرکوب رای دهندگان در تبلیغات سیاسی، -
7:22 - 7:23طرد شد.
-
7:23 - 7:26و بنابراین من فقط حدود شش ماه
در فیس بوک دوام آوردم. -
7:26 - 7:30اما بزرگترین نکته از زمان
حضورم در آنجا این است. -
7:30 - 7:32هزاران نفر در فیس بوک حضور دارند
-
7:32 - 7:34که مشتاقانه روی محصولی
-
7:34 - 7:38که واقعا ایمان دارند دنیا را به مکان
بهتری تبدیل میکند کار میکنند، -
7:38 - 7:42اما تا زمانی که این شرکت صرفاً
در حاشیه -
7:42 - 7:44سیاستهای محتوا و متعادل سازی
به کار خود ادامه دهد، -
7:44 - 7:46به جای در نظر گرفتن
-
7:46 - 7:49نحوه طراحی و درآمدزایی سیستم،
-
7:49 - 7:52هرگز چگونگی مشارکت
این رسانه در اشاعه -
7:52 - 7:57نفرت، تفرقه و افراطی گرایی
را کاملا حل نخواهند کرد. -
7:57 - 8:01و این مکالمهای است که در طی حضورم در آن
جا اتفاق نیفتاد، -
8:01 - 8:04چرا که این امر نیازمند پذیرش اساسی
-
8:04 - 8:08اینکه چیزی که ساختهاید ممکن
است برای جامعه بهترین نبوده -
8:08 - 8:11و موافقت با تغییر کلی محصول و
مدل سود آن میباشد. -
8:12 - 8:14پس در این باره چه میتوان کرد؟
-
8:15 - 8:19نمیگویم که تنها رسانههای اجتماعی مسئولیت
-
8:19 - 8:21دولتی که امروزه در آن هستیم
را بر عهده دارند. -
8:21 - 8:26واضح است که دارای مسائل اجتماعی
ریشهداری هستیم که باید رفع شوند. -
8:26 - 8:30اما پاسخ فیس بوک،
که آینهای برای جامعه است ، -
8:30 - 8:33تلاشی بیدردسر برای شانه خالی کردن
از هرگونه مسئولیت پذیری -
8:34 - 8:38درباره تقویت محتوای مضر
توسط رسانهاشان -
8:38 - 8:41و فشار آوردن به برخی کاربران
برای داشتن دیدگاهی افراطی است. -
8:42 - 8:44و فیس بوک اگر میخواست، میتوانست،
-
8:44 - 8:46برخی از این موارد را رفع کند.
-
8:46 - 8:50آنها میتوانند تقویت و توصیه
نظریه پردازان توطئه -
8:50 - 8:53گروههای نفرت،
تامینکنندگان اطلاعات نادرست، -
8:53 - 8:57و بله، در برخی موارد حتی رئیس جمهورمان را
متوقف کنند. -
8:57 - 9:00آنها میتوانند به کارگیری همان روشهای
شخصی سازی که برای -
9:00 - 9:04بیان الفاظ سیاسی استفاده میشود را در فروش
کفش های ورزشی به ما متوقف کنند. -
9:04 - 9:06میتوانند الگوریتمهایشان را برای
-
9:06 - 9:08تمرکز روی معیاری غیر از
مشارکت بازآموزی کنند، -
9:08 - 9:13آنها میتوانند موانعی برای جلوگیری
از محبوب شدن محتویات مشخص -
9:13 - 9:14پیش از بازبینی را ایجاد کنند.
-
9:15 - 9:17و آنها میتوانند همهی این موارد را
-
9:17 - 9:21بدون تبدیل شدن به آنچه که آن را
داوران حقیقت مینامند انجام دهند. -
9:21 - 9:24اما آنها به صراحت اعلام کردهاند که برای
انجام کار درست -
9:24 - 9:27به حد کافی پیش نخواهند رفت مگر با اجبار،
-
9:27 - 9:30و صادقانه بگویم، چرا باید چنین
کاری انجام دهند؟ -
9:30 - 9:34بازارها به آنها پاداش میدهند،
وآنها قانونی را نقض نمیکنند. -
9:34 - 9:35چرا که با وضعیت فعلی،
-
9:35 - 9:40هیچ قانونی در ایالات متحده وجود ندارد که
فیس بوک یا هر شرکت رسانه اجتماعی را مجبور، -
9:40 - 9:42به محافظت از افکار عمومیمان،
-
9:42 - 9:43مردم سالاریمان
-
9:43 - 9:46و حتی انتخاباتمان کند.
-
9:46 - 9:50ما از تصمیمگیری درباره وضع و اجرای
قوانین برای -
9:50 - 9:53مدیران عامل شرکتهای اینترنتی خصوصی
صرف نظر کردهایم. -
9:54 - 9:56این چیزی است که میخواهیم؟
-
9:56 - 9:59در یک جهان پساحقیقتگرا که
در آن منفیگرایی و قومیتگرایی -
9:59 - 10:02بر پل زدن بین انسانها غلبه کرده است؟
-
10:03 - 10:07من همچنان خوشبین هستم که نقاط
مشترک بیشتری -
10:07 - 10:10از رسانه فعلی و چیزی که محیط آنلاین
نشان میدهد، با یکدیگر داریم -
10:10 - 10:14و معتقدم که داشتن سطح چشمانداز بیشتر
-
10:14 - 10:17دموکراسی قویتر و فراگیرتر
را ایجاد می کند. -
10:17 - 10:20اما نه به شکلی که اکنون وجود دارد.
-
10:20 - 10:24و تاکید میکنم،
من نمیخواهم این شرکتها را از بین ببرم. -
10:24 - 10:28فقط میخواهم تا حد مشخصی پاسخگو باشند،
-
10:28 - 10:29مانند بقیه افراد جامعه.
-
10:31 - 10:35زمان آن فرا رسیده که دولتهایمان گام
بردارند و وظایف خود را برای -
10:35 - 10:37محافظت از شهروندان انجام دهند.
-
10:37 - 10:40و با وجود اینکه یک قانون جادویی وجود ندارد
-
10:40 - 10:41که همه این موارد را حل کند،
-
10:41 - 10:46من معتقدم که دولت میتواند و باید تعادلی
-
10:46 - 10:48بین محافظت از آزادی بیان
-
10:48 - 10:52و مسئول دانستن این رسانهها برای
تاثیراتشان در جامعه ایجاد کند. -
10:52 - 10:57و میتوانند با پافشاری بر روی شفافیت
حقیقی تا حدی این کار را انجام دهند -
10:57 - 11:00درباره چگونگی عملکرد سیستمهای
پیشنهاد کننده، -
11:00 - 11:05اینکه چگونه طبقهبندی، فزونسازی و
هدفگذازی اتفاق میافتد. -
11:05 - 11:07ببینید، میخواهم این شرکتها پاسخگو باشند
-
11:07 - 11:10نه به این علت که فردی اطلاعات نادرست
-
11:10 - 11:12یا سخنان افراطی منتشر کرده،
-
11:12 - 11:15بلکه برای چگونگی گسترش آن محتویات توسط
سرویسهای پیشنهاد کنندهاشان، -
11:16 - 11:19اینکه چگونه الگوریتمهایشان مردم را به
سمت آن محتویات هدایت میکنند، -
11:19 - 11:22و چگونه از ابزارهایشان برای هدف
قرار دادن مردم استفاده میکنند. -
11:23 - 11:27سعی کردم در فیس بوک تغییر
ایجاد کنم و نتوانستم، -
11:27 - 11:30بنابراین در چند سال اخیر دوباره
از صدایم استفاده کردهام -
11:30 - 11:33تا هشدار دادن را ادامه دهم
-
11:33 - 11:37و امیدوارم که افراد بیشتری را به مطالبه
این پاسخگویی ترغیب کنم. -
11:37 - 11:40پیام من به شما ساده است :
-
11:40 - 11:42نمایندگان دولت خود را تحت فشار قرار دهید
-
11:42 - 11:47تا قدمی بردارند و از واگذاری افکار عمومی
به منافع انتفاعی جلوگیری کنند. -
11:47 - 11:49به آموزش دوستان و خانواده خود
-
11:49 - 11:52درباره اینکه چگونه در فضای
آنلاین بازیچه میشوند کمک کنید. -
11:52 - 11:56خود را برای ارتباط با کسانی که با شما
همفکر نیستند تحت فشار قرار دهید. -
11:56 - 11:59این موضوع را به عنوان الویت خود قرار دهید.
-
11:59 - 12:02برای رفع این مشکل به رویکرد
کل جامعه نیاز داریم. -
12:03 - 12:09و پیام من به رهبران کارفرمای
سابقم فیس بوک این است: -
12:09 - 12:15اکنون، مردم از ابزار شما استفاده میکنند
دقیقا به همان صورتی که برای -
12:15 - 12:17ایجاد نفرت، تفرقه و بی اعتمادی، طراحی شده
-
12:17 - 12:21و شما فقط اجازه نمیدهید،
شما آن را میسر میکنید. -
12:21 - 12:24و بله، داستان های بسیار خوبی وجود دارد
-
12:24 - 12:28از کارهای خوبی که در رسانه شما
در سراسر جهان اتفاق میافتد، -
12:28 - 12:31اما باعث تایید هیچ یک از
این موارد نمیشود. -
12:31 - 12:34و هر چه به سمت انتخابات میرویم
اوضاع بدتر میشود، -
12:34 - 12:36و مهمتر از آن،
-
12:36 - 12:38مواجهه با بزرگترین بحران ممکنه تا به حال
-
12:38 - 12:42اگر نتایج قابل اعتماد نباشند،
و اگر خشونت ناگهان آغاز شود. -
12:42 - 12:47بنابراین وقتی در سال ۲۰۲۱ بار دیگر بگویید،
«ما می دانیم که باید بهتر عمل کنیم،» -
12:47 - 12:50از شما میخواهم این لحظه را
به یاد داشته باشید، -
12:50 - 12:53زیرا دیگر چند صدای دور
از دسترس نخواهد بود -
12:53 - 12:56رهبران حقوق مدنی، دانشگاهیان،
-
12:56 - 12:59روزنامه نگاران، تبلیغ کنندگان،
کارمندان خود شما، -
12:59 - 13:01از پشت بامها فریاد میزنند
-
13:01 - 13:03که سیاستها و شیوههای تجاری شما
-
13:03 - 13:06به مردم و دموکراسی ضربه میزند.
-
13:07 - 13:09شما مالک تصمیمات خود هستید،
-
13:09 - 13:13اما دیگر نمیتوانید بگویید که
انتظار رخداد آن را نداشتید. -
13:14 - 13:15متشکرم.
- Title:
- فیسبوک عزیز، اینگونه دموکراسی را از بین میبری
- Speaker:
- یال آیزنستات
- Description:
-
«در فضای آنلاین دروغ از حقیقت جذابتر است.» یال آیزنستات تحلیلگر سابق سی آی ای، دیپلمات و کارمند فیسبوک میگوید.« تا زمانی که هدف الگوریتمهای [شبکههای اجتماعی] سرگرم نگه داشتن ما باشد، آنها سمی را به خورد ما میدهند که از بدترین غرایزمان و ضعفهای بشری سوء استفاده میکند.» در این سخنرانی جسورانه، آیزنستات این موضوع که چگونه شرکتهای شبکههای اجتماعی مثل فیس بوک مشوق محتویات فتنهانگیز هستند، یاری دهندگان فرهنگی با دودستگی سیاسی و عدم اعتماد -- را مورد بررسی قرار میدهد و از دولتها می خواهد برای محافظت از گفتمان مدنی و دموکراسی این رسانهها را مسئول بدانند.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 13:30
![]() |
Masoud Motamedifar approved Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Masoud Motamedifar accepted Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Masoud Motamedifar edited Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
Masoud Motamedifar edited Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
elham zeinodini edited Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
elham zeinodini edited Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
elham zeinodini edited Persian subtitles for Dear Facebook, this is how you're breaking democracy | |
![]() |
elham zeinodini edited Persian subtitles for Dear Facebook, this is how you're breaking democracy |