< Return to Video

فیس‌بوک عزیز، این‌گونه دموکراسی را از بین می‌بری

  • 0:01 - 0:03
    تقریبا پنج سال قبل،
  • 0:03 - 0:05
    متوجه شدم که توانایی
  • 0:05 - 0:08
    برقراری ارتباط با کسانی که با من
    هم‌فکرنیستند ندارم.
  • 0:09 - 0:13
    ایده‌ی بحث در مورد موضوعات جنجالی
    با دوستان آمریکایی‌ام
  • 0:13 - 0:15
    به من احساس ناراحتی بیشتری
  • 0:15 - 0:19
    نسبت به اوقاتی که با افراطی‌های مشکوک
    خارجی در ارتباط بودم می‌داد.
  • 0:20 - 0:23
    به من حس ناخشنودی و درماندگی می‌داد.
  • 0:23 - 0:25
    و به همین شکل،
  • 0:25 - 0:27
    تمامی تمرکزم را
  • 0:27 - 0:29
    از تهدیدهای امنیت ملی جهانی
  • 0:29 - 0:32
    به تلاش برای فهمیدن علت این فشار
  • 0:32 - 0:36
    به سمت دوگانگی مفرط در خانه تغییر دادم.
  • 0:36 - 0:38
    به عنوان یک افسر سابق سی آی ای
    و دیپلماتی که
  • 0:38 - 0:41
    سال‌ها بر روی مسائل مقابله با افراطی گرایی
    کار کردم،
  • 0:41 - 0:45
    ترسیدم که این مسئله در حال تبدیل به
    تهدیدی بسیار بزرگ‌تر
  • 0:45 - 0:48
    از هر دشمن خارجی برای
    دموکراسی‌مان باشد.
  • 0:48 - 0:50
    بنابراین شروع به تحقیق کردم،
  • 0:50 - 0:51
    و عقایدم را بیان کردم،
  • 0:51 - 0:54
    که سرانجام مرا به استخدام شدن
    در فیس بوک
  • 0:54 - 0:57
    و در نهایت به امروز و اینجا رساند
  • 0:57 - 1:00
    تا به شما درباره اینکه چگونه این شبکه‌ها
  • 1:00 - 1:04
    در حال سوء استفاده و افراطی کردن
    بسیاری از ما هستند هشدار دهم
  • 1:04 - 1:07
    و درباره چگونگی بازپس‌گیری افکار
    عمومی‌مان صحبت کنم.
  • 1:08 - 1:10
    من یک افسر خدمات خارجی در کنیا بودم
  • 1:10 - 1:13
    تنها چند سال پس از حملات ۱۱ سپتامبر،
  • 1:13 - 1:15
    و کمپینی که برخی آن را
    «قلب‌ها و ذهن‌ها» می‌نامیدند
  • 1:15 - 1:17
    در امتداد مرز سومالی
    هدایت می‌کردم.
  • 1:17 - 1:21
    قسمت بزرگی از شغل من ایجاد
    اعتماد در جوامعی که
  • 1:21 - 1:23
    که حساس‌ترین قسمت برای پیام‌های
    افراطی تلقی می‌شدند بود.
  • 1:24 - 1:28
    ساعاتی را با نوشیدن چای با روحانیون
    صریح ضد-غربی صرف می‌کردم
  • 1:28 - 1:32
    و حتی با برخی تروریست‌های
    مشکوک گفتگو کردم،
  • 1:32 - 1:35
    وبا اینکه بسیاری از این تعاملات
    با سوءظن مشترک آغاز شد،
  • 1:35 - 1:39
    به یاد نمی‌آورم که هیچ کدام از آن‌ها
    منجر به فریاد یا توهین شده باشد،
  • 1:39 - 1:43
    وحتی در برخی موارد در کنار هم
    بر روی علایق مشترک کار کردیم.
  • 1:44 - 1:48
    نیرومندترین ابزاری که داشتیم صرفا
    گوش دادن، آموختن
  • 1:48 - 1:50
    و ایجاد همدردی بود.
  • 1:50 - 1:53
    این اساس کار قلب‌ها و ذهن‌هاست،
  • 1:53 - 1:56
    زیرا چیزی که بارها آن را یافتم
    این بود که بیشتر مردم
  • 1:56 - 2:00
    می‌خواهند حس کنند که شنیده شده‌اند،
    تایید شده‌اند و محترم شمرده می‌شوند.
  • 2:00 - 2:03
    و معتقدم این چیزی است که اکثر
    ما خواستار آن هستیم.
  • 2:03 - 2:06
    مشاهده آنچه که امروز در فضای آنلاین اتفاق
    می افتد بسیار دلخراش است
  • 2:06 - 2:08
    و حل کردن آن یک مسئله دشوارتر است.
  • 2:09 - 2:13
    ما توسط اکوسیستم اطلاعات موجود
    تحت تاثیر قرار داده می‌شویم
  • 2:13 - 2:16
    که بسیاری از ما را به حدی در استبداد
    و دیکتاتوری محصور کرده
  • 2:16 - 2:19
    که سازش به کلمه‌ای کثیف تبدیل شده است.
  • 2:20 - 2:21
    چرا که هم‌اکنون،
  • 2:21 - 2:23
    شرکت‌های شبکه‌های اجتماعی مثل فیس بوک
  • 2:23 - 2:27
    با دسته‌بندی و رساندن محتویات شخصی‌سازی
    شده به ما سود می‌برند
  • 2:27 - 2:31
    که جهت‌گیری‌هایمان را معتبر
    و مخدوش می‌کند.
  • 2:31 - 2:34
    هدف نهایی آن‌ها به برانگیختن یک
    احساس قدرتمند بستگی دارد
  • 2:34 - 2:36
    که ما را سرگرم نگه دارد،
  • 2:36 - 2:40
    اغلب مشوق آشوب انگیزترین و
    متضادترین نظرات‌مان هستند،
  • 2:40 - 2:45
    تا جایی که یافتن نقاط مشترک
    امکان پذیر نباشد.
  • 2:45 - 2:49
    و علی رغم وجود گروه‌های در حال رشد مردم
    که به شدت خواستار تغییر این رسانه‌ها هستند
  • 2:49 - 2:52
    واضح است که آن‌ها به تنهایی
    کاری از پیش نخواهند برد.
  • 2:52 - 2:55
    بنابراین دولت باید مسئولیت‌هایی
  • 2:55 - 2:59
    برای صدمات وارده بر دنیای واقعی توسط
    این مدل‌های تجاری مشخص کند
  • 2:59 - 3:02
    و هزینه‌های واقعی برای آثار مخربی که
  • 3:02 - 3:07
    آن‌ها بر روی سلامت اجتماعی، افکار عمومی
    و مردم سالاری‌مان تحمیل کند.
  • 3:07 - 3:12
    اما متاسفانه، این موضوع در زمان انتخابات
    ریاست جمهوری آمریکا اتفاق نمی‌افتد،
  • 3:12 - 3:15
    بنابراین به هشدار دادن ادامه می‌دهم،
  • 3:15 - 3:18
    چون حتی اگر روزی قوانین قدرتمندی
    به جای قوانین فعلی داشته باشیم،
  • 3:18 - 3:20
    به همه ما برای حل این موضوع نیاز است.
  • 3:21 - 3:24
    وقتی تغییر تمرکز خود را از تهدیدهای خارجی
  • 3:24 - 3:26
    به اختلال گفتگوی مدنی در خانه آغاز کردم،
  • 3:26 - 3:30
    فکر کردم آیا می‌توانیم برخی از این
    کمپین‌های قلب‌ها و ذهن‌ها را به منظور
  • 3:30 - 3:32
    حل اختلافاتمان مجددا هدف گذاری کنیم.
  • 3:32 - 3:36
    تجربه بیش از ۲۰۰ ساله ما
    در زمینه مردم سالاری
  • 3:36 - 3:40
    تا حد زیادی نتیجه بخش است چرا که
    ما آماده‌ایم تا با صراحت و اشتیاق
  • 3:40 - 3:43
    در مورد ایده‌هایمان برای رسیدن
    به بهترین راه حل بحث کنیم.
  • 3:43 - 3:45
    اما با اینکه من عمیقا به
  • 3:45 - 3:47
    قدرت گفتمان مدنی رو در رو معتقدم،
  • 3:47 - 3:49
    ولی در حال حاضر توانایی رقابت با
  • 3:49 - 3:53
    اثرات متضاد و صعود رسانه های اجتماعی
    را ندارد.
  • 3:53 - 3:55
    افرادی که به دام این لانه‌های خرگوش
  • 3:55 - 3:56
    خشم شبکه‌های اجتماعی
  • 3:56 - 4:00
    می‌افتند اغلب دشواری بیشتری در تغییر
    نگرش ایدئولوژیک خود
  • 4:00 - 4:03
    نسبت به جوامع آسیب پذیری که
    تا به حال با آن‌ها کار کردم احساس می‌کنند.
  • 4:04 - 4:06
    بنابراین وقتی فیس بوک در
    سال ۲۰۱۸ با من تماس گرفت
  • 4:06 - 4:07
    و به من وظیفه‌ی
  • 4:07 - 4:11
    هدایت عملیات مربوط به سلامت انتخابات خود
    برای تبلیغات سیاسی را پیشنهاد داد،
  • 4:11 - 4:13
    حس کردم که باید قبول کنم.
  • 4:13 - 4:16
    این توهم را نداشتم که همه چیز
    را درست می‌کنم،
  • 4:16 - 4:18
    اما وقتی فرصتی فراهم شد
  • 4:18 - 4:20
    برای کمک به هدایت کشتی به سمت و سویی بهتر
  • 4:20 - 4:21
    حداقل باید سعی می‌کردم.
  • 4:23 - 4:25
    من به طور مستقیم روی تضاد و
    دوگانگی کار نکردم،
  • 4:25 - 4:29
    اما نفاق‌انگیزترین مسائل موجود در
    جامعه‌مان
  • 4:29 - 4:33
    و طبعاً پرنفوذترین عوامل در تلاش‌های
    دخالت در انتخابات را بررسی کردم،
  • 4:33 - 4:36
    که تاکتیک روسیه پیش از سال ۲۰۱۶ بود.
  • 4:37 - 4:39
    بنابراین من کار را با پرسیدن
    سوالات آغاز کردم.
  • 4:39 - 4:42
    می‌خواستم درباره موضوعات اساسی سیستمی
  • 4:42 - 4:44
    که اجازه رخداد این اتفاقات
    را ‌می‌داد را بفهمم.
  • 4:44 - 4:46
    تا راهی برای برطرف کردنشان پیدا کنم.
  • 4:48 - 4:50
    من همچنان به قدرت اینترنت
  • 4:50 - 4:53
    برای فراهم سازی صداهای
    بیشتردر صحنه باور دارم،
  • 4:53 - 4:56
    اما علی رغم هدف بیان شده آن‌ها
    برای تشکیل جوامع،
  • 4:56 - 4:59
    بزرگترین کمپانی‌های شبکه‌های اجتماعی
    که اخیرا ساخته شده‌‌اند
  • 4:59 - 5:03
    مخالف مفهوم گفتمان منطقی هستند.
  • 5:03 - 5:05
    هیچ راهی برای پاداش دادن
    به گوش دادن،
  • 5:05 - 5:07
    برای تشویق بحث مدنی
  • 5:07 - 5:11
    و محافظت از مردمی که می‌خواهند
    محترمانه سوالاتی بپرسند وجود ندارد
  • 5:11 - 5:14
    در تجارتی که بهینه سازی مشارکت
    و افزایش کاربر
  • 5:14 - 5:17
    دو معیار مهم برای موفقیت است.
  • 5:17 - 5:21
    هیچ انگیزه‌ای برای کمک به
    آرام کردن مردم وجود ندارد،
  • 5:21 - 5:24
    برای ساختن اصطکاک کافی که
    مردم مجبور به توقف شوند،
  • 5:24 - 5:27
    عکس‌العمل احساسی خود به چیزی را بشناسند،
  • 5:27 - 5:29
    و پیش از درگیر شدن فرضیات خودشان
    را زیر سوال ببرند.
  • 5:31 - 5:33
    واقعیت ناخوشایند این است:
  • 5:33 - 5:36
    در فضای آنلاین دروغ‌ از حقیقت جذاب‌تر است.
  • 5:36 - 5:39
    و وقاحت استدلال بی‌ثبات و مبتنی بر حقایق
    را شکست می‌دهد
  • 5:39 - 5:42
    در جهانی که برای گسترش بدون
    دردسر بهینه شده.
  • 5:43 - 5:47
    تا زمانی که هدف الگوریتم‌ها
    سرگرم نگه‌ داشتن ما باشد،
  • 5:47 - 5:51
    آن‌ها سمی را به خورد ما می‌دهند که
    از بدترین غرایزمان سوء استفاده می‌کند
  • 5:51 - 5:52
    و ضعفهای بشری.
  • 5:53 - 5:56
    و بله، خشم، بی‌اعتمادی،
  • 5:56 - 5:58
    فرهنگ ترس، نفرت:
  • 5:58 - 6:01
    هیج یک از این‌ها در آمریکا جدید نیست.
  • 6:01 - 6:04
    اما در سال‎های اخیر، رسانه‌های اجتماعی
    همه این‌ها را کنترل کرده
  • 6:04 - 6:08
    و به نظر من،
    به طور چشم‌گیری تعادل را به هم زده است.
  • 6:08 - 6:10
    و فیس بوک این موضوع را می‌داند.
  • 6:10 - 6:12
    مقاله اخیر «وال استریت ژورنال»
  • 6:12 - 6:16
    ارائه‌ای داخلی ازفیس بوک در
    سال ۲۰۱۸ را منتشر کرد
  • 6:16 - 6:20
    که به ویژه به الگوریتم‌های خود
    کمپانی اشاره می‌کند
  • 6:20 - 6:23
    در پی افزایش حضور گروه‌های
    افراطی در شبکه‌هایشان
  • 6:23 - 6:26
    و برای ایجاد دودستگی بین کاربرانشان.
  • 6:27 - 6:30
    اما آن‌ها با سرگرم کردن ما
    درآمد کسب می‌‌کنند.
  • 6:30 - 6:35
    محیط اطلاعاتی مدرن پیرامون
    مشخصات ما شکل گرفته
  • 6:35 - 6:38
    و سپس ما را به دسته‌بندی‌های
    کوچک‌تر تقسیم بندی می‌کند
  • 6:38 - 6:41
    تا فرایند شخصی سازی تکمیل شود.
  • 6:41 - 6:45
    سپس با اطلاعاتی که مطابق نظرمان
    هستند بمباران می‌شویم.
  • 6:45 - 6:47
    جهت‌گیری‌هایمان را تقویت می‌کنند،
  • 6:47 - 6:50
    و به ما این حس را القا می‌کنند
    که ما به چیزی تعلق داریم.
  • 6:50 - 6:54
    این‌ها همان روش‌‌هایی است که
    به کار گیرندگان تروریست
  • 6:54 - 6:56
    روی جوانان آسیب پذیر به کار می‌برند،
  • 6:56 - 7:00
    هرچند با روش‌هایی کوچک‌تر و بومی‌تر
    قبل از رسانه‌های اجتماعی،
  • 7:00 - 7:03
    با هدف نهایی پیش‌برد رفتارشان.
  • 7:03 - 7:08
    متاسفانه، هیچ‌گاه توسط فیس بوک به من قدرتی
    داده نشد تا تاثیری حقیقی بر جای بگذارم.
  • 7:08 - 7:12
    در واقع، در روز دومم، عنوان و
    شرح وظایفم تغییر کرد
  • 7:12 - 7:15
    و از جلسات تصمیم‌ گیری کنار گذاشته شدم.
  • 7:15 - 7:16
    بزرگترین کوشش من ،
  • 7:16 - 7:18
    تلاش برای ایجاد استراتژی‌هایی
  • 7:18 - 7:21
    برای مبارزه با اطلاعات نادرست
    و سرکوب رای دهندگان در تبلیغات سیاسی،
  • 7:22 - 7:23
    طرد شد.
  • 7:23 - 7:26
    و بنابراین من فقط حدود شش ماه
    در فیس بوک دوام آوردم.
  • 7:26 - 7:30
    اما بزرگترین نکته از زمان
    حضورم در آن‌جا این است.
  • 7:30 - 7:32
    هزاران نفر در فیس بوک حضور دارند
  • 7:32 - 7:34
    که مشتاقانه روی محصولی
  • 7:34 - 7:38
    که واقعا ایمان دارند دنیا را به مکان
    بهتری تبدیل می‌کند کار می‌کنند،
  • 7:38 - 7:42
    اما تا زمانی که این شرکت صرفاً
    در حاشیه
  • 7:42 - 7:44
    سیاست‌های محتوا و متعادل سازی
    به کار خود ادامه دهد،
  • 7:44 - 7:46
    به جای در نظر گرفتن
  • 7:46 - 7:49
    نحوه طراحی و درآمدزایی سیستم،
  • 7:49 - 7:52
    هرگز چگونگی مشارکت
    این رسانه در اشاعه
  • 7:52 - 7:57
    نفرت، تفرقه و افراطی گرایی
    را کاملا حل نخواهند کرد.
  • 7:57 - 8:01
    و این مکالمه‌ای است که در طی حضورم در آن‌
    جا اتفاق نیفتاد،
  • 8:01 - 8:04
    چرا که این امر نیازمند پذیرش اساسی
  • 8:04 - 8:08
    اینکه چیزی که ساخته‌اید ممکن
    است برای جامعه بهترین نبوده
  • 8:08 - 8:11
    و موافقت با تغییر کلی محصول و
    مدل سود آن می‌باشد.
  • 8:12 - 8:14
    پس در این باره چه می‌توان کرد؟
  • 8:15 - 8:19
    نمی‌گویم که تنها رسانه‌های اجتماعی مسئولیت
  • 8:19 - 8:21
    دولتی که امروزه در آن هستیم
    را بر عهده دارند.
  • 8:21 - 8:26
    واضح است که دارای مسائل اجتماعی
    ریشه‌داری هستیم که باید رفع شوند.
  • 8:26 - 8:30
    اما پاسخ فیس بوک،
    که آینه‌ای برای جامعه است ،
  • 8:30 - 8:33
    تلاشی بی‌دردسر برای شانه خالی کردن
    از هرگونه مسئولیت پذیری
  • 8:34 - 8:38
    درباره تقویت محتوای مضر
    توسط رسانه‌اشان
  • 8:38 - 8:41
    و فشار آوردن به برخی کاربران
    برای داشتن دیدگاهی افراطی است.
  • 8:42 - 8:44
    و فیس بوک اگر می‌خواست، می‌توانست،
  • 8:44 - 8:46
    برخی از این موارد را رفع کند.
  • 8:46 - 8:50
    آن‌ها می‌توانند تقویت و توصیه
    نظریه پردازان توطئه
  • 8:50 - 8:53
    گروه‌های نفرت،
    تامین‌کنندگان اطلاعات نادرست،
  • 8:53 - 8:57
    و بله، در برخی موارد حتی رئیس جمهورمان را
    متوقف کنند.
  • 8:57 - 9:00
    آنها می‌توانند به کارگیری همان روش‌های
    شخصی سازی که برای
  • 9:00 - 9:04
    بیان الفاظ سیاسی استفاده می‌شود را در فروش
    کفش های ورزشی به ما متوقف کنند.
  • 9:04 - 9:06
    می‌توانند الگوریتم‌هایشان را برای
  • 9:06 - 9:08
    تمرکز روی معیاری غیر از
    مشارکت بازآموزی کنند،
  • 9:08 - 9:13
    آن‌ها می‌توانند موانعی برای جلوگیری
    از محبوب شدن محتویات مشخص
  • 9:13 - 9:14
    پیش از بازبینی را ایجاد کنند.
  • 9:15 - 9:17
    و آن‌ها می‌توانند همه‌ی این موارد را
  • 9:17 - 9:21
    بدون تبدیل شدن به آنچه که آن را
    داوران حقیقت می‌نامند انجام دهند.
  • 9:21 - 9:24
    اما آن‌ها به صراحت اعلام کرده‌اند که برای
    انجام کار درست
  • 9:24 - 9:27
    به حد کافی پیش نخواهند رفت مگر با اجبار،
  • 9:27 - 9:30
    و صادقانه بگویم، چرا باید چنین
    کاری انجام دهند؟
  • 9:30 - 9:34
    بازارها به آن‌ها پاداش می‌دهند،
    وآن‌ها قانونی را نقض نمی‌کنند.
  • 9:34 - 9:35
    چرا که با وضعیت فعلی،
  • 9:35 - 9:40
    هیچ قانونی در ایالات متحده وجود ندارد که
    فیس بوک یا هر شرکت رسانه اجتماعی را مجبور،
  • 9:40 - 9:42
    به محافظت از افکار عمومی‌مان،
  • 9:42 - 9:43
    مردم سالاری‌مان
  • 9:43 - 9:46
    و حتی انتخابات‌مان کند.
  • 9:46 - 9:50
    ما از تصمیم‌گیری درباره وضع و اجرای
    قوانین برای
  • 9:50 - 9:53
    مدیران عامل شرکت‌های اینترنتی خصوصی
    صرف نظر کرده‌ایم.
  • 9:54 - 9:56
    این چیزی است که می‌خواهیم؟
  • 9:56 - 9:59
    در یک جهان پساحقیقت‌گرا که
    در آن منفی‌گرایی و قومیت‌گرایی
  • 9:59 - 10:02
    بر پل زدن بین انسان‌ها غلبه کرده است؟
  • 10:03 - 10:07
    من همچنان خوش‌بین هستم که نقاط
    مشترک بیشتری
  • 10:07 - 10:10
    از رسانه فعلی و چیزی که محیط آنلاین
    نشان می‌دهد، با یکدیگر داریم
  • 10:10 - 10:14
    و معتقدم که داشتن سطح چشم‌انداز بیشتر
  • 10:14 - 10:17
    دموکراسی قوی‌تر و فراگیرتر
    را ایجاد می کند.
  • 10:17 - 10:20
    اما نه به شکلی که اکنون وجود دارد.
  • 10:20 - 10:24
    و تاکید می‌کنم،
    من نمی‌خواهم این شرکت‌ها را از بین ببرم.
  • 10:24 - 10:28
    فقط می‌خواهم تا حد مشخصی پاسخگو باشند،
  • 10:28 - 10:29
    مانند بقیه افراد جامعه.
  • 10:31 - 10:35
    زمان آن فرا رسیده که دولت‌هایمان گام
    بردارند و وظایف خود را برای
  • 10:35 - 10:37
    محافظت از شهروندان انجام دهند.
  • 10:37 - 10:40
    و با وجود اینکه یک قانون جادویی وجود ندارد
  • 10:40 - 10:41
    که همه این‌ موارد را حل کند،
  • 10:41 - 10:46
    من معتقدم که دولت می‌تواند و باید تعادلی
  • 10:46 - 10:48
    بین محافظت از آزادی بیان
  • 10:48 - 10:52
    و مسئول دانستن این رسانه‌ها برای
    تاثیراتشان در جامعه ایجاد کند.
  • 10:52 - 10:57
    و می‌توانند با پافشاری بر روی شفافیت
    حقیقی تا حدی این کار را انجام دهند
  • 10:57 - 11:00
    درباره چگونگی عملکرد سیستم‌های
    پیشنهاد کننده،
  • 11:00 - 11:05
    اینکه چگونه طبقه‌بندی، فزون‌سازی و
    هدف‌گذازی اتفاق می‌افتد.
  • 11:05 - 11:07
    ببینید، می‌خواهم این شرکت‌ها پاسخگو باشند
  • 11:07 - 11:10
    نه به این علت که فردی اطلاعات نادرست
  • 11:10 - 11:12
    یا سخنان افراطی منتشر کرده،
  • 11:12 - 11:15
    بلکه برای چگونگی گسترش آن محتویات توسط
    سرویس‌های پیشنهاد کننده‌اشان،
  • 11:16 - 11:19
    اینکه چگونه الگوریتم‌هایشان مردم را به
    سمت آن محتویات هدایت می‌کنند،
  • 11:19 - 11:22
    و چگونه از ابزارهایشان برای هدف
    قرار دادن مردم استفاده می‌کنند.
  • 11:23 - 11:27
    سعی کردم در فیس بوک تغییر
    ایجاد کنم و نتوانستم،
  • 11:27 - 11:30
    بنابراین در چند سال اخیر دوباره
    از صدایم استفاده کرده‌ام
  • 11:30 - 11:33
    تا هشدار دادن را ادامه دهم
  • 11:33 - 11:37
    و امیدوارم که افراد بیشتری را به مطالبه
    این پاسخگویی ترغیب کنم.
  • 11:37 - 11:40
    پیام من به شما ساده است :
  • 11:40 - 11:42
    نمایندگان دولت خود را تحت فشار قرار دهید
  • 11:42 - 11:47
    تا قدمی بردارند و از واگذاری افکار عمومی
    به منافع انتفاعی جلوگیری کنند.
  • 11:47 - 11:49
    به آموزش دوستان و خانواده خود
  • 11:49 - 11:52
    درباره اینکه چگونه در فضای
    آنلاین بازیچه می‌شوند کمک کنید.
  • 11:52 - 11:56
    خود را برای ارتباط با کسانی که با شما
    همفکر نیستند تحت فشار قرار دهید.
  • 11:56 - 11:59
    این موضوع را به عنوان الویت خود قرار دهید.
  • 11:59 - 12:02
    برای رفع این مشکل به رویکرد
    کل جامعه نیاز داریم.
  • 12:03 - 12:09
    و پیام من به رهبران کارفرمای
    سابقم فیس بوک این است:
  • 12:09 - 12:15
    اکنون، مردم از ابزار شما استفاده می‌کنند
    دقیقا به همان صورتی که برای
  • 12:15 - 12:17
    ایجاد نفرت، تفرقه و بی اعتمادی، طراحی شده
  • 12:17 - 12:21
    و شما فقط اجازه نمی‌دهید،
    شما آن را میسر می‌کنید.
  • 12:21 - 12:24
    و بله، داستان های بسیار خوبی وجود دارد
  • 12:24 - 12:28
    از کارهای خوبی که در رسانه شما
    در سراسر جهان اتفاق می‌افتد،
  • 12:28 - 12:31
    اما باعث تایید هیچ یک از
    این موارد نمی‌شود.
  • 12:31 - 12:34
    و هر چه به سمت انتخابات می‌رویم
    اوضاع بدتر می‌شود،
  • 12:34 - 12:36
    و مهم‌تر از آن،
  • 12:36 - 12:38
    مواجهه با بزرگترین بحران ممکنه تا به حال
  • 12:38 - 12:42
    اگر نتایج قابل اعتماد نباشند،
    و اگر خشونت ناگهان آغاز شود.
  • 12:42 - 12:47
    بنابراین وقتی در سال ۲۰۲۱ بار دیگر بگویید،
    «ما می دانیم که باید بهتر عمل کنیم،»
  • 12:47 - 12:50
    از شما ‌می‌خواهم این لحظه را
    به یاد داشته باشید،
  • 12:50 - 12:53
    زیرا دیگر چند صدای دور
    از دسترس نخواهد بود
  • 12:53 - 12:56
    رهبران حقوق مدنی، دانشگاهیان،
  • 12:56 - 12:59
    روزنامه نگاران، تبلیغ کنندگان،
    کارمندان خود شما،
  • 12:59 - 13:01
    از پشت بام‌ها فریاد می‌زنند
  • 13:01 - 13:03
    که سیاست‌ها و شیوه‌های تجاری شما
  • 13:03 - 13:06
    به مردم و دموکراسی ضربه می‌زند.
  • 13:07 - 13:09
    شما مالک تصمیمات خود هستید،
  • 13:09 - 13:13
    اما دیگر نمی‌توانید بگویید که
    انتظار رخداد آن را نداشتید.
  • 13:14 - 13:15
    متشکرم.
Title:
فیس‌بوک عزیز، این‌گونه دموکراسی را از بین می‌بری
Speaker:
یال آیزنستات
Description:

«در فضای آنلاین دروغ‌ از حقیقت جذاب‌تر است.» یال آیزنستات تحلیل‌گر سابق سی آی ای، دیپلمات و کارمند فیس‌بوک می‌گوید.« تا زمانی که هدف الگوریتم‌های [شبکه‌های اجتماعی] سرگرم نگه داشتن ما باشد، آن‌ها سمی را به خورد ما می‌دهند که از بدترین غرایزمان و ضعف‌های بشری سوء استفاده می‌کند.» در این سخنرانی جسورانه، آیزنستات این موضوع که چگونه شرکت‌های شبکه‌های اجتماعی مثل فیس بوک مشوق محتویات فتنه‌انگیز هستند، یاری دهندگان فرهنگی با دودستگی سیاسی و عدم اعتماد -- را مورد بررسی قرار می‌دهد و از دولت‌ها می خواهد برای محافظت از گفتمان مدنی و دموکراسی این رسانه‌ها را مسئول بدانند.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:30

Persian subtitles

Revisions