Return to Video

درون دنیای عجیب ترول‌ها و مبلغان اینترنتی

  • 0:01 - 0:02
    من سه سال گذشته را
  • 0:02 - 0:05
    به گفتگو با برخی از بدترین
    افراد در اینترنت گذراندم.
  • 0:06 - 0:09
    اگر اخیرا آنلاین بوده باشید،
  • 0:09 - 0:12
    ممکن است متوجه حجم انبوه
    زباله‌های سمی در آنجا شده باشید:
  • 0:12 - 0:17
    رفتارهای نژادپرستانه، تبلیغات ضد زن،
    اطلاعات نادرست در حال گردش.
  • 0:17 - 0:20
    خواستم ببینم دست
    دست چه کسانی در کار است.
  • 0:20 - 0:22
    می‌خواستم بدانم چگونه این
    مطالب منتشر می‌شوند.
  • 0:22 - 0:23
    در نهایت، می‌خواستم بدانم
  • 0:23 - 0:26
    این جریان چه تاثیری ممکن است
    بر جامعه‌ ما داشته باشتد.
  • 0:26 - 0:30
    بنابراین در سال ٢٠١٦، سر نخ بعضی
    از این جریانات را گرفتم تا برسم به منبع،
  • 0:30 - 0:34
    به افرادی که در ایجاد کردن یا
    انتشار آن‌ها سهیم بودند.
  • 0:34 - 0:35
    می‌رفتم سراغشان و می‌گفتم،
  • 0:35 - 0:38
    «سلام، من یک خبرنگارم. امکانش هست
    بیایم و کارتان را ببینم؟»
  • 0:38 - 0:40
    اغلب مواقع، پاسخ این بود که،
  • 0:40 - 0:42
    «چرا من باید بخواهم با یک
  • 0:42 - 0:44
    یهودی زن‌نمای جهانگرایِ اهل بروکلین
  • 0:44 - 0:46
    که با حزب دموکرات مشارکت دارد حرف بزنم؟»
  • 0:46 - 0:47
    (خنده حضار)
  • 0:47 - 0:51
    که در پاسخ می گفتم،
    «ببین فقط ٥٧ درصدش درست بود»
  • 0:51 - 0:52
    (خنده حضار)
  • 0:53 - 0:54
    اما اغلب اوقات جواب برعکس گرفتم.
  • 0:54 - 0:56
    «بله، حتما بیا.»
  • 0:57 - 0:59
    بدین ترتیب من به اتاق نشیمنِ
  • 0:59 - 1:02
    مبلغ شبکه‌های اجتماعی
    در کالیفرنیای جنوبی رسیدم.
  • 1:02 - 1:05
    یک مرد سفیدپوست متاهل
    در اواخر دهه سی سالگی بود.
  • 1:05 - 1:08
    جلویش یک میز بود با یک لیوان قهوه روی آن،
  • 1:08 - 1:10
    یک لپ تاپ برای فرستادن توییت،
  • 1:10 - 1:11
    یک موبایل برای فرستادن پیغام
  • 1:11 - 1:15
    و یک آی‌پد برای پخش زنده از
    یوتیوب و پریسکوپ بود.
  • 1:15 - 1:16
    کل آن همین بود.
  • 1:17 - 1:18
    و به کمک این ابزارها،
  • 1:18 - 1:22
    او قادر بود که حواشی و بحثهای سمی را
  • 1:22 - 1:24
    به مرکز گفتگوی آمریکایی‌ها بکشاند.
  • 1:25 - 1:27
    به عنوان مثال، یک روز که من آنجا بودم،
  • 1:27 - 1:30
    یک بمب در نیویورک منفجر شد،
  • 1:30 - 1:34
    و مردی که متهم به کاشت بمب شد،
    اسم شبه اسلامی داشت.
  • 1:34 - 1:38
    و برای مبلغ کالیفرنیایی، یک فرصت ساخت.
  • 1:38 - 1:40
    چراکه یکی از چیزهایی که او می‌خواست
  • 1:40 - 1:42
    قطع کامل مهاجرت به آمریکا
  • 1:42 - 1:45
    به ویژه از کشورهای با اکثریت مسلمان بود.
  • 1:45 - 1:47
    بنابراین او شروع به پخش زنده کرد،
  • 1:48 - 1:50
    و دنبال‌کننده‌ها را برانگیخت که
  • 1:50 - 1:53
    چگونه مرزهای باز، باعث کشتن ما می‌شود
  • 1:53 - 1:54
    و از آنها خواست که توییت کنند،
  • 1:54 - 1:56
    از هشتگ‌های خاص استفاده کنند،
  • 1:56 - 1:58
    و تلاش کنند آن هشتگ‌ها ترند شوند.
  • 1:58 - 1:59
    و آنها توییت کردند --
  • 1:59 - 2:01
    هزاران و هزاران توییت،
  • 2:01 - 2:03
    بیشتر آنها تصاویری مثل این را فرستادند.
  • 2:03 - 2:05
    این جرج سوروس است.
  • 2:05 - 2:08
    او یک میلیاردر مجارستانی و نوع‌ دوست است،
  • 2:08 - 2:10
    و در ذهن برخی از توطئه‌گران آنلاین،
  • 2:10 - 2:13
    جرج سوروس شبیه یک لولوخورخوره جهان گراست،
  • 2:13 - 2:17
    یکی از معدود نخبگانی که امور جهانی را
    مخفیانه دستکاری می‌کند.
  • 2:17 - 2:21
    یک توقف کوتاه در اینجا:
    اگر این عقیده به نظرتان آشناست
  • 2:21 - 2:23
    که نخبگانی وجود دارند که
    جهان را کنترل می‌کنند
  • 2:23 - 2:26
    و بیشتر آنها ثروتمندان یهودی هستند،
  • 2:26 - 2:29
    به خاطر وجود یکی از شایعات رایج
    ضد یهود است.
  • 2:30 - 2:34
    من باید خاطرنشان کنم که فرد بمب‌گذار
    در نیویورک
  • 2:34 - 2:35
    یک شهروند آمریکایی بود.
  • 2:36 - 2:38
    به هرحال هر دلیل دیگری که وجود داشت
  • 2:38 - 2:40
    مهاجرت دلیل بمب گذاری نبود.
  • 2:41 - 2:44
    و مبلغ کالیفرنیایی، همه را می‌دانست.
  • 2:44 - 2:47
    او یک فرد آگاه بود.
    در واقع او یک وکیل بود.
  • 2:47 - 2:48
    او واقعیتهای پایه‌ای را می‌دانست،
  • 2:48 - 2:52
    همچنین او می‌دانست که واقعیت‌ها
    محرک گفتگوهای آنلاین نیستند.
  • 2:52 - 2:53
    آنچه گفتگوی آنلاین را تحریک می‌کند،
  • 2:53 - 2:55
    احساسات هستند.
  • 2:55 - 2:57
    مفهوم بنیادی شبکه‌های اجتماعی این بود
  • 2:57 - 3:00
    که ما را بهم نزدیک کند،
  • 3:00 - 3:02
    و جهان را بازتر، مداراتر و
    منصفانه‌تر کند...
  • 3:02 - 3:03
    و برخی از آنها محقق شد.
  • 3:05 - 3:07
    اما الگوریتم شبکه‌های
    اجتماعی هرگز بر اساس
  • 3:07 - 3:10
    تفکیک درست از غلط،
  • 3:10 - 3:14
    خوب یا بد برای جامعه،
    یا اجتماعی و ضداجتماعی طراحی نشده‌اند.
  • 3:14 - 3:16
    این کاری نیست که این الگوریتم‌ها می‌کنند.
  • 3:16 - 3:19
    بیشترین کاری که می‌کنند اندازه‌گیری
    میزان سرگرمی است
  • 3:19 - 3:22
    کلیک، کامنت، اشتراک‌گذاری، بازتوییت
    و مثل اینها
  • 3:22 - 3:25
    و اگر می‌خواهی مطلبت بیشترین واکنش
    را داشته باشد
  • 3:25 - 3:26
    باید احساسات را تحریک کند.
  • 3:26 - 3:30
    به ویژه آنچه دانشمندان رفتارگرا،
    «احساسات برانگیخته» می‌نامند.
  • 3:30 - 3:33
    این «برانگیختگی» صرفا به معنای
    برانگیختگی جنسی نیست
  • 3:33 - 3:36
    این اینترنت است که باعث این امر می‌شود.
  • 3:36 - 3:40
    این یعنی هر چیز مثبت یا منفی که
    باعث ضربان قلب شود
  • 3:40 - 3:42
    بنابراین من با این افراد مبلغ همنشین شدم،
  • 3:42 - 3:44
    نه فقط آن مرد کالیفرنیایی،
    بلکه دهها تن از آنها.
  • 3:44 - 3:48
    و کاری را که مرتبا به طور موفقیت‌آمیز
    انجام می‌دادند، تماشا کردم.
  • 3:48 - 3:51
    نه به این دلیل که هکر روس بودند
    یا نخبه فناوری،
  • 3:51 - 3:54
    یا صاحب بینش سیاسی خاص،
  • 3:54 - 3:56
    فقط می‌دانست‌ شبکه‌های مجازی
    چگونه کار می‌کنند
  • 3:56 - 3:59
    و به دنبال بهره‌برداری از مزایای آن بودند.
  • 3:59 - 4:02
    در ابتدا می‌توانستم بگویم
    که یک پدیده حاشیه‌ای است
  • 4:02 - 4:04
    چیزی که منتسب به اینترنت است.
  • 4:04 - 4:09
    اما دیگر تفاوتی بین اینترنت و
    چیزهای دیگر نیست.
  • 4:09 - 4:11
    این تبلیغی است که در انتخابات کنگره ۲۰۱۸
  • 4:11 - 4:14
    بر روی چندین شبکه تلویزیونی رفت
  • 4:14 - 4:16
    ادعایی بر پایه شواهد اندک،
    که یکی از کاندیداها
  • 4:17 - 4:19
    بازیچه عامل بین‌المللی یعنی جرج سوروس است
  • 4:19 - 4:23
    کسی که اینجا ناشیانه در کنار
    دسته‌های اسکناس فتوشاپ شده است.
  • 4:23 - 4:26
    این یک توییت از طرف رییس جمهور آمریکاست،
  • 4:26 - 4:28
    ادعایی دوباره بر پایه هیچ شاهدی
  • 4:28 - 4:31
    که سیاستمداران آمریکایی توسط جرج سوروس
    کنترل می‌شوند.
  • 4:31 - 4:35
    این چیزها که زمانی تکان‌دهنده،
    حاشیه‌ای و قابل صرف نظرکردن بود،
  • 4:35 - 4:38
    اکنون آنقدرعادی شده،
    که حتی به سختی متوجه آنها می‌شویم.
  • 4:38 - 4:40
    بنابراین من سه سال را صرف این چیزها کردم.
  • 4:40 - 4:42
    با آدمهای زیادی صحبت کردم.
  • 4:42 - 4:44
    به نظر می‌رسید برخی هیچ
    عقیده خاصی ندارند.
  • 4:44 - 4:47
    فقط به طور منطقی شرط‌ بندی می‌کنند
  • 4:47 - 4:49
    اگر می‌خواستند به طور آنلاین پول دربیاورند
  • 4:49 - 4:51
    یا آنلاین جلب توجه کنند،
  • 4:51 - 4:53
    فقط باید تا حدامکان عصبانی کننده می‌شدند.
  • 4:53 - 4:55
    اما برخی، طرفداران واقعی
    یک ایدئولوژی بودند.
  • 4:56 - 5:00
    و ایدئولوژی آنها محافظه کاری سنتی نبود
  • 5:00 - 5:03
    آنها کسانی بودند که به دنبال ابطال
    حق رای زنان بودند.
  • 5:03 - 5:06
    به دنبال عقبگرد به تفکیک نژادی بودند.
  • 5:06 - 5:09
    برخی می‌خواستند با دموکراسی کنار بیایند.
  • 5:09 - 5:12
    به طور واضح این افراد با این عقاید
    متولد نشده‌اند.
  • 5:12 - 5:15
    در دبستان آنها را انتخاب نکرده‌اند.
  • 5:15 - 5:18
    بسیاری از آنها قبل از نفوذ به اینترنت،
  • 5:18 - 5:20
    آزادیخواه یا جامعه‌گرای
  • 5:20 - 5:23
    با کلا چیز دیگری بودند.
  • 5:23 - 5:24
    پس چه اتفاقی افتاد؟
  • 5:25 - 5:27
    خوب من نمی‌توانم درباره هر مورد توضیح دهم،
  • 5:27 - 5:29
    اما غالب آنها
  • 5:29 - 5:33
    ظاهرا ترکیبی از بهرهٔ هوشی بالا
    و هوش عاطفی پایین داشتند.
  • 5:33 - 5:36
    به نظر می‌رسید در فضای آنلاین
    به طورناشناس
  • 5:36 - 5:38
    احساس راحتی بیشتر دارند
    تا در دنیای واقعی.
  • 5:39 - 5:41
    بنابراین اغلب در برابر این پیامها
    یا این بحث‌های فرعی
  • 5:41 - 5:42
    تغییر رفتار می‌دهند،
  • 5:42 - 5:45
    جایی که بدترین انگیزه‌های آنها
    تقویت می‌شود.
  • 5:45 - 5:48
    ممکن است شروع به گفتن
    شوخی‌های بیمارگونه کنند
  • 5:48 - 5:51
    سپس به تقویت شوخی خود ادامه دهند
  • 5:51 - 5:54
    و در یک لحظه بی‌معنی اینترنتی
  • 5:54 - 5:57
    ممکن است شروع به باور شوخی خود کنند.
  • 5:58 - 6:02
    من به طور طولانی با یک خانم جوان
    اهل نیوجرسی صحبت کردم،
  • 6:02 - 6:04
    بعد از دبیرستان، او به خانه‌ای جدید
    نقل مکان کرد
  • 6:04 - 6:06
    و ناگهان احساس بیگانگی و جداافتادگی کرد
  • 6:06 - 6:08
    و شروع به عقب نشینی به گوشی خود کرد.
  • 6:09 - 6:11
    در اینترنت جاهایی یافت که
  • 6:11 - 6:14
    کاربران مسائل تکان‌دهنده و
    فجیع می‌فرستادند.
  • 6:14 - 6:16
    به نظرش این چیزها ناخوشایند
  • 6:16 - 6:18
    اما در عین حال جذاب بودند،
  • 6:19 - 6:21
    طوری که نمی‌توانست از آنها چشم پوشی کند.
  • 6:21 - 6:24
    او شروع به ارتباط
    در فضاهای آنلاین کرد،
  • 6:24 - 6:27
    و آنها سبب شدند احساس باهوشی
    و تایید شدن کند.
  • 6:27 - 6:29
    او احساس در جمع بودن را داشت.
  • 6:29 - 6:32
    و به این باور رسید که شاید
    برخی از این اخبار تکان‌دهنده
  • 6:32 - 6:34
    واقعا دربردارنده واقعیت باشند.
  • 6:34 - 6:38
    چند ماه بعد، او با یکی از دوستان
    اینترنتی خود در ماشین
  • 6:38 - 6:40
    در حرکت به سمت شارلوتزویل ویرجینیا
  • 6:40 - 6:42
    برای شرکت در راهپیمایی با مشعل
    به نفع نژاد سفید بود.
  • 6:43 - 6:45
    چند ماه بعد، او از یک طرفدار اوباما
  • 6:45 - 6:48
    به افراطی‌گرای سفید رادیکال تبدیل شد.
  • 6:49 - 6:51
    در این نمونه خاص،
  • 6:51 - 6:55
    او واقعا می‌توانست مسیر خود را خارج
    از فرقه برتری سفید پیدا کند
  • 6:56 - 6:58
    اما خیلی از مصاحبه‌شونده‌هایم
    نمی‌توانستند.
  • 6:59 - 7:00
    صرفا جهت شفاف سازی:
  • 7:00 - 7:03
    هرگز اینقدر متقاعد نبودم که باید
    زمینه مشترکی
  • 7:03 - 7:05
    با هر فردی که با او صحبت کردم، پیدا کنم
  • 7:05 - 7:07
    حرفم این بود که،
  • 7:07 - 7:10
    «می‌دانی، تو یک مبلغ فاشیست هستی، من نه،
  • 7:10 - 7:13
    به هر حال بیا آن را در آغوش بکشیم،
    همه اختلافاتمان از بین خواهد رفت.»
  • 7:13 - 7:15
    نه قطعا نه.
  • 7:16 - 7:20
    من متقاعد شدم که نمی‌توانیم از
    این چیزها چشم پوشی کنیم.
  • 7:20 - 7:23
    باید سعی کنیم آن را بفهمیم
    چون تنها با فهمیدن آن
  • 7:23 - 7:26
    می‌توانیم خودمان را علیه آن مجهز کنیم.
  • 7:27 - 7:31
    در این سه سال، تعدادی تماس زننده
    دریافت کردم،
  • 7:31 - 7:32
    حتی تعدادی تهدید،
  • 7:32 - 7:36
    اما این حتی کسری از چیزی که زنان
    خبرنگار نصیبشان می‌شود هم نبود.
  • 7:37 - 7:38
    حتی با این حال که یهودی هستم،
  • 7:38 - 7:42
    به طور عجیبی خیلی از نازیها
    نمی‌توانستند بگویند یهودی هستم،
  • 7:42 - 7:45
    که واقعا ناامیدکننده بود.
  • 7:45 - 7:47
    (خنده حضار)
  • 7:47 - 7:51
    واقعا تمام کار شما حرفه‌ای بودن در
    مخالفت با یهودیت است.
  • 7:51 - 7:54
    هیچ مطلبی از طرف من به درد شما نمی‌خورد؟
  • 7:54 - 7:55
    هیچ چیز؟
  • 7:55 - 7:57
    (خنده حضار)
  • 7:58 - 7:59
    این یک راز نیست.
  • 7:59 - 8:02
    من اندرو مارنتز هستم،
    برای نیویورکر می‌نویسم،
  • 8:02 - 8:04
    مدل شخصیت من مانند اپیزودی از
    سریال ساین‌فلد است که
  • 8:04 - 8:06
    در غذافروشی پارک اسلوپ ضبط شده.
  • 8:06 - 8:07
    هیچ چیز؟
  • 8:08 - 8:10
    (خنده حضار)
  • 8:13 - 8:15
    به هرحال ببینید-- جالب خواهد بود
  • 8:15 - 8:17
    اگر مانند یک فرمول ساده بود:
  • 8:17 - 8:21
    تلفن هوشمند در کنارفرد جداافتاده معادل
    ۱۲ درصد شانس نازی شدن است.
  • 8:22 - 8:24
    واقعا اینقدر ساده نیست.
  • 8:24 - 8:25
    و در گزارشم
  • 8:25 - 8:29
    راحت‌تر هستم بیشتر توصیفی باشم
    تا ارائه دهنده راه حل.
  • 8:29 - 8:32
    اما اینجا TED است.
  • 8:32 - 8:34
    پس بیایید عملگرا باشیم.
  • 8:34 - 8:35
    می‌خواهم تعدادی پیشنهاد ارائه کنم
  • 8:35 - 8:39
    از چیزهایی که شهروندان
    اینترنت مثل من و شما
  • 8:39 - 8:42
    قادریم انجام دهیم تا مسائل
    کمتر سمی باشند
  • 8:43 - 8:45
    اول اینکه شکاک باهوشتری باشیم.
  • 8:46 - 8:48
    به نظرم دو نوع شکاکیت وجود دارد.
  • 8:48 - 8:52
    نمی خواهم شما را وارد مفاهیم
    معرفت شناختی کنم،
  • 8:52 - 8:55
    اما من به آنها شک عاقلانه و احمقانه
    می‌گویم.
  • 8:56 - 8:59
    اما شک عاقلانه:
  • 8:59 - 9:00
    برای خودتان فکر کنید،
  • 9:00 - 9:01
    ادعاها را زیر سوال ببرید،
  • 9:01 - 9:03
    تقاضای شهود کنید--
  • 9:03 - 9:04
    بسیار عالی، این شک حقیقی بود.
  • 9:05 - 9:08
    شک احمقانه:
    شبیه شکاکیت هست،
  • 9:08 - 9:11
    اما در واقع نزدیکتر
    به مخالفت‌گرایی است.
  • 9:12 - 9:13
    همه می‌گویند زمین گرد است،
  • 9:13 - 9:15
    شما می‌گویید زمین مسطح هست.
  • 9:15 - 9:16
    همه می‌گویند نژادپرستی بد است،
  • 9:16 - 9:19
    شما می‌گویید، «نمی‌دانم
    شک دارم.»
  • 9:20 - 9:24
    نمی‌دانم با چندنفر مرد جوان سفید
    در این چندسال صحبت کرده‌ام
  • 9:24 - 9:25
    که گفته‌اند:
  • 9:25 - 9:28
    «رسانه‌ها و معلمها همه تلاش می‌کنند
    به من تلقین کنند که
  • 9:28 - 9:31
    باور کنم مردبودن و نژاد سفید غالب است،
  • 9:31 - 9:33
    اما من نمی‌دانم،
    اینطور فکر نمی‌کنم.»
  • 9:33 - 9:37
    آقایان-- مخالفگراهای سفید جوان--
  • 9:37 - 9:39
    نگاه کنید:
  • 9:39 - 9:42
    اگر شما یک شکاک به گرد بودن زمین هستید
    و شکاک به برتری مرد
  • 9:42 - 9:45
    و نژادپرستی بدبینی است،
  • 9:45 - 9:47
    شما یک شک‌گرا نیستید،
    شما یک احمقید.
  • 9:47 - 9:51
    (تشویق)
  • 9:52 - 9:56
    عالی است که اندیشه مستقل داشته باشید،
    همه باید همینطور باشیم،
  • 9:56 - 9:57
    اما باهوش باشید.
  • 9:58 - 10:00
    موضوع بعدی آزادی بیان هست.
  • 10:00 - 10:04
    می‌شنوید که افراد باهوش موفق
    بگویند که طرفدار آزادی بیان هستند
  • 10:04 - 10:07
    و طوری می‌گویند که گویی
    مناظره‌ای در راه است،
  • 10:07 - 10:11
    که در واقع سرآغاز یک گفتگوی بامعنی است.
  • 10:12 - 10:14
    تمام چیزهای جذاب بعد از آن اتفاق می‌افتد.
  • 10:14 - 10:16
    خب، شما طرفدار آزادی بیان هستید.
    این یعنی چی؟
  • 10:16 - 10:19
    آیا به این معناست که دیوید دوک و
    ریچارد اسپنسر
  • 10:19 - 10:21
    نیاز دارند حساب توییتر فعال داشته باشند؟
  • 10:21 - 10:24
    آیا به این معناست که هرکس می‌تواند
    دیگری را
  • 10:24 - 10:25
    به هر دلیل آزار دهد؟
  • 10:25 - 10:28
    من همه لیست سخنرانان TED امسال را
    نگاه کردم.
  • 10:28 - 10:30
    یک شکاک گرد بودن زمین پیدا نکردم.
  • 10:30 - 10:33
    آیا این نقض قوانین آزادی بیان است؟
  • 10:33 - 10:37
    ببینید، ما همه طرفدار آزادی بیان هستیم
    این بی‌نظیر است،
  • 10:37 - 10:39
    اما اگر همه چیزی هست که می‌دانید
    که چگونه دوباره بگویید،
  • 10:39 - 10:42
    در مسیر گفتگوی مولد هستید.
  • 10:44 - 10:47
    ارجح کردن دوباره نجابت...
  • 10:47 - 10:48
    عالی!
  • 10:48 - 10:50
    (تشویق حضار)
  • 10:50 - 10:52
    بله اصلا نیاز نیست که آن را توضیح بدهم
  • 10:52 - 10:56
    در تحقیقاتم، سری به رددیت،
    یوتیوب یا فیسبوک می زنم
  • 10:56 - 10:58
    و قانون شریعت را جستجو کردم
  • 10:58 - 11:00
    یا هولوکاست را جستجو کردم.
  • 11:01 - 11:04
    و احتمالا حدس می زنید که الگوریتم
    چه چیزی نشان داد؟
  • 11:04 - 11:07
    آیا قانون شریعت ایالات
    متحده را خواهد زدود؟
  • 11:07 - 11:09
    آیا واقعا هولوکاست اتفاق افتاد؟
  • 11:10 - 11:12
    شک احمقانه.
  • 11:13 - 11:15
    و ما به این فضای پویای آنلاین
    و عجیب رسیده‌ایم
  • 11:15 - 11:17
    جایی که برخی تبلیغات تعصبی را
  • 11:17 - 11:20
    به عنوان موضوع حاشیه‌ای،
    یا خطرناک و جالب می‌بینند
  • 11:20 - 11:23
    و برخی حقایق پایه و نجابت انسانی را
    تعجب برانگیز می‌بینند
  • 11:23 - 11:26
    یا بیان اخلاقی یا فقط خسته کننده.
  • 11:26 - 11:30
    و الگوریتم شبکه‌های مجازی
    خواه عمدی یا سهوی
  • 11:30 - 11:32
    آن را تحریک می‌کنند،
  • 11:32 - 11:35
    چون تبلیغات تعصبی، برای سرگرمی
    فوق العاده است.
  • 11:35 - 11:37
    هرکسی روی آن کلیک می‌کند،
    هرکسی اظهارنظر می‌کند،
  • 11:37 - 11:39
    چه عاشقش باشند یا متنفر.
  • 11:39 - 11:42
    پس چیز اولی که باید اتفاق بیفتد
  • 11:42 - 11:45
    این است که شبکه‌های مجازی
    چارچوب خود را اصلاح کنند.
  • 11:45 - 11:49
    (تشویق حضار)
  • 11:50 - 11:53
    پس اگر صدای مرا می‌شنوید
    و فعال شبکه‌های اجتماعی هستید
  • 11:53 - 11:56
    یا در آن سرمایه‌گذاری کرده‌اید
    یا مالک آن هستید،
  • 11:57 - 11:58
    این نکته برای شماست.
  • 11:58 - 12:02
    اگر شما برای بالاترین سرگرمی احساسی
    بهینه شده‌اید
  • 12:02 - 12:06
    و این بالاترین سرگرمی احساسی،
    در حال آزار جهان است،
  • 12:06 - 12:09
    پس زمان اصلاح فرارسیده است
  • 12:09 - 12:12
    (تشویق حضار)
  • 12:15 - 12:18
    اما علاوه بر اعمال فشار برای اصلاح
  • 12:18 - 12:21
    و انتظار و امید به انجام آن،
  • 12:21 - 12:24
    چیزهایی هست که بقیه ما
    می‌توانیم انجام دهیم
  • 12:24 - 12:28
    می‌توانیم روشهای بهتر خلق کنیم یا
    پیشنهاد دهیم
  • 12:28 - 12:30
    که نوجوانان عصبانی به سراغ آنها بروند.
  • 12:30 - 12:33
    اگر چیزی می‌بینید که فکر می‌کنید
    واقعا خوشفکر و خلاق است
  • 12:33 - 12:36
    و می‌خواهید به اشتراک بگذارید
    می‌توانید آن کار را بکنید،
  • 12:36 - 12:39
    حتی اگرباعث برانگیختن احساسات شما نشود.
  • 12:39 - 12:41
    این خیلی قدم کوچکی است، می‌دانم،
  • 12:41 - 12:43
    اما در مجموع، این چیزها اهمیت دارد،
  • 12:43 - 12:46
    چون این الگوریتم‌ها، بر پایه توانمندیشان
  • 12:46 - 12:48
    راهنمای رفتارشان را از ما می‌گیرند.
  • 12:50 - 12:51
    بنابراین اجازه دهید بگویم
  • 12:52 - 12:54
    چند سال پیش، به صورت سرآمدی
  • 12:54 - 12:57
    اینترنت یک ابزار انقلابی بود
  • 12:57 - 12:59
    که داشت ما را بهم نزدیک می‌کرد.
  • 12:59 - 13:01
    جالب‌تراست بگویم که
  • 13:01 - 13:04
    اینترنت یک آتش‌سوزی بزرگ پایان‌ناپذیر است.
  • 13:05 - 13:07
    هیچ کاریکاتوری واقعا درست نیست.
  • 13:07 - 13:09
    ما می‌دانیم که اینترنت بسیار وسیع و
    پیچیده است
  • 13:09 - 13:11
    با همه خوبیها و بدیها.
  • 13:11 - 13:13
    و خطر این طرز فکر
  • 13:13 - 13:16
    چه این خوشبینی که اینترنت
    به طور گریزناپذیری ما را نجات خواهد داد
  • 13:16 - 13:20
    یا بدبینی که ناگزیرا ما را
    از بین خواهد برد،
  • 13:20 - 13:22
    به هر حال ما خود را آزاد خواهیم کرد.
  • 13:24 - 13:26
    هیچ چیزی درباره آینده ما
    گریزناپذیر نیست.
  • 13:27 - 13:29
    اینترنت از مردم ساخته شده است.
  • 13:29 - 13:32
    مردم در شرکتهای شبکه‌های اجتماعی
    تصمیم می‌گیرند.
  • 13:32 - 13:35
    مردم هشتگ‌ها را ترند می‌کنند
    یا برعکس.
  • 13:35 - 13:38
    مردم جوامع را پیشرو یا عقبگرا می‌کنند.
  • 13:39 - 13:41
    وقتی ما این حقیقت را
    درونی کردیم
  • 13:41 - 13:44
    که می‌توانیم انتظار برای رسیدن
    آینده ناگزیر را متوقف کنیم
  • 13:44 - 13:45
    و واقعا همین حالا دست به کار شویم.
  • 13:47 - 13:50
    ما همه آموخته‌ایم که قوس
    جهان اخلاقی طولانی است
  • 13:50 - 13:52
    اما به سمت عدالت سرهم خواهد کرد.
  • 13:54 - 13:56
    ممکن است.
  • 13:57 - 13:58
    شاید بکند.
  • 13:59 - 14:01
    اما همیشه امیدی هست.
  • 14:01 - 14:03
    این یک تضمین نیست.
  • 14:04 - 14:06
    قوس به خودی خود خم نخواهد شد.
  • 14:06 - 14:10
    با یک نیروی اسرار آمیز
    ناگزیرا خم نمی‌شود.
  • 14:10 - 14:11
    حقیقت واقعی،
  • 14:11 - 14:14
    که ترسناک‌تر و در عین حال آزادی بخش‌تراست،
  • 14:15 - 14:16
    اینکه ما آن
    را خم می‌کنیم.
  • 14:17 - 14:18
    متشکرم.
  • 14:18 - 14:21
    (تشویق حضار)
Title:
درون دنیای عجیب ترول‌ها و مبلغان اینترنتی
Speaker:
اندرو مرنتز
Description:

اندرو مرنتز خبرنگار، سه سال را در دنیای ترول‌های اینترنتی و مبلغان شبکه‌های اجتماعی در جستجوی افرادی گذراند که موضوعات حاشیه‌ای را به محور گفتگوی آنلاین می‌کشانند و تلاش کرد دریابد چگونه این افراد نظرات خود را انتشار می‌دهند. وارد دنیای تبلیغات آنلاین و اطلاعات نادرست شوید -- و یاد بگیرید ما می‌توانیم اینترنت را به محیطی کمتر سمی تبدیل کنیم.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Persian subtitles

Revisions