Return to Video

چگونه توییتر به تغییرات احتیاج دارد؟

  • 0:01 - 0:04
    کریس اندرسون: در حال حاضر
    چه چیزی نگرانت می‌کند؟
  • 0:04 - 0:06
    تو در مورد مسائل زیادی
    با صراحت در توییتر صحبت کرده‌ای.
  • 0:06 - 0:09
    در حال حاضر بزرگترین دغدغه‌ات
  • 0:09 - 0:11
    در مورد این مسائل چیست؟
  • 0:11 - 0:14
    جک دورسی: درحال حاضر،
    سلامت مکالمه است.
  • 0:14 - 0:18
    هدف ما، خدمت به مکالمه عمومی است،
  • 0:18 - 0:23
    ما شاهد مخالفت‌هایی با این موضوع بودیم.
  • 0:23 - 0:26
    ما سوء استفاده، آزارواذیت،
  • 0:26 - 0:29
    دغل کاری،
  • 0:29 - 0:33
    کنترل خودکار، دخالت انسانی
    و اطلاعت نادرست را تجربه کرده‌ایم.
  • 0:34 - 0:38
    اینها تحرکاتی هستند که انتظارشان را
  • 0:38 - 0:42
    ۱۳ سال پیش وقتی شرکت را
    تأسیس کردیم، نداشتیم.
  • 0:42 - 0:45
    اما حالا آنها را در مقیاس بزرگ می‌بینیم،
  • 0:45 - 0:50
    و آنچه بیشتر از همه نگرانم می‌کند،
    توانایی ما برای رسیدگی به آنها
  • 0:50 - 0:53
    به صورت نظا‌م‌‌مند
    و در مقیاس‌های مختلف است،
  • 0:53 - 1:00
    با درک دقیق از اینکه
    چگونه اقدام می‌کنیم،
  • 1:00 - 1:03
    درکی شفاف ازنحوه‌ی اقداماتمان
  • 1:03 - 1:06
    و فرایند تجدید نظری سختگیرانه
    برای زمانی که اشتباه می‌کنیم،
  • 1:06 - 1:08
    زیرا بی‌شک اشتباه خواهیم کرد.
  • 1:09 - 1:11
    ویتنی پنینگتون راجرز:
    واقعاً خوشحالم که می شنوم
  • 1:11 - 1:13
    این چیزی است که نگرانت می‌کند،
  • 1:13 - 1:16
    چون فکر می‌کنم خیلی
    درباره افرادی نوشته شده
  • 1:16 - 1:18
    که فکرمی‌کنند در توییتر
    مورد سواستفاده قرارگرفته‌اند
  • 1:18 - 1:22
    فکر می‌کنم بیشترین آزار برای زنان
    و زنان رنگین پوست
  • 1:22 - 1:23
    و زنان سیاه پوست است.
  • 1:23 - 1:25
    و داده‌هایی ازآن منتشر شده --
  • 1:25 - 1:28
    عفو بین الملل چند ماه پیش
    گزارشی منتشر کرد
  • 1:28 - 1:33
    که نشان می‌داد بخشی از
    کاربران زن سیاهپوست فعال در توییتر
  • 1:33 - 1:36
    به طور میانگین یک دهمِ
    توییت‌هایی که دریافت می‌کردند،
  • 1:36 - 1:38
    نوعی آزار و اذیت بوده است.
  • 1:38 - 1:42
    وقتی به سلامت جامعه‌ی
    توییتر فکر می‌کنید،
  • 1:42 - 1:46
    من مایل به شنیدن،
    «سلامت همه» هستم،
  • 1:46 - 1:49
    اما به طور خاص: چگونه
    می‌خواهید توییتر را به فضایی امن
  • 1:49 - 1:54
    برای گروه‌هایی مانند زنان،
    زنان رنگین پوست و سیاه پوست تبدیل کنید؟
  • 1:54 - 1:55
    جک دورسی: بله.
  • 1:55 - 1:57
    وضعیت هولناکی است
  • 1:57 - 1:59
    وقتی از سیستمی استفاده می‌کنید
  • 1:59 - 2:03
    که در حالت ایده‌آل،
    از آن چیزی درباره جهان فرا بگیرید،
  • 2:03 - 2:09
    و بخش عمده‌ای از وقتتان را
    به گزارش دهی آزار،
  • 2:09 - 2:11
    دریافت آزار و اذیت می‌گذرانید.
  • 2:11 - 2:18
    چیزی که ما عمیق‌تر بررسی
    می‌کنیم، تنها انگیزه‌هایی است
  • 2:18 - 2:22
    که این سرویس و این برنامه
    به طور طبیعی ایجاد می‌کند.
  • 2:22 - 2:27
    در حال حاضر، نحوه کار این سیستم،
    آزار و اذیت دیگران را
  • 2:27 - 2:31
    از طریق این شبکه بسیار ساده کرده است،
  • 2:31 - 2:34
    و متأسفانه، بخش عمده‌ای
    از سیستم ما در گذشته
  • 2:34 - 2:39
    کاملاً بر اساس دریافت گزارش
    آزار و اذیت از مردم کار می‌کرد.
  • 2:39 - 2:45
    اواسط سال گذشته، ما تصمیم گرفتیم
    استفاده بسیار بیشتری
  • 2:45 - 2:49
    از یادگیری ماشینی و یادگیری عمیق
    برای این مشکل داشته باشیم،
  • 2:49 - 2:53
    و سعی کنیم بسیار بیشتر در زمینه
    سواستفاده فعال باشیم،
  • 2:53 - 2:57
    تا این بار را کاملاً
    از دوش قربانی برداریم.
  • 2:57 - 3:00
    و اخیراً پیشرفتهایی داشته‌ایم.
  • 3:00 - 3:06
    حدود ۳۸ درصد از توییت‌های توهین‌آمیز
    اکنون به صورت فعالانه شناسایی می‌شوند
  • 3:06 - 3:08
    با الگوریتم‌های یادگیری ماشینی
  • 3:08 - 3:10
    تا دیگر نیازی به گزارش‌دهی آنها
    توسط مردم نباشد.
  • 3:10 - 3:14
    اما موارد شناسایی شده، همچنان
    توسط انسان‌ها مرور می‌شوند،
  • 3:14 - 3:19
    پس ما محتوا یا اکانت‌ها را بدون
    مرور آنها توسط انسان، حذف نمی‌کنیم.
  • 3:19 - 3:22
    اما در سال گذشته صفر درصد بود.
  • 3:22 - 3:24
    و این به این معناست که در آن صفر درصد،
  • 3:24 - 3:28
    هر فردی که مورد سواستفاده
    قرارمی‌گرفت باید آن را گزارش می‌داد،
  • 3:28 - 3:31
    که کار زیادی برای آنها و برای ما بود.
  • 3:31 - 3:33
    و در نهایت غیرمنصفانه بود.
  • 3:35 - 3:38
    کار دیگری که انجام می‌دهیم، این است
    که به عنوان یک شرکت مطمئن شویم که،
  • 3:38 - 3:42
    نمایی از تمام جوامعی که
    سعی داریم به آنها خدمات دهیم داشته باشیم.
  • 3:42 - 3:44
    ما نمی‌توانیم کسب و کار موفقی را بسازیم
  • 3:44 - 3:47
    مگر اینکه دیدگاه‌های متفاوتی
    داخل مجموعه خودمان داشته باشیم
  • 3:47 - 3:51
    که در واقع هر روز این مسائل را احساس کند.
  • 3:51 - 3:55
    و این فقط برای گروهی
    که کار را انجام می‌دهد نیست،
  • 3:55 - 3:57
    بلکه برای رهبری سازمان هم هست.
  • 3:57 - 4:03
    پس ما باید برای ایجاد همدلی
    با چیزی که مردم تجربه می‌کنند ادامه دهیم
  • 4:03 - 4:06
    و ابزارهای بهتری
    برای استفاده به آنها بدهیم
  • 4:06 - 4:10
    و همچنین به مشتریانمان
    رویکرد بسیار بهتر و آسانتری
  • 4:10 - 4:13
    برای حل مشکلاتی
    که با آن روبه رو هستند ارائه کنیم.
  • 4:13 - 4:16
    بیشتراقدامات ما
    در حیطه تکنولوژی است،
  • 4:16 - 4:20
    اما همچنان به کارهایی
    که مشوق ماست دقت می‌کنیم:
  • 4:20 - 4:25
    وقتی برا اولین بار توییتر را باز می‌کنید
    انگیزه چه کاری را به شما می‌دهد؟
  • 4:25 - 4:27
    و در گذشته،
  • 4:29 - 4:34
    محرک خشونت بسیار زیاد،
    و محرک رفتار زشت اراذل اوباش،
  • 4:34 - 4:37
    باعث اذیت و آزار گروهی زیادی می‌شد.
  • 4:37 - 4:40
    و ما باید نگاه عمیق‌تری
    به برخی از اصولی داشته باشیم
  • 4:40 - 4:43
    که این خدمات در جهت
    تغییرات بزرگتر انجام می‌دهد.
  • 4:43 - 4:47
    ما می‌توانیم تغییرات زیادی را در حیطه
    تکنولوژی ایجاد کنیم، همانطور که گفتم،
  • 4:47 - 4:52
    در نهایت ما باید در
    پویایی خود شبکه بی نقص باشیم،
  • 4:52 - 4:53
    و داریم آن را انجام می‌دهیم.
  • 4:53 - 4:55
    کریس اندرسون: اما حس شما چیست--
  • 4:55 - 4:59
    چه نوع کاری هست
    که شما احتمالا قادر هستید تغییرش دهید
  • 4:59 - 5:02
    که در واقع به طور اساسی
    رفتار را تغییر دهد؟
  • 5:03 - 5:05
    جک دورسی: خب، یکی از کارها--
  • 5:05 - 5:10
    ما این شبکه را با هدف دنبال کردن
    یک حساب کاربری آغاز کردیم،
  • 5:10 - 5:12
    به عنوان مثال،
  • 5:12 - 5:16
    ما دقیقا نمی‌دانیم که مردم
    چرا وارد توییتر می‌شوند.
  • 5:16 - 5:21
    من معتقدم که توییتر بهترین برنامه
    به عنوان یک شبکه مبتنی بر علاقه است.
  • 5:21 - 5:25
    مردم با علایق به خصوصی وارد می‌شوند.
  • 5:25 - 5:28
    آنها باید اعمال زیادی را
    برای پیدا کردن و دنبال کردن صفحه موردنظر
  • 5:28 - 5:30
    مورد علاقه‌شان انجام ‌دهند.
  • 5:30 - 5:34
    کاری که در عوض می‌توانیم انجام دهیم
    اجازه‌ی دنبال کردن علاقه،
  • 5:34 - 5:36
    دنبال کردن یک هشتگ، دنبال کردن یک ترند،
  • 5:36 - 5:38
    دنبال کردن یک گروه است،
  • 5:38 - 5:42
    که به ما فرصت نمایش همه‌ی حساب‌ها،
  • 5:42 - 5:46
    موضوع‌ها، لحظه‌ها، هشتگ‌ها
  • 5:46 - 5:50
    که مطابق با علاقه و موضوعی خاص است،
  • 5:50 - 5:54
    که واقعا نگرش شما را باز می‌کند.
  • 5:54 - 5:56
    اما این یک تغییر اساسی است
  • 5:56 - 6:00
    که سوگیری کل شبکه را
    از سوگیری یک حساب
  • 6:00 - 6:03
    به سوگیری به یک موضوع یا علاقه‌ خاص ببریم.
  • 6:03 - 6:06
    کریس اندرسون: آیا اینطور نیست
  • 6:07 - 6:11
    یکی از دلایلی که شما اینقدر مطلب
    در آنجا زیاد دارید
  • 6:11 - 6:15
    در نتیجه رقابت میلیون‌ها نفر در سراسر دنیا
  • 6:15 - 6:18
    درنوعی مسابقه‌ی گلادیاتوری با یکدیگر
  • 6:18 - 6:20
    برای جذب دنبال کننده و یا جلب توجه است؟
  • 6:20 - 6:24
    لایک، از نظر افرادی
    که فقط توییتر را می‌خوانند،
  • 6:24 - 6:25
    مهم نیست،
  • 6:25 - 6:29
    اما برای افرادی که آن
    را می آفرینند، می‌گویند:
  • 6:29 - 6:32
    «ای کاش بیشتر لایک،
    دنبال کننده و باز توییت داشتم.»
  • 6:32 - 6:34
    و آنها همیشه در حال تجربه
  • 6:34 - 6:36
    راه‌هایی برای دستیابی به آن هستند.
  • 6:36 - 6:40
    و همه‌ی ما دریافته‌ایم
    که کاری که مسیر شماره یک انجام می‌دهد
  • 6:40 - 6:44
    این است که به نوعی تحریک‌ کننده،
  • 6:44 - 6:47
    نفرت انگیز و شدیدا ناخوشایند باشند،
  • 6:47 - 6:50
    انگار، توهین‌های آشکار
    در توییتر یک آرزو هستند،
  • 6:50 - 6:53
    جایی که شما به سرعت آنها را جمع می‌کنید--
  • 6:53 - 6:57
    و همین موضوع عاملی خودجوش است
    برای عصبانیت شما.
  • 6:57 - 7:00
    چگونه این موضوع را حل و فصل می‌کنید؟
  • 7:01 - 7:04
    جک دورسی: فکر می‌کنم که کاملا درست گفتی،
  • 7:04 - 7:05
    و این موضوع به انگیزه‌ برمی‌گردد.
  • 7:06 - 7:08
    مثلا، یکی ازتصمیماتی
    که در روزهای اولیه گرفتیم
  • 7:08 - 7:13
    این بود که باید تعداد افرادی
    که شما را دنبال می‌کنند را نشان دهیم.
  • 7:13 - 7:16
    و تصمیم ما براین بود که این عدد
    باید بزرگ و برجسته باشد،
  • 7:16 - 7:20
    و هرچه که در آن صفحه هست
    بزرگ، برجسته و مهم است،
  • 7:20 - 7:22
    و مطالبی است که شما
    خواهان مدیریت آن هستید.
  • 7:22 - 7:24
    آیا این تصمیم درستی در آن زمان بود؟
  • 7:24 - 7:25
    احتمالا نه.
  • 7:25 - 7:27
    اگر قرار بود دوباره کار را شروع کنم،
  • 7:27 - 7:29
    این اندازه تاکیدی بر
    تعداد دنبال کننده‌ها نمی‌کنم.
  • 7:29 - 7:32
    تاکیدی روی تعداد لایک‌ها نخواهم داشت.
  • 7:32 - 7:35
    حتی فکر نمی‌کنم که لایک
    را در جایگاه اول قرار قرار دهم،
  • 7:35 - 7:38
    زیرا این موضوع حتی
  • 7:38 - 7:41
    ما را به سمت چیزی که
    باور داریم مهم است نمی‌برد،
  • 7:41 - 7:44
    که مشارکت سالم در شبکه
  • 7:44 - 7:47
    و مکالمه در شبکه،
  • 7:47 - 7:49
    شرکت در گفتگو،
  • 7:49 - 7:52
    و آموزش از طریق گفتگو است.
  • 7:52 - 7:54
    آنها مطالبی که
    ۱۳ سال پیش به انها فکر کنیم نیستند،
  • 7:54 - 7:57
    و معتقدیم که در حال حاضر
    بسیار حائز اهمیت‌اند.
  • 7:57 - 8:00
    پس در حال حاضر باید
    نحوه نشان‌دادن تعداد دنبال کنندگان،
  • 8:00 - 8:02
    نشان دادن بازتوییت‌ها،
  • 8:02 - 8:04
    لایک‌ها را بررسی کنیم.
  • 8:04 - 8:06
    و از شما این سوال پیچیده را بپرسم:
  • 8:06 - 8:09
    آیا این واقعا همان عددی است
    که ما از افراد می‌خواهیم بالا ببرند؟
  • 8:09 - 8:12
    آیا این همان چیزیست که،
    که وقتی توییتر را باز می‌کنید،
  • 8:12 - 8:14
    می‌بینید، «آیا این چیزی است
    که می‌خواهم افزایش بدهم؟»
  • 8:14 - 8:16
    و فکر نمی‌کنم که این الان هدفم باشد.
  • 8:16 - 8:19
    (تشویق حضار)
  • 8:19 - 8:21
    ویتنی: فکرمی‌کنم باید به
    توییت‌ها نگاهی بیندازیم
  • 8:21 - 8:23
    که از طرف حاضرین هم در حال ارسال است.
  • 8:24 - 8:26
    کریس اندرسون: بیایید ببینیم
    شما چه پرسیده‌اید؟
  • 8:26 - 8:30
    به طور کلی منظورم این هست که،
    یکی از موضوعات جالب راجب توییتر
  • 8:30 - 8:32
    استفاده از آن به عنوان یک بینش همه‌گیر،
  • 8:32 - 8:37
    شما دانش بیشتر، سوالات بیشتر،
    دیدگاههای بیشتری را یاد می‌گیرید
  • 8:37 - 8:38
    که بتوانید فکرش را بکنید،
  • 8:38 - 8:42
    که بعضی اوقات، بیشتر آنها واقعا مفید است.
  • 8:42 - 8:45
    ویتنی پنینگتون راجرز: فکر می‌کنم که این
    موضوع به سرعت نقل شده،
  • 8:45 - 8:48
    «برنامه توییتربرای مبارزه با دخالت
    خارجی در انتخابات ۲۰۲۰ چیست؟»
  • 8:48 - 8:51
    به نظر من این مسئله‌ و مشکلی است
  • 8:51 - 8:53
    که عموما در اینترنت شاهد آن هستیم،
  • 8:53 - 8:56
    که فعالیتهای مخرب
    و خودکار زیادی اتفاق می‌افتد.
  • 8:56 - 9:02
    و برای مثال، در توییتر
    یک سری کارهایی داریم
  • 9:02 - 9:05
    که حاصل تحقیقات دوستانمان
    در آزمایشگاه زیگنال است،
  • 9:05 - 9:07
    و ممکن است که این موضوع به عنوان مثالی،
  • 9:07 - 9:09
    از چیزی که دارم از آن صحبت می‌کنم باشد،
  • 9:09 - 9:12
    جایی که این رباتها را داشته باشید،
    اگر بخواهید،
  • 9:13 - 9:17
    یا فعالیت مخرب خودکار حساب کاربری،
  • 9:17 - 9:20
    می‌تواند بر موضوعاتی
    چون انتخابات تاثیر بگذارد.
  • 9:20 - 9:24
    و در این مثال که زیگنال با
    ما به اشتراک گذاشته
  • 9:24 - 9:26
    با استفاده از اطلاعاتی که از توییتر داریم،
  • 9:26 - 9:28
    می‌توانید متوجه شوید که در این مورد،
  • 9:28 - 9:33
    رنگ سفید نشان دهنده افراد یا حساب است،
    هر نقطه یک حساب کاربری است.
  • 9:33 - 9:34
    هر چه بیشتر صورتی باشد،
  • 9:34 - 9:36
    فعالیت ماشینی‌تر است.
  • 9:36 - 9:42
    و می‌توانید چگونگی تعامل
    انسان و ربات‌ها را ببینید.
  • 9:42 - 9:46
    این موضوع در رابطه با
    انتخابات در اسرائیل است
  • 9:46 - 9:49
    و انتشار اخبار غلط
    در رابطه با بنی گنتز،
  • 9:49 - 9:52
    و همانطور که می‌دانیم، در نهایت،
    انتخاباتی بود،
  • 9:52 - 9:56
    که نتانیاهو با اختلاف کمی برنده شد،
  • 9:56 - 9:59
    و ممکن است به نحوی
    از این موضوع تاثیر گرفته باشد.
  • 9:59 - 10:01
    و زمانی که به رخ دادن
    این موضوع در توییتر فکر می‌کنید،
  • 10:01 - 10:04
    به طور خاص، چه کارهایی
  • 10:04 - 10:07
    برای اطمینان از غلط نبودن اطلاعات
    و انتشار آنها به این شکل،
  • 10:07 - 10:12
    و تاثیر آن بر انسان‌ها
    و دموکراسی انجام می‌دهید؟
  • 10:12 - 10:13
    جک دورسی: کمی به عقب برگردیم،
  • 10:13 - 10:16
    ما یک سوال از خودمان پرسیدیم:
  • 10:16 - 10:20
    آیا ما می‌توانیم عفت کلاممان
    را اندازه‌گیری کنیم،
  • 10:20 - 10:22
    و این به چه معناست؟
  • 10:22 - 10:25
    همانطور که شما معیارهایی دارید،
  • 10:25 - 10:28
    و ما به عنوان انسان از لحاظ سلامتی
    یا عدم سلامتی معیارهایی داریم،
  • 10:28 - 10:33
    مانند دما، سرخی صورت،
  • 10:33 - 10:38
    ما معتقدیم که می‌توانیم
    معیار‌هایی برای عفت کلام پیدا کنیم.
  • 10:38 - 10:42
    و ما با یک آزمایشگاه به نام
    کورتیکو در مؤسسهٔ فناوری ماساچوست
  • 10:42 - 10:49
    برای پیشنهاد چهار معیار ابتدایی
  • 10:49 - 10:52
    و ما معتقدیم که درنهایت می‌توانیم
    به سنجش این سیستم بپردازیم.
  • 10:53 - 10:59
    و اولین مسئله چیزیست
    که ما به آن توجه مشترک می‌گوییم.
  • 10:59 - 11:02
    این یک سنجش از مقیاسی است که طی آن
    مشخص می‌شود گفتگو
  • 11:02 - 11:05
    به چه میزان متمرکز و یا پراکنده است.
  • 11:06 - 11:09
    دومین مسئله واقعیت مشترک نامیده می‌شود،
  • 11:09 - 11:11
    و مشخص کننده این است
    که چه در صدی از مکالمه
  • 11:12 - 11:14
    واقعیت‌های یکسان را بیان می‌کند
  • 11:14 - 11:17
    آیا این حقایق واقعی هستند یا خیر،
  • 11:17 - 11:20
    آیا ما حقایق را همانطور که نقل می‌کنیم
    به اشتراک می‌گذاریم؟
  • 11:20 - 11:23
    سومین مورد پذیرش است:
  • 11:23 - 11:27
    چه مقدار از مکالمات
    قابل پذیرش و مودبانه
  • 11:27 - 11:30
    و یا برعکس آن نامناسب است؟
  • 11:30 - 11:33
    و سپس مورد چهارم
    دیدگاه‌های مختلف است.
  • 11:33 - 11:37
    آیا ما فقط فضای فیلتر شده
    یا اتاقهای پژواک را می‌بینیم؟
  • 11:37 - 11:40
    یا اینکه مجموعه‌ای از ایده‌های متفاوت را
  • 11:40 - 11:41
    در یک مکالمه دریافت می‌کنیم؟
  • 11:41 - 11:45
    و نکته ضمنی در هر چهار مورد
    درک این است که،
  • 11:45 - 11:49
    هر چه آنها افزایش پیدا کنند
    مکالمه سالم‌تر و سالم‌تر می‌شود.
  • 11:49 - 11:54
    بنابراین اولین قدم ما این است که بتوانیم
    این‌ها را به صورت آنلاین اندازه‌گیری کنیم،
  • 11:54 - 11:55
    که معتقدیم می‌توانیم.
  • 11:55 - 11:58
    ما بیشترین اقدامات را
    در ارتباط با قدرت پذیرش داریم.
  • 11:58 - 12:03
    ما یک درجه نامناسب بودن داریم،
    یک مدل روی سیستممان
  • 12:03 - 12:07
    که در حقیقت می‌تواند اندازه‌گیری کند
  • 12:07 - 12:09
    از گفتگویی که در توییتر می‌بینید
    صرف‌نظر کنید
  • 12:09 - 12:11
    زیرا شما آن را،
  • 12:11 - 12:13
    با درصد زیادی نامناسب می‌دانید.
  • 12:14 - 12:17
    ما درحال اندازه‌گیری بقیه‌ی آن هستیم،
  • 12:17 - 12:19
    و قدم بعدی،
  • 12:19 - 12:22
    همزمان با پیدا کردن راه حل،
  • 12:22 - 12:25
    بررسی این است که چگونه
    این اقدامات در طول زمان رواج پیدا کرده
  • 12:25 - 12:27
    و آزمایش شوند.
  • 12:27 - 12:31
    و هدف ما اطمینان پیدا کردن
    از توازن آنها است،
  • 12:31 - 12:35
    زیرا اگر شما یکی را بالا می‌برید،
    شاید دیگری را پایین بیاورید.
  • 12:35 - 12:37
    اگر شما تنوع دیدگاه را بالا ببرید،
  • 12:37 - 12:40
    باید واقعیت مشترک را کاهش دهید.
  • 12:40 - 12:45
    کریس اندرسون: برخی سوالاتی که
    این جا وجود دارد را انتخاب می‌کنیم.
  • 12:45 - 12:46
    جک دورسی: سوالات مداوم.
  • 12:47 - 12:51
    کریس اندرسون: بسیاری از مردم
    می‌پرسند که چرا،
  • 12:51 - 12:55
    بیرون کردن نازی‌ها
    از توییتر اینقدر سخت است؟
  • 12:56 - 12:58
    جک دورسی: (خنده)
  • 12:58 - 13:05
    ما سیاست‌هایی در رابطه با
    گروه‌های افراطی داریم،
  • 13:05 - 13:09
    و بیشتر کار و شرایط استفاده از خدمات ما
  • 13:09 - 13:13
    کار کردن بر روی رفتار است نه محتوا.
  • 13:13 - 13:15
    در واقع ما دنبال راهبرد هستیم.
  • 13:15 - 13:18
    راهبردی برای استفاده از خدماتی که
  • 13:18 - 13:22
    به صورت مداوم یا نامنسجم
    به آزار فردی،
  • 13:22 - 13:25
    با استفاده از تصاویر تنفرآمیز می‌پردازند
  • 13:25 - 13:27
    که ممکن است با انجمن کوکلاکس کلان
  • 13:27 - 13:30
    یا نازی‌های آمریکایی در ارتباط باشند.
  • 13:30 - 13:34
    اینها مواردی هستند که ما به سرعت
    به آن واکنش نشان می‌دهیم.
  • 13:35 - 13:40
    الان در شرایطی هستیم که این لغت
    نسبتا آزادانه استفاده می‌شود،
  • 13:40 - 13:46
    و ما نمی‌توانیم یک فرد که این لغت
    برای او اشاره شده درنظر بگیریم
  • 13:46 - 13:48
    و دیگری را متهم کنیم
  • 13:48 - 13:52
    به عنوان یک نشانه واقعی
    که آنها باید از برنامه حذف شوند.
  • 13:52 - 13:54
    بسیاری از نمونه‌های ما پیرامون
    شماره یک است:
  • 13:54 - 13:58
    آیا این حساب با یک گروه خشن افراطی
    در ارتباط است؟
  • 13:58 - 14:00
    اگر باشد، ما می‌توانیم اقدام کنیم.
  • 14:00 - 14:03
    و همین کار را در مقابل
    ک ک ک ونازی‌های آمریکایی کرده‌ایم.
  • 14:03 - 14:08
    و شماره دو: آیا آنها
    از تصاویر یا رفتارهایی
  • 14:08 - 14:10
    که آنها را به هم مرتبط می‌کند،
    استفاده می‌کنند؟
  • 14:10 - 14:13
    کریس اندرسون: چند نفر در رابطه با
    تعدیل محتوا دارید
  • 14:13 - 14:15
    تا این را بررسی کنند؟
  • 14:15 - 14:16
    جک دورسی: متفاوت است.
  • 14:16 - 14:18
    می‌خواهیم دراین رابطه منعطف باشیم
  • 14:18 - 14:20
    می‌خواهیم مطمئن شویم
    که اولین نفر هستیم،
  • 14:20 - 14:25
    که به جای استخدام تعداد زیادی از افراد
    الگوریتم می‌سازیم،
  • 14:25 - 14:28
    زیرا باید مطمئن شویم،
    که این موضوع مقیاس‌پذیر است،
  • 14:28 - 14:31
    وهیچ تعدادی از مردم نیست که بتوانند این
    موضوع را اندازه‌گیری کنند.
  • 14:31 - 14:38
    و به همین علت است که ما برای موضوع تشخیص
    پیشگیرانه‌ی سوءاستفاده اهمیت زیادی قائلیم
  • 14:38 - 14:39
    که انسانها
    بتوانندبازبینی کنند
  • 14:39 - 14:42
    ما می‌خواهیم موقعیتی ایجاد کنیم
  • 14:42 - 14:46
    که در آن الگوریتم‌ها مرتبا
    هر توییت را بررسی می‌کنند.
  • 14:46 - 14:48
    و جالب‌ترین آنها را در
    ابتدای صفحه قرار دهند
  • 14:48 - 14:52
    تا مردم تشخیص دهند که ما
    باید با توجه به شرایط استفاده
  • 14:52 - 14:54
    از خدمات اقدامی بکنیم یا خیر.
  • 14:54 - 14:57
    ویتنی پنینگتون: اما افرادی که
    مقیاس‌پذیر باشند وجود ندارند،
  • 14:57 - 15:00
    اما در حال حاضر چند نفر
    این حساب‌ها را زیر نظر دارند؟
  • 15:00 - 15:03
    و چگونه متوجه می‌شوید چه چیزی کافیست؟
  • 15:03 - 15:05
    جک دورسی: این موضوع کاملا متغییر است.
  • 15:05 - 15:08
    گاهی اوقات ما افراد را به
    بخش هرزنامه‌ها منتقل می‌کنیم.
  • 15:08 - 15:12
    گاهی آنها را به سوءاستفاده و
    آزار و اذیت مرتبط می‌کنیم.
  • 15:12 - 15:15
    ما می‌خواهیم مطمئن شویم
    در افراد خود انعطاف‌پذیری داریم
  • 15:15 - 15:17
    تا بتوانیم آنها را به
    چیزی که ضروری‌‌تر است ببریم
  • 15:17 - 15:18
    گاهی، برای انتخابات.
  • 15:19 - 15:23
    ما یک رشته انتخابات داشتیم
    در مکزیک، یکی در هند،
  • 15:23 - 15:28
    مسلما، انتخابات سال گذشته،
    انتخابات میان دوره‌ای،
  • 15:28 - 15:30
    بنابراین می‌خواهیم در
    منابع خود منعطف باشیم.
  • 15:30 - 15:33
    بنابراین وقتی انسان‌ها--
  • 15:33 - 15:39
    برای مثال، به شرایط فعلی
    استفاده از خدمات ما سری بزنید
  • 15:39 - 15:41
    و صفحه را بالا بیاورید،
  • 15:41 - 15:44
    و در مورد سوء استفاده و آزار و اذیتی که
    دریافت کردید مطمئن نیستید
  • 15:44 - 15:48
    و اگر برخلاف شرایط استفاده از سرویس ما بود
    که آن را گزارش دهید،
  • 15:48 - 15:51
    وقتی صفحه را باز می‌کنید
    اولین چیزی که می‌بینید
  • 15:51 - 15:54
    پیرامون حفاظت از مالکیت معنوی است.
  • 15:55 - 16:00
    صفحه را پایین می‌کشید و موقعیت
    این را دارید که به سوءاستفاده و آزار
  • 16:00 - 16:02
    و هر چیزی که تجربه کرده بودید برسید.
  • 16:02 - 16:05
    من نمی‌دانم آن اتفاق
    چطور در تاریخ شرکت افتاد،
  • 16:05 - 16:10
    ما آن را بالاتر از چیزی
    که مردم می‌خواهند قرار دادیم
  • 16:12 - 16:15
    بیشترین اطلاعات در مورد آن
    و اقدام کردن در خصوص آن.
  • 16:15 - 16:21
    و برنامه‌های ما به جهان نشان داد
    چیزی که ما به آن معتقدیم حائز اهمیت است.
  • 16:21 - 16:24
    پس داریم همه‌ی آنها را تغییر می‌دهیم.
  • 16:24 - 16:25
    آنها را به شکل درست
    مرتب می‌کنیم،
  • 16:25 - 16:29
    ما همچنان قوانین را ساده می‌کنیم
    تا توسط انسان‌ها قابل خواندن باشد
  • 16:29 - 16:33
    تا در واقع با این روش
    افراد خودشان درک کنند
  • 16:33 - 16:36
    چه‌موقع چیزی برخلاف
    شرایط استفاده از توییتر هست یا نه.
  • 16:36 - 16:38
    سپس ما دوباره--
  • 16:38 - 16:44
    به تمرکز بر روی برداشتن
    کار از دوش قربانیان می‌پردازیم.
  • 16:44 - 16:47
    و این به معنای حرکت بیشتر به سمت تکنولوژی،
  • 16:47 - 16:49
    تا انسان‌هایی است
    که کار را انجام می‌دهند
  • 16:49 - 16:52
    یعنی انسان‌هایی که
    مورد سواستفاده قرار می‌گیرند
  • 16:52 - 16:55
    و همینطور انسان‌هایی که
    باید این کار را بازبینی کنند.
  • 16:55 - 16:56
    ما می‌خواهیم مطمئن شویم
  • 16:56 - 16:59
    که نه تنها کار بیشتری را برای یک کار
  • 16:59 - 17:02
    بسیار، بسیار منفی
    و ناخوشایند صرف نمی‌کنیم،
  • 17:02 - 17:05
    و می‌خواهیم تعادل مناسبی را بین تکنولوژی
  • 17:05 - 17:08
    و خلاقیت انسانها به وجود آوریم،
  • 17:08 - 17:11
    که قضاوت در رابطه با قوانین است،
  • 17:11 - 17:14
    و نه فقط چیزهای مکانیکی برای
    پیدا کردن و گزارش آنها.
  • 17:14 - 17:15
    و این رویکرد ما به موضوع است.
  • 17:15 - 17:18
    ک. ا: من مایلم به چیزهایی
    که گفتید بیشتر بپردازیم
  • 17:18 - 17:21
    منظورم این است که شما گفتید که
    دنبال راه‌هایی برای
  • 17:21 - 17:24
    تغییر اصول اساسی طراحی سیستم هستید
  • 17:24 - 17:29
    برای تضعیف واکنش‌های احتمالی و شاید--
  • 17:29 - 17:32
    با استفاده از زبان تریسان هریس--
  • 17:32 - 17:36
    مردم را بیشتر به تفکر وا دارید.
  • 17:36 - 17:38
    این موضوع چقدر پیشرفت کرده؟
  • 17:38 - 17:42
    جایگیزین‌های احتمالی
    آن دکمه‌ی «لایک» چیست؟
  • 17:44 - 17:47
    جک دورسی: خب، اولین و مهم ترین موضوع،
  • 17:47 - 17:53
    هدف شخصی من در رابطه با این
    سرویس این است که معتقدم که اساسا
  • 17:53 - 17:56
    گفتگوی عمومی مهم است.
  • 17:56 - 17:58
    جهان با مشکلات زیادی روبه روست
  • 17:58 - 18:02
    که تمام دنیا را درگیر کرده،
    نه فقط یک کشور خاص،
  • 18:02 - 18:05
    که گفتگوی سراسری جهانی فوایدی دارد.
  • 18:05 - 18:08
    و این یکی از پویایی‌های
    منحصر به فرد توییتر است،
  • 18:08 - 18:09
    که کاملا صریح،
  • 18:09 - 18:11
    کاملا همگانی،
  • 18:11 - 18:12
    کاملا سیال،
  • 18:12 - 18:16
    و هرکس می‌تواند در آن گفتگو و
    فعالیت داشته باشد.
  • 18:16 - 18:19
    گفتگوهایی مانند تغییرات آب و هوا.
  • 18:19 - 18:21
    مکالمه‌هایی چون جابه جایی محل کار
  • 18:21 - 18:23
    به وسیله هوش مصنوعی.
  • 18:23 - 18:26
    گفتگوهایی نظیر
    نابرابری‌های اقتصادی.
  • 18:26 - 18:29
    مهم نیست هر کشور چه کار می‌کند،
  • 18:29 - 18:32
    آنها نمی‌توانند مشکلشان
    را به تنهایی حل و فصل کنند.
  • 18:32 - 18:34
    این موضوع هماهنگی در کل جهان را می‌طلبد،
  • 18:34 - 18:37
    و فکر می‌کنم این همان جایی است که
    توییتر می‌تواند نقشی ایفا کند.
  • 18:37 - 18:43
    دومین مورد در رابطه با توییتر این است،
    که وقتی واردش می‌شوید،
  • 18:43 - 18:47
    الزاما احساس نمی‌کنید
    که چیزی یاد گرفته‌اید و بیرون آمده‌اید.
  • 18:47 - 18:48
    بعضی‌ها یاد می‌گیرند.
  • 18:48 - 18:51
    بعضی افراد شبکه‌ی قدرتمندی دارند،
  • 18:51 - 18:54
    گروهی قدرتمند که
    هر روز از آن یاد می‌گیرند.
  • 18:54 - 18:58
    اما ساخت این موضوع بسیار کار می‌برد
    و زمان زیادی می‌خواهد.
  • 18:58 - 19:02
    ما می‌خواهیم که مردم را
    در این موضوعات و علایق وارد کنیم
  • 19:02 - 19:03
    بسیار، بسیار سریع‌تر
  • 19:03 - 19:06
    و مطمئن شویم که چیزی پیدا می‌کنند که،
  • 19:07 - 19:09
    مهم نیست چقدر
    از زمانشان را در توییتر می‌گذرانند--
  • 19:09 - 19:11
    ونمی‌خواهم زمان حضور
    در توییتر را به حداکثر برسانم
  • 19:11 - 19:14
    می‌خواهم مواردی را که از آن می‌گیرند
    به بالاترین سطح برسانم
  • 19:14 - 19:16
    و چیزی که یاد می‌گیرند و --
  • 19:18 - 19:19
    ک. ا: خب، این کار را کردید؟
  • 19:19 - 19:22
    زیرا این سوالی است که خیلی‌ها
    می‌خواهند بدانند.
  • 19:22 - 19:26
    جک، بی شک تو تحت فشار
    بسیاری هستی،
  • 19:26 - 19:28
    با این حقیقت که یک شرکت عمومی هستید،
  • 19:28 - 19:30
    تحت فشار سرمایه گذاران زیادی هستید،
  • 19:30 - 19:33
    تبلیغات اولین چیزیست
    که از آن پول درمی‌آورید
  • 19:33 - 19:36
    که وابسته به سرگرمی کاربران است.
  • 19:36 - 19:41
    آیا شما در صورت نیاز،
    زمان مخاطب را،
  • 19:41 - 19:45
    قربانی یک مکالمه توام با تفکر می‌کنید؟
  • 19:45 - 19:48
    جک د: بله، مکالمه توام با تفکر به
    معنای زمان کمتر است،
  • 19:48 - 19:50
    و بسیار عالی است،
  • 19:50 - 19:53
    زیرا ما می‌خواهیم مطمئن شویم که،
    شما به توییتر آمده‌اید،
  • 19:53 - 19:57
    و در لحظه چیزی را برای یادگیری یافتید
    و سپس از آن رد می‌شوید.
  • 19:57 - 20:01
    ما هنوز می‌توانیم کنار آن تبلیغ کنیم.
  • 20:01 - 20:04
    به این معنی نیست که باید زمان بیشتری
    صرف کنید تا بیشتر ببینید.
  • 20:04 - 20:05
    دومین موردی که به آن دقت می‌کنیم--
  • 20:05 - 20:08
    کریس اندرسون: اما با توجه به هدف
    مصرف روزانه،
  • 20:08 - 20:11
    اگر آن را اندازه‌گیری کنید
    الزاما به معنای چیزی که
  • 20:11 - 20:13
    مردم هر روز به آن
    اهمیت می‌دهند نیست.
  • 20:13 - 20:14
    ممکن است به معنای
  • 20:14 - 20:18
    چیزهایی باشد که مردم هرروزه
    مانند پروانه‌ای به نور شمع جذب آن شوند.
  • 20:18 - 20:21
    ما به آن معتادیم، زیرا چیزهایی را
    می‌بینیم که ما راعصبانی می‌کند
  • 20:21 - 20:24
    بنابراین وارد می‌شویم و درواقع
    به آتش دامن می‌زنیم،
  • 20:24 - 20:26
    و سرانه مصرف را بالا می‌رود،
  • 20:26 - 20:28
    و سود تبلیغاتی بیشتری به وجود می‌آید
  • 20:28 - 20:30
    اما نسبت به هم خشمگین‌تر می‌شویم.
  • 20:30 - 20:33
    شما چگونه تعریف می‌کنید
  • 20:33 - 20:37
    «استفاده فعال روزانه» اصطلاح خطرناکی
    برای بهینه سازی به نظر می‌رسد.
  • 20:37 - 20:42
    (تشویق)
  • 20:42 - 20:43
    ج. د: به تنهایی، بله هست،
  • 20:44 - 20:46
    اما نگذاشتید که معیار
    بعدی را به پایان برسانم،
  • 20:46 - 20:50
    که جستجوی مکالمات،
  • 20:50 - 20:52
    و زنجیره‌ی مکالمات توسط ماست.
  • 20:52 - 20:57
    ما می‌خواهیم انگیزه‌هایی برای
    بازگشت مشارکت سالم به شبکه ایجاد کنیم.
  • 20:57 - 21:01
    و چیزی که به آن ایمان داریم،
    یعنی مشارکت در گفتگو
  • 21:01 - 21:02
    که سالم است،
  • 21:02 - 21:07
    توسط همان چهار
    شاخصی که عنوان کردم.
  • 21:07 - 21:10
    بنابراین تنها یک معیار برای
    بهینه سازی ندارید.
  • 21:10 - 21:13
    باید تعادل داشته باشید و مدام مراقب باشید
  • 21:13 - 21:17
    چه چیزی مشارکتی سالم و تجربه‌ای
    سالم را در شبکه‌های اجتماعی
  • 21:17 - 21:19
    برای مردم ایجاد می‌کند.
  • 21:19 - 21:21
    در نهایت ما می‌خواهیم به معیاری برسیم
  • 21:21 - 21:25
    که مردم به ما بگویند،
    «هی، من از توییتر چیزی را یاد گرفتم،
  • 21:25 - 21:27
    و من با فرا گرفتن چیزی با ارزش
    از آن رد شدم.»
  • 21:27 - 21:29
    این هدف نهایی ما در طول زمان است،
  • 21:29 - 21:31
    اما این هدف کمی زمان بر است.
  • 21:31 - 21:36
    کریس اندرسون: فکر کنم این حس معماگونه
    برای من و خیلی‌ها وجود دارد.
  • 21:36 - 21:41
    شاید ناعادلانه باشد، اما من
    چند شب پیش با این تصویر بیدار شدم
  • 21:41 - 21:45
    از تصورم به شما
    و وضعیتی که در آن قرار دارید،
  • 21:45 - 21:52
    که ما در این سفرعالی با شما هستیم
    در یک کشتی به نام «توییتانیک» --
  • 21:52 - 21:53
    (خنده)
  • 21:53 - 21:57
    و افرادی هستند که
    سکان هدایت کشتی را در دست دارند
  • 21:57 - 22:00
    و ابراز ناراحتی می‌کنند،
  • 22:00 - 22:02
    و شما، برخلاف خیلی دیگر از ناخدایان،
  • 22:02 - 22:06
    می‌گویید، «خب، بگویید، با من سخن بگویید،
    به من گوش کنید، گوشم با شماست.»
  • 22:06 - 22:09
    و آنها با شما سخن می‌گویند و ابراز می‌کنند
    «ما نگران کوه یخ پیش رو هستیم.»
  • 22:09 - 22:11
    شما می‌گویید، «می‌دانید که این
    موضوعی مهم است،
  • 22:11 - 22:14
    و صادقانه، فرمان کشتی ما به
    طرز صحیحی
  • 22:14 - 22:16
    برای هدایت طراحی نشده.»
  • 22:16 - 22:17
    و ما می‌گوییم
    «لطفا کاری بکنید»
  • 22:17 - 22:19
    سپس شما به
    پل فرماندهی می‌روید
  • 22:19 - 22:21
    و ما منتظریم،
  • 22:21 - 22:26
    ما نگاه می‌کنیم و شما این آرامش
    فوق العاده را بروز می‌دهید،
  • 22:26 - 22:30
    اما همه ی ما بیرون ایستاده‌ایم و می‌گوییم،
    «جک، چرخ لعنتی را بچرخان.»
  • 22:30 - 22:31
    می‌دانید؟
  • 22:31 - 22:32
    (خنده)
  • 22:32 - 22:34
    (تشویق حضار)
  • 22:34 - 22:36
    منظورم این است--
  • 22:36 - 22:37
    (تشویق حضار)
  • 22:37 - 22:42
    دموکراسی در خطر است.
  • 22:42 - 22:45
    فرهنگ و جهان ما در معرض خطر است.
  • 22:45 - 22:50
    و توییتر شگفت انگیز است
    و خیلی چیزها را شکل می‌دهد.
  • 22:50 - 22:52
    اندازه بعضی از سیستم‌های دیگر بزرگ نیست،
  • 22:52 - 22:55
    اما افراد با نفوذ برای
    اهداف خود از آن استفاده می‌کنند،
  • 22:55 - 23:01
    و تصور نقشی مهم‌تر از این در جهان
    سخت است ...
  • 23:02 - 23:05
    منظورم این است، که شما کار عالی را
    انجام می‌دهید جک و صدای مردم را می‌شنوید،
  • 23:05 - 23:10
    اما برای جدی‌تر گرفتن ضرورت
    و عبور از این مسائل--
  • 23:10 - 23:12
    آیا آن را انجام خواهی داد؟
  • 23:13 - 23:17
    جک دورسی: بله و ما به طور
    مداوم در حرکت بوده‌ایم.
  • 23:17 - 23:20
    منظورم این است، که تعدادی تغییرات
    در تاریخ توییتر وجود دارد.
  • 23:20 - 23:22
    اول، وقتی که به شرکت بازگشتم،
  • 23:23 - 23:30
    ما در وضعیت بسیار بدی از
    لحاظ آینده خودمان قرار داشتیم،
  • 23:30 - 23:34
    نه فقط این موضوع که مردم چگونه از
    این سیستم استفاده می‌کردند،
  • 23:34 - 23:36
    بلکه همینطور از لحاظ شرکتی.
  • 23:36 - 23:40
    ما باید بسیاری از تاسیسات را
    سروسامان می‌دادیم،
  • 23:40 - 23:42
    تا شرکت را دوباره به مسیر موفقیت ببریم،
  • 23:42 - 23:45
    در دو مقطع کم‌کاری
    دیوانه‌کننده‌ای را تجربه کردیم،
  • 23:45 - 23:49
    زیرا ما برای کاری که
    انجام می‌دادیم زیادی بزرگ شده بودیم،
  • 23:49 - 23:51
    و تمام انژیمان را صرف
  • 23:51 - 23:54
    خدمت به گفتگوی عمومی کرده بودیم.
  • 23:54 - 23:56
    و این موضوع کمی کار لازم داشت.
  • 23:56 - 23:58
    و همانطور که وارد آن شدیم،
  • 23:58 - 24:01
    برخی مسائل را با اصول اساسی تشخیص دادیم.
  • 24:02 - 24:07
    ما می‌توانیم به کارهایی سطحی در ارتباط با
    چیزیکه در موردش صحبت می‌کنید، بپردازیم،
  • 24:07 - 24:09
    اما ما تا آخر به تغییرات نیازمندیم،
  • 24:09 - 24:11
    و این به معنای بسیار، بسیار عمیق شدن است
  • 24:11 - 24:15
    و توجه به موضوعی که
    ۱۳ سال پیش شروع شده
  • 24:15 - 24:18
    و بسیار سوال برانگیز است
  • 24:18 - 24:20
    که سیستم و چارچوبها
    چگونه کار می‌کنند
  • 24:20 - 24:24
    و جهان امروزه به چه چیزی نیاز دارد،
  • 24:24 - 24:28
    با توجه به اینکه همه چیز به سرعت در حال
    حرکت است و مردم چگونه از آن استفاده کنند.
  • 24:28 - 24:35
    ما تا جایی که بتوانیم با سرعت کار می‌کنیم،
    اما سرعت کار را تمام نمی‌کند.
  • 24:35 - 24:37
    دقت، اولویت بندی آن
  • 24:37 - 24:40
    درک اصول شبکه
  • 24:40 - 24:43
    و ایجاد چارچوبی است که مقیاس‌پذیر باشد
  • 24:43 - 24:46
    و مقیاس‌هایش در برابر تغییر مقاوم باشند،
  • 24:46 - 24:51
    و در رابطه با اینکه کجا هستیم صریح باشیم
    و در رابطه با اینکه کجا هستیم شفاف باشیم
  • 24:51 - 24:53
    تا بتوانیم باز هم
    به کسب اعتماد ادامه دهیم.
  • 24:54 - 24:57
    من به تمام چارچوب‌هایی
    که در آن قرار داریم افتخار می‌کنم.
  • 24:57 - 25:00
    من به مسیرمان افتخار می‌کنم.
  • 25:01 - 25:04
    بدیهی است که ما می‌توانیم
    سریع‌تر به پیش برویم،
  • 25:04 - 25:08
    اما این کار نیازمند توقف انجام دادن بعضی
    اشتباهاتی است که در گذشته انجام می‌دادیم.
  • 25:09 - 25:10
    کریس اندرسون: بسیار خب.
  • 25:10 - 25:14
    من گمان می‌کنم که خیلی از افرادی که اینجا
    حضور دارند اگر شانسش را داشته باشند،
  • 25:14 - 25:18
    دوست دارند که در مسیر این
    تغییر به شما کمک کنند،
  • 25:18 - 25:20
    و نمی‌دانم اگر ویتنی ...
  • 25:20 - 25:23
    جک، ممنون از اینکه اینجا آمدی
    و بسیار صریح صحبت کردی.
  • 25:23 - 25:24
    این موضوع شجاعت می‌طلبید.
  • 25:24 - 25:28
    بسیار حرفتان را تحسین می‌کنم
    و آرزوی موفقیت برای ماموریتتان می‌کنم.
  • 25:28 - 25:30
    جک دورسی: بسیار ممنونم.
    ممنون که دعوتم کردید.
  • 25:30 - 25:33
    (تشویق)
  • 25:33 - 25:34
    متشکرم.
Title:
چگونه توییتر به تغییرات احتیاج دارد؟
Speaker:
جک دورسی
Description:

آیا توییتر می‌تواند نجات پیدا کند؟ در یک مکالمه بسیار مفصل با کریس اندرسون و ویتنی پنینگتون، مدیر عامل توییتر، جک دورسی درباره آینده این سیتم صحبت می‌کند. با اذعان به مسائل مربوط به آزار و اذیت و تعدیل و پیشنهاد برخی تغییرات اساسی که او امیدوار است باعث تشویق مکالمات سالم و محترمانه شود. جک دورسی می‌پرسد: آیا ما سیستمی را ایجاد می‌کنیم که مردم همیشه برای آن ارزش قائل شوند؟

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Masoud Motamedifar approved Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Masoud Motamedifar edited Persian subtitles for How Twitter needs to change
Show all

Persian subtitles

Revisions