< Return to Video

ویدیوهای کابوس‌وار یوتیوب برای کودکان -- و دردسرهای امروزه اینترنت

  • 0:01 - 0:02
    جیمز هستم.
  • 0:02 - 0:04
    نویسنده و هنرمندم،
  • 0:04 - 0:06
    و کارم درباره فناوری است.
  • 0:06 - 0:10
    کارهایی مثل کشیدن هواپیماهای بدون
    سرنشین نظامی در مقیاس واقعی را در
  • 0:10 - 0:12
    خیابانهای شهرهای جهان انجام میدهم.
  • 0:12 - 0:15
    تا مردم شروع به فکر کردن
    به مسائل فناوری کنند
  • 0:15 - 0:19

    که هم دیدن و هم فهم شان سخت است.
  • 0:19 - 0:23
    ابزاری مثل شبکههای عصبی میسازم
    که نتایج انتخابات را بر اساس
  • 0:23 - 0:25
    گزارشهای هواشناسی پیش بینی میکند،
  • 0:25 - 0:26
    چون علاقمندم بفهمم
  • 0:26 - 0:30
    امکانات واقعی این فناوریهای
    عجیب جدید چیست؟
  • 0:31 - 0:34
    پارسال، اولین ماشین خودران خود را ساختم.
  • 0:34 - 0:36
    اما چون حقیقتا به فناوری اعتماد ندارم،
  • 0:36 - 0:38
    یک تله نیز برایش طراحی کردم.
  • 0:39 - 0:40
    (خنده)
  • 0:40 - 0:44
    و این کارها را برای این انجام میدهم
    که برایم خیلی جالبند،
  • 0:44 - 0:47
    و فکر میکنم که وقتی درباره فناوری
    حرف میزنیم
  • 0:47 - 0:49
    در واقع عمدتا درباره خودمان
  • 0:49 - 0:52
    و نحوه درک خود از جهان اطراف صحبت میکنیم.
  • 0:52 - 0:54
    خوب، داستانی از فناوری را تعریف میکنم.
  • 0:56 - 0:58
    این ویدئویی درباره تخم مرغ شانسی است.
  • 0:58 - 1:02
    در واقع این ویدئو شخصی است که
    کلی تخم مرغ شانسی را باز کرده و
  • 1:02 - 1:04
    اسباببازی داخل آن را نشان بیننده میدهد.
  • 1:04 - 1:07
    فقط همین. این کل چیزی است که
    طی ۷ دقیقه انجام میدهد.
  • 1:07 - 1:10
    و از شما می خواهم که به دو چیز
    در مورد این ویدئو توجه کنید.
  • 1:11 - 1:15
    نخست، این ویدئو
    ۳۰ میلیون بار دیده شده است.
  • 1:15 - 1:16
    (خنده)
  • 1:16 - 1:18
    و مورد بعدی این که،
  • 1:18 - 1:21
    این ویدئو از کانالی است که
    ۶/۳ میلیون عضو دارد،
  • 1:21 - 1:24
    که در مجموع ۸ میلیارد بازدید شده است.
  • 1:24 - 1:27
    و ویدیوهای مشابه اینطوری زیادند--
  • 1:28 - 1:32
    ۳۰ میلیون نفر به تماشای شخصی که در
    حال بازکردن تخم مرغ شانسی است نشستهاند.
  • 1:32 - 1:37
    بنظر عجیب است، اما اگر در یوتیوب
    تخم مرغ شانسی را جستجو کنید،
  • 1:37 - 1:40
    متوجه خواهید شد که ۱۰ میلیون
    از این ویدئوها وجود دارد،
  • 1:40 - 1:42
    که فکر میکنم این رقم
  • 1:42 - 1:44
    بسیار بسیار بالاتر باشد.
  • 1:44 - 1:46
    با ادامه جستجو متوجه
    میشوید که پایان ندارد.
  • 1:46 - 1:48
    میلیونها میلیون از این ویدئوها
  • 1:48 - 1:52
    که ترکیب عجیب و غربی از برندها
    و مواد هستند وجود دارد.
  • 1:52 - 1:56
    و هرروز هم تعداد بیشتری بارگذاری میشوند.
  • 1:56 - 1:59
    دنیای عجیبی است. نه؟
  • 1:59 - 2:03
    اما مساله این است که که مخاطب این ویدئوها
  • 2:03 - 2:06
    بزگسالان نیستند، بلکه کودکان هستند.
  • 2:06 - 2:08
    این ویدئوها مثل هروپین برای
    کودکان است.
  • 2:08 - 2:10
    این تکرار ویدئوها مانند
  • 2:10 - 2:12
    ترشح دوپامین،
  • 2:12 - 2:14
    آنها را گیر میاندازد.
  • 2:14 - 2:19
    و کودکان این ویدئوها را بارها و بارها و
  • 2:19 - 2:21
    بارها و ساعتها و ساعتها تماشا میکنند.
  • 2:21 - 2:24
    و اگر آنها را از این کار باز دارید،
  • 2:24 - 2:26
    جیغ و فریاد خواهند کرد.
  • 2:26 - 2:27
    اگر حرفم را باور ندارید--
  • 2:27 - 2:29
    و بعضی از شما را میبینم
    که سر تایید تکان میدهید--
  • 2:29 - 2:33
    اگر باور ندارید، افرادی که
    بچه دارند را پیدا کنید و از آنها بپرسید
  • 2:33 - 2:35
    تا به شما درباره
    این تخممرغ شانسیها بگویند.
  • 2:35 - 2:37
    خوب این شروع کار ما است.
  • 2:37 - 2:41
    سال ۲۰۱۸ است، و اشخاص یا خیلی از مردم
  • 2:41 - 2:45
    از ابزارهایی شبیه فیسبوک و
    اینستاگرم استفاده می کنند تا
  • 2:45 - 2:47
    شما را وادار به چک کردن آن اپلیکیشن کنند،
  • 2:47 - 2:51
    و از آن در یوتیوب استفاده میکنند تا
    مغز کودکان را برای
  • 2:51 - 2:53
    درآمد ناشی از تبلیغات شستشو دهند.
  • 2:54 - 2:56
    حداقل، کاری است
    که امیدوارم انجام دهند.
  • 2:56 - 2:58
    امیدوارم دنبال این باشند،
  • 2:58 - 3:04
    بدلیل اینکه راههای ساده تری برای کسب
    درآمد از تبلیغ در یوتیوب وجود دارد.
  • 3:04 - 3:06
    شما میتوانید محتوا تولید کنید یا بدزدید.
  • 3:06 - 3:09
    بنابراین اگر دنبال کارتونهای واقعا
    مشهور کودکان مثل
  • 3:09 - 3:10
    «پپاپیگ» یا «پاو پترول» باشید،
  • 3:10 - 3:14
    میلیونها و میلیونها از اینها را
    نیز انلاین پیدا کنید.
  • 3:14 - 3:17
    البته بیشتر آنها توسط
    خالقشان پست نشدهاند.
  • 3:17 - 3:20
    بلکه توسط بسیاری از حسابهای مختلف هستند
  • 3:20 - 3:22
    که پیدا کردن و پی بردن به انگیزهشان
  • 3:22 - 3:24
    غیرممکن است.
  • 3:24 - 3:26
    آیا به نظرتان آشنا نیست؟
  • 3:26 - 3:28
    چون همان مکانیزمی است که در بیشتر
  • 3:28 - 3:31
    سرویسهای دیجیتال استفاده میشود،
  • 3:31 - 3:34
    که غیر ممکن است بتوان منبع را یافت.
  • 3:34 - 3:36
    اساسا اخبار دروغ برای کودکان هستند،
  • 3:36 - 3:38
    و ما نیز از بدو تولد به کودکان میآموزیم
  • 3:38 - 3:41
    که روی اولین لینکی که میبینند
    کلیک کنند،
  • 3:41 - 3:43
    بدون توجه به منبع آن.
  • 3:43 - 3:45
    به نظر ایده جالبی نمیآید.
  • 3:46 - 3:49
    از برنامههای محبوب
    دیگر برای کودکان در یوتیوب،
  • 3:49 - 3:51
    ترانه خانواده انگشتی است.
  • 3:51 - 3:53
    ناله یکی از حضار را شنیدم.
  • 3:53 - 3:55
    این ترانه خانواده انگشتی است.
  • 3:55 - 3:57
    یکی از اولین نمونهها که پیدا کردم.
  • 3:57 - 4:00
    سال ۲۰۰۷ ساخته شده،
    و فقط ۲۰۰٫۰۰۰ بار دیده شده است،
  • 4:00 - 4:02
    که رقم بسیار پایینی است.
  • 4:02 - 4:04
    اما نوای بسیار گوش نوازی دارد،
  • 4:04 - 4:06
    که نمیخواهم اینجا پخش کنم،
  • 4:06 - 4:08
    چون کرم مغز شما خواهد شد
  • 4:08 - 4:11
    همانطور که برای من اتفاق افتاد.
  • 4:11 - 4:12
    و نمیخواهم برای شما تکرار شود.
  • 4:12 - 4:14
    اما همانند تخم مرغ شانسی،
  • 4:14 - 4:16
    داخل مغز کودکان نفوذ کرده
  • 4:16 - 4:18
    و آنها را معتاد کرده است.
  • 4:18 - 4:20
    بنابراین بزودی، ویدئوهای خانواده انگشتی
  • 4:20 - 4:21
    همه جا ظاهر شدند،
  • 4:21 - 4:24
    و به زبانهای مختلف با
  • 4:24 - 4:26
    کارتونهای مشهور کودکان با استفاده از غذا
  • 4:26 - 4:28
    یا راستش هر عنصر انیمیشنی موجود
  • 4:28 - 4:31
    در اطراف خواهد بود.
  • 4:31 - 4:36
    میلیونها میلیون از این ویدئوها با
  • 4:36 - 4:40
    ترکیبهای متفاوت روی اینترنت موجود است.
  • 4:40 - 4:42
    و هرقدر وقت بیشتری با آنها صرف کنید،
  • 4:42 - 4:46
    احساس دیوانگی بیشتری خواهید داشت.
  • 4:46 - 4:49
    و این جا است که من به این
    موضوع علاقهمند شدم،
  • 4:49 - 4:53
    احساس غریبگی عمیق و درک ناقص چگونگی
  • 4:53 - 4:57
    تولید آن من را احاطه کرده بود.
  • 4:57 - 5:00
    چون غیرممکن است که بدانید
    این چیزها از کجا میآیند؟
  • 5:00 - 5:01
    مثلا سازندهشان کیست؟
  • 5:01 - 5:04
    بعضی از آنها توسط تیمی از انیماتورهای
    حرفهای ساخته شدهاند.
  • 5:05 - 5:07
    بعضی از آنها توسط نرمافزار
    سرهم شدهاند.
  • 5:07 - 5:12
    بعضی از آنها سرگرم کنندههای سالمی
    برای کودکان هستند.
  • 5:12 - 5:13
    اما بعضی را افرادی تهیه میکنند
  • 5:13 - 5:16
    که به هیچ عنوان
    نباید اطراف کودکان باشند.
  • 5:16 - 5:18
    (خنده)
  • 5:19 - 5:24
    و دوباره، این عدم امکان فهمیدن منبع ساخت
    این ویدئوها است--
  • 5:24 - 5:25
    مثل این که بات باشد؟
  • 5:25 - 5:27
    یا شخص و یا ترول؟
  • 5:28 - 5:30
    این یعنی ما نمیتوانیم تفاوت
  • 5:30 - 5:31
    بین اینها را دیگر بیابیم؟
  • 5:32 - 5:36
    و دوباره، آیا این عدم اطمینان آشنا نیست؟
  • 5:38 - 5:41
    بنابراین اصلیترین راهی
    که این ویدئوها بازدید شوند،
  • 5:41 - 5:42
    و یادتان باشد، بازدید یعنی پول --
  • 5:42 - 5:47
    این است که نامهای معروف
    برای آنها انتخاب شود.
  • 5:47 - 5:49
    مثل تخم مرغ شانسی و بعد افزودن
  • 5:49 - 5:51
    نامهای دیگر، مثل پاوپاترول،
    تخم مرغ عید پاک،
  • 5:51 - 5:52
    یا هر چیز دیگری که هست،
  • 5:52 - 5:55
    همه اینها از ویدئوهای
    محبوب در عنوان میآید
  • 5:55 - 5:58
    تا که ملغمه بیسروتهای
    از کلمهها سرهم شود
  • 5:58 - 6:01
    که برای انسانها مفهومی ندارد.
  • 6:01 - 6:04
    چون البته که بچههای کوچک تنها تماشاچی
    این ویدئوها هستند
  • 6:04 - 6:06
    و آنها هم از همه جا بیخبرند.
  • 6:06 - 6:09
    مخاطب حقیقی شما برای این محتواها
    نرمافزارها هستند.
  • 6:09 - 6:11
    الگوریتمها.
  • 6:11 - 6:12
    نرمافزاری که یوتیوب استفاده میکند
  • 6:12 - 6:15
    تا انتخاب کند کدام ویدئوها مثل سایر
    ویدئوها هستند،
  • 6:15 - 6:17
    کدام را محبوب کند،
    کدام را توصیه کند.
  • 6:17 - 6:21
    و برای همین به آن ملغمه کاملا
    بیسر و ته ختم میشود،
  • 6:21 - 6:23
    هم در محتوا و هم در عنوان.
  • 6:24 - 6:26
    اما نکتهای که باید به خاطر بسپارید:
  • 6:26 - 6:30
    واقعا هنوز بین این سیستم الگوریتمی
    بهینه شده آدمهایی هستند
  • 6:30 - 6:33
    که به طرز فزایندهای وادارشدهاند
  • 6:33 - 6:36
    این ترکیب رو به رشد غریب از واژهها،
  • 6:36 - 6:41
    مثل هنرمند بداههپرداز مستاصلی
    که به فریادهای یکی شده
  • 6:41 - 6:44
    میلیونها کودک نوپا هم زمان جواب دهد.
  • 6:45 - 6:48
    آدمهای واقعی در این سیستمها
    به دام افتادند،
  • 6:48 - 6:52
    و این چیز واقعا عجیب دیگری است
    درباره فرهنگ نشات گرفته از الگوریتم،
  • 6:52 - 6:53
    چون حتی اگر انسان باشی،
  • 6:53 - 6:55
    براب بقاء داشتن باید دست آخر مثل
  • 6:55 - 6:57
    ماشین رفتار کنی.
  • 6:57 - 6:59
    و هنوز در آن سوی پرده
  • 6:59 - 7:02
    این خردسالان هستند
    که این محتوا را میبینند،
  • 7:02 - 7:06
    در حالی که کل توجه آنها با
    این مکانیزمهای عجیب جلب میشود.
  • 7:07 - 7:10
    و اکثر این کودکان حتی برای استفاده
    از یوتیوب خیلی کوچکند.
  • 7:10 - 7:13
    با دستهای کوچک خود به صفحه میکوبند.
  • 7:13 - 7:14
    و خب این پخش خودکار هست،
  • 7:14 - 7:18
    که به پخش این ویدئوها پشت سر هم در این
    بدون وقفه
  • 7:18 - 7:20
    برای ساعتهای متوالی ادامه میدهد.
  • 7:20 - 7:23
    و الان در سیستم چنان چیزهایی غریبی هست
  • 7:23 - 7:26
    که حالت پخش خودکار شما را
    به جاهای عجیب میبرد.
  • 7:26 - 7:28
    اینطوری است که طی چند مرحله
  • 7:28 - 7:31
    میتوانید از یک ویدئوی بامزه از قطار شماری
  • 7:31 - 7:34
    به میکیموسی برسید که خودارضایی میکند.
  • 7:35 - 7:37
    بله. متاسفم درباره آن.
  • 7:37 - 7:39
    تازه بدتر هم میشود.
  • 7:39 - 7:40
    اتفاقی که میافتد این است
  • 7:40 - 7:43
    وقتی همه این کلیدواژههای مختلف،
  • 7:43 - 7:45
    همه این تکههای مختلف توجه،
  • 7:45 - 7:48
    این نسل متاصل محتوا،
  • 7:48 - 7:51
    همه در یک جا گرد میآید.
  • 7:52 - 7:56
    اینجاست که همه آن کلیدواژههای عمیقا
    عجیب تاوان این ندانم کاری را میدهند.
  • 7:56 - 7:59
    ویدئوی خانواده انگشتی را با برخی
  • 7:59 - 8:01
    چیزهای ابر-قهرمانی زنده پیوند میزنید،
  • 8:01 - 8:04
    به آن امثال شوخیهای ترولیوار عجیب
    را اضافه میکنید
  • 8:04 - 8:08
    و ناگهان راستش از جای عجیبی
    سر در میآورید.
  • 8:08 - 8:10
    چیزهایی که موجب برافروختگی والدین میشود
  • 8:10 - 8:13
    بنوعی حاوی محتوا خشونت آمیز یا جنسی هستند،
    درست است؟
  • 8:13 - 8:16
    کارتونهای کودکان که مورد
    آزار قرار میگیرند،
  • 8:16 - 8:18
    کشته میشوند،
  • 8:18 - 8:21
    شوخیهای عجیب که در واقع
    کودکان را میترساند.
  • 8:21 - 8:25
    آنچه دارید نرمافزاری است همه انواع
    این تاثیرات مختلف را گرد میآورد
  • 8:25 - 8:28
    تا بطور خودکار بدترین کابوسهای
    کودکان را تولید کنند.
  • 8:28 - 8:31
    و این چیزها واقعا واقعا روی بچههای
    کوچک تاثیر میگذارد.
  • 8:31 - 8:34
    والدین از آسیبهای روحی فرزندان خود
    گزارش میدهند،
  • 8:34 - 8:35
    ترسیدنشان از تاریکی،
  • 8:35 - 8:38
    ترسیدنشان از شخصیتهای محبوب
    کارتونی خود.
  • 8:39 - 8:42
    اگر قرار به کار بردن یک نکته باشید
  • 8:42 - 8:44
    بچههای کوچک را از یوتیوب دور نگه دارید.
  • 8:45 - 8:49
    (تشویق)
  • 8:51 - 8:54
    اما نکته دیگری که واقعا
    من را درگیر خودش کرده
  • 8:54 - 8:58
    این است که من مطمئن نیستم ما حتی واقعا
    بفهمیم چطور به این نکته رسیدیم.
  • 8:59 - 9:02
    ما همه تاثیرات این چیزها را لحاظ کردهایم
  • 9:02 - 9:05
    و چنان ملغمهای درست کردهایم
    که کسی واقعا قصدش را نداشته است.
  • 9:05 - 9:08
    و هنوز با این روش به
    ساخت دنیا ادامه میدهیم.
  • 9:08 - 9:10
    همه این دادهها را بر میداریم،
  • 9:10 - 9:11
    کلی دادههای بد،
  • 9:11 - 9:14
    کلی دادههای تاریخی سرشار از تعصب،
  • 9:14 - 9:17
    سرشار از بدترین محرکهای ما در تاریخ،
  • 9:17 - 9:20
    و ما از آنها مجموعهای
    عظیم از دادهها میسازیم
  • 9:20 - 9:21
    و بعد آنها را خودکار میکنیم
  • 9:21 - 9:24
    و آنها در قالب گزارشهای اعتباری،
  • 9:24 - 9:26
    به حق بیمه و چیزهایی مثل
  • 9:26 - 9:29
    سیستمهای سیاستگذاری پیشگویانه، و
    خط مشیهای محکوم کننده
  • 9:29 - 9:30
    ترکیب میکنیم.
  • 9:30 - 9:33
    این دقیقا همان روشی است که ما
    جهان امروز
  • 9:33 - 9:34
    را از دادهها میسازیم.
  • 9:34 - 9:36
    و نمیدانم که کدام بدتر است،
  • 9:36 - 9:39
    که سیستمی بسازیم که ظاهرا برای
    بدترین زوایای
  • 9:39 - 9:42
    رفتار بشر بهینه باشد
  • 9:42 - 9:45
    یا که ظاهرا این کار را انجام داده ایم،
  • 9:45 - 9:47
    آن هم ندانسته،
  • 9:47 - 9:50
    چون واقعا سیستمهایی
    که میساختیم را نمیفهمیدند،
  • 9:50 - 9:54
    و واقعا نمیفهمیدیم چه کار
    متفاوتی با آن انجام دهیم.
  • 9:55 - 9:58
    فکر میکنم چند مورد هست که
    واقعا به نظر میرسد که با تمام قدرت
  • 9:58 - 9:59
    در یوتیوب محرک هستند،
  • 9:59 - 10:01
    و اول از همه تبلیغات است،
  • 10:01 - 10:04
    که از توجه پول در میآورد
  • 10:04 - 10:07
    بدون هیچ متغیر واقعی دیگری دراین بین،
  • 10:07 - 10:11
    بدون توجه به آدمهایی که در واقع
    این محتوا را تولید میکنند،
  • 10:11 - 10:15
    متمرکز کردن قدرت،
    تمایز دادن این چیزها.
  • 10:15 - 10:18
    و اگر چه شاید این حس را داشته باشید
    که استفاده از تبلیغات بنوعی
  • 10:18 - 10:19
    برای حمایت از چیزهاست،
  • 10:19 - 10:22
    تصویر مردان بالغ در پوشک که
    در ماسه میغلتند
  • 10:22 - 10:25
    به امید الگوریتمی که آنها واقعا نمیفهمند
  • 10:25 - 10:27
    پول برای آن میدهند
  • 10:27 - 10:29
    نشان میدهد که این شاید چیزی نیست
  • 10:29 - 10:31
    که باید اجتماع و فرهنگ خود را
    بر پایه آن بگذاریم،
  • 10:31 - 10:33
    و روش سرمایهگذاری ما در آن.
  • 10:34 - 10:37
    و نکته دیگر این است که محرک دیگر اصلی
    برای آن اتوماسیون است
  • 10:37 - 10:39
    که بکارگیری انواع این فناوریها است
  • 10:39 - 10:42
    و وقتی بدون هیچ دوراندیشی عرضه میشوند
  • 10:42 - 10:43
    و قابل دسترس میشوند،
  • 10:43 - 10:47
    مثل این میماند که دست در هوا تکان داده و
    بگوییم، «کار ما نیست. تقصیر فناوریه.»
  • 10:47 - 10:49
    یا «ما که دخالتی نداریم.»
  • 10:49 - 10:51
    که واقعا به حد کافی خوب نیست،
  • 10:51 - 10:53
    چون این چیزها صرفا اگوریتمی
    مدیریت نمیشوند،
  • 10:53 - 10:56
    بلکه الگوریتمی هم سیاستگذاری میشوند.
  • 10:56 - 10:59
    وقتی یوتیوب اولین بار شروع به توجه
    کردن به این کرد،
  • 10:59 - 11:01
    اولین کاری که گفتند در این باره
    انجام دادند
  • 11:01 - 11:04
    به کارگیر الگوریتمهای بهتر
    یادگیری ماشین بود
  • 11:04 - 11:05
    برای تعدیل محتوا.
  • 11:05 - 11:09
    خب، یادگیری ماشین، همانطور هر متخصص
    فعال در آن به شما خواهد گفت،
  • 11:09 - 11:10
    اساسا چیزی را نرمافزار نامیدیم
  • 11:10 - 11:13
    که درک واقعی از کارکردش نداریم.
  • 11:13 - 11:17
    و فکر کنم الان بحد کافی از آن داریم.
  • 11:17 - 11:20
    نباید اینها را برای
    تصمیمگیری درست یا غلطی
  • 11:20 - 11:22
    به هوش مصنوعی محول کرد،
  • 11:22 - 11:23
    چون میدانیم چطور میشود.
  • 11:23 - 11:25
    بقیه چیزها را سانسور میکند.
  • 11:25 - 11:26
    محتوا دگرباشها را سانسور خواهد کرد.
  • 11:27 - 11:29
    سخنرانیهای عمومی مشروع را سانسور میکند.
  • 11:29 - 11:31
    محتوای مجاز در این گفت و شنودها نباید
  • 11:31 - 11:34
    به سیستمهای بازخواست نشدنی محول گردد.
  • 11:34 - 11:37
    باید بخشی از بحثی باشد که همه
    ما مشارکت داریم.
  • 11:37 - 11:38
    اما بگذارید یادآوری کنم
  • 11:38 - 11:41
    که جایگزین حتی خیلی دلچسب هم نیست.
  • 11:41 - 11:42
    یوتیوب اخیرا اعلام کرد
  • 11:42 - 11:45
    که قصد انتشار نسخهای از
    برنامه کاربردی کودکان را دارند
  • 11:45 - 11:48
    که تماما از سوی انسانها اداره میشود.
  • 11:48 - 11:52
    فیسبوک -- زوکربرگ تقریبا چیزی
    مشابه را در کنگره گفت،
  • 11:52 - 11:55
    وقتی درباره نحوه تعدیل محتوایشان
    تحت فشار قرار گرفت،
  • 11:55 - 11:57
    گفت آدمها را برای انجامش دارند.
  • 11:57 - 11:58
    و معنی واقعی آن این است که
  • 11:58 - 12:01
    بجای داشتن نوپاهایی که اولین بیننده
    این برنامهها باشند،
  • 12:01 - 12:03
    کارکنان قراردادی متزلزل کم درآمد
  • 12:03 - 12:05
    فاقد حمایت سلامت روان مناسب را خواهید داشت
  • 12:05 - 12:07
    که از آن آسیب هم در امان نمیمانند.
  • 12:07 - 12:08
    (خنده)
  • 12:08 - 12:11
    و فکر میکنم میتوانیم عملکرد
    بهتری داشته باشیم.
  • 12:11 - 12:13
    (تشویق)
  • 12:14 - 12:19
    به اعتقاد من چیزی که بتواند این دو را
    واقعا یکجا داشته باشد برای شخص من
  • 12:19 - 12:20
    نمایندگی است.
  • 12:20 - 12:23
    مثلا چقدر ما واقعا می فهمیم--
  • 12:23 - 12:28
    چطور میدانیم که چطور در جهت
    نفع اعلای خود عمل کنیم.
  • 12:28 - 12:30
    که-- تقریبا انجامش در این سیستمهایی
  • 12:30 - 12:33
    که واقعا کامل نمیفهمیم غیرممکن است.
  • 12:33 - 12:36
    نابرابری در قدرت همواره منتهی به
    خشونت میگردد.
  • 12:36 - 12:38
    و میبینیم که داخل این سیستمها
  • 12:38 - 12:40
    که نابرابری از فهم
    نیز همین کار را میکند.
  • 12:41 - 12:44
    اگر برای شروع چیزی باشد
    که برای بهبود این سیستمها انجام دهیم،
  • 12:44 - 12:47
    که آنها را برای کاربرهای
    آنها خواناتر کند،
  • 12:47 - 12:49
    بنابراین همه ما درک مشترکی
    از آنچه واقعا
  • 12:49 - 12:51
    رخ میدهد داریم.
  • 12:52 - 12:55
    چیزی که اگر چه فکر میکنم درباره
    اکثر این سیستمها اینطور نیست
  • 12:55 - 12:59
    که البته امیدوارم به درستی
    درباره یوتیوب آن را درست توضیح داده باشم.
  • 12:59 - 13:00
    شامل همه چیز است.
  • 13:00 - 13:03
    این مسائل مسئولیتپذیری و پویایی،
  • 13:03 - 13:05
    ابهام و پیچیدگی،
  • 13:05 - 13:08
    خشونت و استثمار که ذاتا منجر به
  • 13:08 - 13:11
    تمرکز قدرت در دستانی معدود میشوند --
  • 13:11 - 13:13
    اینها مسائل خیلی خیلی بزرگتری هستند.
  • 13:14 - 13:18
    و اینها صرفا مسائل یوتیوب
    و فناوری در کل نیستند،
  • 13:18 - 13:19
    و حتی چیز تازهای نیستند.
  • 13:19 - 13:21
    سالها با ما بودهاند.
  • 13:21 - 13:25
    اما سرانجام این سیستم را ساختیم،
    این سیستم جهانی، اینترنت،
  • 13:25 - 13:28
    که در واقع آنها را به شیوهای
    خارقالعاده نشان میدهد،
  • 13:28 - 13:30
    آنها را غیرقابل انکار میکند.
  • 13:30 - 13:33
    فناوری این ظرفیت خارقالعاده را دارد
  • 13:33 - 13:37
    که همه آن استثناییترین تعصبها
    و امیال ما
  • 13:37 - 13:41
    که اغلب پنهان هستند را معرفی کرده
    و ادامه میدهد
  • 13:41 - 13:43
    و آنها را در این دنیا رمزگذاری میکند،
  • 13:43 - 13:46
    اما همچنین آنها را یادداشت میکند
    بنابراین میتوانیم آنها را ببینیم،
  • 13:46 - 13:50
    پس نمیتوانیم وانمود کنیم که
    وجود ندارند.
  • 13:50 - 13:54
    باید از این تفکر که فناوری راهحل
    همه مشکلات ما است دست بکشیم،
  • 13:54 - 13:58
    بلکه به آن بعنوان راهنمایی برای آنچه
    واقعا این مشکلات هستند فکر کنیم،
  • 13:58 - 14:00
    تا بتوانیم درباره آنها به
    درستی فکر کرده
  • 14:00 - 14:02
    و مورد خطاب قرار دهیم.
  • 14:02 - 14:03
    خیلی متشکرم.
  • 14:03 - 14:08
    (تشویق)
  • 14:10 - 14:11
    متشکرم.
  • 14:11 - 14:14
    (تشویق)
  • 14:17 - 14:20
    هلن والترز: جیمز، متشکرم برای آمدنت
    به اینجا و سخنرانی که کردی.
  • 14:20 - 14:21
    بنابراین جالب است:
  • 14:21 - 14:25
    وقتی به فیلمهایی فکر میکنی،
  • 14:25 - 14:28
    از آنچه شرح دادی کم باشکوهتر است.
  • 14:28 - 14:32
    اما فکر می کنم-- در آن فیلمها
    با افزایش مقاومت مواجه هستیم.
  • 14:32 - 14:35
    آیا مقاومتی در برابر این چیزها
    در حال شکل گرفتن است؟
  • 14:35 - 14:39
    آیا هیچ علامت مثبتی میبینی،
    هیچی اثری از بهبودی در مقاومت؟
  • 14:41 - 14:43
    جیمز بریدل: چیزی درباره
    مقاومت مستقیم نمیدانم،
  • 14:43 - 14:45
    چون فکر میکنم این چیزها
    واقعا طولانی مدت هستند.
  • 14:45 - 14:48
    فکر میکنم عمیقا در فرهنگ ما
    جا افتادند.
  • 14:48 - 14:50
    الئنورسایتا یکی از دوستانم همیشه میگوید
  • 14:50 - 14:54
    که مشکلات فناوری با هر مقیاس و دامنهای
  • 14:54 - 14:56
    اول از همه مشکلات سیاسی هستند.
  • 14:56 - 14:59
    بنابراین همه آنچه تلاش داریم
    در این بازه خطاب قرار دهیم
  • 14:59 - 15:02
    صرف با بهتر ساختن فناوری
    اصلاح نمیشود،
  • 15:02 - 15:05
    بلکه درواقع تغییر جامعهای که این
    فناوریها را تولید میکند لازم است.
  • 15:05 - 15:08
    پس همین حالا فکر میکنم که راه
    لعنتی درازی در پیش داریم.
  • 15:09 - 15:10
    همانطور که گفتم، با پرده برداشتن از آنها،
  • 15:11 - 15:13
    با توضیح دادن، صحبت
    صادقانه داشتن درباره آنها
  • 15:13 - 15:16
    میتوانیم حداقل این روند را آغاز کنیم.
  • 15:16 - 15:19
    ه و: و بنابراین وقتی درباره سواد دیجیتالی
    و خوانایی صحبت میکنید،
  • 15:19 - 15:21
    برایم دشوار است که تصور کنم
  • 15:21 - 15:25
    لازم باشد بار سواد دیجیتال را بر دوش
    خود کاربرها بگذاریم.
  • 15:25 - 15:29
    اما آموزش و تربیت در این جهان جدید
    مسئولیت چه کسی است؟
  • 15:29 - 15:33
    ج ب: دوباره، فکر میکنم این مسئولیت
    به نوعی به همه ما بستگی دارد،
  • 15:33 - 15:36
    هر کاری که میکنیم، هر چیزی
    که میسازیم، هرآنچه میسازیم،
  • 15:36 - 15:40
    لازم است به بحث جمعی با
    اشخاصی دارد
  • 15:40 - 15:42
    که از آن اجتناب می کنند.
  • 15:42 - 15:46
    که سیستمهایی نمیسازیم که تمایل به
    کلک زدن و شگفتزده کردن آدمها
  • 15:46 - 15:48
    برای انجام کار درست دارند،
  • 15:48 - 15:52
    اما این که آنها به راستی در هر گامی
    در تعلیم آنها دخیل هستند،
  • 15:52 - 15:54
    چون هریک از این سیستمها آموزشی هستند.
  • 15:54 - 15:57
    چیزی که برایش امیدوارم،
    حتی این چیزهای واقعا ناراحت کننده،
  • 15:57 - 15:59
    که اگر بخواهید نگاه
    حسابی به آنها بیندازید،
  • 15:59 - 16:01
    خودش در واقع آموزش محسوب میشود
  • 16:01 - 16:05
    که به شما امکان میدهد ببینید چطور
    سیستمهای پیچیده با هم شروع به کار می کنند
  • 16:05 - 16:09
    و احتمالا قادر خواهید بود آن را در
    جاهای دیگر دنیا اعمال کنید.
  • 16:09 - 16:11
    ه و: جمیز، بحث خیلی مهمی است،
  • 16:11 - 16:14
    و می دانم که خیلی از آدمهای حاضر در اینجا
    واقعا مشتاق و آمادهاند،
  • 16:14 - 16:16
    خیلی ممنون که آغازگر جلسه صبح ما بودی.
  • 16:16 - 16:17
    ج ب: خیلی خیلی متشکرم.
  • 16:17 - 16:19
    (تشویق)
Title:
ویدیوهای کابوس‌وار یوتیوب برای کودکان -- و دردسرهای امروزه اینترنت
Speaker:
جیمز بریدل
Description:

جیمز بریدل هنرمند و نویسنده از گوشه تاریک و عجیب اینترنت پرده برمی‌دارد، جایی که اشخاص یا گروه‌های نامعلوم در یوتیوب مغر بچه‌های کوچک را در ازای عایدات تبلیغاتی هک می‌کنند. از طریق جوایز «تخم مرغ شانسی» و «ترانه خانواده انگشتی» تا ملغمه‌های الگوریتمی خلق شده از شخصیت‌های کارتونی آشنا در موقعیت‌های خشونت‌آمیز، این ویدئوها از ذهن خردسالان سوءاستفاده کرده و آنها را می‌ترساند -- و این چیزی است که به ما می‌گوید جهان داده محور ما به کجا می‌رود. بریدل می‌گوید: «لازم است دست از فکر کردن درباره فناوری به عنوان راه‌حلی برای همه مشکلات ما برداریم، اما به درستی به آنها بعنوان راهنمایی برای آنچه واقعا هستند فکر کنیم و آنها را خطاب قرار دهیم.»

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Persian subtitles

Revisions