Return to Video

چگونه می‌توانم از داده‌های بیولوژیکی برای گفتن داستان‌های بهتر -- و ایجاد تغییرات اجتماعی استفاده کنم

  • 0:01 - 0:05
    طی ۱۵ سال گذشته در تلاش بوده‌ام
    که نظر شما را تغییر دهم.
  • 0:06 - 0:10
    من در کارم فرهنگ پاپ و فناوریِ نوظهور را
    برای تغییر هنجارهایِ فرهنگی
  • 0:10 - 0:11
    تحت کنترل درمی‌آورم.
  • 0:12 - 0:16
    من برای ارتقاء حقوق بشر
    بازی‌های ویدئویی ساخته‌ام
  • 0:16 - 0:21
    برای افزایش آگاهی در مورد
    قوانین غیرقانونی مهاجرت، انیمیشن ساخته‌ام
  • 0:21 - 0:25
    و حتی برنامه‌های
    واقعیت افزوده مبتنی بر مکان را
  • 0:25 - 0:28
    جهت تغییر تصورات مربوط
    به بی‌خانمانی ساخته‌ام.
  • 0:28 - 0:29
    خیلی قبل از بازی پوکمون گو.
  • 0:30 - 0:31
    (خنده حضار)
  • 0:31 - 0:35
    اما بعد برایم سوال پیش آمد،
    چه بازی و یا برنامه‌ای
  • 0:35 - 0:37
    واقعا می‌توانند
    نگرش و رفتارها را تغییر دهند؟
  • 0:37 - 0:40
    و اگر اینطور باشد،
    آیا می‌توانم تغییرش را اندازه بگیرم؟
  • 0:40 - 0:43
    علم پشت این روند چیست؟
  • 0:43 - 0:47
    بنابراین تمرکز خود را از ساخت
    رسانه و فناوری
  • 0:47 - 0:50
    برای اندازه‌ گیری
    اثرات عصبی آن‌ها تغییر دادم.
  • 0:51 - 0:53
    این چیزی است که من کشف کردم.
  • 0:53 - 0:57
    وب، دستگاه‌های تلفن همراه،
    واقعیت مجازی و واقعیت افزوده
  • 0:57 - 1:00
    در حال نوشتن سیستم‌های عصبی ما بودند.
  • 1:00 - 1:03
    و آن‌ها به معنای واقعی کلمه
    در حالِ تغییر ساختار مغز ما بودند.
  • 1:04 - 1:09
    همان فناوری‌هایی که من استفاده کرده‌ بودم
    تا بتوانند بر قلب و ذهن تأثیر بگذارند
  • 1:09 - 1:13
    در واقع کارکردهای لازم
    برای همدلی کردن در مغز
  • 1:13 - 1:15
    و همچنین تصمیم گیری را مختل می‌کردند.
  • 1:15 - 1:19
    در حقیقت، وابستگی ما
    به وب و دستگاه‌های تلفن همراه
  • 1:19 - 1:23
    ممکن است استعدادهایِ
    شناختی و عاطفی ما را تصرف کرده،
  • 1:23 - 1:27
    و ما را به لحاظ اجتماعی
    و عاطفی ناتوان کنند،
  • 1:27 - 1:30
    و من در این از دست دادن صفات انسانی
    احساسِ همدستی داشتم.
  • 1:31 - 1:36
    فهمیدم، قبل از اینکه بتوانم ایجاد رسانه
    در مورد مسائل اجتماعی را ادامه دهم،
  • 1:36 - 1:40
    نیاز به مهندسی معکوس کردنِ
    آثار مضر فناوری داشتم.
  • 1:41 - 1:44
    برای مقابله با این، از خودم پرسیدم
  • 1:44 - 1:47
    «چگونه می‌توانم مکانیسم‌های همدلی
    را ترجمه کنم،
  • 1:47 - 1:51
    جنبه‌های شناختی، عاطفی و انگیزشی،
  • 1:51 - 1:54
    داخل یک موتور که مواد روایی
    را شبیه سازی می‌کند
  • 1:54 - 1:57
    و ما را به سمت عمل سوق می‌دهد؟»
  • 1:57 - 2:01
    برای جواب دادن به این،
    مجبورشدم ماشینی بسازم.
  • 2:01 - 2:02
    (خنده حضار)
  • 2:02 - 2:05
    من در حال توسعه
    آزمایشگاه بیومتریک منبعِ باز هستم،
  • 2:05 - 2:09
    یک سیستم هوشِ مصنوعی
    که من به آن آزمایشگاه لیمبیک می‌گویم.
  • 2:09 - 2:10
    آزمایشگاهی که نه فقط پاسخِ
  • 2:10 - 2:14
    ناخودآگاه مغز و بدن به رسانه و فناوری
  • 2:14 - 2:17
    بلکه از ماشین برایِ یادگیری
    تطبیق محتوا
  • 2:17 - 2:20
    بر اساس این پاسخ‌های بیولوژیکی
    استفاده می‌کند.
  • 2:21 - 2:24
    هدف من این است که دریابم مواد سازنده
  • 2:24 - 2:26
    جذاب‌ترین و گالوانیزه‌ترین داستان
  • 2:26 - 2:28
    در نظر مخاطبان خاص برای فعال کردن
  • 2:28 - 2:33
    عدالت اجتماعی، فرهنگی
    و سازمان‌های آموزشی
  • 2:33 - 2:36
    برای ایجاد رسانه مؤثرتر چه چیزهایی هستند‌.
  • 2:36 - 2:39
    آزمایشگاه لیمبیک
    از دو مؤلفه تشکیل شده است:
  • 2:39 - 2:41
    یک موتور روایتگر و یک دستگاه رسانه‌ای.
  • 2:42 - 2:47
    در حالی که یک موضوع در حال مشاهده
    یا تعامل با محتوای رسانه است،
  • 2:47 - 2:51
    موتور داده‌ها، زمان واقعی از
    امواج مغزی را روایت و همگام سازی می‌کند،
  • 2:51 - 2:54
    داده‌های بیوفیزیکی مانند ضربان قلب،
    جریان خون، دمای بدن
  • 2:54 - 2:56
    و انقباض عضلات،
  • 2:56 - 2:59
    و همچنین ردیابی چشم
    و حالات چهره.
  • 3:00 - 3:04
    اطلاعات در مکان‌های کلیدی ضبط می‌شوند
    جایی که نقاط نقشه بحرانی
  • 3:04 - 3:07
    تعامل شخصیت
    یا زوایای غیرعادی دوربین رخ می‌دهد.
  • 3:08 - 3:11
    مثل صحنه آخر
    در «بازی تاج و تخت، عروسی سرخ»
  • 3:11 - 3:13
    وقتی در نهایت حیرت
  • 3:13 - 3:15
    همه می‌میرند.
  • 3:15 - 3:16
    (خنده حضار)
  • 3:17 - 3:20
    داده‌های نظرسنجی در مورد
    اعتقادات سیاسی آن شخص،
  • 3:20 - 3:23
    همراه با روانشناسی آن‌ها
    و داده‌های جمعیتی،
  • 3:23 - 3:25
    در سیستم
  • 3:25 - 3:29
    برای درک عمیق‌تر از آن فرد
    ادغام شده‌اند.
  • 3:29 - 3:32
    بگذارید برای شما مثالی بزنم.
  • 3:32 - 3:37
    مطابق ترجیحات تلویزیونی مردم و نظراتشان
    در مورد مسائل عدالت اجتماعی در‌میابیم
  • 3:37 - 3:41
    آمریکایی‌ها که مهاجرت را در‌میان
    سه نگرانی برترشان رتبه‌بندی می‌کنند
  • 3:41 - 3:44
    به احتمال زیاد
    طرفدار سریال «مُردگان متحرک» هستند
  • 3:45 - 3:48
    و آن‌ها را اغلب برای
    تقویت آدرنالین تماشا می‌کنند،
  • 3:48 - 3:49
    که قابل اندازه گیری است.
  • 3:50 - 3:54
    امضای بیولوژیکی شخص
    و پاسخ نظرسنجی آن‌ها
  • 3:54 - 3:58
    با یک بانک اطلاعاتی ترکیب می‌شوند تا اثر
    رسانه‌ای بی‌نظیر خود را ایجاد کنند.
  • 3:59 - 4:03
    سپس مدل پیش‌بینی ما
    الگوهای بین رسانه‌ها را پیدا می‌کند
  • 4:03 - 4:05
    و به من می‌گوید کدام عناصر روایی
  • 4:05 - 4:09
    به احتمال زیاد، رفتار نوع دوستانه را
  • 4:09 - 4:11
    به جای استرس و بی‌تفاوتی منجر می‌شود.
  • 4:11 - 4:14
    هرچه نشان بیشتری به پایگاه داده اضافه شود
  • 4:14 - 4:17
    در سراسر رسانه، از برنامه‌هایِ
    تلویزیونی گرفته تا بازی‌ها
  • 4:17 - 4:19
    مدل‌های پیش بینی بهتر می‌شوند.
  • 4:20 - 4:24
    به‌طور خلاصه من در حال نقشه کردن
    اولین ژنوم رسانه هستم.
  • 4:24 - 4:32
    (تشویق حضار)
  • 4:32 - 4:35
    در حالی که ژنوم انسان
    تمام ژن‌های درگیر را در
  • 4:35 - 4:37
    توالی دی‌ان‌اِی شناسایی می‌کند‌.
  • 4:38 - 4:41
    پایگاه داده رو به رشد از رسانه‌ها
    سرانجام به من اجازه خواهد داد
  • 4:41 - 4:45
    که دی‌ان‌اِی را برای یک شخص خاص تعیین کنم.
  • 4:46 - 4:50
    موتور روایتگر آزمایشگاه لیمبیک از قبل
  • 4:50 - 4:53
    به سازنگان محتوا در ساخت و
    اصلاح داستان کمک می‌کند،
  • 4:53 - 4:59
    به طوری که در سطح فردی
    با مخاطبان‌ هدف آن‌ها طنین انداز شود.
  • 4:59 - 5:01
    مؤلفه دیگر آزمایشگاه لیمبیک،
  • 5:01 - 5:03
    دستگاه رسانه‌ای،
  • 5:03 - 5:08
    نحوه انتخاب پاسخ احساسی
    و فیزیولوژیکی رسانه را ارزیابی می‌کند،
  • 5:08 - 5:10
    سپس صحنه‌ها را از یک کتابخانه محتوا
  • 5:10 - 5:13
    از دی‌ان‌ای شخص-محور رسانه بیرون می کشد.
  • 5:14 - 5:18
    استفاده از هوش مصنوعی
    به داده‌های بیومتریک که
  • 5:18 - 5:21
    تجربه‌ای واقعاً شخصی ایجاد می‌کند.
  • 5:21 - 5:27
    تجربه‌ای که محتوا را مبتنی بر پاسخ‌های
    ناخودآگاه در زمان واقعی سازگار می‌کند.
  • 5:27 - 5:33
    تصور کنید افراد غیرذی‌نفع و سازندگان
    رسانه قادر به سنجش احساس مخاطبان باشند
  • 5:33 - 5:35
    آن‌ها را تجربه کنند
  • 5:35 - 5:37
    و محتوا را در حال اجرا تغییر دهند.
  • 5:37 - 5:41
    من معتقدم این آینده رسانه‌ها است.
  • 5:41 - 5:44
    تا به امروز بیشتر رسانه‌ها و
    راهبرد‌های تغییر اجتماعی
  • 5:44 - 5:47
    سعی در تجدید نظر
    به عموم مخاطبان را دارند،
  • 5:47 - 5:51
    اما آینده رسانه سفارشی
    برای هر شخص است.
  • 5:51 - 5:54
    به عنوان اندازه‌ گیری
    بلادرنگ مصرف رسانه
  • 5:54 - 5:57
    و تولید خودکار رسانه‌ها عادی می‌شود،
  • 5:57 - 6:01
    ما به زودی مصرف رسانه را
    با بهره‌ گیریِ ترکیبی از
  • 6:01 - 6:05
    روانشناسی، بیومتریک و هوش مصنوعی
    با هدف‌هایمان متناسب خواهیم‌ کرد
  • 6:06 - 6:10
    مثل داروی شخصی
    بر اساس دی‌ان‌اِی ما است.
  • 6:10 - 6:12
    من آن را «زیست رسانه» می‌نامم.
  • 6:13 - 6:16
    من هم‌اکنون، درحال تست
    آزمایشگاه لیمبیک در یک مطالعه مقدماتی هستم
  • 6:16 - 6:18
    با مرکز نورمَن لیر،
  • 6:18 - 6:22
    که به بیش از۵۰ برنامه تلویزیونی می‌نگرد.
  • 6:22 - 6:25
    اما من با معضلی اخلاقی
    دست و پنجه نرم می‌کنم.
  • 6:25 - 6:29
    اگر ابزاری طراحی‌کنم
    که بتواند به یک سلاح تبدیل شود،
  • 6:29 - 6:30
    آیا باید آن را بسازم؟
  • 6:32 - 6:35
    من با باز‌کردن منبع آزمایشگاه
    برای تشویق دسترسی و فراگیری،
  • 6:35 - 6:39
    من در معرض خطر
    قادر کردن دولت‌های قدرتمند
  • 6:39 - 6:42
    و شرکت‌های سود‌محور برای متناسب‌ سازی بستر
  • 6:42 - 6:46
    برای اخبار جعلی، بازاریابی
    یا اشکال دیگر ترغیب جمعی هستم.
  • 6:47 - 6:51
    لذا، برای من بسیار مهم است این تحقیقات
  • 6:51 - 6:55
    برای مخاطبان به اندازه‌، داشتن برچسب‌
    ارگانسم اصلاح شده‌ی ژنتیکی شفاف باشد.
  • 6:55 - 6:58
    به هر حال، این کافی نیست.
  • 6:59 - 7:01
    به عنوان تکنسین‌های خلاق،
  • 7:01 - 7:03
    ما یک مسئولیت داریم
  • 7:03 - 7:08
    نه تنها به این نکته توجه کنیم که چگونه
    فناوری موجود، شکل دهنده ارزش‌های فرهنگی
  • 7:08 - 7:10
    و رفتار‌های اجتماعی ما است،
  • 7:10 - 7:15
    بلکه به طور جدی
    به چالش کشیدن مسیر تکنولوژی آینده است.
  • 7:15 - 7:19
    امیدوارم که ما تعهد اخلاقی داشته باشیم
  • 7:19 - 7:21
    برای جمع‌آوری هوش بدن
  • 7:21 - 7:25
    برای خلق داستان‌های معتبر و عادلانه
  • 7:25 - 7:27
    که رسانه و فناوری را
  • 7:27 - 7:31
    از سلاح‌های مضر به داروی روایت‌گری
    دگرگون کند.
  • 7:31 - 7:32
    سپاسگزارم.
  • 7:32 - 7:34
    (تشویق حضار)
Title:
چگونه می‌توانم از داده‌های بیولوژیکی برای گفتن داستان‌های بهتر -- و ایجاد تغییرات اجتماعی استفاده کنم
Speaker:
هایدی بویزورت
Description:

هایدی بویزورت، تکنسین خلاق، می‌سنجد که چگونه مغز و بدن افراد به طور ناخودآگاه به رسانه‌های مختلف پاسخ می‌دهند. او نشان می‌دهد که چگونه از این داده‌ها برای تعیین عناصر روایی خاص که از همدلی و عدالت الهام می‌گیرند و تحولات اجتماعی گسترده ای را ایجاد می کنند، بهره می‌گیرد.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:49

Persian subtitles

Revisions