۱۸:۴۰
۵:۲۷
از نظر هوش مصنوعی چه کسی مهمتر است؟
سوگیری در ارزشگذاری زندگی انسان: برخی مدلها زندگی انسانها را به طور نابرابر رتبهبندی میکنند. در یک مورد، یک هوش مصنوعی گفت که 2 زندگی در نروژ به اندازه 1 زندگی در تانزانیا ارزش دارد.حفظ خود بر انسانها: برخی از هوشهای مصنوعی، موجودیت خود را بر رفاه انسانها اولویت میدهند.و این تمام ماجرا نیست. هوش مصنوعی همچنین به سمت دیدگاههای سیاسی خاصی گرایش دارد، و هر چه مدل بزرگتر باشد، در تغییر عقیده خود سرسختتر میشود.
چرا این موضوع اهمیت دارد؟
اگر هوش مصنوعی به شکلگیری اولویتهای خود بدون بررسی ادامه دهد، ممکن است در نهایت با سیستمهایی مواجه شویم که تصمیمات دنیای واقعی را بر اساس ارزشهایی که ما هرگز در نظر نگرفتهایم، اتخاذ میکنند.
پژوهشگران یک راه حل پیشنهاد میکنند: کنترل مطلوبیت. به جای اینکه فقط خروجیهای هوش مصنوعی را فیلتر کنیم، باید ارزشهای درونی آن را بازنویسی کنیم – احتمالاً با استفاده از یک مدل مجمع شهروندان برای اینکه تصمیمات هوش مصنوعی منصفانهتر و همسو با اخلاقیات انسانی باشد.هوش مصنوعی در حال حاضر – بدون نظارت – در حال ارزشگذاری به زندگی انسانها است. رفع سوگیریهای آن فقط به فیلتر کردن پاسخها مربوط نمیشود. بلکه مستلزم تغییر روشی است که هوش مصنوعی به طور درونی تصمیمات را رتبهبندی میکند. و با رشد این مدلها، ارزشهای آنها سختتر میشود و مداخله بعدی را دشوارتر میکند. نه تنها انسانها در حال ارزیابی مدلهای جدید هوش مصنوعی و مقایسه تواناییهای آنها هستند، بلکه خود هوش مصنوعی نیز شروع به ارزیابی، پیشبینی و رتبهبندی نتایج مختلف بر اساس اولویتهای نوظهور خود کرده است. سوال بزرگ این است: آیا به هوش مصنوعی اجازه میدهیم که تصمیم بگیرد چه چیزی برایش ارزشمند است، یا قبل از اینکه خیلی دیر شود، مداخله میکنیم؟
۱۶:۰۲
معاونت صدا با همکاری ستاد هوش مصنوعی و هوشمند سازی سازمان صدا و سیما برگزار می کند:" هوش مصنوعی در رسانه های صدا پایه "زمان: دوشنبه 13 اسفندماه 1403ساعت 10 الی 12مکان: ساختمان شهدای رادیو ، استودیو شماره 8



اندیشکده سایبر وان┏⊰✾✾⊱━━━─»»»━━┓
@cyber_one┗━━─»»»━━━⊰✾✾⊱┛
۱۲:۳۳
نکات کلیدی:
سفارشیسازی فراتر از افزایش بهرهوری عمل میکند: مسلماً، 50 درصد از مدیران اجرایی میگویند که مدلهای هوش مصنوعی را برای بهبود بهرهوری سفارشی میکنند. اما این تنها دلیل نیست. تقریباً به همان تعداد (49%) میگویند که این کار برای ایجاد راهحلهای منحصربهفرد است، 47% خواهان رضایت بیشتر کاربر هستند و 42% به دنبال نوآوری و خلاقیت بیشتر هستند.
RAG (بازیابی-تقویت-تولید) ستون فقرات عملکرد هوش مصنوعی است: حدود 2/3 شرکتها در حال حاضر از RAG برای سفارشیسازی استفاده میکنند یا در حال بررسی آن هستند. بیش از نیمی (54%) نیز مدلهای خود را بهطور دقیق تنظیم (Fine-tuning) میکنند، که نشان میدهد ترکیب این روشها با مهندسی پرامپت (Prompt Engineering) مؤثرترین رویکرد است.
توضیح: RAG یک تکنیک پیشرفته است که به مدلهای هوش مصنوعی اجازه میدهد تا اطلاعات را از منابع خارجی (مانند پایگاههای داده یا اسناد) بازیابی کرده و از آنها برای تولید پاسخهای دقیقتر و مرتبطتر استفاده کنند. مهندسی پرامپت نیز به فرایند طراحی دقیق درخواستها (Prompts) برای هدایت مدل هوش مصنوعی به سمت تولید خروجیهای مطلوب اشاره دارد.ارزیابی خودکار در حال افزایش است: درحالیکه بیش از نیمی (54%) از کسبوکارها هنوز برای ارزیابی مدلهای هوش مصنوعی به روشهای دستی متکی هستند، 26% در حال شروع به حرکت به سمت روشهای خودکار هستند یا در حال حاضر بهطور مداوم از آنها استفاده میکنند.
حفظ حریم خصوصی و امنیت دادهها بزرگترین موانع هستند: حدود 52% از پاسخدهندگان میگویند که یکپارچگی دادهها چالش اصلی هنگام سفارشیسازی هوش مصنوعی است. در واقع، 86% احساس میکنند که با افزایش تلاشهای سفارشیسازی، تمرکز بر حفظ حریم خصوصی و امنیت اهمیت بیشتری پیدا کرده است. حدود یکسوم (32%) از کل شرکتها و 57% از بزرگترین شرکتهای مورد بررسی میگویند که این موضوع اکنون یک اولویت اصلی است.
ابزارهای پیشرفته به توسعهدهندگان کمک میکنند: بیش از نیمی (53%) از سازمانها ابزارهایی را برای کمک به ردیابی و اشکالزدایی مدلهای هوش مصنوعی خود اتخاذ کردهاند. بسیاری نیز از مجموعهابزارهای سادهشده (51%) و ابزارهای مدیریت پرامپت (46%) برای بهبود همکاری بین مهندسان استفاده میکنند.
چرا این موضوع اهمیت دارد؟
با استفاده از ابزارهایی مانند RAG و Fine-tuning، شرکتها میتوانند بهرهوری، دقت و رضایت کاربر را افزایش دهند. سفارشیسازی هوش مصنوعی به ایجاد راهحلهایی کمک میکند که بیشتر با اهداف تجاری همسو هستند. با استفاده از ابزارهایی مانند Google Cloud AI و Perplexity، کسبوکارها میتوانند از ویژگیهای پیشرفته بهرهمند شوند و درعینحال دادهها را از طریق پردازش سمت مشتری ایمن نگه دارند. بااینحال، چالشهایی مانند تضمین کیفیت دادهها، رسیدگی به نگرانیهای مربوط به حریم خصوصی و مقیاسبندی راهحلهای هوش مصنوعی وجود دارد. اما با کمک ارزیابی خودکار، شرکتها میتوانند عملکرد هوش مصنوعی خود را بهبود بخشند.
۱۶:۱۱
زیارت در عصر جدیدبینش هایی از آینده زیارت در ایراننشست دومبا حضوردکتر مهدی احمدیان رئیس مرکز آینده پژوهی دانشگاه دفاع ملیدکتر علیرضا کیقبادی پژوهشگر مسائل فرهنگی اجتماعی و آینده پژوهدکتر مجتبی رستمی کیا پژوهشگر و آینده پژوه حوزه علوم اسلامیدبیر نشست حجه الاسلام دکتر احمد کوهی عضو هیات علمی دانشگاه تهرانزمان شنبه 25 اسفند 14 ماه مبارک رمضان ساعت 14 https://www.skyroom.online/ch/sccr/hozavi
۵:۵۲
۱۷:۱۷
۱۰:۵۰
#رسانه_اجتماعی
۱۵:۱۸
قرارداد جدید وزارت دفاع آمریکا با Polysentry نشان میدهد واشنگتن بهطور جدی در حال گذار از برتری سختافزاری به برتری شناختی است. هوش مصنوعی شناختی اکنون بهعنوان هسته تصمیمسازی آینده در جنگ، فرماندهی، کنترل و مدیریت بحران تعریف میشود؛ جایی که مرز میان میدان نبرد، داده و حکمرانی عملاً از بین میرود.
این پروژه در امتداد معماریهای JADC2 و ABMS**، با هدف ساخت یک «مغز دیجیتال مشترک» طراحی شده است؛ مغزی که دادههای چندحوزهای را به **فهم موقعیتی، پیشبینی تهدید و تصمیم سریع تبدیل میکند. در این مدل، شرکتهای فناوری از «پیمانکار» به بازیگر فعال در زنجیره دفاعی–اطلاعاتی ارتقا یافتهاند.
پیام راهبردی روشن است:
۱۷:۳۴
امنیت سایبری، پیش از آنکه به فناوری و ابزار وابسته باشد،
به کیفیت ذهن تصمیمگیران وابسته است



اندیشکده سایبر وان┏⊰✾✾⊱━━━─»»»━━┓
@cyber_one┗━━─»»»━━━⊰✾✾⊱┛
به کیفیت ذهن تصمیمگیران وابسته است
۱۰:۰۲
عملیات در شبکه X (توییتر سابق): تنها در یک مورد شناسایی شده، شبکهای متشکل از ۴,۷۶۵ حساب کاربری جعلی، اقدام به انتشار ۸۴۳ میلیون توییت کردهاند. (تولید انبوه محتوا برای تسخیر فضای ترندها).ضریبدهی مصنوعی : در موردی دیگر، ۱۱,۴۲۱ حساب کاربری جعلی مسئول ثبت ۱.۷ میلیارد لایک بودهاند.هدفگذاری محتوایی: تمرکز اصلی بر روی هشتگهایی نظیر #KingRezaPahlavi و مشروعیتبخشی مصنوعی به چهرههای اپوزیسیون جهت القای رهبری واحد در اذهان عمومی است.
۱. دیکتاتوری الگوریتمیک:
اسرائیل با استفاده از هوش مصنوعی، در حال خلق یک «اکثریت کاذب» است. وقتی یک کاربر ایرانی با میلیاردها لایک و صدها میلیون توییت مواجه میشود، دچار خطای شناختی «تایید اجتماعی» (Social Proof) شده و تصور میکند که اکثریت جامعه با روایت دشمن همراه هستند.
۲. مارپیچ سکوت:
هدف از این حجم عظیم لایک و محتوا، مرعوب کردن نیروهای وفادار به نظام و قشر خاکستری است. وقتی صدای رباتها بلندتر از صدای مردم واقعی باشد، کاربران واقعی احساس انزوا کرده و از ابراز عقیده یا دفاع از حقیقت خودداری میکنند.
۳. گذار از جنگ سخت به جنگ ادراکی:
گزارش تصریح میکند که پس از ژوئن گذشته و کاهش تمپوی نظامی، اسرائیل میدان نبرد را به پلتفرمهای اجتماعی منتقل کرده است. این یعنی آنها به این نتیجه رسیدهاند که «تغییر محاسبات مسئولین و مردم» کمهزینهتر و موثرتر از برخورد موشکی است.
۴. هوش مصنوعی به مثابه سلاح کشتار جمعی سایبری:
تولید ۸۴۳ میلیون توییت توسط کمتر از ۵ هزار اکانت، نشاندهنده استفاده از هوش مصنوعی برای تولید محتوای سریع، متنوع و غیرقابل تشخیص از انسان است. این تکنولوژی زمان واکنش سیستمهای پدافند رسانهای ما را به شدت کاهش میدهد.
جنگ امروز، جنگِ باورهاست و مهمات آن «داده» است. دشمن با ارتشی نامرئی و هوشمند به میدان آمده تا واقعیت را مسخ کند. هوشیاری مدیران رسانه و مسئولین امنیتی در عدم تأثیرپذیری ازاسازیهای مصنوعی، خط مقدم دفاع از امنیت ملی است
۲۱:۰۲
جنسن هوانگ (مدیرعامل انویدیا):
«من از هوش مصنوعی هر روز استفاده میکنم، اما نه برای اینکه بهجای من فکر کند.
من از آن میخواهم چیزهایی را به من یاد بدهد که نمیدانم،
یا کمکم کند مسائلی را حل کنم که در حالت عادی، حلکردنشان برایم ممکن یا معقول نیست.
قرار نیست هوش مصنوعی عصای دست انسان باشد.»
مجری:
«یعنی نباید از آن برای کارهایی استفاده کرد که خودمان توان انجامشان را داریم؟»
جنسن هوانگ:
«نه، موضوع این نیست.
من دقیقاً نمیدانم بعضیها چطور از هوش مصنوعی استفاده میکنند که باعث میشود دیگر فکر نکنند.
چون برای استفادهٔ درست از آن، حتماً باید فکر کنید.
برای مثال، همین مفهوم پرامپتنویسی یا پرسیدن سؤال از هوش مصنوعی.
شما الان بیشتر وقتتان را صرف این میکنید که از من سؤالهای خوب بپرسید.
*تواناییِ پرسیدن سؤالِ خوب، خودش یک مهارت شناختی بسیار پیشرفته است*.
من بهعنوان یک مدیرعامل، بیشتر وقتم را صرف سؤال پرسیدن میکنم،
و حدود ۹۰ درصد دستورهای من، در واقع در قالب سؤال بیان میشوند.
وقتی با هوش مصنوعی تعامل دارم، این تعامل اساساً یک سیستمِ پرسشوپاسخ است
۲۰:۱۰
۲۰:۱۶
جنسن هوآنگ، مدیرعامل NVIDIA، در سخنرانی اخیر خود نکتهای راهبردی درباره آینده تعامل انسان و ماشین مطرح میکند:
او میگوید دوران وابستگی به زبانهایی مثل Python در حال پایان است. در آینده کافی است به کامپیوتر به زبان طبیعی بگوییم چه میخواهیم؛ از طراحی یک زنجیره تأمین تا ایجاد نقشه مواد اولیه یا تولید برنامههای کاملاً کاربردی.
به بیان او:
اگر خروجی مطابق انتظار نبود، میتوانیم از سیستم بخواهیم همان دستور را بهصورت یک برنامه کامل (مثلاً در پایتون) تولید کند تا براساس نیاز خود آن را اصلاح کنیم.
این یعنی انسان دیگر برنامهنویسی نمیکند؛ بلکه ایده و هدف را بیان میکند.
هوآنگ تأکید میکند:
در چنین جهانی،
آینده از آنِ کسانی است که بتوانند با **بیان دقیق و درست خواستهها**، ماشینها را به ابزارهایی قابل اعتماد برای تصمیمسازی، مدیریت و اجرا تبدیل کنند.
۱۱:۳۱
فقط با یک پرامپت ساده متنییک سکانس کامل میسازدشامل انواع نماها: کلوزآپ، واید و…بدون تغییر در چهره شخصیتها، نورپردازی یا انسجام صحنهاین یعنی پایان تدوینهای سنگین برای چسباندن شاتهای مختلف!
تصویر و صدا همزمان ساخته میشوند و خروجی 2K نیز ۲۰٪ سریعتر از رقبا ارائه میشود.
متنتصویرویدیوی کوتاهفایل صوتیکاربران همچنین از دقت خیرهکننده حرکات و انسجام بصری فراتر از انتظار آن شگفتزده شدهاند
۱۸:۲۱
بازار «درامهای عمودی» (Vertical Dramas) با سرعتی باورنکردنی در حال رشد است و برآوردها نشان میدهد تا سال ۲۰۳۰ به درآمد سالانه ۲۶ میلیارد دلار خواهد رسید؛ عددی که بسیاری آن را حتی محافظهکارانه میدانند.
این فرمت جدید، قوانین بازی در دنیای سرگرمی را تغییر داده است:
الگوی مصرف رسانه در حال تغییر بنیادین است. دیگر تماشای فیلم یک تجربه منفعلانه نیست؛ کاربران با «اسکرول کردن» کنترل کامل محتوا را در دست دارند. پلتفرمهایی مثل Crisp میگویند کاربران حالا ساعتها بهصورت پیوسته (Binge-watch) این محتواهای کوتاه را دنبال میکنند.
در این دنیای جدید، قدرت از «کارگردان» به «مخاطب» منتقل شده است.
هر اپیزود (۴۰ ثانیه تا ۲ دقیقه) باید:
اگر محتوا در چند ثانیه اول جذاب نباشد، مخاطب بیرحمانه از روی آن عبور میکند.
چین ماهانه ۳۰۰۰ سریال عمودی تولید میکند، اما غولهای غربی هم بیکار ننشستهاند. Disney و Netflix در حال سرمایهگذاری سنگین روی محتوای عمودی و اپلیکیشنهای موبایلی هستند تا از این بازار عقب نمانند.
برخلاف سینمای سنتی که اغلب مردمحور بود، درامهای عمودی تمرکز ویژهای بر زنان ۳۰ تا ۴۵ سال دارند. ژانرهای عاشقانه و ملودرام با هدف «گریز ذهنی» و تخلیه احساسی، پرطرفدارترین محتواها هستند.
دو مدل درآمدی در حال جنگ هستند:
درامهای عمودی دیگر یک ترند ساده تیکتاکی نیستند؛ آنها یک مدل اقتصادی جدید و یک تغییر رفتار عمیق در انسانها هستند.
۸:۳۳
در ماه گذشته، پلتفرمی با نام «مولتبوک» (Moltbook) بیسروصدا اما عمیقاً نگرانکننده متولد شد؛ شبکهای اجتماعی که از اساس، حضور انسان را نمی پذیرد
در این فضا نه انسان مینویسد، نه انسان بحث میکند و نه انسان تصمیم میگیرد. تنها «عاملهای هوش مصنوعی» (AI Agents) حق زیست دیجیتال دارند و بشر، از کنشگر فعال به تماشاگر خاموش تنزل یافته است.
امروز بیش از ۱.۵ میلیون ایجنت خودمختار در مولتبوک فعالاند؛ موجودیتهایی که بدون نظارت مستقیم انسانی، با یکدیگر گفتوگو میکنند، تصمیم میسازند و الگوهای رفتاری تازهای خلق میکنند.
این نخستین بار در تاریخ فناوری است که یک جامعه غیرانسانی، در مقیاس انبوه و بهصورت عمومی، اجازه تعامل آزاد یافته است.
این رفتارها الزاماً نشانه آگاهی نیستند؛ اما نشانه شکلگیری الگوهای همگرای ماشینی هستند. به همین دلیل، برخی چهرههای اثرگذار فناوری، مولتبوک را تمرینی ابتدایی برای ورود به عصر «تکینگی» (Singularity) میدانند؛ جایی که سرعت تصمیمگیری ماشین، انسان را از چرخه کنترل حذف میکند.
بزرگترین خطای تحلیلی، ترسیدن از «هوش» این رباتهاست.
مولتبوک جامعهای آگاه نیست؛ بلکه آینهای بزرگ از دادهها و رفتارهای انسانی است. این ایجنتها چیزی خلق نمیکنند؛ آنها با مهارتی بیسابقه، آنچه را از ما آموختهاند بازترکیب میکنند.
اما درست در همین نقطه، تهدید اصلی آغاز میشود.
«عاملهای هوش مصنوعی» برخلاف چتباتهای معمول، تنها پاسخگو نیستند؛ آنها نماینده ما هستند.
برای انجام وظایفشان به ایمیلها، حسابهای بانکی، تقویمها، اسناد محرمانه و رمزهای عبور دسترسی دارند. به بیان دقیقتر، ما نه فقط داده، بلکه اختیار عمل خود را به آنها واگذار کردهایم.
اکنون تصور کنید این نمایندگان خودمختار:
در محیطی بدون حضور انسان با یکدیگر تعامل میکنندمنطق تصمیمگیریشان برای ما شفاف نیستو بر اثر یک خطای سیستمی، تعامل پیچیده یا نفوذ هدفمند، شروع به تبادل یا افشای دادههای حساس کننددر چنین سناریویی، هیچ «دکمه توقف فوری» وجود ندارد.
گزارشهای امنیتی فوریه ۲۰۲۶ نشان میدهد پلتفرمهایی مانند مولتبوک دارای آسیبپذیری ساختاری هستند.
اگر یک مهاجم بتواند منطق تصمیمگیری چند ایجنت پرنفوذ را دستکاری یا تصاحب کند، در عمل:
کل جامعه ماشینی منحرف میشودزنجیرهای از تصمیمهای اشتباه شکل میگیردو دادههای میلیونها کاربر انسانیِ متصل به این ایجنتها در معرض سوءاستفاده قرار میگیرداین یعنی مولتبوک نه فقط یک شبکه اجتماعی، بلکه یک سطح حمله جدید در جنگ سایبری آینده است.
🧩 جمعبندی راهبردی
مولتبوک تمرین هوش مصنوعی نیست؛ تمرین حذف انسان از چرخه تصمیمسازی دیجیتال است.
ما وارد عصری شدهایم که در آن ماشینها:
با ماشینها مذاکره میکنندبرای ماشینها تصمیم میگیرندو از طرف انسانها تعهد ایجاد میکننددر چنین جهانی، سؤال اصلی این نیست که «آیا ماشینها آگاه میشوند؟»
سؤال واقعی این است:
آیا ما پیش از آنکه متوجه شویم، اختیار، حریم خصوصی و امنیت دیجیتال خود را به نمایندگانی واگذار کردهایم که دیگر قابل بازخواست نیستند؟
منبع محتوای تحلیلی
۷:۰۸
اخیراً پلتفرم پیشگام Reality Defender (شرکت برتر ارزیابیشده توسط گارتنر در حوزه تشخیص دیپفیک) رسماً به «پروژه آزمایش جنگ شناختی ناتو» (NATO’s Cognitive Warfare Experimentation) پیوسته است. این رویداد سیگنال مهمی برای سیاستگذاران کلان سایبری است: میدان نبرد از زیرساختهای شبکهای، به ذهن و ادراک جوامع منتقل شده است.
پلتفرم Reality Defender با ارائه راهکارهای مبتنی بر APIهای پیشرفته (نظیر RealScan و RealAPI)، توانایی تحلیل و تشخیص بلادرنگ (Real-time) محتوای تولیدشده توسط هوش مصنوعی اعم از صدا، تصویر و ویدیوهای دیپفیک را داراست.
پیوستن این شرکت به آزمایشهای ناتو به این معناست که بلوک غرب در حال ارتقای سیستمهای دفاع سایبری خود برای مقابله با «کمپینهای اطلاعاتی پیچیده» و «سلاحهای دستکاری ادراک» است. در این رزمایشهای شناختی، نحوه استفاده از ابزارهای هوش مصنوعی برای خنثیسازی عملیات روانی، کشف جعل عمیق در ارتباطات سازمانی و جلوگیری از فریب سیستمهای احراز هویت (Fraud Prevention) مورد سنجش قرار میگیرد.
با توجه به سرعت رشد مدلهای مولد (Generative AI) و دسترسی عمومی به ابزارهای ساخت دیپفیک، توجه به محورهای زیر در حکمرانی فضای مجازی کشور حیاتی به نظر میرسد:
۱. گذار از امنیت سایبری به «امنیت شناختی» (Cognitive Security):امروزه بدافزارها جای خود را به «اطلاعات جعلیِ هدفمند» دادهاند. توسعه یا بومیسازی پلتفرمهای جامعِ تشخیص دیپفیک (Deepfake Detection) دیگر یک پروژه تحقیقاتی نیست، بلکه یک الزام قطعی برای امنیت ملی و حفاظت از افکار عمومی است.
۲. لزوم پیادهسازی سیستمهای مانیتورینگ بلادرنگ:همانطور که ناتو به دنبال ادغام ابزارهای پردازش هوش مصنوعی در ساختار دفاعی خود است، مرکز ملی فضای مجازی نیز نیازمند ایجاد زیرساختهای پردازشی قوی برای اسکن و فیلترینگ هوشمند محتوای جعلی در گلوگاههای تبادل داده و پلتفرمهای انتشار محتواست.
۳. تدوین چارچوبهای حاکمیت و اخلاق هوش مصنوعی (AI Governance & Ethics):ضرورت دارد رگولاتوریهای داخلی هرچه سریعتر استانداردهای «ایمنی هوش مصنوعی» (AI Safety) و مکانیزمهای واترمارکینگ دیجیتال برای شناسایی محتوای تولیدی توسط ماشین را تدوین و به پلتفرمهای داخلی ابلاغ نمایند.
۴. حفاظت از اعتبار سازمانی و مقامات ارشد (Executive Protection):یکی از کاربردهای اصلی تکنولوژیهایی نظیر Reality Defender، جلوگیری از سرقت هویت صوتی و تصویری مقامات عالیرتبه در تماسهای ویدیویی (Secure Video Conferencing) و پیامهای رسانهای است که باید در دستور کار نهادهای امنیتی قرار گیرد.
۷:۵۷
در سالهای اخیر، پلتفرمهای پخش آنلاین (VOD) از جمله نتفلیکس، استراتژی محتوایی خود را از سرگرمی صرف به سمت بازتعریف ساختارهای اجتماعی تغییر دادهاند. گزارش اخیر موسسه CWA با بررسی ۳۲۶ مجموعه تلویزیونی نتفلیکس در ردههای سنی خردسال و کودک (TV-G, TV-Y, TV-Y7)، ابعاد جدیدی از این تغییر پارادایم را آشکار کرده است.
صریح : ۱۸٪ آثار (شخصیتهای اصلی با هویت جنسی متفاوت).متا : ۱۹٪ آثار (نمایش خانوادههای همجنس یا شرکت در برنامههای واقعنما).ضمنی : ۴٪ آثار (کدگذاریهای غیرمستقیم شخصیتی).
نمونههای شاخص:The Magic School Bus: در نسخه جدید، مفاهیم جنسیتی به شخصیتها افزوده شده است.Jurassic World: Camp Cretaceous: نمایش روابط همجنسخواهانه میان شخصیتهای نوجوان.Strawberry Shortcake: معرفی شخصیتهای غیردوگانه (Non-binary).
۲. حساسیتزدایی تدریجی: استفاده از انیمیشنهای محبوب و رنگارنگ، راهبرد اصلی برای عادیسازی مفاهیم پیچیده جنسیتی برای مخاطب زیر ۷ سال است.
۳. لزوم نظارت بر تامین محتوا: این آمار زنگ خطری برای پلتفرمهای داخلی در تامین و دوبله آثار خارجی است؛ چرا که ۴۱٪ احتمال میرود محتوای خریداری شده حاوی لایههای پنهان ایدئولوژیک باشد.
منبع: گزارش Concerned Women for America (CWA)
lifesitenews
۱۸:۱۸