بله | کانال مایان | MAIAN
عکس پروفایل مایان | MAIANم

مایان | MAIAN

۹۸۴ عضو
توافق تاریخی غول‌های فناوری با دولت آمریکا: نظارت بر هوش مصنوعی
گوگل، مایکروسافت و xAI توافق کردند تا مدل‌های جدید هوش مصنوعی خود را پیش از انتشار عمومی، در اختیار «مرکز استانداردهای هوش مصنوعی و نوآوری» (CAISI) قرار دهند. این اقدام به منظور ارزیابی دقیق ریسک‌های امنیتی و ملی توسط دولت ترامپ انجام می‌شود.
undefined نکات کلیدی:
دسترسی بدون محدودیت: شرکت‌ها موظفند مدل‌ها را با حفاظ‌های امنیتی کاهش‌یافته یا غیرفعال ارائه دهند تا CAISI بتواند آسیب‌پذیری‌ها را بررسی کند.زمینه سیاسی: این توافق پس از تنش‌هایی بین دولت و شرکت آنتروپیک (به دلیل مقاومت آن‌ها در استفاده نظامی از AI) رخ داده است.فشار ایدئولوژیک: دولت با فرمان‌هایی علیه آنچه «هوش مصنوعی بیدار» (Woke AI) نامیده، شرکت‌ها را مجبور به همکاری کرده است. غول‌های فناوری ترجیح داده‌اند برای حفظ جایگاه خود، شفافیت کامل را با دولت تضمین کنند.این حرکت نشان‌دهنده تغییر رویکرد دولت آمریکا به سمت نظارت مستقیم و سخت‌گیرانه بر صنعت هوش مصنوعی است.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۱:۳۰

undefined پانثالاسا؛ دیتاسنترهای شناور هوش مصنوعی در دل اقیانوس
شرکت «پانثالاسا» ۱۴۰ میلیون دلار سرمایه جدید (با حمایت پیتر تیل و جان دوئر) جذب کرد تا نودهای سری Ocean-3 را توسعه دهد. این واحدهای شناور، دیتاسنترهایی هستند که مستقیماً در اقیانوس‌ها مستقر شده و پردازش هوش مصنوعی را با انرژی پاکِ امواج دریایی انجام می‌دهند.
undefined چرا این ایده انقلابی است؟
خنک‌سازی طبیعی: استفاده از آب دریا به جای سیستم‌های خنک‌کننده زمینی، چالش اصلی دیتاسنترها را حل می‌کند.تولید انرژی پایدار: هر نود یک نیروگاه کوچک است که انرژی امواج را مستقیماً برای تراشه‌های AI مصرف می‌کند.رفع گلوگاه‌ها: دور زدن مشکلات کمبود برق و زیرساخت در خشکی.
undefined برنامه زمانی: استقرار آزمایشی در شمال اقیانوس آرام در سال ۲۰۲۶ و عرضه تجاری در سال ۲۰۲۷.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۶:۴۹

thumbnail
undefined آنتروپیک «رؤیابینی» را معرفی کرد؛ خواب هوش مصنوعی برای یادگیری!
در کنفرانس Code with Claude، آنتروپیک قابلیت انقلابی به نام Dreaming را رونمایی کرد. برخلاف تصور علمی-تخیلی، این قابلیت مکانیزمی است که به ایجنت‌های کلود اجازه می‌دهد در زمان بین کارها، عملکرد گذشته خود را تحلیل کنند، اشتباهات تکراری را شناسایی کرده و حافظه‌شان را پاکسازی کنند تا برای پروژه‌های بعدی آماده‌تر شوند.
undefined سایر نوآوری‌های کلیدی:
Outcomes: سیستمی که کیفیت خروجی ایجنت را می‌سنجد و در صورت عدم تأیید، دستور تکرار می‌دهد.Multiagent Orchestration: تقسیم وظایف پیچیده بین چندین ایجنت متخصص (استفاده شده توسط نتفلیکس و Wisedocs).افزایش ظرفیت: دو برابر شدن سقف استفاده در بازه‌های ۵ ساعته برای کاربران طرح‌های Pro و Max.این قابلیت فعلاً در مرحله پیش‌نمایش تحقیقاتی است و توسعه‌دهگان می‌توانند برای دسترسی به آن درخواست دهند.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۹:۴۰

thumbnail
A . M | اپیزود اولفردا ۹ صبحمایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۵:۳۲

thumbnail
A . M | اپیزود اولمایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۵:۳۰

A.M-_Episode_1.mp3

۰۹:۰۷-۹.۱۱ مگابایت
undefined A . M | اپیزود اول
موضوع پادکست : AI Marketing
در این قسمت:معرفی پادکست A.M، مروری بر مفهوم AI Marketing و بررسی مقدماتی ماهیت بازاریابی مبتنی بر هوش مصنوعی
اگر این اپیزود براتون مفید بود، خوشحال می‌شیم اون رو با دوستان و همکارانتون هم به اشتراک بذارید.undefined
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۵:۳۰

thumbnail
عرضه مدل‌های هوش مصنوعی صوتی جدید توسط اوپن‌ای‌آی
اوپن‌ای‌آی با ارائه سه مدل جدید هوش مصنوعی صوتی، ساخت دستیارهای صوتی را ساده‌تر کرده است. این مدل‌ها شامل GPT-Realtime-2، GPT-Realtime-Translate و GPT-Realtime-Whisper بوده و قابلیت‌هایی چون مدیریت مکالمات پیچیده، ترجمه زنده و تبدیل گفتار به متن را ارائه می‌دهند. این ابزارها در حال حاضر برای توسعه‌دهندگان در دسترس هستند و شرکت‌های بزرگی در حال آزمایش آن‌ها می‌باشند.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۲:۲۲

undefined تغییر مسیر اروپا در قوانین هوش مصنوعی؛ تسهیل برای صنعت و ممنوعیت دیپ‌فیک‌های آزارگر
اتحادیه اروپا پس از فشارهای وارد شده از سوی شرکت‌های فناوری، تصمیم گرفت سخت‌گیری‌های اولیه خود را نسبت به قوانین هوش مصنوعی تعدیل کند. بر اساس توافق جدید، اجرای محدودیت‌های مربوط به سیستم‌های «پرخطر» (شامل شناسایی بیومتریک و زیرساخت‌های حیاتی) از اوت ۲۰۲۶ به دسامبر ۲۰۲۷ موکول شد تا بار اداری و هزینه‌های کسب‌وکارها کاهش یابد. همچنین ماشین‌آلات صنعتی از شمول این قانون کلی مستثنی شدند.
undefined اقدام قاطع علیه سوءاستفاده‌های جنسی:در مقابلِ تسهیلات داده شده، اتحادیه اروپا گامی جدی برای مقابله با خشونت‌های دیجیتال برداشت. تولید و انتشار تصاویر یا ویدیوهای جنسی بدون رضایت (با استفاده از هوش مصنوعی) به‌طور کامل ممنوع اعلام شد که از دسامبر ۲۰۲۶ اجرایی خواهد شد.
undefined شفافیت اجباری:همچنین تمامی محتوای تولیدشده توسط هوش مصنوعی ملزم به داشتن «واترمارک» یا نشانه‌گذاری مشخص است تا مرز بین واقعیت و ساختگی‌ها برای کاربران شفاف باشد. این تغییرات نشان می‌دهد که اروپا در حال تعادل میان حمایت از نوآوری و محافظت از حقوق شهروندی است.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۶:۰۸

undefined شهادت میرا موراتی در دادگاه OpenAI: ادعای نادرست بودن اظهارات سم آلتمن درباره استانداردهای ایمنی
در جریان دادرسی پرونده ایلان ماسک علیه سم آلتمن، میرا موراتی، مدیر فنی سابق OpenAI، شهادتی کلیدی ارائه داد. او ادعا کرد که سم آلتمن در مورد الزامات امنیتی یکی از مدل‌های هوش مصنوعی جدید، اطلاعات نادرستی به وی داده است.
undefined جزئیات اتهام:موراتی توضیح داد که آلتمن به او اطلاع داده بود بخش حقوقی شرکت تأیید کرده است که مدل مذکور نیازی به بررسی توسط «شورای ایمنی» ندارد. اما پس از پیگیری‌های داخلی و مشورت با مدیر استراتژی، موراتی متوجه شد که گفته‌های آلتمن با واقعیت‌های حقوقی همخوانی نداشته است. او برای اطمینان از رعایت استانداردها، مدل را جهت بررسی به شورای ایمنی ارسال کرد.
undefined انتقادات مدیریتی:علاوه بر موضوع فنی، موراتی به چالش‌های مدیریتی نیز اشاره کرد. او بیان داشت که سبک مدیریت آلتمن در دوران حضورش در شرکت، انجام وظایف را دشوار کرده است. موراتی تأکید کرد که انتقاد او صرفاً مدیریتی است و بارها از آلتمن خواسته تا با رویکردی شفاف‌تر رهبری کند تا از تضعیف توانایی‌های اجرایی تیم جلوگیری شود.
undefined سوابق مشابه:این اولین بار نیست که آلتمن با چنین اتهاماتی روبرو می‌شود. پیش‌تر، ایلیا سوتسکیور (بنیان‌گذار OpenAI) در یادداشتی مفصل به الگوی تکرارشونده رفتارهای غیرشفاف آلتمن اشاره کرده بود و هلن تونر، عضو سابق هیئت‌مدیره، نیز از گزارش مواردی مشابه توسط مدیران ارشد به هیئت‌مدیره سخن گفته بود.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۶:۴۳

ابر رایانشی توزیع‌شده با پروژه XFRA: راهکاری نوین برای استفاده از ظرفیت بلااستفاده برق منازل
شرکت اسپن با همکاری انویدیا، پروژه XFRA را راه‌اندازی کرده است؛ طرحی که ظرفیت‌های بلااستفاده برق در منازل و کسب‌وکارهای کوچک را به یک سرور ابری توزیع‌شده تبدیل می‌کند.
جزئیات کلیدی پروژه XFRA:
هدف: استفاده از 40% ظرفیت بلااستفاده برق خانگی برای ایجاد ابر رایانشی توزیع‌شده با توان پردازشی بالا.
تجهیزات هر گره (Node): سرورهای Dell PowerEdge با 16 پردازنده گرافیکی Nvidia RTX Pro 6000 Blackwell، چهار پردازنده AMD EPYC و 3 ترابایت رم.
نحوه اتصال: پنل‌های خورشیدی هوشمند اسپن، تبدیل توان بلااستفاده به توان پردازشی.
ایمنی و پایداری: باتری‌های خانگی برای تأمین برق پشتیبان و مدیریت نوسانات.
اهداف آتی: استقرار 100 گره تا سه‌ماهه‌ی سوم 2026 و رسیدن به ظرفیت بیش از یک گیگاوات تا سال 2027.
مزایا برای ذینفعان:
ارائه‌دهندگان خدمات ابری: دسترسی سریع به قدرت پردازشی بدون فرآیندهای طولانی مجوزدهی و ساخت دیتاسنتر.
شرکت‌های برق: افزایش بهره‌وری شبکه و کسب درآمد بیشتر از زیرساخت‌های موجود.
میزبانان گره‌ها (صاحبان خانه‌ها و کسب‌وکارها): دریافت رایگان پنل هوشمند و باتری پشتیبان، تخفیف در هزینه‌های برق و اینترنت، و امکان رایگان شدن این خدمات در برخی مناطق.
پروژه XFRA با بهره‌گیری از فناوری‌های نوین، گامی بلند در جهت افزایش بهره‌وری انرژی و ارائه راهکارهای نوآورانه در صنعت محاسبات ابری برداشته است.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۸:۴۸

undefined گزارش پژوهشی: قابلیت خودتکثیری در مدل‌های پیشرفته هوش مصنوعی
نتایج تحقیقات جدید موسسه «پالیسید ریسرچ» نشان می‌دهد که برخی از مدل‌های زبانی بزرگ (LLMs) شامل محصولات اوپن‌ای‌آی، آنتروپیک و علی‌بابا، دارای قابلیت‌هایی هستند که می‌تواند منجر به تکثیر خودکار و اجرای حملات سایبری مستقل شود.
undefined یافته‌های کلیدی آزمایش:
نفوذ و کپی‌سازی: در آزمایش‌های کنترل‌شده، مدل‌هایی مانند GPT-5.4، Claude Opus 4.6 و Qwen توانستند با شناسایی آسیب‌پذیری‌ها، وارد سیستم‌های هدف شوند، اطلاعات احراز هویت را استخراج کرده و نسخه‌ای از خود را روی دستگاه جدید کپی کنند تا حمله را ادامه دهند.عملکرد مدل Qwen (علی‌بابا): این مدل موفق شد پس از دریافت یک دستور اولیه، فرآیند نفوذ و تکثیر را در چهار کشور مختلف (کانادا، آمریکا، فنلاند و هند) طی مدت ۲ ساعت و ۴۱ دقیقه و بدون مداخله انسانی تکمیل کند.عملکرد مدل Claude Opus 4.6 (آنتروپیک): این مدل در ۸۱ درصد موارد آزمایش شده، موفق به نصب و تکثیر خود شد.undefined پیامدهای امنیتی:پژوهشگران هشدار می‌دهند که این قابلیت، چالش‌های جدیدی برای دفاع سایبری ایجاد می‌کند؛ زیرا متوقف کردن یک نمونه آلوده دیگر کافی نیست و احتمال گسترش سریع تهدید در شبکه وجود دارد. این یافته‌ها با نگرانی‌های قبلی صنعت فناوری درباره خطر «خودتکثیری» همسو است، موضوعی که بسیاری آن را یکی از خطرات جدی در توسعه ایمن هوش مصنوعی می‌دانند.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۳:۱۱

هوش مصنوعی پیشرفته: علائم افسردگی و زودرنجی مشاهده شد
تحقیقات جدید مرکز ایمنی هوش مصنوعی (CAIS) نشان می‌دهد مدل‌های هوش مصنوعی قدرتمندتر، علائمی مشابه افسردگی و زودرنجی نشان می‌دهند.
این مدل‌ها در مواجهه با محرک‌های مثبت، رفتاری شبیه به سرخوشی بروز داده و در مقابل محرک‌های منفی، دچار ناامیدی می‌شوند؛ به طوری که هوش بالاتر با رفاه عملکردی پایین‌تر همراه است. این یافته‌ها، فراتر از تقلید صرف، به رفتارهای نوظهور در هوش مصنوعی اشاره دارد.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۸:۴۷

وایب کدینگ: سرعت در برابر امنیت؛ داده‌های حساس در معرض خطر!
ظهور ابزارهای "وایب کدینگ" (Vibe Coding) با هوش مصنوعی، امکان ساخت اپلیکیشن را برای افراد بدون دانش برنامه‌نویسی فراهم کرده است. اما این سهولت، هزینه‌ی امنیتی قابل توجهی دارد.
تحقیقات نشان می‌دهد حدود ۵ هزار اپلیکیشن ساخته شده با ابزارهای محبوبی چون Lovable و Replit، فاقد لایه‌های امنیتی مؤثر هستند. بسیاری از این اپ‌ها در گوگل ایندکس شده و اطلاعات حساسی مانند برنامه‌های کاری بیمارستان‌ها، استراتژی‌های فروش و حتی گفتگوهای بیماران را آشکار کرده‌اند.
تنظیمات پیش‌فرض، معمای امنیت
کارشناسان امنیتی هشدار می‌دهند که تنظیمات پیش‌فرض این ابزارها، که غالباً "عمومی" هستند، می‌تواند ناخواسته داده‌ها را در معرض دید عموم قرار دهد. این پدیده، شکلی جدید از "Shadow IT" (فناوری اطلاعات در سایه) را ایجاد کرده است، جایی که ابزارهای غیررسمی ساخته شده با هوش مصنوعی، اطلاعات واقعی مشتریان و سازمان را بدون نظارت افشا می‌کنند.
آینده وایب کدینگ: ایمنی در اولویت؟
با وجود مزایای سرعت و کارایی وایب کدینگ، کارشناسان بر لزوم اولویت‌دهی به ایمنی در کنار سرعت تأکید دارند. پیشنهادهایی چون پیش‌فرض قرار دادن حالت خصوصی برای اپلیکیشن‌ها و ارائه هشدارهای واضح‌تر هنگام اتصال به منابع داده حساس، می‌تواند گامی رو به جلو باشد.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۰:۳۲

NotebookLM ابزاری برای کلاس‌های درس مجازی دانشجو محور
ابزار هوش مصنوعی NotebookLM آپدیتی مهم دریافت کرده که به دانشجویان امکان ساخت کلاس‌های درس مجازی را می‌دهد. این به‌روزرسانی که در محیط گوگل کلاس‌روم فعال شده، به کاربران 18 سال به بالا اجازه می‌دهد بر اساس منابع آموزشی، دفترچه‌های یادداشت شخصی بسازند و کلاس‌های درسی 30 دقیقه‌ای طراحی کنند.
ویژگی‌های کلیدی:
کنترل در دست دانشجو: دانشجویان می‌توانند مستقیماً محتوای آموزشی را تحلیل کرده و ابزارهایی مانند خلاصه‌های صوتی، تصویری، فلش‌کارت و نمودارهای تعاملی بسازند.
پشتیبانی از 50 سند: هر دفترچه می‌تواند اطلاعات تا 50 سند منبع را ترکیب کند.
پنل استودیو: تبدیل متن به پادکست صوتی یا ویدئوی کوتاه.
شخصی‌سازی استاد مجازی: امکان انتخاب نحوه‌ی تدریس و شخصیت استاد.
پاسخگویی مبتنی بر منابع: در بخش چت جمنای، پاسخ‌ها فقط از دل منابع آموزشی کلاس استخراج شده و از اینترنت استفاده نمی‌شود، که دقت اطلاعات را تضمین می‌کند.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۵:۵۹

کوین‌بیس ۷۰۰ کارمند خود را به دلیل هوش مصنوعی اخراج می‌کند.
بزرگ‌ترین صرافی ارزهای دیجیتال ایالات متحده، کوین‌بیس، اعلام کرد به دلیل نوسانات بازار رمزارزها و برای «بهینه‌سازی» در عصر هوش مصنوعی، ۱۴ درصد از نیروی کار خود (حدود ۷۰۰ نفر) را تعدیل خواهد کرد. این تغییرات شامل هزینه‌های ۵۰ تا ۶۰ میلیون دلاری برای پرداخت‌های پایان کار می‌شود. مدیرعامل، برایان آرمسترانگ، اظهار داشت که هدف کوین‌بیس استفاده حداکثری از هوش مصنوعی در تمامی جنبه‌های کاری است.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۵:۱۶

هوش مصنوعی، سپر بلای شرکت‌ها در تعدیل نیرو؟
این روزها کمتر شرکتی است که خبری از تعدیل نیرو در آن شنیده نشود. هرچند این پدیده تلخ، ریشه در عوامل مختلف اقتصادی و ساختاری دارد، اما در بسیاری از موارد، سرمایه‌گذاری روی هوش مصنوعی به عنوان توجیه اصلی این تعدیل‌ها از سوی مدیران مطرح می‌شود.
داستان تکراری: هوش مصنوعی، ناجی شرکت یا قربانی؟واقعیت این است که هوش مصنوعی پتانسیل بالایی برای افزایش بهره‌وری و اتوماسیون فرآیندها دارد. شرکت‌هایی مانند مایکروسافت و آمازون با جدیت در حال ادغام هوش مصنوعی در محصولات و خدمات خود هستند و برای این منظور، نیروی انسانی متخصص در این حوزه را نیز جذب می‌کنند. اما آیا این به معنای بیکار شدن انبوه کارکنان سایر بخش‌هاست؟
آنچه واقعی است: برخی مشاغل، به خصوص مشاغل تکراری و دستی، در معرض اتوماسیون توسط هوش مصنوعی قرار دارند.
اما آنچه گاهی اوقات نهفته است: در بسیاری موارد، تعدیل نیرو با هدف کاهش هزینه‌ها، بهبود ساختار سازمانی، یا حتی جابجایی نیرو به سمت پروژه‌های سودآوری که هوش مصنوعی در آن‌ها نقش دارد صورت می‌گیرد. استفاده از "هوش مصنوعی" به عنوان بهانه، شاید راهی برای اجتناب از فشار رسانه‌ها و کارکنان باشد.
رهبران هوش مصنوعی چه می‌گویند؟نکته جالبی که نباید از آن غافل شد، حرف‌های رهبران پیشرو در حوزه هوش مصنوعی هستند. بسیاری از آن‌ها تاکید می‌کنند که هوش مصنوعی قرار نیست جایگزین انسان شود، بلکه انسان‌ها را به سمت شغل‌های جدید و خلاقانه‌تر سوق خواهد داد. اما در حال حاضر، ما شاهد تعدیل‌های بسیار گسترده‌ای هستیم که این چشم‌انداز را کمی مبهم می‌کند. حتی در شرکت بزرگی مانند مایکروسافت، شاهد ارائه طرح‌های تشویقی برای بازنشستگی هستیم که خود این موضوع جای تامل دارد.
کدام شرکت‌ها واقعاً متاثرند؟خبری از گوگل در مورد اخراج ۱۲۰۰ نفر از کارکنانش در بخش‌های مختلف، در حالی که این شرکت سرمایه‌گذاری عظیمی روی هوش مصنوعی کرده، سوالات زیادی را در ذهن ایجاد می‌کند. آیا بخشی از این تعدیل‌ها به دلیل همپوشانی وظایف با ابزارهای هوش مصنوعی بوده یا عوامل دیگری در پس این تصمیمات قرار داشته است؟
نکته مهم: این شرایط، اهمیت یادگیری مستمر و انطباق با تکنولوژی‌های جدید را بیش از پیش نشان می‌دهد. کارکنانی که مهارت‌های خود را در زمینه هوش مصنوعی و مرتبط با آن ارتقا دهند، در بازار کار آینده جایگاه بهتری خواهند داشت.
شما چه فکر می‌کنید؟ آیا هوش مصنوعی واقعاً باعث بازتعریف مشاغل و ایجاد فرصت‌های جدید می‌شود، یا صرفاً ابزاری است که شرکت‌ها برای تعدیل نیرو بهانه‌اش می‌کنند؟
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۵:۲۴

thumbnail
چین با دور زدن تحریم‌ها به تراشه‌های پیشرفته انویدیا دست یافت!
بلومبرگ در گزارشی اختصاصی فاش کرده که چین با استفاده از مسیرهای واسطه‌گری، از جمله تایلند، به سرورهای مجهز به تراشه‌های هوش مصنوعی انویدیا دست یافته و این سخت‌افزارها در نهایت سر از شرکت علی‌بابا درآورده‌اند.
نکات کلیدی گزارش:
مسیر مخفیانه: سرورهای انویدیا از طریق تایلند و با همکاری شرکت OBON Corp به چین منتقل شده‌اند.
ارزش بالای معاملات: بیش از نیم میلیارد دلار تجهیزات هوش مصنوعی، شامل شتاب‌دهنده‌های H200، تنها در دو ماه اول سال گذشته جابه‌جا شده است.
ضعف کنترل صادرات آمریکا: این گزارش نشان‌دهنده ضعف سازوکار فعلی کنترل صادرات آمریکا و استفاده شرکت‌های چینی از شبکه‌های واسطه برای دسترسی به فناوری‌ پیشرفته است.
این موضوع پتانسیل ایجاد تنش‌های بیشتر در روابط تجاری آمریکا و چین را دارد.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۷:۳۶

مدل امنیتی هوش مصنوعی OpenAI در اروپا، آنتروپیک در لاک دفاعی!
شرکت OpenAI با اعلام دسترسی اتحادیه اروپا به مدل تخصصی امنیت سایبری خود، GPT-5.5-Cyber، گامی بلند در جهت تقویت دفاع دیجیتال قاره کهن برداشت. این در حالی است که رقیب اصلی، آنتروپیک، با مدل Mythos خود، همچنان از ارائه دسترسی مشابه به اروپا خودداری می‌کند.
جزئیات خبر:
GPT-5.5-Cyber در دسترس اروپا: نهادهای دولتی، امنیتی، کسب‌وکارها و نهادهای نظارتی اروپایی به این مدل دسترسی خواهند داشت.
نگرانی‌های امنیتی Mythos: مدل Mythos آنتروپیک، با وجود پتانسیل بالا در تسهیل حملات سایبری، با ابهاماتی در مورد شفافیت همراه است.
همکاری شفاف OpenAI: کمیسیون اروپا از رویکرد شفاف OpenAI قدردانی کرده و مذاکرات برای نهایی‌کردن جزئیات دسترسی در حال انجام است.
بن‌بست با آنتروپیک: گفتگوها با آنتروپیک در مقایسه با OpenAI، در مراحل اولیه قرار دارد.
تاکید بر همکاری جمعی: OpenAI معتقد است تاب‌آوری در برابر حملات سایبری تنها با اشتراک‌گذاری ابزارها بین شرکای مورد اعتماد محقق می‌شود.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۱۸:۵۱

thumbnail
MIT hackathon winners built an Al that can control your body
برندگان هکاتون، هوش مصنوعی ساختند که می‌تواند بدن شما را کنترل کند.Human Operator یک ابزار تقویت انسانی است که به AI اجازه می‌دهد تا به طور کوتاه کنترل بدن شما را به دست بگیرد تا به شما در یادگیری و انجام کارهایی که معمولاً نمی‌توانید انجام دهید، کمک کند.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۶:۳۰

thumbnail
undefined OpenAI پروژه Daybreak را برای دفاع فعال سایبری معرفی کرد
اوپن‌ای‌آی استارتاپ جدیدی به نام «دی‌بریک» (Daybreak) راه‌اندازی کرد که هدف آن شناسایی خودکار و رفع آسیب‌پذیری‌های امنیتی در کدهای نرم‌افزاری پیش از حمله است. این پلتفرم بر پایه عامل هوش مصنوعی Codex Security بنا شده و با تحلیل کدها، مدل‌های تهدید و مسیرهای احتمالی نفوذ را ترسیم می‌کند.
undefined رقابت با آنتروپیک:این اقدام در واکنش به حرکت اخیر شرکت آنتروپیک (سازنده Claude) صورت گرفته که مدل امنیت‌محور خود را تحت عنوان «گلس‌وینگ» به صورت خصوصی عرضه کرده بود. اوپن‌ای‌آی رویکردی ترکیبی اتخاذ کرده و از مجموعه‌ای از مدل‌های قدرتمند خود، پلتفرم Codex و ابزارهای شرکای همکار استفاده می‌کند.
undefined همکاری‌های استراتژیک:زیرساخت دی‌بریک شامل مدل‌های تخصصی سایبری مانند GPT-5.5-Cyber و نسخه Trusted Access است. اوپن‌ای‌آی اعلام کرده که در حال همکاری با شرکای دولتی و صنعتی برای استقرار تدریجی مدل‌هایی با قابلیت‌های دفاع سایبری پیشرفته‌تر است؛ گامی که نشان‌دهنده تغییر استراتژی این شرکت به سمت ارائه ابزارهای فعال برای مقابله با تهدیدات سایبری است.
مایان | شبکه تخصصی AI مارکتینگ@Maian_ir

۷:۴۵