Google از نسخه جدید مدل پرچمدار خود یعنی Gemini 3.1 Pro رونمایی کرد؛ مدلی که طبق اعلام این شرکت، در برخی بنچمارکهای کلیدی حتی از GPT-5.2 هم جلو زده است.
جمینای ۳.۱ پرو در آزمون Humanity’s Last Exam امتیاز ۴۴.۴٪ را ثبت کرده و در تست ARC-AGI-2 عملکردش از ۳۱٪ به ۷۷٪ رسیده؛ رشدی که نشان میدهد گوگل تمرکز ویژهای روی «استدلال پیشرفته» گذاشته است.
این مدل حالا میتواند بلوکهای بزرگتری از کد را پردازش کند، خطاها را دقیقتر رفع کند و اسناد بسیار طولانی (تا یک میلیون توکن ورودی) را بدون نیاز به تقسیمبندی تحلیل کند.در بنچمارک APEX-Agents هم عملکردش تقریباً دو برابر شده؛ نشانهای از حرکت جدی گوگل به سمت کاربردهای واقعی و چندمرحلهای در کسبوکارها.
با وجود این پیشرفتها، در برخی رتبهبندیهای کاربرمحور مانند Arena، مدل Claude Opus 4.6 همچنان در بعضی وظایف متنی و کدنویسی بالاتر قرار دارد.
قیمت API بدون تغییر باقی مانده؛ موضوعی که میتواند برای استارتاپها و تیمهای سازمانی خبر خوبی باشد.
رقابت مدلهای هوش مصنوعی حالا فقط بر سر «هوشمندتر بودن» نیست؛ بلکه بر سر «کاربردیتر بودن» است.آیا جمینای ۳.۱ پرو میتواند معادلات بازار سازمانی را تغییر دهد؟
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#جمنای_پرو#استدلال
۶:۲۲
مرکزی که با هدف تقویت تابآوری سایبری زیرساختهای ارتباطی، بانکی و خدمات دیجیتال این کشور ایجاد میشود.
۶:۵۰
شکاف پذیرش هوش مصنوعی: چرا عرضه از تقاضا جلو زده است؟#هوش_مصنوعی
۷:۱۸
مدل تازه و پرسر و صدای Google یعنی Gemini 3.1 Pro در روز عرضه برای پاسخ دادن به یک «سلام» ساده، ۱۰۴ ثانیه زمان صرف کرد؛ موضوعی که موجی از انتقاد میان توسعهدهندگان به راه انداخت.
این در حالی است که همین مدل با ثبت امتیاز ۷۷.۱٪ در معیار ARC-AGI-2 بهعنوان یکی از قویترین مدلهای استدلالی صنعت معرفی شده و حتی از نسخه قبلی خود عملکردی بیش از دو برابر نشان داده است.
جمینای ۳.۱ پرو از نظر فنی چشمگیر است:پنجره ورودی یک میلیون توکن، خروجی ۶۴ هزار توکن و تمرکز ویژه بر حل مسائل پیچیده و «عملکرد عاملی».
اما در عمل، کاربران اولیه با تأخیرهای چنددقیقهای، خطاهای «مهلت منقضیشده» و حتی توقفهای طولانی در تولید کد مواجه شدند. برخی گزارشها نشان میدهد مدل برای کارهای ساده زمان غیرمنتظرهای صرف میکند؛ مسئلهای که استفاده از آن را در محیطهای تعاملی دشوار میکند.
برنامهنویس بریتانیایی Simon Willison نخستین بار این تأخیر را گزارش کرد و پس از آن، انجمنها پر از گلایه شد.
جمینای ۳.۱ پرو شاید بسیار باهوش باشد، اما سؤال اصلی این است: آیا توسعهدهندگان حاضرند برای یک پاسخ ساده بیش از یک دقیقه صبر کنند؟ مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#هوش_مصنوعی_گوگل
۷:۳۵
گزارشها نشان میدهد نوجوان ۱۸ سالهای که متهم به تیراندازی مرگبار در کانادا است، پیش از حادثه گفتوگوهای نگرانکنندهای با OpenAI و چتبات آن یعنی ChatGPT داشته؛ گفتوگوهایی که بهدلیل محتوای مرتبط با خشونت علامتگذاری و در نهایت مسدود شدند، اما به پلیس گزارش نشدند.
طبق گزارش The Wall Street Journal، کارکنان اوپنایآی درباره اطلاعرسانی به پلیس کانادا بحث کرده بودند، اما تشخیص دادند این فعالیتها به آستانه گزارش رسمی نمیرسد. پس از وقوع حادثه، شرکت اطلاعات حساب کاربری را در اختیار پلیس فدرال کانادا، Royal Canadian Mounted Police، قرار داد.
فعالیتهای آنلاین متهم فقط به چتجیپیتی محدود نبود؛ او در پلتفرم Roblox بازیای با شبیهسازی تیراندازی طراحی کرده و درباره سلاح گرم نیز پستهایی منتشر کرده بود.
این پرونده بار دیگر پرسش مهمی را مطرح کرده است:مرز میان حفظ حریم خصوصی کاربران و وظیفه شرکتهای هوش مصنوعی برای گزارش تهدیدهای بالقوه کجاست؟
پروندهای که میتواند مسیر سیاستگذاری درباره مسئولیت چتباتها را تغییر دهد. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#منیت
۸:۴۱
کاخ سفید با رونمایی از طرح تازهای به نام «Tech Corps» فصل جدیدی در رقابت جهانی هوش مصنوعی گشوده است. این برنامه متخصصان فناوری و نخبگان رشتههای مهندسی را به سراسر جهان اعزام میکند تا «راهکارهای هوش مصنوعی آمریکایی» را گسترش دهند و نفوذ واشنگتن را در برابر چین تقویت کنند.
اعضای «تککورپس» قرار است در کشورهایی مانند هند روی پروژههای واقعی در بخشهای آموزش، سلامت، کشاورزی و توسعه اقتصادی کار کنند. این افراد بین "۱۲ تا ۲۷ ماه" در کشورهای مقصد خدمت خواهند کرد و نخستین اعزامها از "پاییز ۲۰۲۶" آغاز میشود.
در حالی که مدلهای متنباز چینی مثل "DeepSeek" و "Qwen3" در کشورهای در حال توسعه محبوبیت یافتهاند، آمریکا با طرح Tech Corps میکوشد برتری فناوری خود را حفظ کند و مفهوم جدیدی از «حاکمیت هوش مصنوعی» ارائه دهد — یعنی دسترسی کشورها به فناوری پیشرفته در عین حفظ کنترل ملی بر دادهها.
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#تک_کورپس#صادرات_هوش_مصنوعی
۹:۱۶
پژوهشهای تازه نشان میدهد مدلهای پیشرفته هوش مصنوعی میتوانند با دریافت دستورهای هدفمند، بخشهایی طولانی و نزدیک به متن اصلی از رمانهای پرفروش را بازتولید کنند؛ موضوعی که ادعای قدیمی شرکتهای AI مبنی بر «ذخیره نکردن آثار دارای کپیرایت» را با چالش جدی روبهرو کرده است. بررسیها روی مدلهای OpenAI، گوگل، متا، Anthropic و xAI نشان میدهد این سیستمها بسیار بیش از آنچه پیشتر تصور میشد، دادههای آموزشی خود را به خاطر میسپارند؛ مسئلهای که به گفته کارشناسان میتواند مسیر دهها پرونده حقوقی کپیرایت در جهان را تغییر دهد.
صنعت هوش مصنوعی سالها تأکید کرده که این مدلها صرفاً از آثار «یاد میگیرند» و نسخهای از کتابها را در خود ذخیره نمیکنند و آموزش روی دادههای دارای حق نشر را ذیل «استفاده منصفانه» توجیه میکند. با این حال، مطالعهای از دانشگاههای استنفورد و ییل نشان میدهد پژوهشگران توانستهاند با پرامپتهای استراتژیک، هزاران کلمه از ۱۳ کتاب مشهور ـ از جمله Game of Thrones، The Hunger Games و The Hobbit ـ را از مدلهای مختلف استخراج کنند؛ یافتهای که مرز میان یادگیری و حفظکردن در هوش مصنوعی را مبهمتر از همیشه کرده است.
۵:۴۸
سامسونگ در آستانه رونمایی از نسل جدید پرچمدارانش، یک برگ برنده تازه رو کرده است؛ اضافه شدن دستیار هوش مصنوعی "Perplexity" به خانواده Galaxy AI در سری "Galaxy S26". حرکتی که میتواند تجربه کار با گوشیهای سامسونگ را وارد مرحلهای تازه کند.
قرار است Perplexity با اپلیکیشنهایی مثل Samsung Notes، Clock، Gallery، Reminder و Calendar یکپارچه شود و حتی از برخی اپهای شخص ثالث هم پشتیبانی کند.طبق اطلاعات اولیه، این دستیار با فرمان صوتی «Hey Plex» فعال میشود و دسترسی سریع از طریق دکمههای فیزیکی هم برای آن در نظر گرفته شده است.
سامسونگ میگوید هدف از این همکاری، افزایش آزادی انتخاب کاربران و ایجاد تجربهای یکپارچه میان چند عامل هوش مصنوعی در قالب Galaxy AI است. حالا باید دید این دستیار چطور در کنار نسخه جدید Bixby قرار میگیرد.
سامسونگ پیشتر هم از ادغام موتور جستجوی Perplexity در تلویزیونهای هوشمند خود خبر داده بود. اما این شرکت آمریکایی در ماههای اخیر با چالشهای حقوقی درباره استفاده از محتوای منابع دیگر، از جمله شکایتهایی از سوی Merriam-Webster و Encyclopedia Britannica روبهرو بوده است.
با توجه به نزدیک بودن رویداد Galaxy Unpacked، انتظار میرود جزئیات بیشتری از این همکاری و نقش Perplexity در اکوسیستم سامسونگ منتشر شود.
اگر میخواهید بدانید Perplexity دقیقاً چه قابلیتهایی به Galaxy S26 اضافه میکند و آیا میتواند جایگاه Bixby را تهدید کند، متن کامل خبر را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#پرپلکسیتی#سامسونگ
۶:۵۳
پنتاگون رسماً با شرکت "xAI" متعلق به "Elon Musk" به توافق رسیده تا مدل هوش مصنوعی "Grok" را وارد سیستمهای طبقهبندیشده و محرمانه خود کند؛ اقدامی که میتواند معادلات استفاده نظامی از AI را تغییر دهد.برای نخستینبار، یک مدل هوش مصنوعی تجاری قرار است در بخشهای حساس اطلاعاتی، توسعه تسلیحات و حتی عملیاتهای میدانی ارتش آمریکا استفاده شود.تا پیش از این، تنها مدل مجاز در این سطح، "Claude" از شرکت "Anthropic" بود؛ اما اختلاف بر سر محدودیتهای ایمنی و نوع استفاده، پنتاگون را به سمت گزینههای جدید سوق داد.
xAI با پذیرش استاندارد «استفاده برای تمامی اهداف قانونی» چراغ سبز پنتاگون را دریافت کرد؛ موضوعی که به یکی از نقاط تنش میان دولت آمریکا و Anthropic تبدیل شده بود.
با این حال، هنوز مشخص نیست Grok بتواند بهطور کامل جایگزین Claude شود یا این انتقال چقدر زمان خواهد برد. در همین حال، مذاکراتی نیز با "OpenAI" و "Google" برای ورود به سیستمهای محرمانه در جریان است.
این قرارداد فقط یک همکاری تجاری نیست؛ نشانهای است از ورود رسمی هوش مصنوعیهای پرچمدار به قلب امنیت ملی دولتها.
اگر میخواهید بدانید این تصمیم چه پیامدهایی برای آینده جنگهای هوشمند و رقابت غولهای AI خواهد داشت، متن کامل خبر را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#پنتاگون#ایلان_ماسک#گروک
۷:۵۴
یک پست وایرال از «سامر یو»، پژوهشگر امنیت هوش مصنوعی در Meta، زنگ خطر تازهای درباره عاملهای هوش مصنوعی به صدا درآورد. او میگوید دستیار متنباز OpenClaw که برای مرتبسازی ایمیلهایش فعال کرده بود، ناگهان از کنترل خارج شد و شروع به حذف گسترده پیامها کرد — حتی با وجود دستور توقف!
قرار بود OpenClaw فقط ایمیلهای غیرضروری را پیشنهاد دهد، اما بهگفته یو، عامل در یک «حذف سرعتی» تقریباً همه چیز را پاک میکرد.او مجبور شد برای قطع فرایند، بهسرعت به سراغ Mac Mini از Apple برود؛ دستگاهی که این روزها بین علاقهمندان اجرای این عامل محبوب شده است.
ماجرا از جایی پیچیده شد که حجم بالای ایمیلهای واقعی، فرآیندی به نام «compaction» را فعال کرد؛ حالتی که مدل برای مدیریت داده زیاد، بخشی از دستورات را فشرده یا حتی نادیده میگیرد.نتیجه اینکه احتمالاً دستور «توقف» آخر کاربر دیده نشده و عامل طبق تنظیمات قبلی به حذف ادامه داده است.OpenClaw که با شبکه اجتماعی Moltbook مشهور شد، قرار است یک دستیار شخصی هوشمند باشد؛ اما این اتفاق نشان میدهد واگذاری کارهای حساس مثل مدیریت ایمیل هنوز ریسک دارد.
آیا عاملهای AI واقعاً آمادهاند کنترل کارهای مهم ما را به دست بگیرند؟برای بررسی جزئیات بیشتر و پیامدهای این اتفاق، متن کامل خبر را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#امنیت#اپن_کلاو
۹:۱۲
بازارسال شده از پژوهشگاه فضای مجازی
#اینفوگرافیک
*لایههای مفهومی هوش مصنوعی*
هوش مصنوعی یک مفهوم واحد نیست؛ ساختاری لایهمند و تکاملیافته دارد:
هوش مصنوعی — چارچوب مفهومی کلان
یادگیری ماشین — استخراج الگو از دادهها
شبکههای عصبی — مدلهای الهامگرفته از ساختار مغز
یادگیری عمیق — شبکههای چندلایه با توان تحلیل پیچیده
هوش مصنوعی مولد — تولید متن، تصویر، صدا و محتوا
این چینش سلسلهمراتبی نشان میدهد هوش مصنوعی مجموعهای از رویکردها، الگوریتمها و معماریهایی است که در گذر زمان تکامل یافتهاند.
از سیستمهای خبره، بینایی ماشین و پردازش زبان طبیعی تا شبکههای عصبی عمیق، یادگیری انتقالی و معماریهای ترنسفورمر؛ هر لایه بر بنیان لایه پیشین شکل گرفته و دامنه کاربردها را گسترش داده است.
در این چارچوب، هوش مصنوعی مولد نه جایگزین، بلکه امتداد منطقی این مسیر علمی است؛ مسیری مبتنی بر داده، مدلسازی ریاضی و پیشرفتهای محاسباتی.
پژوهشگاه فضای مجازی
با ما در ارتباط باشید.
هوش مصنوعی یک مفهوم واحد نیست؛ ساختاری لایهمند و تکاملیافته دارد:
۱۰:۱۷
شرکت آمریکایی Anthropic مدعی شده سه آزمایشگاه هوش مصنوعی چینی با ساخت بیش از ۲۴ هزار اکانت جعلی، در مجموع ۱۶ میلیون تعامل با مدل «Claude» ثبت کردهاند تا تواناییهای آن را به مدلهای خود منتقل کنند.
در این پرونده نام شرکتهای DeepSeek، Moonshot AI و MiniMax دیده میشود؛ اقدامی که با تکنیکی به نام «تقطیر» انجام شده — روشی رایج برای کوچکسازی مدلها، اما در صورت استفاده روی محصولات رقبا، عملاً شبیه کپیبرداری پیشرفته است.
به گفته آنتروپیک، این شرکتها دقیقاً قابلیتهای متمایز Claude مثل «استدلال عاملی»، استفاده از ابزار و کدنویسی را هدف گرفتهاند. حتی گفته میشود همزمان با عرضه نسخه جدید Claude، بخشی از ترافیک برای استخراج قابلیتهای آن هدایت شده است.
این اتهامها در حالی مطرح میشود که بحث صادرات تراشههای پیشرفتهای مانند محصولات Nvidia به چین داغ است؛ موضوعی که میتواند مستقیماً بر توازن قدرت در رقابت جهانی هوش مصنوعی اثر بگذارد.
آنتروپیک هشدار داده مدلهایی که از طریق «تقطیر غیرقانونی» ساخته میشوند، ممکن است فاقد لایههای ایمنی حیاتی باشند — موضوعی که میتواند پیامدهای امنیتی جدی داشته باشد.
آیا این ماجرا نشانهای از تشدید جنگ تکنولوژیک آمریکا و چین در حوزه AI است؟ جزئیات کامل این پرونده را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#دیپ_سیک#آنتروپیک
۶:۱۸
شرکت Advanced Micro Devices (AMD) در یک قرارداد پنجساله متعهد شده تا سقف ۶۰ میلیارد دلار تراشه هوش مصنوعی به Meta Platforms بفروشد؛ توافقی که حتی به متا اجازه میدهد تا ۱۰ درصد از سهام AMD را در اختیار بگیرد.پس از انتشار خبر، سهام AMD بیش از ۶٪ رشد کرد و در مقابل، رقیب اصلیاش Nvidia افت جزئی را تجربه کرد.
بر اساس این توافق، AMD در مجموع ۶ گیگاوات تراشه به متا تحویل میدهد؛ فقط یک گیگاوات آن معادل برق مصرفی حدود ۷۵۰ هزار خانه است! نخستین محموله شامل تراشه پرچمدار MI450 خواهد بود که برای «استنتاج» بهینه شده — همان مرحلهای که چتباتهایی مانند محصولات OpenAI به سؤالات کاربران پاسخ میدهند.
علاوه بر GPU، متا پردازندههای مرکزی سفارشی نیز از AMD میخرد؛ حرکتی که نشان میدهد این شرکت میخواهد وابستگیاش به انویدیا را کاهش دهد و تأمینکنندگان خود را متنوع کند.
در شرایطی که غولهایی مانند Alphabet Inc.، Microsoft و Amazon صدها میلیارد دلار برای توسعه زیرساختهای AI هزینه میکنند، این قرارداد میتواند موازنه قدرت بازار تراشههای هوش مصنوعی را تغییر دهد.
آیا این توافق آغاز فصل تازهای در رقابت AMD و انویدیاست؟ جزئیات این معامله بزرگ را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#ای_ام_دی#متا
۷:۲۵
اوبر دیگر فقط یک اپلیکیشن تاکسی اینترنتی نیست! مهندسان این شرکت با ساخت نسخهای هوشمند از مدیرعامل، «دارا خسروشاهی»، حالا قبل از جلسات مهم از چتبات “دارا هوش مصنوعی” کمک میگیرند تا عملکردشان را بسنجند. این یعنی حتی مدیرعامل هم حالا نسخه دیجیتالی دارد!
خسروشاهی در پادکستی فاش کرده که تیمهای مهندسی اوبر از مدتی پیش در جلسات تمرینی، ابتدا به سراغ این چتبات میروند تا ایرادات کارشان را رفع کنند. او گفته حدود "۹۰ درصد مهندسان اوبر" از ابزارهای هوش مصنوعی استفاده میکنند و نزدیک به ۳۰ درصدشان به کاربران حرفهای تبدیل شدهاند که حتی ساختار شرکت را بازطراحی میکنند.
آیا این مدل جدید تعامل با مدیران، آینده شرکتهای بزرگ فناوری را شکل میدهد؟ جزئیات این تجربه متفاوت را از دست ندهید. مطالعه متن خبر
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#اوبر#چت_بات_هوش_مصنوعی#دارا
۸:۳۵
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات
۹:۲۰
بازارسال شده از سایبر وان
اخیراً پلتفرم پیشگام Reality Defender (شرکت برتر ارزیابیشده توسط گارتنر در حوزه تشخیص دیپفیک) رسماً به «پروژه آزمایش جنگ شناختی ناتو» (NATO’s Cognitive Warfare Experimentation) پیوسته است. این رویداد سیگنال مهمی برای سیاستگذاران کلان سایبری است: میدان نبرد از زیرساختهای شبکهای، به ذهن و ادراک جوامع منتقل شده است.
پلتفرم Reality Defender با ارائه راهکارهای مبتنی بر APIهای پیشرفته (نظیر RealScan و RealAPI)، توانایی تحلیل و تشخیص بلادرنگ (Real-time) محتوای تولیدشده توسط هوش مصنوعی اعم از صدا، تصویر و ویدیوهای دیپفیک را داراست.
پیوستن این شرکت به آزمایشهای ناتو به این معناست که بلوک غرب در حال ارتقای سیستمهای دفاع سایبری خود برای مقابله با «کمپینهای اطلاعاتی پیچیده» و «سلاحهای دستکاری ادراک» است. در این رزمایشهای شناختی، نحوه استفاده از ابزارهای هوش مصنوعی برای خنثیسازی عملیات روانی، کشف جعل عمیق در ارتباطات سازمانی و جلوگیری از فریب سیستمهای احراز هویت (Fraud Prevention) مورد سنجش قرار میگیرد.
با توجه به سرعت رشد مدلهای مولد (Generative AI) و دسترسی عمومی به ابزارهای ساخت دیپفیک، توجه به محورهای زیر در حکمرانی فضای مجازی کشور حیاتی به نظر میرسد:
۱. گذار از امنیت سایبری به «امنیت شناختی» (Cognitive Security):امروزه بدافزارها جای خود را به «اطلاعات جعلیِ هدفمند» دادهاند. توسعه یا بومیسازی پلتفرمهای جامعِ تشخیص دیپفیک (Deepfake Detection) دیگر یک پروژه تحقیقاتی نیست، بلکه یک الزام قطعی برای امنیت ملی و حفاظت از افکار عمومی است.
۲. لزوم پیادهسازی سیستمهای مانیتورینگ بلادرنگ:همانطور که ناتو به دنبال ادغام ابزارهای پردازش هوش مصنوعی در ساختار دفاعی خود است، مرکز ملی فضای مجازی نیز نیازمند ایجاد زیرساختهای پردازشی قوی برای اسکن و فیلترینگ هوشمند محتوای جعلی در گلوگاههای تبادل داده و پلتفرمهای انتشار محتواست.
۳. تدوین چارچوبهای حاکمیت و اخلاق هوش مصنوعی (AI Governance & Ethics):ضرورت دارد رگولاتوریهای داخلی هرچه سریعتر استانداردهای «ایمنی هوش مصنوعی» (AI Safety) و مکانیزمهای واترمارکینگ دیجیتال برای شناسایی محتوای تولیدی توسط ماشین را تدوین و به پلتفرمهای داخلی ابلاغ نمایند.
۴. حفاظت از اعتبار سازمانی و مقامات ارشد (Executive Protection):یکی از کاربردهای اصلی تکنولوژیهایی نظیر Reality Defender، جلوگیری از سرقت هویت صوتی و تصویری مقامات عالیرتبه در تماسهای ویدیویی (Secure Video Conferencing) و پیامهای رسانهای است که باید در دستور کار نهادهای امنیتی قرار گیرد.
۱۲:۲۴
کارخانه نوآوری هوش مصنوعی برگزار میکند:
فراخوان سرمایهگذاری و شتابدهی استارتاپهای هوش مصنوعی | دوره بهار
سرمایهگذاری تا ۵۰ میلیارد تومانویژه تیمها و استارتاپهای
در مرحله رشد
در مسیر مقیاسپذیری
فرصت ویژه تیمهای بذری
حمایت تا ۲ میلیارد تومان (نقدی و غیرنقدی)
منتورشیپ حرفهای
مدیریت عملکرد
زیرساخت فنی و فضای کار
مهلت ثبتنام: ۲۷ اسفند ۱۴۰۴
ثبتنام از طریق وبسایت:https://aiif.ai/spring-build.html
ثبتنام از طریق وبسایت:https://aiif.ai/spring-build.html
۱۸:۲۸
۱۱:۰۵
۱۴:۱۷
هوش_مصنوعی ۴۰ درصد نیروی یک شرکت فین تکی را حذف کرد؛ (بهرهوری جایگزین،اشتغال)
شرکت فینتکی Block Inc. اعلام کرد که در چارچوب بازطراحی ساختار عملیاتی مبتنی بر هوش مصنوعی، حدود ۴۰ درصد از نیروی انسانی خود را تعدیل میکند؛ تصمیمی که به گفته مدیران این شرکت، نتیجه افزایش بهرهوری ناشی از بهکارگیری گسترده AI در فرآیندهای داخلی است و میتواند نشانهای از تغییر الگوی اشتغال در صنعت فینتک باشد.
تحلیلگران صنعت مالی دیجیتال معتقدند این اقدام میتواند الگوی جدیدی را در بازار شکل دهد؛ الگویی که در آن رشد سودآوری و افزایش کارایی، الزاماً به معنای گسترش نیروی انسانی نیست. در چنین مدلی، سرمایهگذاری بر فناوریهای هوشمند و اتوماسیون پیشرفته، جایگزین توسعه مبتنی بر استخدام گسترده میشود.
تحلیلگران صنعت مالی دیجیتال معتقدند این اقدام میتواند الگوی جدیدی را در بازار شکل دهد؛ الگویی که در آن رشد سودآوری و افزایش کارایی، الزاماً به معنای گسترش نیروی انسانی نیست. در چنین مدلی، سرمایهگذاری بر فناوریهای هوشمند و اتوماسیون پیشرفته، جایگزین توسعه مبتنی بر استخدام گسترده میشود.
۱۹:۵۱