تحقیقی از شرکت امنیت سایبری Irregular که توسط Sky News تأیید شده، نشان میدهد چتباتهایی مثل OpenAI (ChatGPT)، Anthropic (Claude) و Google (Gemini) رمزهایی تولید میکنند که ظاهر پیچیده دارند اما در واقع الگوهای تکراری و قابل پیشبینی دارند.
این مدلها تصادفی واقعی تولید نمیکنند؛ بلکه بر اساس الگوهای آماری آموزشدیده پاسخ میدهند. نتیجه؟ رمزهایی که «شبیه» امن بودن هستند، اما میتوان آنها را با ابزارهای خودکار حدس زد.
در یک آزمایش روی Claude، از ۵۰ رمز ساختهشده فقط ۲۳ مورد منحصربهفرد بود! حتی جستجو در GitHub نشان داده بخشی از این رمزهای الگودار وارد کد سایتها و اپلیکیشنها هم شدهاند.
در مقابل، ابزارهایی مثل Google Password Manager یا 1Password از تولیدکنندههای تصادفی واقعی استفاده میکنند و مخصوص همین کار طراحی شدهاند.
جزئیات کامل این گزارش را از دست ندهید؛ ممکن است امنیت حسابهای شما در خطر باشد.
#هوش_مصنوعی#مرکز_نوآوری_و_توسعه_هوش_مصنوعی#پژوهشگاه_ارتباطات_و_فناوری_اطلاعات#امنیت#ساخت_پسورد
۶:۰۷