نتایج یک تحقیق جدید: چرا هرگز نباید از هوش مصنوعی برای ساخت رمز عبور استفاده کنیم؟

دیجیاتو جمعه 01 اسفند 1404 - 01:19
طبق این تحقیق، رمزهای عبوری که توسط مدل‌های بزرگ زبانی (LLM) به شکلی باورنکردنی «قابل حدس» و «ناامن» هستند. The post نتایج یک تحقیق جدید: چرا هرگز نباید از هوش مصنوعی برای ساخت رمز عبور استفاده کنیم؟ appeared first on دیجیاتو.

عصر هوش مصنوعی با تمام مزایایی که دارد، چالش‌های امنیتی بزرگی را هم به‌همراه داشته است. درحالی که بسیاری از کاربران برای ساده‌سازی کارهای خود از چت‌بات‌هایی مثل ChatGPT یا Claude استفاده می‌کنند، تحقیقات جدید نشان می‌دهد که استفاده از این ابزارها برای تولید رمز عبور (Password)، ریسک امنیتی بسیار بالایی دارد.

بر اساس پژوهش جدید شرکت امنیتی Irregular، رمزهای عبوری که توسط مدل‌های بزرگ زبانی (LLM) تولید می‌شوند، اگرچه در ظاهر پیچیده به نظر می‌رسند، اما به شکلی باورنکردنی «قابل حدس» و «ناامن» هستند.

محققان از سه هوش مصنوعی محبوب یعنی ChatGPT (شرکت OpenAI)، Claude (شرکت Anthropic) و Gemini (گوگل) خواستند تا رمزهای عبور ۱۶ کاراکتری، شامل حروف بزرگ و کوچک، اعداد و نمادهای خاص بسازند.

مدل‌های هوش مصنوعی روی مانیتور

در نگاه اول، خروجی این مدل‌ها شباهت زیادی به پسوردهای تصادفی ساخته شده توسط ابزارهای مدیریت پسورد اپل یا گوگل داشته است. حتی ابزارهای سنجش قدرت پسورد مثل KeePass نیز به این رمزها امتیاز «بسیار قوی» داده‌اند. اما به گفته محققان، مشکل اصلی به فقدان تصادفی‌سازی واقعی مربوط می‌شود. آنها توضیح می‌دهند که هوش مصنوعی بر پایه پیش‌بینی کلمه یا کاراکتر بعدی آموزش دیده است، نه تولید داده‌های کاملاً تصادفی.

عملکرد مدل‌های هوش مصنوعی در تولید پسورد

نتایج بررسی ۵۰ پسورد تولید شده توسط مدل Claude Opus 4.6 نشان داده که تمام آن‌ها با یک حرف شروع می‌شوند که در اکثر موارد حرف بزرگ «G» بود. کاراکتر دوم تقریباً همیشه عدد «۷» بوده و مجموعه‌ای از کاراکترها مثل L ,9 ,m ,2, $, # در تمام ۵۰ مورد تکرار شده بودند.

مدل هوش مصنوعی ChatGPT تقریباً تمام پسوردهای خود را با حرف «v» شروع کرده و در نیمی از موارد، کاراکتر دوم «Q» بوده است. مدل Gemini گوگل نیز وضعیت بهتری نداشته و اکثر پسوردهای پیشنهادی آن با حرف «K» (بزرگ یا کوچک) شروع شده و با ترکیبی از # یا P ادامه پیدا کرده‌اند.

نکته دیگر اینکه در هیچ‌یک از پسوردهای تولید شده، کاراکتر تکراری دیده نشده است. شاید فکر کنید این موضوع امنیت را بالا می‌برد، اما محققان می‌گویند از نظر آماری، در یک توالی واقعاً تصادفی، احتمال تکرار کاراکترها وجود دارد. در واقع حذف تکرار توسط AI نشان می‌دهد که مدل برای «شبیه شدن به رمز تصادفی» تلاش می‌کند، نه اینکه واقعاً کاراکترهای تصادفی تولید کند.

کاراکترهای تصادفی در پسورد

هرچند کاربران عادی احتمالاً کمتر برای ساخت پسوردهای خود از هوش مصنوعی کمک خواهند گرفت، اما مشکل بزرگ‌تر به «ایجنت یا عامل‌های هوش مصنوعی» (AI Agents) مربوط می‌شود که برای کدنویسی یا مدیریت سیستم‌ها استفاده می‌شوند. محققان با جستجو در GitHub متوجه شده‌اند که بسیاری از برنامه‌نویسان از AI برای تولید پسوردهای سیستمی استفاده کرده‌اند و الگوهای کشف شده در این تحقیق، به وفور در کدهای عمومی دیده می‌شود.

شرکت Irregular معتقد است این مشکل با به‌روزرسانی یا تغییر دستورات (Prompt) حل‌شدنی نیست؛ چرا که ذات مدل‌های زبانی با تصادفی بودن در تضاد است.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.