انتخاب زبان

PassTSL: یادگیری دو مرحله‌ای برای مدل‌سازی و شکستن رمزهای عبور ساخته‌شده توسط انسان

تحلیل PassTSL، یک چارچوب نوین مدل‌سازی رمز عبور با استفاده از پیش‌آموزی و تنظیم دقیق الهام‌گرفته از NLP، که عملکرد برتر در حدس زدن و تخمین قدرت رمز عبور را نشان می‌دهد.
computationalcoin.com | PDF Size: 1.9 MB
امتیاز: 4.5/5
امتیاز شما
شما قبلاً به این سند امتیاز داده اید
جلد سند PDF - PassTSL: یادگیری دو مرحله‌ای برای مدل‌سازی و شکستن رمزهای عبور ساخته‌شده توسط انسان

فهرست مطالب

1. مقدمه

رمزهای عبور متنی همچنان مکانیسم اصلی احراز هویت هستند، اما ماهیت ساخته‌شده توسط انسان آن‌ها را در برابر حملات مبتنی بر داده آسیب‌پذیر می‌کند. رویکردهای مدل‌سازی پیشرفته موجود (SOTA)، از جمله زنجیره‌های مارکوف، مدل‌های مبتنی بر الگو، شبکه‌های عصبی بازگشتی (RNN) و شبکه‌های مولد تخاصمی (GAN)، در ثبت ساختار پیچیده، شبیه زبان اما متمایز رمزهای عبور محدودیت دارند. با الهام از پارادایم تحول‌آفرین پیش‌آموزی-تنظیم دقیق در پردازش زبان طبیعی (NLP)، این مقاله PassTSL (مدل‌سازی رمزهای عبور ساخته‌شده توسط انسان از طریق یادگیری دو مرحله‌ای) را معرفی می‌کند. PassTSL از معماری‌های مبتنی بر ترنسفورمر استفاده می‌کند تا ابتدا الگوهای کلی ایجاد رمز عبور را از یک مجموعه‌داده بزرگ و متنوع (پیش‌آموزی) بیاموزد و سپس مدل را برای یک زمینه هدف خاص با استفاده از یک مجموعه‌داده کوچک‌تر و مرتبط (تنظیم دقیق) تخصصی کند. این رویکرد قصد دارد شکاف بین تکنیک‌های پیشرفته NLP و چالش‌های منحصر به فرد مدل‌سازی رمز عبور را پر کند.

2. روش‌شناسی: چارچوب PassTSL

نوآوری اصلی PassTSL فرآیند یادگیری ساختاریافته دو مرحله‌ای آن است که استراتژی‌های موفق در مدل‌هایی مانند BERT و GPT را بازتاب می‌دهد.

2.1. مرحله پیش‌آموزی

مدل ابتدا بر روی یک پیکره بزرگ و عمومی از رمزهای عبور (مانند داده‌های ترکیبی از چندین نشت) آموزش داده می‌شود. هدف، یادگیری وابستگی‌های بنیادی در سطح کاراکتر، الگوهای رایج جایگزینی (مانند 'a' -> '@'، 's' -> '$') و ساختارهای احتمالی است که در بین مجموعه‌های مختلف رمز عبور همه‌جا حاضر هستند. این مرحله یک مدل بنیادی قوی از رفتار انسان در ایجاد رمز عبور می‌سازد.

2.2. مرحله تنظیم دقیق

سپس مدل پیش‌آموزش‌دیده با یک پایگاه داده رمز عبور هدف خاص تطبیق داده می‌شود. با استفاده از یک نمونه نسبتاً کوچک از مجموعه هدف، پارامترهای مدل تنظیم می‌شوند. این مقاله یک روش اکتشافی برای انتخاب داده‌های تنظیم دقیق بر اساس واگرایی جنسن-شانون (JS) بین توزیع‌های پیش‌آموزی و هدف بررسی می‌کند، با هدف انتخاب آموزنده‌ترین نمونه‌ها برای تطبیق.

2.3. معماری مدل و جزئیات فنی

PassTSL بر اساس یک معماری دیکدر ترنسفورمر ساخته شده است که از مکانیسم توجه خودی (self-attention) برای وزن‌دهی اهمیت کاراکترهای مختلف در یک دنباله هنگام پیش‌بینی کاراکتر بعدی استفاده می‌کند. مدل یک رمز عبور را به عنوان دنباله‌ای از کاراکترها (توکن‌ها) در نظر می‌گیرد. آموزش شامل یک هدف به سبک مدل‌سازی زبان پوشیده (MLM) در طول پیش‌آموزی است، جایی که مدل یاد می‌گیرد کاراکترهای به‌طور تصادفی پوشیده شده درون یک دنباله رمز عبور را پیش‌بینی کند و زمینه دوطرفه را ثبت نماید.

3. تنظیمات آزمایشی و نتایج

3.1. مجموعه‌داده‌ها و خطوط پایه

آزمایش‌ها بر روی شش پایگاه داده بزرگ و واقعی از رمزهای عبور نشت‌شده انجام شد. PassTSL با پنج ابزار پیشرفته حدس زدن رمز عبور مقایسه شد، از جمله مدل‌های مبتنی بر مارکوف (مانند PCFG)، مبتنی بر RNN و مبتنی بر GAN.

3.2. عملکرد حدس زدن رمز عبور

PassTSL به طور قابل توجهی از تمام خطوط پایه بهتر عمل کرد. بهبود در نرخ موفقیت حدس در نقطه حداکثر از 4.11% تا 64.69% متغیر بود که اثربخشی رویکرد دو مرحله‌ای را نشان می‌دهد. نتایج حاکی از آن است که پیش‌آموزی بر روی یک پیکره بزرگ، مزیت قابل توجهی نسبت به مدل‌هایی که از صفر بر روی یک مجموعه هدف واحد آموزش دیده‌اند، فراهم می‌کند.

افزایش عملکرد نسبت به SOTA

دامنه: 4.11% - 64.69%

زمینه: بهبود در نرخ موفقیت حدس رمز عبور در نقطه ارزیابی حداکثر.

3.3. ارزیابی سنجش‌گر قدرت رمز عبور (PSM)

یک PSM بر اساس تخمین‌های احتمالی PassTSL پیاده‌سازی شد. این PSM در برابر یک PSM مبتنی بر شبکه عصبی و zxcvbn مبتنی بر قاعده ارزیابی شد. معیار کلیدی، تعادل بین "خطاهای ایمن" (کم‌تر تخمین زدن قدرت) و "خطاهای ناایمن" (بیش‌تر تخمین زدن قدرت) بود. در نرخ برابر خطاهای ایمن، PSM مبتنی بر PassTSL خطاهای ناایمن کمتری تولید کرد، به این معنی که در شناسایی رمزهای عبور واقعاً ضعیف دقیق‌تر بود.

3.4. تأثیر انتخاب داده‌های تنظیم دقیق

مطالعه نشان داد که حتی مقدار کمی از داده‌های تنظیم دقیق هدفمند (مانند 0.1% از حجم داده‌های پیش‌آموزی) می‌تواند منجر به بهبود متوسط بیش از 3% در عملکرد حدس زدن روی مجموعه هدف شود. روش اکتشافی انتخاب مبتنی بر واگرایی JS در انتخاب نمونه‌های تنظیم دقیق مفید مؤثر نشان داده شد.

4. بینش‌های کلیدی و تحلیل

بینش اصلی: پیشرفت بنیادی مقاله، تشخیص این است که ایجاد رمز عبور شکلی تخصصی و محدودشده از تولید زبان طبیعی است. با برخورد به آن به این شکل و اعمال جعبه ابزار مدرن NLP—به طور خاص معماری ترنسفورمر و پارادایم یادگیری دو مرحله‌ای—نویسندگان به یک تغییر پارادایم در وفاداری مدل‌سازی دست می‌یابند. این فقط یک بهبود تدریجی نیست؛ بلکه یک جهش روش‌شناختی است که مرز بالای آنچه در شکستن احتمالی رمز عبور ممکن است را بازتعریف می‌کند.

جریان منطقی: استدلال به طور قانع‌کننده‌ای ساده است: 1) رمزهای عبور ویژگی‌های آماری و معنایی با زبان مشترک دارند. 2) موفق‌ترین مدل‌های زبان مدرن از پیش‌آموزی بر روی پیکره‌های عظیم و به دنبال آن تنظیم دقیق ویژه وظیفه استفاده می‌کنند. 3) بنابراین، اعمال این چارچوب به رمزهای عبور باید مدل‌های برتری تولید کند. نتایج آزمایشی در شش مجموعه‌داده متنوع، این منطق را به طور قطعی تأیید می‌کند و نشان‌دهنده دستاوردهای پایدار و اغلب چشمگیر نسبت به مدل‌های نسل قبلی مانند زنجیره‌های مارکوف و حتی رویکردهای عصبی اولیه‌تر مانند RNNها و GANها است.

نقاط قوت و ضعف: نقطه قوت اصلی، عملکرد اثبات‌شده است که چشمگیر است. استفاده از واگرایی JS برای انتخاب نمونه تنظیم دقیق، یک روش اکتشافی هوشمندانه و عملی است. با این حال، تحلیل دارای نقاط ضعفی است. این تحلیل بر گرسنگی محاسباتی و داده‌ای مدل‌های ترنسفورمر سرپوش می‌گذارد. پیش‌آموزی نیاز به یک پیکره عظیم و تجمیع‌شده از رمزهای عبور دارد که نگرانی‌های اخلاقی و عملی در مورد منبع‌یابی داده را مطرح می‌کند. علاوه بر این، در حالی که از سایر مدل‌ها بهتر عمل می‌کند، مقاله به طور عمیق بررسی نمی‌کند که چرا مکانیسم توجه ترنسفورمر برای این وظیفه بسیار بهتر از، مثلاً، حافظه دروازه‌ای یک LSTM است. آیا ثبت وابستگی‌های بلندبرد است، یا چیز دیگری؟ این جنبه "جعبه سیاه" باقی می‌ماند.

بینش‌های عملی: برای متخصصان امنیت، این پژوهش زنگ خطری را به صدا درمی‌آورد. سنجش‌گرهای دفاعی قدرت رمز عبور باید فراتر از سیستم‌های مبتنی بر فرهنگ لغت و قاعده (مانند zxcvbn) تکامل یابند تا چنین مدل‌های یادگیری عمیقی را برای ارزیابی دقیق ریسک در خود بگنجانند. برای پژوهشگران، مسیر پیش رو روشن است: کاوش در معماری‌های کارآمدتر (مانند مدل‌های تقطیرشده)، بررسی یادگیری فدرال برای پیش‌آموزی بدون متمرکز کردن داده‌های حساس، و استفاده از این مدل‌ها نه فقط برای شکستن، بلکه برای تولید پیشنهادات سیاست رمز عبور قوی. دوران دفاع‌های اکتشافی ساده به پایان رسیده است؛ اکنون مسابقه تسلیحاتی به طور قطع در قلمرو هوش مصنوعی قرار دارد.

5. جزئیات فنی و فرمول‌بندی ریاضی

مدل ترنسفورمر در PassTSL از یک پشته از $N$ لایه یکسان استفاده می‌کند. هر لایه دارای دو زیرلایه است: یک مکانیسم توجه خودی چندسر و یک شبکه پیش‌خور کاملاً متصل موقعیت‌محور. اتصالات باقیمانده و نرمال‌سازی لایه در اطراف هر زیرلایه به کار گرفته می‌شوند.

تابع توجه خودی یک پرس‌وجو ($Q$) و مجموعه‌ای از جفت‌های کلید-مقدار ($K$، $V$) را به یک خروجی نگاشت می‌دهد. خروجی به عنوان مجموع وزنی مقادیر محاسبه می‌شود، جایی که وزن اختصاص‌یافته به هر مقدار توسط تابع سازگاری پرس‌وجو با کلید متناظر تعیین می‌شود. برای یک سر توجه واحد: $$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$ که در آن $d_k$ بعد کلیدها است.

هدف پیش‌آموزی شامل پیش‌بینی توکن‌های پوشیده است. با توجه به دنباله ورودی رمز عبور $X = (x_1, x_2, ..., x_T)$، یک زیرمجموعه تصادفی از توکن‌ها با یک توکن ویژه `[MASK]` جایگزین می‌شود. مدل آموزش داده می‌شود تا توکن‌های اصلی را برای این موقعیت‌های پوشیده پیش‌بینی کند و درست‌نمایی لگاریتمی را بیشینه کند: $$\mathcal{L}_{PT} = \sum_{i \in M} \log P(x_i | X_{\backslash M})$$ که در آن $M$ مجموعه موقعیت‌های پوشیده است.

تنظیم دقیق، پارامترهای مدل $\theta$ را بر روی یک مجموعه‌داده هدف $D_{ft}$ تنظیم می‌کند تا درست‌نمایی لگاریتمی منفی دنباله‌ها را کمینه کند: $$\mathcal{L}_{FT} = -\sum_{(X) \in D_{ft}} \log P(X | \theta)$$

6. چارچوب تحلیل: یک مطالعه موردی غیرکدی

سناریو: یک تیم امنیتی در یک شرکت بزرگ فناوری می‌خواهد تاب‌آوری رمزهای عبور کارکنان را در برابر یک حمله پیشرفته ارزیابی کند.

  1. آماده‌سازی داده: تیم به طور قانونی یک پیکره بزرگ و عمومی از رمزهای عبور را از چندین منبع نشت عمومی و ناشناس‌شده (برای پیش‌آموزی) تجمیع می‌کند. آن‌ها همچنین یک نمونه کوچک و پاک‌شده از هش‌های رمز عبور شرکت خود را (برای تنظیم دقیق) به دست می‌آورند و اطمینان حاصل می‌کنند که هیچ رمز عبور متنی در معرض تحلیلگران قرار نگیرد.
  2. اعمال مدل: آن‌ها یک چارچوب شبیه به PassTSL را مستقر می‌کنند.
    • گام الف (پیش‌آموزی): مدل پایه ترنسفورمر را بر روی پیکره عمومی آموزش دهید. مدل الگوهای جهانی مانند "password123"، "qwerty" و جایگزینی‌های رایج لیت‌اسپیک را می‌آموزد.
    • گام ب (تنظیم دقیق): با استفاده از روش اکتشافی واگرایی JS، 0.1% از داده‌های پیش‌آموزی را که از نظر آماری بیشترین شباهت را به نمونه رمز عبور شرکت دارند، انتخاب کنید. مدل پیش‌آموزش‌دیده را بر روی این زیرمجموعه انتخاب‌شده ترکیب‌شده با نمونه شرکت تنظیم دقیق کنید. این کار، مدل را با الگوهای خاص شرکت (مانند استفاده از نام‌های محصولات داخلی، قالب‌های تاریخ خاص) تطبیق می‌دهد.
  3. ارزیابی: مدل تنظیم‌شده دقیق، یک فهرست حدس تولید می‌کند. تیم نرخ شکست را در برابر دفاع‌های موجود خود (مانند hashcat با مجموعه قواعد استاندارد) مقایسه می‌کند. آن‌ها می‌یابند که PassTSL در 10^9 حدس اول، 30% رمزهای عبور بیشتری را می‌شکند و یک آسیب‌پذیری قابل توجه را آشکار می‌کند که روش‌های سنتی از قلم انداخته بودند.
  4. اقدام: بر اساس خروجی مدل، آن‌ها پرتکرارترین الگوهای حدس‌زده‌شده را شناسایی می‌کنند و یک تغییر سیاست رمز عبور هدفمند را اجرا می‌کنند (مانند ممنوعیت رمزهای عبوری که حاوی نام شرکت هستند) و یک کمپین آموزشی متمرکز برای کاربران راه‌اندازی می‌کنند.

7. کاربردهای آینده و جهت‌های پژوهشی

8. مراجع

  1. Vaswani, A., et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems 30 (NIPS 2017).
  2. Weir, M., et al. (2009). Password Cracking Using Probabilistic Context-Free Grammars. IEEE Symposium on Security and Privacy.
  3. Melicher, W., et al. (2016). Fast, Lean, and Accurate: Modeling Password Guessability Using Neural Networks. USENIX Security Symposium.
  4. Hitaj, B., et al. (2019). PassGAN: A Deep Learning Approach for Password Guessing. Applied Intelligence.
  5. Wheeler, D. L. (2016). zxcvbn: Low-Budget Password Strength Estimation. USENIX Security Symposium.
  6. Devlin, J., et al. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805.
  7. Zhu, J.Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV). (مرجع CycleGAN برای مفهوم مولد).
  8. National Institute of Standards and Technology (NIST). (2017). Digital Identity Guidelines (SP 800-63B). (برای زمینه معتبر در مورد احراز هویت).