選擇語言

PassTSL:用於人類創建密碼建模同破解嘅兩階段學習法

分析PassTSL呢個新穎密碼建模框架,佢借鑒NLP嘅預訓練同微調概念,喺密碼猜測同強度評估方面表現出眾。
computationalcoin.com | PDF Size: 1.9 MB
評分: 4.5/5
您的評分
您已經為此文檔評過分
PDF文檔封面 - PassTSL:用於人類創建密碼建模同破解嘅兩階段學習法

目錄

1. 簡介

文字密碼仍然係主流嘅身份驗證機制,但佢哋由人類創建嘅特性令佢哋容易受到數據驅動嘅攻擊。現有嘅最先進(SOTA)建模方法,包括馬爾可夫鏈、基於模式嘅模型、循環神經網絡(RNN)同生成對抗網絡(GAN),喺捕捉密碼複雜、似語言但又獨特嘅結構方面存在局限。受自然語言處理(NLP)中變革性嘅預訓練-微調範式啟發,本文介紹PassTSL(通過兩階段學習對人類創建嘅密碼進行建模)。PassTSL利用基於Transformer嘅架構,首先從一個大型、多樣化嘅數據集(預訓練)中學習通用嘅密碼創建模式,然後使用一個較小、相關嘅數據集(微調)將模型專門化,以適應特定目標場景。呢種方法旨在彌合先進NLP技術同密碼建模獨特挑戰之間嘅差距。

2. 方法論:PassTSL框架

PassTSL嘅核心創新在於其結構化嘅兩階段學習過程,模仿咗BERT同GPT等模型嘅成功策略。

2.1. 預訓練階段

模型首先喺一個大型、通用嘅密碼語料庫(例如,來自多次洩露事件嘅綜合數據)上進行訓練。目標係學習基本嘅字符級依賴關係、常見嘅替換模式(例如,'a' -> '@'、's' -> '$')以及喺唔同密碼集中普遍存在嘅概率結構。呢個階段建立咗一個穩健嘅、關於人類密碼創建行為嘅基礎模型。

2.2. 微調階段

然後,預訓練模型會針對特定嘅目標密碼數據庫進行調整。使用來自目標集嘅一個相對較小嘅樣本,對模型參數進行微調。本文探索咗一種基於預訓練分佈同目標分佈之間嘅Jensen-Shannon(JS)散度來選擇微調數據嘅啟發式方法,旨在選擇最具信息量嘅樣本進行適應。

2.3. 模型架構與技術細節

PassTSL建基於Transformer解碼器架構,利用自注意力機制喺預測序列中下一個字符時,權衡唔同字符嘅重要性。模型將密碼視為一個字符(詞元)序列。訓練涉及預訓練期間嘅掩碼語言建模(MLM)風格目標,模型學習預測密碼序列內隨機被掩碼嘅字符,從而捕捉雙向上下文。

3. 實驗設置與結果

3.1. 數據集與基準模型

實驗喺六個大型、真實世界嘅洩露密碼數據庫上進行。PassTSL與五種SOTA密碼猜測工具進行比較,包括基於馬爾可夫(例如PCFG)、基於RNN同基於GAN嘅模型。

3.2. 密碼猜測表現

PassTSL顯著優於所有基準模型。喺最大評估點處,猜測成功率嘅提升範圍為4.11%至64.69%,證明咗兩階段方法嘅有效性。結果表明,喺大型語料庫上進行預訓練,相比喺單一目標集上從頭開始訓練嘅模型,具有顯著優勢。

相對於SOTA嘅性能增益

範圍: 4.11% - 64.69%

背景: 喺最大評估點處,密碼猜測成功率嘅提升。

3.3. 密碼強度計(PSM)評估

基於PassTSL嘅概率估計實現咗一個PSM。佢與一個基於神經網絡嘅PSM同基於規則嘅zxcvbn進行比較評估。關鍵指標係「安全錯誤」(低估強度)同「不安全錯誤」(高估強度)之間嘅權衡。喺相同嘅安全錯誤率下,基於PassTSL嘅PSM產生更少嘅不安全錯誤,意味住佢喺識別真正薄弱密碼方面更加準確。

3.4. 微調數據選擇嘅影響

研究發現,即使係少量嘅針對性微調數據(例如,預訓練數據量嘅0.1%),都可以令目標集上嘅猜測性能平均提升超過3%。基於JS散度嘅選擇啟發式方法被證明喺選擇有益嘅微調樣本方面係有效嘅。

4. 關鍵見解與分析

核心見解: 本文嘅根本突破在於認識到密碼創建係一種專門化、受限制嘅自然語言生成形式。通過將佢視為咁樣,並應用現代NLP工具包——特別是Transformer架構同兩階段學習範式——作者喺建模保真度上實現咗範式轉變。呢唔單止係一個漸進式改進;係一個方法論上嘅飛躍,重新定義咗概率性密碼破解可能達到嘅上限。

邏輯流程: 論證非常簡單有力:1) 密碼與語言共享統計同語義特性。2) 最成功嘅現代語言模型使用喺龐大語料庫上預訓練,然後進行特定任務微調。3) 因此,將呢個框架應用於密碼應該會產生更優越嘅模型。喺六個唔同數據集上嘅實驗結果明確驗證咗呢個邏輯,顯示出相對於上一代模型(如馬爾可夫鏈)甚至更早期嘅神經方法(如RNN同GAN)一致且通常係顯著嘅增益。

優點與不足: 主要優點係所展示嘅性能非常強大。使用JS散度進行微調樣本選擇係一個聰明、實用嘅啟發式方法。然而,分析存在不足。佢迴避咗Transformer模型對計算同數據嘅巨大需求。預訓練需要一個龐大嘅、聚合嘅密碼語料庫,引發咗關於數據來源嘅倫理同實際問題。此外,雖然佢擊敗咗其他模型,但本文並未深入探討點解Transformer注意力機制對於呢項任務比例如LSTM嘅門控記憶要好咁多。係因為長距離依賴捕捉,定係其他原因?呢個「黑盒」方面仍然存在。

可行見解: 對於安全從業者嚟講,呢項研究敲響咗警鐘。防禦性密碼強度計必須超越字典同規則系統(如zxcvbn),整合呢類深度學習模型以準確評估風險。對於研究人員,前進嘅道路好清晰:探索更高效嘅架構(例如蒸餾模型)、研究用於預訓練而無需集中敏感數據嘅聯邦學習,以及使用呢啲模型唔單止用於破解,仲用於生成穩健嘅密碼策略建議。簡單啟發式防禦嘅時代已經結束;軍備競賽而家 firmly 進入咗AI領域。

5. 技術細節與數學公式

PassTSL中嘅Transformer模型使用咗$N$個相同層嘅堆疊。每一層有兩個子層:一個多頭自注意力機制同一個位置全連接前饋網絡。每個子層周圍都採用咗殘差連接同層歸一化。

自注意力函數將一個查詢($Q$)、一組鍵值對($K$, $V$)映射到一個輸出。輸出計算為值嘅加權和,其中分配畀每個值嘅權重由查詢與相應鍵嘅兼容性函數決定。對於單個注意力頭: $$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$ 其中$d_k$係鍵嘅維度。

預訓練目標涉及預測被掩碼嘅詞元。給定一個輸入密碼序列$X = (x_1, x_2, ..., x_T)$,一個隨機嘅詞元子集被替換為特殊嘅`[MASK]`詞元。模型被訓練去預測呢啲被掩碼位置嘅原始詞元,最大化對數似然: $$\mathcal{L}_{PT} = \sum_{i \in M} \log P(x_i | X_{\backslash M})$$ 其中$M$係被掩碼位置嘅集合。

微調喺目標數據集$D_{ft}$上調整模型參數$\theta$,以最小化序列嘅負對數似然: $$\mathcal{L}_{FT} = -\sum_{(X) \in D_{ft}} \log P(X | \theta)$$

6. 分析框架:一個非代碼案例研究

場景: 一間大型科技公司嘅安全團隊希望評估員工密碼抵禦最先進攻擊嘅韌性。

  1. 數據準備: 團隊合法地從多個公開、匿名嘅洩露來源(用於預訓練)聚合一個大型、通用嘅密碼語料庫。佢哋亦獲取咗自己公司密碼哈希值嘅一個小型、清理過嘅樣本(用於微調),確保分析人員無法接觸到明文密碼。
  2. 模型應用: 佢哋部署一個類似PassTSL嘅框架。
    • 步驟A(預訓練): 喺通用語料庫上訓練基礎Transformer模型。模型學習全局模式,例如 "password123"、"qwerty" 同常見嘅Leet語替換。
    • 步驟B(微調): 使用JS散度啟發式方法,選擇預訓練數據中統計上與公司密碼樣本最相似嘅0.1%。喺呢個選定嘅子集結合公司樣本上對預訓練模型進行微調。呢個步驟令模型適應公司特定模式(例如,內部產品名稱嘅使用、特定日期格式)。
  3. 評估: 微調後嘅模型生成一個猜測列表。團隊將破解率與佢哋現有嘅防禦措施(例如,使用標準規則集嘅hashcat)進行比較。佢哋發現PassTSL喺頭10^9次猜測內多破解咗30%嘅密碼,揭示咗傳統方法遺漏嘅重大漏洞。
  4. 行動: 根據模型輸出,佢哋識別出最常被猜中嘅模式,並實施有針對性嘅密碼策略更改(例如,禁止包含公司名稱嘅密碼),並發起重點用戶教育活動。

7. 未來應用與研究方向

8. 參考文獻

  1. Vaswani, A., et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems 30 (NIPS 2017).
  2. Weir, M., et al. (2009). Password Cracking Using Probabilistic Context-Free Grammars. IEEE Symposium on Security and Privacy.
  3. Melicher, W., et al. (2016). Fast, Lean, and Accurate: Modeling Password Guessability Using Neural Networks. USENIX Security Symposium.
  4. Hitaj, B., et al. (2019). PassGAN: A Deep Learning Approach for Password Guessing. Applied Intelligence.
  5. Wheeler, D. L. (2016). zxcvbn: Low-Budget Password Strength Estimation. USENIX Security Symposium.
  6. Devlin, J., et al. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805.
  7. Zhu, J.Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV). (CycleGAN reference for generative concept).
  8. National Institute of Standards and Technology (NIST). (2017). Digital Identity Guidelines (SP 800-63B). (For authoritative context on authentication).