সূচিপত্র
1. ভূমিকা
টেক্সচুয়াল পাসওয়ার্ড এখনও প্রভাবশালী প্রমাণীকরণ প্রক্রিয়া, কিন্তু তাদের মানবসৃষ্ট প্রকৃতি তাদের ডেটা-চালিত আক্রমণের জন্য ঝুঁকিপূর্ণ করে তোলে। বিদ্যমান সর্বাধুনিক (SOTA) মডেলিং পদ্ধতিসমূহ, যার মধ্যে মার্কভ চেইন, প্যাটার্ন-ভিত্তিক মডেল, RNN এবং GAN অন্তর্ভুক্ত, পাসওয়ার্ডের জটিল, ভাষার মতো কিন্তু স্বতন্ত্র কাঠামো ধারণ করার সীমাবদ্ধতা রয়েছে। প্রাকৃতিক ভাষা প্রক্রিয়াকরণে (NLP) রূপান্তরকারী প্রাক-প্রশিক্ষণ-সূক্ষ্ম-টিউনিং প্যারাডাইম দ্বারা অনুপ্রাণিত হয়ে, এই গবেষণাপত্রটি PassTSL (দ্বি-পর্যায়ভিত্তিক শিক্ষণের মাধ্যমে মানবসৃষ্ট পাসওয়ার্ড মডেলিং) উপস্থাপন করে। PassTSL ট্রান্সফরমার-ভিত্তিক স্থাপত্যকে কাজে লাগিয়ে প্রথমে একটি বৃহৎ, বৈচিত্র্যময় ডেটাসেট থেকে সাধারণ পাসওয়ার্ড সৃষ্টির প্যাটার্ন শেখে (প্রাক-প্রশিক্ষণ) এবং তারপর একটি ছোট, প্রাসঙ্গিক ডেটাসেট ব্যবহার করে একটি নির্দিষ্ট লক্ষ্য প্রসঙ্গের জন্য মডেলটিকে বিশেষায়িত করে (সূক্ষ্ম-টিউনিং)। এই পদ্ধতির লক্ষ্য উন্নত NLP কৌশল এবং পাসওয়ার্ড মডেলিংয়ের অনন্য চ্যালেঞ্জগুলোর মধ্যে ব্যবধান দূর করা।
2. পদ্ধতিবিদ্যা: PassTSL কাঠামো
PassTSL-এর মূল উদ্ভাবন হলো এর কাঠামোবদ্ধ দ্বি-পর্যায়ভিত্তিক শিক্ষণ প্রক্রিয়া, যা BERT এবং GPT-এর মতো মডেলের সফল কৌশলগুলির প্রতিফলন ঘটায়।
2.1. প্রাক-প্রশিক্ষণ পর্যায়
মডেলটি প্রাথমিকভাবে একটি বৃহৎ, সাধারণ পাসওয়ার্ড কর্পাসে (যেমন, একাধিক ডেটা লিক থেকে সংগৃহীত তথ্য) প্রশিক্ষিত হয়। উদ্দেশ্য হলো মৌলিক অক্ষর-স্তরের নির্ভরতা, সাধারণ প্রতিস্থাপন প্যাটার্ন (যেমন, 'a' -> '@', 's' -> '$'), এবং সম্ভাব্যতা কাঠামো শেখা যা বিভিন্ন পাসওয়ার্ড সেট জুড়ে সর্বব্যাপী। এই পর্যায়টি মানব পাসওয়ার্ড-সৃষ্টি আচরণের একটি শক্তিশালী মৌলিক মডেল গড়ে তোলে।
2.2. সূক্ষ্ম-টিউনিং পর্যায়
প্রাক-প্রশিক্ষিত মডেলটিকে তারপর একটি নির্দিষ্ট লক্ষ্য পাসওয়ার্ড ডাটাবেসের জন্য অভিযোজিত করা হয়। লক্ষ্য সেট থেকে অপেক্ষাকৃত ছোট একটি নমুনা ব্যবহার করে মডেলের প্যারামিটারগুলো সামঞ্জস্য করা হয়। গবেষণাপত্রটি প্রাক-প্রশিক্ষণ এবং লক্ষ্য বন্টনের মধ্যে জেনসেন-শ্যানন (JS) ডাইভারজেন্সের ভিত্তিতে সূক্ষ্ম-টিউনিং ডেটা নির্বাচনের জন্য একটি হিউরিস্টিক অন্বেষণ করে, অভিযোজনের জন্য সবচেয়ে তথ্যপূর্ণ নমুনা নির্বাচনের লক্ষ্যে।
2.3. মডেল স্থাপত্য ও প্রযুক্তিগত বিবরণ
PassTSL একটি ট্রান্সফরমার ডিকোডার স্থাপত্যের উপর নির্মিত, যা স্ব-মনোযোগ প্রক্রিয়া ব্যবহার করে একটি ক্রমে বিভিন্ন অক্ষরের গুরুত্ব ওজন করার সময় পরবর্তী অক্ষর ভবিষ্যদ্বাণী করে। মডেলটি একটি পাসওয়ার্ডকে অক্ষরের ক্রম (টোকেন) হিসেবে বিবেচনা করে। প্রশিক্ষণে প্রাক-প্রশিক্ষণের সময় একটি মাস্কড ভাষা মডেলিং (MLM) স্টাইল উদ্দেশ্য জড়িত, যেখানে মডেলটি একটি পাসওয়ার্ড ক্রমের মধ্যে এলোমেলোভাবে মাস্ক করা অক্ষরগুলি ভবিষ্যদ্বাণী করতে শেখে, দ্বি-দিকনির্দেশক প্রসঙ্গ ধারণ করে।
3. পরীক্ষামূলক সেটআপ ও ফলাফল
3.1. ডেটাসেট ও তুলনামূলক মডেল
পরীক্ষাগুলি ছয়টি বৃহৎ, বাস্তব-বিশ্বের ফাঁস হওয়া পাসওয়ার্ড ডাটাবেসে পরিচালিত হয়েছিল। PassTSL-এর সাথে পাঁচটি SOTA পাসওয়ার্ড অনুমান টুলের তুলনা করা হয়েছিল, যার মধ্যে মার্কভ-ভিত্তিক (যেমন, PCFG), RNN-ভিত্তিক এবং GAN-ভিত্তিক মডেল অন্তর্ভুক্ত ছিল।
3.2. পাসওয়ার্ড অনুমান কর্মক্ষমতা
PassTSL সমস্ত তুলনামূলক মডেলকে উল্লেখযোগ্যভাবে ছাড়িয়ে গেছে। সর্বোচ্চ মূল্যায়ন বিন্দুতে অনুমান সাফল্যের হার বৃদ্ধির পরিসীমা ছিল 4.11% থেকে 64.69%, যা দ্বি-পর্যায়ভিত্তিক পদ্ধতির কার্যকারিতা প্রদর্শন করে। ফলাফলগুলি নির্দেশ করে যে একটি বৃহৎ কর্পাসে প্রাক-প্রশিক্ষণ একটি একক লক্ষ্য সেটে স্ক্র্যাচ থেকে প্রশিক্ষিত মডেলগুলির উপর একটি উল্লেখযোগ্য সুবিধা প্রদান করে।
SOTA-এর উপর কর্মক্ষমতা লাভ
পরিসীমা: 4.11% - 64.69%
প্রসঙ্গ: সর্বোচ্চ মূল্যায়ন বিন্দুতে পাসওয়ার্ড অনুমান সাফল্যের হার বৃদ্ধি।
3.3. পাসওয়ার্ড শক্তি মিটার (PSM) মূল্যায়ন
PassTSL-এর সম্ভাব্যতা অনুমানের উপর ভিত্তি করে একটি PSM বাস্তবায়ন করা হয়েছিল। এটি একটি নিউরাল-নেটওয়ার্ক-ভিত্তিক PSM এবং নিয়ম-ভিত্তিক zxcvbn-এর বিরুদ্ধে মূল্যায়ন করা হয়েছিল। মূল মেট্রিক ছিল "নিরাপদ ত্রুটি" (শক্তি অবমূল্যায়ন) এবং "অনিরাপদ ত্রুটি" (শক্তি অতিমূল্যায়ন) এর মধ্যে ভারসাম্য। নিরাপদ ত্রুটির সমান হারে, PassTSL-ভিত্তিক PSM কম অনিরাপদ ত্রুটি উৎপাদন করেছিল, যার অর্থ এটি প্রকৃতপক্ষে দুর্বল পাসওয়ার্ড চিহ্নিত করতে আরও সঠিক ছিল।
3.4. সূক্ষ্ম-টিউনিং ডেটা নির্বাচনের প্রভাব
গবেষণায় দেখা গেছে যে লক্ষ্যযুক্ত সূক্ষ্ম-টিউনিং ডেটার একটি ছোট পরিমাণও (যেমন, প্রাক-প্রশিক্ষণ ডেটার আয়তনের 0.1%) লক্ষ্য সেটে অনুমান কর্মক্ষমতায় গড়ে 3%-এর বেশি উন্নতি ঘটাতে পারে। JS ডাইভারজেন্স-ভিত্তিক নির্বাচন হিউরিস্টিক উপকারী সূক্ষ্ম-টিউনিং নমুনা নির্বাচনে কার্যকর বলে দেখানো হয়েছে।
4. মূল অন্তর্দৃষ্টি ও বিশ্লেষণ
মূল অন্তর্দৃষ্টি: গবেষণাপত্রের মৌলিক অগ্রগতি হলো এই স্বীকৃতি যে পাসওয়ার্ড সৃষ্টি হলো প্রাকৃতিক ভাষা উৎপাদনের একটি বিশেষায়িত, সীমাবদ্ধ রূপ। এটিকে সেভাবে বিবেচনা করে এবং আধুনিক NLP টুলকিট—নির্দিষ্টভাবে ট্রান্সফরমার স্থাপত্য এবং দ্বি-পর্যায়ভিত্তিক শিক্ষণ প্যারাডাইম—প্রয়োগ করে লেখকরা মডেলিং বিশ্বস্ততায় একটি প্যারাডাইম শিফট অর্জন করেছেন। এটি কেবল একটি ক্রমবর্ধমান উন্নতি নয়; এটি একটি পদ্ধতিগত লাফ যা সম্ভাব্যতা-ভিত্তিক পাসওয়ার্ড ক্র্যাকিংয়ে যা সম্ভব তার উপরের সীমাকে পুনর্ব্যাখ্যা করে।
যুক্তিগত প্রবাহ: যুক্তিটি আকর্ষণীয়ভাবে সরল: ১) পাসওয়ার্ড ভাষার সাথে পরিসংখ্যানগত এবং শব্দার্থিক বৈশিষ্ট্য ভাগ করে। ২) সবচেয়ে সফল আধুনিক ভাষা মডেলগুলি বিশাল কর্পাসে প্রাক-প্রশিক্ষণ এবং তারপর কাজ-নির্দিষ্ট সূক্ষ্ম-টিউনিং ব্যবহার করে। ৩) অতএব, এই কাঠামোটি পাসওয়ার্ডে প্রয়োগ করলে উচ্চতর মডেল পাওয়া উচিত। ছয়টি বৈচিত্র্যময় ডেটাসেট জুড়ে পরীক্ষামূলক ফলাফল এই যুক্তিকে দ্ব্যর্থহীনভাবে বৈধতা দেয়, যা মার্কভ চেইন এবং এমনকি RNN এবং GAN-এর মতো পূর্ববর্তী নিউরাল পদ্ধতিগুলির তুলনায় সামঞ্জস্যপূর্ণ এবং প্রায়শই নাটকীয় লাভ দেখায়।
শক্তি ও ত্রুটি: প্রাথমিক শক্তি হলো প্রদর্শিত কর্মক্ষমতা, যা প্রভাবশালী। সূক্ষ্ম-টিউনিং নমুনা নির্বাচনের জন্য JS ডাইভারজেন্সের ব্যবহার একটি চতুর, ব্যবহারিক হিউরিস্টিক। যাইহোক, বিশ্লেষণের ত্রুটি রয়েছে। এটি ট্রান্সফরমার মডেলগুলির গণনীয় এবং ডেটা ক্ষুধাকে উপেক্ষা করে। প্রাক-প্রশিক্ষণের জন্য একটি বিশাল, সমষ্টিগত পাসওয়ার্ড কর্পাসের প্রয়োজন হয়, যা ডেটা সোর্সিং সম্পর্কে নৈতিক এবং ব্যবহারিক উদ্বেগ উত্থাপন করে। তদুপরি, যদিও এটি অন্যান্য মডেলকে হারায়, গবেষণাপত্রটি গভীরভাবে অন্বেষণ করে না যে কেন ট্রান্সফরমার মনোযোগ প্রক্রিয়া এই কাজের জন্য, বলুন, একটি LSTM-এর গেটেড মেমরির চেয়ে এত ভালো। এটি কি দীর্ঘ-পরিসরের নির্ভরতা ধারণ, নাকি অন্য কিছু? এই "ব্ল্যাক বক্স" দিকটি রয়ে গেছে।
কার্যকরী অন্তর্দৃষ্টি: নিরাপত্তা অনুশীলনকারীদের জন্য, এই গবেষণা একটি সতর্কবার্তা বাজায়। প্রতিরক্ষামূলক পাসওয়ার্ড শক্তি মিটারগুলিকে অভিধান-ও-নিয়ম সিস্টেম (যেমন zxcvbn) থেকে উন্নীত হতে হবে ঝুঁকি সঠিকভাবে মূল্যায়নের জন্য এমন গভীর শিক্ষণ মডেলগুলিকে অন্তর্ভুক্ত করতে। গবেষকদের জন্য, সামনের পথটি স্পষ্ট: আরও দক্ষ স্থাপত্য অন্বেষণ করুন (যেমন, পাতিত মডেল), সংবেদনশীল ডেটা কেন্দ্রীভূত না করে প্রাক-প্রশিক্ষণের জন্য ফেডারেটেড লার্নিং তদন্ত করুন, এবং শুধুমাত্র ক্র্যাকিংয়ের জন্য নয় বরং শক্তিশালী পাসওয়ার্ড নীতি পরামর্শ তৈরি করতে এই মডেলগুলি ব্যবহার করুন। সরল হিউরিস্টিক প্রতিরক্ষার যুগ শেষ; অস্ত্রের প্রতিযোগিতা এখন দৃঢ়ভাবে AI-এর ডোমেইনে রয়েছে।
5. প্রযুক্তিগত বিবরণ ও গাণিতিক সূত্রায়ন
PassTSL-এর ট্রান্সফরমার মডেল $N$ অভিন্ন স্তরের একটি স্ট্যাক ব্যবহার করে। প্রতিটি স্তরের দুটি উপ-স্তর রয়েছে: একটি মাল্টি-হেড স্ব-মনোযোগ প্রক্রিয়া এবং একটি অবস্থান-ভিত্তিক সম্পূর্ণরূপে সংযুক্ত ফিড-ফরওয়ার্ড নেটওয়ার্ক। প্রতিটি উপ-স্তরের চারপাশে অবশিষ্ট সংযোগ এবং স্তর স্বাভাবিকীকরণ ব্যবহৃত হয়।
স্ব-মনোযোগ ফাংশন একটি প্রশ্ন ($Q$), কী-মান জোড়ার একটি সেট ($K$, $V$) কে একটি আউটপুটে ম্যাপ করে। আউটপুটটি মানগুলির একটি ওজনযুক্ত যোগফল হিসাবে গণনা করা হয়, যেখানে প্রতিটি মানের জন্য নির্ধারিত ওজন সংশ্লিষ্ট কী সহ প্রশ্নের সামঞ্জস্য ফাংশন দ্বারা নির্ধারিত হয়। একটি একক মনোযোগ হেডের জন্য: $$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$ যেখানে $d_k$ হল কীগুলির মাত্রা।
প্রাক-প্রশিক্ষণের উদ্দেশ্যে মাস্ক করা টোকেনগুলি ভবিষ্যদ্বাণী করা জড়িত। একটি ইনপুট পাসওয়ার্ড ক্রম $X = (x_1, x_2, ..., x_T)$ দেওয়া হলে, টোকেনগুলির একটি এলোমেলো উপসেট একটি বিশেষ `[MASK]` টোকেন দিয়ে প্রতিস্থাপিত হয়। মডেলটি এই মাস্ক করা অবস্থানগুলির জন্য মূল টোকেনগুলি ভবিষ্যদ্বাণী করতে প্রশিক্ষিত হয়, লগ-সম্ভাবনা সর্বাধিক করে: $$\mathcal{L}_{PT} = \sum_{i \in M} \log P(x_i | X_{\backslash M})$$ যেখানে $M$ হল মাস্ক করা অবস্থানগুলির সেট।
সূক্ষ্ম-টিউনিং একটি লক্ষ্য ডেটাসেট $D_{ft}$-এ মডেল প্যারামিটার $\theta$ সামঞ্জস্য করে ক্রমগুলির নেতিবাচক লগ-সম্ভাবনা কমাতে: $$\mathcal{L}_{FT} = -\sum_{(X) \in D_{ft}} \log P(X | \theta)$$
6. বিশ্লেষণ কাঠামো: একটি নন-কোড কেস স্টাডি
পরিস্থিতি: একটি বৃহৎ প্রযুক্তি কোম্পানির একটি নিরাপত্তা দল সর্বাধুনিক আক্রমণের বিরুদ্ধে কর্মচারী পাসওয়ার্ডগুলির স্থিতিস্থাপকতা মূল্যায়ন করতে চায়।
- ডেটা প্রস্তুতি: দলটি আইনত একাধিক পাবলিক, বেনামী লিক সোর্স থেকে একটি বৃহৎ, সাধারণ পাসওয়ার্ড কর্পাস সংগ্রহ করে (প্রাক-প্রশিক্ষণের জন্য)। তারা তাদের নিজস্ব কোম্পানির পাসওয়ার্ড হ্যাশের একটি ছোট, পরিষ্কার নমুনাও পায় (সূক্ষ্ম-টিউনিংয়ের জন্য), নিশ্চিত করে যে বিশ্লেষকদের কাছে কোনও প্লেইনটেক্সট পাসওয়ার্ড প্রকাশিত হয় না।
- মডেল প্রয়োগ: তারা একটি PassTSL-এর মতো কাঠামো স্থাপন করে।
- ধাপ ক (প্রাক-প্রশিক্ষণ): সাধারণ কর্পাসে বেস ট্রান্সফরমার মডেল প্রশিক্ষণ দিন। মডেলটি "password123", "qwerty" এবং সাধারণ লিটস্পিক প্রতিস্থাপনের মতো গ্লোবাল প্যাটার্ন শেখে।
- ধাপ খ (সূক্ষ্ম-টিউনিং): JS ডাইভারজেন্স হিউরিস্টিক ব্যবহার করে, প্রাক-প্রশিক্ষণ ডেটার সেই 0.1% নির্বাচন করুন যা পরিসংখ্যানগতভাবে তাদের কোম্পানির পাসওয়ার্ড নমুনার সাথে সবচেয়ে মিল। এই নির্বাচিত উপসেটের সাথে তাদের কোম্পানির নমুনা মিলিয়ে প্রাক-প্রশিক্ষিত মডেলটিকে সূক্ষ্ম-টিউন করুন। এটি মডেলটিকে কোম্পানি-নির্দিষ্ট প্যাটার্নগুলির জন্য অভিযোজিত করে (যেমন, অভ্যন্তরীণ পণ্যের নাম, নির্দিষ্ট তারিখ ফরম্যাট ব্যবহার)।
- মূল্যায়ন: সূক্ষ্ম-টিউন করা মডেলটি একটি অনুমান তালিকা তৈরি করে। দলটি তাদের বিদ্যমান প্রতিরক্ষার বিরুদ্ধে ক্র্যাক রেট তুলনা করে (যেমন, স্ট্যান্ডার্ড রুল সেট সহ hashcat)। তারা দেখতে পায় যে প্রথম 10^9 অনুমানের মধ্যে PassTSL 30% বেশি পাসওয়ার্ড ক্র্যাক করে, যা একটি উল্লেখযোগ্য দুর্বলতা প্রকাশ করে যা ঐতিহ্যগত পদ্ধতিগুলি মিস করেছে।
- কর্ম: মডেলের আউটপুটের ভিত্তিতে, তারা সবচেয়ে ঘন ঘন অনুমান করা প্যাটার্নগুলি চিহ্নিত করে এবং একটি লক্ষ্যযুক্ত পাসওয়ার্ড নীতি পরিবর্তন বাস্তবায়ন করে (যেমন, কোম্পানির নাম ধারণকারী পাসওয়ার্ড নিষিদ্ধ করা) এবং একটি কেন্দ্রীভূত ব্যবহারকারী শিক্ষা প্রচার চালু করে।
7. ভবিষ্যতের প্রয়োগ ও গবেষণার দিকনির্দেশনা
- প্রোঅ্যাকটিভ ডিফেন্স ও পাসওয়ার্ড হাইজিন: PassTSL মডেলগুলিকে রিয়েল-টাইম পাসওয়ার্ড সৃষ্টি ইন্টারফেসে অতিসঠিক শক্তি মিটার হিসাবে একীভূত করা যেতে পারে, ব্যবহারকারীদের এমন পাসওয়ার্ড বেছে নেওয়া থেকে বিরত রাখতে যা মডেলটি সহজেই অনুমান করতে পারে। এটি স্থির নিয়মের বাইরে গিয়ে গতিশীল, সম্ভাব্যতা-ভিত্তিক প্রত্যাখ্যানের দিকে নিয়ে যায়।
- প্রতিকূল পাসওয়ার্ড উৎপাদন: শেখা বন্টন অনুসারে সর্বাধিক অসম্ভাব্য পাসওয়ার্ড তৈরি করতে মডেলটিকে বিপরীত করুন, ব্যবহারকারীদের সত্যিই শক্তিশালী পাসওয়ার্ড পরামর্শ দেওয়ার জন্য, যেভাবে CycleGAN-এর মতো জেনারেটিভ মডেল ডোমেনের মধ্যে অনুবাদ করতে শেখে।
- ফেডারেটেড ও গোপনীয়তা-সংরক্ষণকারী শিক্ষণ: ভবিষ্যতের কাজকে অবশ্যই ডেটা গোপনীয়তার চ্যালেঞ্জ মোকাবেলা করতে হবে। ফেডারেটেড লার্নিংয়ের মতো কৌশল, যেখানে মডেলটি বিকেন্দ্রীকৃত ডেটা সোর্স জুড়ে প্রশিক্ষিত হয় কাঁচা পাসওয়ার্ড বিনিময় না করে, বা প্রশিক্ষণের সময় ডিফারেনশিয়াল প্রাইভেসি ব্যবহার করা, নৈতিক গ্রহণের জন্য গুরুত্বপূর্ণ।
- ক্রস-মোডাল পাসওয়ার্ড বিশ্লেষণ: কাঠামোটি অন্যান্য ব্যবহারকারী ডেটার সাথে যুক্ত পাসওয়ার্ড মডেল করার জন্য প্রসারিত করুন (যেমন, ব্যবহারকারীর নাম, নিরাপত্তা প্রশ্ন) লক্ষ্যযুক্ত আক্রমণের জন্য বা বিপরীতভাবে, মাল্টি-ফ্যাক্টর ঝুঁকি মূল্যায়নের জন্য আরও ব্যাপক ব্যবহারকারী প্রোফাইলিং মডেল তৈরি করতে।
- দক্ষতা অপ্টিমাইজেশন: মডেল পাতন, কোয়ান্টাইজেশন এবং আরও দক্ষ মনোযোগ প্রক্রিয়া (যেমন, Linformer, Performer) গবেষণা করে এই শক্তিশালী মডেলগুলিকে এজ ডিভাইসে বা কম-বিলম্বের ওয়েব অ্যাপ্লিকেশনে স্থাপনযোগ্য করতে।
8. তথ্যসূত্র
- Vaswani, A., et al. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems 30 (NIPS 2017).
- Weir, M., et al. (2009). Password Cracking Using Probabilistic Context-Free Grammars. IEEE Symposium on Security and Privacy.
- Melicher, W., et al. (2016). Fast, Lean, and Accurate: Modeling Password Guessability Using Neural Networks. USENIX Security Symposium.
- Hitaj, B., et al. (2019). PassGAN: A Deep Learning Approach for Password Guessing. Applied Intelligence.
- Wheeler, D. L. (2016). zxcvbn: Low-Budget Password Strength Estimation. USENIX Security Symposium.
- Devlin, J., et al. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805.
- Zhu, J.Y., et al. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. IEEE International Conference on Computer Vision (ICCV). (জেনারেটিভ ধারণার জন্য CycleGAN রেফারেন্স)।
- National Institute of Standards and Technology (NIST). (2017). Digital Identity Guidelines (SP 800-63B). (প্রমাণীকরণের জন্য কর্তৃত্বপূর্ণ প্রসঙ্গ)।