Sélectionner la langue

Trenchcoat : Algorithmes de hachage calculables par l'humain pour la génération de mots de passe

Analyse de fonctions de hachage calculables mentalement pour générer des mots de passe sécurisés et mémorisables, en s'appuyant sur les sciences cognitives et la cryptographie.
computationalcoin.com | PDF Size: 0.9 MB
Note: 4.5/5
Votre note
Vous avez déjà noté ce document
Couverture du document PDF - Trenchcoat : Algorithmes de hachage calculables par l'humain pour la génération de mots de passe

Table des matières

1. Introduction

Le paysage numérique moderne oblige les individus à gérer un nombre écrasant de comptes en ligne, chacun protégé par un mot de passe. La charge cognitive liée à la création et à la mémorisation de mots de passe uniques et robustes conduit à des pratiques peu sûres comme la réutilisation de mots de passe ou l'utilisation de variantes simples. Cet article présente « Trenchcoat », un cadre pour des algorithmes de hachage calculables par l'humain conçus pour générer des mots de passe sécurisés et uniques pour chaque site en utilisant uniquement un secret maître mémorable et un calcul mental.

2. Le problème des pratiques actuelles en matière de mots de passe

Les utilisateurs sont pris entre les impératifs de sécurité (règles de complexité, changements fréquents) et les limites cognitives. Cela se traduit par :

  • Réutilisation des mots de passe : Plus de 50 % des mots de passe sont réutilisés sur plusieurs comptes.
  • Construction faible : Recours à des schémas prévisibles, des mots du dictionnaire et des informations personnelles.
  • Dépendance aux outils & risques : Les gestionnaires de mots de passe, bien qu'utiles, introduisent des points de défaillance uniques et ont été sujets à des vulnérabilités critiques.
  • Fossé d'accessibilité : De nombreuses solutions ne sont pas conçues pour les utilisateurs neurodivergents ou en situation de handicap.

Statistiques clés

90-130 : Nombre moyen de comptes en ligne par utilisateur.

3 × 1011 : Estimation du nombre de mots de passe en usage.

>50% : Taux de réutilisation des mots de passe parmi les individus.

3. Le cadre Trenchcoat

Trenchcoat réinvente la génération de mots de passe comme un processus cryptographique exécutable par l'humain.

3.1. Concept central : Fonctions de hachage calculables par l'humain

L'idée centrale est une fonction $F_R(s, w) \rightarrow y$. Elle prend le secret maître de l'utilisateur (s) et un identifiant de site web/compte (w) pour produire un mot de passe unique (y). Le paramètre critique $R$ représente la configuration cognitive unique de l'utilisateur.

3.2. Exploitation de la mémoire associative et implicite (R)

Le cadre exploite des traits cognitifs spécifiques à l'individu ($R$), tels que la mémoire spatiale ou les réseaux associatifs personnels. Cela rend la fonction similaire à une « Fonction Physiquement Non Clonable Cognitive (C-PUF) ». Un adversaire ne peut pas calculer ou vérifier efficacement $F_R$ sans connaître le $R$ interne de l'utilisateur, fournissant ainsi une couche de sécurité analogue aux PUF matérielles utilisées dans l'authentification des appareils [37].

4. Algorithmes proposés & détails techniques

4.1. Catégories d'algorithmes

L'article propose plusieurs types d'algorithmes basés sur des opérations primitives :

  • Basés sur l'arithmétique : Utilisation d'additions modulaires, de manipulations de chiffres sur le secret maître et le nom du site.
  • Basés sur l'espace/la navigation : Association des caractères à des points sur une grille ou un chemin mental.
  • Basés sur le lexique/la recherche : Utilisation de dictionnaires mentaux personnels ou d'associations narratives.

Tous sont conçus pour une charge cognitive faible et une grande accessibilité.

4.2. Formulation mathématique

Un exemple simplifié basé sur l'arithmétique : Soit $s$ un secret maître numérique (par exemple, dérivé d'une date mémorable). Soit $H(w)$ un simple hachage (par exemple, la somme des codes des caractères modulo 10) du nom du site. Un chiffre de mot de passe $y_i$ pourrait être généré ainsi :
$y_i = (s_i + H(w)_i + c_i) \mod 10$
où $c_i$ est une retenue de l'opération précédente ou une étape de permutation spécifique à l'utilisateur définie par $R$. Le mot de passe complet est la concaténation des $y_i$.

5. Analyse de sécurité & évaluation de l'entropie

La cryptanalyse traditionnelle est difficile à appliquer directement. L'article utilise des métriques basées sur l'entropie :

  • Espace de clés effectif : Estimation de l'espace de recherche pour un attaquant devinant $s$ et $R$.
  • Résistance aux attaques connues : Analyse contre les attaques par dictionnaire, le phishing (le mot de passe généré est spécifique au site) et les attaques par observation (shoulder surfing).
  • Unicité de R : La sécurité repose fortement sur l'imprévisibilité et l'individualité du paramètre cognitif $R$.

La conclusion est que si la résistance absolue en bits peut être inférieure à celle des hachages algorithmiques, l'intégration de l'élément humain ($R$) et l'exigence pour l'attaquant de le modéliser créent une barrière pratique significative.

6. Résultats expérimentaux & enquête utilisateur

L'étude comprenait une enquête auprès de 134 individus, chacun testant deux schémas proposés, et une analyse des politiques de mots de passe sur 400 sites web.

Principales conclusions :

  • Utilisabilité : Les participants pouvaient générer des mots de passe de manière fiable après une courte période de formation. Les méthodes spatiales et narratives ont montré des taux de rappel élevés.
  • Acceptation : Les utilisateurs préféraient les méthodes qui semblaient « personnelles » ou « narratives » aux méthodes purement arithmétiques.
  • Analyse des politiques : Les exigences des sites web en matière de mots de passe sont très incohérentes, ce qui complique la conception d'une fonction de génération universelle.

Insight graphique (conceptuel) : Un histogramme hypothétique montrerait la « Précision du rappel du mot de passe » sur l'axe Y en fonction du « Type d'algorithme » sur l'axe X. Les algorithmes « Spatiaux/Narratifs » montreraient probablement une barre de précision significativement plus élevée (~90 %) par rapport aux algorithmes « Arithmétiques purs » (~70 %), démontrant l'avantage d'exploiter les forces cognitives humaines.

7. Cadre d'analyse & exemple de cas

Cadre pour l'évaluation d'un schéma de hachage calculable par l'humain :

  1. Définition des entrées : Définir clairement le format de $s$ (par exemple, un nombre à 6 chiffres, une phrase) et de $w$ (par exemple, le nom de domaine complet, une étiquette choisie par l'utilisateur).
  2. Cartographie des opérations : Définir la séquence des opérations mentales (par exemple, « prendre la 3ème et la 5ème lettre de w, les convertir en nombres, les ajouter au 2ème chiffre de s... »).
  3. Intégration de R : Spécifier comment $R$ est incorporé (par exemple, « utiliser l'indicatif régional de votre numéro de téléphone d'enfance pour amorcer un motif de décalage de lettres »).
  4. Mise en forme de la sortie : Décrire comment satisfaire les règles courantes de mots de passe (par exemple, « si le troisième chiffre de sortie est pair, mettre en majuscule la première lettre du nom du site et l'ajouter »).

Exemple de cas (sans code) : Alice choisit son secret maître $s$ comme les chiffres « 1984 ». Son $R$ implique de toujours penser à l'alphabet à l'envers (Z=1, Y=2...). Pour le site « bank.com », elle prend la première et la dernière lettre (B, K), les associe via son alphabet inversé (B->25, K->16), les ajoute à ses chiffres secrets (25+1=26, 16+9=25), applique modulo 26, et les réassocie à des lettres (26->A, 25->B). Elle applique ensuite une règle personnelle ($R$) pour insérer un symbole après une voyelle. Son mot de passe final pour bank.com pourrait être « A!B ».

8. Applications futures & axes de recherche

  • Systèmes hybrides : Combiner un noyau calculé par l'humain avec un dispositif minimal et sécurisé (par exemple, une bague intelligente) pour une étape de transformation finale, augmentant ainsi l'entropie.
  • Normalisation & accessibilité : Développer une suite d'algorithmes certifiés pour différents profils et capacités cognitives, potentiellement intégrés dans les cadres de connexion des systèmes d'exploitation.
  • Authentification continue : Utiliser des variations subtiles de la fonction de base pour générer des codes à usage unique ou des germes biométriques comportementaux.
  • Considérations post-quantiques : Explorer si des fonctions calculables par l'humain basées sur des problèmes de réseaux ou d'autres problèmes difficiles en cryptographie post-quantique pourraient être conçues, comme le suggèrent les recherches sur les « preuves de travail humain ».

9. Références

  1. [3] Security Analysis of Popular Password Managers. USENIX Security.
  2. [4] B. Ross, et al. « Stronger Password Authentication Using Browser Extensions. » USENIX Security 2005.
  3. [10] Verizon Data Breach Investigations Report. 2023.
  4. [15] « Zero-Day Vulnerabilities in Password Managers. » Cybersecurity & Infrastructure Security Agency (CISA).
  5. [16] Google / Harris Poll. « Online Security Survey. » 2022.
  6. [17] Digital Identity Trends. Dashlane. 2023.
  7. [30] « World's Most Common Passwords. » NordPass. 2023.
  8. [34] S. Gaw et E. W. Felten. « Password Management Strategies for Online Accounts. » SOUPS 2006.
  9. [37] B. Gassend, et al. « Silicon Physical Random Functions. » CCS 2002. (Article fondateur sur les PUF)
  10. [43] FTC. « Consumer Sentinel Network Data Book. » 2022.
  11. NIST Special Publication 800-63B : Digital Identity Guidelines.
  12. Isola, P., et al. « Image-to-Image Translation with Conditional Adversarial Networks. » CVPR 2017. (Pour l'analogie sur l'apprentissage de mappages complexes).

10. Analyse d'expert & revue critique

Idée centrale

Trenchcoat n'est pas juste un autre schéma de mots de passe ; c'est un pivot radical de la sécurité personnelle basée sur le stockage vers une sécurité basée sur le calcul. Son idée centrale est que le cerveau humain, avec sa configuration unique et non clonable ($R$), peut être le « portefeuille matériel » le plus sécurisé pour la dérivation de secrets — si nous concevons le bon logiciel. Cela remet directement en cause le dogme prévalant de l'industrie selon lequel les utilisateurs sont le maillon faible et doivent être écartés du processus de sécurité via des gestionnaires de mots de passe. Au lieu de cela, il plaide pour habiliter l'utilisateur en tant que coprocesseur cryptographique.

Enchaînement logique

La logique de l'article est convaincante mais révèle sa propre tension. Elle part de l'échec indéniable des pratiques actuelles (réutilisation, mots de passe faibles). Elle identifie correctement la charge cognitive comme la cause racine. Sa solution — les fonctions calculables par l'humain — est élégante en théorie : réduire le fardeau de mémorisation à un seul secret, déléguer l'unicité au calcul. Cependant, l'enchaînement trébuche lorsqu'il doit confronter l'évaluation adverse. Les auteurs admettent que la cryptanalyse traditionnelle est insuffisante, se repliant sur des estimations d'entropie. Ce n'est pas un défaut mineur ; c'est le défi central. La sécurité de l'ensemble du système repose sur l'impossibilité pratique de modéliser le $R$ d'un individu, une affirmation davantage ancrée dans les sciences cognitives que dans la cryptographie prouvable. Cela rappelle les premiers arguments en faveur de la biométrie — l'unicité n'équivaut pas automatiquement à une sécurité robuste et analysable sous attaque.

Points forts & faiblesses

Points forts : L'accent mis sur l'accessibilité et la neurodiversité est une contribution majeure et souvent négligée. En concevant pour des opérations primitives, il inclut potentiellement des utilisateurs exclus par des interfaces trop textuelles ou complexes. Le concept de PUF Cognitive (C-PUF) est intellectuellement fertile, offrant une nouvelle perspective pour l'authentification basée sur le facteur humain. L'étude utilisateur, bien que de taille modérée, fournit une validation cruciale en conditions réelles absente de nombreuses propositions purement théoriques.

Faiblesses : La « boîte noire » de R est une arme à double tranchant. Si $R$ est trop simple ou prévisible (par exemple, « j'utilise toujours ma date de naissance »), la sécurité s'effondre. S'il est trop complexe, le rappel échoue. Il n'y a pas de guide pour aider les utilisateurs à choisir un $R$ « fort ». L'incompatibilité avec les politiques des sites est un obstacle pratique majeur. Si un site exige un mot de passe de 16 caractères avec deux symboles, l'algorithme mental d'un utilisateur peut-il s'adapter de manière fiable ? L'article passe cela sous silence. Enfin, la tolérance aux erreurs est nulle. Une erreur dans une étape mentale produit probablement un mot de passe erroné irrécupérable, contrairement au copier-coller d'un gestionnaire.

Perspectives actionnables

Pour les architectes de sécurité : Ne rejetez pas cela comme académique. Testez en interne une méthode inspirée de Trenchcoat pour des comptes de test où les gestionnaires de mots de passe sont interdits. Utilisez-la pour tester en profondeur le concept de « force du secret cognitif ». Pour les chercheurs en UX : Les algorithmes présentés ici sont une mine d'or pour étudier comment différents styles cognitifs abordent la résolution de problèmes. Collaborez pour construire une taxonomie des types de $R$. Pour les organismes de normalisation (NIST, FIDO) : Surveillez ce domaine. La prochaine itération des directives d'authentification doit considérer les modèles hybrides. Initiez un groupe de travail sur les « Primitives cryptographiques assistées par l'humain » pour établir des cadres d'évaluation, allant au-delà de l'entropie vers des modèles de menace robustes incluant l'ingénierie sociale et la fuite partielle de $R$. La conclusion ultime : Trenchcoat n'est peut-être pas la réponse finale, mais il reformule brillamment la question. L'avenir de l'authentification personnelle ne réside pas dans l'élimination de l'humain, mais dans la refonte de l'interface entre la cryptographie et la cognition.