Biométrie et Zero Trust
Sécurité du périmètre par rapport à l'approche du cadre Zero Trust
Principes du Zero Trust : une remise en cause de la « confiance implicite » accordée dans le modèle périmétrique.
Introduction : Notre ennemi – Le mot de passe
Depuis l’avènement de la technologie, il existe un dénominateur commun qui constitue un obstacle majeur à la croissance future : le mot de passe. Que nous l'aimions ou le détestions, le mot de passe est la norme de facto à des fins d'authentification et d'autorisation. Il fut un temps où la cybersécurité en tant que concept et les atteintes à la sécurité numérique étaient inconcevables. En raison de ce phénomène, la société dans son ensemble était convaincue que le mot de passe serait la clé ultime pour sécuriser à peu près tout.
Plusieurs années plus tard, c’est le contraire qui se produit aujourd’hui : le mot de passe est devenu l’ennemi juré du monde numérique moderne. Non seulement il s’agit d’une information très convoitée sur une victime potentielle par le cybercriminel potentiel, mais la population en général se bat désormais contre toutes les politiques de sécurité initialement mises en place pour la protéger.
Par exemple, les employés d'une entreprise sont souvent enclins à réutiliser encore et encore les mêmes mots de passe, allant jusqu'à les partager avec d'autres ou même à joindre un post-it les contenant à leurs écrans d'écran, affectueusement surnommé « Post ». -le syndrome ». Les êtres humains ne sont que des créatures d’habitudes. Nous ne souhaitons tout simplement pas changer à moins d’y être contraints, et même dans ce cas, nous le ferons à contrecœur, chérissant les jours de confort où nous avions quelque chose que nous connaissions et en qui nous avions plus ou moins confiance.
Nous changerons avec le cœur lourd, même si l’on nous montre les avantages d’une nouvelle solution. Le meilleur exemple en est probablement le gestionnaire de mots de passe. Même malgré la capacité de ce progiciel à créer des mots de passe longs et complexes, voire à les mémoriser et à les réinitialiser selon un planning préétabli, les entreprises peinent encore à faire adopter largement cette solution logicielle par leurs salariés. Obliger les employés à utiliser des gestionnaires de mots de passe peut fonctionner à court terme, mais à long terme, même cette stratégie risque de se retourner contre vous.
En raison de la menace toujours présente de cyberattaques et de la réticence des employés, de nombreuses entreprises se sont efforcées de trouver de nouvelles alternatives pour remplacer les mots de passe. Bien que certaines solutions soient en place, la vérité est qu’elles ne seront probablement jamais adoptées comme solution de remplacement autonome.
Ces solutions seront plutôt utilisées conjointement avec des mots de passe, comme moyen de fournir ce que l'on appelle l'authentification à deux facteurs (2FA) ou l'authentification multifacteur (MFA). L’une de ces architectures qui évolue aujourd’hui à des degrés divers (et qui s’avère réellement efficace) est celle du Zero Trust Framework (ZTF).
Apple, un éternel pionnier dans le domaine de la sécurité, a lancé sa propre initiative pour se débarrasser de The Password. Lors de la WWDC 2022, ils ont présenté des clés d'accès utilisant Touch ID et Face ID. Les clés d'accès sont introduites dans MacOS Ventura et iOS16, avec une technologie développée en collaboration avec Google et Microsoft via l'alliance FIDO. Les fondements technologiques sont des codes uniques générés pour les applications et les sites Web. Les utilisateurs se connectent en sélectionnant un mot de passe, au lieu d'utiliser un mot de passe. Étant donné que les mots de passe ne sont pas stockés sur les serveurs, ils ne peuvent pas être piratés. Selon Apple, cela les rend plus sûrs que le 2FA. Les clés d'accès peuvent être synchronisées en toute sécurité sur tous les appareils (Mac, iPhone, Apple TV) avec le cryptage e2e. Google utilise la même approche, comme démontré lors de Google I/O en mai 2022.
La prémisse du cadre Zero Trust
L’approche de sécurité du périmètre
Comme son nom l’indique, le ZTF est un système dans lequel personne n’a confiance, tant dans l’environnement interne qu’externe. Il n’y a absolument aucun niveau de confiance implicite ici, et lorsqu’il s’agit d’un environnement d’entreprise, on ne peut pas faire confiance aux employés, quel que soit leur mandat. Si l’approche semble extrême, c’est parce qu’elle l’est. Cette approche a été conçue pour s’adapter à la dynamique en constante évolution du paysage des menaces de cybersécurité dans le monde moderne, et à ce stade, nos mains sont liées.
Auparavant, de nombreuses entreprises s'appuyaient sur ce que l'on appelle la « sécurité du périmètre » (voir la figure A ci-dessous). Il s’agit essentiellement d’un cercle de défense entourant complètement l’organisation, et littéralement, toutes sortes de technologies de sécurité sont incorporées pour défendre l’entité commerciale (pensez aux pare-feu, aux dispositifs d’intrusion réseau, aux routeurs et à tout autre dispositif de sécurité imaginable). L’erreur logique est que puisque l’organisation est extrêmement bien fortifiée, l’entreprise suppose qu’elle est totalement protégée. Une hypothèse : et si le cybercriminel franchissait effectivement cette ligne de défense unilatérale ? Des lacunes et des faiblesses persistent toujours, même dans les outils de sécurité les plus avancés. Une fois la violation survenue, le cybercriminel a carte blanche sur tous les actifs numériques d’une entreprise. En d’autres termes, il n’existe pas ici de sécurité multicouche, ce qui réduit la probabilité qu’un cybercriminel accède aux informations les plus sensibles d’une entreprise à chaque point d’entrée. Une entreprise peut avoir installé 2FA ou MFA, mais cela ne suffira pas s’il n’y a qu’une seule couche de défense.
Encore une fois, c’est ici que le ZTF s’applique. Non seulement il peut fournir les attributs à la fois du 2FA et du MFA, mais il propose également une approche à plusieurs niveaux afin que la probabilité qu'un cybercriminel accède aux données les plus sensibles d'une entreprise soit considérablement réduite, voire impossible.
FIGURE A (Source: https://digital.com/best-vpn-services/what-is-perimeter-security-architecture/)
L’approche du cadre Zero Trust
D'un point de vue sémantique, la meilleure façon de définir le ZTF passe par cinq principes fondamentaux :
- La sécurité repose sur l’hypothèse que chaque utilisateur est hostile.
- Des menaces, tant internes qu’externes, existent à tout moment sur le réseau.
- La localité ne suffit pas pour décider de la confiance dans un réseau.
- Chaque utilisateur et appareil doit être authentifié et autorisé.
- Les politiques doivent être dynamiques et s’appuyer sur de nombreuses sources de données.
Le ZTF (voir la figure B ci-dessous) supprime complètement la notion d’un seul et grand périmètre de sécurité. L’approche ici consiste plutôt à prendre un schéma complet de l’entreprise et à le diviser en unités plus petites et plus faciles à gérer. De toute évidence, le seul domaine qui fera l'objet d'un examen minutieux est celui de l'infrastructure informatique et réseau, car elle stocke tous les actifs numériques d'une entreprise dans les serveurs, la base de données, les applications Web, etc. Bien qu'ils bénéficient tous d'une certaine sécurité. grâce à l’utilisation de 2FA et MFA, le modèle traditionnel relève ici toujours du domaine de l’approche de sécurité périmétrique. Mais avec le ZFT, un changement de paradigme substantiel s’est produit. Chaque domaine clé de l'infrastructure informatique et réseau est désormais séparé en ses propres îlots, entourés de sa propre couche de sécurité. C'est via cette couche de sécurité qu'un utilisateur final devra se présenter à trois couches d'authentification ou plus (pour les besoins de cet article de revue, nous supposerons qu'il s'agit du type de MFA utilisé).
FIGURE B (Source: https://www.techtarget.com/searchsecurity/definition/zero-trust-model-zero-trust-network)
Par exemple, le serveur de messagerie, le serveur de base de données et le serveur d'applications Web peuvent tous être leurs propres îles. Avec le ZTF, les actifs numériques sont décomposés en unités plus petites qui sont beaucoup plus faciles à gérer et à sécuriser, appelées « microsegments ». Une comparaison facile pour ce processus est la création de différents sous-réseaux dans l'ensemble d'une infrastructure réseau, bien que dans le scénario ZTF les entreprises répartissent en sous-réseaux les différents composants de leurs actifs numériques avec l’approche MFA. L’avantage le plus évident du ZFT est qu’il empêche le mouvement latéral ou, dans le pire des cas, ralentit considérablement le mouvement du cybercriminel.
Par exemple, le cybercriminel peut réussir à franchir la première ligne de défense, mais au fil du temps, ses mouvements sont interrompus car il continue de se heurter à des étapes d'authentification supplémentaires. C’est un principe clé du ZTF. Bien que chaque île doive disposer d'une MFA, les mécanismes d'authentification utilisés pour confirmer l'identité de l'utilisateur final (dans le cadre de l'entreprise, un employé, un travailleur à distance ou un sous-traitant) doivent tous être différents les uns des autres. Les types d'authentification peuvent inclure un mot de passe, un jeton RSA, une modalité biométrique (qui permet de confirmer l'identité d'un utilisateur final en fonction de ses caractéristiques physiologiques et/ou comportementales uniques), des cartes à puce et des questions de défi/réponse.
Un autre élément clé du ZTF est que les individus doivent être constamment vérifiés car le concept de confiance, comme mentionné ci-dessus, n’existe pas. Par exemple, une fois l'accès à une ressource accordé, la même séquence d'authentification doit être répétée pour accéder à une autre ressource partagée. Naturellement, la réaction des paramètres de l'entreprise est que ce processus d'authentification répété peut s'avérer long, ce qui conduit aux concepts de gestion des accès privilégiés (qui est un sous-ensemble de la gestion des identités et des accès connu sous le nom de PAM) qui peuvent être mis en œuvre. Une fois que le premier ensemble d'au moins trois informations d'identification ou plus a été identifié et utilisé, ils peuvent également être utilisés dans un ordre différent pour accéder à la ressource partagée suivante qui nécessite également ces informations d'identification.
Un autre avantage clé du ZTF est que, puisque différents mécanismes d’authentification sont utilisés, l’éradication totale des mots de passe est désormais théoriquement possible. L’essence du ZTF peut être dérivée de son slogan : « Ne jamais faire confiance, toujours vérifier ».
Les avantages et les considérations de mise en œuvre
Les avantages du cadre Zero Trust
- ZTF facilite l'utilisation d'une surveillance centralisée : lorsque les outils et technologies de sécurité sont utilisés conjointement les uns avec les autres de manière mal planifiée, il peut être très difficile pour l'équipe de sécurité informatique de suivre et de répondre en temps opportun aux avertissements et alertes. . Cela crée des difficultés pour trier et faire remonter les cybermenaces les plus graves. Avec la méthodologie Zero Trust, puisque chaque appareil est comptabilisé de manière logique, une approche centralisée peut désormais être utilisée. Un exemple typique est le logiciel de gestion des incidents et des événements de sécurité. Avec cette application, non seulement les faux positifs peuvent être filtrés en utilisant à la fois l'intelligence artificielle (IA) et l'apprentissage automatique (ML), mais les avertissements et alertes légitimes peuvent également être présentés en temps réel via un tableau de bord centralisé. Ainsi, ZTF permet à l’équipe de sécurité informatique d’être beaucoup plus proactive et, par conséquent, de réduire considérablement le temps de réponse dans la lutte contre divers vecteurs de menaces.
- L'évolutivité est offerte : avec un nombre croissant d'entreprises employant du personnel à distance, beaucoup choisissent désormais d'utiliser davantage les ressources basées sur le cloud, telles que celles proposées par AWS ou Microsoft Azure. Certaines entités choisissent encore d’avoir une présence physique et, par conséquent, disposent encore de quelques vestiges d’une solution On Premises. Quelle que soit l'option choisie, le ZTF permet le transfert transparent des applications, des actifs numériques et même des informations et données confidentielles (en particulier les ensembles de données d'informations personnelles identifiables [PII]) d'un endroit à un autre de manière sécurisée.
- Les violations deviennent pratiquement impossibles : avant que la pandémie de Covid-19 ne frappe, de nombreuses entreprises ont adopté l'approche de « sécurité périmétrique » pour protéger leurs actifs numériques, ce qui signifie qu'il n'y avait qu'une seule ligne de défense séparant l'environnement interne de l'environnement externe. En conséquence, si les cybercriminels pénétraient par ce périmètre, ils pourraient accéder à presque tout ce qui se trouve dans l’infrastructure informatique et réseau et se déplacer clandestinement dans l’organisation, tout en accédant aux informations sensibles de l’entreprise. Mais avec le ZTF, la mise en œuvre de plusieurs niveaux de sécurité signifie qu'il devient d'autant plus difficile pour les cybercriminels d'accéder à ces informations, car il faudra beaucoup plus de temps pour franchir chaque ligne de défense et il sera plus facile pour les équipes de sécurité d'y répondre. » a déclaré le cybercriminel avant que l’acteur menaçant n’ait accédé aux données pertinentes de l’entreprise. En fin de compte, le cybercriminel ne considérera probablement pas cette entreprise comme utile.
Il est très important de noter que le ZTF n’est pas un produit et qu’il ne adopte pas non plus une approche universelle. Il s’agit plutôt d’une méthodologie dont les parties et les composants doivent être adaptés aux exigences de sécurité de chaque entité individuelle. Par exemple, même si le ZTF déclare explicitement que chaque actif doit être protégé, la réalité commerciale peut en décider autrement. Il n’est peut-être pas nécessaire que les actifs numériques à faible risque deviennent leur propre île – il peut même être acceptable de combiner plusieurs actifs sur une seule île.
Dans la section suivante, certaines des variables critiques dans le déploiement d’un ZTF complet sont examinées.
Mise en œuvre du cadre Zero Trust – Facteurs à prendre en compte
Lors de la mise en œuvre de ZTF pour une entreprise, voici quelques considérations importantes :
- Déterminez ce qui doit être protégé : l'un des concepts fondamentaux du ZTF est qu'une infrastructure informatique et réseau entière doit être divisée en différents segments. Bien que l’objectif global soit d’obtenir une panne à 100 %, cela peut ne pas être réalisable, en fonction des exigences de sécurité de l’entreprise. Pour cette raison, les entreprises doivent travailler avec leurs équipes de sécurité informatique et déterminer soigneusement ce qui doit réellement être protégé et comment cela peut être davantage divisé. Il est important de noter qu’il ne s’agit pas d’une analyse ponctuelle et statique, mais qu’elle doit plutôt viser à être dynamique et évolutive. Par exemple, si l'infrastructure informatique/réseau croît ou diminue au fil du temps, le ZTF déployé doit suivre en tandem. Une vision micro est nécessaire au-delà d’une vision macro, puisque chaque couche de séparation nécessitera ses propres besoins et attention. Ce type d'approche est également connu sous le nom de « DAAS », qui signifie Données Critiques, Applications Logicielles, Actifs Numériques et S.
- Déterminez comment les données circulent : normalement considérée comme allant de soi, avec ZTF, la manière dont les flux de données au sein d'une infrastructure informatique/réseau doit être soigneusement cartographiée. Étant donné que la segmentation a lieu, il doit y avoir un flux clair et transparent pour les paquets de données afin d'éviter qu'ils ne soient bloqués à un moment donné et ne puissent atteindre l'autre segment. Ce type d'analyse donne une image plus claire des contrôles qui pourraient potentiellement être nécessaires et de la meilleure manière dont ils devraient s'intégrer stratégiquement au modèle.
- Créer un modèle provisoire : l'étape suivante consiste à formuler un modèle fonctionnel du ZTF. Il est très important de garder à l’esprit qu’à ce stade, il n’existe pas d’approche universelle. Un ZTF doit être créé en fonction des besoins de sécurité individuels. À ce stade, l’un des éléments clés à considérer est le type de mécanismes d’authentification qui seront nécessaires et l’endroit où ils doivent être placés afin qu’ils soutiennent au mieux les contrôles qui seront mis en œuvre. Avec cette méthodologie, la MFA est une nécessité absolue, où au moins trois outils ou plus doivent être mis en œuvre afin de confirmer pleinement l'identité d'un utilisateur final. Par ailleurs, ils doivent également être de nature différente, selon les règles suivantes :
- Quelque chose que tu sais
- Quelque chose que tu as
- Quelque chose que tu es
Par exemple, un mot de passe pourrait être utilisé pour le premier, un jeton RSA pourrait être utilisé pour le second et un code biométrique pourrait être utilisé pour le troisième. Cela signifie que l'utilisateur final doit présenter les trois éléments avant de pouvoir accéder aux ressources partagées. Un autre élément clé à retenir est que chaque segment du ZTF ne doit pas répéter le même séquençage d’authentification de la couche précédente. Pour illustrer cela, la deuxième couche devrait consister en un ensemble de questions défi/réponse, une carte à puce contenant des informations plus détaillées sur l'utilisateur final et une modalité biométrique différente. Enfin, si plus de trois mécanismes d'authentification sont implémentés, un niveau de sécurité plus élevé est atteint.
- Création des politiques : un autre élément clé du ZTF est la création de la politique de sécurité qui agit comme elle devrait au minimum comprendre les éléments suivants pour appliquer encore une autre couche de sécurité :
- Quels utilisateurs finaux doivent accéder à quelles ressources.
- Un journal d'audit des ressources et des applications auxquelles vous accédez.
- Les moments de la journée auxquels les ressources partagées sont accessibles.
- Implémentation du pare-feu de nouvelle génération pour permettre un filtrage et un blocage encore plus avancés des paquets de données malveillants.
- Surveillance quotidienne : une fois qu'un modèle fonctionnel de ZTF est créé, il doit ensuite être déployé. Cependant, évitez de déployer tout cela d’un seul coup et utilisez plutôt une approche progressive. Par exemple, plutôt que de déployer tous les mécanismes d'authentification pour chaque segment, effectuez-les un par un. De cette façon, si des problèmes imprévus surviennent, ils peuvent être résolus de manière efficace et gérable.
Authentification multifactorielle et utilisation de la biométrie
MFA est au cœur même du ZTF. Grâce aux progrès réalisés dans d’autres formes de technologie d’authentification, il est désormais possible d’éradiquer le mot de passe dans son intégralité. Si cela se réalise réellement, cela dépend moins de la raison scientifique que de la psychologie humaine. Mais le but ultime de cet article est de jeter les bases pour que cela devienne une réalité.
Comme indiqué, il existe les jetons RSA, les cartes à puce, les FOB, les questions de réponse/défi, etc. Cependant, ceux-ci peuvent encore être falsifiés à des degrés divers. Par conséquent, une autre modalité presque à l’épreuve des attaques d’un acteur malveillant doit également être déployée. C’est là qu’intervient la biométrie. Il y en a trois, et ils sont les suivants :
- Reconnaissance d'empreintes digitales
- Reconnaissance de l'iris
- La reconnaissance faciale
L’un des principaux avantages de l’utilisation de ces trois éléments est qu’ils ont fait leurs preuves et sont très durables par nature. Ainsi, ils peuvent s’intégrer dans à peu près n’importe quel type d’environnement ZTF créé. Enfin, ils sont tous sans contact, ce qui est préoccupant dans un monde sensible à une pandémie.
La biométrie la plus ancienne connue : la reconnaissance des empreintes digitales
La reconnaissance d'empreintes digitales est la technologie biométrique la plus durable. Son utilisation remonte aux années 1500, devenant ainsi la norme de facto pour les forces de l’ordre.
Les détails de l’empreinte digitale se décomposent en trois niveaux distincts :
- Niveau 1 : Les images de motifs présentes dans l’empreinte digitale.
- Niveau 2 : les points minutieux de l'empreinte digitale (c'est à partir de là que la majeure partie des caractéristiques uniques sont réellement extraites).
- Niveau 3 : Les formes et les images des crêtes, et de ses pores associés.
Il est important de noter à ce stade que les systèmes biométriques d’empreintes digitales collectent uniquement des images aux niveaux 1 et 2. Seuls les systèmes de reconnaissance d’empreintes digitales les plus puissants collectent des détails de niveau 3, utilisés principalement à des fins d’identification. Les fonctionnalités spécifiques des niveaux 1 et 2 sont les suivantes :
- Arches : Ce sont des crêtes qui coulent dans une seule direction, sans revenir en arrière ni reculer. Celles-ci ne représentent qu’environ 5 % des caractéristiques de l’empreinte digitale.
- Boucles : ce sont les crêtes qui vont en arrière et vont de gauche à droite ou vice versa. Il existe deux types distincts de boucles : a) les boucles radiales qui s'inclinent vers le bas ; et b) la boucle ulnaire qui s'incline vers le haut. Celles-ci représentent 65 % des caractéristiques de l'empreinte digitale.
- Verticilles : les crêtes de l'empreinte digitale qui forment un cercle autour d'un noyau et qui représentent 30 % des caractéristiques de l'empreinte digitale.
Le processus de reconnaissance d'empreintes digitales
La reconnaissance d’empreintes digitales suit une méthodologie distincte qui peut se décomposer en les étapes suivantes :
- Les images brutes réelles de l’empreinte digitale sont acquises grâce à la technologie des capteurs, y compris un contrôle de qualité. Les images brutes sont examinées par le système biométrique pour voir s'il y a trop de données superflues dans l'image de l'empreinte digitale, ce qui pourrait interférer avec l'acquisition de données uniques. S'il y a trop d'obstruction trouvée, le dispositif d'empreinte digitale supprimera automatiquement cette image particulière et invitera l'utilisateur final à placer son doigt dans la platine pour qu'une autre image brute de l'empreinte digitale soit collectée. Si les images brutes sont acceptées, elles sont ensuite envoyées à l’unité de traitement située au sein du dispositif de reconnaissance d’empreintes digitales.
- Avec les images brutes acceptées par le système, les caractéristiques uniques sont ensuite extraites, puis stockées en tant que modèle d'inscription. Si la reconnaissance d'empreintes digitales est utilisée par un smartphone, une carte à puce est alors utilisée pour stocker le modèle d'inscription réel et peut même fournir certaines fonctionnalités de traitement pour le smartphone.
- Une fois que l'utilisateur final souhaite obtenir un accès physique ou logique, il doit alors placer son doigt sur le capteur du système de reconnaissance d'empreintes digitales, afin que les images brutes et les caractéristiques uniques puissent être extraites comme décrit ci-dessus, et cela devient l'inscription. modèle. Les modèles d'inscription et de vérification sont ensuite comparés les uns aux autres, pour déterminer le degré de similarité/non-similarité les uns avec les autres.
- Si les modèles d'inscription et de vérification sont jugés proches en termes de similitude, l'utilisateur final est alors vérifié et/ou identifié et se voit ensuite accorder l'accès physique ou logique qu'il recherche.
L'algorithme de correspondance
Comme mentionné, c'est l'algorithme de correspondance qui compare le modèle d'inscription avec le modèle de vérification, et afin de vérifier le degré de similitude ou de proximité entre les deux, une certaine méthodologie doit être suivie, décrite comme suit :
- Quelles que soient les données collectées à partir de l’image brute de l’empreinte digitale, elles doivent avoir une sorte de point commun avec le modèle biométrique d’inscription déjà stocké dans la base de données. Cette intersection de données est connue sous le nom de noyau, ou courbure maximale d'une ligne de crête.
- Tous les objets superflus susceptibles d'interférer avec le processus d'extraction de caractéristiques uniques doivent être supprimés avant que le processus de vérification/identification puisse réellement avoir lieu. Certains de ces objets étrangers peuvent être les diverses différences trouvées dans la taille, la pression et l'angle de rotation de l'empreinte digitale, et ceux-ci peuvent être normalisés et supprimés par l'algorithme de correspondance.
- Dans la dernière étape, les caractéristiques uniques collectées à partir des données brutes (qui deviennent le modèle de vérification) doivent être comparées ultérieurement à celles du modèle d'inscription. À ce stade, l’algorithme d’appariement effectue l’essentiel de son travail, sur la base de trois types et types de corrélations :
- Correspondance basée sur la corrélation : lorsque deux empreintes digitales sont superposées, les différences au niveau des pixels sont calculées. Même si l’on s’efforce d’y parvenir, un alignement parfait des images d’empreintes digitales superposées est presque impossible à réaliser. Un inconvénient notable de cette méthode de corrélation est que la réalisation de ces types de calculs peut être très intensive du point de vue du traitement, ce qui peut peser lourdement sur les ressources informatiques.
- Correspondance basée sur les minuties : dans la reconnaissance d'empreintes digitales, il s'agit du type d'algorithme de correspondance le plus largement utilisé. Avec cette méthode, ce sont les distances et les angles entre les minuties qui sont calculés puis comparés les uns aux autres. Il existe une correspondance de minuties globales ainsi qu'une correspondance de minuties locales, et cette dernière méthode se concentre sur l'examen d'une minutie centrale, ainsi que des deux minuties voisines les plus proches.
- Correspondance des caractéristiques de crête : avec cette méthode de correspondance, les détails de l'empreinte digitale sont combinés avec d'autres caractéristiques basées sur les doigts telles que la forme et la taille, le nombre et la position de diverses singularités, ainsi que les textures globales et locales. Cette technique est particulièrement utile si l’image brute de l’empreinte digitale est de mauvaise qualité, et ces fonctionnalités supplémentaires peuvent aider à compenser ce déficit.
Il convient de noter qu'avec toutes les modalités biométriques, les modèles bruts collectés ne sont jamais stockés de manière permanente dans la base de données du système utilisé. Au lieu de cela, ils sont tous convertis en un fichier mathématique ou un profil statistique à des fins de comparaison entre les modèles d'inscription et de vérification. En ce qui concerne la reconnaissance d'empreintes digitales, les images brutes sont converties en un fichier mathématique binaire, comme dans l'exemple suivant :
000111110001111000011100000
C’est ce qui rend les modalités biométriques presque à l’épreuve du piratage : que peut faire un cybercriminel avec un format mathématique binaire ? Ce n’est pas la même chose que voler un numéro de carte de crédit.
La biométrie la plus stable : la reconnaissance de l'iris
L'iris se situe entre la pupille et le blanc de l'œil, appelé sclère. La couleur de l'iris varie d'un individu à l'autre, mais il existe un point commun entre les couleurs, notamment le vert, le bleu, le marron, le noisette et, dans les cas les plus extrêmes, une combinaison de ces couleurs. La couleur de l'iris est principalement déterminée par le code ADN hérité de nos parents.
Le motif unique de l'iris commence à se former lorsque l'embryon humain est conçu, généralement au cours du troisième mois de gestation fœtale. Le phénotype de l'iris est façonné et formé au cours d'un processus connu sous le nom de morphogenèse chaotique, et les structures uniques de l'iris se forment complètement au cours des deux premières années du développement de l'enfant.
Le rôle principal de l'iris est de contrôler le diamètre et la taille de la pupille. La pupille est la partie de l'œil qui permet à la lumière de pénétrer dans l'œil, qui à son tour atteint la rétine, située à l'arrière de l'œil.
Bien entendu, la quantité de lumière qui peut pénétrer dans la pupille est directement fonction de son expansion et de sa contraction, qui sont régies par les muscles de l'iris. L'iris est principalement composé de deux couches : (1) un tissu fibrovasculaire appelé stroma, et (2) les muscles du sphincter, un groupe de muscles qui se connectent au stroma.
Les muscles du sphincter sont responsables de la contraction de la pupille et les muscles dilatateurs régissent l'expansion de la pupille. En observant un iris dans le miroir, on remarque un motif rayonnant, appelé réseau trabéculaire. Lorsque la lumière proche infrarouge (NIR) est projetée sur l’iris, de nombreuses caractéristiques uniques peuvent être observées. Ces caractéristiques comprennent des crêtes, des plis, des taches de rousseur, des sillons, des arcs, des cryptes, des couronnes, ainsi que d'autres motifs qui apparaissent de diverses manières discernables.
Enfin, la collerette de l'iris en est la région la plus épaisse, contenant également des caractéristiques uniques, qui donnent à l'iris ses deux régions distinctes, connues sous le nom de zone pupillaire (qui forme la limite de la pupille) et de zone ciliaire (qui remplit le reste de l'iris). L’iris est considéré comme l’une des structures les plus uniques de la physiologie humaine et, en fait, chaque individu possède une structure d’iris différente dans les deux yeux. Des études scientifiques ont montré que même les vrais jumeaux ont des structures d'iris différentes.
Les algorithmes – Codes Iris
L’idée d’utiliser l’iris pour confirmer l’identité d’un individu remonte à 1936, lorsqu’un ophtalmologiste, Frank Burch, a proposé pour la première fois l’idée. Cette idée a ensuite été brevetée en 1987 et, au milieu des années 90, le Dr John Daugmann de l'Université de Cambridge a développé les premiers algorithmes mathématiques pour cette idée.
La technologie traditionnelle de reconnaissance de l'iris exige que l'utilisateur final ne se tienne pas à plus de dix pouces de la caméra. Avec la lumière NIR projetée dans l'iris, diverses images en niveaux de gris sont ensuite capturées, puis compilées en une seule photographie composite principale. Le logiciel supprime ensuite toute obstruction de l'iris, qui peut inclure des parties de la pupille, des cils, des paupières et tout éblouissement résultant de la caméra à iris.
À partir de cette image composite, les caractéristiques uniques de l'iris (comme décrit précédemment) sont ensuite « zonées » en centaines de phaseurs (également appelés vecteurs), dont les mesures et le niveau d'amplitude sont ensuite extraits (en utilisant les mathématiques des ondelettes de Gabor), puis ensuite converti en un petit fichier mathématique binaire, ne dépassant pas 500 octets. En raison de la très petite taille du modèle, la vérification d’un individu peut avoir lieu en un peu moins d’une seconde. Dans les méthodes traditionnelles de reconnaissance de l'iris, ce fichier mathématique devient alors le véritable modèle biométrique de l'iris, également connu sous le nom de « IrisCode ». Cependant, afin de vérifier ou d'identifier positivement un individu à partir de la base de données, ces modèles d'inscription et de vérification basés sur l'iris (l'IrisCode) doivent d'abord être comparés les uns aux autres. Afin d'accomplir cette tâche, les IrisCodes sont comparés les uns aux autres octet par octet, à la recherche d'éventuelles dissemblances parmi la chaîne de chiffres binaires.
En d’autres termes, dans quelle mesure les zéros et les uns des modèles d’inscription et de vérification basés sur l’iris correspondent-ils ? La réponse est trouvée en utilisant une technique connue sous le nom de « distances de Hamming », qui est encore utilisée dans les algorithmes modernes de reconnaissance de l'iris.
Une fois ces distances mesurées, des tests d'indépendance statistique sont ensuite effectués, en utilisant des mathématiques booléennes de haut niveau (telles que les opérateurs OU exclusifs [XOR] et les opérateurs masqués). Enfin, si le test d’indépendance statistique est réussi, l’individu est alors positivement vérifié ou identifié, mais si les tests d’indépendance statistique échouent, alors la personne n’est PAS positivement vérifiée ou identifiée.
Reconnaissance faciale : la biométrie la plus controversée
La technologie de reconnaissance faciale repose sur les caractéristiques physiques du visage qui sont déterminées par la génétique. En outre, cette technologie peut être déployée soit sous forme de système entièrement automatisé, soit sous forme de système semi-automatisé. Avec ce dernier, aucune interaction humaine n’est nécessaire, toutes les décisions de vérification et d’identification sont prises par la technologie elle-même. Dans ce dernier cas, une intervention humaine est nécessaire dans une certaine mesure, et c’est d’ailleurs la méthode privilégiée pour déployer un système de reconnaissance faciale.
Les systèmes de reconnaissance faciale se concentrent sur les parties du visage qui ne sont pas aussi sujettes aux obstacles. Ces régions du visage collectées pour un échantillon brut sont les suivantes :
- Les crêtes entre les sourcils
- Les pommettes
- Les bords de la bouche
- Les distances entre les yeux
- La largeur du nez
- Le contour et le profil de la mâchoire
- Le menton.
La méthodologie pour capturer les images brutes du visage diffère considérablement des autres technologies biométriques. Bien que la reconnaissance faciale soit une technologie sans contact, le processus de capture d’images est nettement plus complexe et nécessite une plus grande coopération de la part de l’utilisateur final. Pour démarrer le processus de collecte d'images brutes, l'individu doit d'abord se tenir devant une caméra ou, sans le savoir, faire capturer son visage à l'aide de méthodes de surveillance secrètes, telles que l'utilisation d'un système de caméra de vidéosurveillance.
Une fois les images brutes collectées par la caméra, les données sont ensuite alignées ou normalisées pour aider à affiner les images brutes à un niveau granulaire. Les techniques de raffinement impliquées incluent l'ajustement du visage pour qu'il soit au milieu des photos qui ont été prises, et l'ajustement de la taille et de l'angle du visage afin que les meilleures caractéristiques uniques puissent être extraites et ensuite converties en une vérification et un enregistrement appropriés. modèles.
Tout cela se fait via des algorithmes mathématiques. Comme évoqué précédemment, la reconnaissance faciale se heurte à un certain nombre d’obstacles majeurs, mais plus encore lors de la phase d’acquisition des images brutes. Ceux-ci incluent un manque de différenciation subtile entre les visages et d'autres variables obstructives dans l'environnement externe, diverses expressions faciales et poses différentes dans les captures d'images brutes ultérieures, et la capture d'un élément d'orientation historique tel que les yeux.
Pour aider à compenser ces obstacles, d’importantes recherches et développements ont été réalisés dans le domaine de l’imagerie tridimensionnelle. Dans cette technique, une forme est formée et créée, et en utilisant une image bidimensionnelle existante, diverses caractéristiques sont créées, ce qui donne un modèle qui peut être appliqué à n'importe quelle surface tridimensionnelle et utilisé pour aider à compenser les différences mentionnées ci-dessus. .
Cependant, il convient de noter que ces types de systèmes de reconnaissance faciale tridimensionnelle ne sont pas encore largement déployés dans les applications commerciales, car cette technique fait encore l’objet de recherches plus approfondies. À l’heure actuelle, les systèmes de reconnaissance faciale bidimensionnelle sont principalement utilisés sur le marché commercial. Les systèmes de reconnaissance faciale tridimensionnelle ne sont utilisés qu'en complément des systèmes bidimensionnels, dans lesquels des exigences d'imagerie plus élevées sont dictées et l'environnement de capture est beaucoup plus difficile.
Les techniques de reconnaissance faciale
Pour aider à atténuer ces obstacles et fournir une solution dans laquelle une seule image faciale peut être détectée dans une seule image, diverses techniques ont été développées et appliquées à la reconnaissance faciale. Ces techniques se répartissent en deux catégories :
- Basé sur l'apparence
- Basé sur un modèle.
Avec les techniques de reconnaissance faciale basées sur l'apparence, un visage peut être représenté dans plusieurs vues d'objet, et il est basé sur une seule image sans aucun modèle tridimensionnel utilisé. Les méthodologies spécifiques ici incluent l'analyse en composantes principales et l'analyse discriminante linéaire. Les techniques de reconnaissance faciale basées sur des modèles construisent et créent un modèle tridimensionnel du visage humain, puis les variations faciales peuvent être capturées et calculées. La méthodologie spécifique ici inclut le mappage de graphiques Elastic Bunch.
L'analyse en composantes principales (basée sur une base linéaire, également connue sous le nom d'ACP) remonte à 1988, lorsqu'elle a été utilisée pour la première fois pour la reconnaissance faciale. Cette technique utilise principalement ce que l’on appelle les « Eigenfaces ». En termes simples, les visages propres ne sont que des images faciales spectrales en 2 dimensions, composées de caractéristiques en niveaux de gris.
Il existe littéralement des centaines de visages propres qui peuvent être stockés dans la base de données d'un système de reconnaissance faciale. Lorsque des images faciales sont collectées par le système, cette bibliothèque de visages propres est superposée aux images brutes. À ce stade, le niveau de variances entre les faces propres et les images brutes est ensuite calculé, moyenné ensemble, puis différents poids sont attribués.
Le résultat final est une image unidimensionnelle du visage, qui est ensuite traitée par le système de reconnaissance faciale. En termes mathématiques, la PCA est simplement une transformation linéaire dans laquelle les images brutes du visage sont converties en un système de coordonnées géométriques. Imaginez un système basé sur des quadrants. Avec la technique PCA, l'ensemble de données présentant la plus grande variance se trouve sur la première coordonnée du système de quadrants (on parle également de première PCA), l'ensemble de données suivant présentant la deuxième plus grande variance tombe sur la deuxième coordonnée, et ainsi de suite. jusqu'à ce que le visage unidimensionnel soit créé.
Le plus gros inconvénient de cette technique est qu’elle nécessite une image frontale complète et, par conséquent, une image complète du visage. Ainsi, toute modification d’une caractéristique du visage nécessite un recalcul complet de l’ensemble du processus Eigenface. Cependant, une approche raffinée a été développée, réduisant ainsi considérablement le temps de calcul et de traitement requis.
L'analyse discriminante linéaire (basée sur une base linéaire, également connue sous le nom de LDA) projette le visage sur un espace vectoriel, l'objectif principal étant d'accélérer les processus de vérification et d'identification en réduisant considérablement le nombre total de caractéristiques qui doivent être mises en correspondance. .
Les mathématiques derrière LDA consistent à calculer les variations qui se produisent entre un seul point de données brutes à partir d'un seul enregistrement de données brutes. Sur la base de ces calculs, les relations linéaires sont ensuite extrapolées et formulées. L'un des avantages de la technique LDA est qu'elle peut effectivement prendre en compte les différences d'éclairage et les différents types d'expressions faciales qui peuvent survenir, mais une image complète du visage reste néanmoins nécessaire.
Une fois la relation linéaire établie à partir des calculs de variance, les valeurs des pixels sont capturées et tracées statistiquement. Le résultat est une image brute calculée, appelée Fisher Face, qui est simplement une relation linéaire entre les différentes valeurs de pixels. Malgré les avantages, un inconvénient majeur de la technique LDA est qu’elle nécessite une grande base de données. Elastic Bunch Graph Matching (basé sur un modèle, également connu sous le nom d'EBGM) examine les relations mathématiques non linéaires du visage, qui incluent des facteurs tels que les différences d'éclairage et les différences dans les poses et les expressions du visage. Cette technique utilise une technique similaire à celle utilisée dans la reconnaissance de l'iris, connue sous le nom de Gabor Wavelet Mathematics.
Avec la technique EBGM, une carte faciale est créée. L'image du visage sur la carte n'est qu'un séquençage de graphiques, avec divers nœuds situés au niveau des caractéristiques du visage, notamment les yeux, les bords des lèvres, le bout du nez, etc. Ces caractéristiques des bords deviennent une distance bidimensionnelle. vecteurs, et pendant les processus d'identification et de vérification, divers filtres mathématiques Gabor sont utilisés pour mesurer et calculer les variances de chaque nœud sur l'image faciale.
Ensuite, les ondelettes mathématiques de Gabor sont utilisées pour capturer jusqu'à cinq fréquences spatiales et jusqu'à huit orientations faciales différentes. Bien que la technique EBGM ne nécessite pas une image faciale complète, le principal inconvénient de cette technique est que les repères de la carte faciale doivent être marqués avec une extrême précision.
Comment les modalités biométriques s'intègrent dans le ZTF
Nous avons donc maintenant examiné en détail trois modalités biométriques distinctes qui peuvent désormais s'intégrer dans le modèle MFA du ZTF. (N'oubliez pas que la MFA était auparavant définie comme ayant au moins trois couches de mécanismes d'authentification uniques.) N'oubliez pas que tous les modèles (à la fois de vérification et d'inscription) qui ont été créés sont un certain type de profil mathématique ou statistique. La matrice suivante résume cela :
Modalité biométrique | Fichier mathématique produit |
Reconnaissance d'empreintes digitales | Chiffres binaires |
Reconnaissance de l'iris | Codes de l'iris, basés sur les ondelettes de Gabor |
La reconnaissance faciale | Eigenfaces, basées sur des modèles de Markov cachés |
À l’heure actuelle, ces trois modalités biométriques peuvent littéralement s’intégrer n’importe où dans l’infrastructure ZTF déployée. Ils peuvent être utilisés au début, ou même au milieu des microsegments éclatés. Prenons par exemple un employé de niveau intermédiaire, tel que celui d'un administrateur de base de données. Cette personne particulière aura probablement le plus intérêt à accéder à une (ou peut-être) plusieurs bases de données de l’organisation.
Mais avant que cela puisse se produire, ils doivent d’abord être authentifiés. Cela peut être réalisé par une succession rapide de ces trois modalités. Bien que le temps exact qui s'écoule ici n'ait pas été calculé, il a été estimé que cela ne devrait pas prendre plus de trois minutes, car il s'agit toutes de technologies sans contact. C'est à ce moment-là que tous les modèles de vérification seront créés et comparés aux modèles d'inscription. Cette partie du ZTF peut être appelée « Point d'authentification ».
À partir de là, les résultats du processus d'authentification seront ensuite transférés aux lignes de défense entourant la base de données (celle à laquelle l'administrateur souhaite accéder), pour permettre l'autorisation des ressources partagées.
C'est ce que l'on peut appeler le « point d'autorisation ». Dans cet exemple, il a également été supposé que les principes du PAM seraient suivis. De ce fait, cette personne n'aura pas besoin de passer par l'intégralité du processus de vérification dans les trois modalités différentes, car les résultats auront déjà été stockés dans la PAM Vault Box.
Si l'accès est nécessaire à l'un des autres sous-répertoires ou ressources sous-partagées de cette base de données, les mêmes résultats s'appliqueront également. Le seul moment où cette personne devra répéter le scénario de vérification que nous venons de décrire est si elle doit accéder à un autre serveur, tel qu'un serveur de messagerie. L’ensemble de ce processus est visible dans la figure ci-dessous.
Comme cela a également été décrit plus tôt dans cette série, seul le modèle d'inscription est réellement stocké dans la base de données de l'une de ces trois modalités biométriques et même dans ce cas, il s'agit simplement de fichiers mathématiques et/ou statistiques. Ainsi, même si un cybercriminel devait pirater les systèmes d’une entreprise et détourner ces modèles, il n’y a vraiment rien d’utile à faire avec eux, car cela nécessite un échantillon réel pour que n’importe quel niveau d’autorisation ait lieu.
Cela signifie que malgré toutes les lignes de défense offertes par le ZTF, il existe toujours une vulnérabilité potentielle. Bien sûr, cela doit être corrigé avec les contrôles appropriés, mais si les modèles risquent également d'être piratés, il est également préférable de les protéger également. C'est là qu'ils peuvent être cryptés via la biocryptographie comme moyen supplémentaire de renforcer l'ensemble du ZTF.
Un bref examen de la biocryptographie
Le modèle biométrique de chiffrement
Lorsque le modèle d'empreinte digitale/iris/facial est crypté, il peut être considéré comme le « Modèle biométrique de chiffrement », et lorsqu'il est déchiffré, il peut être visualisé à nouveau comme le « Modèle biométrique de texte en clair » déchiffré. En plus de cela, la Bio Cryptographie doit également fournir les trois fonctions suivantes pour être réellement efficace :
- Authentification : le destinataire du message (ou le modèle biométrique en texte brut) doit être en mesure de vérifier avec précision l'origine de celui-ci.
- Intégrité : le message en transit (ou le modèle biométrique en texte brut) ne doit être modifié d'aucune manière ni dans aucun format pendant son transit (ou en d'autres termes, remplacer un modèle biométrique d'empreinte digitale par un modèle biométrique d'iris afin d'usurper le système biométrique). ). C’est là que la cryptographie quantique peut apporter une contribution importante, en utilisant les photons de particules et leurs angles polaires.
- Non-répudiation : l'expéditeur du modèle biométrique en texte brut ne doit pas nier à tort qu'il n'a pas envoyé ce modèle particulier à l'origine.
Clés de biocryptographie
Un élément central de la biocryptographie est ce que l’on appelle les « clés ». C'est la clé elle-même qui est utilisée pour verrouiller le modèle biométrique en texte brut (ou le chiffrer) au point d'origine, et elle est également utilisée pour déverrouiller ce même modèle à la réception.
La clé elle-même est une série de valeurs mathématiques : plus la valeur est grande, plus elle est difficile à briser pendant le transport. La plage de valeurs mathématiques possibles est appelée « espace clé ».
Il existe de nombreux types de clés de ce type utilisées en biocryptographie, telles que les clés de signature, les clés d'authentification, les clés de cryptage de données, les clés de session, etc. Le nombre de clés générées dépend principalement des algorithmes mathématiques utilisés, regroupés en deux catégories symétriques. et asymétrique.
Pour renforcer davantage les atouts d'une infrastructure à clé publique basée sur la biocryptographie, des fonctions de hachage mathématique sont également utilisées pour protéger l'intégrité du modèle biométrique en texte brut. Par exemple, lorsque la partie destinataire reçoit le modèle biométrique en texte brut, la fonction de hachage est incluse avec celui-ci.
Si les valeurs de la fonction de hachage n'ont pas changé après avoir été calculées par l'extrémité réceptrice, alors on peut être assuré que le modèle biométrique en texte brut n'a pas été modifié ou altéré de quelque manière que ce soit.
Pour prouver la validité des fonctions de hachage, il convient de noter qu'elles ne peuvent être calculées que dans un sens (par exemple, aller du point d'envoi au point de réception, où elles sont calculées), mais pas dans l'autre sens (par exemple, allant du point de destination au point d'origine).
La fonction de hachage sera revue à nouveau dans la section suivante de cet article. Il convient de noter que pour les besoins de cette étude, la méthodologie ZTF que nous avons introduite est de nature plutôt simple, car nous nous sommes concentrés sur un seul segment de celle-ci, à savoir un serveur de base de données. On peut donc supposer qu’à des fins d’illustration, la cryptographie à clé symétrique est utilisée. C'est ici qu'une clé secrète, à savoir la clé privée, sera utilisée pour chiffrer et déchiffrer le modèle.
Cette approche comporte des risques inhérents, surtout si la clé privée est cédée à une autre partie. Mais avec les mécanismes de sécurité déjà offerts par le ZTF et la nature mathématique des modèles, cela devrait contribuer à compenser ce risque. Mais à mesure que le ZTF sera déployé à plus grande échelle dans le monde réel, il est tout à fait concevable de devoir utiliser la cryptographie à clé asymétrique, qui utilise une combinaison de clés publiques et privées, et même un centre de distribution de clés (KDC).
De plus, un seul modèle biométrique devra réellement être chiffré, à savoir le modèle d’inscription. Comme décrit précédemment, c'est ce qui est stocké dans la base de données du dispositif biométrique et est utilisé pour confirmer l'authenticité d'un individu.
En fait, les concepts de biocryptographie ont été explorés pour la première fois de manière approfondie par Ravi Das dans son livre Biometric Technology: Authentication, BioCryptography, and Cloud Based Architecture, publié par CRC Press en 2015.
Conclusion : autres facteurs en faveur de l'AMF dans le ZTF
Ce que nous avons proposé est un ZTF utilisant de manière clé la biométrie dans le but d’éradiquer complètement l’utilisation des mots de passe. Mais comme mentionné également, il existe d'autres mécanismes qui peuvent être utilisés, tels que les jetons RSA, les cartes à puce, etc. Bien que nous ayons décrit précédemment les étapes à suivre pour disposer d'une méthodologie ZTF efficace, il existe d'autres facteurs liés à MFA qui doit également être prise en considération, en particulier la MFA adaptative. La décision si l’AMF doit être appliquée à un moment précis, pour un utilisateur spécifique dépendra des politiques qui peuvent être statiques ou dynamiques.
La MFA adaptative repose sur l’analyse simultanée de nombreux points de données (IP, localisation, heure, appareil, etc.). L’AMF adaptative exigera des exigences d’authentification basées sur les critères suivants :
- Politiques statiques : les niveaux de risque sont définis en fonction de différents points de données.
- Politiques dynamiques : les politiques changent en fonction de l’analyse du comportement des utilisateurs. Dans ce cas, les techniques d’apprentissage automatique peuvent être utilisées pour optimiser les politiques et réduire les risques au fil du temps.
- Hybride : une combinaison de politiques statiques et dynamiques.