Empreintes digitales - Forme de la main - Visage - Iris - Rétine - Réseau veineux - Analyse comportementale - Voix - Signature dynamique - Frappe au clavier - Démarche ...

Test de systèmes de reconnaissance faciale - Thèse à l’UNIL

Test de systèmes de reconnaissance faciale - Thèse à l’UNIL

Maëlig Jacquet s’est lancé le défi de tester différents systèmes de reconnaissance faciale lors de sa thèse à l’UNIL obtenue en décembre 2021. Elle a mis en lumière leurs performances et leurs enjeux, un sujet épineux qui relève d’intelligence artificielle autant que d’éthique.

Lorsque l’unique preuve d’un crime est une vidéo de caméra de surveillance et qu’un logiciel de reconnaissance faciale accuse une personne, cela suffit-il pour l’incarcérer ? C’est ce qui s’était passé en 2019, à la suite de quoi l’avocat de la défense avait rétorqué au micro du journal Le Progrès : « Les juges ne sont là que pour avaliser les accusations numériques qui sont réalisées par un algorithme dont nous ignorons absolument tout. » Où en est-on aujourd’hui, faut-il se méfier des résultats de cette intelligence artificielle ?

Pas encore de pratique commune en Suisse

Nous avons rencontré Maëlig Jacquet, qui vient de terminer sa thèse sur l’utilisation de la reconnaissance faciale automatique en sciences criminelles. Elle nous explique que celle-ci peut être exploitée de différentes manières : lors de l’investigation, afin de trouver des personnes d’intérêt, lors du renseignement, pour déceler des séries de crimes, au tribunal, pour fournir des éléments de preuve, ou à titre préventif. Cependant, en Suisse romande, cela est encore peu appliqué, ou de manière extrêmement variée suivant les cantons. Mais ce n’est qu’une question de temps : « Cela devrait bientôt se faire. Les discussions ont été lancées », nous prévient-elle.

Trente-quatre volontaires ont accepté de jouer le jeu

Lors de sa thèse, Maëlig Jacquet a testé trois différents logiciels sur 34 personnes : deux systèmes commerciaux couramment utilisés (Idemia Morphoface Investigate et Morphoface Expert, plus récent), ainsi que celui développé par Google (FaceNet). En simulant le passage de ces volontaires sur un lieu de crime, elle a récolté des images de leurs cartes d’identité, de vidéos de distributeurs de billets et de caméras de surveillance et les a comparées à des dizaines de milliers de photos parmi lesquelles ont été glissés les profils de ces cobayes. Cette base de données a été mise à disposition par les polices vaudoise et neuchâteloise. Elle en ressort formelle : « Oui, ça fonctionne. » En ne regardant notamment que le premier résultat proposé par le logiciel MorphoFace Expert, elle a obtenu entre 85 et 100% de réussite. Les scores des systèmes de reconnaissance faciale se sont ainsi révélés être très bons.

Performances Performances du premier résultat donné par le logiciel, relevé par Maëlig Jacquet. © Gettyimages / Unicom

Pour rendre ses explorations plus concrètes, Maëlig Jacquet a ensuite poussé sa recherche lors d’un mandat avec la police neuchâteloise en 2021 en utilisant des images de moins bonne qualité et donc plus réalistes. Les résultats sont moins bons, mais restent élevés :

« Le logiciel de reconnaissance faciale que j’ai testé est suffisant pour la phase d’investigation en sciences criminelles. En ce qui concerne l’utilisation de preuves issues de ces systèmes au tribunal, cela dépend de la qualité des images. »

Un fonctionnement qui reste opaque

Il reste que certains artifices peuvent représenter des difficultés aux algorithmes des systèmes de reconnaissance faciale, tels que le port de lunettes, d’un masque ou la pilosité des individus, sans que nous sachions toujours comment cela est traité. En effet, les dernières versions de ces logiciels dépendent de l’apprentissage profond, ou deep learning en anglais, qui comprend une part de mystère, puisqu’il apprend par lui-même : si son but est programmé, la manière de l’atteindre ne l’est pas et est donc automatique.

De plus, l’algorithme ne se nourrit que de ce qu’on lui donne, poursuit l’ex-doctorante :

« L’algorithme dépend de la base de données d’apprentissage. Si on fournit au logiciel uniquement des profils d’hommes blancs pour s’entraîner, cela peut créer des biais ethniques. Ce sont des problèmes majeurs, mais ils ne sont pas infranchissables. Il faut simplement entraîner le système avec des bases de données représentatives de la population. »

Des problèmes de surveillance massive ?

À Londres ou au Pays de Galles, la police exploite notamment le système de vidéosurveillance à des buts de reconnaissance faciale en direct. À l’extrême, en Chine ou à Moscou, ces logiciels sont amplement utilisés sur la place publique et les images largement stockées. Certaines polices ont décidé de les retirer, comme c’est le cas à Orlando ou Chicago. Maëlig Jacquet semble rassurée pour la Suisse :

« Je conçois que ça puisse faire peur, car on ne comprend pas encore tout. Les progrès technologiques vont plus vite que la validation scientifique. Mais c’est là l’importance de la recherche. »

La suite ? Maëlig Jacquet aimerait aider la police à mettre en place un système de reconnaissance faciale en Suisse qui soit en ligne avec les enjeux de fonctionnement, de fiabilité et d’éthique qu’elle a mis en lumière durant sa thèse. Une technologie qui soit utilisée en connaissance de cause.

Source : https://wp.unil.ch