Après une longue période d’incertitude et de développements technologiques, l’IA fait maintenant rapidement son chemin au sein des parcours client et des processus de travail en interne, à tous les niveaux. La précision et l’efficacité nouvelles des algorithmes se traduisent par des milliers d’exemples d’utilisation, allant de la génération de contenu à la conduite autonome, en passant par la prévention des fraudes. Concernant cette dernière, l’IA aide les prestataires de services de confiance à détecter les tentatives frauduleuses d’inscription – dont certaines sont indétectables à l’œil nu. Mais, selon notre CPO (Directeur Produit), Tomas Zuoza, à date, les avantages et les inconvénients du recours à l’IA pour vérifier les identités sont équivalents.
Comment fonctionne la vérification de l’identité basée sur l’IA ?
Lorsqu’il s’agit d’un onboarding à distance, les prestataires de services ont 3 options : mettre en place une vérification entièrement manuelle (via une conférence téléphonique), utiliser un processus basé sur l’IA intégrant un élément manuel, ou s’appuyer entièrement sur l’IA. Chaque modèle a ses avantages et ses inconvénients mais, à l’heure actuelle, la majorité des prestataires de service, dans le monde entier, privilégient l’approche hybride. Cela signifie qu’ils s’appuient sur l’IA pour l’essentiel de la vérification des données et lancent une vérification manuelle comme étape finale du processus. Selon Tomas, la touche humaine contrebalance le plus gros défaut technique de l’IA : son incapacité à s’adapter à de nouvelles catégories ou sous-catégories de fraudes. « Tant que nous pouvons définir les caractéristiques et la nature d’une attaque, nous pouvons entraîner l’IA à la reconnaître et à bloquer toute tentative de cette nature à l’avenir. Mais les fraudeurs trouvent sans cesse de nouvelles façons de duper la vérification à distance de l’identité. Intégrer un élément manuel au processus d’onboarding est donc la meilleure façon de détecter et de bloquer les tentatives jamais vues auparavant et de collecter des données pour former à nouveau l’algorithme », explique Tomas.
Il s’agit également de la façon la plus naturelle de maintenir les algorithmes de l’IA à jour mais, selon Tomas, l’influence de l’IA dans le processus d’onboarding va bien au-delà. « Nous savons ce qui se passe lors du processus d’onboarding : nous collectons des informations, l’IA les traite, puis nous faisons une vérification manuelle et la décision finale est alors prise : accepté ou échec/recommencer. Cela étant dit, nous ne pouvons pas vraiment expliquer le ‘pourquoi’ lorsqu’il s’agit d’une vérification de l’identité effectuée par l’IA », souligne-t-il. En effet, pour les humains, l’IA agit comme une boîte noire. Mais il peut y avoir un autre moyen de la déconstruire et c’est là que les progrès technologiques prennent une tournure vraiment intéressante.
Comprendre le « mécanisme de pensée » de l’IA – qu’y a-t-il sous la surface ?
En tant que solution « boîte noire », l’IA n’est qu’une partie du processus hybride d’onboarding, laissant de la place pour des ajustements et des prises de décision lors de la vérification manuelle. Dans le cas d’un processus s’appuyant entièrement sur l’IA, cependant, on ne peut échapper à la nécessité de comprendre son mode de raisonnement. « On ne traite plus les ordinateurs comme de simples machines. À mesure que la technologie progresse, le principal objectif en termes d’expérience utilisateur est de faire en sorte que les réponses générées par des ordinateurs paraissent aussi humaines que possible. L’IA le fait également, mais le ‘problème’ est qu’elle ‘pense’ comme des humains également. Si je parviens à une certaine conclusion et que quelqu’un arrive à une autre conclusion en partant du même postulat de départ, à qui revient-il de dire que j’ai raison et qu’il a tort ? Plus les apports sont abstraits, plus nous aurons des réponses ‘correctes’ », a déclaré Tomas. Plus la réponse est subjective, plus il est important de comprendre le processus de pensée la sous-tendant. Mais, avec la technologie actuelle, un modèle d’IA ne peut avoir qu’une seule fonction bien définie. En d’autres termes, expliquer le processus de pensée va au-delà du périmètre de la programmation de l’IA pour la vérification de l’identité. Ici, la solution consiste à bâtir un modèle d’IA capable de comprendre et d’expliquer les processus de décision d’autres IA, en des termes humains. Selon Tomas, il s’agirait d’un immense bond vers une application encore plus large de l’IA – en particulier dans les secteurs d’activité très réglementés.
Obstacles réglementaires
Ce manque de compréhension est, en fait, l’un des principaux obstacles à la construction d’un cadre réglementaire autour de l’application et du développement de l’IA. Bien que l’IA, en tant que concept, ne soit pas nouvelle, son champ d’application et sa précision atteignent aujourd’hui des niveaux sans précédent. De la possibilité d’utiliser un arrière-plan généré par l’IA lors d’une conférence téléphonique, à celle de générer des sons et des silhouettes pouvant faire passer n’importe qui pour quelqu’un d’autre, tant physiquement que par sa voix, il existe des dizaines de cas d’utilisation préoccupants qui suscitent des débats enflammés et des appels aux instances réglementaires pour intervenir. « Si nous laissons libre cours à l’IA, nous ne pourrons plus avoir confiance en rien de ce que nous verrons sur Internet. Des tags sont l’un des moyens proposés pour signaler du contenu généré par l’IA. Ils pourraient être efficaces, mais il faut d’abord disposer d’une base réglementaire pour qu’ils soient correctement appliqués et pour le traitement de ces données générées par l’IA. Il se passe tellement de choses que cela prendra du temps », relève Tomas.
Un autre obstacle est lié aux disparités de réglementation à l’échelle internationale. Selon Tomas, les puces NFC, intégrées aux pièces d’identité dans toute l’UE, pourraient constituer une base fiable à des fins de vérification. Mais même ainsi, dans certains pays (comme en France, par exemple), elles ne sont pas accessibles aux prestataires de services de confiance, ce qui les pousse à avoir recours à d’autres méthodes, moins fiables.
Vérification reposant sur l’IA vs. vérification en face-à-face. Y a-t-il un gagnant qui s’impose ?
« Même si les puces NFC pourraient faire monter d’un cran les prestataires en termes de prévention des fraudes, ce jeu du chat et de la souris n’est pas près de prendre fin », a déclaré Tomas. Il y a aussi une idée fausse fréquemment répandue selon laquelle la vérification de l’identité en face-à-face serait la méthode la plus sûre qui soit. Mais, soyons honnêtes, à quand remonte la dernière fois où quelqu’un a vérifié votre pièce d’identité avec une loupe, une lampe torche ou une lampe à UV ? Et même quand cela est fait, que se passe-t-il si nous avons affaire à de vrais jumeaux ?
« Si l’on devait revenir à la vérification de l’identité en face-à-face, nous n’aurions pas à nous soucier de la validité de la détection du vivant ou des selfies. Mais le monde a pris le chemin inverse, et l’importance d’avoir des méthodes fiables de vérification de l’identité pour l’avenir ne fera que croître. Ainsi, nous devrions nous atteler à concevoir des méthodes de vérification de l’identité encore plus sûres et à construire un cadre réglementaire qui reflète la situation actuelle, qui soutienne les efforts des prestataires de services de confiance pour prévenir les vols d’identité et la fraude à l’identité. Nous savons déjà que l’IA est un outil puissant et facilement adaptable, aussi jouera-t-elle forcément un rôle important en ce sens, » constate Tomas.