Pour renforcer la transparence et la vérification indépendante, l’AI Act devrait intégrer des évaluations conventionnelles par des organismes notifiés, similaires au cadre établi par eIDAS.
L’AI Act devrait exiger une classification des systèmes d’IA à haut risque par des tiers afin de prévenir les abus et de garantir une compréhension approfondie des capacités et des risques des IA.
Pour assurer une classification cohérente des systèmes d’IA sur le marché et maintenir l’innovation, une tierce partie devrait déterminer la classification des systèmes d’IA en fonction de leur contexte d’utilisation. Cela permettrait une innovation rapide tout en garantissant l’équité et la transparence.
Le règlement eIDAS, lancé en 2014, constitue le premier pilier de la stratégie de numérisation de l’UE officiellement introduite en 2015. Ce règlement a ouvert la voie aux services de confiance qui forment aujourd’hui l’épine dorsale de l’identification à haute assurance, de la signature et des services associés, tels que l’horodatage, les sceaux et la livraison électronique.
L’eIDAS a également instauré une ère de transparence dans les méthodes utilisées pour la vérification d’identité, que ce soit pour les eID ou les signatures électroniques qualifiées. Au fil du temps, l’industrie a vu émerger des solutions utilisant l’apprentissage automatique et l’intelligence artificielle pour améliorer les méthodes d’identification.
Parallèlement, l’IA est devenue de plus en plus pertinente dans presque tous les services ou produits, entraînant des gains d’efficacité significatifs et des avancées scientifiques. Cependant, cela s’accompagne de risques d’abus potentiels, tels que la génération d’informations falsifiées à grande échelle par des modèles d’IA générative. Pour anticiper ces abus et accroître la transparence, l’UE a introduit l’AI Act, qui vise à :
Lors de l’entrée en vigueur d’eIDAS, les schémas de certification et leur adoption par les États membres n’étaient pas clairement définis. Avec le temps, l’industrie a convergé vers une évaluation de conformité généralement interopérable, ce qui a réduit les défis liés à la reconnaissance des rapports produits par un organisme d’évaluation (CAB) dans un autre État membre.
Cela a permis le développement de produits innovants pour les prestataires de services de confiance grâce à :
L’AI Act vise à introduire un schéma d’évaluation de conformité similaire à celui d’eIDAS, mais avec des différences notables :
L’AI Act est une référence en matière de réglementation de l’IA, mais deux failles majeures persistent :
Exemple : Une IA conçue pour détecter si une personne est sous contrainte via des indices biométriques pourrait être considérée comme un cas d’utilisation interdit. Toutefois, avec un contexte étroit et une supervision humaine, elle pourrait être reclassifiée et échapper à des évaluations tierces.
Solution : Une tierce partie devrait déterminer la classification des systèmes d’IA en fonction de leur contexte d’utilisation. Cela favoriserait une innovation rapide tout en garantissant une transparence et une équité accrues sur le marché.