Ecrire les normes de l’intelligence artificielle
Avec AFNOR, engagez-vous en commission de normalisation pour écrire les bonnes pratiques des systèmes d’IA.
L’essentiel de notre offre de normalisation en intelligence artificielle
- Une approche en système de management
- Un travail sur la caractérisation de la confiance
- De futures normes harmonisées en appui à l’IA Act

Pourquoi agir en normalisation sur l’intelligence artificielle ?
Pilotage d’une voiture, maniement d’une arme, épandage d’engrais ou de pesticides à la juste dose, diagnostic d’imagerie médicale, chatbots de relation client… L’intelligence artificielle est amenée à intervenir dans tous les domaines. Les systèmes qui sollicitent une IA font déjà partie de notre quotidien… Et ce n’est qu’un début.
Toute une industrie se développe dans ce secteur aux multiples applications, ce qui en fait un enjeu de souveraineté économique pour la France et l’Europe. En mai 2021, dans le cadre du Grand Défi IA, l’Etat a mandaté AFNOR pour accompagner les acteurs économiques dans l’élaboration de normes volontaires de nature à susciter la confiance envers les systèmes utilisant l’IA. Trois ans plus tôt, la normalisation volontaire avait été identifiée comme outil-clé dans ce but. Le Grand Défi IA appréhende la normalisation volontaire comme un outil générateur de confiance, en appui au Règlement européen sur l’IA (AI Act) de 2024, afin d’offrir aux concepteurs et utilisateurs de systèmes d’intelligence artificielle un diptyque cadre réglementaire + cadre normatif sécurisant pour développer et mettre sur le marché leurs solutions et produits utilisant une IA de confiance.
Visionnez également notre vidéo "Façonner un leadership européen dans l’Intelligence Artificielle : les organisations clés témoignent".

En décembre 2023, une première norme-cadre importante a été publiée : l’ISO/IEC 42001 , donnant des lignes directrices pour déployer un système de management de l’IA certifiable. Aujourd’hui, d’autres normes sont en cours d’élaboration, dont les normes harmonisées donnant présomption de conformité au règlement de l’Union européenne sur l’intelligence artificielle. La France, avec AFNOR, travaille notamment sur le projet de norme européenne « Caractérisation de la confiance pour l’IA » dans le cadre du France porte au CEN-Cenelec JTC 21, qu’elle vice-préside.
Terminologie
Management
Risques
- ISO/IEC 23894 Guidance for AI Risk management
- CEN-CENELEC « AI risk catalogue»
Caractéristiques de la confiance
- CEN-CENELEC – « Trustworthiness characterization »
- ISO-IEC standards
Qualité des données
- Série ISO/IEC 52589 « Data quality for analytics and machine learning »
Allégations de conformité
- CEN-CENELEC TR « AI Conformity assessment »
Les raisons de passer par AFNOR Normalisation
- Un moyen de réunir toutes vos parties prenantes
- L’occasion de faire entendre votre voix
- Une recherche imposée de consensus
- La poursuite de l’intérêt général
- Une étape avant la normalisation internationale

