Le 1er août 2024, le règlement européen sur l'intelligence artificielle est entré en vigueur, marquant le début d'une nouvelle ère de régulation. Ce règlement révolutionnaire établira des normes et des exigences de conformité claires pour les applications d'intelligence artificielle au sein de l'Union européenne. Sa mise en œuvre représente une avancée majeure dans la gouvernance de l'IA au sein de l'UE et reflète son approche de gestion des risques.
Ce règlement prévoit des délais de conformité échelonnés pour les différents types de développeurs et d'applications d'IA. Bien que la plupart des dispositions ne soient pleinement applicables qu'à partir du milieu de l'année 2026, certaines dispositions clés entreront en vigueur dans six mois. Cela inclut l'interdiction de l'utilisation de certaines technologies d'IA dans des circonstances spécifiques, comme l'utilisation de la biométrie à distance par les forces de l'ordre dans les espaces publics.
Source : Image générée par IA, Midjourney.
Selon l'approche de gestion des risques de l'UE, les applications d'IA sont classées en fonction de leur niveau de risque. La plupart des applications courantes sont considérées comme à faible risque ou sans risque et ne sont donc pas soumises à ce règlement. Cependant, certaines applications susceptibles de présenter des dangers potentiels pour les individus et le public sont classées comme à haut risque, telles que la biométrie, la reconnaissance faciale et les logiciels médicaux basés sur l'IA. Les entreprises qui développent ces technologies d'IA à haut risque doivent garantir que leurs produits répondent à des normes strictes de gestion des risques et de la qualité, notamment en effectuant une évaluation de conformité complète et en étant potentiellement soumises à des audits des autorités de régulation.
De plus, les technologies à « risque limité », telles que les robots conversationnels, doivent satisfaire à certaines exigences de transparence pour garantir que les utilisateurs sont conscients de leur utilisation et prévenir les risques de manipulation ou de fraude.
Le règlement sur l'IA introduit également un système de sanctions graduées. Les entreprises qui enfreignent l'interdiction d'utiliser des applications d'IA à haut risque seront passibles de sanctions sévères, pouvant aller jusqu'à 7 % de leur chiffre d'affaires annuel mondial. D'autres infractions, telles que le non-respect des obligations de gestion des risques ou la fourniture d'informations incorrectes aux autorités de régulation, entraîneront des sanctions financières variables, pouvant atteindre 3 % ou 1,5 % du chiffre d'affaires annuel mondial.
Le règlement prévoit également des dispositions spécifiques pour les technologies dites d'intelligence artificielle générale (IAG). La plupart des développeurs d'IAG devront satisfaire à des obligations de transparence légères, notamment en fournissant un résumé des données d'entraînement et en respectant les règles de droit d'auteur. Seuls les modèles d'IAG les plus puissants, classés comme susceptibles de présenter des risques systémiques, nécessiteront des évaluations et des mesures d'atténuation des risques supplémentaires.
Avec l'entrée en vigueur du règlement sur l'IA, l'écosystème de l'intelligence artificielle de l'UE ouvre un nouveau chapitre. Les développeurs, les entreprises et les pouvoirs publics disposent désormais d'une feuille de route claire en matière de conformité, ce qui stimulera l'innovation et le développement du secteur de l'IA, tout en garantissant que ses applications respectent les normes éthiques et de sécurité.
Cependant, des défis persistent. Certaines dispositions spécifiques, notamment les exigences relatives aux systèmes d'IA à haut risque, sont encore en cours d'élaboration. Les organismes de normalisation européens participent activement à ce processus et devraient finaliser les normes correspondantes d'ici avril 2025.