L'Union européenne a récemment publié un premier projet de code de conduite pour les modèles d'intelligence artificielle générale (GPAI), visant à fournir aux entreprises une feuille de route pour la conformité et l'évitement d'amendes considérables. Ce document, qui sera finalisé en mai, détaille des lignes directrices pour la gestion des risques et offre aux entreprises un plan pour se conformer et éviter de lourdes sanctions.

Les GPAI sont des intelligences artificielles entraînées avec une capacité de calcul totale supérieure à 10²⁵ FLOP. Les entreprises soumises aux directives de l'UE devraient inclure OpenAI, Google, Meta, Anthropic et Mistral.

IA, intelligence artificielle, robot, 2024d9dc94358d8e

Le document aborde plusieurs domaines clés pour les développeurs de GPAI : la transparence, la conformité aux droits d'auteur, l'évaluation des risques et l'atténuation des risques techniques/de gouvernance. La réglementation souligne la transparence du développement de l'IA et exige des entreprises d'IA qu'elles fournissent des informations sur les robots d'indexation utilisés pour entraîner leurs modèles.

La partie consacrée à l'évaluation des risques vise à prévenir la cybercriminalité, les discriminations généralisées et la perte de contrôle sur l'IA. Les fabricants d'IA doivent adopter un cadre de sécurité (SSF) pour décomposer leurs politiques de gestion des risques et les atténuer en fonction des risques systémiques.

Les entreprises qui enfreignent le règlement sur l'intelligence artificielle s'exposent à de lourdes sanctions, pouvant aller jusqu'à 35 millions d'euros (soit actuellement 36,8 millions de dollars) ou 7 % du chiffre d'affaires annuel mondial, le montant le plus élevé étant retenu.

L'UE invite les parties prenantes à soumettre leurs commentaires via la plateforme Futurium dédiée avant le 28 novembre afin de contribuer à l'amélioration de la prochaine version. L'entrée en vigueur du règlement est prévue pour le 1er mai 2025.