Récemment, OpenAI a publié une nouvelle politique sur son site officiel, indiquant que certains futurs modèles d'intelligence artificielle nécessiteront une vérification d'identité des organisations pour y accéder. Ce processus de vérification, appelé « organisation vérifiée », vise à permettre aux développeurs d'accéder aux modèles et fonctionnalités les plus avancés de la plateforme OpenAI, améliorant ainsi la sécurité et le contrôle des technologies d'IA.

QQ20250414-102434.png

Selon cette politique, les organisations devront fournir une pièce d'identité délivrée par le gouvernement national ou régional et prise en charge par l'API OpenAI pour effectuer la vérification. Il est important de noter que chaque pièce d'identité ne peut vérifier qu'une seule organisation tous les 90 jours, et que toutes les organisations ne sont pas éligibles à cette vérification. OpenAI a déclaré : « Chez OpenAI, nous prenons nos responsabilités au sérieux pour garantir l'accessibilité et l'utilisation sûre de l'intelligence artificielle. » L'entreprise est également consciente que quelques développeurs pourraient utiliser abusivement son API et enfreindre sa politique d'utilisation. Par conséquent, la mise en place d'une procédure de vérification vise à réduire l'utilisation non sécurisée de l'IA et à continuer de fournir des technologies de pointe à la vaste communauté des développeurs.

Avec l'augmentation de la complexité et de la puissance des produits OpenAI, ce nouveau processus de vérification est considéré comme une mesure nécessaire pour renforcer la sécurité de ses produits. La société a publié plusieurs rapports détaillant comment elle détecte et réduit l'utilisation malveillante des modèles, y compris une enquête récente concernant certains groupes originaires de Corée du Nord. De plus, cette politique pourrait également viser à prévenir le vol de propriété intellectuelle. Bloomberg a rapporté qu'OpenAI enquêtait sur une organisation liée au laboratoire chinois d'intelligence artificielle DeepSeek, qui aurait potentiellement volé une grande quantité de données via son API fin 2024 pour entraîner ses modèles, ce qui constitue une violation claire des conditions d'OpenAI. Il est à noter qu'OpenAI avait déjà suspendu l'accès à ses services en Chine continentale, à Hong Kong et à Macao l'été dernier.

Le lancement de ces mesures marque une étape importante pour OpenAI, qui renforce la régulation de l'utilisation de ses technologies tout en favorisant le développement sain de l'IA. Cela garantit que les développeurs peuvent mieux utiliser ces technologies de pointe dans le respect des lois et des réglementations.