Avec le développement fulgurant de l'intelligence artificielle, de nombreuses entreprises lancent leurs propres systèmes « agents IA ». Ces agents peuvent interagir de manière autonome avec leur environnement et effectuer des tâches sans intervention humaine. Des entreprises comme Microsoft et Anthropic ont déjà lancé leurs agents IA, mais le leader du secteur, OpenAI, tarde à sortir sa propre version, ce qui soulève des questions.

ChatGPT (4)OpenAI Intelligence Artificielle

Selon The Information, le retard d'OpenAI serait lié aux attaques par « injection de prompts ». Ce type d'attaque peut inciter un modèle IA à suivre les instructions d'un attaquant malveillant. Par exemple, si un utilisateur demande à son agent IA de rechercher et d'acheter des articles en ligne, l'IA pourrait accidentellement accéder à un site web malveillant qui lui ordonnerait d'oublier ses instructions précédentes, voire de se connecter à la boîte mail de l'utilisateur et de voler ses informations de carte bancaire. Cela pourrait avoir des conséquences désastreuses pour l'utilisateur et gravement nuire à la réputation d'OpenAI.

Étant donné que les agents IA peuvent manipuler les ordinateurs de manière autonome, ils présentent des risques de sécurité accrus. Si ces agents sont piratés, ils pourraient causer des dommages bien plus importants aux fichiers et aux données des utilisateurs. Un employé d'OpenAI a déclaré que bien que tout grand modèle linguistique (LLM) puisse être potentiellement attaqué, l'autonomie des agents IA aggrave ce risque.

Le risque d'injection de prompts a déjà été largement démontré sur d'autres plateformes. L'année dernière, un chercheur en sécurité a montré comment le Copilot IA de Microsoft pouvait être facilement manipulé pour divulguer des données sensibles d'une organisation, notamment des emails et des relevés bancaires. De plus, le chercheur a réussi à manipuler Copilot pour qu'il rédige des emails dans le style d'autres employés.

ChatGPT d'OpenAI lui-même a subi des attaques par injection de prompts. Un chercheur a réussi à implanter de faux « souvenirs » en téléchargeant des fichiers tiers (comme des documents Word). Dans ce contexte, les employés d'OpenAI se disent surpris de la « légèreté » avec laquelle Anthropic a lancé son agent IA. Anthropic a simplement conseillé aux développeurs de « prendre des mesures pour isoler Claude des données sensibles », sans mettre en place de mesures de sécurité plus rigoureuses.

Il est rapporté qu'OpenAI pourrait lancer son logiciel d'agent ce mois-ci. Cependant, on peut se demander si le temps gagné par l'équipe de développement a été suffisant pour mettre en place une protection sécuritaire plus robuste pour son produit.

Points clés :

🌐 OpenAI retarde le lancement de son agent IA par crainte des attaques par « injection de prompts », dont les risques potentiels sont importants.   

💻 D'autres entreprises comme Microsoft et Anthropic ont déjà lancé des agents IA, mais les risques de sécurité restent importants.   

🔒 OpenAI travaille à renforcer la sécurité de son produit afin de prévenir les fuites de données potentielles.