Récemment, OpenAI a mis en garde contre l'utilisation de son modèle d'intelligence artificielle ChatGPT par des cybercriminels pour diverses activités malveillantes, notamment le développement de logiciels malveillants, la diffusion de fausses informations et des attaques de phishing.
Selon un nouveau rapport, depuis début 2024, OpenAI est intervenu dans plus de 20 opérations frauduleuses à l'échelle mondiale, révélant une tendance inquiétante d'abus de l'IA. Ces activités incluent non seulement le débogage de logiciels malveillants, mais aussi la rédaction de contenu pour de faux comptes de médias sociaux et la génération d'informations de phishing attrayantes.
OpenAI affirme que sa mission est de garantir que ces outils servent l'intérêt commun de l'humanité. L'entreprise s'engage donc à détecter, prévenir et combattre les abus de son modèle. Particulièrement en cette année électorale, OpenAI souligne l'importance de mettre en place un système de défense multicouche robuste pour contrer les cyberattaques liées à des États et les opérations d'influence insidieuses. Ces opérations pourraient exploiter son modèle pour diffuser de la propagande sur les médias sociaux, entre autres plateformes.
Le rapport indique également qu'OpenAI a continué à intervenir dans diverses activités après son rapport sur les menaces de mai 2024, notamment le débogage de logiciels malveillants, la rédaction d'articles de sites web et la génération de faux contenus sur les médias sociaux. La complexité de ces actions variait, allant de simples demandes de génération de contenu à des actions complexes d'analyse et de réponse sur les médias sociaux en plusieurs étapes. Un cas était même lié à la diffusion de fausses informations utilisant l'IA.
Pour mieux comprendre comment les cybercriminels utilisent l'IA, OpenAI a analysé ces activités faisant l'objet d'une intervention, identifiant des tendances préliminaires qui, selon elle, pourraient fournir des informations importantes pour la discussion sur l'IA dans un contexte de menaces plus large.
L'analyse d'OpenAI mentionne que l'IA offre aux défenseurs de puissantes capacités pour identifier et analyser les comportements suspects. Bien que le processus d'enquête nécessite toujours le jugement et l'expertise humains, ces nouveaux outils ont permis à OpenAI de réduire certains temps d'analyse de plusieurs jours à quelques minutes. De plus, les cybercriminels utilisent généralement les modèles d'OpenAI pour les étapes intermédiaires de leurs activités après avoir obtenu les outils de base, ne publiant sur Internet que le « produit fini ».
Bien que les cybercriminels continuent d'évoluer et d'expérimenter l'utilisation des modèles d'OpenAI, rien n'indique pour le moment qu'ils aient réalisé des percées significatives dans la création de nouveaux logiciels malveillants ou la constitution d'un public viral. En fait, concernant les contenus liés aux élections cette année, les activités frauduleuses détectées par OpenAI n'ont pas suscité d'interactions importantes sur les médias sociaux ni d'attention soutenue.
À l'avenir, OpenAI continuera de collaborer avec ses équipes de renseignement, d'enquête, de recherche en sécurité et de politique pour anticiper comment les acteurs malveillants pourraient utiliser les modèles avancés pour des activités nuisibles et planifier en conséquence les actions d'application de la loi. Ils ont indiqué qu'ils partageraient leurs découvertes avec les équipes de sécurité internes, collaboreraient avec les parties prenantes et travailleraient avec leurs pairs de l'industrie et le monde de la recherche pour faire face aux risques émergents et maintenir la sécurité collective.
Points clés :
📌 OpenAI a découvert que des cybercriminels utilisaient ChatGPT pour développer des logiciels malveillants et diffuser de fausses informations.
🔒 Depuis début 2024, OpenAI est intervenu avec succès dans plus de 20 opérations frauduleuses, protégeant ainsi la cybersécurité.
🤖 Bien que les modèles d'IA soient victimes d'abus, ils n'ont pas encore permis aux cybercriminels d'améliorer significativement leurs capacités de création de logiciels malveillants.