La nouvelle fonctionnalité de génération d'images du modèle 4o de ChatGPT suscite des inquiétudes en matière de sécurité, notamment en raison des progrès réalisés dans la génération de textes réalistes, qui pourraient fournir de nouveaux outils aux fraudeurs. Plusieurs utilisateurs ont déjà publié sur les réseaux sociaux des exemples de faux tickets de restaurant créés grâce à cette fonctionnalité, et ces tickets sont d'un réalisme troublant.
La venture capitalist Deedy Das a montré sur X (anciennement Twitter) un faux ticket d'un steakhouse de San Francisco généré par le modèle 4o, soulignant : « Dans le monde réel, trop de processus de vérification reposent sur des “images réelles” comme preuve. Cette époque est révolue. » D'autres utilisateurs ont reproduit des résultats similaires, certains ajoutant même des taches de nourriture pour augmenter le réalisme.
Des tests ont révélé que, bien que les tickets générés par l'IA présentent encore des défauts évidents (comme l'utilisation de virgules au lieu de points décimaux, des erreurs de calcul, etc.), ces problèmes peuvent être facilement corrigés par une simple retouche photo ou des instructions plus précises. Cette technologie simplifie le processus de falsification de tickets, ouvrant la voie à des fraudes comme la justification de fausses dépenses.
À ce sujet, Taya Christianson, porte-parole d'OpenAI, a déclaré que toutes les images générées par ChatGPT contiennent des métadonnées indiquant leur origine IA, et a affirmé que la société prendrait des « mesures » contre les violations de sa politique d'utilisation. Interrogée sur la raison pour laquelle la génération de faux tickets est autorisée, Christianson a expliqué qu'OpenAI a pour « objectif de donner aux utilisateurs le plus de liberté créative possible », soulignant que les tickets IA peuvent être utilisés dans des contextes non frauduleux, tels que l'éducation financière, la création artistique et la publicité pour des produits.