OpenAI a révélé avoir discuté du moment de lancer un outil capable de détecter les images créées par son modèle d'IA générative d'images DALL-E. Bien que l'exactitude puisse atteindre 99 %, des inquiétudes concernant des normes de qualité non satisfaites persistent. OpenAI affirme que, compte tenu de l'importance de cet outil et des risques liés à un outil peu fiable, la question de la détection de la manipulation d'images est également débattue. OpenAI cherche à trouver un équilibre entre le développement d'un outil fiable et l'accès du public, indiquant que le classificateur fait l'objet de discussions approfondies et qu'aucun calendrier n'est encore fixé.