Récemment, le Wall Street Journal a rapporté qu'OpenAI, une entreprise d'intelligence artificielle, avait développé un outil capable d'identifier avec précision les textes générés par ChatGPT, mais qu'il n'avait pas encore été officiellement lancé. OpenAI a répondu en confirmant qu'elle travaillait sur une technologie de filigrane textuel, mais a reconnu que cette technologie présentait de nombreux défis.
Selon les informations, OpenAI prévoit d'utiliser la technologie de filigrane textuel pour se concentrer sur la détection de textes provenant de ChatGPT, et non sur ceux générés par les modèles d'autres entreprises. Cette technologie apportera de légères modifications à la manière dont ChatGPT choisit les mots, créant ainsi un "filigrane" invisible dans le texte, détectable par un outil spécialisé.
OpenAI précise que le filigrane textuel n'est qu'une des solutions qu'elle explore, les autres incluant des classificateurs et des métadonnées, visant à déterminer l'origine du texte. Bien que la technologie de filigrane textuel se soit avérée efficace dans certains cas, son efficacité diminue face à des manipulations telles que la traduction, la réécriture ou l'insertion de caractères spéciaux. De plus, cette technologie pourrait avoir un impact disproportionné sur certains groupes, comme les personnes dont l'anglais n'est pas la langue maternelle.
Compte tenu de ces facteurs complexes et de leur impact potentiel sur l'ensemble de l'écosystème, OpenAI déclare qu'elle procédera avec prudence à la recherche de technologies de traçabilité des textes et qu'elle privilégiera le développement d'outils d'authentification pour les contenus audiovisuels.
Cette décision a suscité un large débat au sein de l'industrie sur l'identification et la gestion des contenus générés par l'IA. Avec le développement rapide de l'IA, la question de trouver un équilibre entre la protection de l'innovation et la prévention des risques est devenue un enjeu majeur pour tous.