OpenAI est confronté à un dilemme complexe : comment lutter contre la tricherie des étudiants utilisant ChatGPT ? Bien que la société ait mis au point une méthode fiable pour détecter les articles ou rapports de recherche rédigés par ChatGPT, cette technologie n’a pas encore été rendue publique en raison des préoccupations généralisées concernant la fraude étudiante assistée par l’IA.

OpenAI a réussi à développer une technologie fiable pour détecter le contenu généré par ChatGPT. Cette technologie, qui intègre un « filigrane » dans les textes générés par l’IA, atteint un taux de précision de 99,9 %. Paradoxalement, cette technologie, qui pourrait résoudre un problème urgent, n’a toujours pas été rendue publique. Selon des sources internes, ce projet fait l’objet de débats au sein d’OpenAI depuis près de deux ans, et était prêt à être lancé il y a un an.

OpenAI, intelligence artificielle, IA

Plusieurs facteurs complexes entravent la publication de cette technologie. Tout d’abord, OpenAI est confronté à un dilemme : respecter son engagement en matière de transparence ou préserver la fidélité de ses utilisateurs ? Une enquête interne a révélé qu’environ un tiers des utilisateurs fidèles de ChatGPT s’opposaient à la technologie anti-fraude. Ce chiffre exerce une pression considérable sur les décisions de l’entreprise.

Ensuite, OpenAI craint que cette technologie n’ait un impact négatif disproportionné sur certains groupes, notamment les personnes dont l’anglais n’est pas la langue maternelle. Cette préoccupation reflète un problème central de l’éthique de l’IA : comment garantir l’équité et l’inclusion des technologies de l’IA ?

Parallèlement, le besoin de cette technologie dans le milieu éducatif est de plus en plus urgent. Selon une enquête du Center for Democracy & Technology, 59 % des professeurs de collège et de lycée sont convaincus que leurs élèves utilisent déjà l’IA pour faire leurs devoirs, soit une augmentation de 17 points de pourcentage par rapport à l’année scolaire précédente. Les enseignants ont désespérément besoin d’outils pour relever ce défi et préserver l’intégrité académique.

L’hésitation d’OpenAI a suscité des controverses internes. Les employés qui soutiennent la publication de l’outil estiment que les préoccupations de l’entreprise sont négligeables par rapport aux importants bénéfices sociaux que cette technologie pourrait apporter. Ce point de vue met en lumière la tension entre le développement technologique et la responsabilité sociale.

La technologie elle-même présente également des problèmes potentiels. Malgré un taux de précision élevé, certains employés craignent que le filigrane puisse être facilement supprimé par des moyens techniques simples, tels que des logiciels de traduction ou une édition manuelle. Cette préoccupation reflète les défis auxquels sont confrontées les technologies de l’IA dans leurs applications concrètes.

De plus, le contrôle de la portée d’utilisation de cette technologie est un problème épineux. Une portée trop limitée réduirait son utilité, tandis qu’une portée trop large pourrait conduire à son piratage. Cet équilibre nécessite une conception et une gestion minutieuses.

Il est à noter que d’autres géants de la technologie travaillent également dans ce domaine. Google a développé SynthID, un outil de filigrane pour détecter les textes générés par son IA Gemini, bien qu’il soit encore en phase de test. Cela reflète l’importance accordée par l’ensemble du secteur de l’IA à la vérification de l’authenticité du contenu.

OpenAI a également priorisé le développement de technologies de filigranes audio et visuels, notamment en cette année électorale américaine. Cette décision souligne que les entreprises d’IA doivent tenir compte des impacts sociaux plus larges dans le développement de leurs technologies.

Références : https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink