Un análisis de artículos científicos de la última década revela que los investigadores han descubierto el uso indebido de ciertos términos "estilísticos" por parte de modelos de inteligencia artificial, palabras que apenas se utilizaban hace unos años.

En un nuevo estudio aún no revisado por pares, los investigadores emplearon un método novedoso, similar a la epidemiología, para analizar el "uso excesivo de vocabulario" en artículos biomédicos y así revelar el abuso frecuente de ciertas palabras por parte de los grandes modelos de lenguaje. Los resultados ofrecen interesantes perspectivas sobre el impacto de la IA en el mundo académico, sugiriendo que al menos el 10% de los resúmenes fueron procesados con grandes modelos de lenguaje en 2024.

Nota de la imagen: Imagen generada por IA, servicio de licencias de imágenes Midjourney

Este estudio se basa en un amplio análisis de 14 millones de resúmenes biomédicos publicados en PubMed entre 2010 y 2024. Los investigadores utilizaron artículos publicados antes de 2023 como referencia y los compararon con artículos publicados tras la comercialización generalizada de grandes modelos de lenguaje como ChatGPT. Descubrieron que algunos términos antes considerados "poco comunes", como "profundo", ahora se utilizan con una frecuencia 25 veces mayor que en el pasado, mientras que otros términos, como "mostrar" y "destacar", muestran un aumento similar. Sin embargo, algunos términos "comunes" también aumentaron: palabras como "potencial", "descubrimiento" y "clave" aumentaron su frecuencia de uso hasta en un 4%.

Los investigadores señalan que este aumento significativo es prácticamente sin precedentes sin la explicación de algún evento global urgente. Observaron que entre 2013 y 2023, el vocabulario excesivo incluía sustantivos estrechamente relacionados con eventos reales, como "Ébola", "coronavirus" y "confinamiento". Sin embargo, en 2024, el vocabulario excesivo consistía casi exclusivamente en términos "estilísticos". Cuantitativamente, de los 280 términos "estilísticos" excesivos de 2024, dos tercios eran verbos y aproximadamente una quinta parte eran adjetivos.

Utilizando estos términos estilísticos excesivos como "marcadores" del uso de ChatGPT, los investigadores estiman que aproximadamente el 15% de los artículos publicados en países no angloparlantes como China, Corea y Taiwán son ahora procesados por inteligencia artificial, mientras que en países de habla inglesa como el Reino Unido, esta proporción es del 3%. Por lo tanto, los grandes modelos de lenguaje pueden ser una herramienta eficaz para que los hablantes no nativos alcancen el éxito en un campo dominado por el inglés.

Puntos clave:

🔍  Mediante el análisis de artículos biomédicos, los investigadores descubrieron el uso indebido de ciertos términos "estilísticos" por parte de modelos de inteligencia artificial, palabras que apenas se utilizaban hace unos años.

🔍  La comercialización generalizada de grandes modelos de lenguaje ha provocado un aumento significativo en la frecuencia de uso de ciertas palabras, lo que indica que el impacto de la inteligencia artificial en el mundo académico podría ser sin precedentes.

🔍  En los artículos publicados en países no angloparlantes, la proporción de artículos procesados por inteligencia artificial llega a aproximadamente el 15%, lo que demuestra que los grandes modelos de lenguaje pueden ser una herramienta eficaz para que los hablantes no nativos alcancen el éxito en un campo dominado por el inglés.