Mercury Coder es el primer modelo de lenguaje grande de difusión (dLLM) de nivel comercial lanzado por Inception Labs, optimizado para la generación de código. Este modelo utiliza la tecnología de modelos de difusión, mediante un método de generación de 'grueso a fino', mejorando significativamente la velocidad y la calidad de la generación. Su velocidad es 5-10 veces más rápida que la de los modelos de lenguaje autorregresivos tradicionales, pudiendo alcanzar una velocidad de generación de más de 1000 tokens por segundo en hardware NVIDIA H100, al mismo tiempo que mantiene una capacidad de generación de código de alta calidad. El contexto de esta tecnología es el cuello de botella actual de los modelos de lenguaje autorregresivos en cuanto a velocidad de generación y costo de inferencia, y Mercury Coder supera esta limitación mediante la optimización de algoritmos, ofreciendo a las aplicaciones empresariales una solución más eficiente y de bajo costo.