Mercury Coder é o primeiro modelo de linguagem grande de difusão (dLLM) de nível comercial lançado pela Inception Labs, otimizado para geração de código. O modelo emprega a tecnologia de modelo de difusão, usando um método de geração 'de grosso a fino' para melhorar significativamente a velocidade e a qualidade da geração. Sua velocidade é 5 a 10 vezes mais rápida do que os modelos de linguagem autoregressivos tradicionais, podendo atingir mais de 1000 tokens por segundo em hardware NVIDIA H100, mantendo ao mesmo tempo alta qualidade na geração de código. O contexto dessa tecnologia é o gargalo atual dos modelos de linguagem autoregressivos em termos de velocidade de geração e custo de inferência, e o Mercury Coder supera essa limitação por meio de otimização de algoritmos, fornecendo soluções mais eficientes e econômicas para aplicações corporativas.