En la Conferencia Internacional de Recuperación de Información Musical (ISMIR) de 2024, los investigadores presentaron su último modelo desarrollado, MusiConGen. Este modelo, basado en el Transformer para generar música a partir de texto, mejora significativamente el control del ritmo y los acordes musicales mediante la introducción de un mecanismo de condicionamiento temporal.
Acceso al producto: https://top.aibase.com/tool/musicongen
El modelo MusiConGen se ha ajustado finamente sobre la base del marco preentrenado MusicGen-melody, y se utiliza principalmente para generar fragmentos musicales de diversos estilos. El equipo de investigación, mediante la configuración de parámetros de control de acordes y ritmo, mostró muestras de música generada por el modelo, que abarcan cinco estilos diferentes: blues relajado, smooth acid jazz, rock clásico, funk enérgico y heavy metal.
Cada estilo musical tiene requisitos claros de acordes y ritmo, estos datos provienen de la base de datos RWC-pop-100, y los acordes generados se estiman mediante el modelo de reconocimiento de acordes BTC.
Para verificar la eficacia de MusiConGen, los investigadores lo compararon con un modelo de referencia y un modelo de referencia ajustado. Con la misma configuración de control de acordes y ritmo, MusiConGen mostró una mayor precisión y coherencia de estilo en las muestras de música generadas, lo que demuestra su ventaja tecnológica en la generación de música.
Puntos clave:
🎵 MusiConGen es un modelo de generación de música a partir de texto basado en Transformer, que puede mejorar el control del ritmo y los acordes mediante el condicionamiento temporal.
🔍 En comparación con los modelos tradicionales y los modelos ajustados, MusiConGen muestra una mejora significativa en la generación de música.
🎸 La música generada por el modelo abarca cinco estilos diferentes y puede simular con precisión los requisitos específicos de acordes y ritmo.