Im Bereich Musik- und Sounddesign stehen Technologie und Kreativität oft vor großen Herausforderungen. Bestehende KI-Modelle sind meist auf spezifische Aufgaben spezialisiert und mangeln an allgemeiner Anwendbarkeit, wodurch ihre Unterstützung bei der Musikproduktion eingeschränkt ist. Um KI besser für die Musik- und Audioproduktion nutzbar zu machen, wird ein universelles Modell benötigt, das flexibel auf verschiedene kreative Anforderungen eingehen kann. Aus diesem Grund hat NVIDIA Fugatto vorgestellt, ein Audiogenerierungs- und -verarbeitungsmodell mit 2,5 Milliarden Parametern.

image.png

Fugatto wurde entwickelt, um durch die Kombination von Textprompts und fortschrittlicher Audiosynthese hohe Flexibilität bei der Soundeingabe und kreativen Experimentiermöglichkeiten zu bieten. Es kann beispielsweise eine Klaviermelodie in Gesang umwandeln oder einer Trompete unerwartete Klänge entlocken.

image.png

Fugatto unterstützt nicht nur Texteingaben, sondern auch optionale Audioeingaben. Dies überwindet die Grenzen traditioneller Audiogenerierungsmodelle und ermöglicht es Künstlern und Entwicklern, in Echtzeit zu kreieren und zu bearbeiten und nahtlos neue Klangtypen zu generieren.

Technisch gesehen verwendet Fugatto eine innovative Datengenerierungsmethode, die über traditionelles überwachtes Lernen hinausgeht. Sein Training basiert nicht nur auf herkömmlichen Datensätzen, sondern auch auf speziell generierten Datensätzen, um eine große Vielfalt an Audio- und Transformationsaufgaben zu ermöglichen. Darüber hinaus nutzt Fugatto große Sprachmodelle (LLMs), um die Fähigkeit zur Anweisungsgenerierung zu verbessern und die Beziehung zwischen Audio- und Textprompts besser zu verstehen.

image.png

Eine wichtige Innovation ist die „komponierbare Audiorepräsentations-Transformation“ (ComposableART), eine Inferenztechnik, die es ermöglicht, verschiedene Audiogenerierungsanweisungen flexibel zu kombinieren, zu interpolieren oder zu negieren. ComposableART gibt Benutzern mehr Kontrolle über den Audiosyntheseprozess und ermöglicht die präzise Navigation der Klangpalette von Fugatto, um einzigartige Klangphänomene zu erzeugen.

Die Architektur von Fugatto basiert auf einem verbesserten Transformer-Modell mit spezifischen Modifikationen wie adaptiver Layer-Normierung, um unter verschiedenen Eingabebedingungen Konsistenz zu gewährleisten und komplexe kombinierte Anweisungen zu unterstützen. Erste Tests zeigen, dass Fugatto in gängigen Benchmark-Tests gut abschneidet, insbesondere in Bezug auf Audiosynthese und -transformation, und im Vergleich zu anderen professionellen Modellen eine höhere Leistungsfähigkeit aufweist.

Die Einführung von Fugatto markiert einen wichtigen Fortschritt in der Audiogenerierung mit KI, überwindet traditionelle Grenzen und bietet ein leistungsstarkes und flexibles Werkzeug für die kreative Audioproduktion. Seine potenziellen Anwendungen in Musik, Spielen, Unterhaltung und Bildung bedeuten, dass KI-Technologie weiterhin eine wichtige Rolle bei der Unterstützung menschlicher Kreativität spielen wird.

Offizieller Blog: https://blogs.nvidia.com/blog/fugatto-gen-ai-sound-model/

Fachartikel: https://d1qx31qr3h6wln.cloudfront.net/publications/FUGATTO.pdf

Wichtigste Punkte:

🎵 Fugatto ist ein von NVIDIA entwickeltes Audio-KI-Modell mit 2,5 Milliarden Parametern, das Text- und Audioeingaben unterstützt und die Musik- und Soundgestaltung unterstützt.

💻 Es verwendet eine innovative Datengenerierungsmethode und die komponierbare Audiorepräsentations-Transformation, die es Benutzern ermöglicht, Sounds flexibel zu generieren und zu modifizieren.

🌟 Erste Tests zeigen, dass Fugatto in der Audiosynthese und -transformation besser abschneidet als viele professionelle Modelle und sein starkes kreatives Potenzial unter Beweis stellt.