2024 के अंतरराष्ट्रीय संगीत सूचना पुनर्प्राप्ति सम्मेलन (ISMIR) में, शोधकर्ताओं ने अपने नवीनतम विकसित MusiConGen मॉडल का प्रदर्शन किया। यह मॉडल एक Transformer-आधारित पाठ जनरेटिंग संगीत मॉडल है, जो समय-आधारित नियंत्रण तंत्र को शामिल करके संगीत की लय और हार्मनी पर नियंत्रण की क्षमता को महत्वपूर्ण रूप से बढ़ाता है।

image.png

उत्पाद प्रवेश: https://top.aibase.com/tool/musicongen

MusiConGen मॉडल पूर्व-प्रशिक्षित MusicGen-melody ढांचे के आधार पर फाइन-ट्यून किया गया है, जिसका मुख्य उद्देश्य विभिन्न शैलियों के संगीत टुकड़ों का निर्माण करना है। शोध टीम ने हार्मनी और लय के नियंत्रण पैरामीटर सेट करके, मॉडल द्वारा उत्पन्न संगीत नमूनों का प्रदर्शन किया, जो पाँच विभिन्न शैलियों को कवर करता है: आरामदायक ब्लूज़, स्मूद एसिड जैज़, क्लासिक रॉक, हाई-एनर्जी फंक और हेवी मेटल।

हर शैली के संगीत की स्पष्ट हार्मनी और लय आवश्यकताएँ होती हैं, ये डेटा RWC-pop-100 डेटाबेस से प्राप्त किए गए हैं, उत्पन्न हार्मनी का अनुमान BTC हार्मनी पहचान मॉडल द्वारा लगाया गया है।

MusiConGen के प्रभाव की पुष्टि करने के लिए, शोधकर्ताओं ने इसे बुनियादी मॉडल और फाइन-ट्यून किए गए बुनियादी मॉडल के साथ तुलना की। समान हार्मनी और लय नियंत्रण सेटिंग्स के माध्यम से, MusiConGen ने उत्पन्न संगीत नमूनों में उच्च सटीकता और शैली की स्थिरता प्रदर्शित की, जो संगीत निर्माण में इसकी तकनीकी श्रेष्ठता को दर्शाती है।

मुख्य बिंदु:

🎵 MusiConGen एक Transformer-आधारित पाठ जनरेटिंग संगीत मॉडल है, जो समय-आधारित नियंत्रण के माध्यम से लय और हार्मनी पर नियंत्रण को बढ़ाता है।

🔍 पारंपरिक मॉडल और फाइन-ट्यून मॉडल के साथ तुलना के माध्यम से, MusiConGen ने संगीत निर्माण में अपने महत्वपूर्ण सुधार को प्रदर्शित किया है।

🎸 मॉडल द्वारा उत्पन्न संगीत पाँच विभिन्न शैलियों को कवर करता है, जो विशेष हार्मनी और लय आवश्यकताओं को सटीक रूप से अनुकरण कर सकता है।