2024 के अंतरराष्ट्रीय संगीत सूचना पुनर्प्राप्ति सम्मेलन (ISMIR) में, शोधकर्ताओं ने अपने नवीनतम विकसित MusiConGen मॉडल का प्रदर्शन किया। यह मॉडल एक Transformer-आधारित पाठ जनरेटिंग संगीत मॉडल है, जो समय-आधारित नियंत्रण तंत्र को शामिल करके संगीत की लय और हार्मनी पर नियंत्रण की क्षमता को महत्वपूर्ण रूप से बढ़ाता है।
उत्पाद प्रवेश: https://top.aibase.com/tool/musicongen
MusiConGen मॉडल पूर्व-प्रशिक्षित MusicGen-melody ढांचे के आधार पर फाइन-ट्यून किया गया है, जिसका मुख्य उद्देश्य विभिन्न शैलियों के संगीत टुकड़ों का निर्माण करना है। शोध टीम ने हार्मनी और लय के नियंत्रण पैरामीटर सेट करके, मॉडल द्वारा उत्पन्न संगीत नमूनों का प्रदर्शन किया, जो पाँच विभिन्न शैलियों को कवर करता है: आरामदायक ब्लूज़, स्मूद एसिड जैज़, क्लासिक रॉक, हाई-एनर्जी फंक और हेवी मेटल।
हर शैली के संगीत की स्पष्ट हार्मनी और लय आवश्यकताएँ होती हैं, ये डेटा RWC-pop-100 डेटाबेस से प्राप्त किए गए हैं, उत्पन्न हार्मनी का अनुमान BTC हार्मनी पहचान मॉडल द्वारा लगाया गया है।
MusiConGen के प्रभाव की पुष्टि करने के लिए, शोधकर्ताओं ने इसे बुनियादी मॉडल और फाइन-ट्यून किए गए बुनियादी मॉडल के साथ तुलना की। समान हार्मनी और लय नियंत्रण सेटिंग्स के माध्यम से, MusiConGen ने उत्पन्न संगीत नमूनों में उच्च सटीकता और शैली की स्थिरता प्रदर्शित की, जो संगीत निर्माण में इसकी तकनीकी श्रेष्ठता को दर्शाती है।
मुख्य बिंदु:
🎵 MusiConGen एक Transformer-आधारित पाठ जनरेटिंग संगीत मॉडल है, जो समय-आधारित नियंत्रण के माध्यम से लय और हार्मनी पर नियंत्रण को बढ़ाता है।
🔍 पारंपरिक मॉडल और फाइन-ट्यून मॉडल के साथ तुलना के माध्यम से, MusiConGen ने संगीत निर्माण में अपने महत्वपूर्ण सुधार को प्रदर्शित किया है।
🎸 मॉडल द्वारा उत्पन्न संगीत पाँच विभिन्न शैलियों को कवर करता है, जो विशेष हार्मनी और लय आवश्यकताओं को सटीक रूप से अनुकरण कर सकता है।