हाल ही में, गूगल ने नया ओपन-सोर्स AI मॉडल DataGemma लॉन्च करने की घोषणा की, जिसका उद्देश्य बड़े भाषा मॉडल (LLM) द्वारा सांख्यिकीय डेटा को संसाधित करते समय अक्सर उत्पन्न होने वाली "भ्रम" की समस्या को हल करना है।
यह भ्रम घटना मॉडल को संख्याओं और सांख्यिकीय प्रश्नों का उत्तर देते समय गलत उत्तर देने की संभावना बनाती है। DataGemma मॉडल का लॉन्च गूगल के AI क्षेत्र में एक महत्वपूर्ण प्रगति का प्रतीक है।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney
सांख्यिकीय प्रश्नों में भ्रम को कम करना
DataGemma दो विभिन्न विधियों से बना है, जिसका उद्देश्य उपयोगकर्ता के प्रश्नों का उत्तर देते समय सटीकता को बढ़ाना है। ये मॉडल गूगल के डेटा साझाकरण प्लेटफॉर्म Data Commons के विशाल वास्तविक दुनिया के डेटा पर आधारित हैं, जिसमें 2400 अरब से अधिक डेटा बिंदु शामिल हैं, जो अर्थव्यवस्था, विज्ञान, स्वास्थ्य आदि के क्षेत्रों की जानकारी को कवर करते हैं। यह मॉडल को ठोस तथ्यात्मक आधार प्रदान करता है।
ये दोनों नए मॉडल अकादमिक और अनुसंधान उपयोग के लिए Hugging Face पर उपलब्ध हैं, और ये मौजूदा Gemma श्रृंखला के ओपन मॉडल पर आधारित हैं, जो अपने उत्तरों के लिए गूगल द्वारा निर्मित Data Commons प्लेटफॉर्म के विशाल वास्तविक डेटा का उपयोग करते हैं। यह सार्वजनिक प्लेटफॉर्म एक ओपन नॉलेज ग्राफ प्रदान करता है, जिसमें 2400 अरब से अधिक डेटा बिंदु शामिल हैं, जो अर्थव्यवस्था, विज्ञान, स्वास्थ्य और अन्य क्षेत्रों के विश्वसनीय संगठनों से हैं।
मॉडल लिंक: https://huggingface.co/collections/google/datagemma-release-66df7636084d2b150a4e6643
गूगल के शोधकर्ताओं ने कहा कि उन्होंने मॉडल के भ्रम की घटना का कई पहलुओं से अन्वेषण किया है, यह जानने की कोशिश की है कि इस समस्या का कारण क्या है। पारंपरिक मॉडल कभी-कभी तार्किक और अंकगणितीय प्रश्नों को संसाधित करते समय प्रभावी नहीं होते हैं, और सार्वजनिक सांख्यिकीय डेटा अक्सर विविध प्रारूपों में होता है, जिससे इसे समझना कठिन हो जाता है।
इन समस्याओं को हल करने के लिए, गूगल के शोधकर्ताओं ने दो नई विधियों को जोड़ा। पहली विधि को "रिक्ति पारस्परिक निर्माण" (RIG) कहा जाता है, जो मॉडल द्वारा उत्पन्न उत्तरों और Data Commons में संबंधित सांख्यिकीय जानकारी की तुलना करके सटीकता बढ़ाती है। इसके लिए, फ़ाइन-ट्यून LLM प्राकृतिक भाषा में मूल उत्पन्न LLM मान का वर्णन करने वाले प्रश्न उत्पन्न करता है। प्रश्न तैयार होने के बाद, मल्टी-मॉडल पोस्ट-प्रोसेसिंग पाइपलाइन इसे संरचित डेटा प्रश्न में परिवर्तित करती है और इसे Data Commons से संबंधित सांख्यिकीय उत्तर प्राप्त करने के लिए चलाती है, और LLM द्वारा उत्पन्न उत्तर को वापस लाती है या सुधारती है, और संबंधित संदर्भ के साथ।
दूसरी विधि को "रिक्ति संवर्धित निर्माण" (RAG) कहा जाता है, जो मॉडल को मूल सांख्यिकीय प्रश्न के आधार पर संबंधित चर निकालने और प्राकृतिक भाषा प्रश्न बनाने की अनुमति देती है, फिर Data Commons से संबंधित डेटा प्राप्त करती है। इस मामले में, फ़ाइन-ट्यून Gemma मॉडल मूल सांख्यिकीय प्रश्न का उपयोग करके संबंधित चर निकालता है और Data Commons के लिए प्राकृतिक भाषा प्रश्न उत्पन्न करता है। फिर डेटाबेस पर प्रश्न चलाया जाता है ताकि संबंधित सांख्यिकीय जानकारी/तालिका प्राप्त की जा सके। मान निकालने के बाद, उन्हें मूल उपयोगकर्ता प्रश्न के साथ लंबे संदर्भ LLM (इस मामले में Gemini1.5Pro) को उच्च सटीकता के साथ अंतिम उत्तर उत्पन्न करने के लिए प्रेरित करने के लिए उपयोग किया जाता है।
सटीकता में महत्वपूर्ण सुधार
प्रारंभिक परीक्षणों में, RIG विधि का उपयोग करते हुए DataGemma मॉडल ने बेसलाइन मॉडल की तथ्यात्मक सटीकता को 5-17% से बढ़ाकर लगभग 58% कर दिया है। जबकि RAG विधि का प्रभाव थोड़ी कम है, फिर भी यह बेसलाइन मॉडल से बेहतर है।
डेटा से पता चलता है कि DataGemma 24-29% सांख्यिकीय प्रश्नों का सही उत्तर दे सकता है, और संख्यात्मक सटीकता में यह 99% तक पहुंचता है, लेकिन सही निष्कर्ष निकालने में 6 से 20% की गलती दर बनी हुई है।
गूगल DataGemma के लॉन्च के माध्यम से संबंधित अनुसंधान को आगे बढ़ाने की आशा करता है और भविष्य के Gemma और Gemini मॉडलों के लिए एक मजबूत आधार तैयार करता है। गूगल का शोध जारी रहेगा, और उम्मीद है कि कड़े परीक्षण के बाद इन सुधारों को अधिक मॉडलों में शामिल किया जाएगा।
मुख्य बिंदु:
🌟 गूगल ने DataGemma मॉडल लॉन्च किया, जिसका उद्देश्य सांख्यिकीय प्रश्नों में AI की गलतियों को कम करना है।
📊 DataGemma गूगल के डेटा साझाकरण प्लेटफॉर्म का उपयोग करके मॉडल के उत्तरों की सटीकता बढ़ाता है।
🔍 प्रारंभिक परीक्षणों से पता चलता है कि DataGemma सांख्यिकीय प्रश्नों की सटीकता में महत्वपूर्ण वृद्धि करता है।