LLaVA-o1
दृश्य भाषा मॉडल जो चरणबद्ध तर्क कर सकता है
सामान्य उत्पादउत्पादकतादृश्य भाषा मॉडलचरणबद्ध तर्क
LLaVA-o1 बीजिंग विश्वविद्यालय की टुपल टीम द्वारा विकसित एक दृश्य भाषा मॉडल है, जो GPT-o1 के समान, स्वतःस्फूर्त और व्यवस्थित रूप से तर्क कर सकता है। इस मॉडल ने छह चुनौतीपूर्ण बहु-मोडल बेंचमार्क में अन्य मॉडलों, जिनमें Gemini-1.5-pro, GPT-4o-mini और Llama-3.2-90B-Vision-Instruct शामिल हैं, को पीछे छोड़ दिया है। LLaVA-o1 समस्याओं को चरणबद्ध तर्क द्वारा हल करता है, जो दृश्य भाषा मॉडल में इसकी अनूठी ताकत को दर्शाता है।
LLaVA-o1 नवीनतम ट्रैफ़िक स्थिति
मासिक कुल विज़िट
474564576
बाउंस दर
36.20%
प्रति विज़िट औसत पृष्ठ
6.1
औसत विज़िट अवधि
00:06:34