LLaVA
Großes Sprach- und Visualisierungsmodell für multimodale Chats und wissenschaftliche Fragestellungen
Normales ProduktBildMultimodalChat
LLaVA ist ein neuartiges, end-to-end trainiertes großes multimodales Modell. Es kombiniert einen visuellen Encoder mit Vicuna und ermöglicht so beeindruckende Chat-Fähigkeiten. Es orientiert sich am Ansatz von multimodalem GPT-4 und erzielt neue Höchstwerte bei der Genauigkeit in der wissenschaftlichen Fragebeantwortung. LLaVA findet Anwendung in multimodalen Chats für alltägliche Nutzeranwendungen und in der multi-modalen Inferenz im wissenschaftlichen Bereich. Daten, Code und Checkpoints von LLaVA sind ausschließlich für Forschungszwecke bestimmt und unterliegen den Lizenzvereinbarungen von CLIP, LLaMA, Vicuna und GPT-4.
LLaVA Neueste Verkehrssituation
Monatliche Gesamtbesuche
80956
Absprungrate
52.28%
Durchschnittliche Seiten pro Besuch
1.2
Durchschnittliche Besuchsdauer
00:00:34