2025-03-07 11:46:52.AIbase.
智源推出 BGE-VL 多模态向量模型,开启检索新纪元
2025-03-06 14:46:43.AIbase.
Percée dans la recherche multimodale ! Modèle de vecteur multimodal BGE-VL open source par l'Institut de recherche sur l'IA de Beijing
2025-02-28 17:16:20.AIbase.
Netflix recrute des scientifiques et ingénieurs en apprentissage automatique pour stimuler l'intelligence du contenu
2025-02-26 09:13:48.AIbase.
Microsoft open-source un nouvel agent IA multi-modal « Magma » : passation de commandes automatique et prédiction comportementale
2025-02-21 15:58:33.AIbase.
Lancement sur ModelScope d'Alibaba Cloud des deux nouveaux modèles multimodaux open source de Step-by-Step
2025-02-20 08:55:26.AIbase.
Partenariat multi-modal entre ZhiShu QingYing et la plateforme de création de personnages IA "Nie Ta" pour une meilleure cohérence des propriétés intellectuelles
2025-02-10 11:04:17.AIbase.
Meta AI lance MILS, un système permettant aux LLMs de traiter les données multimédias sans formation spécifique
2025-02-10 09:46:56.AIbase.
Petit mais puissant ! Microsoft lance LLaVA-Rad, un modèle miniature pour la génération précise de rapports de radiologie
2025-01-15 11:43:52.AIbase.
OpenBMB publie le modèle multi-modal MiniCPM-o2.6 : traitement visuel et vocal possible même sur téléphone portable
2025-01-08 17:12:51.AIbase.
Hu Han, ancien expert en vision chez Microsoft, rejoint Tencent pour diriger la recherche sur les grands modèles multimodaux
2025-01-06 09:18:36.AIbase.
ScreenSpot-Pro : outil de référence LLM multi-modal conçu pour les environnements haute résolution !
2024-12-10 08:03:30.AIbase.
GLM-4V-Flash : Modèle multi-modal gratuit de pointe lancé par Zhihu AI, améliorant la précision du traitement d'image
2024-11-22 15:28:38.AIbase.
SPIRIT LM, le nouveau modèle linguistique audio de Meta : une IA qui ne se contente pas de parler, mais qui exprime aussi des émotions !
2024-11-19 13:51:41.AIbase.
L'équipe de l'Université de Pékin publie LLaVA-o1, un modèle multi-modal avec des capacités de raisonnement comparables à GPT-o1 !
2024-10-25 11:16:59.AIbase.
Salesforce AI Research présente le nouveau modèle multi-modal BLIP-3-Video : une solution économique pour la compréhension vidéo
2024-10-21 14:55:38.AIbase.
智源发布原生多模态世界模型Emu3:仅靠预测下一个token即可实现文本、图像和视频的理解和生成
2024-10-21 11:25:14.AIbase.
Percée dans l'IA médicale ! Le nouveau système multi-modal RAG MMed-RAG améliore significativement la précision du diagnostic de 43,8 %
2024-10-15 14:52:31.AIbase.
Robin3D : une percée majeure dans les modèles linguistiques de grande taille pour les scènes 3D grâce à un entraînement sur des données robustes à l'échelle du million !
2024-10-14 10:56:21.AIbase.
Le « fourneau alchimique » multi-modal d'Apple fait peau neuve ! MM1.5 améliore la compréhension de textes denses et d'images multiples
2024-09-26 14:34:11.AIbase.