HPT (Hyper-Pretrained Transformers) est un nouveau framework de modèle linguistique large multimodale développé par l'équipe de recherche HyperGAI. Il permet d'entraîner efficacement et de manière évolutive de grands modèles de base multimodaux, capables de comprendre divers types d'entrées, notamment du texte, des images et des vidéos. Le framework HPT peut être entraîné à partir de zéro ou adapté efficacement à partir d'encodeurs visuels pré-entraînés et/ou de grands modèles linguistiques existants.