Le Cadre de sécurité Frontier est un protocole proposé par Google DeepMind pour identifier proactivement les situations où les capacités futures de l’IA pourraient causer des dommages importants, et pour mettre en place des mécanismes de détection et d’atténuation de ces risques. Ce cadre se concentre sur les capacités puissantes au niveau du modèle, telles que des capacités d’agents exceptionnelles ou des capacités de réseau complexes. Il vise à compléter nos recherches sur l'alignement, c'est-à-dire l'entraînement de modèles conformes aux valeurs humaines et aux objectifs sociétaux, ainsi que les pratiques existantes de Google en matière de responsabilité et de sécurité de l’IA.