Rapport sur les risques liés aux LLM et aux armes biologiques

Une nouvelle étude du Rand Corporation met en garde contre le risque que les robots conversationnels basés sur les grands modèles linguistiques (LLM) puissent faciliter la planification d'attaques biologiques. Le rapport indique que si ces robots peuvent fournir des conseils sur la planification et l'exécution d'une telle attaque, ils ne fournissent pas d'instructions biologiques explicites.

Les chercheurs appellent à une discussion sur la menace des armes biologiques lors du prochain sommet mondial sur la sécurité de l'IA, et plaident pour une limitation de l'accès de ces robots à des sujets sensibles.