Politique d'Élargissement Responsable d'Anthropic

Dario Amodei, fondateur d'Anthropic, a présenté la Politique d'Élargissement Responsable (PER) lors du sommet britannique sur la sécurité de l'intelligence artificielle. Cette politique vise à garantir la sécurité et le contrôle des systèmes d'IA, prévenant ainsi les risques et les abus potentiels. La PER comprend deux composantes principales : le système ASL et la courbe d'échelle.

Le système ASL est modelé sur le système de sécurité biologique (BSL). Chaque niveau est associé à des mesures de sécurité spécifiques. ASL-1 représente les modèles présentant un risque négligeable, comme une IA spécialisée dans les échecs ; ASL-2 représente la situation actuelle, où les modèles présentent des risques importants, mais n'ont pas encore démontré de capacités véritablement dangereuses ; ASL-3 est atteint lorsqu'un modèle d'IA devient dangereusement manipulable dans le domaine CBRN (chimique, biologique, radiologique et nucléaire) ; ASL-4 représente une escalade des risques d'abus catastrophiques, déclenché lorsque les systèmes d'IA approchent d'une autonomie de niveau humain, ou deviennent la principale source d'au moins une grave menace pour la sécurité mondiale (comme une arme biologique).

La courbe d'échelle sert à tester les intervalles de temps avant l'apparition de ces capacités dangereuses, afin de ne pas créer aveuglément des modèles dotés de capacités dangereuses. À mesure que la taille et les capacités des systèmes d'IA augmentent, les mesures de sécurité doivent être renforcées en conséquence.