Anthropicの創設者であるDario Amodei氏は、英国で開催された人工知能安全サミットにおいて、責任ある拡張ポリシー(Responsible Scaling Policy、RSP)を紹介しました。このポリシーは、人工知能システムの安全性と制御性を確保し、潜在的なリスクや悪用を防ぐことを目的としています。RSPは、ASLシステムとスケーリングカーブという2つの主要な構成要素で構成されています。
ASLシステムは、生物安全レベル(BSL)システムを模倣した設計となっており、各レベルには対応する安全対策が設けられています。ASL-1は、チェスのプロAIなど、ほとんどリスクのないモデルを表します。ASL-2は現在の段階を表し、モデルには広範なリスクがありますが、真に危険な能力を示していません。ASL-3は、AIモデルがCBRN(化学、生物、放射性、核)分野で操作上の危険性を帯びるようになった場合です。ASL-4は、AIシステムが人間レベルの自律能力に近づいたり、少なくとも1つの深刻な世界的安全保障上の脅威(生物兵器など)の主要な原因になったりするなど、壊滅的な悪用リスクがエスカレートした場合に発動されます。
スケーリングカーブは、これらの危険な能力の出現間隔をテストするために使用され、危険な能力を持つモデルを盲目的に作成しないようにします。人工知能システムの規模と能力が向上するにつれて、安全対策もそれに応じて強化する必要があります。