Recentemente, a Anthropic, fornecedora de inteligência artificial generativa, divulgou os prompts de sistema mais recentes para seu modelo Claude, abrangendo as versões Claude 3.5 Opus, Sonnet e Haiku.
Essa ação representa um avanço significativo na indústria de IA, pois a maioria dos fornecedores geralmente mantém esses prompts de sistema em segredo. Ao divulgar esses prompts, a Anthropic detalha as regras de comportamento e características de personalidade específicas do Claude, impulsionando ainda mais a transparência na IA.
Modelos de inteligência artificial generativa não são como humanos; eles simplesmente geram a próxima palavra em uma frase com base em previsões estatísticas. Os fornecedores usam prompts de sistema para orientar o comportamento desses modelos e evitar operações impróprias.
No entanto, a divulgação dos prompts de sistema pela Anthropic demonstra sua posição como um fornecedor de IA mais ético e transparente. Com os prompts públicos, a Anthropic espera aumentar a transparência do setor e pressionar outros fornecedores a fazerem divulgações semelhantes.
Alex Albert, chefe de relações com desenvolvedores da Anthropic, disse em uma publicação no X que a Anthropic planeja fazer essas divulgações periodicamente ao atualizar e ajustar os prompts do sistema.
Os prompts de sistema mais recentes, datados de 12 de julho, explicitam as restrições de comportamento do modelo Claude, como a incapacidade de abrir URLs ou reconhecer rostos em imagens.
Além disso, os prompts descrevem as características de personalidade específicas que a Anthropic espera que o Claude demonstre, como inteligência, sede de conhecimento e imparcialidade e objetividade ao discutir tópicos controversos. Essa série de prompts indica o compromisso da Anthropic em orientar seu modelo de IA para uma direção mais humana e segura de forma transparente.