Récemment, la société d'intelligence artificielle Anthropic a publié une mise à jour de sa politique d'« extension responsable », précisant quels modèles nécessitent une protection de sécurité supplémentaire. Cette initiative vise à garantir une prévention efficace des risques potentiels avant le lancement de nouvelles technologies.
Selon le blog d'Anthropic, si des tests de résistance révèlent qu'un modèle d'IA pourrait aider un « programme d'État aux ressources modérées » à développer des armes chimiques et biologiques, Anthropic mettra en place de nouvelles mesures de sécurité avant le lancement officiel de la technologie. De plus, si le modèle est capable d'automatiser entièrement le travail de chercheurs débutants, ou s'il entraîne un effet d'accélération excessif dans le développement rapide de la technologie, la société renforcera également les mesures de sécurité.
Anthropic a bouclé un nouveau tour de financement plus tôt ce mois-ci, atteignant une valorisation de 61,5 milliards de dollars, devenant ainsi l'une des startups d'IA les plus valorisées. Cependant, cette valorisation reste modeste par rapport à celle d'OpenAI, qui a récemment annoncé un financement de 40 milliards de dollars, portant sa valorisation totale à 300 milliards de dollars. Le marché de l'IA générative devrait dépasser les 1 000 milliards de dollars au cours des dix prochaines années, et la concurrence s'intensifie, avec des géants de la technologie comme Google, Amazon et Microsoft qui lancent activement de nouveaux produits et fonctionnalités. La concurrence chinoise se fait également sentir, comme en témoigne le succès rapide du modèle d'IA de DeepSeek aux États-Unis.
Dans sa politique d'« extension responsable » publiée en octobre dernier, Anthropic mentionnait également des contrôles de sécurité dans ses bureaux physiques, visant à détecter les dispositifs de surveillance potentiels. La société a confirmé avoir créé un comité de risques composé de dirigeants et une équipe de sécurité interne. De plus, elle mettra en place des processus de sécurité « physiques », utilisant des équipements et des technologies de détection avancés pour détecter les dispositifs de surveillance et assurer la sécurité interne de l'entreprise.
Les efforts continus d'Anthropic en matière de sécurité et de responsabilité de l'IA ne visent pas seulement à protéger sa propre technologie, mais aussi à garantir le développement sain de l'ensemble du secteur.