Mindgard a annoncé avoir bouclé un financement de 8 millions de dollars, destiné à accélérer ses efforts de recherche et développement et à étendre son activité sur le marché américain. Ce financement a été mené par .406Ventures, avec la participation d'Atlantic Bridge, Willowtree Investments et des investisseurs existants IQ Capital et Lakestar. Parallèlement, Mindgard a nommé deux leaders du secteur à des postes de responsable produit et vice-président marketing, afin de renforcer le développement de ses produits et son marketing.
Avec la rapide adoption de l'IA, de nouveaux risques de sécurité émergent constamment, que les outils de sécurité traditionnels ont du mal à gérer. Une étude de Gartner révèle que 29 % des entreprises déploient des systèmes d'IA qui ont subi des violations de sécurité, tandis que seulement 10 % des auditeurs internes ont une visibilité suffisante sur les risques liés à l'IA. De nouveaux risques, tels que l'injection d'invite et les attaques d'évasion des grands modèles linguistiques (LLM), exploitent la nature probabiliste et opaque des systèmes d'IA, ces problèmes se manifestant souvent en temps réel. Par conséquent, la sécurisation des modèles d'IA et de leur chaîne d'outils nécessite une approche nouvelle.
Mindgard s'engage à révolutionner les tests de sécurité de l'IA et la détection automatisée des équipes rouges, en lançant sa solution de test de sécurité applicative dynamique (DAST-AI), une première dans le secteur. Cette technologie de pointe permet d'identifier et de corriger les vulnérabilités spécifiques à l'IA qui ne peuvent être détectées qu'en temps réel. Pour les organisations utilisant l'IA, des tests de sécurité continus sont essentiels pour obtenir une visibilité sur les risques tout au long du cycle de vie de l'IA. La solution de Mindgard s'intègre parfaitement aux processus d'automatisation existants, permettant aux équipes de sécurité, aux développeurs, aux membres des équipes rouges IA et aux testeurs d'intrusion de sécuriser les systèmes d'IA sans perturber leurs flux de travail.
Greg Dracon, associé chez .406Ventures, a déclaré : « La rapide adoption de l'IA entraîne de nouveaux risques de sécurité que les outils traditionnels ne peuvent pas résoudre. L'approche innovante de Mindgard répond efficacement aux défis uniques de la sécurité de l'IA, fournissant aux équipes de sécurité et aux développeurs les outils nécessaires pour sécuriser leurs systèmes d'IA. Nous pensons que Mindgard peut devenir un leader sur ce marché émergent, et nous sommes impatients de collaborer avec eux. »
Le Dr Peter Garraghan, PDG de Mindgard et professeur à l'Université de Lancaster, a déclaré : « Tous les logiciels présentent des risques de sécurité, et l'IA ne fait pas exception. Cependant, la manière dont ces risques se manifestent dans l'IA diffère fondamentalement des autres logiciels. Forts de dix ans d'expérience en recherche sur la sécurité de l'IA, nous avons créé Mindgard pour relever ce défi et créer un environnement plus sûr et plus fiable pour l'avenir de l'IA. »
Points clés :
🌟 Mindgard a réussi à lever 8 millions de dollars pour développer sa technologie de test de sécurité de l'IA et étendre son activité sur le marché.
🔐 Sa solution de test de sécurité applicative dynamique (DAST-AI) cible spécifiquement les vulnérabilités de sécurité propres à l'IA, garantissant une surveillance de sécurité continue.
🚀 Grâce à la nomination de nouveaux dirigeants, Mindgard espère renforcer sa position de leader sur le marché nord-américain.