Avec le développement fulgurant de l'IA conversationnelle, les agents vocaux IA prennent progressivement en charge un nombre croissant d'appels téléphoniques. Cependant, garantir la fiabilité de ces agents vocaux IA représente un défi majeur pour le secteur. Récemment, Hamming.ai, une plateforme spécialisée dans la fiabilité des agents vocaux IA, a annoncé avoir bouclé un tour de table de 3,8 millions de dollars lors d'un financement de démarrage, mené par Mischief, avec la participation de Y Combinator, AI Grant et de plusieurs business angels.
Hamming.ai a vu le jour pour répondre aux problèmes actuels liés aux tests et à la gestion des agents vocaux IA. On estime que des milliards d'appels téléphoniques sont effectués chaque jour, et avec les progrès de l'IA, la plupart de ces appels seront finalement traités par l'IA. Cependant, même de petites modifications des invites ou des fournisseurs de modèles peuvent entraîner des changements importants dans la réponse des agents vocaux IA. Actuellement, les ingénieurs passent quotidiennement beaucoup de temps à tester manuellement leurs agents vocaux IA, une méthode non seulement inefficace, mais aussi souvent incomplète. Même après le lancement des agents vocaux IA, les équipes opérationnelles doivent encore écouter des milliers d'appels pour détecter les cas extrêmes manqués par les tests manuels. Ces problèmes entraînent non seulement des coûts de mise en place élevés pour les systèmes vocaux IA, mais peuvent également engendrer des problèmes de responsabilité et une mauvaise publicité en raison d'infrastructures de test insuffisantes.

Hamming.ai résout efficacement ces problèmes grâce à des tests, une surveillance et une gestion automatisés des agents vocaux IA. La société a déployé ses propres agents vocaux IA, capables de passer des milliers d'appels simultanément pour tester les agents vocaux IA des clients, comme le feraient des humains. De plus, Hamming.ai propose aux équipes B2B des solutions de gestion des invites LLM, des tests automatisés de pénétration des agents vocaux IA (pour détecter les vulnérabilités) et des solutions d'analyse des appels pour suivre les interactions des utilisateurs avec les agents vocaux IA et identifier les cas nécessitant une attention particulière. Hamming.ai affirme que sa méthode est 20 fois plus rapide et 10 fois moins coûteuse que les tests manuels. La société prévoit d'améliorer encore ces avantages grâce à de nouveaux développements et à l'amélioration de ses produits.
Sumanyu Sharma, co-fondateur et PDG de Hamming.ai, et Marius Buleandra, co-fondateur et CTO, se sont rencontrés chez Citizen, une société de réseau de sécurité personnelle soutenue par Founders Fund. Ils possèdent tous deux une vaste expérience dans la construction d'infrastructures de confiance et de sécurité chez Citizen. Sharma a occupé le poste de responsable des données chez Citizen, contribuant à tripler la base d'utilisateurs de l'entreprise. Auparavant, il a dirigé chez Tesla un projet de vente basé sur l'IA, générant des centaines de millions de dollars de chiffre d'affaires annuel. Buleandra a quant à lui acquis une riche expérience en infrastructures de données, en IA et en ingénierie de systèmes complexes au sein d'entreprises telles qu'Anduril, Square et Microsoft. Il a également été ingénieur fondateur chez Spell, une startup spécialisée dans l'observabilité et les infrastructures de machine learning, qui a ensuite été rachetée par Reddit.
Lauren Farleigh, co-fondatrice et associée générale chez Mischief, a déclaré : « L'IA conversationnelle connaît un essor rapide, mais la plupart des outils de test et de gestion n'ont pas encore rattrapé les besoins des développeurs et les exigences de conformité. Hamming.ai sera un élément essentiel pour garantir le développement sûr de cette technologie, car l'IA est en train de révolutionner les interactions entre les entreprises et leurs clients. »
Hamming.ai estime que si 2024 a été l'année des prototypes, 2025 sera celle de la fiabilité. Les secteurs de la santé, du droit, de l'assurance et de l'immobilier sont soumis à des cadres réglementaires qui régissent la manière dont les entreprises interagissent avec leurs clients et partagent les informations. Alors que ces réglementations s'adaptent à la réalité de l'IA, les tests automatisés deviendront un élément fondamental de toute stratégie IA à long terme axée sur la confiance.