Récemment, lors de sa conférence Ignite, Microsoft a annoncé un nouvel outil d'IA, Azure AI Speech, capable de générer de nouveaux avatars et voix, ou de reproduire l'apparence et la voix existantes d'un utilisateur. Cette technologie, entraînée à partir d'images humaines, permet aux utilisateurs de saisir un script qui sera ensuite lu par un avatar réaliste créé par l'IA.
Malgré les nombreuses restrictions et mesures de protection mises en avant par Microsoft pour prévenir toute utilisation abusive de l'outil, cette annonce a suscité des inquiétudes quant à la possible aggravation du phénomène des deepfakes. Des critiques qualifient cet outil de "générateur de deepfakes", craignant qu'il puisse être utilisé pour reproduire le visage et la voix de personnes, afin de créer de faux contenus.
Microsoft a répondu en précisant que l'accès à cet outil est restreint et nécessite l'approbation de Microsoft. De plus, les utilisateurs sont tenus de divulguer l'utilisation de l'IA pour la création d'avatars ou de voix.