Recentemente, a configuração de “Experiência de Conexão” da Microsoft em seu software Office gerou amplas discussões e preocupações entre os usuários. Muitos temem que esse recurso, ativado por padrão, permita que a Microsoft utilize dados de documentos do Word e Excel, entre outros, para treinar seus modelos de inteligência artificial sem o consentimento do usuário. A Microsoft nega veementemente essas alegações, afirmando categoricamente que não utiliza dados de clientes sem sua permissão explícita.

Microsoft

Um porta-voz da Microsoft declarou à imprensa: “Nos aplicativos comerciais e para consumidores do Microsoft 365, a Microsoft não usa dados de clientes para treinar modelos de linguagem de grande porte, a menos que você conceda permissão explícita.” No entanto, quando questionada sobre o significado preciso dessa “permissão” e se ela é por adesão ou exclusão, a Microsoft ainda não forneceu uma explicação clara.

O recurso “Experiência de Conexão” existe há anos no Microsoft Office, oferecendo aos usuários diversos serviços online, como tradução, transcrição de áudio e verificação gramatical. Seu objetivo é fornecer serviços mais inteligentes e personalizados por meio da conexão com a internet. Contudo, com a crescente preocupação dos usuários com a privacidade de dados, alguns começaram a questionar se esses dados poderiam ser usados para treinar sistemas de IA internos da Microsoft.

As discussões sobre o assunto estão aumentando nas redes sociais. Um usuário descobriu em seu dispositivo Windows 11 que a configuração do recurso “Experiência de Conexão” estava ativada por padrão. Isso gerou mais perguntas: o conteúdo do usuário será usado para treinar modelos de IA? Embora a probabilidade seja baixa, não pode ser totalmente descartada.

Para usuários educacionais e corporativos, as políticas de segurança da Microsoft são mais rigorosas, diminuindo ainda mais a possibilidade de coleta de conteúdo por meio da “Experiência de Conexão”. Apesar da Microsoft afirmar claramente que não utiliza dados de clientes para treinamento, sua declaração de privacidade permite diversas finalidades para os dados coletados, incluindo melhoria de produtos e treinamento de modelos de IA.

Em agosto, a Microsoft anunciou que usaria dados de consumidores do Copilot, Bing e Microsoft Start para treinar o modelo de IA generativa do Copilot, com a promessa de que os usuários poderiam optar por não participar. A Microsoft também afirmou que os controles de exclusão seriam lançados em outubro e garantiu que não usaria dados de consumidores do Espaço Econômico Europeu para treinamento.

Com a crescente atenção dos usuários à estratégia da Microsoft em IA, a empresa precisa manter a transparência para garantir que os usuários entendam completamente como seus dados são usados. Em sua declaração mais recente, a Microsoft mencionou que, em alguns casos, clientes corporativos podem concordar com o uso de seus dados para treinamento de modelos básicos, fornecendo mais informações ao público.

Destaques:

🔒 A Microsoft nega veementemente o uso de dados de usuários sem permissão para treinar modelos de IA.

🧩 O recurso “Experiência de Conexão” melhora os serviços, mas a privacidade dos dados dos usuários ainda precisa ser considerada.

📜 A declaração de privacidade da Microsoft permite o uso de dados para melhorar produtos, sendo necessária transparência e clareza.