Google a récemment mis à jour ses conditions d'utilisation pour son IA générative, autorisant explicitement ses clients à utiliser ses outils d'IA générative pour la « prise de décision automatisée » dans des domaines « à haut risque », tels que la santé et l'emploi, à condition qu'une supervision humaine soit assurée. Ce changement est reflété dans la politique d'utilisation interdite de l'IA générative récemment publiée par l'entreprise.

IA médicale, médecin, intelligence artificielle

Source : Image générée par IA, fournie par Midjourney

Conformément à la politique mise à jour, les clients peuvent, sous supervision, utiliser l'IA générative de Google pour prendre des décisions automatisées susceptibles d'avoir un « impact négatif significatif » sur les droits individuels. Ces domaines à haut risque incluent l'emploi, le logement, l'assurance, les prestations sociales, etc. Les clauses précédentes semblaient interdire totalement les décisions automatisées à haut risque, mais Google affirme que l'utilisation de l'IA générative pour ce type de décisions sous supervision humaine était autorisée dès le départ.

Un porte-parole de Google a déclaré aux médias : « L'exigence de supervision humaine existe depuis toujours dans notre politique, et couvre tous les domaines à haut risque. Nous avons simplement recatégorisé certaines clauses et donné des exemples plus précis pour une meilleure compréhension des utilisateurs. »

Comparé à Google, ses principaux concurrents tels qu'OpenAI et Anthropic ont des réglementations plus strictes concernant les décisions automatisées à haut risque. OpenAI interdit l'utilisation de ses services pour les décisions automatisées liées au crédit, à l'emploi, au logement, à l'éducation, à la notation sociale et à l'assurance. Anthropic, quant à lui, autorise son IA à prendre des décisions automatisées dans des domaines à haut risque tels que le droit, l'assurance et la santé, mais uniquement sous la supervision de « professionnels qualifiés », et exige que les clients indiquent clairement qu'ils utilisent l'IA pour ce type de décisions.

Les organismes de réglementation s'inquiètent des systèmes d'IA de prise de décision automatisée, car cette technologie peut entraîner des biais dans les résultats. Par exemple, des études ont montré que l'IA peut perpétuer les discriminations historiques dans l'approbation des demandes de prêts et d'hypothèques.

Des organisations à but non lucratif comme Human Rights Watch appellent notamment à l'interdiction des systèmes de « notation sociale », estimant qu'ils menacent l'accès aux protections sociales et peuvent porter atteinte à la vie privée en créant des profils biaisés.

Dans l'Union européenne, en vertu de l'AI Act, les systèmes d'IA à haut risque, y compris ceux impliqués dans les décisions relatives au crédit personnel et à l'emploi, sont soumis à la réglementation la plus stricte. Les fournisseurs de ces systèmes doivent s'inscrire dans une base de données, mettre en place une gestion de la qualité et des risques, employer des superviseurs humains et signaler les incidents aux autorités compétentes.

Aux États-Unis, le Colorado a récemment adopté une loi exigeant des développeurs d'IA qu'ils divulguent des informations sur les systèmes d'IA « à haut risque » et publient un résumé des capacités et des limites du système. Simultanément, la ville de New York interdit aux employeurs d'utiliser des outils automatisés pour le filtrage des candidats, sauf si l'outil a subi un audit de biais au cours de l'année précédente.

Points clés :

🌟 Google autorise l'utilisation de l'IA générative dans les domaines à haut risque, mais sous supervision humaine.

🛡️ D'autres entreprises d'IA telles qu'OpenAI et Anthropic imposent des restrictions plus strictes aux décisions à haut risque.

⚖️ Les organismes de réglementation du monde entier examinent les systèmes d'IA de prise de décision automatisée pour prévenir les biais dans les résultats.