Google a récemment mis à jour ses conditions d'utilisation pour l'IA générative, précisant que les clients peuvent déployer ses outils d'IA générative pour des « décisions automatisées » dans des domaines « à haut risque » tels que les soins de santé, mais uniquement sous surveillance humaine.

Selon la dernière version de la « politique d'utilisation interdite de l'IA générative » publiée mardi par Google, les clients peuvent utiliser l'IA générative de Google pour prendre des « décisions automatisées » susceptibles d'avoir un « impact négatif significatif » sur les droits individuels. Pour autant qu'une supervision humaine soit mise en place, les clients peuvent utiliser l'IA générative de Google pour décider de questions relatives à l'emploi, au logement, aux assurances, aux prestations sociales et autres domaines « à haut risque ».

Dans le domaine de l'IA, les décisions automatisées désignent les décisions prises par un système d'IA sur la base de données factuelles et de données déduites. Par exemple, un système peut automatiquement décider d'approuver ou non une demande de prêt, ou de présélectionner des candidats.

Google (3)

Auparavant, le projet de conditions de Google suggérait une interdiction générale de l'utilisation de son IA générative dans les décisions automatisées à haut risque. Mais Google a déclaré à TechCrunch que les clients pouvaient toujours utiliser son IA générative pour des décisions automatisées, même pour des applications à haut risque, à condition d'une surveillance humaine.

« Pour tous les domaines à haut risque, notre exigence de surveillance humaine a toujours été présente dans nos politiques », a déclaré un porte-parole de Google par e-mail. « Nous reclassons certains éléments [dans les conditions] et énumérons plus clairement certains exemples pour une meilleure clarté pour nos clients. »

Les principaux concurrents de Google en matière d'IA, OpenAI et Anthropic, ont des réglementations plus strictes concernant l'utilisation de l'IA dans les décisions automatisées à haut risque. Par exemple, OpenAI interdit l'utilisation de ses services pour les décisions automatisées liées au crédit, à l'emploi, au logement, à l'éducation, à la notation sociale et aux assurances. Anthropic autorise l'utilisation de son IA pour les décisions automatisées dans les domaines juridique, assurance, santé et autres domaines à haut risque, mais uniquement sous la supervision de « professionnels qualifiés », et exige que les clients divulguent qu'ils utilisent l'IA à cette fin.

L'IA pour les décisions automatisées ayant un impact sur les individus est étroitement surveillée par les organismes de réglementation, qui s'inquiètent des résultats biaisés que cette technologie pourrait produire. Des études ont montré que l'IA utilisée pour approuver les demandes de crédit et d'hypothèques, par exemple, peut perpétuer les discriminations historiques.

L'organisation à but non lucratif Human Rights Watch appelle à l'interdiction des systèmes de « notation sociale », estimant qu'ils peuvent compromettre l'accès des personnes aux aides sociales, porter atteinte à leur vie privée et les profiler de manière biaisée.

Dans le projet de loi européen sur l'intelligence artificielle, les systèmes d'IA à haut risque (y compris ceux qui prennent des décisions concernant le crédit personnel et l'emploi) sont soumis à la réglementation la plus stricte. Les fournisseurs de ces systèmes doivent s'inscrire dans une base de données, mettre en œuvre une gestion de la qualité et des risques, employer des superviseurs humains, signaler les incidents aux autorités compétentes, et répondre à d'autres exigences.

Aux États-Unis, le Colorado a récemment adopté une loi exigeant des développeurs d'IA qu'ils divulguent des informations sur les systèmes d'IA « à haut risque » et publient une déclaration résumant les fonctionnalités et les limites du système. Simultanément, la ville de New York interdit aux employeurs d'utiliser des outils automatisés pour filtrer les candidats aux postes à pourvoir, sauf si l'outil a fait l'objet d'un audit de biais au cours de l'année précédente.

La clarification par Google de ses conditions d'utilisation de l'IA montre l'attitude de l'entreprise concernant la réglementation de l'application de l'IA. Autoriser les décisions automatisées dans les domaines à haut risque tout en soulignant l'importance de la surveillance humaine témoigne à la fois du potentiel d'application de la technologie de l'IA et de la vigilance face aux risques potentiels.