Récemment, les autorités de régulation de l'Union européenne ont annoncé qu'elles allaient enquêter sur un modèle d'intelligence artificielle de Google, en raison de doutes concernant sa conformité à la réglementation européenne stricte sur la protection des données.

Cette information a été communiquée par le Comité irlandais de protection des données (DPC), qui a officiellement lancé une enquête sur le modèle linguistique Pathways Language Model 2 de Google (également connu sous le nom de PaLM2). Il s'agit d'une initiative importante des 27 États membres de l'UE, visant à examiner attentivement la manière dont les systèmes d'IA traitent les données personnelles.

PaLM 2, Google, intelligence artificielle, IA, grand modèle linguistique

Le siège européen de Google étant situé à Dublin, le Comité irlandais de protection des données est responsable de la surveillance de l'entreprise dans le cadre des règles européennes en matière de confidentialité. Le Comité a déclaré que son enquête se concentrerait sur la question de savoir si Google a correctement évalué les risques potentiels pour les droits et libertés des citoyens européens liés au traitement des données par PaLM2.

PaLM2 est un grand modèle linguistique contenant un volume important de données, largement utilisé pour alimenter une série de services d'IA générative de Google, notamment la fonction de résumé des e-mails. Bien que Google n'ait pas encore commenté cette affaire, cette initiative a suscité un vif intérêt.

Il est à noter qu'au début du mois, les autorités de régulation irlandaises ont déjà pris des mesures contre la plateforme de médias sociaux X d'Elon Musk, l'obligeant à cesser de traiter les données des utilisateurs pour son chatbot IA Grok. X a été contraint d'agir après une procédure judiciaire.

De plus, Meta a également suspendu, sous la pression des autorités de régulation irlandaises, son projet d'utiliser les publications d'utilisateurs européens pour entraîner son dernier grand modèle linguistique. Cette décision a été prise après des échanges approfondis entre les deux parties.

L'année dernière, l'autorité italienne de régulation de la protection des données avait temporairement interdit ChatGPT, exigeant que sa société de développement, OpenAI, réponde à une série d'exigences pour résoudre les problèmes de confidentialité.

Avec le développement de l'intelligence artificielle, la protection des données personnelles est de plus en plus prise au sérieux par les autorités de régulation de nombreux pays, notamment dans l'UE, où les exigences en matière de confidentialité des données sont très strictes.

Points clés :

1️⃣ Le Comité irlandais de protection des données enquête sur PaLM2 de Google pour vérifier la conformité de son traitement des données.

2️⃣ Les services IA de Google utilisent PaLM2 pour des fonctionnalités telles que le résumé des e-mails, impliquant un volume important de données.

3️⃣ Les autorités de régulation de l'UE renforcent le contrôle des systèmes d'IA afin de garantir la sécurité des données personnelles des utilisateurs.