Récemment, Deloitte a publié un rapport soulignant l'importance de la confidentialité des données dans l'intelligence artificielle générative (IA générative). Selon cette étude, les préoccupations des professionnels concernant la confidentialité des données ont considérablement augmenté : seulement 22 % des personnes l'ont citée comme priorité en 2023, contre 72 % en 2024. Cela montre une prise de conscience croissante des risques potentiels à mesure que la technologie progresse.

Enquête, rapport de données

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Outre la confidentialité des données, la transparence et la provenance des données sont également des points importants, 47 % et 40 % des professionnels les ayant respectivement inclus dans leurs préoccupations. En comparaison, seulement 16 % s'inquiètent de la perte d'emplois. L'enquête révèle une curiosité croissante des employés quant au fonctionnement des technologies d'IA, notamment en ce qui concerne les données sensibles. Une étude de HackerOne montre également que près de la moitié des professionnels de la sécurité considèrent l'IA comme risquée, beaucoup considérant les données d'entraînement divulguées comme une menace majeure.

Le rapport de Deloitte mentionne également que 78 % des dirigeants d'entreprise considèrent la « sécurité et la protection » comme l'un de leurs trois principaux principes éthiques en matière de technologie, soit une augmentation de 37 % par rapport à 2023. On constate donc que la question de la sécurité prend de plus en plus d'importance. Environ la moitié des personnes interrogées estiment que les technologies cognitives telles que l'IA et l'IA générative représentent les risques éthiques les plus importants parmi les nouvelles technologies, notamment en raison de certains incidents de sécurité liés à l'IA très médiatisés. Par exemple, ChatGPT d'OpenAI a subi une faille de sécurité ayant entraîné la fuite des données personnelles d'environ 1,2 % des utilisateurs de ChatGPT Plus, notamment leurs noms, adresses électroniques et certaines informations de paiement.

Alors que de plus en plus d'employés utilisent l'IA générative au travail, l'enquête de Deloitte montre que la proportion de professionnels utilisant cette technologie en interne a augmenté de 20 % par rapport à l'année dernière. Cependant, de nombreuses entreprises sont encore en phase pilote, seulement 12 % des personnes interrogées déclarant une utilisation généralisée de cette technologie. Parallèlement, les décideurs souhaitent s'assurer de ne pas enfreindre les lois et réglementations lors de l'utilisation de l'IA. Ainsi, 34 % des personnes interrogées considèrent la conformité comme la principale raison de la mise en place de politiques et de lignes directrices éthiques en matière de technologie.

Le règlement européen sur l'IA, entré en vigueur le 1er août de cette année, impose des exigences strictes aux systèmes d'IA à haut risque afin de garantir leur sécurité, leur transparence et leur utilisation éthique. Le non-respect de ces exigences peut entraîner des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires. De nombreuses entreprises, dont Amazon, Google, Microsoft et OpenAI, ont déjà signé le pacte européen sur l'IA afin d'anticiper les exigences du règlement et de démontrer leur engagement en faveur d'un déploiement responsable de l'IA.

Points clés :

- 🔒 La confidentialité des données est devenue la principale préoccupation concernant l'IA générative en 2024, passant de 22 % à 72 %.

- 📈 78 % des dirigeants d'entreprise considèrent la « sécurité et la protection » comme l'un de leurs trois principaux principes éthiques en matière de technologie, soulignant l'importance de la sécurité.

- ⚖️ La mise en œuvre du règlement européen sur l'IA a des conséquences importantes et incite les entreprises à adapter et à mettre en conformité leur utilisation de l'IA.