Recientemente, Deloitte publicó un informe que destaca la importancia de la privacidad de datos en la inteligencia artificial generativa (IA generativa). Según la encuesta, la preocupación de los profesionales por la privacidad de datos ha aumentado significativamente: en 2023, solo el 22% la consideró una prioridad principal, mientras que en 2024, este porcentaje se disparó al 72%. Esto indica una creciente conciencia de los riesgos potenciales a medida que la tecnología avanza.

Encuesta, informe de datos

Nota de la fuente: Imagen generada por IA, proveedora de servicios de imágenes Midjourney

Además de la privacidad de datos, la transparencia y el origen de los datos también son preocupaciones importantes, con un 47% y un 40% de los profesionales, respectivamente, incluyéndolos en sus listas de preocupaciones. En comparación, solo el 16% mostró preocupación por la pérdida de puestos de trabajo. La encuesta revela una creciente curiosidad de los empleados sobre el funcionamiento de la tecnología de IA, especialmente en lo que respecta a los datos sensibles. Un estudio de HackerOne también indica que casi la mitad de los profesionales de seguridad perciben riesgos en la IA, y muchos consideran los datos de entrenamiento filtrados como una amenaza importante.

El informe de Deloitte también menciona que el 78% de los líderes empresariales consideran la "seguridad y protección" como uno de sus tres principios éticos tecnológicos principales, un aumento del 37% con respecto a 2023. Esto demuestra la creciente importancia de la seguridad. Aproximadamente la mitad de los encuestados indicaron que las tecnologías cognitivas como la IA y la IA generativa representan el mayor riesgo ético entre las tecnologías emergentes, especialmente después de algunos incidentes de seguridad de IA de alto perfil. Por ejemplo, ChatGPT de OpenAI sufrió una brecha de seguridad que filtró datos personales de aproximadamente el 1,2% de los usuarios de ChatGPT Plus, incluyendo nombres, correos electrónicos e información de pago parcial.

A medida que más empleados utilizan la IA generativa en el trabajo, la encuesta de Deloitte muestra que el porcentaje de profesionales que utilizan esta tecnología internamente ha aumentado un 20% en comparación con el año pasado. Sin embargo, muchas empresas todavía se encuentran en la fase de prueba piloto, y solo el 12% de los encuestados afirmaron estar utilizando ampliamente esta tecnología. Al mismo tiempo, los responsables de la toma de decisiones desean asegurarse de que el uso de la IA no infringe las leyes y regulaciones. Por lo tanto, el 34% de los encuestados considera el cumplimiento normativo como la razón principal para establecer políticas y directrices éticas para la tecnología.

El Reglamento de IA de la UE entró en vigor el 1 de agosto de este año, estableciendo requisitos estrictos para los sistemas de IA de alto riesgo para garantizar su seguridad, transparencia y uso ético. El incumplimiento puede resultar en multas de hasta 35 millones de euros o el 7% de la facturación. Muchas empresas, incluyendo Amazon, Google, Microsoft y OpenAI, ya han firmado el Pacto de IA de la UE para anticiparse a los requisitos del reglamento y demostrar su compromiso con la implementación responsable de la IA.

Puntos clave:

- 🔒 La privacidad de datos se convierte en la principal preocupación de la IA generativa en 2024, pasando del 22% al 72%.

- 📈 El 78% de los líderes empresariales incluyen la "seguridad y protección" entre sus tres principios éticos tecnológicos principales, destacando la importancia de la seguridad.

- ⚖️ La aplicación del Reglamento de IA de la UE tiene un impacto profundo, lo que impulsa a las empresas a realizar los ajustes y el cumplimiento necesarios en el uso de la IA.