El cumplimiento de las normativas de Privacidad de Datos sigue siendo un desafío para muchas empresas españolas. Según un estudio de Zoho, sólo el 43 % de las empresas encuestadas cumplen con todas las regulaciones.
Es por este motivo por el que la Agencia Española de Protección de Datos (AEPD) ha tomado medidas enérgicas contra las infracciones de privacidad, imponiendo multas por más de 16 millones de euros en 2023. La entidad ha registrado 2.200 procedimientos por posibles infracciones del RGPD hasta octubre de 2024, incluyendo una multa de 5 millones de euros, lo que demuestra la seriedad con la que se están tratando estos casos.
Para evitar “males mayores”, las empresas españolas están tomando medidas para mejorar la privacidad de los datos, con un aumento del 13 % en la formación periódica según un estudio de Zoho. Sin embargo, la inteligencia artificial (IA) plantea nuevos desafíos, ya que se basa en el análisis de grandes cantidades de datos, lo que genera dudas sobre su recopilación y uso.
Con la IA ganando mayor relevancia en los negocios, en paralelo al aumento de la preocupación por cómo su uso puede infringir la privacidad de datos, el Consejo Europeo de Protección de Datos (CEPD) ha emitido su primera opinión unificada sobre el uso de datos personales en la IA, subrayando la complejidad de equilibrar la innovación con las prácticas éticas de datos.
Sridhar Iyengar, Managing director de Zoho Europa, destaca que “está claro que los modelos de IA entrenados con datos personales no pueden considerarse automáticamente anónimos. Para garantizar un verdadero anonimato, los modelos deben asegurar que los individuos no puedan ser identificados o que los datos personales no puedan ser extraídos a través de consultas. No adherirse a esto durante el desarrollo de modelos de IA no solo plantea problemas éticos, sino que también puede invalidar el despliegue de los propios modelos”.
Al desarrollar tecnologías de IA, las empresas deben ser especialmente cuidadosas con los datos que recopilan. Un uso indebido de esta información, que viole las normativas de privacidad, podría no solo dañar la privacidad de los usuarios, sino también obstaculizar el avance de la propia tecnología.
Otro elemento importante en la integración del uso de Inteligencia Artificial es que los usuarios estén informados de aquellos datos que se van a recopilar, quedando patente que trabajar la confianza será clave para el éxito de la integración de las nuevas tecnologías. En este sentido, Iyengar explica que “será imprescindible generar confianza a través de una comunicación abierta y de integrar la protección de la privacidad en los sistemas desde el principio, lo que se conoce como “privacidad desde el diseño”. Al adoptar estas medidas, las empresas no solo pueden cumplir la normativa vigente, sino también mejorar su reputación y garantizar el uso ético de la inteligencia artificial. De este modo, pueden innovar y mantener una ventaja competitiva sin comprometer el uso y la protección de los datos”.
Pero este es un aspecto aún a mejorar, pues según han relevado los datos del estudio de Zoho, sólo el 31 % de las empresas encuestadas afirman ir más allá de los requisitos para proporcionar protección adicional a los datos de clientes y empleados, de forma que, aunque las empresas cumplen la normativa, son pocas las que toman medidas proactivas para mejorar la protección de datos.