Pasar al contenido principal

La protección ante la IA demanda la seguridad de sus usuarios

Digital Trust IA

La nueva ley europea de Inteligencia Artificial se implementará gradualmente y estará completamente vigente para el año 2026. Aunque es un avance significativo, los usuarios demandan protección y seguridad con antelación.

Y es que las empresas no pueden esperar tanto para cumplir con esta regulación. Deben anticiparse e incorporar principios de protección de datos en el desarrollo de sus productos si desean ganarse la confianza de los usuarios, según destacan los expertos.

Derecho al Digital Trust

Es por ello, que los usuarios necesitan tener derecho al Digital Trust, entendido como la confianza digital que se le da a una organización y que faculta a las personas, los sistemas y la tecnología para garantizar su seguridad, protección, cumplimiento, privacidad y requisitos éticos.

Con motivo del Día Europeo de la Protección de Datos, Paradigma Digital, una empresa tecnológica española, ha examinado la situación actual y los desafíos que enfrenta la protección de datos.

Entre estos desafíos, destacan la protección de datos de la IA generativa, conscientes de su relevancia en la sociedad y la economía, aunque la legislación correspondiente no entre en vigor hasta dentro de dos años.

La ley contempla prohibiciones específicas para proteger los datos personales, como la prohibición de calificaciones sociales basadas en IA por parte de autoridades públicas y el uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos para aplicaciones de la ley, excepto en casos limitados.

En cuanto a los sistemas de alto riesgo, se deben cumplir requisitos legales sobre datos, gobernanza, documentación, transparencia, vigilancia humana, solidez, precisión y seguridad. Algunos ejemplos de estos sistemas incluyen componentes de seguridad de productos, identificación biométrica y categorización de personas, gestión de infraestructuras esenciales, entre otros.

Para evitar riesgos como la opacidad, el sesgo o la autonomía parcial, y generar confianza en el usuario, las empresas de servicios digitales, especialmente aquellas relacionadas con tratamientos de alto riesgo, deben tener en cuenta aspectos como la gestión de riesgos, la transparencia, la vigilancia humana, la precisión, la solidez, la ciberseguridad y el desarrollo ético de la IA.

La ley también proporciona directrices y guías para abordar estos aspectos clave. Algunos desafíos incluyen garantizar la efectiva protección de los derechos de protección de datos, así como equilibrar la seguridad y los derechos humanos con el impulso a la innovación para los desarrolladores europeos.

Contenido relacionado: Aprobado el Estatuto de la Agencia Española de Supervisión de la IA