Pasar al contenido principal

Reglas para limitar los riesgos de la Inteligencia Artificial

Reglas-riesgos-Inteligencia-Artificial

Los representantes del Parlamento Europeo y del Consejo han alcanzado recientemente un acuerdo trascendental para establecer las primeras normativas que limitarán los riesgos asociados a la Inteligencia Artificial (IA).

Durante todo el periodo de negociación, se superaron obstáculos cruciales relacionados con la vigilancia biométrica y el uso de la IA por parte de las fuerzas de seguridad. Analizamos los puntos más importantes.

Formas regulatorias

Un aspecto clave fue la incorporación de reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que surgieron después de la presentación de la primera propuesta de regulación por parte de la Comisión Europea. Este aspecto se desarrolló a lo largo de las negociaciones.

El propósito de esta nueva regulación europea es establecer estándares de seguridad y derechos fundamentales para prevenir el uso de la tecnología con fines represivos, manipuladores o discriminatorios. Sin embargo, se busca evitar una regulación excesiva que afecte la competitividad de la Unión Europea.

Se espera que estos objetivos se alcancen antes de que finalice el año, pero la normativa no entrará en vigor en todo el territorio europeo hasta al menos 2026. La principal idea es regular la IA evaluando su capacidad para causar daño a la sociedad, siguiendo un enfoque "basado en el riesgo", donde a mayores riesgos, se impondrán normas más estrictas.

Además, al ser una regulación pionera a nivel mundial, se busca promoverla como un estándar global, similar a lo logrado con el Reglamento General de Protección de Datos (RGPD). Este proceso legislativo es complejo, abordando múltiples aspectos, y en este artículo se destacan cinco formas en que la ley impactará a las personas.

  • Clasificación de IA por "riesgos":

La UE establece etiquetas de peligrosidad para los sistemas de IA, desde "riesgo mínimo" hasta "riesgo inaceptable". Esto incluye una categoría específica de "transparencia específica" para los chatbots como ChatGPT, y se contempla la posibilidad de prohibir las IA que manipulen el comportamiento humano para eludir el libre albedrío de los usuarios.

  • Derechos de autor:

La normativa aborda preocupaciones sobre derechos de autor en el contexto de la IA. Exige transparencia y cumplimiento de la ley de derechos de autor de la UE, así como la publicación de resúmenes explicativos del contenido utilizado para entrenar a la IA.

  • Aplicaciones prohibidas:

Se imponen limitaciones a la IA, especialmente en actividades de vigilancia. Con el objetivo de proteger la privacidad, se restringe el uso de sistemas biométricos en espacios públicos por parte de las autoridades policiales, permitiéndolo solo en casos específicos y bajo condiciones determinadas.

  • IA de uso general:

Para las IA de propósito general, como ChatGPT y similares, se establecen nuevas reglas centradas en aumentar la transparencia y seguridad. Esto incluye la realización de evaluaciones rigurosas y la monitorización de incidentes potenciales.

  • Sanciones para el cumplimiento adecuado:

La normativa contempla sanciones para garantizar el cumplimiento, con multas que pueden oscilar entre 7,5 millones de euros o el 1,5% de la facturación anual de la empresa, llegando en ciertos casos hasta los 35 millones de euros o el 7% del volumen de negocios.