GDPR Learning Hub

AI ACT - UE

La Ley de IA en la UE

La Ley de IA de la UE regula el desarrollo y el uso de modelos de IA dentro de la Unión. El objetivo de la Ley es crear un entorno éticamente sostenible y seguro para la innovación en IA, protegiendo al mismo tiempo los derechos y libertades de los ciudadanos. 

Calendario de entrada en vigor de la Ley

    • 1 de agosto de 2024: Pasan a ser aplicables partes de la Ley de IA. 
    • Mayo de 2025: Se están aplicando las normas de la práctica. 
    • 2 de febrero de 2025: El desarrollo o uso de modelos de IA con un riesgo inaceptable ya no está permitido. 
    • 2 de agosto de 2025: Los requisitos de uso general para los modelos de IA están empezando a aplicarse, incluida la necesidad de cumplir los requisitos de transparencia.
    • 2 de agosto de 2026: Toda la Ley de IA entra en vigor y es aplicable. 
What breaches of the GDPR can lead to an administrative fine?

Información sobre la Ley de IA en la UE

La Ley de IA de la UE se ha convertido en una parte importante de la vida cotidiana de muchas personas, especialmente de las empresas, ya que el uso de modelos de IA aporta muchos beneficios. Por lo tanto, la UE ha optado por regular este ámbito, con el fin de crear un buen entorno tanto para la innovación como para los ciudadanos. 

¿Existen directrices sobre la Ley de IA?

Sí, puede encontrar varias directrices que la Comisión Europea publica continuamente en su sitio web. Sin embargo, no hay una página de colección directa para poder encontrarlos de una manera fácil. Estas son algunas de las pautas que han publicado: 

Relación entre el RGPD y la Ley de IA

La Ley de IA se aplica en paralelo con el RGPD. Si un modelo de IA procesa datos personales, ya sea durante su uso o desarrollo, se aplica el RGPD. Si un modelo de IA no trata datos personales, solo se aplica la Ley de IA. Además, puede haber más leyes y regulaciones a considerar, dependiendo del tipo de modelo de IA que se esté desarrollando o utilizando. 

Los diferentes niveles de riesgo en virtud de la Ley de IA en la UE

La Ley de IA de la UE regula y distingue entre cuatro niveles diferentes de riesgo. Por lo tanto, se basa en un enfoque basado en el riesgo. A continuación puede leer más sobre estos niveles de riesgo, que consisten en lo siguiente: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.

Riesgo inaceptable

El desarrollo o el uso de modelos de IA que presenten un riesgo inaceptable no está permitido en virtud de la Ley de IA. Sin embargo, hay excepciones. Por ejemplo, puede estar permitido para fines de aplicación de la ley. Los ocho (8) métodos siguientes cumplen los requisitos para que se considere que plantean un riesgo inaceptable: 

  1. Puntuación social; 
  2. Manipulación dañina y engaño basado en IA. 
  3. Explotación nociva de vulnerabilidades basadas en la IA. 
  4. Evaluar o anticipar el riesgo de delitos individuales. 
  5. Reconocimiento emocional en lugares de trabajo o instituciones educativas. 
  6. Cree o expanda bases de datos de reconocimiento facial, raspando material de Internet o CCTV a través de raspado no dirigido.
  7. Categorización biométrica, para derivar ciertas propiedades que están protegidas. 
  8. Identificación remota biométrica en tiempo real con fines policiales en un lugar de acceso público.

Alto riesgo

Hay dos categorías de modelos de IA que se consideran de alto riesgo en virtud de la Ley de IA. Esto puede permitirse, pero requiere, entre otras cosas, que las empresas lleven a cabo una evaluación de riesgos. 

1. La primera categoría se refiere a los modelos de IA regulados por la legislación de la UE en materia de seguridad de los productos. Por ejemplo:

  •   Juguetes. 
  •   Los coches.  
  •   Dispositivos médicos.  
  •   Volando. 
  1. La segunda categoría se refiere a los modelos de IA que deben registrarse en una base de datos de la UE y corresponde a uno de estos siete ámbitos:
  • Educación/formación profesional.
  • Tanto la gestión como el funcionamiento de la infraestructura crítica. 
  • Aplicación de la ley. 
  • Gestión del asilo, la migración y el control fronterizo; 
  • Empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia; 
  • Ayuda con la interpretación legal y la aplicación de la ley. 
  • El acceso y la propiedad de la propiedad privada esencial; 

Riesgo limitado

También existen normas para los modelos de IA que tienen un riesgo limitado. Por ejemplo, ciertas obligaciones de transparencia. Los requisitos son: 

  • El contenido debe notarse que ha sido generado por AI. 
  • El modelo de IA se diseñará de tal manera que no genere contenidos ilícitos. 
  • Si se han utilizado datos protegidos por derechos de autor en el entrenamiento del modelo de IA, los resúmenes de los mismos deben hacerse públicos. 

Riesgo mínimo o nulo

Además, la Ley de IA de la UE establece normas para los modelos de IA que se consideran de riesgo mínimo o nulo. Muchos modelos de IA entran en esta categoría. Ejemplos de modelos de IA con riesgo mínimo: 

  • Filtros de spam. 
  • Videojuegos habilitados para IA. 

¿Quién evalúa el riesgo del modelo de IA?

Corresponde al proveedor del modelo de IA evaluar si uno de los cuatro niveles de riesgo de la Ley de IA se aplica al modelo de IA en cuestión. Los riesgos pueden estar relacionados tanto con la forma en que se diseña el sistema como con la forma en que se utiliza. 

Espacio controlado de pruebas para la IA

El proveedor de un modelo de IA deberá poder probar y evaluar el sistema antes de su implantación o introducción en el mercado de la UE. Corresponde a los países de la UE garantizar la existencia de espacios controlados de pruebas. 

Autoridad responsable de la supervisión de la Ley de IA

Varias autoridades de un Estado miembro pueden ser responsables de la vigilancia del mercado de la Ley de IA, también conocida como tareas de supervisión. Sin embargo, debe haber una autoridad con responsabilidad general. Los ciudadanos tendrán la posibilidad de presentar reclamaciones ante las autoridades nacionales en relación con los modelos de IA. 

APRENDE MÁS

Responsabilidad de los datos personales en el desarrollo y uso de modelos de IA

Es importante saber qué empresa es el controlador de datos cuando se desarrollan y utilizan modelos de IA. La empresa que determina el propósito y tiene la responsabilidad final del procesamiento de datos personales, es el controlador de datos. En algunos casos, dos o más empresas pueden ser corresponsables del tratamiento. Por ejemplo, dos empresas que desarrollan un modelo de IA juntas para compartir los costos de desarrollo. Además, es posible transferir el procesamiento de datos personales a un procesador de datos, pero no es posible transferir la responsabilidad en sí.

¿Quieres saber más?

Scroll al inicio