Inteligencia-Artificial

Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial

El Anteproyecto de Ley, que se tramitará con carácter urgente, deberá completar los procedimientos establecidos antes de regresar al Consejo de Ministros para su aprobación definitiva como Proyecto de Ley y su posterior envío a las Cortes Generales para su debate y aprobación.

Regulación de la inteligencia artificial en la Unión Europea

Con el propósito de establecer un marco normativo común en la Unión Europea para el desarrollo, comercialización y uso de la inteligencia artificial (IA), el reglamento impone restricciones a ciertos usos malintencionados de la tecnología, endurece las obligaciones para los sistemas considerados de alto riesgo y fija requisitos mínimos de transparencia para el resto de sistemas.

Asimismo, introduce un nuevo derecho digital que permite a la autoridad de supervisión competente retirar temporalmente del mercado español aquellos sistemas de IA que hayan causado un incidente grave, como el fallecimiento de una persona.

Prácticas prohibidas en inteligencia artificial

Las restricciones sobre el uso indebido de la IA entraron en vigor el 2 de febrero de 2025, y a partir del 2 de agosto de 2025 podrán imponerse sanciones o medidas adicionales, como la exigencia de modificaciones para su adecuación a la normativa o la prohibición de su comercialización. Estas sanciones se aplicarán conforme al régimen sancionador del Anteproyecto de Ley y dentro de los márgenes establecidos por la normativa europea.

Entre las prácticas prohibidas se encuentran:

  • La utilización de técnicas subliminales (imágenes o sonidos imperceptibles) para manipular decisiones sin consentimiento y causar perjuicios significativos, como fomentar adicciones o influir en la autonomía personal. Por ejemplo, un chatbot que identifique a personas con adicción al juego y las incite, mediante estímulos subliminales, a apostar en plataformas de juego en línea.
  • La explotación de vulnerabilidades relacionadas con la edad, discapacidad o situación socioeconómica con el fin de modificar el comportamiento de las personas y generarles perjuicios. Un caso ilustrativo sería un juguete infantil con IA que incite a los niños a realizar desafíos peligrosos que puedan causarles daño físico.
  • La clasificación biométrica de personas en función de su raza, orientación política, religiosa o sexual. Por ejemplo, un sistema de reconocimiento facial que intente deducir la orientación política o sexual de un individuo analizando sus fotografías en redes sociales.
  • La calificación de individuos o grupos en base a su comportamiento social o características personales para condicionar el acceso a beneficios, como la concesión de préstamos o ayudas económicas.
  • La evaluación del riesgo de cometer delitos basada en datos personales como el historial familiar, el nivel educativo o la zona de residencia, salvo en los casos contemplados por la ley.
  • La inferencia de emociones en entornos laborales o educativos como criterio de evaluación para decisiones de promoción o despido, salvo cuando se justifique por motivos de seguridad o salud.

Las sanciones para estos sistemas oscilan entre los 7,5 y los 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, eligiéndose la cantidad más elevada, salvo en el caso de las pymes, para las cuales se aplicará el importe menor.

Las entidades encargadas de supervisar el cumplimiento de estas prohibiciones serán:

  • La Agencia Española de Protección de Datos, en lo relativo a sistemas biométricos y de gestión de fronteras.
  • El Consejo General del Poder Judicial, para sistemas de IA utilizados en el ámbito de la justicia.
  • La Junta Electoral Central, en relación con los sistemas que puedan afectar a procesos democráticos.
  • La Agencia Española de Supervisión de la Inteligencia Artificial, para todos los demás casos.

Sistemas de alto riesgo

El reglamento europeo considera de alto riesgo aquellos sistemas de IA que intervienen en ámbitos sensibles o esenciales, como:

  • Dispositivos industriales y de seguridad, incluyendo maquinaria, ascensores, equipos de protección personal, productos sanitarios, sistemas de transporte y juguetes.
  • Aplicaciones en biometría, infraestructuras críticas, educación, empleo, acceso a servicios esenciales (créditos, seguros) y prestación de servicios públicos (emergencias, triajes médicos).
  • Sistemas utilizados para gestionar procesos legales, migración, asilo y control de fronteras.
  • IA aplicada en la administración de justicia y procesos democráticos.

Estos sistemas deberán cumplir estrictas obligaciones, tales como:

  • Implementación de un sistema de gestión de riesgos y supervisión humana.
  • Elaboración de documentación técnica y gobernanza de datos.
  • Registro y conservación de datos relevantes.
  • Transparencia y comunicación de información a los responsables de su uso.
  • Aplicación de estándares de calidad.

Las sanciones por incumplimiento dependerán de la gravedad de la infracción:

  • Infracciones muy graves: No reportar un incidente grave (como la muerte de una persona, daños a infraestructuras críticas o al medio ambiente) o incumplir órdenes de la autoridad supervisora. Las multas oscilarán entre los 7,5 y los 15 millones de euros, o entre el 2% y el 3% del volumen de negocio mundial del ejercicio anterior.
  • Infracciones graves: No implementar supervisión humana en sistemas de reconocimiento biométrico en el trabajo, carecer de un sistema de gestión de calidad en robots de inspección industrial o no etiquetar correctamente contenidos generados por IA que simulen a personas reales (deepfakes). Las sanciones en estos casos estarán entre los 500.000 euros y los 7,5 millones de euros, o entre el 1% y el 2% del volumen de negocio mundial.
  • Infracciones leves: No incluir el marcado CE en el sistema de IA de alto riesgo o en su documentación para certificar su conformidad con la normativa.

Las entidades encargadas de la supervisión de los sistemas de alto riesgo serán aquellas que ya regulan los sectores en los que estos operan. Además:

  • La Agencia Española de Protección de Datos supervisará los sistemas de gestión de migraciones y asilo relacionados con las Fuerzas y Cuerpos de Seguridad del Estado.
  • El Consejo General del Poder Judicial regulará la IA en la administración de justicia.
  • La Junta Electoral Central supervisará los sistemas utilizados en procesos electorales.
  • El Banco de España se encargará de la IA en la clasificación de solvencia crediticia.
  • La Dirección General de Seguros regulará los sistemas aplicados en el sector asegurador.
  • La Comisión Nacional del Mercado de Valores (CNMV) supervisará los sistemas de IA en mercados de capitales.
  • La Agencia Española de Supervisión de la Inteligencia Artificial será la autoridad competente para los casos no cubiertos por otras entidades.

Fomento de la innovación en IA

A partir del 2 de agosto de 2026, la normativa europea obligará a los Estados miembros a establecer al menos un entorno de pruebas controlado o sandbox de IA, donde se fomente la innovación y se facilite el desarrollo, testeo y validación de sistemas innovadores de IA antes de su comercialización.

España se ha adelantado a esta exigencia con la convocatoria, lanzada en diciembre pasado, para seleccionar hasta 12 sistemas de IA de alto riesgo que participarán en un sandbox durante un año. La experiencia obtenida servirá para elaborar guías técnicas sobre el cumplimiento de la normativa aplicable a estos sistemas.

Para cualquier consulta relacionada con este tema, no dude en contactarnos en el 900 649 344 o bien en el correo info@etl.es. Nuestros expertos de ETL GLOBAL podrán ofrecerle el mejor asesoramiento.

Contacto


Por favor, activa JavaScript en tu navegador para completar este formulario.

Etiquetas


Redes Sociales


Últimos artículos