Introducción: Un nuevo hito en la regulación de la inteligencia artificial
El pasado jueves, 11 de diciembre de 2025, marcó un antes y un después en el panorama de la inteligencia artificial (IA) en España. La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) publicó sus esperadísimas guías de cumplimiento del Reglamento Europeo de Inteligencia Artificial (RIA). Este conjunto de 16 guías, que suman un total de 761 páginas, representa la culminación de un esfuerzo sin precedentes por parte de las autoridades españolas para proporcionar un marco práctico y detallado para la implementación de la normativa de IA más ambiciosa del mundo.
Desde Delvy, y en particular, nuestro equipo de IP/IT/AI liderado por Pablo Sáez Hurtado y José Morato, hemos estado analizando exhaustivamente estas guías desde el momento de su publicación. Nuestro compromiso es ofrecer a nuestros clientes el asesoramiento más actualizado y riguroso, y por ello, hemos dedicado incontables horas, incluyendo el fin de semana, a desgranar cada una de las 761 páginas de esta nueva “Biblia” de la IA confiable en España. Este artículo es el fruto de ese análisis, y tiene como objetivo proporcionar una visión completa y práctica de lo que estas guías significan para el ecosistema de la IA en nuestro país.
Contexto normativo: Del anteproyecto de ley a las guías de la AESIA
El Sandbox Regulatorio de IA: La cuna de las guías
Antes de adentrarnos en el contenido de las guías, es imprescindible comprender el contexto en el que nacieron. España ha sido pionera a nivel europeo e internacional en la creación de un sandbox regulatorio de inteligencia artificial. Este entorno controlado de pruebas, establecido mediante el Real Decreto 817/2023 y cuya convocatoria oficial se lanzó en diciembre de 2024, ha permitido a empresas seleccionadas desarrollar y probar sus sistemas de IA de alto riesgo bajo la supervisión de la AESIA y con el respaldo de la Comisión Europea.
El sandbox no ha sido un mero ejercicio teórico. Durante todo el año 2025, las empresas participantes han trabajado codo con codo con los expertos de la AESIA para identificar las dificultades prácticas de cumplimiento y desarrollar soluciones viables. Las 16 guías publicadas son el fruto directo de esta experiencia: no se trata de documentos elaborados en un despacho, sino de herramientas forjadas en el terreno, testadas y validadas por empresas reales que se enfrentan a los desafíos del Reglamento de IA.
Este enfoque basado en la experiencia práctica es lo que confiere a las guías de la AESIA un valor añadido excepcional. Mientras otros Estados miembros aún están definiendo sus estrategias de implementación, España ya dispone de un corpus documental de 761 páginas que traduce los principios del Reglamento a la realidad empresarial. Es, sin duda, la «Biblia de la Inteligencia Artificial Confiable» a la española.
El anteproyecto de ley para el buen uso y la gobernanza de la IA
La publicación de las guías de la AESIA no es un hecho aislado, sino el resultado de un largo proceso que comenzó con la aprobación del anteproyecto de ley para el buen uso y la gobernanza de la inteligencia artificial por parte del Consejo de ministros el 11 de marzo de 2025. Este anteproyecto, pionero a nivel europeo, sentó las bases para la creación de un marco normativo español que no solo se alinea con el Reglamento Europeo de IA, sino que también busca ir un paso más allá, fomentando un desarrollo de la IA que sea ético, inclusivo y beneficioso para la sociedad en su conjunto.
El anteproyecto de ley ya preveía la creación de la AESIA como organismo de supervisión y control, y establecía la necesidad de desarrollar herramientas prácticas que facilitaran el cumplimiento normativo a las empresas. Las guías ahora publicadas son la materialización de ese compromiso, y representan un puente entre la teoría del Reglamento y la práctica empresarial del día a día de las empresas que desarrollan o utilizan sistemas de IA.
La estructura de las guías: Un enfoque modular y práctico
Las 16 guías publicadas por la AESIA se organizan en tres grandes bloques, diseñados para ofrecer un itinerario de cumplimiento progresivo y adaptado a las necesidades de cada organización:
- Guías introductorias (Guías 1 y 2): Destinadas a proporcionar una visión general del Reglamento de IA y de los conceptos clave. Son el punto de partida ideal para cualquier empresa que se inicie en el cumplimiento normativo en materia de IA.
- Guías técnicas (Guías 3 a 15): El corazón de la publicación. Cada una de estas guías profundiza en una de las obligaciones específicas del Reglamento para los sistemas de alto riesgo, desde la gestión de riesgos hasta la ciberseguridad, pasando por la gobernanza de datos o la supervisión humana.
- Manual de uso de checklists (Guía 16) y compendio de checklists: La herramienta más práctica del conjunto. Se trata de un manual que explica cómo utilizar las checklists de autoevaluación que la AESIA ha preparado para cada una de las obligaciones. Estas checklists, disponibles en un archivo comprimido, permiten a las empresas realizar un autodiagnóstico de su nivel de cumplimiento y trazar una hoja de ruta para la adecuación.
Esta estructura modular permite a las empresas abordar el cumplimiento del Reglamento de IA de una manera ordenada y eficiente, centrándose en las áreas que les son más relevantes en cada momento.
Tabla resumen de las 16 guías de la AESIA
A continuación, se presenta una tabla resumen que permite una visión rápida del contenido de cada una de las 16 guías:
| Nº | Título de la Guía | Artículo RIA | Contenido Principal |
|---|---|---|---|
| 1 | Guía introductoria al Reglamento de IA | Arts. 2, 4, 6, 50 | Visión general del Reglamento, niveles de riesgo, operadores, fechas de aplicación |
| 2 | Guía práctica con ejemplos y definiciones | Art. 3, Anexo III | Glosario de términos, 5 ejemplos de sistemas de alto riesgo |
| 3 | Evaluación de la conformidad | Art. 43, Anexos VI-VII | Procedimientos de evaluación, marcado CE, Declaración UE de Conformidad |
| 4 | Sistema de gestión de la calidad | Art. 17 | Procedimientos organizativos, MLOps, cuadros de mando |
| 5 | Sistema de gestión de riesgos | Art. 9 | Identificación, análisis y mitigación de riesgos, conexión con EIPD |
| 6 | Supervisión humana | Art. 14 | Medidas de supervisión, interfaces HMI, formación de supervisores |
| 7 | Datos y gobernanza de datos | Art. 10 | Ciclo de vida del dato, gestión de sesgos, calidad de datos |
| 8 | Transparencia | Art. 13 | Obligaciones de información, explicabilidad (XAI) |
| 9 | Precisión | Art. 15 | Métricas de precisión, prevención del sobreaprendizaje |
| 10 | Solidez | Art. 15 | Resiliencia, monitorización continua, gestión de fallos |
| 11 | Ciberseguridad | Art. 15 | Ataques a IA, contramedidas, gestión de vulnerabilidades |
| 12 | Conservación de registros | Art. 12 | Logs automáticos, trazabilidad, períodos de conservación |
| 13 | Vigilancia poscomercialización | Art. 72 | Plan de vigilancia, KPIs, monitorización continua |
| 14 | Notificación de incidentes graves | Art. 73 | Procedimiento de notificación, plazos, cooperación con autoridades |
| 15 | Documentación técnica | Art. 11, Anexo IV | Estructura de la documentación, gestión documental |
| 16 | Manual de checklist | – | Herramienta de autodiagnóstico, Plan de Adaptación |
Las guías introductorias: La puerta de entrada al Reglamento de IA
Las dos primeras guías publicadas por la AESIA son de carácter introductorio y tienen como objetivo facilitar una primera aproximación al complejo entramado normativo del Reglamento de IA.
Guía 1: Guía introductoria al Reglamento Europeo de Inteligencia Artificial
Esta guía es el punto de partida esencial para cualquier organización. Ofrece una visión panorámica del Reglamento, explicando su alcance, los diferentes niveles de riesgo de los sistemas de IA (prohibido, alto, limitado y mínimo), y los distintos operadores que intervienen en la cadena de valor (proveedores, responsables del despliegue, importadores y distribuidores).
Uno de los aspectos más relevantes de esta guía es que detalla las fechas de aplicación de las diferentes obligaciones, un dato crucial para la planificación de cualquier estrategia de cumplimiento. Además, incluye un anexo con las autoridades de vigilancia del mercado en España, un elemento de gran utilidad para saber a qué organismo dirigirse en cada caso.
Guía 2: Guía práctica con ejemplos y definiciones para la comprensión del Reglamento de IA
Esta segunda guía tiene un enfoque eminentemente práctico. A través de cinco ejemplos de sistemas de IA de alto riesgo (un sistema de registro de jornada laboral mediante reconocimiento biométrico, un sistema de gestión de promociones de personal, un sistema de predicción de riesgo de exclusión social, una bomba de insulina inteligente y un sistema de detección de denuncias falsas), la guía ilustra de manera concreta cómo se aplican las obligaciones del Reglamento en situaciones reales.
Además, incluye un glosario de términos clave extraídos del artículo 3 del Reglamento, lo que facilita enormemente la comprensión de conceptos técnicos que pueden resultar complejos para los no iniciados. Esta guía es, por tanto, una herramienta indispensable para traducir la teoría del Reglamento a la práctica empresarial.
El núcleo del cumplimiento: Gobernanza, Riesgos y Calidad
Una vez superada la fase introductoria, las guías de la AESIA se adentran en el núcleo de las obligaciones para los sistemas de alto riesgo. Tres de ellas conforman el pilar fundamental sobre el que se asienta todo el edificio del cumplimiento: la gestión de riesgos, el sistema de gestión de la calidad y la evaluación de la conformidad.
Guía 5: El Sistema de Gestión de Riesgos (Artículo 9)
El Reglamento de IA adopta un enfoque basado en el riesgo, y esta guía desarrolla uno de sus artículos más importantes, el artículo 9. La guía establece que la gestión de riesgos no es una acción puntual, sino un proceso iterativo y continuo que debe abarcar todo el ciclo de vida del sistema de IA. Este proceso implica:
- Identificación y análisis de los riesgos conocidos y previsibles para la salud, la seguridad y los derechos fundamentales.
- Estimación y evaluación de dichos riesgos, considerando tanto el uso previsto como el uso indebido razonablemente previsible.
- Adopción de medidas de gestión de riesgos adecuadas para tratar los riesgos identificados.
- Evaluación de los riesgos residuales y comunicación transparente de los mismos a los usuarios.
Un aspecto crucial que destaca la guía es la conexión entre la gestión de riesgos del Reglamento de IA y la Evaluación de Impacto en la Protección de Datos (EIPD) del RGPD. La AESIA recomienda realizar ambos análisis de forma conjunta cuando el sistema de IA trate datos personales, optimizando así los recursos y asegurando una visión integral de los riesgos.
Guía 4: El Sistema de Gestión de la Calidad (Artículo 17)
Estrechamente ligado a la gestión de riesgos, el sistema de gestión de la calidad (SGC) es el marco organizativo que debe garantizar el cumplimiento del Reglamento de forma sistemática. La guía sobre el artículo 17 detalla los procedimientos que debe incluir este sistema, abarcando desde el diseño y desarrollo del sistema hasta la vigilancia poscomercialización y la gestión de incidentes.
La guía recomienda un enfoque práctico, con la utilización de cuadros de mando técnicos para monitorizar la precisión, la robustez y la ciberseguridad, y la implementación de MLOps (Machine Learning Operations) para garantizar la trazabilidad y el control de versiones de los modelos y los datos. Se hace referencia a la futura norma armonizada prEN 18286 como un estándar técnico clave para la implementación del SGC.
Guía 3: La Evaluación de la Conformidad (Artículo 43)
Esta guía es la que culmina el proceso de cumplimiento antes de la puesta en el mercado del sistema. Detalla los dos procedimientos de evaluación de la conformidad que prevé el Reglamento:
- Control interno (autoevaluación): Aplicable a la mayoría de los sistemas de alto riesgo del Anexo III, siempre que el proveedor aplique las normas armonizadas que cubran todos los requisitos pertinentes.
- Evaluación por un organismo notificado: Obligatoria para los sistemas de identificación biométrica remota y para aquellos sistemas del Anexo III para los que no existan normas armonizadas o el proveedor decida no aplicarlas.
La guía explica el proceso para obtener el marcado CE y emitir la Declaración UE de Conformidad, documentos indispensables para poder comercializar un sistema de IA de alto riesgo en la Unión Europea. Se destaca la importancia de la documentación técnica (desarrollada en la Guía 15) como elemento central de la evaluación.
Los Pilares de la Confianza: Datos, Transparencia y Supervisión Humana
El Reglamento de IA pone un énfasis especial en garantizar que los sistemas de alto riesgo sean confiables y no actúen como «cajas negras» inescrutables. Tres guías de la AESIA son clave para construir esta confianza: las dedicadas a la gobernanza de datos, la transparencia y la supervisión humana.
Guía 7: Datos y Gobernanza de Datos (Artículo 10)
Considerada una de las más extensas y detalladas, esta guía aborda el combustible de cualquier sistema de IA: los datos. El artículo 10 del Reglamento exige que los conjuntos de datos de entrenamiento, validación y prueba sean relevantes, representativos, libres de errores y completos. La guía de la AESIA desgrana qué significa esto en la práctica, estableciendo un auténtico ciclo de vida del dato que abarca desde su recopilación hasta su eliminación.
El punto más crítico que desarrolla la guía es la gestión de sesgos. Se detallan las diferentes fuentes de sesgo (de muestra, de medición, algorítmico, etc.) y se proponen técnicas para su evaluación y mitigación. Este es, sin duda, uno de los mayores desafíos para los desarrolladores de IA, y la guía ofrece un marco de trabajo sólido para abordarlo. Además, se introducen conceptos técnicos avanzados como MLOps para el versionado de datos y modelos, y se discute la importancia de la causalidad frente a la mera correlación para construir sistemas más justos y explicables.
Guía 8: Transparencia (Artículo 13)
Para que un sistema de IA sea confiable, los usuarios deben poder entender sus capacidades, sus limitaciones y cómo se ha llegado a una determinada decisión. La guía sobre el artículo 13 establece las obligaciones de transparencia que deben cumplir los proveedores de sistemas de alto riesgo. Esto incluye proporcionar una documentación clara y concisa que describa la finalidad del sistema, su nivel de precisión, los riesgos conocidos y las medidas de supervisión humana implementadas.
La guía va más allá de la mera documentación y se adentra en el concepto de explicabilidad (XAI – Explainable AI). Se mencionan técnicas como LIME o SHAP que permiten interpretar las decisiones de modelos complejos, y se subraya la importancia de que la información proporcionada al usuario sea comprensible y adaptada a su perfil técnico. La transparencia no es solo una obligación legal, sino un requisito indispensable para la aceptación social de la IA.
Guía 6: Supervisión Humana (Artículo 14)
El principio de que la tecnología debe estar siempre al servicio del ser humano es uno de los pilares del Reglamento de IA. La guía sobre el artículo 14 desarrolla este principio, estableciendo que los sistemas de alto riesgo deben ser diseñados de manera que puedan ser eficazmente supervisados por personas. Esta supervisión no puede ser meramente pasiva; los supervisores deben tener la capacidad y la autoridad para intervenir y corregir el funcionamiento del sistema, e incluso para detenerlo si presenta un riesgo inaceptable (el famoso «botón de parada»).
La guía detalla las medidas técnicas y organizativas necesarias para implementar esta supervisión, incluyendo el diseño de interfaces persona-máquina (HMI) adecuadas y la necesidad de proporcionar una formación específica y continua al personal encargado de la supervisión. Se trata de asegurar que, en última instancia, la responsabilidad de las decisiones críticas siga recayendo en un ser humano.
Los Requisitos Técnicos Esenciales: Precisión, Solidez y Ciberseguridad
Más allá de la gobernanza y la supervisión, el Reglamento de IA exige que los sistemas de alto riesgo cumplan con unos estándares técnicos mínimos que garanticen su correcto y seguro funcionamiento. Las guías de la AESIA dedican tres capítulos a estos requisitos fundamentales: la precisión, la solidez y la ciberseguridad.
Guía 9: Precisión (Artículo 15)
Un sistema de IA no es útil si no es preciso. La guía sobre el artículo 15 establece que los sistemas de alto riesgo deben alcanzar un nivel de precisión adecuado para su finalidad prevista y que este nivel debe ser consistente a lo largo de todo su ciclo de vida. Pero, ¿qué significa «adecuado»? La guía aclara que no existe una métrica universal de precisión, sino que los proveedores deben seleccionar y justificar las métricas más apropiadas para su caso de uso (Accuracy, F1-score, AUROC, etc.).
La guía profundiza en aspectos técnicos clave para garantizar la precisión, como la necesidad de evitar el sobreaprendizaje (overfitting), un fenómeno común en el que el modelo se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Para ello, se recomiendan técnicas como la validación cruzada anidada y el uso de herramientas de automatización de hiperparámetros. Además, se introduce el concepto de «ensemble learning» como método para calcular la incertidumbre de las predicciones, un dato crucial para que el usuario pueda contextualizar la fiabilidad del resultado ofrecido por el sistema.
Guía 10: Solidez (Artículo 15)
La solidez, o robustez, es la capacidad del sistema de IA para mantener su rendimiento frente a errores, fallos o inconsistencias. La guía de la AESIA sobre este requisito se centra en la resiliencia del sistema frente a dos tipos de problemas:
- Errores o fallos internos: El sistema debe ser capaz de gestionar los errores que puedan surgir durante su funcionamiento (por ejemplo, por datos de entrada anómalos) y, en caso de no poder garantizar un funcionamiento seguro, debe disponer de mecanismos para interrumpir su operación de forma controlada.
- Intentos de alteración por terceros: Este punto conecta directamente con la ciberseguridad. El sistema debe ser robusto frente a ataques que busquen manipular su comportamiento.
La guía recomienda implementar un sistema de monitorización continua del rendimiento y la latencia, y establecer umbrales que, al superarse, activen alertas o medidas de contingencia. La solidez no es solo una cuestión de buen diseño, sino una necesidad para garantizar la seguridad en sistemas críticos.
Guía 11: Ciberseguridad (Artículo 15)
La guía de ciberseguridad es, posiblemente, una de las más complejas y técnicas de todo el conjunto. Reconoce que los sistemas de IA presentan vulnerabilidades específicas que van más allá de las de los sistemas de software tradicionales. La guía detalla los principales tipos de ataques a los que se enfrentan los sistemas de IA:
- Envenenamiento de datos (Data Poisoning): Manipulación de los datos de entrenamiento para introducir «puertas traseras» en el modelo.
- Ataques de evasión (Evasion Attacks): Creación de «ejemplos adversarios» (inputs ligeramente modificados) para engañar al modelo y forzar una clasificación incorrecta.
- Ataques de inferencia: Intentos de extraer información sensible sobre los datos de entrenamiento o el propio modelo.
Para contrarrestar estas amenazas, la guía propone un arsenal de contramedidas técnicas, como el entrenamiento adversario (adversarial training), la privacidad diferencial para proteger los datos, o el uso de técnicas de saneado y aumento de datos. Se subraya la importancia de una gestión de vulnerabilidades en toda la cadena de suministro de software (SBOM) y la necesidad de realizar auditorías de seguridad y pruebas de penetración periódicas. La ciberseguridad en IA es un campo en constante evolución, y esta guía proporciona una base sólida para que las empresas empiecen a construir sus defensas.
El Ciclo de Vida del Cumplimiento: Registros, Vigilancia e Incidentes
El cumplimiento del Reglamento de IA no termina con la puesta en el mercado del sistema. Al contrario, es un proceso continuo que exige una supervisión constante durante toda la vida útil del producto. Tres guías de la AESIA se centran en esta fase crucial del ciclo de vida.
Guía 12: Conservación de Registros (Artículo 12)
Para garantizar la trazabilidad y permitir la investigación de posibles incidentes, el Reglamento exige que los sistemas de IA de alto riesgo conserven registros de su funcionamiento (logs). La guía sobre el artículo 12 detalla qué información deben contener estos registros, quién debe generarlos y durante cuánto tiempo deben conservarse.
La guía establece que los registros deben ser automáticos, seguros e inalterables. Deben incluir, como mínimo, el período de cada uso del sistema, la base de datos de referencia utilizada, los datos de entrada y la identificación de las personas que supervisan el sistema. Estos registros son fundamentales no solo para la vigilancia poscomercialización, sino también para poder depurar responsabilidades en caso de que el sistema cause un daño.
Guía 13: Vigilancia Poscomercialización (Artículo 72)
Una vez que el sistema de IA está en el mercado, el proveedor tiene la obligación de establecer un plan de vigilancia poscomercialización para recopilar y analizar de forma proactiva y sistemática los datos sobre su rendimiento. La guía sobre el artículo 72 explica cómo diseñar e implementar este plan.
El plan debe incluir procedimientos para la recopilación de información sobre el rendimiento del sistema, la detección de tendencias de degradación, y la reevaluación continua de los riesgos. La guía propone un sistema de indicadores clave de rendimiento (KPIs) estructurado en cuatro áreas: el propio sistema inteligente (rendimiento del modelo), la infraestructura (uso de CPU, memoria), las acciones de los usuarios y la seguridad. Esta vigilancia continua es esencial para garantizar que el sistema sigue siendo seguro y fiable a lo largo del tiempo y para identificar la necesidad de acciones correctoras.
Guía 14: Gestión de Incidentes Graves (Artículo 73)
¿Qué ocurre si, a pesar de todas las precauciones, un sistema de IA de alto riesgo causa un incidente grave? La guía sobre el artículo 73 establece un procedimiento claro para la notificación de incidentes graves a las autoridades de vigilancia del mercado.
La guía define qué se considera un «incidente grave» y establece unos plazos muy estrictos para su notificación, que van de 2 a 15 días según la gravedad del suceso. Se detalla la información que debe incluir la notificación y se establece la obligación del proveedor de investigar el incidente, aplicar medidas correctoras y cooperar plenamente con las autoridades. Un punto clave es que el proveedor no debe alterar el sistema de IA afectado tras un incidente sin informar a las autoridades, para no comprometer la investigación de las causas.
La Materialización del Cumplimiento: Documentación Técnica y Checklists
Finalmente, el Reglamento de IA exige que todo el esfuerzo de cumplimiento se materialice en una documentación exhaustiva que pueda ser auditada por las autoridades. Las dos últimas guías de la AESIA se centran en este aspecto crucial.
Guía 15: Documentación Técnica (Artículo 11 y Anexo IV)
La documentación técnica es el expediente que demuestra que un sistema de IA de alto riesgo cumple con todos los requisitos del Reglamento. La guía sobre el artículo 11 y el Anexo IV detalla la estructura y el contenido que debe tener esta documentación. Lejos de ser un mero trámite burocrático, la documentación técnica es un ejercicio de transparencia y responsabilidad que obliga al proveedor a registrar todas las decisiones de diseño, los métodos de desarrollo, los procedimientos de prueba y las medidas de mitigación de riesgos implementadas.
La guía recomienda utilizar un sistema de gestión documental centralizado (como una Wiki) y un robusto control de versiones para mantener la documentación siempre actualizada. Un punto de gran interés para las pymes y startups es la mención a un futuro «formulario simplificado» que la Comisión Europea establecerá para facilitar el cumplimiento de esta obligación a las empresas de menor tamaño.
Guía 16: Manual de Checklist de Guías de Requisitos
Esta última guía es, quizás, la herramienta más práctica de todo el conjunto. Describe la estructura y el funcionamiento de una herramienta de checklist en formato Excel que la AESIA ha diseñado para que las empresas puedan realizar un autodiagnóstico de su nivel de cumplimiento. La herramienta permite evaluar cada una de las medidas de control propuestas en las guías técnicas, asignando un nivel de madurez y un nivel de dificultad de implementación.
A partir de esta autoevaluación, la herramienta genera automáticamente un «Plan de Adaptación» que planifica las tareas de documentación e implementación necesarias para cerrar la brecha de cumplimiento. Esta herramienta, testada y validada en el marco del sandbox regulatorio español, es un instrumento de un valor incalculable para cualquier empresa que se enfrente al desafío de cumplir con el Reglamento de IA.
Conclusión: Un nuevo paradigma para la IA en España
La publicación de las 16 guías de la AESIA representa un hito fundamental en la regulación de la inteligencia artificial en España y en Europa. Por primera vez, las empresas disponen de una hoja de ruta clara, detallada y eminentemente práctica para abordar el cumplimiento del Reglamento Europeo de IA. Este conjunto de 761 páginas, fruto del trabajo pionero del sandbox regulatorio español, traslada los principios del Reglamento a la realidad empresarial, ofreciendo un marco de seguridad jurídica sin precedentes.
El análisis de estas guías revela un enfoque riguroso y exhaustivo, que abarca desde los aspectos más técnicos de la ciberseguridad y la gestión de datos hasta los principios éticos de la transparencia y la supervisión humana. El mensaje es claro: el cumplimiento no es una opción, sino una condición indispensable para desarrollar y desplegar sistemas de IA de alto riesgo en la Unión Europea. Pero también es una oportunidad para generar confianza, para innovar de forma responsable y para posicionar a España como un referente en el desarrollo de una IA fiable y centrada en el ser humano.
Desde Delvy, Pablo Sáez Hurtado y José Morato, junto con todo el equipo de IP/IT/AI, hemos asumido el compromiso de dominar cada detalle de esta nueva normativa para guiar a nuestros clientes en este complejo pero apasionante camino. Los planes de adecuación que estamos elaborando ya no solo se alinean con el Reglamento, sino que integran plenamente las recomendaciones y mejores prácticas de estas 16 guías. Estamos preparados para ayudar a las empresas a convertir este desafío regulatorio en una ventaja competitiva, asegurando que sus proyectos de IA no solo sean innovadores, sino también seguros, éticos y plenamente conformes a la ley.
La era de la IA confiable ha comenzado, y España, gracias a la labor de la AESIA, se sitúa en la vanguardia. El futuro de la inteligencia artificial se construirá sobre los cimientos de la confianza, y estas guías son la primera y más importante piedra de ese edificio.
Referencias
[1] Agencia Española de Supervisión de la Inteligencia Artificial. (2025, 11 de diciembre). Guías de orientación al cumplimiento de la E.U. A.I. ACT. https://aesia.digital.gob.es/es/guias
[2] La Moncloa. (2025, 11 de diciembre). López anima a las empresas a apoyarse en las guías de la AESIA para cumplir con la ley de IA y aprovechar sus oportunidades. https://www.lamoncloa.gob.es/serviciosdeprensa/notasprensa/transformacion-digital-y-funcion-publica/paginas/2025/111225-lopez-empresas-guias-ia.aspx
Autoría:
José Morato (IP&IT Partner) y Pablo Sáez (AI Senior Counsil)


