AI Act: El Futuro de la Inteligencia Artificial Responsable en Europa

Picture of Nibaldo Pino Araya
Nibaldo Pino Araya
| 30 julio, 2025

El 1 de agosto de 2024 marcó un antes y un después en la historia de la tecnología europea: entró en vigor la Regulación (UE) 2024/1689, más conocida como la AI Act, la primera ley horizontal en el mundo dedicada exclusivamente a regular el desarrollo y uso de la inteligencia artificial. Su objetivo es claro: establecer un marco común para un uso ético, seguro y confiable de la IA en la Unión Europea, sin sofocar la innovación.

Como líderes en soluciones de inteligencia artificial, en Raona no solo celebramos este hito, sino que lo incorporamos activamente en nuestras prácticas de diseño, desarrollo y despliegue de sistemas de IA. En este artículo, te explicamos qué es la AI Act, cómo impactará a las organizaciones y por qué adoptar un enfoque proactivo es clave para liderar con responsabilidad en la era de la IA generativa.

¿Qué es la AI Act y cuándo se aplica?

La AI Act fue aprobada por el Parlamento Europeo el 13 de marzo de 2024, publicada oficialmente el 12 de julio y entró en vigor el 1 de agosto de 2024. La norma establece un enfoque basado en niveles de riesgo que clasifica los sistemas de IA según su impacto potencial en los derechos fundamentales, la seguridad y la confianza de los usuarios.

Calendario de implementación:

  • 2 de febrero de 2025: Prohibición de sistemas de riesgo inaceptable y obligaciones básicas de transparencia.
  • 2 de agosto de 2025: Entrada en vigor del régimen para modelos de IA de propósito general (GPAI), como los modelos generativos.
  • 2 de agosto de 2026: Aplicación para sistemas de alto riesgo (educación, salud, justicia, empleo, etc.).
  • 2 de agosto de 2027: Entrada en vigor para sistemas de alto riesgo vinculados a productos regulados sectorialmente (por ejemplo, dispositivos médicos o maquinaria industrial).

Clasificación por riesgo: cuatro niveles, una estrategia

La AI Act introduce un enfoque escalonado y proporcional que clasifica los sistemas de inteligencia artificial en función del riesgo que representan para la sociedad y los derechos fundamentales. Esta clasificación no es meramente académica: define las obligaciones legales y operativas que cada organización deberá cumplir al diseñar, implementar o consumir soluciones basadas en IA.

En la cima de la escala está el riesgo inaceptable, es decir, aquellos usos de la IA que están prohibidos por considerarse contrarios a los valores fundamentales de la Unión Europea. Por ejemplo, un sistema que manipula emocionalmente a usuarios vulnerables para alterar su comportamiento de consumo, o que asigna «puntuaciones sociales» a ciudadanos a partir de su comportamiento online, está vetado. También entra en esta categoría la vigilancia biométrica en tiempo real en espacios públicos, salvo en situaciones excepcionales de seguridad nacional. Son tecnologías que erosionan la confianza y la dignidad individual, y por eso el legislador las ha descartado completamente.

El segundo nivel corresponde a los sistemas de alto riesgo, aquellos que pueden afectar directamente la vida de las personas. Pensemos en una plataforma que selecciona currículums para un proceso de selección, un sistema que emite un diagnóstico médico automatizado o una herramienta que puntúa exámenes de acceso a la universidad. Estos sistemas requieren cumplimiento estricto: trazabilidad, documentación técnica, supervisión humana y, en algunos casos, evaluaciones de impacto ético y legal. En Raona, por ejemplo, hemos acompañado a entidades sanitarias en el diseño de sistemas predictivos de recaídas que incorporan estos requisitos desde la fase de diseño.

El tercer nivel abarca los sistemas de riesgo limitado, donde se prioriza la transparencia. Son sistemas como chatbots, asistentes virtuales o generadores de texto que interactúan directamente con personas. Aunque no se consideran peligrosos, deben informar claramente que se trata de una IA. Por ejemplo, si un cliente habla con un agente virtual de atención al cliente, debe saber que no está hablando con un humano. Esta claridad es clave para construir confianza y evitar malentendidos.

Finalmente, están los sistemas de riesgo mínimo, como filtros de spam, herramientas de corrección gramatical o motores de recomendación básicos (como sugerencias de productos). Estos pueden seguir usándose sin mayores restricciones, aunque siempre se recomienda documentar su funcionamiento en contextos corporativos.

Esta categorización por niveles no es solo un requisito legal: es una oportunidad para que las empresas revisen su cartera de soluciones y adopten un enfoque proactivo de gobernanza, anticipando requisitos y evitando riesgos reputacionales.

El impacto en empresas y equipos de IA

La AI Act no es solo una regulación técnica; es un marco que redefine la gobernanza tecnológica en Europa. Para las empresas, especialmente aquellas que desarrollan o integran soluciones basadas en IA, representa una llamada a la acción en cinco dimensiones:

  1. Transparencia y documentación: Registros de entrenamiento, explicabilidad de modelos y etiquetado de contenido generado.
  2. Gestín del ciclo de vida de la IA: Desde el diseño hasta el despliegue, se requiere documentación técnica, validación de riesgos y medidas de mitigación.
  3. Evaluaciones de impacto: Obligatorias en sistemas de alto riesgo, similares a las DPIA en protección de datos.
  4. Supervisión humana: Requisito fundamental para sistemas críticos.
  5. Códigos de conducta y auditorías externas: Incentivados como mecanismo de cumplimiento y reputación.

En Raona, trabajamos alineados con este enfoque: nuestros despliegues de agentes conversacionales, sistemas de clasificación, generación de audio, texto o integraciones en Power Platform (Copilot Stuido/Power Automate) ya contemplan estos requisitos.

¿Y qué pasa con los modelos generativos y los agentes de IA?

Uno de los puntos más relevantes para 2025 es la regulación de modelos de IA de propósito general (como GPT-4, Claude, Gemini, Mistral, etc.). Estas tecnologías, utilizadas para tareas versátiles como generación de texto, código o imágenes, estarán sujetas a:

  • Obligaciones de transparencia, incluyendo resúmenes de datos de entrenamiento, sistemas para identificar contenido sintético y garantías de copyright.
  • Para modelos considerados de riesgo sistémico (por su capacidad y uso masivo), se exigirá documentación técnica, evaluaciones de seguridad y adherencia a un código de prácticas armonizado.

Esto afectará directamente a los entornos empresariales que consumen APIs de proveedores externos, que desarrollan copilots internos o que crean agentes multi-modales. Estar al día no será una opción, sino una condición habilitadora para la continuidad y escalabilidad de la IA.

El caso de España: anticiparse para liderar

España no solo ha sido rápida en alinearse con la AI Act, sino que ha optado por un enfoque proactivo que busca liderar el cumplimiento regulatorio y convertirlo en una ventaja competitiva para su tejido empresarial. Mientras otros países miembros aún están ajustando sus marcos institucionales, España ya ha materializado tres pilares clave:

En primer lugar, destaca la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuyo estatuto fue aprobado el 22 de agosto de 2023, convirtiéndose en la primera agencia nacional de este tipo en toda la Unión Europea. AESIA centraliza los esfuerzos del Estado en supervisión, orientación, educación y control del despliegue ético de sistemas de IA. No se limita a funciones sancionadoras: su rol activo en la divulgación, estandarización y acompañamiento técnico está siendo clave para impulsar la adopción responsable.

En segundo lugar, España ha desplegado un sandbox regulatorio nacional en abril de 2025. Este entorno controlado permite a empresas experimentar con tecnologías emergentes de IA, especialmente aquellas de alto riesgo, bajo la supervisión directa de AESIA y con acompañamiento jurídico y técnico. La primera cohorte de doce proyectos incluye soluciones en ámbitos como justicia predictiva, asistencia clínica automatizada o sistemas de movilidad inteligente. Este modelo se diferencia del de otros países europeos por su apertura a empresas medianas y por su carácter colaborativo entre sector público, privado y académico.

En tercer lugar, el Gobierno ha redactado una Ley de Gobernanza y Buen Uso de la IA, publicada en forma de anteproyecto en marzo de 2025. Esta ley amplía y adapta el AI Act a las necesidades locales, incorporando sanciones de hasta 35 millones de euros o el 7% del volumen de negocio global por infracciones graves como el uso no autorizado de datos personales, deepfakes sin etiquetado o sistemas opacos que afecten decisiones vitales para los ciudadanos. El texto también introduce requisitos sobre alfabetización digital, trazabilidad de modelos y registro obligatorio para ciertos usos de IA.

Frente a la fragmentación que todavía afecta a otros Estados miembros, donde se debate sobre qué agencia debe liderar la supervisión o cómo aplicar los criterios de riesgo, España se ha anticipado con instituciones operativas, normativa en marcha y experiencias piloto. Este liderazgo normativo convierte al país en un entorno privilegiado para escalar soluciones de IA con garantías legales. Para las empresas tecnológicas, desarrollar o adaptar sus sistemas desde España es una estrategia que ofrece certidumbre, respaldo institucional y acceso temprano a buenas prácticas que, muy probablemente, se convertirán en estándar en toda Europa.

¡Actúa ahora!

La AI Act no es una amenaza: es una oportunidad para construir sistemas de IA confiables, explicables y sostenibles. En Raona ayudamos a las organizaciones a:

  • Auditar sus soluciones existentes frente a los requisitos de la AI Act.
  • Diseñar arquitecturas de IA responsables, seguras y escalables.
  • Integrar IA generativa bajo criterios de cumplimiento, trazabilidad y control humano.
  • Acompañar a equipos técnicos y de negocio en la adopción progresiva de marcos éticos, regulativos y técnicos, alineados con la normativa europea y española.

Nuestra experiencia trabajando con empresas líderes del sector salud, administración pública, telecomunicaciones, industria y banca nos permite entender los desafíos reales y construir soluciones adaptadas a cada contexto.

Si tu organización está apostando por la inteligencia artificial, ahora es el momento de prepararse. Quien actúe hoy, liderará mañana.

Hablemos. En Raona combinamos visión estratégica, solidez tecnológica y compromiso regulatorio para ayudarte a navegar y liderar esta nueva etapa de la IA en Europa.

🔗¡Descárgate mi guía práctica para integrar la IA en tu empresa!

 

Nibaldo Pino Araya

Experto en IA y análisis de datos con 7+ años de experiencia en la industria y 9 en academia, apasionado por la innovación tecnológica y especializado en soluciones avanzadas de machine learning, NLP y visión por computador en Raona.

Compartir en Redes Sociales