La inteligencia artificial avanza a pasos tan rápidos que, a veces, cuesta identificar cuáles son los verdaderos puntos de inflexión y cuáles son apenas destellos pasajeros. El año pasado, el auge de los modelos de lenguaje de gran escala (LLMs) transformó la manera en que las empresas entendían la IA: pasamos de algoritmos predictivos a sistemas capaces de mantener conversaciones naturales, redactar documentos, programar y generar ideas creativas.
Hoy nos encontramos frente a un salto aún más profundo. La conversación ya no se centra en lo que un modelo puede “decir”, sino en lo que un agente puede hacer.
En esta nueva entrega nos adentramos en las arquitecturas de agentes, el corazón de un paradigma emergente que busca transformar a los modelos en colaboradores autónomos, capaces de actuar, coordinarse y aprender.
De chatbots a agentes: un cambio de paradigma
Un chatbot tradicional, incluso los más avanzados, responde a lo que le preguntamos. Puede tener acceso a un repositorio de datos y devolver información precisa, pero su rol se limita a la interacción. Un agente, en cambio, no se detiene ahí: observa el entorno, razona sobre él, diseña un plan, ejecuta acciones, almacena memoria de lo ocurrido y reflexiona sobre cómo mejorar en la siguiente ocasión.
Este bucle vital —percepción, razonamiento, planificación, acción, memoria y reflexión— aparece una y otra vez en la literatura técnica reciente. Investigaciones como el “Agent Design Pattern Catalogue” de CSIRO (2024) ya lo estandarizan en forma de patrones reutilizables, mientras que el survey de IBM y Microsoft (2024) subraya que la capacidad de planificar y coordinarse, junto al uso eficaz de herramientas, son los factores decisivos para que un agente sea útil en la práctica.
El salto es comparable al que vivimos cuando los algoritmos de aprendizaje automático se transformaron en sistemas completos de MLOps: lo importante ya no es el modelo aislado, sino la arquitectura que lo rodea, las conexiones que establece y las decisiones que toma.
Un repaso histórico: raíces cognitivas que vuelven
Aunque hoy los titulares hablen de agentes generativos, las arquitecturas de agentes no son un invento nuevo. Desde los años 80 la investigación en IA cognitiva proponía modelos como BDI (Belief-Desire-Intention), donde se representaban explícitamente las creencias, deseos e intenciones de un agente. Otras arquitecturas como Soar y ACT-R exploraban cómo emular procesos mentales humanos, incorporando memoria de trabajo y aprendizaje por experiencia.
También estaban los sistemas Blackboard, donde diferentes módulos colaboraban escribiendo en una pizarra común. Ese patrón, que parecía pertenecer al pasado, hoy resurge en entornos multi-agente modernos: el “espacio compartido” vuelve a ser un mecanismo para coordinar agentes especializados.
Lo fascinante es cómo esos enfoques teóricos encuentran ahora un nuevo impulso gracias a los LLMs. Los agentes ya no necesitan reglas simbólicas predefinidas: pueden razonar en lenguaje natural, invocar APIs o conectarse con sistemas corporativos en tiempo real.
El ciclo vital de un agente moderno
Un agente contemporáneo puede imaginarse como un organismo digital que respira en ciclos. Primero percibe: ingresa texto de un usuario, consulta un documento, recibe datos de un CRM o incluso interpreta señales multimodales. Con esa información, razona y planifica, descomponiendo el objetivo en pasos alcanzables. Puede hacerlo de manera incremental, como en el enfoque ReAct (razona y actúa paso a paso), o jerárquica, separando a un planificador de un ejecutor, como proponen frameworks como LangGraph (2024).
Después viene la acción, donde el agente ya no se limita a responder en lenguaje natural. Puede ejecutar una consulta SQL, llamar a un servicio externo, generar un script y probarlo, o incluso navegar la web. Aquí entran en juego conceptos como los Large Action Models (LAMs), que ponen énfasis en robustecer la capacidad de los agentes para ejecutar funciones y no solo generar texto.
La memoria se convierte en una pieza crítica. Los agentes necesitan memoria de corto plazo para no perder el contexto de la conversación, memoria de largo plazo para acumular experiencias y, en entornos multi-agente, memoria compartida que funcione como esa pizarra donde todos contribuyen.
Finalmente, está la reflexión y el aprendizaje. El agente revisa lo hecho, se autocorrige o permite que otro agente —o un humano— lo evalúe. Papers como Krishnan (2025) señalan que esta fase de auto-crítica es clave para robustecer la fiabilidad y reducir errores acumulativos.
Mono-agente vs. multi-agente: dos mundos complementarios
Hay escenarios donde un único agente es suficiente. Si necesito un asistente financiero que consulte bases de datos, formule hipótesis y genere un informe, un ciclo ReAct con acceso a herramientas cumple perfectamente. La simplicidad aquí es una ventaja: menos complejidad significa menor latencia y menor coste operativo.
Pero cuando los procesos son largos, multipaso y con distintos roles especializados, entramos en el terreno de los multi-agente. En este mundo se han identificado tres grandes topologías.
En primer lugar, las verticales o jerárquicas, donde un supervisor coordina sub-agentes especializados. Este patrón ofrece control central y trazabilidad, muy útil en sectores regulados. En segundo lugar, las horizontales, en las que los agentes actúan como pares, cooperando y debatiendo. Son útiles en escenarios de creatividad o cuando buscamos resiliencia frente a fallos individuales. Finalmente, los esquemas híbridos, que alternan liderazgo centralizado con colaboración libre según la fase del proceso.
Frameworks como AutoGen (AG2) ya implementan estas dinámicas de equipos, permitiendo que un grupo de agentes converse entre sí y con un humano en el bucle.
Patrones de diseño: la biblioteca que crece
Uno de los avances más interesantes es la sistematización de patrones de diseño. El catálogo de la CSIRO identifica dieciocho, entre ellos la creación de objetivos proactivos, donde el agente no espera órdenes sino que detecta oportunidades; la planificación multipath, que explora varias rutas de solución en paralelo; y la reflexión cruzada, en la que agentes distintos critican y corrigen los resultados de sus compañeros.
Este tipo de enfoques reduce el riesgo de errores y aumenta la confiabilidad, pero también tiene implicaciones de coste y latencia. Aquí está el balance que las empresas deben entender: cada patrón tiene fortalezas y trade-offs, y no se trata de aplicar todos a la vez, sino de seleccionar los que maximizan valor en un caso de uso concreto.
Del paper al framework: herramientas en la práctica
El ecosistema actual ofrece frameworks que materializan estas ideas. OpenAI Agents SDK introduce una arquitectura liviana pero poderosa, con agentes, herramientas, handoffs, guardrails y sesiones, además de integrar el estándar MCP (Model Context Protocol) para conectar agentes con servicios externos de forma uniforme.
LangGraph, por su parte, orquesta agentes en grafos de estado. Esto permite reproducibilidad, checkpointing y auditoría detallada, algo especialmente relevante para sectores donde la trazabilidad es innegociable.
En paralelo, AutoGen (AG2) habilita equipos de agentes con comunicación asincrónica, ideal para escenarios colaborativos. Y en la vanguardia más experimental, proyectos como Voyager muestran cómo un agente puede aprender habilidades reutilizables y componerlas de manera autónoma en entornos abiertos como Minecraft.
Evaluación y gobernanza: los retos pendientes
Un agente no se mide como un modelo de clasificación. Aquí lo que importa es el éxito de la tarea completa. ¿Logró llegar al objetivo? ¿En cuánto tiempo? ¿Con qué coste? ¿Cuántas veces necesitó intervención humana?
Los benchmarks existentes, como WebArena para navegación web, SWE-bench para resolución de código o GAIA para tareas generalistas, son un paso adelante, pero aún insuficientes. El propio paper de Krishnan (2025) critica que el ecosistema de evaluación actual mide demasiado la precisión y muy poco la robustez, la seguridad o la eficiencia.
Para las empresas, esto implica que la evaluación debe ir más allá de métricas académicas: se necesitan paneles de control que muestren coste por tarea, tasa de éxito, latencia, reintentos y porcentaje de intervenciones humanas.
Lo que significa para las organizaciones
El impacto en la empresa es directo. Un área legal puede automatizar la revisión de contratos con un equipo de agentes que clasifican, extraen cláusulas y evalúan riesgos. Un centro de soporte puede multiplicar su capacidad al desplegar agentes especializados que trabajan en paralelo. Un área de operaciones puede integrar agentes que monitorean, analizan y actúan sobre sistemas complejos en tiempo real.
El valor no está solo en la eficiencia, sino en la resiliencia y escalabilidad. Diseñar arquitecturas de agentes modulares permite que los fallos se aíslen, que los roles se expandan con facilidad y que la organización esté mejor preparada para escenarios cambiantes.
Además, en un contexto regulatorio como el europeo, con el AI Act en el horizonte, contar con arquitecturas auditables, trazables y gobernadas ya no es una opción: es una obligación.
Hacia adelante: ecosistemas de agentes
El futuro apunta a agentes con memorias cada vez más ricas, capaces de acumular experiencias y adaptarse como verdaderos colaboradores digitales. Veremos también la consolidación del MCP y otros protocolos que harán que los agentes puedan descubrir y utilizar servicios empresariales sin fricciones.
La evolución natural será hacia ecosistemas distribuidos, donde agentes corren en paralelo en la nube, en el edge y en dispositivos locales, integrando sensores, datos y procesos en tiempo real. Y, a medida que maduren los benchmarks, podremos certificar agentes con criterios sólidos de seguridad, coste y confiabilidad.
Conclusión: de copilotos a colaboradores
Los copilotos fueron el primer gran paso, los agentes son el siguiente. Ya no hablamos de un asistente que responde, sino de un colaborador que planifica, actúa y aprende. Para las empresas, la pregunta no es si esta tecnología funcionará, sino cómo llevarla a producción con garantías de seguridad, eficiencia y gobernanza.
En Raona acompañamos a nuestros clientes precisamente en ese desafío: diseñando arquitecturas de agentes adaptadas a cada caso de uso, desde la automatización documental hasta equipos virtuales que multiplican la productividad.
Hablemos de…
Con este segundo episodio de nuestra serie “Hablemos de…”, queremos seguir compartiendo reflexiones y aprendizajes sobre la revolución de la IA en la empresa. Si tu organización está evaluando cómo incorporar agentes para automatizar procesos, mejorar la experiencia de cliente o reforzar la estrategia de datos, conversemos.
👉 ¿Qué agentes necesita tu negocio para dar el siguiente paso?