Fuente:
Asociación Empresas Consultoría
Lugar:
Inteligencia artificial
¿Qué tecnologías, diseños, estándares, enfoques de desarrollo y prácticas de seguridad están cobrando impulso en los sistemas empresariales multiagente?
La IA agente se ha convertido en la última novedad del sector del software. Más allá de los chatbots más inteligentes, los agentes de IA operan con una autonomía cada vez mayor, lo que los posiciona para impulsar mejoras en la eficiencia en todas las empresas.
“El término ‘agente’ se refiere a sistemas de IA que pueden realizar acciones en nombre de los usuarios, no solo generar texto o responder preguntas”, afirma Andrew McNamara, director de aprendizaje automático aplicado en Shopify. Los sistemas de agentes funcionan de forma continua hasta que se completa una tarea, añade, citando el Sidekick de Shopify, un agente proactivo para comerciantes.
El desarrollo de la IA agente abarca ahora muchos ámbitos empresariales. Según Anthropic, el proveedor de grandes modelos de lenguaje (LLM), los agentes de IA se implementan con mayor frecuencia en ingeniería de software, donde representan aproximadamente la mitad de los casos de uso, seguidos de la automatización de tareas administrativas, el marketing, las ventas, las finanzas y el análisis de datos.
“Un ejemplo concreto es la resolución de incidentes de TI”, indica Heath Ramsey, vicepresidente de grupo de gestión de productos de salida de la plataforma de IA en ServiceNow. En este contexto, los agentes de IA extraen datos contextuales de todos los sistemas, comprueban resoluciones y políticas anteriores, aplican soluciones, actualizan registros e informan a los miembros del equipo, explica.
Pero el desarrollo centrado en los agentes exige una nueva forma de pensamiento sistémico para evitar escollos como el indeterminismo y la saturación de tokens. También existen brechas de seguridad derivadas de los LLM, como la disposición de un modelo a mentir o inventar información para alcanzar un objetivo, una condición que los investigadores denominan desalineación de agentes.
Para los equipos que crean agentes que se integran con otros sistemas y razonan a través de diversas opciones para ejecutar flujos de trabajo de varios pasos, una planificación inicial adecuada es imprescindible. Por estas y otras razones, el diseño de la arquitectura de agentes requiere un nuevo manual de estrategias.
“Crear sistemas de agentes requiere una arquitectura fundamentalmente nueva, diseñada para la autonomía, no solo para la automatización”, dice Anurag Gurtu, director ejecutivo de AIrrived, un proveedor de plataformas de IA de agentes. “Los agentes necesitan un entorno de ejecución, un cerebro, manos, memoria y barreras de seguridad”.
Aunque la IA agentiva es prometedora, el retorno de la inversión de la IA es un objetivo cambiante. Menos de la mitad de las organizaciones informan de un impacto medible de los experimentos con IA agentiva, según Alteryx, y menos de un tercio confía en la IA para la toma de decisiones precisas.
Entonces, ¿cuáles son los ingredientes que hay detrás de los sistemas agenticos de nivel empresarial exitosos? En lugar de centrarnos en cómo construir dentro de la plataforma de un único proveedor, exploremos los rasgos comunes de los sistemas agentivos para sacar a la luz orientaciones prácticas y lecciones aprendidas para desarrolladores y arquitectos.
Componentes arquitectónicos de un sistema agentivo
Los sistemas agentivos se componen de un puñado de bloques de construcción que lo hacen todo posible. Juntos, forman una red interconectada de arquitectura de software, con diferentes componentes que sirven a diferentes propósitos. “Crear un agente de IA es como construir un sistema nervioso”, afirma Ari Weil, evangelista de la nube en Akamai.
Este sistema abarca capas de razonamiento, memoria, recopilación de contexto, coordinación, validación y medidas de seguridad con intervención humana. “Los sistemas agentivos se basan en una combinación de IA, automatización de flujos de trabajo y controles empresariales que funcionan conjuntamente”, añade Ramsey, de ServiceNow.
Modelo de razonamiento
En primer lugar, si desglosamos los sistemas agenticos en sus componentes fundamentales, hay que empezar por el modelo subyacente. “Un modelo de razonamiento se sitúa en el núcleo”, afirma Frank Kilcommins, director de arquitectura empresarial en Jentic, creadores de una capa de integración para IA. Este motor de razonamiento realiza la planificación basándose en la solicitud del usuario, combinada con el contexto disponible y las capacidades existentes.
Algunos modelos de razonamiento son más adecuados que otros. “Buscamos modelos que parezcan agentivos”, dice McNamara, de Shopify. “Tienen la cantidad adecuada de llamadas a herramientas y siguen las instrucciones con firmeza, lo que facilita darles indicaciones y dirigirlos”.
Contexto y datos
A continuación, un agente necesita contexto. Este puede adoptar la forma de datos internos de la empresa, conocimiento institucional y políticas, indicaciones del sistema, datos externos, memoria de chats anteriores y metadatos de agente, es decir, las indicaciones del usuario, los pasos de razonamiento y las interacciones con herramientas y fuentes de datos que permiten observar y depurar el comportamiento del agente.
Según Edgar Kussberg, director de producto de IA, agentes, IDE y herramientas de desarrollo en Sonar, las fuentes de datos pueden incluir bases de datos y API, sistemas de generación aumentada por recuperación (RAG) y bases de datos vectoriales, sistemas de archivos y almacenes de documentos, paneles de control internos o sistemas externos como Google Drive.
Las organizaciones están creando activamente bases de conocimiento de agentes para organizar dichos datos y optimizar el proceso de recuperación. Al mismo tiempo, están surgiendo patrones detrás de los procesos de recuperación semántica que impulsan los sistemas de gestión de contexto de los agentes.
“Por lo que recuerdo, la mayoría de los equipos combinan un almacén vectorial como pgvector con algo estructurado como un catálogo de datos o un grafo de conocimiento”, afirma Anusha Kovi, ingeniera de inteligencia empresarial en Amazon.
Herramientas y descubrimiento
Pero para que los agentes sean operativos, necesitan algo más que un contexto estático: necesitan acceso de lectura y escritura a bases de datos, herramientas y API.
“Parte del trabajo más importante que se está realizando para hacer que los agentes sean más potentes tiene que ver con las formas en que conectamos la IA y los sistemas existentes”, afirma Jackie Brosamer, directora de datos e IA en Block, la empresa de servicios financieros detrás de Square y Cash App.
Para habilitar el acceso a estas capacidades, el sector se ha unificado en torno al Model Context Protocol (MCP) como conector universal entre agentes y sistemas. Están surgiendo registros MCP para unificar y catalogar las capacidades MCP para los agentes a gran escala.
Existen numerosos casos prácticos públicos sobre el uso del MCP en arquitecturas de agentes, incluyendo el agente goose de código abierto de Block para el desarrollo de software impulsado por LLM y el uso del MCP por parte de Workato para flujos de trabajo empresariales impulsados por Claude.
Flujos de trabajo definidos
Otro componente útil es contar con flujos de trabajo claramente documentados para los procedimientos comunes. Estos incluyen acciones de varios pasos que están interrelacionadas entre servidores MCP o llamadas directas a la API.
“Lo importante es que estos agentes se coordinen a través de flujos de trabajo definidos”, afirma Ramsey, de ServiceNow, “para que la autonomía se amplíe de forma predecible y controlada, en lugar de volverse caótica”.
Kilcommins, de Jentic, describe cómo se puede lograr esto utilizando “definiciones de capacidades claras y legibles por máquina”, haciendo referencia a la especificación Arazzo, un estándar del sector de la OpenAPI Initiative, como método para documentar dichos comportamientos.
Orquestación multiagente
En este sentido, los agentes deben estar equipados para integrarse entre sí y encajar bien en un bucle de retroalimentación continuo. Los sistemas multiagente suelen ser necesarios a gran escala, afirma Gurtu, de AIrrived. “En lugar de un agente generalista, a menudo se cuenta con equipos de agentes especializados, como agentes de razonamiento, agentes de recuperación, agentes de acción y agentes de validación”.
Esta realidad requiere un tejido conectivo. “En esencia, se necesita una capa de orquestación para el ciclo planificar-ejecutar-evaluar”, afirma Kovi, de Amazon.
Entre los componentes comunes para la orquestación, añade Kovi, se incluyen LangGraph, un marco de orquestación de bajo nivel; CrewAI, un marco de Python para la orquestación multiagente; y Bedrock Agents, que ayuda a los agentes a automatizar tareas de varios pasos.
Los estándares y protocolos abiertos, como el protocolo A2A para las comunicaciones entre agentes, también serán importantes para permitir que los agentes de IA colaboren de forma eficaz.
Seguridad y autorización
Dada la propensión de los LLM a ‘alucinar’ y desviarse de las expectativas, la seguridad es quizás el elemento más importante a la hora de construir sistemas de agentes seguros. “Ya no se protege software que sugiere, se protege software que actúa”, afirma Gurtu. “Una vez que los agentes pueden modificar el acceso, activar flujos de trabajo o remediar incidentes, cada decisión se convierte en un posible fallo de control si no está regulada”.
Según Kilkommins, el alcance potencial de las acciones de los agentes es enorme, especialmente en el caso de ejecuciones encadenadas y sin control. Recomienda contar con permisos claramente definidos para evitar la escalada de privilegios y la exposición de datos confidenciales.
En los sistemas con agentes, se necesitan métodos de seguridad matizados. “Un agente decide en tiempo de ejecución qué consultar y qué herramientas invocar, por lo que no se pueden delimitar los permisos de la forma tradicional”, añade Kovi. Los expertos afirman que la autorización justo a tiempo será crucial para preparar el internet no humano para el futuro.
Kovi añade que las reglas de seguridad, como “no consultar columnas de información personal”, no deberían aparecer en la ventana de comandos. “Las barreras de seguridad deben estar en las políticas y la configuración de gestión de identidades y accesos, no solo en las instrucciones de la línea de comandos”.
Puntos de control humanos
Incluso con autenticación y autorización avanzadas, las acciones sensibles requerirán aprobaciones humanas. Shopify se basa por defecto en el “diseño con intervención humana”, dice McNamara. Han adoptado puertas de aprobación para evitar cambios totalmente autónomos en los sistemas de producción. Esto permite a los comerciantes revisar el contenido generado por la IA de Sidekick antes de que se publique.
Otros adoptan una postura similar, especialmente en el caso de las transacciones financieras. “Nuestra regla general es que cualquier cosa que afecte a los sistemas de producción necesita controles humanos”, afirma Brosamer, de Block, refiriéndose a cómo la confirmación del usuario es un elemento clave de Moneybot, el agente integrado en Cash App.
Capacidades de evaluación
La creación de sistemas agenticos también requiere una gran cantidad de pruebas previas para evaluar si los resultados coinciden con los previstos. Por ejemplo, Shopify lleva a cabo una rigurosa evaluación previa a la implementación de los resultados de los agentes utilizando tanto pruebas humanas como simulaciones de usuarios con evaluadores especializados basados en LLM. “Una vez que tu evaluador coincide de forma fiable con los evaluadores humanos, puedes confiar en él a gran escala”, afirma McNamara.
Otros coinciden en que las evaluaciones son fundamentales para los sistemas de agentes de nivel empresarial. “Trata a los agentes como sistemas regulados”, afirma Gurtu. “Realiza cambios en entornos de pruebas y prueba a los agentes en simulaciones”.
Observabilidad del comportamiento
Por último, otra capa fundamental es la observabilidad. En el caso de los sistemas de agentes, esta debe ir más allá de la monitorización tradicional o la detección de fallos para captar señales avanzadas, como por qué fallaron los agentes o por qué eligieron determinadas acciones en lugar de otras.
“La observabilidad debe integrarse desde el primer día”, afirma Kussberg, de Sonar. “Se necesita transparencia en cada paso de la ejecución: indicaciones, llamadas a herramientas, decisiones intermedias y resultados finales”.
Con comportamientos de los agentes más observables, se puede mejorar el sistema de forma continua con el tiempo. Como dice Kussberg, “la transparencia impulsa la mejora”.
Estrategias de optimización del contexto
Casi todos los expertos coinciden: proporcionar a los agentes de IA datos mínimos y relevantes es mucho mejor que una sobrecarga de datos. Esto es fundamental para evitar saturar las ventanas de contexto y degradar la calidad de los resultados.
“Una curación de datos bien pensada importa mucho más que el volumen de datos”, afirma Brosamer. “La calidad de la salida de un agente está directamente ligada a la calidad de su contexto”.
En Block, los ingenieros mantienen archivos README claros, aplican estándares de documentación coherentes y jerarquías de proyectos bien estructuradas, y se adhieren a otras convenciones semánticas que ayudan a los agentes a extraer información relevante.
“Los sistemas de agentes no necesitan más datos, necesitan los datos correctos en el momento adecuado”, añade Kussberg, de Sonar. “Los sistemas eficaces proporcionan a los agentes herramientas de descubrimiento versátiles y les permiten ejecutar bucles de recuperación hasta que determinan que disponen de suficiente contexto”.
La filosofía predominante es adoptar la divulgación progresiva de la información. Shopify se toma esto muy en serio, utilizando la entrega modular de instrucciones. “La entrega de contexto justo a tiempo es clave”, afirma McNamara. “En lugar de sobrecargar la solicitud del sistema, devolvemos el contexto relevante junto con los datos de la herramienta cuando es necesario”.
Otros señalan que el contexto también debería incluir matices semánticos, dice Kovi. “Si un agente no sabe que ‘usuarios activos’ significa algo diferente en producto frente a marketing, dará respuestas erróneas con total seguridad”, afirma. “Eso es difícil de detectar”.
Buenas prácticas de arquitectura
Hay muchas recomendaciones adicionales sobre el desarrollo de sistemas de agentes. La primera es darse cuenta de que no todo necesita ser ‘agentificado’.
Combinar los LLM con integraciones MCP es ideal para situaciones novedosas que requieren un razonamiento y una capacidad de respuesta altamente escalables y sensibles al contexto. Pero el MCP puede ser excesivo para la automatización programada, repetitiva y determinista, especialmente cuando el contexto es estático y la seguridad es estricta.
Por ello, Kilkommins recomienda determinar qué comportamiento es adaptativo y cuál es determinista, y codificar este último, ya que esto permitirá a los agentes iniciar comportamientos programados definidos intencionadamente, lo que aportará más estabilidad.
Determinar las áreas principales para los procesos de agentes también se reduce a encontrar casos de uso reutilizables. “Las organizaciones que han implementado con éxito la IA de agentes suelen empezar por identificar un proceso de alta fricción”, afirma Ramsey. Esto podría incluir las solicitudes de servicio de los empleados, la incorporación de nuevos contratados o la respuesta a incidencias de los clientes, añade.
Gurtu añade que los agentes rinden mejor cuando se les asignan objetivos empresariales concretos. “Empiece por las decisiones, no por las demostraciones”, afirma. “Lo que no funciona es tratar a los agentes como chatbots sin estado o sustituir a los humanos de la noche a la mañana”, afirma Gurtu.
Otros creen que limitar la autonomía de un agente da mejores resultados. “Los agentes funcionan mejor como especialistas, no como generalistas”, dice Kussberg.
Por ejemplo, Shopify establece límites claros a la hora de ampliar las herramientas. “En algún punto entre 20 y 50 herramientas, los límites empiezan a difuminarse”, afirma McNamara. Mientras que algunos proponen separar los límites de las funciones con agentes distintos específicos para cada tarea, Shopify ha optado por una arquitectura de subagentes con herramientas de bajo nivel.
“De hecho, nuestra recomendación es evitar las arquitecturas multiagente en las primeras fases”, afirma McNamara. “Ahora estamos introduciendo subagentes con el enfoque adecuado, y un principio clave es crear herramientas de muy bajo nivel y enseñar al sistema a traducir el lenguaje natural a ese lenguaje de bajo nivel, en lugar de desarrollar herramientas escenario por escenario».
Los expertos comparten otros consejos para diseñar y desarrollar sistemas de agentes:
Utilizar una infraestructura abierta: los agentes abiertos y los marcos independientes del proveedor te permiten utilizar los modelos que mejor se adapten a cada propósito.
Peensar primero en la API: un buen diseño de la API y definiciones claras y legibles por máquina preparan mejor a una organización para los agentes de IA.
Mantener los datos sincronizados: mantener sincronizados los datos compartidos es otro reto. Las arquitecturas basadas en eventos pueden mantener los datos actualizados.
Equilibrar el acceso con el control: mantener la seguridad de los sistemas agenticos requerirá ejercicios de seguridad proactivos, registros de auditoría exhaustivos y validación defensiva de datos.
Mejorar continuamente: para evitar la deriva de los agentes, el desarrollo de sistemas agenticos requerirá inevitablemente un mantenimiento continuo a medida que la industria y la tecnología de IA evolucionen.
El futuro de los sistemas de agentes de IA
El desarrollo de la IA agentiva ha avanzado a un ritmo vertiginoso. Ahora nos encontramos en un punto en el que los patrones de los sistemas agenticos están empezando a consolidarse.
De cara al futuro, los expertos prevén un giro hacia el desarrollo de más sistemas multiagente, lo que impulsará la necesidad de patrones de orquestación más complejos y la dependencia de estándares abiertos. Algunos pronostican una revisión sustancial del trabajo intelectual en general.
“Espero que en 2026 veamos experimentos con marcos para estructurar «fábricas» de agentes que coordinen la producción de trabajo intelectual complejo, empezando por la programación”, afirma Brosamer, de Block. El aspecto más desafiante será optimizar los flujos de información existentes para los casos de uso de los agentes, añade.
Un aspecto de ese futuro podría ser un mayor énfasis en nubes alternativas y la inferencia basada en el borde para trasladar ciertas cargas de trabajo fuera de la arquitectura de nube centralizada con el fin de reducir la latencia.
“El futuro de la IA competitiva exige proximidad, no solo potencia de procesamiento”, afirma Weil, de Akamai. “Los agentes deben actuar en el mundo real, interactuando con usuarios, dispositivos y datos a medida que se desarrollan los acontecimientos”.
En definitiva, la creación de sistemas basados en agentes es una tarea muy compleja, y las prácticas aún están madurando. Se necesitará una combinación de tecnologías novedosas, un enfoque de diseño similar al de los microservicios y medidas de seguridad para llevar a buen término estos proyectos a gran escala de una manera significativa y sostenible, todo ello sin dejar de otorgar a los agentes una autonomía significativa.
El futuro parece estar en los sistemas basados en agentes. Pero el diseño inteligente de los sistemas que sustenta estos sistemas será lo que distinga los resultados exitosos de los proyectos piloto fallidos.
Fuente: ComputerworldThe post Buenas prácticas para crear sistemas de agentes de IA first appeared on AEC - Asociación española de empresas de consultoría.