Imagen de la noticia Azure AI Foundry: el taller serio para construir sistem...

Azure AI Foundry: el taller serio para construir sistemas multi-agente (y llevarlo a VS Code sin perder el control)

Del piloto de IA que “impresiona” a workflows y agentes con trazabilidad, orquestación y ciclo de vida de ingeniería

IA aplicada, pero con ingeniería
Si tu IA no tiene orquestación y gobierno, es una demo cara
Azure AI Foundry no viene a “hacerte prompts”. Viene a convertir experimentos en sistemas: agentes, flujos, observabilidad y seguridad, con disciplina de plataforma.
Lo que desbloquea
Multi-agente con control, trazabilidad y ciclo de vida
Lo que evita
Pilotos imposibles de gobernar, medir y escalar
Dónde impacta
Operaciones, atención al cliente, finanzas, IT, datos
Pedir una sesión de enfoque Ver un roadmap de adopción

Sin “powerpoints eternos”. 45–60 min, orientado a decisiones y próximos pasos.
Frase destacada
“El salto de la IA no es del modelo. Es de la plataforma: observabilidad, seguridad, gobierno y disciplina de entrega.”
Pregunta provocadora
¿Tu “piloto de IA” es reproducible, auditable y medible, o depende del entusiasmo del equipo y de que nadie haga preguntas incómodas?

Por qué esto debería importarte (aunque tengas un piloto que funciona)

Hay una escena que se repite en casi cualquier organización: un equipo monta un piloto con un modelo potente, lo enseña, y durante dos semanas parece que se ha descubierto el fuego. Luego llega el mundo real: usuarios, procesos, datos sensibles, cambios, auditorías, costes, incidencias y la incómoda pregunta de “¿quién se responsabiliza cuando esto falla?”.

El problema no es que el piloto sea malo. El problema es que un piloto no es un sistema. Un piloto suele vivir en un entorno controlado, con datos “amables”, un flujo lineal y un número limitado de casos. En producción, sin embargo, la realidad es multi-paso, multi-actor y multi-objetivo. Y ahí la IA se convierte en otra cosa: deja de ser “una respuesta” y pasa a ser un conjunto de decisiones que afectan a operación, seguridad y cumplimiento.

Por eso el gancho de este artículo es deliberadamente duro: si tu IA no tiene orquestación y gobierno, es una demo cara. Puedes tener un modelo excelente, pero si no puedes versionar, observar, auditar, controlar permisos, medir coste por caso y establecer un ciclo de vida, lo que tienes es un experimento… que además va a crecer, porque a la gente le encanta pedir “una cosa más”.

Lo que suele faltar en pilotos
  • Trazabilidad: saber por qué respondió eso y con qué fuentes
  • Observabilidad: medir calidad, latencia, fallos y coste real
  • Gobierno: permisos, datos, cumplimiento y límites
  • Ciclo de vida: versionado, pruebas, despliegue, rollback
  • Orquestación: coordinar tareas, herramientas, agentes y excepciones
Lo que exige producción
  • Métricas por caso de uso (no “sensaciones”)
  • Controles de seguridad y privacidad desde el diseño
  • Capacidad de auditoría y explicación
  • Integración con herramientas, datos y procesos reales
  • Gestión de cambios: el negocio cambia cada semana

Qué significa “sistema multi-agente”

Cuando hablamos de multi-agente, no hablamos de “varios chats”. Hablamos de un patrón de arquitectura donde especializas responsabilidades para que el sistema sea más fiable, escalable y gobernable. En la práctica, un sistema multi-agente suele dividirse en roles. Ejemplos:

Agente de intención
Entiende la petición, identifica el objetivo y el contexto, y decide “qué tipo de trabajo” hay que hacer.
Agente de recuperación (RAG)
Busca fuentes internas, aplica filtros de seguridad y aporta evidencia para que la respuesta sea verificable.
Agente de ejecución
Llama a herramientas y sistemas (APIs, flujos, bases de datos) con permisos controlados y registra acciones.
Agente de compliance
Valida si la respuesta/acción cumple normas, datos permitidos y criterios de seguridad antes de “firmar”.

No todos estos roles tienen que ser “modelos diferentes”; a veces son el mismo modelo con instrucciones y políticas distintas. Lo relevante es que el flujo queda explícito: quién decide, quién busca evidencia, quién ejecuta y quién valida.

Y esto te lleva a la palabra clave: orquestación. Multi-agente sin orquestación es como poner a cinco personas en una sala sin agenda ni responsable. Producirá “actividad”, sí. Resultados consistentes, no necesariamente.

Azure AI Foundry: por qué se parece más a un taller que a una demo

La idea de “taller” es útil: en un taller no solo hay una herramienta. Hay un banco de trabajo, un método, un inventario de piezas, un control de calidad y un registro de lo que se hizo. Eso es lo que diferencia un prototipo de un sistema mantenible.

Azure AI Foundry apunta precisamente ahí: a darte un entorno donde diseñar, construir, probar, desplegar y operar soluciones de IA (incluidos sistemas multi-agente) con un enfoque de ingeniería. Y el detalle de que “baje a VS Code” importa por una razón: acerca el trabajo al sitio donde los equipos ya versionan, revisan y automatizan. No es postureo; es disciplina.

Qué cambia cuando lo haces “en taller”
  • Repetibilidad: el sistema se puede recrear y desplegar sin magia
  • Control de calidad: pruebas, criterios de aceptación y rollback
  • Gobierno: políticas, accesos, límites y auditoría
  • Observabilidad: métricas, trazas, costes, latencia, fallos
  • Evolución: cambios iterativos sin romper todo cada viernes
Por qué VS Code importa de verdad

Cuando integras tu trabajo de IA en el flujo habitual de desarrollo (repositorios, ramas, revisiones, pipelines), reduces fricción y ganas trazabilidad.

No se trata de “hacerlo más técnico”. Se trata de hacerlo controlable: saber qué cambió, quién lo cambió, cuándo, por qué y cómo volver atrás si el negocio te dice “esto ya no aplica”.

De “tengo un piloto” a “tengo workflows y agentes”: el mapa realista

Si estás en modo piloto, lo peor que puedes hacer es intentar “escalar” sin cambiar el enfoque. Escalar un piloto es como ampliar una casa sin planos: al principio parece rápido, luego se convierte en una obra permanente.

Un enfoque más inteligente es pensar en fases y en artefactos que tienes que producir en cada fase. A continuación tienes un mapa práctico para pasar de la ilusión a un sistema serio.

Fase 1: definir “lo que vale” (y cómo lo vas a medir)

  • Caso de uso con objetivo operacional (no “hacer algo con IA”)
  • Métricas: precisión útil, tiempo ahorrado, tasa de escalado humano, coste por caso
  • Riesgos: datos sensibles, acciones de alto impacto, sesgos, dependencias

Resultado de la fase

Un contrato de valor
Documento corto: qué problema resuelve, qué no resuelve, cómo se mide éxito y qué límites no se cruzan.

Fase 2: diseñar la arquitectura del workflow (antes del modelo)

  • Qué pasos hay: intención, recuperación, razonamiento, ejecución, validación
  • Qué datos se usan y bajo qué permisos
  • Qué excepciones existen y cómo se resuelven
  • Cuándo el humano entra (y cómo queda registrado)

Resultado de la fase

Un diagrama de orquestación
Pasos claros, entradas/salidas, controles y puntos de decisión. No es decoración: es gobernanza.

Fase 3: construir agentes y herramientas con permisos mínimos

  • Agentes especializados: reduce ambigüedad y mejora calidad
  • Herramientas con “scope” limitado: no des acceso global por comodidad
  • Registro de acciones: quién hizo qué (aunque lo haga la IA)

Resultado de la fase

Un “catálogo” operativo
Lista de agentes, herramientas disponibles, permisos, límites y casos para los que están autorizados.

Fase 4: observabilidad y calidad (la parte que nadie quiere, la que todos necesitan)

  • Métricas de calidad: precisión, cobertura, coherencia, verificación
  • Métricas técnicas: latencia, tasa de error, disponibilidad
  • Coste por caso: coste variable, picos, tendencias, límites
  • Trazas: qué pasos siguió el sistema y por qué

Resultado de la fase

Un panel de salud
Lo que te permite operar y mejorar: sin datos de operación, no hay mejora; hay opiniones.

Fase 5: ciclo de vida de ingeniería (lo que convierte “IA” en producto)

  • Versionado de prompts, políticas, herramientas y configuraciones
  • Pruebas: suites por escenario, regresión y validación
  • Despliegue controlado: entornos, aprobaciones y rollback
  • Gestión de cambios: feedback de negocio y mejora continua

Resultado de la fase

Un producto operativo
Se mantiene, evoluciona, se audita, se gobierna y se mejora con datos. Esto ya se parece a IT de verdad.

Los tres errores que convierten la IA en un gasto (y cómo evitarlos)

Error 1: medir “impresión”, no impacto

La gente aplaude una demo porque suena bien. Eso no significa que reduzca tiempos, que disminuya incidencias o que mejore la toma de decisiones.

Evítalo definiendo métricas desde el primer día: coste por caso, tasa de escalado humano, tiempo total del proceso, errores evitados. Si no puedes medir, no puedes justificar.

Error 2: dar acceso “amplio” para ir rápido

Es tentador: “dale acceso a todo y ya veremos”. En IA, eso es un incidente esperando su fecha.

Evítalo con permisos mínimos, segmentación por roles, políticas de datos y control de herramientas. Que el agente “haga cosas” no significa que pueda hacer cualquier cosa.

Error 3: no diseñar excepciones

La mayoría de procesos reales no fallan por el “camino feliz”. Fallan por el caso raro: datos incompletos, formatos, permisos, cambios.

Evítalo haciendo explícitas las excepciones y diseñando la intervención humana: qué se revisa, quién decide y cómo queda registro de la decisión.

Un ejemplo práctico: de “responder” a “operar” un proceso end-to-end

Pongamos un caso típico donde la IA puede aportar valor real: gestión de incidencias internas (IT, facilities, finanzas, operaciones). El objetivo no es que la IA “hable bonito”. El objetivo es que un proceso termine antes, con menos errores y con trazabilidad.

En un piloto, normalmente haces esto: el usuario describe el problema y el modelo sugiere una respuesta. Bien. Pero en producción necesitas más:

  • Clasificar la incidencia y su urgencia
  • Buscar políticas internas o documentación vigente
  • Consultar el estado del servicio, cambios planificados y tickets relacionados
  • Proponer acciones y, si procede, ejecutarlas (con permiso)
  • Registrar todo para auditoría y aprendizaje

Eso ya es un workflow. Y si divides responsabilidades en agentes, ganas control: un agente clasifica, otro recupera evidencia, otro ejecuta, otro valida.

Cómo se ve el workflow (sin entrar en código)

Entrada
“No puedo acceder a la aplicación X desde la red corporativa”
Salida
Ticket creado + diagnóstico probable + acciones propuestas + evidencia + escalado si aplica
Paso 1
Agente de intención clasifica, solicita datos faltantes y detecta urgencia
Paso 2
Agente de recuperación consulta base de conocimiento y tickets previos (con permisos)
Paso 3
Agente de ejecución llama a herramientas: estado del servicio, logs, reset controlado
Paso 4
Agente de compliance valida: datos, acciones permitidas, justificación y registro

Lo que normalmente no se cuenta: la gobernanza es el producto

Una solución de IA no se define por lo que responde. Se define por lo que está autorizada a hacer, por lo que no hará, por cómo se audita, y por cómo mejora sin romper el negocio.

Es un cambio cultural: pasas de “probemos cosas” a “operemos un sistema”. Y eso exige decisiones: qué datos entran, qué políticas aplican, qué métricas gobiernan el éxito, qué roles aprueban cambios y cómo se gestiona el riesgo.

Checklist de gobernanza mínima (si no lo tienes, aún estás en piloto)

Políticas y seguridad
  • Permisos por rol y por herramienta
  • Control de datos sensibles y clasificación
  • Reglas de uso, límites y casos prohibidos
Operación y trazabilidad
  • Logs y trazas por interacción y por acción
  • Panel de métricas y alertas
  • Gestión de incidencias y soporte
Ciclo de vida
  • Versionado de cambios (prompts, políticas, herramientas)
  • Pruebas y validación antes de desplegar
  • Rollbacks y despliegue por fases
Valor y negocio
  • KPIs acordados con negocio
  • Roadmap de casos de uso priorizados
  • Gestión del cambio y adopción por perfiles

Hot take profesional: lo difícil ya no es la IA, es el producto

Hoy es relativamente fácil montar una demo con un modelo avanzado. Eso no te diferencia. Lo que te diferencia es si puedes construir algo que:

  • Se puede operar a escala sin que el equipo viva apagando fuegos
  • Cumple seguridad y auditoría sin bloquear al negocio
  • Mejora con feedback y datos (no con intuiciones)
  • Tiene un coste por caso predecible y defendible

Ese salto es el que convierte la IA en una inversión con ROI. Y ahí es donde una plataforma tipo Azure AI Foundry tiene sentido: porque pone el foco en el “producto” (workflow, control, observación, ciclo de vida), no solo en la “respuesta”.

De piloto a sistema
No escales un piloto, productiviza un workflow
Si el proceso no es auditable, medible y gobernable, la IA se convierte en una caja negra cara.
Hablar con un experto Evaluar un caso de uso

Propuesta: mapa de arquitectura + quick wins + plan de gobierno.

Recomendaciones prácticas para arrancar en 30 días

Si quieres pasar de piloto a sistema, necesitas un plan realista. Aquí va una hoja de ruta de 30 días enfocada en poner cimientos: valor, workflow, seguridad y operación. No es “hacerlo todo”. Es hacer lo que evita que esto se convierta en deuda técnica y reputacional.

Semana 1

  • Elegir un caso de uso con dueño de negocio y métricas
  • Definir “límites”: datos permitidos, acciones permitidas
  • Mapear proceso actual: dónde se pierde tiempo, dónde se cometen errores

Semana 2

  • Diseñar workflow y roles de agentes
  • Identificar herramientas a llamar y permisos mínimos
  • Definir excepciones y escalado humano

Semana 3

  • Construir agentes y conectores con logging
  • Preparar dataset de pruebas (casos reales, no solo “bonitos”)
  • Configurar observabilidad básica: latencia, errores, coste

Semana 4

  • Pruebas de regresión y validación de seguridad
  • Despliegue controlado con grupo piloto real
  • Feedback + ajustes + plan de escalado y gobierno

Resumen: la IA que merece presupuesto es la que se puede operar

Azure AI Foundry encaja en una necesidad que ya está encima de la mesa: convertir iniciativas de IA en productos operativos con disciplina. La parte “multi-agente” es potente, sí, pero lo que marca la diferencia es lo que la rodea: orquestación, trazabilidad, observabilidad y gobierno.

Si hoy tienes un piloto, la decisión inteligente no es pedir “más prompts”. Es pedir un plan para pasar a workflows y agentes con control, medir impacto y escalar con seguridad. Eso es lo que separa una iniciativa que se queda en demo de una que se convierte en ventaja competitiva.

Siguiente paso: aterriza tu caso de uso con un enfoque de ingeniería

Si quieres, en Ayesa podemos ayudarte a convertir tu piloto en un sistema operable: definimos el workflow, diseñamos la arquitectura multi-agente, establecemos gobierno y observabilidad, y dejamos un plan de despliegue por fases que el negocio pueda sostener.

Solicitar sesión de enfoque Pedir evaluación de madurez

Saldrás con un mapa de pasos, riesgos y quick wins defendibles.
Ayesa como partner de Microsoft

Ayesa acompaña a organizaciones en la adopción de soluciones Microsoft con foco en ROI, seguridad y escalabilidad. En iniciativas de IA, el objetivo no es “tener IA”, sino construir capacidades operativas que el negocio pueda sostener: gobierno, trazabilidad, integración con procesos y medición del valor.

  • Enfoque de plataforma: arquitectura, gobierno y operación desde el diseño
  • Experiencia sectorial: casos orientados a procesos reales y resultados medibles
  • Foco en ROI: métricas claras y despliegue por fases para capturar valor pronto
Qué puedes pedirnos
  • Workshop de definición de workflow multi-agente
  • Diseño de gobierno, seguridad y permisos mínimos
  • Estrategia de observabilidad y coste por caso
  • Plan de despliegue por fases y adopción
¿Quieres convertir tu piloto en un sistema operable?
Cuéntanos tu caso y te proponemos un enfoque de adopción con gobierno, métricas y un plan por fases.
Sugerencia
Indica el proceso, el volumen aproximado y el nivel de criticidad del dato.

    He leído y acepto la Política de Privacidad de Ayesa.

    Información respecto al tratamiento de los datos solicitados, de acuerdo con el RGPD 2016/679 y la LOPDGDD 3/2018: el responsable es Ayesa; la finalidad es la recogida y tratamiento de los datos personales que solicitamos para atender tu consulta, enviarte nuestras publicaciones, newsletters, promociones de productos y/o servicios, y recursos exclusivos; la legitimación se establece mediante el consentimiento expreso; no se cederán datos a terceros, salvo obligación legal; en cualquier momento puedes ejercer tus derechos de acceso, rectificación, supresión, portabilidad, limitación u oposición al tratamiento de tus datos, así como retirar el consentimiento prestado o formular reclamaciones ante la Autoridad de Control, enviando la solicitud por correo electrónico a: lopd@ayesa.com; puedes consultar la información adicional y detallada sobre Privacidad y Protección de Datos de Carácter Personal en la Política de Privacidad de Ayesa.

    ¿Conectamos?

    La tecnología bien aplicada suele facilitar las cosas. Si sospechas que también puede ser de ayuda para ti, concédenos la oportunidad de conocerte y demostrarte hasta qué punto es así.

    ¿Por qué Ayesa?

    Somos uno de los principales implantadores de Microsoft, con casi 2000 clientes que han depositado su confianza en nosotros para la implantación de Dynamics 365, Business Central (NAV / Navision) y Dynamics 365 Finance & Operations (AX / Axapta). Además, destacamos en el despliegue de proyectos sobre AZURE y Microsoft 365. Nuestra experiencia en el campo de la inteligencia artificial y el uso de Copilot nos sitúa a la vanguardia de la innovación tecnológica.

    Con una plantilla de más de 12.000 profesionales y una sólida presencia en 23 países, estamos comprometidos en ayudar a nuestros clientes a definir y aprovechar oportunidades en el nuevo contexto digital. Desde la tecnología hasta las personas, ofrecemos un enfoque integral que garantiza el éxito en cada proyecto.


    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

      He leído y acepto la Política de privacidad de Ibermática, S.A.De acuerdo a lo establecido en la RGPD 2016/679, para ejercer su derecho al borrado de sus datos, por favor envíe un correo a: arco@ibermatica.com