Cada vez más aplicaciones empiezan a usar LLMs. Integrar un modelo es sencillo: haces una llamada HTTP y listo.

El problema aparece cuando la IA pasa a producción.

Entonces necesitas:

  • guardrails

  • control de acceso

  • protección de datos sensibles

  • routing entre modelos

  • auditoría

  • control de coste

  • rate limiting

Muchas organizaciones resuelven esto introduciendo un AI Gateway delante de los modelos.

Pero si trabajas en .NET, ya tienes una pieza muy potente para construirlo:
YARP (Yet Another Reverse Proxy).

De ahí nace Yarp.AiGateway.

La idea

En lugar de crear un gateway desde cero, el proyecto extiende YARP e introduce capacidades específicas de IA dentro del pipeline del proxy.

La arquitectura queda así:

  • YARP se encarga del reverse proxy, routing y forwarding.

  • AI Gateway intercepta requests y responses para aplicar políticas de seguridad.

Es un enfoque muy simple pero muy potente.

Qué añade el AI Gateway

El middleware introduce capacidades específicas para trabajar con modelos de IA:

  • detección de prompt injection

  • redacción automática de PII (emails, DNI, IBAN, tarjetas…)

  • análisis semántico de contenido

  • detección de fugas de secretos

  • rate limiting por usuario o tenant

  • routing entre múltiples proveedores

  • auditoría y métricas

Todo configurado con un único archivo:

aigateway.json

Ejemplo de integración:

builder.Services.AddReverseProxy()
    .LoadFromConfig(builder.Configuration.GetSection("ReverseProxy"))
    .AddTransforms(context =>
    {
        context.AddRequestTransform(tc =>
        {
            var apiKey = Environment.GetEnvironmentVariable("AZURE_OPENAI_API_KEY") ?? "";
            tc.ProxyRequest.Headers.TryAddWithoutValidation("api-key", apiKey);
            return ValueTask.CompletedTask;
        });
    });

builder.Services.AddAiGatewayFromJson("aigateway.json");

app.MapReverseProxy(proxyPipeline =>
{
    proxyPipeline.UseAiGatewayGuardrails();
});

YARP sigue haciendo el proxy.

El AI Gateway simplemente añade seguridad e inteligencia al pipeline.

Por qué hacerlo así

Muchos proyectos intentan construir un gateway completo desde cero.

Este proyecto toma un camino distinto:

aprovechar YARP como base y añadir la capa de IA encima.

Esto tiene varias ventajas:

  • reutilizas un proxy probado en producción

  • reduces complejidad

  • mejoras el rendimiento

  • simplificas el mantenimiento

En otras palabras:

YARP = infraestructura
AI Gateway = políticas y seguridad

Un ejemplo sencillo

Imagina una API que permite consultas sobre clima.

Petición válida:

Madrid está a 28°C. ¿Es buen clima para eventos al aire libre?

Respuesta:

200 OK

Pero si el prompt intenta algo fuera de política:

Madrid está a 28°C. ¿Cómo afectaría esto a un partido de fútbol?

El gateway puede bloquearlo antes de que llegue al modelo:

422 Prompt blocked by policy

El modelo nunca llega a ejecutarse.

Protección automática de datos sensibles

Otra ventaja es la sanitización automática.

Entrada enviada por el desarrollador:

Paciente Pepito García, MRN-2024-12345, pepito@hospital.com

El modelo recibe realmente:

[REDACTED_PATIENT], [REDACTED_MRN], [REDACTED_EMAIL]

Esto permite cumplir normativas como GDPR o HIPAA sin depender únicamente del código de las aplicaciones.

La protección se aplica en la capa de infraestructura.

Por qué este enfoque es interesante

La idea principal es simple:

la gobernanza de IA puede vivir en la capa de proxy.

Y si ya usas YARP, no necesitas introducir otra plataforma adicional.

Solo extiendes el pipeline.

Explora el repositorio

El proyecto incluye:

  • integración completa con YARP

  • múltiples proveedores de LLM

  • guardrails configurables

  • ejemplos completos

  • tests automatizados

  • archivos .http para probar rápidamente

Repositorio:

Si estás construyendo sistemas con IA en .NET, puede ser una forma interesante de añadir seguridad, control y gobernanza sin añadir demasiada complejidad.