// Engineering Log
Guardrails en n8n: un nuevo nivel de seguridad para la automatización con LLM
Publicado el 18.11.2025
// Ruta rapida
Este articulo pertenece al tema Python y automatizacion.
Si usas n8n para automatizar con modelos de lenguaje de gran tamaño (LLM), seguro conoces no solo sus enormes capacidades, sino también los riesgos. Los LLM siguen siendo una «caja negra»: pueden revelar datos personales por accidente, generar contenido tóxico o ser víctimas de inyección de prompts.
Hasta hace poco había que «colocar» en el flujo de trabajo de IA numerosos nodos IF y complejas comprobaciones Regex. Era engorroso e poco fiable.
Desde la versión 1.119.0 n8n incluye el nodo Guardrails — y esto es realmente un cambio radical. Es tu capa de seguridad personal que puedes colocar en la entrada y la salida de cualquier proceso de IA.
🧠 ¿Qué es Guardrails?
El nodo Guardrails funciona como un filtro inteligente y validador de texto. Se usa mayormente:
- En la entrada (Input Guardrail) — antes de enviar el texto del usuario al LLM.
- En la salida (Output Guardrail) — antes de devolver la respuesta al usuario o enviarla a otro sistema.
Modos de trabajo:
- Comprobar texto en busca de violaciones — verificación de incumplimientos.
- Sanear texto — limpieza/mascaramiento automático de datos.
Si el texto no cumple las reglas, el flujo de trabajo se bifurca — se puede detener el proceso, enviar una respuesta de fallback o registrar el problema.
🚀 Principales capacidades de Guardrails
🛡️ Detección de PII y secretos (Secrets & PII)
El nodo sabe detectar y enmascarar:
- números de tarjetas bancarias
- direcciones de correo electrónico
- números de teléfono
- claves de API y secretos
- patrones propios mediante Regex
Esto te evita fugas de datos sensibles — tanto en los registros como en las respuestas del AI.
Para proyectos compatibles con GDPR — imprescindible.
🚫 Moderación de contenido (NSFW & Toxicidad)
Guardrails analiza el texto mediante LLM, determinando:
- toxicidad
- lenguaje ofensivo
- manifestaciones de odio
- contenido NSFW
El umbral de confianza se establece manualmente (0.0–1.0).
Esto previene situaciones en las que tu asistente de repente insulta al usuario.
🎯 Control de tema (Topical Guardrails)
Puedes indicar sobre qué debe hablar la IA y sobre qué no.
Esto mantiene al modelo dentro del ámbito de la tarea: por ejemplo, el soporte técnico debe responder sobre el producto, no debatir política ni escribir recetas de cocina.
🔒 Protección contra ataques (Inyección de prompts y URLs maliciosas)
Guardrails puede:
- identificar intentos de jailbreak/inyección de prompts
- bloquear URLs sospechosas
- permitir solo dominios de confianza
- prohibir enlaces con credenciales
Esto hace que los endpoints públicos de LLM sean mucho más seguros.
⚙️ Reglas personalizadas
Puedes añadir las tuyas:
- Palabras clave — permitir/bloquear palabras
- Regex — cualquier comprobación compleja
- Reglas LLM — un modelo verifica la salida de otro
Por ejemplo: «¿Esta respuesta es correcta?», «¿Contiene datos personales?», «¿Es este un tono respetuoso?»
🛠️ Ejemplo: asistente de IA seguro
Escenario
El usuario envía la pregunta:
¡Hola! Mi producto no funciona. Mi correo electrónico: [user@example.com](mailto:user@example.com)
Guardrail (Entrada, Sanear texto)
- reemplaza el email →
[EMAIL] - comprueba si hay inyección de prompts
- reemplaza el email →
El LLM responde, pero genera accidentalmente una grosería.
Guardrail (Salida, Comprobar texto en busca de violaciones)
- detecta un fragmento tóxico
- el flujo de trabajo va a la rama de fallback
El usuario recibe una respuesta segura:
«Nuestro asistente de IA está temporalmente no disponible. Hemos pasado la consulta a un operador.»
Sin Guardrails habría sido una catástrofe: respuesta tóxica + filtración del email en los registros.
🏁 Conclusión
Guardrails convierte a n8n en una plataforma que se puede usar de forma segura en producción.
Es una capa de seguridad que:
- protege contra fugas
- filtra contenido tóxico
- previene la inyección de prompts
- controla los temas de respuesta
- asegura el cumplimiento de regulaciones (GDPR, PDPA, etc.)
Si utilizas LLM en automatizaciones — Guardrails debería estar activado por defecto.
El siguiente paso es construir tus propias reglas y políticas corporativas sobre la funcionalidad básica de n8n.
// Tarea parecida
Si estas resolviendo algo parecido
Este articulo pertenece a uno de los temas principales de trabajo. Puedes seguir leyendo sobre el tema, ir a la pagina principal para entender a que me dedico o abrir directamente los servicios.
Tema del articulo
Python y automatizacion
Bots, integraciones, servicios internos, automatizacion de procesos y workflows.
Tareas frecuentes de esta tema
- Crear un bot, integracion o herramienta interna
- Eliminar trabajo manual con Python y APIs
- Conectar servicios y automatizar todo el flujo
// Siguiente paso
Si necesitas ayuda con este tema y no solo otro articulo, es mejor ir directo a la pagina del servicio. La pagina principal y la seleccion de materiales quedan como rutas secundarias.
Abrir servicios// Reviews
Reseñas relacionadas
Como siempre, rápido y de calidad. Para asuntos con los servidores, me dirijo a Mijaíl.
¡Como siempre, rápido y de calidad! Para asuntos relacionados con los servidores, me dirijo a Mijaíl.
// Contact
¿Necesitas ayuda?
Escríbeme y te ayudaré a resolver el problema
// Related