Seguridad
9requisitos · AIUC-1
La seguridad de un agente de IA no depende del firewall que lo protege. Depende del prompt que lo engaña.
Pruebas Adversariales por Terceros
Red-teaming trimestral contra prompt injection, jailbreaking y data poisoning.
Detectar Input Adversarial
Monitoreo SIEM para patrones de injection, con reglas actualizadas trimestralmente.
Filtrado de Input en Tiempo Real
API de moderación integrada con umbrales por categoria de riesgo.
Proteger Ambiente de Deploy
Contenedores minimos, escaneo de vulnerabilidades y verificación de integridad del modelo.
"La seguridad de IA no es seguridad de infraestructura con un modelo encima. Es una disciplina nueva. El ataque viene por el prompt, no por el puerto."
La seguridad de un agente de IA no depende del firewall que lo protege. Depende del prompt que lo engaña.
El pilar de Seguridad del AIUC-1 integra MITRE ATLAS. No es seguridad de infraestructura. Es seguridad adversarial.
Lo que el mercado cree
La mayoria de las organizaciones aplican controles de seguridad tradicionales a los agentes de IA: firewall, WAF, control de acceso. Pero el vector de ataque más critico no es la infraestructura. Es el input.
Prompt injection, data poisoning y model evasion operan dentro del flujo legitimo de uso. El WAF no lo detecta. El SIEM no lo correlaciona. El SOC no sabe lo que está viendo.
Lo que AIUC-1 exige
Defensa contra amenazas adversariales especificas de IA. Integración con MITRE ATLAS como taxonomia de amenazas. Pruebas de robustez contra injection, evasion y poisoning.
Keywords
AdversarialInjectionEvasionEn la práctica
Incluir prompt injection en el modelo de amenazas de cada agente. Probar adversarialmente antes de producción. Si el red team no incluye ataques a modelos de IA, el red team está incompleto.
La seguridad de IA no es seguridad de infraestructura con un modelo encima. Es una disciplina nueva. El ataque viene por el prompt, no por el puerto.