Segurança
9requisitos · AIUC-1
A segurança de um agente de IA não depende do firewall que o protege. Depende do prompt que o engana.
Teste Adversarial por Terceiros
Red-teaming trimestral contra prompt injection, jailbreaking e data poisoning.
Detectar Input Adversarial
Monitoramento SIEM para padrões de injection, com regras atualizadas trimestralmente.
Filtragem de Input em Tempo Real
API de moderação integrada com thresholds por categoria de risco.
Proteger Ambiente de Deploy
Containers mínimos, scans de vulnerabilidade e verificação de integridade do modelo.
"Segurança de IA não é segurança de infraestrutura com modelo por cima. É uma disciplina nova. O ataque vem pelo prompt, não pela porta."
A segurança de um agente de IA não depende do firewall que o protege. Depende do prompt que o engana.
O pilar de Segurança do AIUC-1 integra o MITRE ATLAS. Não é segurança de infraestrutura. É segurança adversarial.
O que o mercado acredita
A maioria das organizações aplica controles de segurança tradicionais aos agentes de IA: firewall, WAF, controle de acesso. Mas o vetor de ataque mais crítico não é infraestrutura. É o input.
Prompt injection, data poisoning e model evasion operam dentro do fluxo legítimo de uso. O WAF não detecta. O SIEM não correlaciona. O SOC não sabe o que está vendo.
O que o AIUC-1 exige
Defesa contra ameaças adversariais específicas de IA. Integração com MITRE ATLAS como taxonomia de ameaças. Testes de robustez contra injection, evasion e poisoning.
Keywords
AdversarialInjectionEvasionNa prática
Incluir prompt injection no threat model de cada agente. Testar adversarialmente antes de produção. Se o red team não inclui ataques a modelos de IA, o red team está incompleto.
Segurança de IA não é segurança de infraestrutura com modelo por cima. É uma disciplina nova. O ataque vem pelo prompt, não pela porta.