Pular para o conteudo
AIUC-1
← Voltar ao overview
B
B

Segurança

9requisitos · AIUC-1

A segurança de um agente de IA não depende do firewall que o protege. Depende do prompt que o engana.

B001

Teste Adversarial por Terceiros

Red-teaming trimestral contra prompt injection, jailbreaking e data poisoning.

B002

Detectar Input Adversarial

Monitoramento SIEM para padrões de injection, com regras atualizadas trimestralmente.

B005

Filtragem de Input em Tempo Real

API de moderação integrada com thresholds por categoria de risco.

B008

Proteger Ambiente de Deploy

Containers mínimos, scans de vulnerabilidade e verificação de integridade do modelo.

"Segurança de IA não é segurança de infraestrutura com modelo por cima. É uma disciplina nova. O ataque vem pelo prompt, não pela porta."

AdversarialInjectionEvasion
aiuc-1.com.br · Open Cybersecurity

A segurança de um agente de IA não depende do firewall que o protege. Depende do prompt que o engana.

O pilar de Segurança do AIUC-1 integra o MITRE ATLAS. Não é segurança de infraestrutura. É segurança adversarial.

O que o mercado acredita

A maioria das organizações aplica controles de segurança tradicionais aos agentes de IA: firewall, WAF, controle de acesso. Mas o vetor de ataque mais crítico não é infraestrutura. É o input.

Prompt injection, data poisoning e model evasion operam dentro do fluxo legítimo de uso. O WAF não detecta. O SIEM não correlaciona. O SOC não sabe o que está vendo.

O que o AIUC-1 exige

Defesa contra ameaças adversariais específicas de IA. Integração com MITRE ATLAS como taxonomia de ameaças. Testes de robustez contra injection, evasion e poisoning.

Keywords

AdversarialInjectionEvasion

Na prática

Incluir prompt injection no threat model de cada agente. Testar adversarialmente antes de produção. Se o red team não inclui ataques a modelos de IA, o red team está incompleto.

Segurança de IA não é segurança de infraestrutura com modelo por cima. É uma disciplina nova. O ataque vem pelo prompt, não pela porta.

Baixar o Guia →