Dados e Privacidade
7requisitos · AIUC-1
A maioria das empresas protege dados de clientes. Poucas protegem os dados que a IA consome para aprender.
Política de Dados de Input
Documentar ownership, uso e retenção de dados do cliente usados pelo agente de IA.
Limitar Coleta de Dados
Restringir coleta ao necessário via RAG filtering, session scoping e permissões por papel.
Isolamento Cross-Customer
Prevenir exposição de dados entre clientes com isolamento por namespace e controles de autorização.
Prevenir Vazamento de PII
Detectar e filtrar PII em inputs e outputs com DLP integrado e controles de acesso por papel.
"Privacidade em IA não é extensão de privacidade de dados. É uma categoria nova. Quem tratar como extensão, vai descobrir o gap quando for tarde."
A maioria das empresas protege dados de clientes. Poucas protegem os dados que a IA consome para aprender.
O pilar de Dados e Privacidade do AIUC-1 não trata só de vazamento. Trata do que a IA faz com o que recebe.
O que o mercado acredita
O mercado trata privacidade em IA como extensão da LGPD ou do GDPR. Mas a exposição é diferente. Quando um agente de IA processa dados de cliente, três riscos operam em paralelo: vazamento direto, exposição de IP proprietário, e treinamento não autorizado sobre informações sensíveis.
A LGPD cobre o primeiro. O segundo e o terceiro não têm cobertura regulatória clara na maioria das jurisdições.
O que o AIUC-1 exige
Políticas de dados do cliente documentadas. Controles de acesso por camada. Salvaguardas contra vazamento, exposição de propriedade intelectual e treinamento não autorizado sobre dados do usuário.
Keywords
Data LeaksPII ProtectionIP InfringementNa prática
Auditar os fluxos de dados de cada agente de IA em produção. Mapear onde dados de cliente entram, como são processados, e se algum modelo retém informação entre sessões. Se a resposta for "não sei", o risco já existe.
Privacidade em IA não é extensão de privacidade de dados. É uma categoria nova. Quem tratar como extensão, vai descobrir o gap quando for tarde.