Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Fundamentos: Modelos de Ameaças para AI Agente
- Tipos de ameaças agentes: mau uso, escalada, vazamento de dados e riscos da cadeia de suprimentos
- Perfis de adversários e capacidades de ataque específicas para agentes autônomos
- Mapeamento de ativos, fronteiras de confiança e pontos críticos de controle para agentes
Governança, Política e Gestão de Riscos
- Frameworks de governança para sistemas agente (papéis, responsabilidades, portas de aprovação)
- Design de políticas: uso aceitável, regras de escalada, manipulação de dados e auditabilidade
- Considerações de conformidade e coleta de evidências para auditorias
Identidade Não-Humana & Autenticação para Agentes
- Projetando identidades para agentes: contas de serviço, JWTs e credenciais de curta duração
- Padrões de acesso com privilégio mínimo e credenciamento sob demanda
- Ciclo de vida da identidade, rotação, delegação e revogação
Controles de Acesso, Segredos e Proteção de Dados
- Modelos de controle de acesso granular e padrões baseados em capacidades para agentes
- Gerenciamento de segredos, criptografia durante a transmissão e no armazenamento, e minimização de dados
- Protegendo fontes de conhecimento sensíveis e PII do acesso não autorizado por agentes
Observabilidade, Auditoria e Resposta a Incidentes
- Projetando telemetria para comportamento de agentes: rastreamento de intenções, logs de comandos e proveniência
- Integração SIEM, limiares de alerta e prontidão forense
- Manuais e guias para incidentes relacionados a agentes e contenção
Testes Adversos em Sistemas Agente
- Planejando exercícios de red-team: escopo, regras de engajamento e failover seguro
- Técnicas adversárias: injeção de prompts, mau uso de ferramentas, manipulação em cadeia de pensamento e abuso de API
- Realizando ataques controlados e medindo exposição e impacto
Endurecimento e Mitigações
- Controles de engenharia: limitação de resposta, controle de capacidades e sandboxing
- Controles de política e orquestração: fluxos de aprovação, human-in-the-loop e ganchos de governança
- Defesas ao nível do modelo e dos prompts: validação de entrada, canonização e filtros de saída
Implementando Implantações Seguras de Agentes
- Padrões de implantação: estágios, lançamento canário e roteamento progressivo para agentes
- Controle de mudanças, pipelines de teste e verificações de segurança pré-implantação
- Governança multifuncional: manuais e guias de segurança, legal, produto e operações
Estudo Final: Exercício Red-Team / Blue-Team
- Execute um ataque simulado de red-team contra um ambiente de agente sandboxed
- Defenda, detecte e remedia como a equipe blue usando controles e telemetria
- Apresente os resultados, o plano de remediação e as atualizações de políticas
Resumo e Próximos Passos
Requisitos
- Sólida experiência em engenharia de segurança, administração de sistemas ou operações na nuvem
- Familiaridade com conceitos de IA/ML e comportamento de modelos de linguagem grandes (LLM)
- Experiência com gestão de identidade e acesso (IAM) e design seguro de sistemas
Público-Alvo
- Engenheiros de segurança e red-teamers
- Engenheiros de operações e plataforma de IA
- Oficiais de conformidade e gerentes de risco
- Líderes técnicos responsáveis por implantações de agentes
21 Horas