Curso de Red Teaming de Sistemas de IA: Segurança Ofensiva para Modelos de ML
Red Teaming de Sistemas de IA é uma área especializada de segurança ofensiva que se concentra em identificar fraquezas em modelos de aprendizado de máquina e pipelines de implantação por meio de testes adversários e simulações de estresse.
Este treinamento conduzido por instrutores (online ou presencial) é destinado a profissionais de segurança e especialistas em ML de nível avançado que desejam simular ataques a sistemas de IA, descobrir vulnerabilidades e aumentar a robustez dos modelos de IA implantados.
Ao final deste treinamento, os participantes serão capazes de:
- Simular ameaças do mundo real em modelos de aprendizado de máquina.
- Gerar exemplos adversários para testar a robustez dos modelos.
- Avaliar a superfície de ataque de APIs e pipelines de IA.
- Desenvolver estratégias de red teaming para ambientes de implantação de IA.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação hands-on em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para organizar.
Programa do Curso
Introdução ao Red Teaming de IA
- Compreendendo a ameaça no cenário da IA
- Papéis das equipes red team na segurança de IA
- Considerações éticas e legais
Aprendizado de Máquina Adversário
- Tipos de ataques: evasão, envenenamento, extração, inferência
- Gerando exemplos adversários (por exemplo, FGSM, PGD)
- Ataques direcionados vs. não direcionados e métricas de sucesso
Testando a Robustez do Modelo
- Avaliando a robustez sob perturbações
- Explorando cegueiras e modos de falha do modelo
- Testes de estresse em modelos de classificação, visão e NLP
Red Teaming de Pipelines de IA
- Superfície de ataque dos pipelines de IA: dados, modelo, implantação
- Explorando APIs e endpoints de modelos inseguros
- Engenharia reversa do comportamento e saídas do modelo
Simulação e Ferramentas
- Usando a Adversarial Robustness Toolbox (ART)
- Red teaming com ferramentas como TextAttack e IBM ART
- Ferramentas de sandbox, monitoramento e observabilidade
Estratégia de Red Team de IA e Colaboração com a Defesa
- Desenvolvendo exercícios e objetivos de red team
- Comunicando descobertas para equipes blue team
- Integrando red teaming na gestão de riscos de IA
Resumo e Próximos Passos
Requisitos
- Compreensão de arquiteturas de aprendizado de máquina e deep learning
- Experiência com Python e frameworks de ML (por exemplo, TensorFlow, PyTorch)
- Familiaridade com conceitos de cibersegurança ou técnicas de segurança ofensiva
Público-Alvo
- Pesquisadores de segurança
- Equipes de segurança ofensiva
- Profissionais de garantia e red team de IA
Precisa de ajuda para escolher o curso certo?
Curso de Red Teaming de Sistemas de IA: Segurança Ofensiva para Modelos de ML - Consulta
Red Teaming de Sistemas de IA: Segurança Ofensiva para Modelos de ML - Solicitação de Consultoria
Solicitação de Consultoria
Próximas Formações Provisórias
Cursos Relacionados
ISACA Avançado em Gestão de Segurança de IA (AAISM)
21 HorasAAISM é um framework avançado para avaliação, governança e gestão de riscos de segurança em sistemas de inteligência artificial.
Este treinamento presencial conduzido por instrutores (online ou no local) é destinado a profissionais de nível avançado que desejam implementar controles de segurança eficazes e práticas de governança para ambientes de IA empresariais.
Ao final deste programa, os participantes estarão preparados para:
- Avaliar riscos de segurança em IA usando metodologias reconhecidas pela indústria.
- Implementar modelos de governança para implantação responsável de IA.
- Alinhar políticas de segurança em IA com os objetivos organizacionais e as expectativas regulatórias.
- Aumentar a resiliência e a responsabilidade nas operações impulsionadas por IA.
Formato do Curso
- Palestras facilitadas com análise de especialistas.
- Oficinas práticas e atividades baseadas em avaliação.
- Exercícios aplicados usando cenários de governança de IA do mundo real.
Opções de Personalização do Curso
- Para treinamento personalizado alinhado à sua estratégia de IA organizacional, entre em contato conosco para personalizar o curso.
Governança, Conformidade e Segurança de IA para Líderes Empresariais
14 HorasEste treinamento presencial ministrado por instrutor em Portugal (online ou no local) é voltado para líderes empresariais de nível intermediário que desejam entender como governar e garantir a segurança dos sistemas de IA de forma responsável, em conformidade com quadros emergentes globais, como o Regulamento AI da UE, o GDPR, a ISO/IEC 42001 e a Ordem Executiva sobre IA dos EUA.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender os riscos legais, éticos e regulatórios do uso da IA em diferentes departamentos.
- Interpretar e aplicar os principais quadros de governança de IA (Regulamento AI da UE, NIST AI RMF, ISO/IEC 42001).
- Estabelecer políticas de segurança, auditoria e supervisão para a implantação de IA na empresa.
- Desenvolver diretrizes de aquisição e uso para sistemas de IA terceirizados e internos.
Gerenciamento de Riscos e Segurança da IA no Setor Público
7 HorasA Inteligência Artificial (IA) introduz novas dimensões de risco operacional, desafios de governança e exposição à cibersegurança para agências e departamentos governamentais.
Este treinamento presencial conduzido por instrutor (online ou no local) é voltado para profissionais de TI e riscos do setor público com experiência limitada em IA, que desejam entender como avaliar, monitorar e proteger sistemas de IA dentro de um contexto governamental ou regulatório.
Ao final deste treinamento, os participantes serão capazes de:
- Interpretar conceitos-chave de risco relacionados a sistemas de IA, incluindo vieses, imprevisibilidade e desvio do modelo.
- Aplicar frameworks específicos de governança e auditoria de IA, como o NIST AI RMF e o ISO/IEC 42001.
- Reconhecer ameaças cibernéticas que visam modelos de IA e pipelines de dados.
- Estabelecer planos de gerenciamento de riscos interdepartamentais e alinhamento de políticas para a implantação de IA.
Formato do Curso
- Palestra interativa e discussão de casos de uso no setor público.
- Exercícios de frameworks de governança de IA e mapeamento de políticas.
- Modelagem de ameaças baseada em cenários e avaliação de riscos.
Opções de Customização do Curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Introdução ao AI Trust, Risco e Security Management (AI TRiSM)
21 HorasEste treinamento ao vivo, conduzido por um instrutor em Portugal (online ou presencial), é direcionado a profissionais de TI de nível iniciante a intermediário que desejam entender e implementar AI TRiSM em suas organizações.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender os conceitos-chave e a importância da gestão de confiança, risco e segurança na IA.
- Identificar e mitigar riscos associados aos sistemas de IA.
- Implementar as melhores práticas de segurança para a IA.
- Entender conformidade regulatória e considerações éticas para a IA.
- Desenvolver estratégias eficazes para governança e gestão da IA.
Building Secure and Responsible LLM Applications
14 HorasEste treinamento ao vivo e ministrado por instrutor em Portugal (online ou presencial) é direcionado a desenvolvedores, arquitetos e gerentes de produtos com nível intermediário a avançado de IA que desejam identificar e mitigar riscos associados a aplicações baseadas em LLMs, incluindo injeção de prompt, vazamento de dados e saída não filtrada, enquanto incorporam controles de segurança como validação de entrada, supervisão humana no loop e barreiras de saída.
No final deste treinamento, os participantes serão capazes de:
- Compreender as vulnerabilidades principais dos sistemas baseados em LLMs.
- Aplicar princípios de design seguro à arquitetura de aplicativos LLM.
- Usar ferramentas como Guardrails AI e LangChain para validação, filtragem e segurança.
- Incorporar técnicas como sandboxing, red teaming e revisão humana no loop em pipelines de produção.
Cibersegurança nos sistemas de IA
14 HorasEsta formação presencial ou online, conduzida por instrutor em Portugal, é direcionada a profissionais intermediários de IA e cibersegurança que desejam entender e abordar as vulnerabilidades de segurança específicas aos modelos e sistemas de IA, particularmente nos setores altamente regulamentados como finanças, governança de dados e consultoria.
Ao final desta formação, os participantes serão capazes de:
- Compreender os tipos de ataques adversários direcionados a sistemas de IA e métodos para defendê-los.
- Implementar técnicas de fortalecimento do modelo para proteger as pipelines de aprendizado de máquina.
- Garantir a segurança e integridade dos dados em modelos de aprendizado de máquina.
- Navegar pelas exigências de conformidade regulatória relacionadas à segurança da IA.
Introdução à Segurança e Gestão de Riscos em IA
14 HorasEste treinamento presencial conduzido por instrutor em Portugal (online ou no local) é direcionado a profissionais iniciantes de segurança da informação, risco e conformidade que desejam entender conceitos fundamentais de segurança em IA, vetores de ameaça e frameworks globais como o NIST AI RMF e ISO/IEC 42001.
Ao final deste treinamento, os participantes serão capazes de:
- Entender os riscos de segurança únicos introduzidos pelos sistemas de IA.
- Identificar vetores de ameaça, como ataques adversários, envenenamento de dados e inversão de modelo.
- Aplicar modelos fundamentais de governança, como o Framework de Gestão de Riscos em IA do NIST.
- Alinhar o uso da IA com normas emergentes, diretrizes de conformidade e princípios éticos.
OWASP GenAI Security
14 HorasCom base nas últimas diretrizes do projeto OWASP GenAI Security, os participantes aprenderão a identificar, avaliar e mitigar ameaças específicas à IA por meio de exercícios práticos e cenários do mundo real.
Aprendizado de Máquina com Preservação de Privacidade
14 HorasEste treinamento ao vivo ministrado por instrutor em Portugal (online ou presencial) é direcionado a profissionais de nível avançado que desejam implementar e avaliar técnicas como aprendizado federado, computação multiparte segura, criptografia homomórfica e privacidade diferencial em pipelines de machine learning do mundo real.
Ao final deste treinamento, os participantes serão capazes de:
- Compreender e comparar técnicas-chave de preservação de privacidade em ML.
- Implementar sistemas de aprendizado federado usando frameworks open-source.
- Aplicar a privacidade diferencial para compartilhamento seguro de dados e treinamento de modelos.
- Utilizar técnicas de criptografia e computação segura para proteger as entradas e saídas dos modelos.
Protegendo a IA na borda e Inteligência Embutida
14 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (online ou presencial) é voltado para engenheiros e profissionais de segurança de nível intermediário que desejam proteger modelos de IA implantados na borda contra ameaças como manipulação, vazamento de dados, entradas adversárias e ataques físicos.
Ao final deste treinamento, os participantes serão capazes de:
- Identificar e avaliar riscos de segurança em implantações de IA na borda.
- Aplicar técnicas de resistência à manipulação e inferência criptografada.
- Fortalecer modelos implantados na borda e proteger pipelines de dados.
- Implementar estratégias de mitigação de ameaças específicas para sistemas embutidos e restritos.
Protegendo Modelos de IA: Ameaças, Ataques e Defesas
14 HorasEste treinamento presencial, liderado por instrutor (online ou no local), é destinado a profissionais intermediários de aprendizado de máquina e cibersegurança que desejam entender e mitigar ameaças emergentes contra modelos de IA, utilizando tanto estruturas conceituais quanto defesas práticas como treinamento robusto e privacidade diferencial.
Ao final deste treinamento, os participantes serão capazes de:
- Identificar e classificar ameaças específicas à IA, como ataques adversários, inversão e envenenamento.
- Usar ferramentas como a Adversarial Robustness Toolbox (ART) para simular ataques e testar modelos.
- Aplicar defesas práticas, incluindo treinamento adversário, injeção de ruído e técnicas que preservam a privacidade.
- Desenvolver estratégias de avaliação ameaça-aware em ambientes de produção.
Segurança e Privacidade em Aplicações TinyML
21 HorasTinyML é uma abordagem para implantar modelos de aprendizado de máquina em dispositivos com baixa potência e recursos limitados, operando na borda da rede.
Este treinamento presencial (online ou no local) conduzido por instrutores é voltado para profissionais avançados que desejam proteger pipelines TinyML e implementar técnicas de privacidade em aplicações de IA na borda.
Ao final deste curso, os participantes serão capazes de:
- Identificar riscos de segurança específicos para a inferência TinyML em dispositivos.
- Implementar mecanismos de preservação da privacidade para implantações de IA na borda.
- Fortalecer modelos TinyML e sistemas embarcados contra ameaças adversárias.
- Aplicar as melhores práticas para o manuseio seguro de dados em ambientes com recursos limitados.
Formato do Curso
- Aulas envolventes apoiadas por discussões conduzidas por especialistas.
- Exercícios práticos enfatizando cenários de ameaças do mundo real.
- Implementação prática usando ferramentas de segurança embarcada e TinyML.
Opções de Customização do Curso
- Organizações podem solicitar uma versão personalizada deste treinamento para alinhá-lo às suas necessidades específicas de segurança e conformidade.
AI Agente Segura e Confiável: Governança, Identidade e Testes Adversos
21 HorasEste curso aborda governança, gestão de identidade e testes adversos para sistemas de AI agente, focando em padrões de implantação seguros para empresas e técnicas práticas de testes adversos.
Esta formação conduzida por instrutores (online ou presencial) é voltada para profissionais avançados que desejam projetar, proteger e avaliar sistemas de AI baseados em agentes em ambientes de produção.
Ao final deste treinamento, os participantes serão capazes de:
- Definir modelos e políticas de governança para implantações seguras de AI agente.
- Projetar fluxos de identidade e autenticação não-humanos para agentes com acesso de privilégio mínimo.
- Implementar controles de acesso, rastreamento de auditoria e observabilidade adaptados a agentes autônomos.
- Planejar e executar exercícios de red-team para descobrir abusos, caminhos de escalada e riscos de exfiltração de dados.
- Mitigar ameaças comuns a sistemas de AI agente através de políticas, controles de engenharia e monitoramento.
Formato do Curso
- Aulas interativas e oficinas de modelagem de ameaças.
- Laboratórios práticos: provisionamento de identidade, aplicação de políticas e simulação adversa.
- Exercícios de red-team/blue-team e avaliação final do curso.
Opções de Customização do Curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.