Programa do Curso

Introdução ao Modelagem de Ameaças em IA

  • O que torna os sistemas de IA vulneráveis?
  • Superfície de ataque da IA vs sistemas tradicionais
  • Principais vetores de ataque: camadas de dados, modelo, saída e interface

Ataques Adversariais em Modelos de IA

  • Compreendendo exemplos adversários e técnicas de perturbação
  • Ataques white-box vs black-box
  • Métodos FGSM, PGD e DeepFool
  • Visualizando e criando exemplos adversários

Inversão de Modelo e Fuga de Privacidade

  • Inferindo dados de treinamento a partir da saída do modelo
  • Ataques de inferência de associação
  • Riscos de privacidade em modelos de classificação e geração

Contaminação de Dados e Injeções de Trampas

  • Como dados contaminados influenciam o comportamento do modelo
  • Trampas baseadas em gatilhos e ataques Trojans
  • Estratégias de detecção e sanitização

Robustez e Técnicas Defensivas

  • Treinamento adversarial e aumento de dados
  • Mascaramento de gradiente e pré-processamento de entrada
  • Suavização do modelo e técnicas de regularização

Defesas Preservadoras de Privacidade em IA

  • Introdução à privacidade diferencial
  • Injeção de ruído e orçamentos de privacidade
  • Aprendizado federado e agregação segura

AI Security na Prática

  • Avaliação e implantação de modelos conscientes de ameaças
  • Utilizando ART (Adversarial Robustness Toolbox) em configurações aplicadas
  • Estudos de caso da indústria: roubos reais e mitigações

Resumo e Próximos Passos

Requisitos

  • Compreensão dos fluxos de trabalho de aprendizado de máquina e treinamento de modelos
  • Experiência com Python e quadros de ML comuns como PyTorch ou TensorFlow
  • Familiaridade com conceitos básicos de segurança ou modelagem de ameaças é útil

Público-alvo

  • Engenheiros de aprendizado de máquina
  • Analistas de cibersegurança
  • Pesquisadores em IA e equipes de validação de modelos
 14 Horas

Próximas Formações Provisórias

Categorias Relacionadas