Programa do Curso

Introdução ao TinyML e AI Embarcada

  • Características da implantação de modelos TinyML
  • Restrições em ambientes de microcontroladores
  • Visão geral das ferramentas de AI embarcada

Fundamentos da Otimização de Modelos

  • Compreensão dos gargalos computacionais
  • Identificação de operações intensivas em memória
  • Perfis de desempenho básico

Técnicas de Quantização

  • Estratégias de quantização pós-treinamento
  • Treinamento com consciência de quantização
  • Avaliação dos trade-offs entre precisão e recursos

Poda e Compressão

  • Métodos de poda estruturada e não estruturada
  • Compartilhamento de pesos e esparsidade do modelo
  • Algoritmos de compressão para inferência leve

Otimização Consciente de Hardware

  • Implantação de modelos em sistemas ARM Cortex-M
  • Otimização para extensões DSP e aceleradores
  • Considerações sobre mapeamento de memória e fluxo de dados

Benchmarking e Validação

  • Análise de latência e throughput
  • Medição do consumo de energia e potência
  • Testes de precisão e robustez

Fluxos de Trabalho e Ferramentas de Implantação

  • Uso do TensorFlow Lite Micro para implantação embarcada
  • Integração de modelos TinyML com pipelines Edge Impulse
  • Testes e depuração em hardware real

Estratégias Avançadas de Otimização

  • Busca de arquiteturas neurais para TinyML
  • Abordagens híbridas de quantização-poda
  • Distilação de modelos para inferência embarcada

Resumo e Próximos Passos

Requisitos

  • Compreensão dos fluxos de trabalho de aprendizado de máquina
  • Experiência com sistemas embarcados ou desenvolvimento baseado em microcontroladores
  • Familiaridade com programação Python

Público-Alvo

  • Pesquisadores de IA
  • Engenheiros de ML embarcado
  • Profissionais trabalhando em sistemas de inferência com recursos limitados
 21 Horas

Próximas Formações Provisórias

Categorias Relacionadas