Programa do Curso

Introdução

  • Redes neurais artificiais versus algoritmos baseados em árvores de decisão

Descrição geral das caraterísticas do XGBoost

  • [Caraterísticas de um algoritmo Gradient Boosting
  • Foco na velocidade de computação e no desempenho do modelo
  • XGBoost vs Regressão Logística, Random Forest e Gradient Boosting padrão

A evolução dos algoritmos baseados em árvores

  • Árvores de decisão, Bagging, Random Forest, Boosting, Gradient Boosting
  • Otimização do sistema
  • Melhorias algorítmicas

Preparando o ambiente

  • Instalando SciPy e scikit-learn

Criando um modelo XGBoost

  • Descarregando um conjunto de dados
  • Resolvendo um problema comum de classificação
  • Treinando o modelo XGBoost para classificação
  • Resolver uma tarefa de regressão comum

Monitorização do desempenho

  • Avaliar e relatar o desempenho
  • Paragem antecipada

Plotagem de caraterísticas por importância

  • Cálculo da importância das caraterísticas
  • Decidir quais variáveis de entrada devem ser mantidas ou descartadas

Configuração do Gradient Boosting

  • Rever as curvas de aprendizagem nos conjuntos de dados de treino e validação
  • Ajustar a taxa de aprendizagem
  • Ajustar o número de árvores

Ajuste de hiperparâmetros

  • Melhorar o desempenho de um modelo XGBoost
  • Conceber uma experiência controlada para ajustar os hiperparâmetros
  • Pesquisa de combinações de parâmetros

Criação de um pipeline

  • Incorporação de um modelo XGBoost em um pipeline de aprendizado de máquina de ponta a ponta
  • Ajuste de hiperparâmetros dentro do pipeline
  • Técnicas avançadas de pré-processamento

Solução de problemas

Resumo e conclusão

Requisitos

  • Experiência em escrever modelos de aprendizagem automática

Público

  • Cientistas de dados
  • Engenheiros de aprendizagem automática
 14 horas

Próximas Formações Provisórias