Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Programa do Curso
Introdução
- Redes neurais artificiais versus algoritmos baseados em árvores de decisão
Descrição geral das caraterísticas do XGBoost
- [Caraterísticas de um algoritmo Gradient Boosting
- Foco na velocidade de computação e no desempenho do modelo
- XGBoost vs Regressão Logística, Random Forest e Gradient Boosting padrão
A evolução dos algoritmos baseados em árvores
- Árvores de decisão, Bagging, Random Forest, Boosting, Gradient Boosting
- Otimização do sistema
- Melhorias algorítmicas
Preparando o ambiente
- Instalando SciPy e scikit-learn
Criando um modelo XGBoost
- Descarregando um conjunto de dados
- Resolvendo um problema comum de classificação
- Treinando o modelo XGBoost para classificação
- Resolver uma tarefa de regressão comum
Monitorização do desempenho
- Avaliar e relatar o desempenho
- Paragem antecipada
Plotagem de caraterísticas por importância
- Cálculo da importância das caraterísticas
- Decidir quais variáveis de entrada devem ser mantidas ou descartadas
Configuração do Gradient Boosting
- Rever as curvas de aprendizagem nos conjuntos de dados de treino e validação
- Ajustar a taxa de aprendizagem
- Ajustar o número de árvores
Ajuste de hiperparâmetros
- Melhorar o desempenho de um modelo XGBoost
- Conceber uma experiência controlada para ajustar os hiperparâmetros
- Pesquisa de combinações de parâmetros
Criação de um pipeline
- Incorporação de um modelo XGBoost em um pipeline de aprendizado de máquina de ponta a ponta
- Ajuste de hiperparâmetros dentro do pipeline
- Técnicas avançadas de pré-processamento
Solução de problemas
Resumo e conclusão
Requisitos
- Experiência em escrever modelos de aprendizagem automática
Público
- Cientistas de dados
- Engenheiros de aprendizagem automática
14 horas