Programa do Curso

DIA 1 - REDES NEURAIS ARTIFICIAIS

Introdução e Estrutura da RNA.

    Bioneurônios lógicos e neurônios artificiais. Modelo de uma RNA. Funções de ativação utilizadas em RNAs. Classes típicas de arquiteturas de rede.

Mathematical Fundamentos e mecanismos de aprendizagem.

    Revisitando a álgebra vetorial e matricial. Conceitos de espaço de estados. Conceitos de otimização. Aprendizagem por correção de erros. Aprendizagem baseada na memória. Aprendizagem hebbiana. Aprendizagem competitiva.

Perceptrons de camada única.

    Estrutura e aprendizagem de perceptrons. Classificador de padrões - introdução e classificadores de Bayes. Perceptron como classificador de padrões. Convergência perceptron. Limitações de um perceptrons.

RNA feedforward.

    Estruturas de redes feedforward multicamadas. Algoritmo de retropropagação. Retropropagação - treinamento e convergência. Aproximação funcional com retropropagação. Questões práticas e de design de aprendizagem por retropropagação.

Redes de funções de base radial.

    Separabilidade e interpolação de padrões. Teoria da Regularização. Regularização e redes RBF. Projeto e treinamento da rede RBF. Propriedades de aproximação de RBF.

Aprendizagem competitiva e RNA auto-organizada.

    Procedimentos gerais de agrupamento. Aprendizagem de quantização vetorial (LVQ). Algoritmos e arquiteturas de aprendizagem competitiva. Mapas de recursos auto-organizados. Propriedades de mapas de recursos.

Difuso Neural Networks.

    Sistemas neuro-fuzzy. Antecedentes de conjuntos difusos e lógica. Design de hastes difusas. Projeto de RNAs fuzzy.

Formulários

    Serão discutidos alguns exemplos de aplicações de Redes Neurais, suas vantagens e problemas.

DIA -2 APRENDIZAGEM DE MÁQUINA

    A Estrutura de Aprendizagem do PAC Garantias para conjunto de hipóteses finitas – caso consistente Garantias para conjunto de hipóteses finitas – caso inconsistente Generalidades Determinísticas cv. Cenários estocásticos Ruído de erro de Bayes Erros de estimativa e aproximação Seleção de modelo
Complexidade Radmeacher e VC – DimensãoViés - compensação de variação
  • Regularização
  • Sobreajuste
  • Validação
  • Máquinas de vetores de suporte
  • Krigagem (regressão do Processo Gaussiano)
  • PCA e PCA de kernel
  • Mapas de auto-organização (SOM)
  • Espaço vetorial induzido pelo kernel Mercer Kernels e Kernel - métricas de similaridade induzidas
  • Reinforcement Learning
  • DIA 3 - APRENDIZAGEM PROFUNDA
  • Isso será ensinado em relação aos tópicos abordados no Dia 1 e no Dia 2
  • Regressão Logística e Softmax Autoencoders Esparsos Vetorização, PCA e Branqueamento Aprendizagem Autodidata Redes Profundas Decodificadores Lineares Convolução e Pooling Codificação Esparsa Análise de Componentes Independentes Análise de Correlação Canônica Demonstrações e Aplicações
  • Requisitos

    Bom conhecimento de matemática.

    [Conhecimentos básicos de estatística.

    Não são necessários, mas recomendam-se, conhecimentos básicos de programação.

      21 horas
     

    Declaração de Clientes (2)

    Cursos Relacionados

    Categorias Relacionadas