Programa do Curso

Introdução ao Ollama

  • O que é o Ollama e como ele funciona?
  • Benefícios de executar modelos de IA localmente
  • Visão geral dos LLMs suportados (Llama, DeepSeek, Mistral, etc.)

Instalando e Configurando o Ollama

  • Requisitos do sistema e considerações de hardware
  • Instalando o Ollama em diferentes sistemas operacionais
  • Configurando dependências e ambiente

Executando Modelos de IA Localmente

  • Baixando e carregando modelos de IA no Ollama
  • Interagindo com os modelos via linha de comando
  • Engenharia básica de prompts para tarefas de IA local

Otimizando Desempenho e Uso de Recursos

  • Gerenciando recursos de hardware para execução eficiente de IA
  • Reduzindo latência e melhorando o tempo de resposta do modelo
  • Benchmarking de desempenho para diferentes modelos

Casos de Uso para Implantação Local de IA

  • Chatbots e assistentes virtuais alimentados por IA
  • Tarefas de processamento de dados e automação
  • Aplicações de IA com foco em privacidade

Resumo e Próximos Passos

Requisitos

  • Compreensão básica de IA e conceitos de aprendizado de máquina
  • Familiaridade com interfaces de linha de comando

Público-Alvo

  • Desenvolvedores executando modelos de IA sem dependências em nuvem
  • Profissionais de negócios interessados em privacidade e implantação custo-efetiva de IA
  • Enthusiasts explorando a implantação local de modelos de IA
 7 Horas

Próximas Formações Provisórias

Categorias Relacionadas