Programa do Curso

Introdução ao Ollama

  • O que é o Ollama e como ele funciona?
  • Benefícios de executar modelos de IA localmente
  • Visão geral dos LLMs suportados (Llama, DeepSeek, Mistral, etc.)

Instalação e Configuração do Ollama

  • Requisitos do sistema e considerações sobre hardware
  • Instalando o Ollama em diferentes sistemas operacionais
  • Configurando dependências e ambiente de trabalho

Executando Modelos de IA Localmente

  • Baixando e carregando modelos de IA no Ollama
  • Interagindo com os modelos via linha de comando
  • Engenharia básica de prompts para tarefas de IA locais

Otimizando Desempenho e Uso de Recursos

  • Gerenciando recursos de hardware para execução eficiente de AI
  • Reduzindo a latência e melhorando o tempo de resposta do modelo
  • Realizando benchmarking de desempenho para diferentes modelos

Casos de Uso para Deploy Local de IA

  • Chatbots e assistentes virtuais alimentados por IA
  • Processamento de dados e tarefas de automação
  • Aplicações focadas na privacidade com IA

Resumo e Próximos Passos

Requisitos

  • Noções básicas sobre conceitos de IA e aprendizado de máquina
  • Familiaridade com interfaces de linha de comando

Público-alvo

  • Desenvolvedores que executam modelos de IA sem dependências em nuvem
  • Business profissionais interessados em privacidade da IA e implantação econômica
  • Enthusiastas de IA explorando a implantação local de modelos
 7 Horas

Próximas Formações Provisórias

Categorias Relacionadas