Obrigado por enviar sua consulta! Um dos membros da nossa equipe entrará em contato com você em breve.
Obrigado por enviar sua reserva! Um dos membros da nossa equipe entrará em contato com você em breve.
Programa do Curso
Introdução ao Ollama
- O que é o Ollama e como ele funciona?
- Benefícios de executar modelos de IA localmente
- Visão geral dos LLMs suportados (Llama, DeepSeek, Mistral, etc.)
Instalação e Configuração do Ollama
- Requisitos do sistema e considerações sobre hardware
- Instalando o Ollama em diferentes sistemas operacionais
- Configurando dependências e ambiente de trabalho
Executando Modelos de IA Localmente
- Baixando e carregando modelos de IA no Ollama
- Interagindo com os modelos via linha de comando
- Engenharia básica de prompts para tarefas de IA locais
Otimizando Desempenho e Uso de Recursos
- Gerenciando recursos de hardware para execução eficiente de AI
- Reduzindo a latência e melhorando o tempo de resposta do modelo
- Realizando benchmarking de desempenho para diferentes modelos
Casos de Uso para Deploy Local de IA
- Chatbots e assistentes virtuais alimentados por IA
- Processamento de dados e tarefas de automação
- Aplicações focadas na privacidade com IA
Resumo e Próximos Passos
Requisitos
- Noções básicas sobre conceitos de IA e aprendizado de máquina
- Familiaridade com interfaces de linha de comando
Público-alvo
- Desenvolvedores que executam modelos de IA sem dependências em nuvem
- Business profissionais interessados em privacidade da IA e implantação econômica
- Enthusiastas de IA explorando a implantação local de modelos
7 Horas