Cursos de Apache Spark

Cursos de Apache Spark

Apache Spark - para treinamento de processamento de big data. Os cursos de treinamento Apache Spark ao vivo em locais e instruídos demonstram, por meio da prática prática, como o Spark se encaixa no ecossistema Big Data e como usar o Spark para análise de dados. O treinamento do Apache Spark está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento ao vivo no local pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Subcategorias Spark

Programa de curso Spark

Nome do Curso
Duração
Visão geral
Nome do Curso
Duração
Visão geral
21 horas
Python é uma linguagem de programação escalável, flexível e amplamente utilizada para ciência de dados e aprendizagem de máquina. O Spark é um motor de processamento de dados usado na pesquisa, análise e transformação de dados grandes, enquanto Hadoop é um framework de biblioteca de software para armazenamento e processamento de dados em grande escala.

Este treinamento ao vivo guiado por instrutores (online ou on-site) é dirigido a desenvolvedores que desejam usar e integrar Spark, Hadoop, e Python para processar, analisar e transformar grandes e complexos conjuntos de dados.

No final do curso, os participantes poderão:

Crie o ambiente necessário para iniciar o processamento de grandes dados com o Spark, Hadoop, e Python. Compreenda as características, os componentes essenciais e a arquitetura do Spark e Hadoop. Aprenda a integrar Spark, Hadoop, e Python para o processamento de dados grandes. Explore as ferramentas no ecossistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume). Construa sistemas de recomendação de filtragem colaborativa semelhantes a Netflix, YouTube, Amazon, Spotify e Google. Use o Apache Mahout para escalar algoritmos de aprendizagem de máquina.

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
21 horas
In this instructor-led, live training in Portugal, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
21 horas
Este é um curso de introdução ao Apache Spark, os participantes aprenderão como é que esse programa participa do ecossistema Big Data, e como utiliza-lo para analizar dados. O curso cobre Spark para analise de dados, internalidades do Spark, Spark APIs, Spark SQL, Spark Streaming, Machine Learning e graphX.
21 horas
Hortonworks Data Platform (HDP) é uma plataforma de suporte Apache Hadoop código aberto que fornece uma base estável para o desenvolvimento de soluções de Big Data no ecossistema Apache Hadoop .

Este treinamento ao vivo conduzido por instrutor (no local ou remoto) introduz a Hortonworks Data Platform (HDP) e Hortonworks Data Platform (HDP) participantes através da implementação da solução Spark + Hadoop .

No final deste treinamento, os participantes serão capazes de:

- Use o Hortonworks para executar o Hadoop maneira confiável em grande escala.
- Unifique os recursos de segurança, governança e operações do Hadoop com os fluxos de trabalho analíticos ágeis do Spark.
- Use o Hortonworks para investigar, validar, certificar e suportar cada um dos componentes em um projeto do Spark.
- Processar diferentes tipos de dados, incluindo estruturados, não estruturados, em movimento e em repouso.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 horas
O Magellan é um motor de execução distribuído de código aberto para análise geoespacial em big data. Implementado em cima de Apache Spark, ele estende o Spark SQL e fornece uma abstração relativa para a análise geoespacial.

Este treinamento ao vivo, liderado por instrutores, introduz os conceitos e abordagens para a implementação de análises geoespaciais e caminha os participantes através da criação de uma aplicação de análise preditiva usando Magellan no Spark.

No final do curso, os participantes poderão:

Pergunte efetivamente, parse e junta conjuntos de dados geoespaciais em escala Implementação de dados geoespaciais em inteligência empresarial e aplicações de análise preditiva Use o contexto espacial para expandir as capacidades de dispositivos móveis, sensores, logs e portáteis

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
7 horas
Alluxio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento diferentes e permite que as aplicações interagem com dados em velocidade de memória. Ele é usado por empresas como Intel, Baidu e Alibaba.

Neste treinamento guiado por instrutores, os participantes aprenderão como usar Alluxio para brotar diferentes quadros de computação com sistemas de armazenamento e gerenciar eficientemente dados de escala multi-petabyte enquanto eles passam através da criação de um aplicativo com Alluxio.

No final do curso, os participantes poderão:

Desenvolver uma aplicação com Alluxio Conecte sistemas e aplicações de big data ao mesmo tempo que preserve um espaço de nome Efetivamente extrair valor de grandes dados em qualquer formato de armazenamento Melhorar o desempenho da carga de trabalho Distribuição e gerenciamento Alluxio isolado ou clusterado

Auditoria

Cientista de Dados Desenvolvedor Administrador do sistema

Formato do curso

Parte de palestras, parte de discussão, exercícios e prática pesada
7 horas
O Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como a computação que está sendo executada. Esta informação pode ser usada para realizar otimizações. Dois usos comuns para o Spark SQL são:
- para executar consultas SQL .
- para ler dados de uma instalação existente do Hive .

Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando o Spark SQL .

No final deste treinamento, os participantes serão capazes de:

- Instale e configure o Spark SQL .
- Realize a análise de dados usando o Spark SQL .
- Consultar conjuntos de dados em diferentes formatos.
- Visualize dados e resultados de consulta.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
Stream Processing refere-se ao processamento em tempo real de "dados em movimento", ou seja, executando cálculos nos dados à medida que eles são recebidos. Esses dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade do usuário do site, operações financeiras, furtos de cartão de crédito, fluxos de cliques, etc. Stream Processing estruturas de Stream Processing são capazes de ler grandes volumes de dados recebidos e fornecer informações valiosas quase instantaneamente.

Neste treinamento ao vivo, ministrado por instrutor (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas de Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software e microsserviços relacionados.

Ao final deste treinamento, os participantes serão capazes de:

- Instale e configure diferentes estruturas de Stream Processing , como Spark Streaming e Kafka Streaming.
- Entenda e selecione a estrutura mais apropriada para o trabalho.
- Processo de dados de forma contínua, simultânea e de forma a registro.
- Integre soluções de Stream Processing a bancos de dados, data warehouses, lagos de dados, etc.
- Integre a biblioteca de processamento de fluxo mais apropriada aos aplicativos e microsserviços corporativos.

Público

- Desenvolvedores
- Arquitetos de software

Formato do Curso

- Parte palestra, parte discussão, exercícios e prática prática pesada

Notas

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
A análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis.

A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos. A aplicação de análise de big data em dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde. No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico.

Neste treinamento ao vivo conduzido por instrutor (remoto), os participantes aprenderão como executar a análise de big data na área da saúde enquanto realizam uma série de exercícios práticos de laboratório ao vivo.

No final deste treinamento, os participantes serão capazes de:

- Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark
- Entenda as características dos dados médicos
- Aplicar técnicas de big data para lidar com dados médicos
- Estudar grandes sistemas de dados e algoritmos no contexto de aplicações de saúde

Público

- Desenvolvedores
- Cientistas de dados

Formato do Curso

- Palestra parte, parte discussão, exercícios e prática hands-on pesado.

Nota

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
A curva de aprendizado do Apache Spark está aumentando lentamente no início, e é preciso muito esforço para obter o primeiro retorno. Este curso tem como objetivo pular a primeira parte difícil. Depois de fazer este curso, os participantes entenderão o básico do Apache Spark , diferenciarão claramente o RDD do DataFrame, aprenderão as APIs Python e Scala , entenderão os executores e as tarefas, etc. implantação na nuvem, Databricks e AWS. Os alunos também entenderão as diferenças entre o AWS EMR e o AWS Glue, um dos últimos serviços Spark da AWS.

PÚBLICO:

Engenheiro de dados, DevOps , cientista de dados
21 horas
Scala é uma versão condensada do Java para programação funcional e orientada a objetos em larga escala. Apache Spark Streaming é um componente estendido da API Spark para processar grandes conjuntos de dados como fluxos em tempo real. Juntos, o Spark Streaming e o Scala permitem o streaming de big data.

Esse treinamento ao vivo, conduzido por instrutor (no local ou remoto), destina-se a engenheiros de software que desejam transmitir grandes volumes de dados com Spark Streaming e Scala .

Ao final deste treinamento, os participantes serão capazes de:

- Crie aplicativos Spark com a linguagem de programação Scala .
- Use o Spark Streaming para processar fluxos contínuos de dados.
- Processe fluxos de dados em tempo real com o Spark Streaming.

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 horas
SMACK é uma coleção de software de plataforma de dados, nomeadamente Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, e Apache Kafka. Usando a faixa SMACK, os usuários podem criar e escalar plataformas de processamento de dados.

Este treinamento guiado por instrutores, ao vivo (online ou on-site) é dirigido a cientistas de dados que desejam usar a faixa SMACK para construir plataformas de processamento de dados para soluções de big data.

No final do curso, os participantes poderão:

Implementar uma arquitetura de tubos de dados para o processamento de grandes dados. Desenvolver uma infraestrutura de cluster com Apache Mesos e Docker. Análise de dados com o Spark e Scala. Gerenciar dados não estruturados com o Apache Cassandra.

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
21 horas
Apache Spark é um motor de análise projetado para distribuir dados através de um cluster para processá-lo em paralelo. Contém módulos para streaming, SQL, aprendizagem de máquina e processamento de gráficos.

Este instrutor-led, treinamento ao vivo (online ou on-site) é dirigido a engenheiros que desejam implementar Apache Spark sistema para processar grandes quantidades de dados.

No final do curso, os participantes poderão:

Instalar e configurar Apache Spark. Conheça a diferença entre Apache Spark e Hadoop MapReduce e quando usar qual. Leia rapidamente em e analise conjuntos de dados muito grandes. Integrar Apache Spark com outras ferramentas de aprendizagem de máquina.

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
21 horas
Apache Spark é um motor de processamento distribuído para analisar conjuntos de dados muito grandes. Pode processar dados em batches e em tempo real, bem como realizar aprendizagem de máquina, consultas de ad-hoc e processamento de gráficos. .NET for Apache Spark é um framework gratuito, open-source e cross-platform de análise de big data que suporta aplicações escritas em C# ou F#.

Este treinamento ao vivo guiado por instrutores (online ou on-site) é dirigido a desenvolvedores que desejam realizar análises de dados grandes usando Apache Spark em suas aplicações.NET.

No final do curso, os participantes poderão:

Instalar e configurar Apache Spark. Compreenda como o.NET implementa APIs Spark para que possam ser acessados a partir de um aplicativo.NET. Desenvolver aplicações de processamento de dados usando C# ou F#, capaz de tratar conjuntos de dados cujo tamanho é medido em terabytes e pedabytes. Desenvolver recursos de aprendizagem de máquina para uma aplicação.NET usando Apache Spark capacidades. Faça análises exploratórias usando SQL consultas em grandes conjuntos de dados.

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
35 horas
Apache Hadoop é um framework de processamento de dados popular para o processamento de grandes conjuntos de dados em muitos computadores.

Este treinamento guiado por instrutores, ao vivo (online ou on-site) é dirigido a administradores de sistemas que desejam aprender como configurar, implementar e gerenciar Hadoop clusters dentro de sua organização.

No final do curso, os participantes poderão:

Instalar e configurar o Apache Hadoop. Compreenda os quatro principais componentes do Hadoop ecossistema: HDFS, MapReduce, YARN e Hadoop Comum. Use Hadoop Distribuído Sistema de Arquivos (HDFS) para escalar um cluster para centenas ou milhares de nodos. Configure o HDFS para funcionar como um motor de armazenamento para deslocações Spark on-premise. Instale o Spark para acessar soluções de armazenamento alternativas, como os sistemas de banco de dados Amazon S3 e NoSQL como Redis, Elasticsearch, Couchbase, Aerospike, etc. Execute tarefas administrativas como fornecer, gerenciar, monitorar e garantir um cluster Apache Hadoop.

O formato do curso

Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.

Opções de Customização

Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
14 horas
This instructor-led, live training in Portugal (online or onsite) is aimed at data scientists and developers who wish to use Spark NLP, built on top of Apache Spark, to develop, implement, and scale natural language text processing models and pipelines.

By the end of this training, participants will be able to:

- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
35 horas
O MLlib é a biblioteca de aprendizado de máquina (ML) do Spark. Seu objetivo é tornar prático o aprendizado de máquina escalável e fácil. Ele consiste em algoritmos e utilitários de aprendizado comuns, incluindo classificação, regressão, agrupamento, filtragem colaborativa, redução de dimensionalidade, além de primitivas de otimização de nível inferior e APIs de pipeline de nível superior.

Divide-se em dois pacotes:

-

O spark.mllib contém a API original construída sobre os RDDs.

-

O spark.ml fornece uma API de alto nível, construída sobre os DataFrames, para a construção de pipelines de ML.

Público

Este curso é direcionado a engenheiros e desenvolvedores que desejam utilizar uma biblioteca de máquinas integrada para o Apache Spark
21 horas
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
28 horas
Um grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .

Last Updated:

Próximos Cursos de Apache Spark

Cursos de fim de semana de Apache Spark, Treinamento tardiurno de Apache Spark, Treinamento em grupo de Apache Spark, Spark guiado por instrutor, Treinamento de Spark de fim de semana, Cursos de Spark tardiurnos, coaching de Apache Spark, Instrutor de Spark, Treinador de Spark, Cursos de treinamento de Apache Spark, Aulas de Apache Spark, Spark no local do cliente, Cursos privados de Apache Spark, Treinamento individual de Apache Spark

Ofertas Especiais

Newsletter Ofertas Especiais

Nós respeitamos a privacidade dos seus dados. Nós não vamos repassar ou vender o seu email para outras empresas.
Você sempre poderá editar as suas preferências ou cancelar a sua inscriçāo.

Nossos Clientes

is growing fast!

We are looking for a good mixture of IT and soft skills in Portugal!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions