Online ou no local, os cursos de treinamento ao vivo do Apache Spark conduzidos por instrutor demonstram, por meio da prática prática, como o Spark se encaixa no ecossistema de Big Data e como usar o Spark para análise de dados. O treinamento do Apache Spark está disponível como "treinamento ao vivo online" ou "treinamento ao vivo no local". O treinamento on-line ao vivo (também conhecido como "treinamento remoto ao vivo") é realizado por meio de uma área de trabalho remota e interativa. O treinamento ao vivo no local pode ser realizado localmente nas instalações do cliente em Portugal ou nos centros de treinamento corporativo da NobleProg em Portugal. NobleProg -- Seu provedor de treinamento local
Este treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a cientistas e engenheiros de dados de nível intermediário que desejam usar Go ogle Colab e Apache Spark para processamento e análise de big data.
No final deste treinamento, os participantes serão capazes de:
Configurar um ambiente de big data usando Google Colab e Spark.
Processar e analisar grandes conjuntos de dados de forma eficiente com Apache Spark.
Visualize big data em um ambiente colaborativo.
Integrar Apache Spark com ferramentas baseadas em nuvem.
Este treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a desenvolvedores que desejam usar e integrar o Spark, Hadoop e Python para processar, analisar e transformar conjuntos de dados grandes e complexos.
No final deste treinamento, os participantes serão capazes de:
Configurar o ambiente necessário para iniciar o processamento de big data com Spark, Hadoop e Python.
Compreender os recursos, componentes principais e arquitetura do Spark e Hadoop.
Aprender como integrar Spark, Hadoop e Python para o processamento de big data.
Explorar as ferramentas do ecossistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka e Flume).
Construir sistemas de recomendação de filtragem colaborativa semelhantes a Netflix, YouTube, Amazon, Spotify e Google.
Utilizar o Apache Mahout para escalar algoritmos de aprendizagem automática.
Este treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a administradores de sistema de nível iniciante a intermediário que desejam implantar, manter e otimizar clusters Spark.
Ao final deste treinamento, os participantes serão capazes de:
Instalar e configurar Apache Spark em vários ambientes.
Gerenciar recursos de cluster e monitorar aplicativos Spark.
Otimizar o desempenho dos clusters do Spark.
Implementar medidas de segurança e garantir alta disponibilidade.
Neste treinamento ao vivo conduzido por instrutor em Portugal, os participantes aprenderão como usar Python e Spark juntos para analisar big data enquanto trabalham em exercícios práticos.
Ao final deste treinamento, os participantes serão capazes de:
Aprenda a usar o Spark com Python para analisar Big Data.
Trabalhe em exercícios que imitam casos do mundo real.
Use diferentes ferramentas e técnicas para análise de big data usando PySpark.
Este curso destina-se a programadores e cientistas de dados que pretendam compreender e implementar a IA nas suas aplicações. É dada especial atenção à análise de dados, à IA distribuída e ao processamento de linguagem natural.
A análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis.
A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos. A aplicação de análise de big data em dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde. No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico.
Neste treinamento ao vivo conduzido por instrutor (remoto), os participantes aprenderão como executar a análise de big data na área da saúde enquanto realizam uma série de exercícios práticos de laboratório ao vivo.
No final deste treinamento, os participantes serão capazes de:
Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark
Entenda as características dos dados médicos
Aplicar técnicas de big data para lidar com dados médicos
Estudar grandes sistemas de dados e algoritmos no contexto de aplicações de saúde
Público
Desenvolvedores
Cientistas de dados
Formato do Curso
Palestra parte, parte discussão, exercícios e prática hands-on pesado.
Nota
Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Neste treinamento ao vivo conduzido por instrutor em Portugal, os participantes aprenderão sobre as ofertas de tecnologia e abordagens de implementação para o processamento de dados gráficos. O objetivo é identificar objetos do mundo real, suas caraterísticas e relacionamentos, depois modelar esses relacionamentos e processá-los como dados usando uma abordagem Graph Computing (também conhecida como Graph Analytics). Começamos com uma visão geral e nos concentramos em ferramentas específicas à medida que avançamos em uma série de estudos de caso, exercícios práticos e implantações ao vivo.
No final deste treinamento, os participantes serão capazes de:
Entender como os dados do gráfico são persistidos e percorridos.
Selecionar a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote).
Implementar Hadoop, Spark, GraphX e Pregel para realizar a computação de gráficos em muitas máquinas em paralelo.
Ver problemas reais de grandes volumes de dados em termos de grafos, processos e travessias.
Este treinamento ao vivo conduzido por instrutor em Portugal (online ou no local) é destinado a administradores de sistema que desejam aprender como configurar, implantar e gerenciar clusters Hadoop em sua organização.
No final desta formação, os participantes serão capazes de
Instalar e configurar o Apache Hadoop.
Compreender os quatro principais componentes do ecossistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common.
Usar o HDFS (Hadoop Distributed File System) para dimensionar um cluster para centenas ou milhares de nós.
Configurar o HDFS para operar como mecanismo de armazenamento para implantações do Spark no local.
Configurar o Spark para acessar soluções de armazenamento alternativas, como Amazon S3 e sistemas de banco de dados NoSQL, como Redis, Elasticsearch, Couchbase, Aerospike, etc.
Realizar tarefas administrativas, como provisionamento, gerenciamento, monitoramento e segurança de um cluster Apache Hadoop.
Este treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) apresenta Hortonworks Data Platform (HDP) e orienta os participantes na implantação da solução Spark + Hadoop.
Ao final deste treinamento, os participantes serão capazes de:
Usar o Hortonworks para executar Hadoop de forma confiável em grande escala.
Unificar os recursos de segurança, governança e operações do Hadoop com os fluxos de trabalho analíticos ágeis do Spark.
Use a Hortonworks para investigar, validar, certificar e dar suporte a cada um dos componentes de um projeto Spark.
Processar diferentes tipos de dados, incluindo dados estruturados, não estruturados, em movimento e em repouso.
Neste treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software relacionados e microsserviços.
No final desta formação, os participantes serão capazes de
Instalar e configurar diferentes Stream Processing frameworks, como Spark Streaming e Kafka Streaming.
Compreender e selecionar a estrutura mais apropriada para o trabalho.
Processar dados de forma contínua, simultânea e de forma registo a registo.
Integrar Stream Processing soluções com bancos de dados existentes, data warehouses, data lakes, etc.
Integrar a biblioteca de processamento de fluxo mais adequada com aplicativos corporativos e microsserviços.
Este treinamento ao vivo conduzido por instrutor em Portugal (online ou no local) é destinado a cientistas de dados que desejam usar a pilha SMACK para construir plataformas de processamento de dados para soluções de big data.
No final desta formação, os participantes serão capazes de
Implementar uma arquitetura de pipeline de dados para processar big data.
Desenvolver uma infraestrutura de cluster com Apache Mesos e Docker.
Analisar dados com Spark e Scala.
Gerenciar dados não estruturados com o Apache Cassandra.
Este treinamento ao vivo conduzido por instrutor em Portugal (online ou no local) é destinado a engenheiros que desejam configurar e implantar o sistema Apache Spark para processar grandes quantidades de dados.
No final desta formação, os participantes serão capazes de
Instalar e configurar o Apache Spark.
Processe e analise rapidamente conjuntos de dados muito grandes.
Compreender a diferença entre o Apache Spark e o Hadoop MapReduce e quando usar qual deles.
Integrar o Apache Spark com outras ferramentas de aprendizado de máquina.
A curva de aprendizado do Apache Spark está aumentando lentamente no início, e é preciso muito esforço para obter o primeiro retorno. Este curso tem como objetivo pular a primeira parte difícil. Depois de fazer este curso, os participantes entenderão o básico do Apache Spark , diferenciarão claramente o RDD do DataFrame, aprenderão as APIs Python e Scala , entenderão os executores e as tarefas, etc. implantação na nuvem, Databricks e AWS. Os alunos também entenderão as diferenças entre o AWS EMR e o AWS Glue, um dos últimos serviços Spark da AWS.
PÚBLICO:
Engenheiro de dados, DevOps , cientista de dados
OBJETIVO: Este curso apresentará o Apache Spark . Os alunos aprenderão como o Spark se encaixa no ecossistema de Big Data e como usar o Spark para análise de dados. O curso abrange o shell Shell para análise interativa de dados, internos do Spark, APIs do Spark, Spark SQL , streaming do Spark e aprendizado de máquina e graphX. PÚBLICO : Desenvolvedores / analistas de dados
Este treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a cientistas de dados e desenvolvedores que desejam usar Spark NLP, construído em cima de Apache Spark, para desenvolver, implementar e dimensionar modelos e pipelines de processamento de texto em linguagem natural.
No final deste treinamento, os participantes serão capazes de:
Configurar o ambiente de desenvolvimento necessário para começar a construir pipelines de PNL com Spark NLP.
Compreender os recursos, a arquitetura e os benefícios do uso de Spark NLP.
Utilizar os modelos pré-treinados disponíveis em Spark NLP para implementar o processamento de texto.
Aprender a construir, treinar e escalar modelos de Spark NLP para projectos de nível de produção.
Aplicar classificação, inferência e análise de sentimentos em casos de uso real (dados clínicos, insights sobre o comportamento do cliente, etc.).
O Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como a computação que está sendo executada. Esta informação pode ser usada para realizar otimizações. Dois usos comuns para o Spark SQL são: - para executar consultas SQL . - para ler dados de uma instalação existente do Hive .
Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando o Spark SQL .
No final deste treinamento, os participantes serão capazes de:
Instale e configure o Spark SQL .
Realize a análise de dados usando o Spark SQL .
Consultar conjuntos de dados em diferentes formatos.
Visualize dados e resultados de consulta.
Formato do Curso
Palestra interativa e discussão.
Muitos exercícios e prática.
Implementação prática em um ambiente de laboratório ao vivo.
Opções de personalização de curso
Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
O MLlib é a biblioteca de aprendizado de máquina (ML) do Spark. Seu objetivo é tornar prático o aprendizado de máquina escalável e fácil. Ele consiste em algoritmos e utilitários de aprendizado comuns, incluindo classificação, regressão, agrupamento, filtragem colaborativa, redução de dimensionalidade, além de primitivas de otimização de nível inferior e APIs de pipeline de nível superior.
Divide-se em dois pacotes:
O spark.mllib contém a API original construída sobre os RDDs.
O spark.ml fornece uma API de alto nível, construída sobre os DataFrames, para a construção de pipelines de ML.
Público
Este curso é direcionado a engenheiros e desenvolvedores que desejam utilizar uma biblioteca de máquinas integrada para o Apache Spark
Leia mais...
Última Atualização:
Declaração de Clientes(9)
Muitos exemplos práticos, diferentes formas de abordar o mesmo problema e, por vezes, truques não tão óbvios para melhorar a solução atual
Rafal - Nordea
Curso - Apache Spark MLlib
Máquina Traduzida
Os exemplos ao vivo
Ahmet Bolat - Accenture Industrial SS
Curso - Python, Spark, and Hadoop for Big Data
Máquina Traduzida
muito interativo...
Richard Langford
Curso - SMACK Stack for Data Science
Máquina Traduzida
Suficiente prática, o instrutor é qualificado
Chris Tan
Curso - A Practical Introduction to Stream Processing
Máquina Traduzida
Aprenda sobre Spark Streaming, Databricks e AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Curso - Apache Spark in the Cloud
Máquina Traduzida
tarefas práticas
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Curso - Python and Spark for Big Data (PySpark)
Máquina Traduzida
A VM que eu gostei muito
O Professor era muito conhecedor sobre o tópico bem como outros assuntos, ele foi muito simpático e amigável
Gostei das instalações em Dubai.
Safar Alqahtani - Elm Information Security
Curso - Big Data Analytics in Health
Máquina Traduzida
This is one of the best hands-on with exercises programming courses I have ever taken.
Laura Kahn
Curso - Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Máquina Traduzida
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Cursos de fim de semana de Apache Spark, Treinamento tardiurno de Apache Spark, Treinamento em grupo de Apache Spark, Spark guiado por instrutor, Treinamento de Spark de fim de semana, Cursos de Spark tardiurnos, coaching de Apache Spark, Instrutor de Spark, Treinador de Spark, Cursos de treinamento de Apache Spark, Aulas de Apache Spark, Spark no local do cliente, Cursos privados de Apache Spark, Treinamento individual de Apache Spark