Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Big Data

Nome do Curso
Duração
Visão geral
Nome do Curso
Duração
Visão geral
35 horas
Visão geral
Os avanços nas tecnologias e a crescente quantidade de informações estão transformando a forma como os negócios são conduzidos em muitos setores, inclusive no governo As taxas de geração de dados e arquivamento digital do governo estão em ascensão devido ao rápido crescimento de dispositivos e aplicativos móveis, sensores e dispositivos inteligentes, soluções de computação em nuvem e portais de proteção de cidadãos À medida que a informação digital se expande e se torna mais complexa, o gerenciamento, processamento, armazenamento, segurança e disposição da informação tornam-se mais complexos também Novas ferramentas de captura, pesquisa, descoberta e análise estão ajudando as organizações a obter insights de seus dados não estruturados O mercado do governo está em um ponto crítico, percebendo que a informação é um ativo estratégico, e o governo precisa proteger, alavancar e analisar informações estruturadas e não estruturadas para melhor atender e atender aos requisitos da missão À medida que os líderes do governo se esforçam para evoluir organizações de dados para cumprir com sucesso a missão, eles estão estabelecendo as bases para correlacionar dependências entre eventos, pessoas, processos e informações Soluções governamentais de alto valor serão criadas a partir de um mashup das tecnologias mais disruptivas: Dispositivos e aplicativos móveis Serviços na nuvem Tecnologias de negócios sociais e redes Big Data e analítica A IDC prevê que, até 2020, o setor de TI chegará a US $ 5 trilhões, aproximadamente US $ 1,7 trilhão a mais do que hoje, e que 80% do crescimento do setor será impulsionado por essas tecnologias da 3ª plataforma No longo prazo, essas tecnologias serão ferramentas fundamentais para lidar com a complexidade do aumento da informação digital O Big Data é uma das soluções inteligentes do setor e permite que o governo tome melhores decisões, tomando medidas baseadas em padrões revelados pela análise de grandes volumes de dados relacionados e não relacionados, estruturados e não estruturados Mas realizar essas proezas leva muito mais do que simplesmente acumular quantidades massivas de dados ”A compreensão dos volumes de BigDate traz ferramentas e tecnologias de ponta que podem analisar e extrair conhecimento útil de fluxos vastos e diversos de informações”, Tom Kalil e Fen Zhao da Escritório da Casa Branca de Política de Ciência e Tecnologia escreveu em um post no Blog OSTP A Casa Branca deu um passo no sentido de ajudar as agências a encontrar essas tecnologias quando estabeleceu a Iniciativa Nacional de Pesquisa e Desenvolvimento de Big Data em 2012 A iniciativa incluiu mais de US $ 200 milhões para aproveitar ao máximo a explosão do Big Data e as ferramentas necessárias para analisá-lo Os desafios que o Big Data apresenta são quase tão assustadores quanto sua promessa é encorajadora Armazenar dados de forma eficiente é um desses desafios Como sempre, os orçamentos são apertados, por isso as agências devem minimizar o preço permegabyte de armazenamento e manter os dados de fácil acesso para que os usuários possam obtê-lo quando quiserem e como precisam Fazer o backup de grandes quantidades de dados aumenta o desafio Analisar os dados de forma eficaz é outro grande desafio Muitas agências empregam ferramentas comerciais que permitem filtrar as montanhas de dados, identificando tendências que podem ajudá-las a operar com mais eficiência (Um estudo recente da MeriTalk descobriu que os executivos federais de TI acham que o Big Data poderia ajudar as agências a economizar mais de US $ 500 bilhões, além de cumprir os objetivos da missão) As ferramentas de big data desenvolvidas especialmente também permitem que as agências abordem a necessidade de analisar seus dados Por exemplo, o Laboratório de Análise de Dados Computacionais do Laboratório Nacional de Oak Ridge disponibilizou seu sistema de análise de dados Piranha para outras agências O sistema ajudou pesquisadores médicos a encontrar um elo que pode alertar os médicos sobre aneurismas da aorta antes que eles ataquem Ele também é usado para tarefas mais comuns, como examinar currículos para conectar candidatos a empregos a gerentes de contratação .
21 horas
Visão geral
A curva de aprendizado do Apache Spark está aumentando lentamente no início, e é preciso muito esforço para obter o primeiro retorno. Este curso tem como objetivo pular a primeira parte difícil. Depois de fazer este curso, os participantes entenderão o básico do Apache Spark , diferenciarão claramente o RDD do DataFrame, aprenderão as APIs Python e Scala , entenderão os executores e as tarefas, etc. implantação na nuvem, Databricks e AWS. Os alunos também entenderão as diferenças entre o AWS EMR e o AWS Glue, um dos últimos serviços Spark da AWS.

PÚBLICO:

Engenheiro de dados, DevOps , cientista de dados
14 horas
Visão geral
O Apache SolrCloud é um mecanismo de processamento de dados distribuído que facilita a pesquisa e a indexação de arquivos em uma rede distribuída.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como configurar uma instância do SolrCloud no Amazon AWS.

No final deste treinamento, os participantes serão capazes de:

- Entender os recursos do SolCloud e como eles se comparam aos dos clusters master-slave convencionais
- Configurar um cluster centralizado do SolCloud
- Automatizar processos como comunicação com shards, adição de documentos aos fragmentos, etc.
- Usar o Zookeeper em conjunto com o SolrCloud para automatizar ainda mais os processos
- Usar a interface para gerenciar o relatório de erros
- Balanceamento de carga de uma instalação do SolrCloud
- Configurar o SolrCloud para processamento contínuo e failover

Público

Desenvolvedores Solr

Gerentes de projeto

Administradores de sistema

Analistas de pesquisa

Formato do curso

Palestra, discussão, exercícios e prática.
14 horas
Visão geral
O ZooKeeper é um serviço centralizado para manter informações de configuração, nomear, fornecer sincronização distribuída e fornecer serviços de grupo.
21 horas
Visão geral
Python é uma linguagem de programação de alto nível famosa por sua sintaxe clara e com legibilidade de código. O Spark é um mecanismo de processamento de dados usado na consulta, análise e transformação de big data. O PySpark permite que os usuários façam interface com o Spark com o Python.

Neste treinamento os participantes aprenderão como usar o Python e o Spark juntos para analisar big data enquanto trabalham em exercícios práticos.

No final deste treinamento, os participantes serão capazes de:

- Aprender a usar o Spark com Python para analisar Big Data
- Trabalhar em exercícios que imitam as circunstâncias do mundo real
- Usar diferentes ferramentas e técnicas para análise de big data usando o PySpark

Público

Desenvolvedores
Profissionais de TI
Cientistas de dados
Formato do curso

Palestra, discussão, exercícios e prática
28 horas
Visão geral
Um grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 horas
Visão geral
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
35 horas
Visão geral
O MLlib é a biblioteca de aprendizado de máquina (ML) do Spark. Seu objetivo é tornar prático o aprendizado de máquina escalável e fácil. Ele consiste em algoritmos e utilitários de aprendizado comuns, incluindo classificação, regressão, agrupamento, filtragem colaborativa, redução de dimensionalidade, além de primitivas de otimização de nível inferior e APIs de pipeline de nível superior.

Divide-se em dois pacotes:

-

O spark.mllib contém a API original construída sobre os RDDs.

-

O spark.ml fornece uma API de alto nível, construída sobre os DataFrames, para a construção de pipelines de ML.

Público

Este curso é direcionado a engenheiros e desenvolvedores que desejam utilizar uma biblioteca de máquinas integrada para o Apache Spark
21 horas
Visão geral
This instructor-led, live training in Portugal (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.
21 horas
Visão geral
This instructor-led, live training in Portugal (online or onsite) is aimed at engineers who wish to set up and deploy Apache Spark system for processing very large amounts of data.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Quickly process and analyze very large data sets.
- Understand the difference between Apache Spark and Hadoop MapReduce and when to use which.
- Integrate Apache Spark with other machine learning tools.
14 horas
Visão geral
This instructor-led, live training in Portugal (online or onsite) is aimed at data scientists who wish to use the SMACK stack to build data processing platforms for big data solutions.

By the end of this training, participants will be able to:

- Implement a data pipeline architecture for processing big data.
- Develop a cluster infrastructure with Apache Mesos and Docker.
- Analyze data with Spark and Scala.
- Manage unstructured data with Apache Cassandra.
21 horas
Visão geral
Scala é uma versão condensada do Java para programação funcional e orientada a objetos em larga escala. Apache Spark Streaming é um componente estendido da API Spark para processar grandes conjuntos de dados como fluxos em tempo real. Juntos, o Spark Streaming e o Scala permitem o streaming de big data.

Esse treinamento ao vivo, conduzido por instrutor (no local ou remoto), destina-se a engenheiros de software que desejam transmitir grandes volumes de dados com Spark Streaming e Scala .

Ao final deste treinamento, os participantes serão capazes de:

- Crie aplicativos Spark com a linguagem de programação Scala .
- Use o Spark Streaming para processar fluxos contínuos de dados.
- Processe fluxos de dados em tempo real com o Spark Streaming.

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
Visão geral
Stream Processing refere-se ao processamento em tempo real de "dados em movimento", ou seja, executando cálculos nos dados à medida que eles são recebidos. Esses dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade do usuário do site, operações financeiras, furtos de cartão de crédito, fluxos de cliques, etc. Stream Processing estruturas de Stream Processing são capazes de ler grandes volumes de dados recebidos e fornecer informações valiosas quase instantaneamente.

Neste treinamento ao vivo, ministrado por instrutor (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas de Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software e microsserviços relacionados.

Ao final deste treinamento, os participantes serão capazes de:

- Instale e configure diferentes estruturas de Stream Processing , como Spark Streaming e Kafka Streaming.
- Entenda e selecione a estrutura mais apropriada para o trabalho.
- Processo de dados de forma contínua, simultânea e de forma a registro.
- Integre soluções de Stream Processing a bancos de dados, data warehouses, lagos de dados, etc.
- Integre a biblioteca de processamento de fluxo mais apropriada aos aplicativos e microsserviços corporativos.

Público

- Desenvolvedores
- Arquitetos de software

Formato do Curso

- Parte palestra, parte discussão, exercícios e prática prática pesada

Notas

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
Visão geral
O Teradata é um dos populares sistemas de gerenciamento de banco de dados relacional. É principalmente adequado para a construção de aplicações de armazenamento de dados em larga escala. Teradata consegue isso pelo conceito de paralelismo.

Este curso apresenta os participante ao Teradata
7 horas
Visão geral
O Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como a computação que está sendo executada. Esta informação pode ser usada para realizar otimizações. Dois usos comuns para o Spark SQL são:
- para executar consultas SQL .
- para ler dados de uma instalação existente do Hive .

Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando o Spark SQL .

No final deste treinamento, os participantes serão capazes de:

- Instale e configure o Spark SQL .
- Realize a análise de dados usando o Spark SQL .
- Consultar conjuntos de dados em diferentes formatos.
- Visualize dados e resultados de consulta.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 horas
Visão geral
O Magellan é um mecanismo de execução distribuída de código aberto para análises geoespaciais em big data. Implementado no Apache Spark , ele estende o Spark SQL e fornece uma abstração relacional para análises geoespaciais.

Este treinamento ao vivo, conduzido por instrutor, introduz os conceitos e abordagens para a implementação de análises geoespaciais e orienta os participantes na criação de um aplicativo de análise preditiva usando o Magellan no Spark.

Ao final deste treinamento, os participantes serão capazes de:

- Consulta, análise e junção eficiente de conjuntos de dados geoespaciais em escala
- Implementar dados geoespaciais em aplicativos de business intelligence e análise preditiva
- Use o contexto espacial para ampliar os recursos de dispositivos móveis, sensores, logs e vestíveis

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
Visão geral
Este é um curso de introdução ao Apache Spark, os participantes aprenderão como é que esse programa participa do ecossistema Big Data, e como utiliza-lo para analizar dados. O curso cobre Spark para analise de dados, internalidades do Spark, Spark APIs, Spark SQL, Spark Streaming, Machine Learning e graphX.
21 horas
Visão geral
Descoberta de conhecimento em bancos de dados (KDD) é o processo de descoberta de conhecimento útil a partir de uma coleção de dados. Aplicações da vida real para esta técnica de mineração de dados incluem marketing, detecção de fraude, telecomunicações e manufatura.

Neste curso presencial ministrado por instrutor, apresentamos os processos envolvidos em KDD e realizamos uma série de exercícios para praticar a implementação desses processos.

Público

- Analistas de dados ou qualquer pessoa interessada em aprender como interpretar dados para resolver problemas

Formato do Curso

- Após uma discussão teórica do KDD, o instrutor apresentará casos reais que exigem a aplicação do KDD para resolver um problema. Os participantes irão preparar, selecionar e limpar conjuntos de dados de amostra e usar seu conhecimento prévio sobre os dados para propor soluções com base nos resultados de suas observações.
28 horas
Visão geral


Pentaho Open Source O BI Suite Community Edition (CE) é um pacote de inteligência comercial que fornece integração de dados, relatórios, painéis e recursos de carga.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como maximizar os recursos do CE Community Edition (CE) Pentaho Open Source BI Suite.

No final deste treinamento, os participantes serão capazes de:

- Instalar e configurar o Pentaho Open Source BI Suite Community Edition (CE)
- Entenda os fundamentos das ferramentas Pentaho CE e seus recursos
- Crie relatórios usando o Pentaho CE
- Integre dados de terceiros no Pentaho CE
- Trabalhe com big data e análises no Pentaho CE

Público

Programadores
Desenvolvedores de BI

Formato do curso

Palestra, discussão, exercícios e prática

Nota

Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 horas
Visão geral


O Pentaho Data Integration é uma ferramenta de integração de dados de código aberto para definir tarefas e transformações de dados.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como usar os poderosos recursos de ETL do Pentaho Data Integration e do rich GUI para gerenciar todo um ciclo de vida de big data, maximizando o valor dos dados para a organização.

- No final deste treinamento, os participantes serão capazes de:
- Crie, visualize e execute transformações básicas de dados contendo etapas e saltos
- Configurar e proteger o Repositório Empresarial Pentaho
- Aproveitar as diferentes fontes de dados e gere uma versão única e unificada da verdade em um formato pronto para análise.
- Fornecer resultados para aplicativos de terceiros para processamento adicional

Público

Analista de informações Desenvolvedores de ETL

Formato do curso

Palestra, discussão, exercícios e prática
14 horas
Visão geral
A mineração de dados é o processo de identificação de padrões em big data com métodos de ciência de dados, como aprendizado de máquina. Usando o Excel como um conjunto analítico de dados, os usuários podem executar a mineração e análise de dados.

Esse treinamento ao vivo conduzido por instrutor (no local ou remoto) é destinado a cientistas de dados que desejam usar o Excel para mineração de dados.

Ao final deste treinamento, os participantes serão capazes de:

- Explore dados com o Excel para realizar a mineração e análise de dados.
- Use algoritmos da Microsoft para mineração de dados.
- Entenda os conceitos na mineração de dados do Excel .

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 horas
Visão geral
This instructor-led, live training in Portugal (online or onsite) is aimed at data analysts who wish to program with R in SAS for cluster analysis.

By the end of this training, participants will be able to:

- Use cluster analysis for data mining
- Master R syntax for clustering solutions.
- Implement hierarchical and non-hierarchical clustering.
- Make data-driven decisions to help to improve business operations.
35 horas
Visão geral
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
14 horas
Visão geral
este instrutor liderada, treinamento ao vivo (no local ou remoto) destina-se a analistas de dados e cientistas de dados que desejam implementar técnicas de análise de dados mais avançadas para a mineração de dados usando Python.

no final deste treinamento, os participantes poderão:

- compreender áreas importantes de mineração de dados, incluindo mineração de regra de associação, análise de sentimento de texto, compactação automática de texto e detecção de anomalia de dados.
- Compare e implemente várias estratégias para resolver problemas de mineração de dados do mundo real.
- compreender e interpretar os resultados.

formato do curso

- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- para solicitar um treinamento personalizado para este curso, entre em contato conosco para organizar.
14 horas
Visão geral
Apache ActiveMQ é um agente de mensagens de código aberto escrito em Java .
14 horas
Visão geral
Teradata é um sistema de Management Database Management Database relacional popular para a criação de aplicativos de armazenamento de dados em larga escala. Teradata consegue isso por meio do paralelismo.

Esse treinamento ao vivo, conduzido por instrutor (no local ou remoto), destina-se a desenvolvedores e engenheiros de aplicativos que desejam dominar usos mais sofisticados do banco de dados Teradata .

Ao final deste treinamento, os participantes serão capazes de:

- Gerencie o espaço Teradata .
- Proteger e distribuir dados no Teradata .
- Leia Explique o plano.
- Melhore a proficiência em SQL .
- Use os principais utilitários do Teradata .

Formato do Curso

- Palestra e discussão interativa.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
7 horas
Visão geral
O objetivo do curso é permitir que os participantes adquiram o domínio dos fundamentos de R e como trabalhar com dados.
28 horas
Visão geral
Mem SQL é um sistema de gerenciamento de banco de dados SQL distribuído e em memória para nuvem e local. É um data warehouse em tempo real que fornece informações imediatamente a partir de dados ao vivo e históricos.

Neste treinamento ao vivo, conduzido por instrutor, os participantes aprenderão o essencial do Mem SQL para desenvolvimento e administração.

Ao final deste treinamento, os participantes serão capazes de:

- Compreender os principais conceitos e características do Mem SQL
- Instalar, projetar, manter e operar o Mem SQL
- Otimizar esquemas no Mem SQL
- Melhorar consultas no Mem SQL
- Desempenho de referência no Mem SQL
- Crie aplicativos de dados em tempo real usando Mem SQL

Público

- Desenvolvedores
- Administradores
- Engenheiros de Operação

Formato do curso

- Parte palestra, parte discussão, exercícios e prática prática pesada
14 horas
Visão geral
Apache Arrow é uma estrutura de processamento de dados em memória de código aberto. É frequentemente usado em conjunto com outras ferramentas de ciência de dados para acessar diferentes armazenamentos de dados para análise. Ele se integra bem a outras tecnologias, como bancos de dados GPU , bibliotecas e ferramentas de aprendizado de máquina, mecanismos de execução e estruturas de visualização de dados.

Neste treinamento ao vivo, ministrado por instrutor, os participantes aprenderão como integrar o Apache Arrow com várias estruturas de Data Science para acessar dados de fontes de dados diferentes.

Ao final deste treinamento, os participantes serão capazes de:

- Instale e configure o Apache Arrow em um ambiente em cluster distribuído
- Use o Apache Arrow para acessar dados de fontes de dados diferentes
- Use o Apache Arrow para ignorar a necessidade de construir e manter pipelines ETL complexos
- Analise dados em diferentes fontes de dados sem precisar consolidá-los em um repositório centralizado

Público

- Cientistas de dados
- Engenheiros de dados

Formato do Curso

- Parte palestra, parte discussão, exercícios e prática prática pesada

Nota

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 horas
Visão geral
Apache Hama é um framework baseado no modelo de computação Bulk Synchronous Parallel (BSP) e é usado principalmente para análise de Big Data .

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão os fundamentos do Apache Hama enquanto Apache Hama na criação de um aplicativo baseado em BSP e um programa centrado em vértices usando os frameworks Apache Hama .

No final deste treinamento, os participantes serão capazes de:

- Instalar e configurar o Apache Hama
- Entenda os fundamentos do Apache Hama e o modelo de programação Bulk Synchronous Parallel (BSP)
- Construa um programa baseado em BSP usando o framework Apache Hama BSP
- Construa um programa centrado em vértices usando o Apache Hama Graph Framework
- Crie, teste e depure seus próprios aplicativos Apache Hama

Público

- Desenvolvedores

Formato do curso

- Palestra parcial, parte discussão, exercícios e prática prática

Nota

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Ofertas Especiais

Newsletter Ofertas Especiais

Nós respeitamos a privacidade dos seus dados. Nós não vamos repassar ou vender o seu email para outras empresas.
Você sempre poderá editar as suas preferências ou cancelar a sua inscriçāo.

Nossos Clientes

is growing fast!

We are looking for a good mixture of IT and soft skills in Portugal!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions