Cursos de Hadoop

Cursos de Hadoop

Apache Hadoop é uma implementação de código aberto de duas soluções básicas BigData do Google: GFS (Google File System) e MapReduce programming paradigm é um framework completo destinado ao armazenamento e processamento de grandes blocos de dados. Hadoop é usado por grande parte dos fornecedores de serviços na nuvem, incluindo os líderes como Yahoo, Facebook e LinkedIn. Os cursos de treinamento ao vivo do Apache Hadoop demonstram, por meio de discussões e prática prática, os principais componentes do ecossistema Hadoop e como essas tecnologias podem ser usadas para resolver problemas de larga escala. O treinamento do Hadoop está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento ao vivo no local pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Apache Hadoop

Nome do Curso
Duração
Visão geral
Nome do Curso
Duração
Visão geral
21 horas
Python é uma linguagem de programação escalável, flexível e amplamente utilizada para ciência de dados e aprendizagem de máquina. O Spark é um motor de processamento de dados usado na pesquisa, análise e transformação de dados grandes, enquanto Hadoop é um framework de biblioteca de software para armazenamento e processamento de dados em grande escala. Este treinamento ao vivo guiado por instrutores (online ou on-site) é dirigido a desenvolvedores que desejam usar e integrar Spark, Hadoop, e Python para processar, analisar e transformar grandes e complexos conjuntos de dados. No final do curso, os participantes poderão:
    Crie o ambiente necessário para iniciar o processamento de grandes dados com o Spark, Hadoop, e Python. Compreenda as características, os componentes essenciais e a arquitetura do Spark e Hadoop. Aprenda a integrar Spark, Hadoop, e Python para o processamento de dados grandes. Explore as ferramentas no ecossistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, e Flume). Construa sistemas de recomendação de filtragem colaborativa semelhantes a Netflix, YouTube, Amazon, Spotify e Google. Use o Apache Mahout para escalar algoritmos de aprendizagem de máquina.
O formato do curso
    Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.
Opções de Customização
    Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
7 horas
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 horas
O Datameer é uma plataforma de business intelligence e análise construída sobre o Hadoop Ele permite que os usuários finais acessem, explorem e correlacionem dados em larga escala, estruturados, semi-estruturados e não estruturados de maneira fácil Neste treinamento presencial instruído, os participantes aprenderão como usar o Datameer para superar a curva de aprendizado do Hadoop à medida que avançam na configuração e análise de uma série de fontes de big data No final deste treinamento, os participantes serão capazes de: Crie, organize e explore interativamente um lago de dados corporativos Acessar data warehouses de business intelligence, bancos de dados transacionais e outras lojas analíticas Use uma interface de usuário de planilha para projetar pipelines de processamento de dados de ponta Acesse funções pré-construídas para explorar relacionamentos de dados complexos Use os assistentes de draganddrop para visualizar dados e criar painéis Use tabelas, gráficos, gráficos e mapas para analisar os resultados da consulta Público Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 horas
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 horas
Público: O curso destina-se a especialistas em TI que procuram uma solução para armazenar e processar grandes conjuntos de dados em um ambiente de sistema distribuído Go ai: Profundo conhecimento em administração de cluster do Hadoop .
28 horas
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 horas
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 horas
O Apache Hadoop é uma das estruturas mais populares para processar Big Data em clusters de servidores. Este curso investiga o gerenciamento de dados em HDFS, Pig avançado, Hive e HBase. Essas avançadas técnicas de programação serão benéficas para desenvolvedores experientes do Hadoop . Audiência : desenvolvedores Duração: três dias Formato: palestras (50%) e laboratórios práticos (50%).
21 horas
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 horas
O Apache Hadoop é a estrutura mais popular para processar Big Data em clusters de servidores. Neste curso de três (opcionalmente, quatro) dias, os participantes aprenderão sobre os benefícios de negócios e casos de uso do Hadoop e seu ecossistema, como planejar a implantação e o crescimento do cluster, como instalar, manter, monitorar, solucionar problemas e otimizar o Hadoop . Eles também praticarão o carregamento de dados em massa do cluster, se familiarizarão com várias distribuições do Hadoop e praticarão a instalação e o gerenciamento de ferramentas do ecossistema do Hadoop . O curso termina com a discussão de proteger o cluster com o Kerberos. “… Os materiais foram muito bem preparados e cobertos completamente. O laboratório foi muito prestativo e bem organizado ”
- Andrew Nguyen, engenheiro principal de integração da DW, Microsoft Online Advertising Público Administradores do Hadoop Formato Palestras e laboratórios práticos, saldo aproximado de 60% de palestras, 40% de laboratórios.
21 horas
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 horas
O Hadoop é a estrutura de processamento de Big Data mais popular .
14 horas
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 horas

Este curso é destinado a desenvolvedores, arquitetos, cientistas de dados ou qualquer perfil que exija acesso aos dados intensivamente ou regularmente. O foco principal do curso é a manipulação e transformação de dados. Entre as ferramentas do ecossistema do Hadoop , este curso inclui o uso do Pig e do Hive que são muito usados para transformação e manipulação de dados. Este treinamento também aborda métricas de desempenho e otimização de desempenho. O curso é inteiramente prático e é pontuado por apresentações dos aspectos teóricos.
14 horas
In this instructor-led training in Portugal, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 horas
O Apache Samza é uma estrutura computacional assíncrona e de tempo real de código aberto para processamento de fluxo. Ele usa o Apache Kafka para mensagens e o Apache Hadoop YARN para tolerância a falhas, isolamento do processador, segurança e gerenciamento de recursos. Este treinamento ao vivo conduzido por instrutor introduz os princípios por trás dos sistemas de mensagens e do processamento de fluxo distribuído, enquanto percorre os participantes através da criação de um projeto baseado em Samza e execução de tarefas. No final deste treinamento, os participantes serão capazes de:
  • Use o Samza para simplificar o código necessário para produzir e consumir mensagens.
  • Desacoplar o tratamento de mensagens de um aplicativo.
  • Use o Samza para implementar computação assíncrona em tempo quase real.
  • Use o processamento de fluxo para fornecer um nível mais alto de abstração nos sistemas de mensagens.
Público
  • Desenvolvedores
Formato do curso
  • Palestra parcial, parte discussão, exercícios e prática prática
7 horas
Alluxio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento diferentes e permite que as aplicações interagem com dados em velocidade de memória. Ele é usado por empresas como Intel, Baidu e Alibaba. Neste treinamento guiado por instrutores, os participantes aprenderão como usar Alluxio para brotar diferentes quadros de computação com sistemas de armazenamento e gerenciar eficientemente dados de escala multi-petabyte enquanto eles passam através da criação de um aplicativo com Alluxio. No final do curso, os participantes poderão:
    Desenvolver uma aplicação com Alluxio Conecte sistemas e aplicações de big data ao mesmo tempo que preserve um espaço de nome Efetivamente extrair valor de grandes dados em qualquer formato de armazenamento Melhorar o desempenho da carga de trabalho Distribuição e gerenciamento Alluxio isolado ou clusterado
Auditoria
    Cientista de Dados Desenvolvedor Administrador do sistema
Formato do curso
    Parte de palestras, parte de discussão, exercícios e prática pesada
14 horas
O Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 horas
Apache NiFi (Hortonworks DataFlow) é uma plataforma integrada de logística de dados e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas. Ele é escrito usando programação baseada em fluxo e fornece uma interface com o usuário baseada na Web para gerenciar fluxos de dados em tempo real. Neste treinamento ao vivo orientado por instrutor (no local ou remoto), os participantes aprenderão como implantar e gerenciar o Apache NiFi em um ambiente de laboratório ao vivo. No final deste treinamento, os participantes serão capazes de:
  • Instale e configure o Apachi NiFi.
  • Gerencie, transforme e gerencie dados de fontes de dados distribuídas e dispersas, incluindo bancos de dados e grandes lagos de dados.
  • Automatize os fluxos de dados.
  • Ative a análise de streaming.
  • Aplique várias abordagens para a ingestão de dados.
  • Transforme Big Data e em insights de negócios.
Formato do Curso
  • Palestra interativa e discussão.
  • Muitos exercícios e prática.
  • Implementação prática em um ambiente de laboratório ao vivo.
Opções de personalização de curso
  • Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
7 horas
Apache NiFi (Hortonworks DataFlow) é uma plataforma integrada de logística de dados e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas. Ele é escrito usando programação baseada em fluxo e fornece uma interface com o usuário baseada na Web para gerenciar fluxos de dados em tempo real. Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem várias extensões de demonstração, componentes e processadores usando o Apache NiFi . No final deste treinamento, os participantes serão capazes de:
  • Entenda os conceitos de arquitetura e fluxo de dados da NiFi.
  • Desenvolva extensões usando NiFi e APIs de terceiros.
  • Custom desenvolve seu próprio processador Apache Nifi.
  • Ingerir e processar dados em tempo real de formatos de arquivo e origens de dados diferentes e incomuns.
Formato do Curso
  • Palestra interativa e discussão.
  • Muitos exercícios e prática.
  • Implementação prática em um ambiente de laboratório ao vivo.
Opções de personalização de curso
  • Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
28 horas
Hadoop é um framework de processamento popular Big Data. Python é uma linguagem de programação de alto nível conhecida por sua sintaxe clara e leitura de código. Neste treinamento guiado por instrutores, os participantes aprenderão como trabalhar com Hadoop, MapReduce, Pig e Spark usando Python enquanto passam através de vários exemplos e casos de uso. No final do curso, os participantes poderão:
    Compreenda os conceitos básicos por trás Hadoop, MapReduce, Pig, e Spark Use Python com Hadoop Sistema de arquivos distribuídos (HDFS), MapReduce, Pig, e Spark Use Snakebite para acessar programadamente HDFS dentro Python Use mrjob para escrever MapReduce trabalhos em Python Escreva programas Spark com Python Expande a funcionalidade do porco usando Python UDFs Gerenciar MapReduce empregos e Escritos de Porcos usando Luigi
Auditoria
    Desenvolvedores IT profissionais
Formato do curso
    Parte de palestras, parte de discussão, exercícios e prática pesada
14 horas
O Sqoop é uma ferramenta de software de código aberto para transferência de dados entre o Hadoop e bancos de dados relacionais ou mainframes Ele pode ser usado para importar dados de um sistema de gerenciamento de banco de dados relacional (RDBMS), como MySQL ou Oracle, ou de um mainframe para o HDFS (Hadoop Distributed File System) Posteriormente, os dados podem ser transformados no Hadoop MapReduce e, em seguida, reexportados de volta para um RDBMS Neste treinamento presencial instruído, os participantes aprenderão como usar o Sqoop para importar dados de um banco de dados relacional tradicional para o armazenamento do Hadoop, como HDFS ou Hive e vice-versa No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Sqoop Importar dados do MySQL para HDFS e Hive Importar dados do HDFS e Hive para o MySQL Público Administradores do sistema Engenheiros de dados Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
21 horas
A análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis. A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos. A aplicação de análise de big data em dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde. No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico. Neste treinamento ao vivo conduzido por instrutor (remoto), os participantes aprenderão como executar a análise de big data na área da saúde enquanto realizam uma série de exercícios práticos de laboratório ao vivo. No final deste treinamento, os participantes serão capazes de:
  • Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark
  • Entenda as características dos dados médicos
  • Aplicar técnicas de big data para lidar com dados médicos
  • Estudar grandes sistemas de dados e algoritmos no contexto de aplicações de saúde
Público
  • Desenvolvedores
  • Cientistas de dados
Formato do Curso
  • Palestra parte, parte discussão, exercícios e prática hands-on pesado.
Nota
  • Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
35 horas
Apache Hadoop é um framework de processamento de dados popular para o processamento de grandes conjuntos de dados em muitos computadores. Este treinamento guiado por instrutores, ao vivo (online ou on-site) é dirigido a administradores de sistemas que desejam aprender como configurar, implementar e gerenciar Hadoop clusters dentro de sua organização. No final do curso, os participantes poderão:
    Instalar e configurar o Apache Hadoop. Compreenda os quatro principais componentes do Hadoop ecossistema: HDFS, MapReduce, YARN e Hadoop Comum. Use Hadoop Distribuído Sistema de Arquivos (HDFS) para escalar um cluster para centenas ou milhares de nodos.   Configure o HDFS para funcionar como um motor de armazenamento para deslocações Spark on-premise. Instale o Spark para acessar soluções de armazenamento alternativas, como os sistemas de banco de dados Amazon S3 e NoSQL como Redis, Elasticsearch, Couchbase, Aerospike, etc. Execute tarefas administrativas como fornecer, gerenciar, monitorar e garantir um cluster Apache Hadoop.
O formato do curso
    Interação e discussão interativa. Muitos exercícios e práticas. Implementação de mão em um ambiente de laboratório ao vivo.
Opções de Customização
    Para solicitar uma formação personalizada para este curso, por favor contacte-nos para organizar.
21 horas
O Cloudera Impala é um query engine SQL MPP de código aberto feito para clusters Apache Hadoop.
Ele permite aos usuarios a abertura de queries SQL de latencia baixa para todos os dados guardados no Hadoop Distributed File System e Apache Hbase sem requerir movimento de dados ou transformacao.
Este curso vai dirigido a analistas de sistemas e cientístas de dados.
21 horas
Apache Ambari é uma plataforma de gerenciamento de código aberto para provisionamento, gerenciamento, monitoramento e proteção de clusters do Apache Hadoop . Neste treinamento ao vivo orientado por instrutor, os participantes aprenderão as ferramentas e práticas de gerenciamento fornecidas pelo Ambari para gerenciar com sucesso os clusters do Hadoop . No final deste treinamento, os participantes serão capazes de:
  • Configurar um cluster de Big Data ativo usando o Ambari
  • Aplique os recursos avançados e as funcionalidades do Ambari em vários casos de uso
  • Adicione e remova os nós sem problemas conforme necessário
  • Melhore o desempenho de um cluster do Hadoop por meio de ajustes e ajustes
Público
  • DevOps
  • Administradores de sistema
  • DBAs
  • Profissionais de teste do Hadoop
Formato do curso
  • Palestra parcial, parte discussão, exercícios e prática prática
21 horas
Hortonworks Data Platform (HDP) é uma plataforma de suporte Apache Hadoop código aberto que fornece uma base estável para o desenvolvimento de soluções de Big Data no ecossistema Apache Hadoop . Este treinamento ao vivo conduzido por instrutor (no local ou remoto) introduz a Hortonworks Data Platform (HDP) e Hortonworks Data Platform (HDP) participantes através da implementação da solução Spark + Hadoop . No final deste treinamento, os participantes serão capazes de:
  • Use o Hortonworks para executar o Hadoop maneira confiável em grande escala.
  • Unifique os recursos de segurança, governança e operações do Hadoop com os fluxos de trabalho analíticos ágeis do Spark.
  • Use o Hortonworks para investigar, validar, certificar e suportar cada um dos componentes em um projeto do Spark.
  • Processar diferentes tipos de dados, incluindo estruturados, não estruturados, em movimento e em repouso.
Formato do Curso
  • Palestra interativa e discussão.
  • Muitos exercícios e prática.
  • Implementação prática em um ambiente de laboratório ao vivo.
Opções de personalização de curso
  • Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.

Last Updated:

Cursos de fim de semana de Hadoop, Treinamento tardiurno de Hadoop, Treinamento em grupo de Hadoop, Apache Hadoop guiado por instrutor, Treinamento de Apache Hadoop de fim de semana, Cursos de Apache Hadoop tardiurnos, coaching de Hadoop, Instrutor de Apache Hadoop, Treinador de Apache Hadoop, Cursos de treinamento de Hadoop, Aulas de Hadoop, Apache Hadoop no local do cliente, Cursos privados de Hadoop, Treinamento individual de Hadoop

Ofertas Especiais

Sem promoções

Newsletter Ofertas Especiais

Nós respeitamos a privacidade dos seus dados. Nós não vamos repassar ou vender o seu email para outras empresas.
Você sempre poderá editar as suas preferências ou cancelar a sua inscriçāo.

Nossos Clientes

is growing fast!

We are looking for a good mixture of IT and soft skills in Portugal!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions