Programa do Curso

Introdução

  • Por que e como as equipes de projeto adotam Hadoop
  • Como tudo começou
  • O papel do gerente de projeto em Hadoop projetos

Compreendendo a arquitetura e os principais conceitos de Hadoop

  • HDFS
  • MapaReduzir
  • Outras peças do Hadoop ecossistema

O que constitui Big Data?

Diferentes abordagens para armazenamento Big Data

HDFS (Hadoop Sistema de Arquivos Distribuídos) como Fundação

Como Big Data é processado

  • O poder do processamento distribuído

Processando dados com MapReduce

  • Como os dados são separados passo a passo

O papel do clustering no processamento distribuído em larga escala

  • Visão geral da arquitetura
  • Abordagens de cluster

Agrupando seus dados e processos com YARN

O papel do não relacional Database no Big Data armazenamento

Trabalhando com Hadoop não relacional Database: HBase

Visão geral da arquitetura do data warehouse

Gerenciando seu Data Warehouse com Hive

Executando Hadoop a partir de Shell-Scripts

Trabalhando com Hadoop Streaming

Outras Hadoop ferramentas e utilitários

Primeiros passos em um Hadoop projeto

  • Desmistificando a complexidade

Migrando um projeto existente para Hadoop

  • Considerações sobre infraestrutura
  • Escalando além dos recursos alocados

Hadoop Partes interessadas do projeto e seus kits de ferramentas

  • Desenvolvedores, cientistas de dados, analistas de negócios e gerentes de projeto

Hadoop como base para novas tecnologias e abordagens

Observações finais

Requisitos

  • Compreensão geral da programação
  • Compreensão de bases de dados
  • Conhecimentos básicos de Linux
 14 horas

Declaração de Clientes (3)

Cursos Relacionados

Categorias Relacionadas