Programa do Curso

  • Introdução às soluções Cloud Computing e Big Data

  • Evolução do Apache Hadoop: HDFS, MapReduce, YARN

  • Instalação e configuração de Hadoop em modo pseudo-distribuído

  • Executando trabalhos MapReduce em Hadoop cluster

  • Hadoop planejamento, instalação e configuração de cluster

  • Hadoop ecossistema: Pig, Hive, Sqoop, HBase

  • Big Data futuro: Impala, Cassandra

Requisitos

  • competências básicas Linux de administração
  • competências básicas de programação
  21 horas
 

Declaração de Clientes (3)

Cursos Relacionados

Categorias Relacionadas