Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.

NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Big Data

CódigoNomeDuraçãoVisão geral
smtwebintSemantic Web Overview7 hoursA Web Semântica é um movimento colaborativo liderado pelo World Wide Web Consortium (W3C), que promove formatos comuns de dados na World Wide Web. A Web Semântica fornece uma estrutura comum que permite que os dados sejam compartilhados e reutilizados nos limites de aplicativos, empresas e comunidades.
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 hoursApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
graphcomputingIntroduction to Graph Computing28 hoursUm grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
matlabpredanalyticsMatlab para Análise Preditiva21 hoursA análise preditiva é o processo de análise de dados para fazer previsões sobre o futuro. Este processo usa dados juntamente com técnicas de data mining, estatísticas e técnicas de machine learning para criar um modelo preditivo para a previsão de eventos futuros.

Nessa formação treinada por instrutor e treinamento, os participantes aprenderão como usar o Matlab para criar modelos preditivos e aplicá-los a grandes conjuntos de dados de amostra para prever eventos futuros com base nos dados.

Ao final deste treinamento, os participantes serão capazes de:

- Crie modelos preditivos para analisar padrões em dados históricos e transacionais
- Use modelagem preditiva para identificar riscos e oportunidades
- Construa modelos matemáticos que captem tendências importantes
- Use dados para dispositivos e sistemas de negócios para reduzir o desperdício, economizar tempo ou reduzir custos

Público

- Desenvolvedores
- Engenheiros
- Especialistas em domínio

Formato do curso

Palestras, discussão parcial, exercícios e prática.
nifidevApache NiFi for Developers7 hoursO Apache NiFi (Hortonworks DataFlow) é uma plataforma de logística de dados integrada e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas Ele é escrito usando programação baseada em fluxo e fornece uma interface de usuário baseada na web para gerenciar fluxos de dados em tempo real Neste treinamento presencial instruído, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando o Apache NiFi No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e fluxo de dados da NiFi Desenvolva extensões usando NiFi e APIs de terceiros Custom desenvolve seu próprio processador Apache Nifi Ingerir e processar dados em tempo real de formatos de arquivo e origens de dados diferentes e incomuns Público Desenvolvedores Engenheiros de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
nifiApache NiFi for Administrators21 hoursO Apache NiFi (Hortonworks DataFlow) é uma plataforma de logística de dados integrada e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas Ele é escrito usando programação baseada em fluxo e fornece uma interface de usuário baseada na web para gerenciar fluxos de dados em tempo real Neste treinamento ao vivo com instrutores, os participantes aprenderão como implantar e gerenciar o Apache NiFi em um ambiente de laboratório ao vivo No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apachi NiFi Gerencie, transforme e gerencie dados de fontes de dados distribuídas e díspares, incluindo bancos de dados e grandes lagos de dados Automatize os fluxos de dados Ativar análise de fluxo contínuo Aplicar várias abordagens para ingestão de dados Transforme Big Data e insights de negócios Público Administradores do sistema Engenheiros de dados Desenvolvedores DevOps Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
solrcloudSolrCloud14 hoursO Apache SolrCloud é um mecanismo de processamento de dados distribuído que facilita a pesquisa e a indexação de arquivos em uma rede distribuída.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como configurar uma instância do SolrCloud no Amazon AWS.

No final deste treinamento, os participantes serão capazes de:

- Entender os recursos do SolCloud e como eles se comparam aos dos clusters master-slave convencionais
- Configurar um cluster centralizado do SolCloud
- Automatizar processos como comunicação com shards, adição de documentos aos fragmentos, etc.
- Usar o Zookeeper em conjunto com o SolrCloud para automatizar ainda mais os processos
- Usar a interface para gerenciar o relatório de erros
- Balanceamento de carga de uma instalação do SolrCloud
- Configurar o SolrCloud para processamento contínuo e failover

Público

Desenvolvedores Solr
Gerentes de projeto
Administradores de sistema
Analistas de pesquisa

Formato do curso

Palestra, discussão, exercícios e prática.
datavaultData Vault: Building a Scalable Data Warehouse28 hoursA modelagem de área segura de dados é uma técnica de modelagem de banco de dados que fornece armazenamento histórico de dados de longo prazo originado de várias origens Um cofre de dados armazena uma única versão dos fatos, ou "todos os dados, o tempo todo" Seu design flexível, escalável, consistente e adaptável engloba os melhores aspectos da terceira forma normal (3NF) e do esquema em estrela Neste treinamento presencial instruído, os participantes aprenderão como construir um Cofre de Dados No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e design por trás do Data Vault 20 e sua interação com Big Data, NoSQL e AI Use técnicas de compartimentação de dados para ativar a auditoria, o rastreamento e a inspeção de dados históricos em um data warehouse Desenvolver um processo consistente e repetível de ETL (Extrair, Transformar, Carregar) Construa e implante armazéns altamente escaláveis ​​e repetíveis Público Modeladores de dados Especialista em data warehousing Especialistas em Business Intelligence Engenheiros de dados Administradores de banco de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
datameerDatameer for Data Analysts14 hoursO Datameer é uma plataforma de business intelligence e análise construída sobre o Hadoop Ele permite que os usuários finais acessem, explorem e correlacionem dados em larga escala, estruturados, semi-estruturados e não estruturados de maneira fácil Neste treinamento presencial instruído, os participantes aprenderão como usar o Datameer para superar a curva de aprendizado do Hadoop à medida que avançam na configuração e análise de uma série de fontes de big data No final deste treinamento, os participantes serão capazes de: Crie, organize e explore interativamente um lago de dados corporativos Acessar data warehouses de business intelligence, bancos de dados transacionais e outras lojas analíticas Use uma interface de usuário de planilha para projetar pipelines de processamento de dados de ponta Acesse funções pré-construídas para explorar relacionamentos de dados complexos Use os assistentes de draganddrop para visualizar dados e criar painéis Use tabelas, gráficos, gráficos e mapas para analisar os resultados da consulta Público Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
tigonTigon: Real-time Streaming for the Real World14 hoursO Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
vespaVespa: Serving Large-Scale Data in Real-Time14 hoursVespa um mecanismo de processamento e exibição de big data de grande porte criado pelo Yahoo Ele é usado para responder a consultas de usuários, fazer recomendações e fornecer conteúdo e anúncios personalizados em tempo real Este treinamento presencial instruído apresenta os desafios de servir dados em larga escala e conduz os participantes através da criação de um aplicativo que pode calcular as respostas às solicitações do usuário, em grandes conjuntos de dados em tempo real No final deste treinamento, os participantes serão capazes de: Use a Vespa para calcular rapidamente os dados (armazenar, pesquisar, classificar, organizar) no tempo de exibição enquanto um usuário aguarda Implemente a Vespa em aplicativos existentes que envolvem pesquisa de recursos, recomendações e personalização Integre e implemente a Vespa com sistemas de big data existentes, como o Hadoop e o Storm Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 hoursAvanços em tecnologias e a crescente quantidade de informações estão transformando a forma como a aplicação da lei é conduzida Os desafios que o Big Data representa são quase tão assustadores quanto a promessa do Big Data Armazenar dados de forma eficiente é um desses desafios; efetivamente analisá-lo é outra Neste treinamento presencial instruído, os participantes aprenderão a mentalidade com a qual abordarão as tecnologias de Big Data, avaliarão seu impacto nos processos e políticas existentes e implementarão essas tecnologias com a finalidade de identificar atividades criminosas e prevenir o crime Estudos de casos de organizações policiais de todo o mundo serão examinados para obter insights sobre suas abordagens de adoção, desafios e resultados No final deste treinamento, os participantes serão capazes de: Combine a tecnologia Big Data com os processos tradicionais de coleta de dados para reunir uma história durante uma investigação Implementar soluções industriais de armazenamento e processamento de big data para análise de dados Preparar uma proposta para a adopção das ferramentas e processos mais adequados para permitir uma abordagem orientada para as investigações criminais Público Especialistas em aplicação da lei com formação técnica Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
apexApache Apex: Processing Big Data-in-Motion21 hoursApache Apex é uma plataforma YARNnative que unifica fluxo e processamento em lote Ele processa grandes datainmotion de uma forma escalonável, performant, fault-tolerant, stateful, secure, distributed e easily operable Este treinamento ao vivo com instrutor apresenta a arquitetura de processamento de fluxo unificado do Apache Apex e conduz os participantes por meio da criação de um aplicativo distribuído usando o Apex no Hadoop No final deste treinamento, os participantes serão capazes de: Entender conceitos de pipeline de processamento de dados, como conectores para fontes e coletores, transformações de dados comuns etc Construa, dimensione e otimize um aplicativo Apex Processe fluxos de dados em tempo real de forma confiável e com latência mínima Use o Apex Core e a biblioteca Apex Malhar para permitir o rápido desenvolvimento de aplicativos Use a API do Apex para gravar e reutilizar o código Java existente Integrar o Apex a outros aplicativos como um mecanismo de processamento Ajustar, testar e dimensionar aplicativos Apex Público Desenvolvedores Arquitetos corporativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
alluxioAlluxio: Unifying Disparate Storage Systems7 hoursO Alexio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento distintos e permite que os aplicativos interajam com os dados na velocidade da memória É usado por empresas como Intel, Baidu e Alibaba Neste treinamento presencial instruído, os participantes aprenderão a usar o Alexio para interligar diferentes estruturas de computação com sistemas de armazenamento e gerenciar com eficiência dados em escala de vários arquivos à medida que avançam na criação de um aplicativo com o Alluxio No final deste treinamento, os participantes serão capazes de: Desenvolva um aplicativo com o Alluxio Conecte sistemas e aplicativos de big data enquanto preserva um namespace Extraia com eficiência o valor do Big Data em qualquer formato de armazenamento Melhore o desempenho da carga de trabalho Implantar e gerenciar o Alluxio autônomo ou em cluster Público Cientista de dados Desenvolvedor Administrador do sistema Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
flinkFlink for Scalable Stream and Batch Data Processing28 hoursO Apache Flink é uma estrutura de código aberto para fluxo escalável e processamento de dados em lote Este treinamento ao vivo com instrutores apresenta os princípios e as abordagens por trás do fluxo de dados em lote e do processamento de dados e conduz os participantes por meio da criação de um aplicativo de fluxo de dados em tempo real No final deste treinamento, os participantes serão capazes de: Configurar um ambiente para desenvolver aplicativos de análise de dados Empacotar, executar e monitorar aplicativos de fluxo de dados baseados em Flink e tolerantes a falhas Gerenciar cargas de trabalho diversas Realize análises avançadas usando o Flink ML Configurar um cluster multinode Flink Meça e otimize o desempenho Integre o Flink com diferentes sistemas de Big Data Compare os recursos do Flink com os de outras estruturas de processamento de big data Público Desenvolvedores Arquitetos Engenheiros de dados Profissionais de análise Gerentes técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
samzaSamza for Stream Processing14 hoursO Apache Samza é um framework computacional assíncrono para o processamento de fluxo Ele usa o Apache Kafka para mensagens e o Apache Hadoop YARN para tolerância a falhas, isolamento do processador, segurança e gerenciamento de recursos Este treinamento ao vivo instruído introduz os princípios por trás dos sistemas de mensagens e processamento de fluxo distribuído, enquanto percorre os participantes através da criação de um projeto de amostra com Samzabased e execução de trabalho No final deste treinamento, os participantes serão capazes de: Use o Samza para simplificar o código necessário para produzir e consumir mensagens Desacoplar o manuseio de mensagens de um aplicativo Use o Samza para implementar computação assíncrona em tempo quase real Use o processamento de fluxo para fornecer um nível mais alto de abstração nos sistemas de mensagens Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
zeppelinZeppelin for Interactive Data Analytics14 hoursO Apache Zeppelin é um notebook baseado na web para capturar, explorar, visualizar e compartilhar dados baseados no Hadoop e Spark Este treinamento ao vivo instruído introduz os conceitos por trás da análise de dados interativos e conduz os participantes através da implantação e uso do Zeppelin em um ambiente de usuário único ou multiusuário No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Zeppelin Desenvolva, organize, execute e compartilhe dados em uma interface baseada em navegador Visualize os resultados sem se referir à linha de comando ou aos detalhes do cluster Execute e colabore em longos fluxos de trabalho Trabalhe com vários plug-ins / languageprocessingbackends, como o Scala (com o Apache Spark), o Python (com o Apache Spark), o Spark SQL, o JDBC, o Markdown e o Shell Integre o Zeppelin com Spark, Flink e Map Reduce Instâncias multiusuário seguras do Zeppelin com o Apache Shiro Público Engenheiros de dados Analistas de dados Cientistas de dados Desenvolvedores de software Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
magellanMagellan: Geospatial Analytics on Spark14 hoursO Magellan é um mecanismo de execução distribuída de código aberto para análise geoespacial em big data Implementado sobre o Apache Spark, ele estende o Spark SQL e fornece uma abstração relacional para análise geoespacial Este treinamento ao vivo instruído apresenta os conceitos e abordagens para implementar a análise geoespacial e orienta os participantes por meio da criação de um aplicativo de análise preditiva usando o Magellan no Spark No final deste treinamento, os participantes serão capazes de: Consultar, analisar e juntar-se com eficiência a conjuntos de dados geoespaciais em escala Implementar dados geoespaciais em aplicativos de business intelligence e de análise preditiva Use o contexto espacial para ampliar os recursos de dispositivos móveis, sensores, registros e dispositivos portáteis Público Desenvolvedores de aplicativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
hdpHortonworks Data Platform (HDP) for Administrators21 hoursO Hortonworks Data Platform é uma plataforma de suporte Apache Hadoop de código aberto que fornece uma base estável para o desenvolvimento de soluções de big data no ecossistema Apache Hadoop Este treinamento ao vivo com instrutor apresenta o Hortonworks e conduz os participantes através da implementação da solução Spark + Hadoop No final deste treinamento, os participantes serão capazes de: Use o Hortonworks para executar com segurança o Hadoop em grande escala Unifique os recursos de segurança, governança e operações do Hadoop com os fluxos de trabalho analíticos ágeis do Spark Use o Hortonworks para investigar, validar, certificar e suportar cada um dos componentes em um projeto do Spark Processar diferentes tipos de dados, incluindo estruturados, não estruturados, inmotion e atrest Público Administradores do Hadoop Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
PentahoDIFundamentos do Pentaho Data Integration21 hours

O Pentaho Data Integration é uma ferramenta de integração de dados de código aberto para definir tarefas e transformações de dados.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como usar os poderosos recursos de ETL do Pentaho Data Integration e do rich GUI para gerenciar todo um ciclo de vida de big data, maximizando o valor dos dados para a organização.

- No final deste treinamento, os participantes serão capazes de:
- Crie, visualize e execute transformações básicas de dados contendo etapas e saltos
- Configurar e proteger o Repositório Empresarial Pentaho
- Aproveitar as diferentes fontes de dados e gere uma versão única e unificada da verdade em um formato pronto para análise.
- Fornecer resultados para aplicativos de terceiros para processamento adicional

Público

Analista de informações Desenvolvedores de ETL

Formato do curso

Palestra, discussão, exercícios e prática
TalendDITalend Open Studio para Integração de Dados28 hoursTalend Open Studio para integração de dados é um produto de integração de dados de código aberto usado para combinar, converter e atualizar dados em vários locais em uma empresa.

Neste treinamento, os participantes aprenderão a usar a ferramenta Talend ETL para realizar transformação de dados, extração de dados e conectividade com Hadoop, Hive e Pig.

Ao final deste treinamento, os participantes poderão

Explicar os conceitos por trás de ETL (Extract, Transform, Load) e propagação
Definir métodos ETL e ferramentas ETL para se conectar com Hadoop
Acumular, recuperar, transformar e dar forma a grandes dados de maneira eficiente de acordo com os requisitos comerciais.
Carregar e extrair grandes registros dos bancos de dados Hadoop, Hive e NoSQL

Público

- Profissionais de inteligência de negócios
- Gerentes de projeto
- Profissionais de banco de dados
- Desenvolvedores de SQL
- Desenvolvedores ETL
- Arquitetos de soluções
BDATRBig Data Analytics for Telecom Regulators16 hoursPara atender à conformidade dos reguladores, os CSPs (provedores de serviços de comunicação) podem acessar o Big Análise de dados que não apenas os ajuda a atender a conformidade, mas dentro do escopo do mesmo projeto eles podem aumentar a satisfação do cliente e, assim, reduzir a rotatividade Na verdade, desde conformidade está relacionada com a Qualidade de serviço ligada a um contrato, qualquer iniciativa para conformidade, melhorará a “vantagem competitiva” dos CSPs Portanto, é importante que Os reguladores devem ser capazes de orientar / orientar um conjunto de práticas analíticas de Big Data para os CSPs que ser de benefício mútuo entre os reguladores e os DEP 2 dias de curso: 8 módulos, 2 horas cada = 16 horas .
sparkpythonPython e Spark para Big Data (PySpark)21 hoursPython é uma linguagem de programação de alto nível famosa por sua sintaxe clara e com legibilidade de código. O Spark é um mecanismo de processamento de dados usado na consulta, análise e transformação de big data. O PySpark permite que os usuários façam interface com o Spark com o Python.

Neste treinamento os participantes aprenderão como usar o Python e o Spark juntos para analisar big data enquanto trabalham em exercícios práticos.

No final deste treinamento, os participantes serão capazes de:

- Aprender a usar o Spark com Python para analisar Big Data
- Trabalhar em exercícios que imitam as circunstâncias do mundo real
- Usar diferentes ferramentas e técnicas para análise de big data usando o PySpark

Público

Desenvolvedores
Profissionais de TI
Cientistas de dados
Formato do curso

Palestra, discussão, exercícios e prática
ambariApache Ambari: Efficiently Manage Hadoop Clusters21 hoursO Apache Ambari é uma plataforma de gerenciamento de código aberto para provisionamento, gerenciamento, monitoramento e proteção de clusters do Apache Hadoop Neste treinamento ao vivo, os participantes aprenderão as ferramentas e práticas de gerenciamento fornecidas pelo Ambari para gerenciar com sucesso os clusters do Hadoop No final deste treinamento, os participantes serão capazes de: Configurar um cluster de Big Data ativo usando o Ambari Aplique os recursos e funcionalidades avançados do Ambari em vários casos de uso Adicione e remova os nós sem problemas conforme necessário Melhore o desempenho de um cluster do Hadoop por meio de ajustes e ajustes Público DevOps Administradores de sistema DBAs Profissionais de teste do Hadoop Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
foundrFoundation R7 hoursO objetivo do curso é permitir que os participantes adquiram o domínio dos fundamentos de R e como trabalhar com dados .
sparkcloudApache Spark in the Cloud21 hoursApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 hoursA análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos A aplicação da análise de big data nos dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico Neste treinamento ao vivo instruído (remoto), os participantes aprenderão a executar a análise de big data na área da saúde, conforme passarem por uma série de exercícios handson livelab No final deste treinamento, os participantes serão capazes de: Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark Compreender as características dos dados médicos Aplicar técnicas de big data para lidar com dados médicos Estude grandes sistemas de dados e algoritmos no contexto de aplicações de saúde Público Desenvolvedores Cientistas de dados Formato do Curso Parte palestra, parte discussão, exercícios e prática handson pesado Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 hoursO Sqoop é uma ferramenta de software de código aberto para transferência de dados entre o Hadoop e bancos de dados relacionais ou mainframes Ele pode ser usado para importar dados de um sistema de gerenciamento de banco de dados relacional (RDBMS), como MySQL ou Oracle, ou de um mainframe para o HDFS (Hadoop Distributed File System) Posteriormente, os dados podem ser transformados no Hadoop MapReduce e, em seguida, reexportados de volta para um RDBMS Neste treinamento presencial instruído, os participantes aprenderão como usar o Sqoop para importar dados de um banco de dados relacional tradicional para o armazenamento do Hadoop, como HDFS ou Hive e vice-versa No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Sqoop Importar dados do MySQL para HDFS e Hive Importar dados do HDFS e Hive para o MySQL Público Administradores do sistema Engenheiros de dados Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
beamUnified Batch and Stream Processing with Apache Beam14 hoursO Apache Beam é um modelo de programação unificada e de código aberto para a definição e execução de pipelines de processamento de dados paralelos Seu poder está na capacidade de executar pipelines em lote e de streaming, com a execução sendo executada por um dos back-ends de processamento distribuído suportados pela Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow O Apache Beam é útil para tarefas ETL (Extrair, Transformar e Carregar), como mover dados entre diferentes mídias de armazenamento e fontes de dados, transformar dados em um formato mais desejável e carregar dados em um novo sistema Neste treinamento instructorled, ao vivo (no local ou remoto), os participantes aprenderão a implementar os SDKs do Apache Beam em um aplicativo Java ou Python que define um pipeline de processamento de dados para decompor um big data em blocos menores para processamento paralelo e independente No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apache Beam Use um único modelo de programação para executar o processamento em lote e em fluxo a partir do aplicativo Java ou Python Execute pipelines em vários ambientes Público Desenvolvedores Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Este curso estará disponível Scala no futuro Por favor entre em contato conosco para organizar .
pentahoPentaho Open Source BI Suite Community Edition (CE)28 hours

Pentaho Open Source O BI Suite Community Edition (CE) é um pacote de inteligência comercial que fornece integração de dados, relatórios, painéis e recursos de carga.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como maximizar os recursos do CE Community Edition (CE) Pentaho Open Source BI Suite.

No final deste treinamento, os participantes serão capazes de:

- Instalar e configurar o Pentaho Open Source BI Suite Community Edition (CE)
- Entenda os fundamentos das ferramentas Pentaho CE e seus recursos
- Crie relatórios usando o Pentaho CE
- Integre dados de terceiros no Pentaho CE
- Trabalhe com big data e análises no Pentaho CE

Público

Programadores
Desenvolvedores de BI

Formato do curso

Palestra, discussão, exercícios e prática

Nota

Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.

Próximos Cursos de Big Data

CursoData do CursoPreço do Curso [A distância / Presencial]
Data Mining - Vila Nova de Gaiaseg, 2019-02-18 09:305250EUR / 6050EUR
Data Mining - Lisbon, Airport Business Centerseg, 2019-02-18 09:305250EUR / 6050EUR
Data Mining - Portoter, 2019-02-19 09:305250EUR / 6050EUR
Data Mining - Vila Nova de Gaiaqua, 2019-04-10 09:305250EUR / 6050EUR
Data Mining - Portoqua, 2019-04-17 09:305250EUR / 6050EUR
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Descontos em Cursos

CursoLocalData do CursoPreço do Curso [A distância / Presencial]
Blockchain for MedicalVila Nova de Gaiaqui, 2019-01-31 09:303150EUR / 3750EUR
The Compliance and MLRO Refresher ProgrammeVila Nova de Gaiasex, 2019-03-08 09:301575EUR / 1975EUR
Learning Go ProgrammingVila Nova de Gaiaseg, 2019-04-01 09:306300EUR / 7300EUR
Business Process Modeling using BPMN and UMLLisbon, Airport Business Centerqui, 2019-04-11 09:303150EUR / 3750EUR
Deep Reinforcement Learning with PythonPortoqua, 2019-06-12 09:304725EUR / 5525EUR

Boletim Informativo de Descontos

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Nossos Clientes

is growing fast!

We are looking to expand our presence in Portugal!

As a Business Development Manager you will:

  • expand business in Portugal
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!