Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Big Data

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview


Objetivo: Aprender a trabalhar com o SPSS no nível de independência

Público: Analistas, pesquisadores, cientistas, estudantes e todos aqueles que desejam adquirir a capacidade de usar o pacote SPSS e aprender técnicas populares de mineração de dados.
28 hours
Overview
A modelagem de área segura de dados é uma técnica de modelagem de banco de dados que fornece armazenamento histórico de dados de longo prazo originado de várias origens Um cofre de dados armazena uma única versão dos fatos, ou "todos os dados, o tempo todo" Seu design flexível, escalável, consistente e adaptável engloba os melhores aspectos da terceira forma normal (3NF) e do esquema em estrela Neste treinamento presencial instruído, os participantes aprenderão como construir um Cofre de Dados No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e design por trás do Data Vault 20 e sua interação com Big Data, NoSQL e AI Use técnicas de compartimentação de dados para ativar a auditoria, o rastreamento e a inspeção de dados históricos em um data warehouse Desenvolver um processo consistente e repetível de ETL (Extrair, Transformar, Carregar) Construa e implante armazéns altamente escaláveis ​​e repetíveis Público Modeladores de dados Especialista em data warehousing Especialistas em Business Intelligence Engenheiros de dados Administradores de banco de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
Python é uma linguagem de programação de alto nível famosa por sua sintaxe clara e com legibilidade de código. O Spark é um mecanismo de processamento de dados usado na consulta, análise e transformação de big data. O PySpark permite que os usuários façam interface com o Spark com o Python.

Neste treinamento os participantes aprenderão como usar o Python e o Spark juntos para analisar big data enquanto trabalham em exercícios práticos.

No final deste treinamento, os participantes serão capazes de:

- Aprender a usar o Spark com Python para analisar Big Data
- Trabalhar em exercícios que imitam as circunstâncias do mundo real
- Usar diferentes ferramentas e técnicas para análise de big data usando o PySpark

Público

Desenvolvedores
Profissionais de TI
Cientistas de dados
Formato do curso

Palestra, discussão, exercícios e prática
35 hours
Overview
Avanços em tecnologias e a crescente quantidade de informações estão transformando a forma como a aplicação da lei é conduzida Os desafios que o Big Data representa são quase tão assustadores quanto a promessa do Big Data Armazenar dados de forma eficiente é um desses desafios; efetivamente analisá-lo é outra Neste treinamento presencial instruído, os participantes aprenderão a mentalidade com a qual abordarão as tecnologias de Big Data, avaliarão seu impacto nos processos e políticas existentes e implementarão essas tecnologias com a finalidade de identificar atividades criminosas e prevenir o crime Estudos de casos de organizações policiais de todo o mundo serão examinados para obter insights sobre suas abordagens de adoção, desafios e resultados No final deste treinamento, os participantes serão capazes de: Combine a tecnologia Big Data com os processos tradicionais de coleta de dados para reunir uma história durante uma investigação Implementar soluções industriais de armazenamento e processamento de big data para análise de dados Preparar uma proposta para a adopção das ferramentas e processos mais adequados para permitir uma abordagem orientada para as investigações criminais Público Especialistas em aplicação da lei com formação técnica Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
Para atender à conformidade dos reguladores, os CSPs (provedores de serviços de comunicação) podem acessar o Big Análise de dados que não apenas os ajuda a atender a conformidade, mas dentro do escopo do mesmo projeto eles podem aumentar a satisfação do cliente e, assim, reduzir a rotatividade Na verdade, desde conformidade está relacionada com a Qualidade de serviço ligada a um contrato, qualquer iniciativa para conformidade, melhorará a “vantagem competitiva” dos CSPs Portanto, é importante que Os reguladores devem ser capazes de orientar / orientar um conjunto de práticas analíticas de Big Data para os CSPs que ser de benefício mútuo entre os reguladores e os DEP 2 dias de curso: 8 módulos, 2 horas cada = 16 horas .
28 hours
Overview
Um grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
A análise preditiva é o processo de análise de dados para fazer previsões sobre o futuro. Este processo usa dados juntamente com técnicas de data mining, estatísticas e técnicas de machine learning para criar um modelo preditivo para a previsão de eventos futuros.

Nessa formação treinada por instrutor e treinamento, os participantes aprenderão como usar o Matlab para criar modelos preditivos e aplicá-los a grandes conjuntos de dados de amostra para prever eventos futuros com base nos dados.

Ao final deste treinamento, os participantes serão capazes de:

- Crie modelos preditivos para analisar padrões em dados históricos e transacionais
- Use modelagem preditiva para identificar riscos e oportunidades
- Construa modelos matemáticos que captem tendências importantes
- Use dados para dispositivos e sistemas de negócios para reduzir o desperdício, economizar tempo ou reduzir custos

Público

- Desenvolvedores
- Engenheiros
- Especialistas em domínio

Formato do curso

Palestras, discussão parcial, exercícios e prática.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) é uma logística de dados integrada em tempo real e plataforma de processamento de eventos simples que permite a movimentação, rastreamento e automação de dados entre sistemas. Ele é escrito usando a programação baseada em fluxo e fornece uma interface de usuário baseada na Web para gerenciar fluxos de dados em tempo real.

neste treinamento ao vivo ministrado por instrutor, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando o Apache NiFi.

até o final deste treinamento, os participantes poderão:

- entender a arquitetura de NiFi & #39; s e os conceitos de fluxo de dados.
- desenvolver extensões usando NiFi e APIs de terceiros.
- Custom desenvolver seu próprio processador Apache NIFI.
- ingerir e processar dados em tempo real de formatos de arquivo diferentes e incomuns e fontes de dados.

formato do curso

- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- para solicitar um treinamento personalizado para este curso, por favor contacte-nos para organizar.
21 hours
Overview
O Apache NiFi (Hortonworks DataFlow) é uma plataforma de logística de dados integrada e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas Ele é escrito usando programação baseada em fluxo e fornece uma interface de usuário baseada na web para gerenciar fluxos de dados em tempo real Neste treinamento ao vivo com instrutores, os participantes aprenderão como implantar e gerenciar o Apache NiFi em um ambiente de laboratório ao vivo No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apachi NiFi Gerencie, transforme e gerencie dados de fontes de dados distribuídas e díspares, incluindo bancos de dados e grandes lagos de dados Automatize os fluxos de dados Ativar análise de fluxo contínuo Aplicar várias abordagens para ingestão de dados Transforme Big Data e insights de negócios Público Administradores do sistema Engenheiros de dados Desenvolvedores DevOps Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Apache SolrCloud é um mecanismo de processamento de dados distribuído que facilita a pesquisa e a indexação de arquivos em uma rede distribuída.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como configurar uma instância do SolrCloud no Amazon AWS.

No final deste treinamento, os participantes serão capazes de:

- Entender os recursos do SolCloud e como eles se comparam aos dos clusters master-slave convencionais
- Configurar um cluster centralizado do SolCloud
- Automatizar processos como comunicação com shards, adição de documentos aos fragmentos, etc.
- Usar o Zookeeper em conjunto com o SolrCloud para automatizar ainda mais os processos
- Usar a interface para gerenciar o relatório de erros
- Balanceamento de carga de uma instalação do SolrCloud
- Configurar o SolrCloud para processamento contínuo e failover

Público

Desenvolvedores Solr

Gerentes de projeto

Administradores de sistema

Analistas de pesquisa

Formato do curso

Palestra, discussão, exercícios e prática.
14 hours
Overview
O Datameer é uma plataforma de business intelligence e análise construída sobre o Hadoop Ele permite que os usuários finais acessem, explorem e correlacionem dados em larga escala, estruturados, semi-estruturados e não estruturados de maneira fácil Neste treinamento presencial instruído, os participantes aprenderão como usar o Datameer para superar a curva de aprendizado do Hadoop à medida que avançam na configuração e análise de uma série de fontes de big data No final deste treinamento, os participantes serão capazes de: Crie, organize e explore interativamente um lago de dados corporativos Acessar data warehouses de business intelligence, bancos de dados transacionais e outras lojas analíticas Use uma interface de usuário de planilha para projetar pipelines de processamento de dados de ponta Acesse funções pré-construídas para explorar relacionamentos de dados complexos Use os assistentes de draganddrop para visualizar dados e criar painéis Use tabelas, gráficos, gráficos e mapas para analisar os resultados da consulta Público Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
O MemSQL é um sistema de gerenciamento de banco de dados SQL, distribuído e distribuído para cloud e onpremises É um data warehouse em tempo real que fornece informações imediatas a partir de dados ao vivo e históricos Neste treinamento presencial instruído, os participantes aprenderão os fundamentos do MemSQL para desenvolvimento e administração No final deste treinamento, os participantes serão capazes de: Entenda os principais conceitos e características do MemSQL Instalar, projetar, manter e operar o MemSQL Otimizar esquemas no MemSQL Aprimore as consultas no MemSQL Desempenho de benchmark no MemSQL Construa aplicativos de dados em tempo real usando o MemSQL Público Desenvolvedores Administradores Engenheiros de Operação Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
Apache Ignite é uma plataforma de computação in-Memory que fica entre o aplicativo e camada de dados para melhorar a velocidade, escala e disponibilidade 。

neste treinamento ao vivo ministrado por instrutor, os participantes aprenderão os princípios por trás do armazenamento in-Memory persistente e puro enquanto passam pela criação de um projeto de computação em memória de amostra.

até o final deste treinamento, os participantes poderão:

- use Ignite para a persistência na memória, no disco, bem como um banco de dados de memória puramente distribuído.
- alcançar persistência sem sincronizar dados de volta para um banco de dados relacional.
- use Ignite para realizar SQL e junções distribuídas.
- melhorar o desempenho movendo dados mais perto da CPU, usando RAM como um armazenamento.
- spread conjuntos de dados em um cluster para obter escalabilidade horizontal.
- integrar Ignite com RDBMS, NoSQL, Hadoop e processadores de aprendizado de máquina.

formato do curso

- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- para solicitar um treinamento personalizado para este curso, por favor contacte-nos para organizar.
14 hours
Overview
Vespa um mecanismo de processamento e exibição de big data de grande porte criado pelo Yahoo Ele é usado para responder a consultas de usuários, fazer recomendações e fornecer conteúdo e anúncios personalizados em tempo real Este treinamento presencial instruído apresenta os desafios de servir dados em larga escala e conduz os participantes através da criação de um aplicativo que pode calcular as respostas às solicitações do usuário, em grandes conjuntos de dados em tempo real No final deste treinamento, os participantes serão capazes de: Use a Vespa para calcular rapidamente os dados (armazenar, pesquisar, classificar, organizar) no tempo de exibição enquanto um usuário aguarda Implemente a Vespa em aplicativos existentes que envolvem pesquisa de recursos, recomendações e personalização Integre e implemente a Vespa com sistemas de big data existentes, como o Hadoop e o Storm Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
Apache Apex é uma plataforma YARNnative que unifica fluxo e processamento em lote Ele processa grandes datainmotion de uma forma escalonável, performant, fault-tolerant, stateful, secure, distributed e easily operable Este treinamento ao vivo com instrutor apresenta a arquitetura de processamento de fluxo unificado do Apache Apex e conduz os participantes por meio da criação de um aplicativo distribuído usando o Apex no Hadoop No final deste treinamento, os participantes serão capazes de: Entender conceitos de pipeline de processamento de dados, como conectores para fontes e coletores, transformações de dados comuns etc Construa, dimensione e otimize um aplicativo Apex Processe fluxos de dados em tempo real de forma confiável e com latência mínima Use o Apex Core e a biblioteca Apex Malhar para permitir o rápido desenvolvimento de aplicativos Use a API do Apex para gravar e reutilizar o código Java existente Integrar o Apex a outros aplicativos como um mecanismo de processamento Ajustar, testar e dimensionar aplicativos Apex Público Desenvolvedores Arquitetos corporativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
7 hours
Overview
O Alexio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento distintos e permite que os aplicativos interajam com os dados na velocidade da memória É usado por empresas como Intel, Baidu e Alibaba Neste treinamento presencial instruído, os participantes aprenderão a usar o Alexio para interligar diferentes estruturas de computação com sistemas de armazenamento e gerenciar com eficiência dados em escala de vários arquivos à medida que avançam na criação de um aplicativo com o Alluxio No final deste treinamento, os participantes serão capazes de: Desenvolva um aplicativo com o Alluxio Conecte sistemas e aplicativos de big data enquanto preserva um namespace Extraia com eficiência o valor do Big Data em qualquer formato de armazenamento Melhore o desempenho da carga de trabalho Implantar e gerenciar o Alluxio autônomo ou em cluster Público Cientista de dados Desenvolvedor Administrador do sistema Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
Apache Flink é uma estrutura de código aberto para processamento de dados em lote e fluxo escalável.

este treinamento ao vivo, ministrado por instrutor, introduz os princípios e abordagens por trás do processamento distribuído de dados em lote e de fluxo, e percorre os participantes através da criação de um aplicativo de streaming de dados em tempo real no Apache Flink.

até o final deste treinamento, os participantes poderão:

- configurar um ambiente para o desenvolvimento de aplicativos de análise de dados.
- empacotar, executar e monitorar aplicativos de streaming de dados baseados em Flink, tolerantes a falhas.
- gerencie cargas de trabalho diversas.
- executar análises avançadas usando o Flink ML.
- configurar um cluster Flink de vários nós.
- medir e otimizar o desempenho.
- integrar Flink com diferentes sistemas de Big Data.
- Compare os recursos do Flink com os de outras estruturas de processamento de Big Data.

formato do curso

- parte palestra, discussão parte, exercícios e prática hands-on pesado
14 hours
Overview
O Apache Samza é um framework computacional assíncrono para o processamento de fluxo Ele usa o Apache Kafka para mensagens e o Apache Hadoop YARN para tolerância a falhas, isolamento do processador, segurança e gerenciamento de recursos Este treinamento ao vivo instruído introduz os princípios por trás dos sistemas de mensagens e processamento de fluxo distribuído, enquanto percorre os participantes através da criação de um projeto de amostra com Samzabased e execução de trabalho No final deste treinamento, os participantes serão capazes de: Use o Samza para simplificar o código necessário para produzir e consumir mensagens Desacoplar o manuseio de mensagens de um aplicativo Use o Samza para implementar computação assíncrona em tempo quase real Use o processamento de fluxo para fornecer um nível mais alto de abstração nos sistemas de mensagens Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Apache Zeppelin é um notebook baseado na web para capturar, explorar, visualizar e compartilhar dados baseados no Hadoop e Spark Este treinamento ao vivo instruído introduz os conceitos por trás da análise de dados interativos e conduz os participantes através da implantação e uso do Zeppelin em um ambiente de usuário único ou multiusuário No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Zeppelin Desenvolva, organize, execute e compartilhe dados em uma interface baseada em navegador Visualize os resultados sem se referir à linha de comando ou aos detalhes do cluster Execute e colabore em longos fluxos de trabalho Trabalhe com vários plug-ins / languageprocessingbackends, como o Scala (com o Apache Spark), o Python (com o Apache Spark), o Spark SQL, o JDBC, o Markdown e o Shell Integre o Zeppelin com Spark, Flink e Map Reduce Instâncias multiusuário seguras do Zeppelin com o Apache Shiro Público Engenheiros de dados Analistas de dados Cientistas de dados Desenvolvedores de software Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Magellan é um mecanismo de execução distribuída de código aberto para análise geoespacial em big data Implementado sobre o Apache Spark, ele estende o Spark SQL e fornece uma abstração relacional para análise geoespacial Este treinamento ao vivo instruído apresenta os conceitos e abordagens para implementar a análise geoespacial e orienta os participantes por meio da criação de um aplicativo de análise preditiva usando o Magellan no Spark No final deste treinamento, os participantes serão capazes de: Consultar, analisar e juntar-se com eficiência a conjuntos de dados geoespaciais em escala Implementar dados geoespaciais em aplicativos de business intelligence e de análise preditiva Use o contexto espacial para ampliar os recursos de dispositivos móveis, sensores, registros e dispositivos portáteis Público Desenvolvedores de aplicativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
O Hadoop é uma estrutura popular de processamento de Big Data Python é uma linguagem de programação de alto nível, famosa por sua sintaxe clara e legibilidade de código Neste treinamento presencial instruído, os participantes aprenderão a trabalhar com o Hadoop, o MapReduce, o Pig e o Spark usando o Python enquanto percorrem vários exemplos e casos de uso No final deste treinamento, os participantes serão capazes de: Entenda os conceitos básicos por trás do Hadoop, MapReduce, Pig e Spark Use o Python com o sistema de arquivos distribuídos Hadoop (HDFS), MapReduce, Pig e Spark Use o Snakebite para acessar programaticamente o HDFS no Python Use mrjob para escrever trabalhos MapReduce em Python Gravar programas Spark com Python Estenda a funcionalidade do porco usando UDFs Python Gerenciar tarefas MapReduce e scripts Pig usando o Luigi Público Desenvolvedores Profissionais de TI Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
O MonetDB é um banco de dados de código aberto que foi pioneiro na abordagem de tecnologia columnstore Neste treinamento presencial instruído, os participantes aprenderão como usar o MonetDB e como extrair o máximo valor dele No final deste treinamento, os participantes serão capazes de: Entenda o MonetDB e seus recursos Instalar e começar a usar o MonetDB Explore e execute diferentes funções e tarefas no MonetDB Acelerar a entrega de seu projeto, maximizando os recursos do MonetDB Público Desenvolvedores Especialistas técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview


O Pentaho Data Integration é uma ferramenta de integração de dados de código aberto para definir tarefas e transformações de dados.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como usar os poderosos recursos de ETL do Pentaho Data Integration e do rich GUI para gerenciar todo um ciclo de vida de big data, maximizando o valor dos dados para a organização.

- No final deste treinamento, os participantes serão capazes de:
- Crie, visualize e execute transformações básicas de dados contendo etapas e saltos
- Configurar e proteger o Repositório Empresarial Pentaho
- Aproveitar as diferentes fontes de dados e gere uma versão única e unificada da verdade em um formato pronto para análise.
- Fornecer resultados para aplicativos de terceiros para processamento adicional

Público

Analista de informações Desenvolvedores de ETL

Formato do curso

Palestra, discussão, exercícios e prática
21 hours
Overview
Processamento de Fluxo refere-se ao processamento em tempo real de "dados em movimento", isto é, a realização de cálculos em dados à medida que são recebidos Esses dados são lidos como fluxos contínuos de fontes de dados, como eventos de sensores, atividade de usuários de sites, transações financeiras, furtos de cartão de crédito, fluxos de cliques etc As estruturas Stream Processing podem ler grandes volumes de dados recebidos e fornecer informações valiosas quase instantaneamente Neste treinamento instructorled, ao vivo (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas de Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software e microsserviços relacionados No final deste treinamento, os participantes serão capazes de: Instale e configure diferentes estruturas de Stream Processing, como Spark Streaming e Kafka Streaming Entenda e selecione a estrutura mais apropriada para o trabalho Processo de dados continuamente, simultaneamente, e em um registro por meio de um registro Integre soluções de Stream Processing com bancos de dados existentes, data warehouses, data lagkes, etc Integrando a biblioteca de processamento de fluxo mais apropriada com aplicativos corporativos e microsserviços Público Desenvolvedores Arquitetos de software Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Notas Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
14 hours
Overview
este instrutor liderada, treinamento ao vivo (no local ou remoto) destina-se a analistas de dados e cientistas de dados que desejam implementar técnicas de análise de dados mais avançadas para a mineração de dados usando Python.

no final deste treinamento, os participantes poderão:

- compreender áreas importantes de mineração de dados, incluindo mineração de regra de associação, análise de sentimento de texto, compactação automática de texto e detecção de anomalia de dados.
- Compare e implemente várias estratégias para resolver problemas de mineração de dados do mundo real.
- compreender e interpretar os resultados.

formato do curso

- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.

Opções de personalização do curso

- para solicitar um treinamento personalizado para este curso, entre em contato conosco para organizar.
21 hours
Overview
Apache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
21 hours
Overview
O KNIME Analytics Platform é uma opção líder de código aberto para inovação baseada em dados, ajudando você a descobrir o potencial oculto em seus dados, o meu para novos insights ou a previsão de novos futuros Com mais de 1000 módulos, centenas de exemplos de ready-ready, uma ampla variedade de ferramentas integradas e a mais ampla gama de algoritmos avançados disponíveis, o KNIME Analytics Platform é a caixa de ferramentas perfeita para qualquer cientista de dados e analista de negócios Este curso para o KNIME Analytics Platform é uma oportunidade ideal para iniciantes, usuários avançados e especialistas KNIME serem apresentados ao KNIME, para aprender como usá-lo de forma mais eficaz e como criar relatórios claros e abrangentes baseados nos fluxos de trabalho do KNIME .
21 hours
Overview
A análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos A aplicação da análise de big data nos dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico Neste treinamento ao vivo instruído (remoto), os participantes aprenderão a executar a análise de big data na área da saúde, conforme passarem por uma série de exercícios handson livelab No final deste treinamento, os participantes serão capazes de: Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark Compreender as características dos dados médicos Aplicar técnicas de big data para lidar com dados médicos Estude grandes sistemas de dados e algoritmos no contexto de aplicações de saúde Público Desenvolvedores Cientistas de dados Formato do Curso Parte palestra, parte discussão, exercícios e prática handson pesado Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
14 hours
Overview
O Apache Arrow é uma estrutura de processamento de dados de memória de código aberto É frequentemente usado em conjunto com outras ferramentas de ciência de dados para acessar diferentes armazenamentos de dados para análise Ele se integra bem a outras tecnologias, como bancos de dados de GPU, bibliotecas e ferramentas de aprendizado de máquina, mecanismos de execução e estruturas de visualização de dados Neste treinamento presencial, no local, os participantes aprenderão a integrar o Apache Arrow a várias estruturas do Data Science para acessar dados de fontes de dados diferentes No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apache Arrow em um ambiente de cluster distribuído Use o Apache Arrow para acessar dados de fontes de dados diferentes Use o Apache Arrow para ignorar a necessidade de construir e manter pipelines ETL complexos Analise dados em diferentes fontes de dados sem precisar consolidá-los em um repositório centralizado Público Cientistas de dados Engenheiros de dados Formato do Curso Palestra parcial, parte discussão, exercícios e prática handson pesada Nota Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Descontos em Cursos

Boletim Informativo de Descontos

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Nossos Clientes

is growing fast!

We are looking to expand our presence in Portugal!

As a Business Development Manager you will:

  • expand business in Portugal
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!