Cursos de Big Data

Cursos de Big Data

Big Data é um termo que se refere a soluções destinadas a armazenar e processar grandes conjuntos de dados. Desenvolvido inicialmente pelo Google, essas soluções Big Data evoluíram e inspiraram outros projetos similares, muitos dos quais estão disponíveis como opensource. Alguns exemplos incluem Apache Hadoop, Cassandra e Cloudera Impala. De acordo com os relatórios da Gartner, BigData é o próximo grande passo no TI logo após a Cloud Computing e será uma tendência líder nos próximos anos. Nossos curso de BigData começam com uma introdução aos conceitos elementares de Big Data, em seguida, progridem nas linguagens de programação e metodologias utilizadas para realizar análise de dados. As ferramentas e a infra-estrutura para permitir armazenamento de grandes dimensões, processamento distribuído e escalabilidade são discutidas, comparadas e implementadas em sessões de demonstração. O treinamento BigData está disponível em vários formatos, incluindo treinamento ao vivo no local e treinamento online ao vivo e interativo. O treinamento local BigData pode ser realizado nas instalações do cliente no Portugal ou nos centros de treinamento locais NobleProg no Portugal. O treinamento ao vivo remoto é realizado por meio de uma área de trabalho remota e interativa.



NobleProg -- Seu Provedor de Treinamento Local

Declaração de Clientes

★★★★★
★★★★★

Programa de curso Big Data

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview


Objetivo: Aprender a trabalhar com o SPSS no nível de independência

Público: Analistas, pesquisadores, cientistas, estudantes e todos aqueles que desejam adquirir a capacidade de usar o pacote SPSS e aprender técnicas populares de mineração de dados.
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) é uma plataforma integrada de logística de dados e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas. Ele é escrito usando programação baseada em fluxo e fornece uma interface com o usuário baseada na Web para gerenciar fluxos de dados em tempo real.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem várias extensões de demonstração, componentes e processadores usando o Apache NiFi .

No final deste treinamento, os participantes serão capazes de:

- Entenda os conceitos de arquitetura e fluxo de dados da NiFi.
- Desenvolva extensões usando NiFi e APIs de terceiros.
- Custom desenvolve seu próprio processador Apache Nifi.
- Ingerir e processar dados em tempo real de formatos de arquivo e origens de dados diferentes e incomuns.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
21 hours
Overview
O Apache Drill é um mecanismo de consulta SQL colunar, distribuído e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento em nuvem e de arquivos O poder do Apache Drill reside na sua capacidade de juntar dados de vários armazenamentos de dados usando uma única consulta O Apache Drill suporta vários bancos de dados NoSQL e sistemas de arquivos, incluindo HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Armazenamento de Blobs do Azure, Google Cloud Storage, Swift, NAS e arquivos locais O Apache Drill é a versão de código aberto do sistema Dremel do Google, que está disponível como um serviço de infraestrutura chamado Google BigQuery Neste treinamento presencial instruído, os participantes aprenderão os fundamentos do Apache Drill, depois aproveitarão o poder e a conveniência do SQL para consultar de forma interativa os grandes dados em várias fontes de dados, sem escrever código Os participantes também aprenderão como otimizar suas consultas Drill para execução SQL distribuída No final deste treinamento, os participantes serão capazes de: Realize a exploração de "self-service" em dados estruturados e semi-estruturados no Hadoop Consulta conhecida assim como dados desconhecidos usando consultas SQL Entenda como o Apache Drills recebe e executa consultas Escrever consultas SQL para analisar diferentes tipos de dados, incluindo dados estruturados no Hive, dados semi-estruturados em tabelas HBase ou MapRDB e dados salvos em arquivos como Parquet e JSON Use o Apache Drill para executar a descoberta do esquema flyfly, ignorando a necessidade de operações complexas de ETL e esquema Integre o Apache Drill com ferramentas de BI (Business Intelligence), como Tableau, Qlikview, MicroStrategy e Excel Público Analistas de dados Cientistas de dados Programadores SQL Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
O MonetDB é um banco de dados de código aberto que foi pioneiro na abordagem de tecnologia columnstore Neste treinamento presencial instruído, os participantes aprenderão como usar o MonetDB e como extrair o máximo valor dele No final deste treinamento, os participantes serão capazes de: Entenda o MonetDB e seus recursos Instalar e começar a usar o MonetDB Explore e execute diferentes funções e tarefas no MonetDB Acelerar a entrega de seu projeto, maximizando os recursos do MonetDB Público Desenvolvedores Especialistas técnicos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
,
28 hours
Overview
O Hadoop é uma estrutura popular de processamento de Big Data Python é uma linguagem de programação de alto nível, famosa por sua sintaxe clara e legibilidade de código Neste treinamento presencial instruído, os participantes aprenderão a trabalhar com o Hadoop, o MapReduce, o Pig e o Spark usando o Python enquanto percorrem vários exemplos e casos de uso No final deste treinamento, os participantes serão capazes de: Entenda os conceitos básicos por trás do Hadoop, MapReduce, Pig e Spark Use o Python com o sistema de arquivos distribuídos Hadoop (HDFS), MapReduce, Pig e Spark Use o Snakebite para acessar programaticamente o HDFS no Python Use mrjob para escrever trabalhos MapReduce em Python Gravar programas Spark com Python Estenda a funcionalidade do porco usando UDFs Python Gerenciar tarefas MapReduce e scripts Pig usando o Luigi Público Desenvolvedores Profissionais de TI Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
Python é uma linguagem de programação de alto nível famosa por sua sintaxe clara e com legibilidade de código. O Spark é um mecanismo de processamento de dados usado na consulta, análise e transformação de big data. O PySpark permite que os usuários façam interface com o Spark com o Python.

Neste treinamento os participantes aprenderão como usar o Python e o Spark juntos para analisar big data enquanto trabalham em exercícios práticos.

No final deste treinamento, os participantes serão capazes de:

- Aprender a usar o Spark com Python para analisar Big Data
- Trabalhar em exercícios que imitam as circunstâncias do mundo real
- Usar diferentes ferramentas e técnicas para análise de big data usando o PySpark

Público

Desenvolvedores
Profissionais de TI
Cientistas de dados
Formato do curso

Palestra, discussão, exercícios e prática
35 hours
Overview
Avanços em tecnologias e a crescente quantidade de informações estão transformando a forma como a aplicação da lei é conduzida Os desafios que o Big Data representa são quase tão assustadores quanto a promessa do Big Data Armazenar dados de forma eficiente é um desses desafios; efetivamente analisá-lo é outra Neste treinamento presencial instruído, os participantes aprenderão a mentalidade com a qual abordarão as tecnologias de Big Data, avaliarão seu impacto nos processos e políticas existentes e implementarão essas tecnologias com a finalidade de identificar atividades criminosas e prevenir o crime Estudos de casos de organizações policiais de todo o mundo serão examinados para obter insights sobre suas abordagens de adoção, desafios e resultados No final deste treinamento, os participantes serão capazes de: Combine a tecnologia Big Data com os processos tradicionais de coleta de dados para reunir uma história durante uma investigação Implementar soluções industriais de armazenamento e processamento de big data para análise de dados Preparar uma proposta para a adopção das ferramentas e processos mais adequados para permitir uma abordagem orientada para as investigações criminais Público Especialistas em aplicação da lei com formação técnica Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
Para atender a conformidade dos reguladores, os CSPs (provedores de serviços de Communication ) podem acessar o Big Data Analytics, que não apenas os ajuda a atender a conformidade, mas dentro do escopo do mesmo projeto podem aumentar a satisfação do cliente e reduzir a rotatividade. De facto, uma vez que a conformidade está relacionada com a Qualidade de serviço ligada a um contrato, qualquer iniciativa para cumprir a conformidade melhorará a “vantagem competitiva” dos CSPs. Portanto, é importante que os Reguladores possam aconselhar / orientar um conjunto de práticas analíticas de Big Data para os CSPs que serão de benefício mútuo entre os reguladores e os CSPs.

O curso consiste em 8 módulos (4 no dia 1 e 4 no dia 2)
28 hours
Overview
Um grande número de problemas do mundo real pode ser descrito em termos de gráficos Por exemplo, o gráfico da Web, o gráfico da rede social, o gráfico da rede ferroviária e o gráfico da linguagem Esses gráficos tendem a ser extremamente grandes; processá-los requer um conjunto especializado de ferramentas e processos Essas ferramentas e processos podem ser chamados de Graph Computing (também conhecido como Graph Analytics) Neste treinamento presencial instruído, os participantes aprenderão sobre as ofertas de tecnologia e as abordagens de implementação para o processamento de dados gráficos O objetivo é identificar objetos do mundo real, suas características e relacionamentos, modelar esses relacionamentos e processá-los como dados usando uma abordagem de computação gráfica Começamos com uma ampla visão geral e restringimos as ferramentas específicas à medida que passamos por uma série de estudos de caso, exercícios práticos e implementações ao vivo No final deste treinamento, os participantes serão capazes de: Entenda como os dados do gráfico são persistidos e percorridos Selecione a melhor estrutura para uma determinada tarefa (de bancos de dados de gráficos a estruturas de processamento em lote) Implemente Hadoop, Spark, GraphX ​​e Pregel para realizar computação gráfica em várias máquinas em paralelo Veja os problemas de big data do mundo real em termos de gráficos, processos e travessias Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
A análise preditiva é o processo de análise de dados para fazer previsões sobre o futuro. Este processo usa dados juntamente com técnicas de data mining, estatísticas e técnicas de machine learning para criar um modelo preditivo para a previsão de eventos futuros.

Nessa formação treinada por instrutor e treinamento, os participantes aprenderão como usar o Matlab para criar modelos preditivos e aplicá-los a grandes conjuntos de dados de amostra para prever eventos futuros com base nos dados.

Ao final deste treinamento, os participantes serão capazes de:

- Crie modelos preditivos para analisar padrões em dados históricos e transacionais
- Use modelagem preditiva para identificar riscos e oportunidades
- Construa modelos matemáticos que captem tendências importantes
- Use dados para dispositivos e sistemas de negócios para reduzir o desperdício, economizar tempo ou reduzir custos

Público

- Desenvolvedores
- Engenheiros
- Especialistas em domínio

Formato do curso

Palestras, discussão parcial, exercícios e prática.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) é uma plataforma integrada de logística de dados e processamento de eventos simples em tempo real que permite a movimentação, rastreamento e automação de dados entre sistemas. Ele é escrito usando programação baseada em fluxo e fornece uma interface com o usuário baseada na Web para gerenciar fluxos de dados em tempo real.

Neste treinamento ao vivo orientado por instrutor (no local ou remoto), os participantes aprenderão como implantar e gerenciar o Apache NiFi em um ambiente de laboratório ao vivo.

No final deste treinamento, os participantes serão capazes de:

- Instale e configure o Apachi NiFi.
- Gerencie, transforme e gerencie dados de fontes de dados distribuídas e dispersas, incluindo bancos de dados e grandes lagos de dados.
- Automatize os fluxos de dados.
- Ative a análise de streaming.
- Aplique várias abordagens para a ingestão de dados.
- Transforme Big Data e em insights de negócios.

Formato do Curso

- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.

Opções de personalização de curso

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
7 hours
Overview
Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão os principais conceitos por trás da Arquitetura MapR Stream à medida que desenvolvem um aplicativo de streaming em tempo real.

No final deste treinamento, os participantes poderão criar aplicativos para produtores e consumidores para o processamento de dados em fluxo em tempo real.

Público

- Desenvolvedores
- Administradores

Formato do curso

- Palestra parcial, parte discussão, exercícios e prática prática

Nota

- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
14 hours
Overview
O Apache SolrCloud é um mecanismo de processamento de dados distribuído que facilita a pesquisa e a indexação de arquivos em uma rede distribuída.

Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão como configurar uma instância do SolrCloud no Amazon AWS.

No final deste treinamento, os participantes serão capazes de:

- Entender os recursos do SolCloud e como eles se comparam aos dos clusters master-slave convencionais
- Configurar um cluster centralizado do SolCloud
- Automatizar processos como comunicação com shards, adição de documentos aos fragmentos, etc.
- Usar o Zookeeper em conjunto com o SolrCloud para automatizar ainda mais os processos
- Usar a interface para gerenciar o relatório de erros
- Balanceamento de carga de uma instalação do SolrCloud
- Configurar o SolrCloud para processamento contínuo e failover

Público

Desenvolvedores Solr

Gerentes de projeto

Administradores de sistema

Analistas de pesquisa

Formato do curso

Palestra, discussão, exercícios e prática.
28 hours
Overview
A modelagem de área segura de dados é uma técnica de modelagem de banco de dados que fornece armazenamento histórico de dados de longo prazo originado de várias origens Um cofre de dados armazena uma única versão dos fatos, ou "todos os dados, o tempo todo" Seu design flexível, escalável, consistente e adaptável engloba os melhores aspectos da terceira forma normal (3NF) e do esquema em estrela Neste treinamento presencial instruído, os participantes aprenderão como construir um Cofre de Dados No final deste treinamento, os participantes serão capazes de: Entenda os conceitos de arquitetura e design por trás do Data Vault 20 e sua interação com Big Data, NoSQL e AI Use técnicas de compartimentação de dados para ativar a auditoria, o rastreamento e a inspeção de dados históricos em um data warehouse Desenvolver um processo consistente e repetível de ETL (Extrair, Transformar, Carregar) Construa e implante armazéns altamente escaláveis ​​e repetíveis Público Modeladores de dados Especialista em data warehousing Especialistas em Business Intelligence Engenheiros de dados Administradores de banco de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Datameer é uma plataforma de business intelligence e análise construída sobre o Hadoop Ele permite que os usuários finais acessem, explorem e correlacionem dados em larga escala, estruturados, semi-estruturados e não estruturados de maneira fácil Neste treinamento presencial instruído, os participantes aprenderão como usar o Datameer para superar a curva de aprendizado do Hadoop à medida que avançam na configuração e análise de uma série de fontes de big data No final deste treinamento, os participantes serão capazes de: Crie, organize e explore interativamente um lago de dados corporativos Acessar data warehouses de business intelligence, bancos de dados transacionais e outras lojas analíticas Use uma interface de usuário de planilha para projetar pipelines de processamento de dados de ponta Acesse funções pré-construídas para explorar relacionamentos de dados complexos Use os assistentes de draganddrop para visualizar dados e criar painéis Use tabelas, gráficos, gráficos e mapas para analisar os resultados da consulta Público Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
O Tigon é um framework de processamento de fluxo aberto, em tempo real, de baixa latência, alto throughput, nativo do YARN, que fica no topo do HDFS e do HBase para persistência Os aplicativos Tigon abordam casos de uso, como detecção e análise de invasão de rede, análise de mercado de mídia social, análise de localização e recomendações em tempo real para os usuários Este treinamento ao vivo com instrutores introduz a abordagem da Tigon para misturar processamento em tempo real e em lote, enquanto conduz os participantes através da criação de um aplicativo de amostra No final deste treinamento, os participantes serão capazes de: Crie aplicativos poderosos de processamento de fluxo para manipular grandes volumes de dados Fontes de fluxo de processo, como Twitter e Logs do servidor da Web Use o Tigon para junção rápida, filtragem e agregação de fluxos Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
14 hours
Overview
,
14 hours
Overview
Vespa um mecanismo de processamento e exibição de big data de grande porte criado pelo Yahoo Ele é usado para responder a consultas de usuários, fazer recomendações e fornecer conteúdo e anúncios personalizados em tempo real Este treinamento presencial instruído apresenta os desafios de servir dados em larga escala e conduz os participantes através da criação de um aplicativo que pode calcular as respostas às solicitações do usuário, em grandes conjuntos de dados em tempo real No final deste treinamento, os participantes serão capazes de: Use a Vespa para calcular rapidamente os dados (armazenar, pesquisar, classificar, organizar) no tempo de exibição enquanto um usuário aguarda Implemente a Vespa em aplicativos existentes que envolvem pesquisa de recursos, recomendações e personalização Integre e implemente a Vespa com sistemas de big data existentes, como o Hadoop e o Storm Público Desenvolvedores Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
21 hours
Overview
Apache Apex é uma plataforma YARNnative que unifica fluxo e processamento em lote Ele processa grandes datainmotion de uma forma escalonável, performant, fault-tolerant, stateful, secure, distributed e easily operable Este treinamento ao vivo com instrutor apresenta a arquitetura de processamento de fluxo unificado do Apache Apex e conduz os participantes por meio da criação de um aplicativo distribuído usando o Apex no Hadoop No final deste treinamento, os participantes serão capazes de: Entender conceitos de pipeline de processamento de dados, como conectores para fontes e coletores, transformações de dados comuns etc Construa, dimensione e otimize um aplicativo Apex Processe fluxos de dados em tempo real de forma confiável e com latência mínima Use o Apex Core e a biblioteca Apex Malhar para permitir o rápido desenvolvimento de aplicativos Use a API do Apex para gravar e reutilizar o código Java existente Integrar o Apex a outros aplicativos como um mecanismo de processamento Ajustar, testar e dimensionar aplicativos Apex Público Desenvolvedores Arquitetos corporativos Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
7 hours
Overview
O Alexio é um sistema de armazenamento distribuído virtual de código aberto que unifica sistemas de armazenamento distintos e permite que os aplicativos interajam com os dados na velocidade da memória É usado por empresas como Intel, Baidu e Alibaba Neste treinamento presencial instruído, os participantes aprenderão a usar o Alexio para interligar diferentes estruturas de computação com sistemas de armazenamento e gerenciar com eficiência dados em escala de vários arquivos à medida que avançam na criação de um aplicativo com o Alluxio No final deste treinamento, os participantes serão capazes de: Desenvolva um aplicativo com o Alluxio Conecte sistemas e aplicativos de big data enquanto preserva um namespace Extraia com eficiência o valor do Big Data em qualquer formato de armazenamento Melhore o desempenho da carga de trabalho Implantar e gerenciar o Alluxio autônomo ou em cluster Público Cientista de dados Desenvolvedor Administrador do sistema Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada .
28 hours
Overview
Apache Flink é uma estrutura de código aberto para processamento de dados em lote e fluxo escalável.

este treinamento ao vivo, ministrado por instrutor, introduz os princípios e abordagens por trás do processamento distribuído de dados em lote e de fluxo, e percorre os participantes através da criação de um aplicativo de streaming de dados em tempo real no Apache Flink.

até o final deste treinamento, os participantes poderão:

- configurar um ambiente para o desenvolvimento de aplicativos de análise de dados.
- empacotar, executar e monitorar aplicativos de streaming de dados baseados em Flink, tolerantes a falhas.
- gerencie cargas de trabalho diversas.
- executar análises avançadas usando o Flink ML.
- configurar um cluster Flink de vários nós.
- medir e otimizar o desempenho.
- integrar Flink com diferentes sistemas de Big Data.
- Compare os recursos do Flink com os de outras estruturas de processamento de Big Data.

formato do curso

- parte palestra, discussão parte, exercícios e prática hands-on pesado
14 hours
Overview
O Apache Samza é uma estrutura computacional assíncrona e de tempo real de código aberto para processamento de fluxo. Ele usa o Apache Kafka para mensagens e o Apache Hadoop YARN para tolerância a falhas, isolamento do processador, segurança e gerenciamento de recursos.

Este treinamento ao vivo conduzido por instrutor introduz os princípios por trás dos sistemas de mensagens e do processamento de fluxo distribuído, enquanto percorre os participantes através da criação de um projeto baseado em Samza e execução de tarefas.

No final deste treinamento, os participantes serão capazes de:

- Use o Samza para simplificar o código necessário para produzir e consumir mensagens.
- Desacoplar o tratamento de mensagens de um aplicativo.
- Use o Samza para implementar computação assíncrona em tempo quase real.
- Use o processamento de fluxo para fornecer um nível mais alto de abstração nos sistemas de mensagens.

Público

- Desenvolvedores

Formato do curso

- Palestra parcial, parte discussão, exercícios e prática prática
14 hours
Overview
A AI é uma coleção de tecnologias para a construção de sistemas inteligentes capazes de entender os dados e as atividades que envolvem os dados para tomar "decisões inteligentes" Para provedores de telecomunicações, os aplicativos e serviços de construção que usam a AI podem abrir as portas para operações e manutenção aprimoradas em áreas como manutenção e otimização de rede Neste curso, examinamos as várias tecnologias que compõem a IA e os conjuntos de habilidades necessárias para usá-las Ao longo do curso, examinamos os aplicativos específicos da AI na indústria de telecomunicações Público Engenheiros de rede Pessoal de operações de rede Gerentes técnicos de telecomunicações Formato do curso Peça palestra, parte discussão, exercícios handson .
7 hours
Overview
O Apache Drill é um mecanismo de consulta SQL colunar, distribuído e sem esquema, para Hadoop, NoSQL e outros sistemas de armazenamento em nuvem e de arquivos O poder do Apache Drill reside na sua capacidade de juntar dados de vários armazenamentos de dados usando uma única consulta O Apache Drill suporta vários bancos de dados NoSQL e sistemas de arquivos, incluindo HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Armazenamento de Blobs do Azure, Google Cloud Storage, Swift, NAS e arquivos locais O Apache Drill é a versão de código aberto do sistema Dremel do Google, que está disponível como um serviço de infraestrutura chamado Google BigQuery Neste treinamento presencial instruído, os participantes aprenderão a otimizar e depurar o Apache Drill para melhorar o desempenho de consultas em conjuntos de dados muito grandes O curso começa com uma visão geral de arquitetura e comparação de recursos entre o Apache Drill e outras ferramentas interativas de análise de dados Em seguida, os participantes passam por uma série de sessões interativas práticas que incluem instalação, configuração, avaliação de desempenho, otimização de consultas, particionamento de dados e depuração de uma instância do Apache Drill em um ambiente de laboratório ao vivo No final deste treinamento, os participantes serão capazes de: Instalar e configurar o Apache Drill Entenda a arquitetura e os recursos do Apache Drill Entenda como o Apache Drills recebe e executa consultas Otimizar consultas drill para execução SQL distribuída Debug Apache Drill Público Desenvolvedores Administradores de sistemas Analistas de dados Formato do curso Palestra parcial, parte discussão, exercícios e prática handson pesada Notas Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar .
7 hours
Overview
This instructor-led, live training (onsite or remote) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
Cursos de fim de semana de Big Data, Treinamento tardiurno de Big Data, Treinamento em grupo de Big Data, Big Data guiado por instrutor, Treinamento de Big Data de fim de semana, Cursos de Big Data tardiurnos, coaching de Big Data, Instrutor de Big Data, Treinador de Big Data, Cursos de treinamento de Big Data, Aulas de Big Data, Big Data no local do cliente, Cursos privados de Big Data, Treinamento individual de Big Data

Descontos em Cursos

Boletim Informativo de Descontos

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Nossos Clientes

is growing fast!

We are looking to expand our presence in Portugal!

As a Business Development Manager you will:

  • expand business in Portugal
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!