Curso de Big Data Analytics em Saúde
A análise de big data envolve o processo de examinar grandes quantidades de conjuntos de dados variados para descobrir correlações, padrões ocultos e outras informações úteis.
A indústria da saúde tem enormes quantidades de dados médicos e clínicos heterogêneos complexos. A aplicação de análise de big data em dados de saúde apresenta um enorme potencial para obter insights para melhorar a prestação de serviços de saúde. No entanto, a enormidade desses conjuntos de dados apresenta grandes desafios em análises e aplicações práticas para um ambiente clínico.
Neste treinamento ao vivo conduzido por instrutor (remoto), os participantes aprenderão como executar a análise de big data na área da saúde enquanto realizam uma série de exercícios práticos de laboratório ao vivo.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar ferramentas de análise de big data, como o Hadoop MapReduce e o Spark
- Entenda as características dos dados médicos
- Aplicar técnicas de big data para lidar com dados médicos
- Estudar grandes sistemas de dados e algoritmos no contexto de aplicações de saúde
Público
- Desenvolvedores
- Cientistas de dados
Formato do Curso
- Palestra parte, parte discussão, exercícios e prática hands-on pesado.
Nota
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Programa do Curso
Introdução a Big Data Analytics em Saúde
Visão geral de Big Data tecnologias analíticas
- Apache Hadoop MapReduce
- Apache Spark
Instalando e configurando o Apache Hadoop MapReduce
Instalando e configurando Apache Spark
Usando modelagem preditiva para dados de saúde
Usando Apache Hadoop MapReduce para dados de saúde
Realizando Fenotipagem e Clustering em Dados de Saúde
- Métricas de avaliação de classificação
- Métodos de conjunto de classificação
Usando Apache Spark para dados de saúde
Trabalhando com Ontologia Médica
Usando análise gráfica em dados de saúde
Redução da dimensionalidade em dados de saúde
Trabalhando com métricas de similaridade de pacientes
Solução de problemas
Resumo e conclusão
Requisitos
- Compreensão dos conceitos de aprendizagem automática e extração de dados
- Experiência avançada em programação (Python, Java, Scala)
- Proficiência em dados e processos ETL
Precisa de ajuda para escolher o curso certo?
Curso de Big Data Analytics em Saúde - Consulta
Big Data Analytics em Saúde - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (1)
A VM que eu gostei muito O Professor era muito conhecedor sobre o tópico bem como outros assuntos, ele foi muito simpático e amigável Gostei das instalações em Dubai.
Safar Alqahtani - Elm Information Security
Curso - Big Data Analytics in Health
Máquina Traduzida
Próximas Formações Provisórias
Cursos Relacionados
Treinamento de Administrador para Apache Hadoop
35 HorasPúblico-alvo:
O curso é destinado a especialistas em TI que procuram uma solução para armazenar e processar conjuntos grandes de dados em um ambiente de sistema distribuído.
Pré-requisitos:
Conhecimento profundo na administração de clusters Hadoop.
Análise de Grandes Dados com Google Colab e Apache Spark
14 HorasEste treinamento ao vivo, conduzido por instrutor em Portugal (online ou presencial), é direcionado a cientistas de dados e engenheiros intermediários que desejam usar Google Colab e Apache Spark para processamento e análise de big data.
Ao final deste treinamento, os participantes serão capazes de:
- Configurar um ambiente de big data usando Google Colab e Spark.
- Processar e analisar grandes conjuntos de dados eficientemente com Apache Spark.
- Visualizar big data em um ambiente colaborativo.
- Integrar Apache Spark com ferramentas baseadas na nuvem.
Administração Hadoop
21 HorasO curso é dedicado a especialistas em TI que estão procurando uma solução para armazenar e processar grandes conjuntos de dados em um ambiente de sistema distribuído
Objetivo do curso:
Adquirir conhecimento sobre administração de cluster Hadoop
Hadoop e Spark para Administradores
35 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (online ou no local) é destinado a administradores de sistema que desejam aprender como configurar, implantar e gerenciar clusters Hadoop em sua organização.
No final desta formação, os participantes serão capazes de
- Instalar e configurar o Apache Hadoop.
- Compreender os quatro principais componentes do ecossistema Hadoop: HDFS, MapReduce, YARN e Hadoop Common.
- Usar o HDFS (Hadoop Distributed File System) para dimensionar um cluster para centenas ou milhares de nós.
- Configurar o HDFS para operar como mecanismo de armazenamento para implantações do Spark no local.
- Configurar o Spark para acessar soluções de armazenamento alternativas, como Amazon S3 e sistemas de banco de dados NoSQL, como Redis, Elasticsearch, Couchbase, Aerospike, etc.
- Realizar tarefas administrativas, como provisionamento, gerenciamento, monitoramento e segurança de um cluster Apache Hadoop.
A Practical Introduction to Stream Processing
21 HorasIn this instructor-led, live training in Portugal (onsite or remote), participants will learn how to set up and integrate different Stream Processing frameworks with existing big data storage systems and related software applications and microservices.
By the end of this training, participants will be able to:
- Install and configure different Stream Processing frameworks, such as Spark Streaming and Kafka Streaming.
- Understand and select the most appropriate framework for the job.
- Process of data continuously, concurrently, and in a record-by-record fashion.
- Integrate Stream Processing solutions with existing databases, data warehouses, data lakes, etc.
- Integrate the most appropriate stream processing library with enterprise applications and microservices.
SMACK Stack para Ciência de Dados
14 HorasEste treinamento presencial, liderado pelo instrutor em Portugal (online ou no local), é voltado para cientistas de dados que desejam utilizar a pilha SMACK para construir plataformas de processamento de dados para soluções de big data.
Ao final deste treinamento, os participantes serão capazes de:
- Implementar uma arquitetura de pipeline de dados para processamento de big data.
- Desenvolver uma infraestrutura de cluster com Apache Mesos e Docker.
- Analisar dados com Spark e Scala.
- Gerenciar dados não estruturados com Apache Cassandra.
Fundamentos do Apache Spark
21 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (online ou no local) é destinado a engenheiros que desejam configurar e implantar o sistema Apache Spark para processar grandes quantidades de dados.
No final desta formação, os participantes serão capazes de
- Instalar e configurar o Apache Spark.
- Processe e analise rapidamente conjuntos de dados muito grandes.
- Compreender a diferença entre o Apache Spark e o Hadoop MapReduce e quando usar qual deles.
- Integrar o Apache Spark com outras ferramentas de aprendizado de máquina.
Administração do Apache Spark
35 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a administradores de sistema de nível iniciante a intermediário que desejam implantar, manter e otimizar clusters Spark.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar Apache Spark em vários ambientes.
- Gerenciar recursos de cluster e monitorar aplicativos Spark.
- Otimizar o desempenho dos clusters do Spark.
- Implementar medidas de segurança e garantir alta disponibilidade.
- Depurar e solucionar problemas comuns do Spark.
Apache Spark na Nuvem
21 HorasA curva de aprendizado do Apache Spark está aumentando lentamente no início, e é preciso muito esforço para obter o primeiro retorno. Este curso tem como objetivo pular a primeira parte difícil. Depois de fazer este curso, os participantes entenderão o básico do Apache Spark , diferenciarão claramente o RDD do DataFrame, aprenderão as APIs Python e Scala , entenderão os executores e as tarefas, etc. implantação na nuvem, Databricks e AWS. Os alunos também entenderão as diferenças entre o AWS EMR e o AWS Glue, um dos últimos serviços Spark da AWS.
PÚBLICO:
Engenheiro de dados, DevOps , cientista de dados
Apache Spark para Desenvolvedores
21 HorasEste é um curso de introdução ao Apache Spark, os participantes aprenderão como é que esse programa participa do ecossistema Big Data, e como utiliza-lo para analizar dados. O curso cobre Spark para analise de dados, internalidades do Spark, Spark APIs, Spark SQL, Spark Streaming, Machine Learning e graphX.
Escalar Pipelines de Dados com o Spark NLP
14 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a cientistas de dados e desenvolvedores que desejam usar Spark NLP, construído em cima de Apache Spark, para desenvolver, implementar e dimensionar modelos e pipelines de processamento de texto em linguagem natural.
No final deste treinamento, os participantes serão capazes de:
- Configurar o ambiente de desenvolvimento necessário para começar a construir pipelines de PNL com Spark NLP.
- Compreender os recursos, a arquitetura e os benefícios do uso de Spark NLP.
- Utilizar os modelos pré-treinados disponíveis em Spark NLP para implementar o processamento de texto.
- Aprender a construir, treinar e escalar modelos de Spark NLP para projectos de nível de produção.
- Aplicar classificação, inferência e análise de sentimentos em casos de uso real (dados clínicos, insights sobre o comportamento do cliente, etc.).
Python e Spark para Big Data (PySpark)
21 HorasNeste treinamento ao vivo conduzido por instrutor em Portugal, os participantes aprenderão como usar Python e Spark juntos para analisar big data enquanto trabalham em exercícios práticos.
Ao final deste treinamento, os participantes serão capazes de:
- Aprenda a usar o Spark com Python para analisar Big Data.
- Trabalhe em exercícios que imitam casos do mundo real.
- Use diferentes ferramentas e técnicas para análise de big data usando PySpark.
Python, Spark e Hadoop para Big Data
21 HorasEste treinamento ao vivo conduzido por instrutor em Portugal (no local ou remoto) é destinado a desenvolvedores que desejam usar e integrar o Spark, Hadoop e Python para processar, analisar e transformar conjuntos de dados grandes e complexos.
No final deste treinamento, os participantes serão capazes de:
- Configurar o ambiente necessário para iniciar o processamento de big data com Spark, Hadoop e Python.
- Compreender os recursos, componentes principais e arquitetura do Spark e Hadoop.
- Aprender como integrar Spark, Hadoop e Python para o processamento de big data.
- Explorar as ferramentas do ecossistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka e Flume).
- Construir sistemas de recomendação de filtragem colaborativa semelhantes a Netflix, YouTube, Amazon, Spotify e Google.
- Utilizar o Apache Mahout para escalar algoritmos de aprendizagem automática.
Apache Spark SQL
7 Horas O Spark SQL é o módulo do Apache Spark para trabalhar com dados estruturados e não estruturados. O Spark SQL fornece informações sobre a estrutura dos dados, bem como a computação que está sendo executada. Esta informação pode ser usada para realizar otimizações. Dois usos comuns para o Spark SQL são:
- para executar consultas SQL .
- para ler dados de uma instalação existente do Hive .
Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão a analisar vários tipos de conjuntos de dados usando o Spark SQL .
No final deste treinamento, os participantes serão capazes de:
- Instale e configure o Spark SQL .
- Realize a análise de dados usando o Spark SQL .
- Consultar conjuntos de dados em diferentes formatos.
- Visualize dados e resultados de consulta.
Formato do Curso
- Palestra interativa e discussão.
- Muitos exercícios e prática.
- Implementação prática em um ambiente de laboratório ao vivo.
Opções de personalização de curso
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para agendar.
Stratio: Módulos Rocket e Intelligence com PySpark
14 HorasA Stratio é uma plataforma centrada em dados que integra big data, IA e governança em uma única solução. Seus módulos Rocket e Intelligence permitem a exploração rápida de dados, transformação e análises avançadas em ambientes empresariais.
Esta formação presencial (online ou no local), orientada por instrutor, é direcionada a profissionais de dados intermediários que desejam usar os módulos Rocket e Intelligence na Stratio efetivamente com PySpark, focando em estruturas de repetição, funções definidas pelo usuário e lógica de dados avançada.
Ao final deste treinamento, os participantes serão capazes de:
- Navegar e trabalhar dentro da plataforma Stratio usando os módulos Rocket e Intelligence.
- Aplicar PySpark no contexto de ingestão de dados, transformação e análise.
- Usar loops e lógica condicional para controlar fluxos de trabalho de dados e tarefas de engenharia de recursos.
- Criar e gerenciar funções definidas pelo usuário (UDFs) para operações reutilizáveis em PySpark.
Formato do Curso
- Aula interativa e discussão.
- Muitos exercícios e prática.
- Implementação hands-on em um ambiente de laboratório ao vivo.
Opções de Personalização do Curso
- Para solicitar uma formação personalizada para este curso, entre em contato conosco para agendar.