Data Driven Transformation with Google Cloud
Modalidade:
Online, Presencial
Na Matza Education, cada treinamento foi desenvolvido para oferecer conhecimento prático e relevante, conectando teoria e aplicação em cenários reais. Nosso objetivo é preparar profissionais para os desafios do mercado, fortalecendo habilidades técnicas e estratégicas em diferentes áreas da tecnologia e gestão.
Ao participar de um de nossos programas, você terá acesso a conteúdos atualizados, instrutores experientes e uma metodologia voltada para resultados. Independentemente do formato — presencial ou online — buscamos criar uma experiência de aprendizado dinâmica, acessível e de alto impacto.
Mais do que um curso, cada treinamento é uma oportunidade de evolução profissional e pessoal, ajudando você a conquistar certificações, ampliar suas competências e se destacar em um mercado cada vez mais competitivo.
Importante: você deve confirmar o e-mail recebido após a inscrição para validar sua participação.
- Extrair, carregar, transformar, limpar e validar dados
- Projetar canais e arquiteturas para processamento de dados
- Criar e manter modelos de machine learning e modelos estatísticos
- Consultar conjuntos de dados, visualizar resultados de consulta e criar relatórios
- Projetar e criar sistemas de processamento de dados no Google Cloud Platform
- Processar dados em lote e streaming, implementando canais de dados de escalonamento automático no Cloud Dataflow
- Derivar insights de negócios a partir de conjuntos de dados extremamente grandes usando o Google BigQuery
- Treinar, avaliar e prever com modelos de machine learning usando TensorFlow e Cloud ML
- Aproveitar dados não estruturados com as APIs do Spark e de machine learning no Cloud Dataproc
- Proporcionar insights instantâneos a partir de dados de streaming
- Curso Google Cloud Fundamentals: Big Data & Machine Learning concluído OU experiência equivalente
- Proficiência básica em linguagem de consulta comum, como SQL
- Experiência com atividades de modelagem de dados, extração, transformação e carga
- Desenvolvimento de aplicativos com linguagem de programação comum, como Python
- Familiaridade com Machine Learning e/ou estatísticas
4 dias – 32 horas aula – Presencial ou Online ao Vivo
- Módulo 1: Visão geral do Google Cloud Dataproc
- Criação e gerenciamento de clusters
- Aproveitamento dos tipos de máquina personalizados e nós de trabalho preemptivos
- Escalonamento e exclusão de clusters
- Laboratório: Como criar clusters do Hadoop com o Google Cloud Dataproc
- Módulo 2: Execução de jobs do Dataproc
- Execução de jobs de Pig e Hive
- Separação de armazenamento e computação
- Laboratório: Como executar jobs do Hadoop e do Spark com o Dataproc
- Laboratório: Enviar e monitorar Jobs
- Módulo 3: Integração do Dataproc ao Google Cloud Platform
- Personalização de clusters com ações de inicialização
- Suporte ao BigQuery
- Laboratório: Como aproveitar os serviços do Google Cloud Platform
- Módulo 4: Solução para dados não estruturados com as APIs de Machine Learning do Google
- APIs de Machine Learning do Google
- Casos de uso comuns de ML
- Invocação de APIs de ML
- Laboratório: Como adicionar recursos de Machine Learning à análise de Big Data
- Módulo 5: Análise de dados sem servidor com o BigQuery
- O que é o BigQuery
- Consultas e funções
- Laboratório: Como escrever consultas no BigQuery
- Carregamento de dados no BigQuery
- Exportação de dados do BigQuery
- Laboratório: Como carregar e exportar dados
- Campos aninhados e repetidos
- Consulta de várias tabelas
- Laboratório: Consultas complexas
- Desempenho e preços
- Módulo 6: Canais de dados de escalonamento automático e sem servidor com o Dataflow
- O modelo de programação Beam
- Canais de dados no Beam Python
- Canais de dados no Beam Java
- Laboratório: Como escrever um canal do Dataflow
- Processamento escalonável de Big Data com o Beam
- Laboratório: MapReduce no Dataflow
- Incorporação de dados adicionais
- Laboratório: Entradas secundárias
- Processamento de dados de streaming
- Arquitetura de referência do GCP
- Módulo 7: Primeiros passos com Machine Learning
- O que é machine learning (ML)
- ML eficaz: conceitos, tipos
- Conjuntos de dados de ML: generalização
- Laboratório: Explorar e criar conjuntos de dados de ML
- Módulo 8: Criação de modelos de ML com o TensorFlow
- Primeiros passos com o TensorFlow
- Laboratório: Como usar o tf.learn
- Gráficos e loops do TensorFlow + laboratório
- Laboratório: Como usar o TensorFlow de baixo nível + parada antecipada
- Monitoração do treinamento de ML
- Laboratório: Tabelas e gráficos de treinamento do TensorFlow
- Módulo 9: Escalonamento de modelos de ML com o CloudML
- Por que usar o Cloud ML?
- Empacotamento de um modelo do TensorFlow
- Treinamento completo
- Laboratório: Executar um modelo de ML localmente e na nuvem
- Módulo 10: Engenharia de atributos
- Criação de atributos ideais
- Transformação de entradas
- Atributos sintéticos
- Pré-processamento com o Cloud ML
- Laboratório: Engenharia de atributos
- Módulo 11: Arquitetura de canais de análise de streaming
- Processamento de dados em streaming: desafios
- Processamento de volumes de dados variáveis
- Processamento de dados não ordenados/atrasados
- Laboratório: Como criar canais de streaming
- Módulo 12: Ingestão de volumes variáveis
- O que é o Cloud Pub/Sub?
- Como funciona: tópicos e assinaturas
- Laboratório: Simulador
- Módulo 13: Implementação de canais de streaming
- Desafios no processamento de streaming
- Processamento de dados atrasados: marcas d’água, acionadores, acumulação
- Laboratório: Canal de processamento de dados de streaming para dados de trânsito em tempo real
- Módulo 14: Painéis e análise de streaming
- Análise de streaming: de dados a decisões
- Consulta a dados de streaming com o BigQuery
- O que é o Google Data Studio?
- Laboratório: Criar um painel em tempo real para visualizar dados processados
- Módulo 15: Alta capacidade e baixa latência com o Bigtable
- O que é o Cloud Spanner?
- Criação de esquemas do Bigtable
- Como processar no Bigtable
- Laboratório: como fazer streaming no Bigtable