Transformación impulsada por los datos con Google Cloud
Modalidad:
En línea, en persona
En Matza Education, cada curso de formación está diseñado para ofrecer conocimientos prácticos y relevantes, conectando teoría y aplicación en escenarios reales. Nuestro objetivo es preparar a los profesionales para los retos del mercado, reforzando las competencias técnicas y estratégicas en diferentes áreas de la tecnología y la gestión.
Al participar en uno de nuestros programas, tendrá acceso a contenidos actualizados, formadores experimentados y una metodología orientada a los resultados. Independientemente del formato -presencial u online-, nuestro objetivo es crear una experiencia de aprendizaje dinámica, accesible y de gran impacto.
Más que un curso, cada programa de formación es una oportunidad de desarrollo profesional y personal, que le ayudará a obtener certificaciones, ampliar sus conocimientos y destacar en un mercado cada vez más competitivo.
Importante: debe confirmar el correo electrónico que recibió tras inscribirse para validar su participación.
- Extraer, cargar, transformar, limpiar y validar datos
- Diseño de canales y arquitecturas para el tratamiento de datos
- Crear y mantener modelos de aprendizaje automático y modelos estadísticos
- Consultar conjuntos de datos, visualizar los resultados de las consultas y crear informes
- Diseño y creación de sistemas de procesamiento de datos en Google Cloud Platform
- Procesamiento de datos por lotes y en flujo, implementación de canales de datos de escalado automático en Cloud Dataflow
- Obtenga información empresarial a partir de grandes conjuntos de datos mediante Google BigQuery
- Entrenar, evaluar y predecir con modelos de aprendizaje automático utilizando TensorFlow y Cloud ML.
- Aproveche los datos no estructurados con las API de Spark y el aprendizaje automático en Dataproc Cloud
- Proporcionar información instantánea a partir de datos en tiempo real
- Haber completado el curso Google Cloud Fundamentals: Big Data & Machine Learning O experiencia equivalente.
- Conocimientos básicos de lenguajes de consulta habituales como SQL
- Experiencia en actividades de modelado, extracción, transformación y carga de datos
- Desarrollo de aplicaciones con un lenguaje de programación común como Python
- Familiaridad con el aprendizaje automático y/o la estadística
4 días - 32 horas lectivas - En directo o en línea
- Módulo 1: Visión general de Google Cloud Dataproc
- Creación y gestión de clústeres
- Uso de tipos de máquina personalizados y nodos de trabajo preventivos
- Programación y exclusión de clusters
- Laboratorio: Cómo crear clusters Hadoop con Google Cloud Dataproc
- Módulo 2: Ejecución de trabajos Dataproc
- Ejecución de trabajos Pig y Hive
- Separación de almacenamiento e informática
- Laboratorio: Cómo ejecutar trabajos Hadoop y Spark con Dataproc
- Laboratorio: Envío y supervisión de trabajos
- Módulo 3: Integración de Dataproc con Google Cloud Platform
- Personalización de los clusters con acciones de puesta en marcha
- Compatibilidad con BigQuery
- Laboratorio: Cómo aprovechar los servicios de Google Cloud Platform
- Módulo 4: Solución para datos no estructurados con las API de aprendizaje automático de Google
- API de aprendizaje automático de Google
- Casos de uso habituales de ML
- Invocación de las API de ML
- Laboratorio: Cómo añadir funciones de aprendizaje automático al análisis de Big Data
- Módulo 5: Análisis de datos sin servidor con BigQuery
- Qué es BigQuery
- Consultas y funciones
- Laboratorio: Cómo escribir consultas en BigQuery
- Carga de datos en BigQuery
- Exportación de datos BigQuery
- Laboratorio: Cómo cargar y exportar datos
- Campos anidados y repetidos
- Consultar varias tablas
- Laboratorio: Consultas complejas
- Prestaciones y precios
- Módulo 6: Autoescalado y canales de datos sin servidor con Dataflow
- El modelo de programación Beam
- Canales de datos en Beam Python
- Canales de datos en Beam Java
- Laboratorio: Cómo escribir un canal Dataflow
- Procesamiento escalable de Big Data con Beam
- Laboratorio: MapReduce en Dataflow
- Incorporación de datos adicionales
- Laboratorio: Insumos secundarios
- Tratamiento de datos en flujo
- Arquitectura de referencia GCP
- Módulo 7: Introducción al aprendizaje automático
- ¿Qué es el aprendizaje automático?
- ML eficaz: conceptos, tipos
- Conjuntos de datos ML: generalización
- Laboratorio: Explorar y crear conjuntos de datos ML
- Módulo 8: Creación de modelos ML con TensorFlow
- Introducción a TensorFlow
- Laboratorio: Cómo utilizar tf.learn
- TensorFlow gráficos y bucles + laboratorio
- Laboratorio: Cómo utilizar TensorFlow de bajo nivel + parada anticipada
- Seguimiento de la formación en ML
- Laboratorio: tablas y gráficos de entrenamiento de TensorFlow
- Módulo 9: Escalado de modelos ML con CloudML
- ¿Por qué utilizar Cloud ML?
- Empaquetar un modelo TensorFlow
- Formación completa
- Laboratorio: Ejecución de un modelo ML localmente y en la nube
- Módulo 10: Ingeniería de atributos
- Crear atributos ideales
- Transformación de entrada
- Atributos sintéticos
- Preprocesamiento con Cloud ML
- Laboratorio: Ingeniería de atributos
- Módulo 11: Arquitectura de los canales de análisis de flujo continuo
- Procesamiento de datos en flujo: retos
- Procesamiento de volúmenes de datos variables
- Tratamiento de datos no ordenados/retrasados
- Laboratorio: Cómo crear canales de streaming
- Módulo 12: Admisión de volumen variable
- ¿Qué es Cloud Pub/Sub?
- Cómo funciona: temas y suscripciones
- Laboratorio: Simulador
- Módulo 13: Implementación de canales de streaming
- Retos del procesamiento de secuencias
- Tratamiento diferido de datos: marcas de agua, activadores, acumulación
- Laboratorio: Canal de tratamiento de datos de tráfico en tiempo real
- Módulo 14: Cuadros de mando y análisis de flujos
- Streaming analytics: de los datos a las decisiones
- Consulta de datos en flujo con BigQuery
- ¿Qué es Google Data Studio?
- Laboratorio: creación de un cuadro de mandos en tiempo real para visualizar los datos procesados
- Módulo 15: Alta capacidad y baja latencia con Bigtable
- ¿Qué es Cloud Spanner?
- Creación de esquemas Bigtable
- Cómo procesar en Bigtable
- Laboratorio: cómo transmitir en Bigtable