Unirse Acceder

Bryan Au

Miembro desde 2024

Liga de Diamantes

33975 puntos
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned feb 1, 2024 EST
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned ene 31, 2024 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned ene 24, 2024 EST
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned ene 24, 2024 EST
Crea canalizaciones de datos de transmisión en Google Cloud Earned ene 23, 2024 EST
Crea canalizaciones de datos por lotes en Google Cloud Earned ene 22, 2024 EST
Crea data lakes y almacenes de datos en Google Cloud Earned ene 16, 2024 EST
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned ene 15, 2024 EST
Preparación para el proceso de certificación Professional Data Engineer Earned ene 12, 2024 EST
Aplica conceptos avanzados de LookML en Looker Earned ene 9, 2024 EST
Understanding LookML in Looker Earned ene 9, 2024 EST
Crea objetos de LookML en Looker Earned ene 9, 2024 EST
Preparar datos para paneles de Looker e informes Earned ene 8, 2024 EST
Developing Data Models with LookML Earned ene 8, 2024 EST
Analyzing and Visualizing Data in Looker Earned ene 8, 2024 EST
Introducción al análisis de datos en Google Cloud Earned ene 5, 2024 EST

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información

En este curso, adquirirás experiencia práctica en la aplicación de conceptos avanzados de LookML en Looker. Aprenderás a usar Liquid para personalizar y crear dimensiones y mediciones dinámicas, crear tablas derivadas de SQL dinámicas y tablas derivadas nativas personalizadas, y a utilizar extensiones para modularizar tu código de LookML.

Más información

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

Más información

Completa el curso introductorio para obtener la insignia de habilidad Crea objetos de LookML en Looker y demuestra tus habilidades para realizar las siguientes actividades: crear nuevas dimensiones y mediciones, vistas y tablas derivadas; establecer filtros y tipos de medición según los requisitos; actualizar dimensiones y mediciones; crear y definir mejor las Exploraciones, unir vistas a Exploraciones existentes y decidir qué objetos de LookML crear en función de los requisitos empresariales.

Más información

Obtén la insignia de habilidad introductoria Preparar datos para paneles de Looker e informes y demuestra tus habilidades para realizar las siguientes tareas: filtrar, ordenar y reorientar datos, combinar resultados de diferentes exploraciones de Looker y usar funciones y operadores para crear informes y paneles de Looker para el análisis y la visualización de datos.

Más información

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

Más información

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

Más información

En este curso de nivel principiante, aprenderás sobre el flujo de trabajo de análisis de datos en Google Cloud y las herramientas que puedes utilizar para explorar, analizar y visualizar datos, y compartir tus hallazgos con las partes interesadas. A través de un caso de estudio y labs prácticos, lecciones, cuestionarios y demostraciones, verás cómo limpiar conjuntos de datos sin procesar para generar visualizaciones y paneles más eficaces. Si ya trabajas con datos y quieres saber cómo tener éxito en Google Cloud, o si buscas avanzar en tu profesión, este curso te ayudará. Prácticamente cualquier persona que realice o use análisis de datos en el trabajo puede beneficiarse del curso.

Más información