Unirse Acceder

Ricardo Quibao

Miembro desde 2022

Liga de Plata

13600 puntos
Crea y administra instancias de AlloyDB Earned ago 4, 2023 EDT
Crea y administra instancias de Bigtable Earned jul 28, 2023 EDT
Crea y administra instancias de Cloud SQL para PostgreSQL Earned jul 27, 2023 EDT
Enterprise Database Migration Earned jul 25, 2023 EDT
Migra datos de MySQL a Cloud SQL con Database Migration Service Earned jul 17, 2023 EDT
Crea y administra instancias de Cloud Spanner Earned jul 11, 2023 EDT
Aspectos básicos de Google Cloud: Infraestructura principal Earned jul 6, 2023 EDT
Preparación para el proceso de certificación Professional Data Engineer Earned jun 26, 2023 EDT
Crea un almacén de datos con BigQuery Earned jun 19, 2023 EDT
Building Resilient Streaming Systems on Google Cloud Platform Earned jun 19, 2023 EDT
Developing Data Models with LookML Earned mar 19, 2023 EDT
Analyzing and Visualizing Data in Looker Earned mar 16, 2023 EDT
Aplica conceptos avanzados de LookML en Looker Earned mar 15, 2023 EDT
Understanding LookML in Looker Earned mar 6, 2023 EST
Preparar datos para paneles de Looker e informes Earned mar 6, 2023 EST
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned mar 3, 2023 EST
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned feb 28, 2023 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned oct 4, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned sep 20, 2022 EDT
Crea canalizaciones de datos de transmisión en Google Cloud Earned sep 4, 2022 EDT
Ingeniería de datos para crear modelos predictivos con BigQuery ML Earned ago 21, 2022 EDT
Prepara datos para las APIs de AA en Google Cloud Earned ago 19, 2022 EDT
Implementa Cloud Load Balancing para Compute Engine Earned ago 17, 2022 EDT
Crea canalizaciones de datos por lotes en Google Cloud Earned ago 16, 2022 EDT
Crea data lakes y almacenes de datos en Google Cloud Earned ago 6, 2022 EDT
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned jul 6, 2022 EDT

Completa el curso introductorio con insignia de habilidad Crea y administra instancias de AlloyDB y demuestra tus habilidades para completar las siguientes actividades: realizar operaciones y tareas básicas de AlloyDB, migrar a AlloyDB desde PostgreSQL, administrar una base de datos de AlloyDB y acelerar las consultas analíticas con el motor de columnas de AlloyDB.

Más información

Completa la insignia de habilidad introductoria Crea y administra instancias de Bigtable y demuestra tus habilidades para realizar las siguientes actividades: crear instancias, diseñar esquemas, consultar datos y realizar tareas administrativas en Bigtable, como supervisar el rendimiento y configurar el escalado automático y la replicación de nodos.

Más información

Completa la insignia de habilidad introductoria Crea y administra instancias de Cloud SQL para PostgreSQL y demuestra tus habilidades para migrar, configurar y administrar instancias y bases de datos de Cloud SQL para PostgreSQL.

Más información

This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.

Más información

Completa el curso introductorio con insignia de habilidad Migra datos de MySQL a Cloud SQL con Database Migration Service para demostrar tus habilidades en lo siguiente: migrar datos de MySQL a Cloud SQL usando diferentes tipos de trabajos y opciones de conectividad disponibles en Database Migration Service y migrar datos del usuario de MySQL cuando se ejecutan trabajos de Database Migration Service.

Más información

Completa el curso introductorio con insignia de habilidad Crea y administra instancias de Cloud Spanner y demuestra tus habilidades para realizar las siguientes actividades: crear instancias y bases de datos de Cloud Spanner e interactuar con ellas cargar bases de datos de Cloud Spanner con diversas técnicas crear copias de seguridad de bases de datos de Cloud Spanner, definir esquemas y comprender planes de consulta implementar una app web moderna conectada a una instancia de Cloud Spanner.

Más información

Aspectos básicos de Google Cloud: Infraestructura principal presenta conceptos y terminología importantes para trabajar con Google Cloud. Mediante videos y labs prácticos, en este curso se presentan y comparan muchos de los servicios de procesamiento y almacenamiento de Google Cloud, junto con importantes recursos y herramientas de administración de políticas.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.

Más información

This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.

Más información

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

Más información

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

Más información

En este curso, adquirirás experiencia práctica en la aplicación de conceptos avanzados de LookML en Looker. Aprenderás a usar Liquid para personalizar y crear dimensiones y mediciones dinámicas, crear tablas derivadas de SQL dinámicas y tablas derivadas nativas personalizadas, y a utilizar extensiones para modularizar tu código de LookML.

Más información

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

Más información

Obtén la insignia de habilidad introductoria Preparar datos para paneles de Looker e informes y demuestra tus habilidades para realizar las siguientes tareas: filtrar, ordenar y reorientar datos, combinar resultados de diferentes exploraciones de Looker y usar funciones y operadores para crear informes y paneles de Looker para el análisis y la visualización de datos.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.

Más información

Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.

Más información

Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.

Más información

Completa la insignia de habilidad introductoria Implementa Cloud Load Balancing para Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: crear y, luego, implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y de aplicaciones.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información