Unirse Acceder

Irvin Keraudren

Miembro desde 2024

Liga de Diamantes

14298 puntos
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned dic 15, 2025 EST
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned oct 2, 2025 EDT
Crea una malla de datos con Dataplex Earned sep 26, 2025 EDT
Crea un almacén de datos con BigQuery Earned sep 26, 2025 EDT
Trabaja con modelos de Gemini en BigQuery Earned sep 26, 2025 EDT
Aumenta la productividad con Gemini en BigQuery Earned sep 24, 2025 EDT
Crea canalizaciones de datos de transmisión en Google Cloud Earned sep 24, 2025 EDT
Crea canalizaciones de datos por lotes en Google Cloud Earned sep 23, 2025 EDT
Crea data lakes y almacenes de datos en Google Cloud Earned sep 16, 2025 EDT
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned may 9, 2025 EDT
Introducción a la ingeniería de datos en Google Cloud Earned nov 20, 2024 EST
Preparación para el proceso de certificación Professional Data Engineer Earned oct 30, 2024 EDT

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.

Más información

En este curso, se muestra cómo usar modelos de IA/AA para tareas de IA generativa en BigQuery. A través de un caso de uso práctico relacionado con la administración de relaciones con clientes, conocerás el flujo de trabajo para solucionar un problema empresarial con modelos de Gemini. Para facilitar la comprensión, el curso también proporciona orientación paso a paso a través de soluciones de programación utilizando consultas en SQL y notebooks de Python.

Más información

En este curso, se explora Gemini en BigQuery, un conjunto de funciones potenciadas por IA que se diseñaron para asistir el flujo de trabajo de datos a IA. Estas funciones incluyen la exploración y preparación de datos, la generación de código y la solución de problemas, así como el descubrimiento y la visualización de flujos de trabajo. A través de explicaciones conceptuales, un caso de uso práctico y labs prácticos, en este curso se les enseña a los especialistas en datos a impulsar su productividad y acelerar la canalización de desarrollo.

Más información

En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y las responsabilidades de los ingenieros de datos y cómo estos se corresponden con las ofertas de Google Cloud. También aprenderás sobre los métodos para enfrentar los desafíos de la ingeniería de datos.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información