Unirse Acceder

Modupe Ajala

Miembro desde 2023

Liga de Plata

37866 puntos
Build intelligent agents with Agent Development Kit (ADK) Earned mar 25, 2026 EDT
Introducción a la ingeniería de datos en Google Cloud Earned dic 26, 2025 EST
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned dic 16, 2025 EST
Crea data lakes y almacenes de datos en Google Cloud Earned nov 25, 2025 EST
Operaciones de aprendizaje automático (MLOps): Primeros pasos Earned nov 18, 2025 EST
Operaciones de aprendizaje automático (MLOps) para la IA generativa Earned oct 23, 2025 EDT
Crea embeddings, búsqueda de vectores y RAG con BigQuery Earned feb 10, 2025 EST
Trabaja con modelos de Gemini en BigQuery Earned ene 30, 2025 EST
Aumenta la productividad con Gemini en BigQuery Earned ene 27, 2025 EST
Crea un almacén de datos con BigQuery Earned ene 24, 2025 EST
Aspectos básicos de Google Cloud: Infraestructura principal Earned ene 14, 2025 EST
[CEPF L300 Course]: Data Analytics Earned sep 25, 2024 EDT
Understanding LookML in Looker Earned sep 2, 2024 EDT
Introducción a la generación de imágenes Earned abr 22, 2024 EDT
Analyzing and Visualizing Data in Looker Earned ene 3, 2024 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned dic 4, 2023 EST
Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned dic 3, 2023 EST
Google Cloud Big Data and Machine Learning Fundamentals - Español Earned nov 27, 2023 EST
Building Resilient Streaming Analytics Systems on Google Cloud - Español Earned nov 24, 2023 EST
Crea canalizaciones de datos por lotes en Google Cloud Earned nov 13, 2023 EST

This structured course is for developers interested in building intelligent agents using the Agent Development Kit (ADK). It combines hands-on experience, core concepts, and practical application, to provide a comprehensive guide to using ADK. You can also join our community of Google Cloud experts and peers to ask questions, collaborate on answers, and connect with the Googlers making the products you use every day.

Más información

En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y las responsabilidades de los ingenieros de datos y cómo estos se corresponden con las ofertas de Google Cloud. También aprenderás sobre los métodos para enfrentar los desafíos de la ingeniería de datos.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

En este curso, se presentan a los participantes las herramientas y prácticas recomendadas de MLOps para implementar, evaluar, supervisar y operar sistemas de AA de producción en Google Cloud. Las MLOps son una disciplina enfocada en la implementación, prueba, supervisión y automatización de sistemas de AA en producción. Los ingenieros profesionales de aprendizaje automático usan herramientas para mejorar y evaluar continuamente los modelos implementados. Trabajan con científicos de datos (o pueden serlo) que desarrollan modelos para ofrecer velocidad y rigor en la implementación de modelos con el mejor rendimiento.

Más información

El objetivo de este curso es equiparte con los conocimientos y las herramientas que necesitas para descubrir los desafíos únicos que enfrentan los equipos de MLOps cuando implementan y administran modelos de IA generativa, y explorar cómo Vertex AI fortalece a los equipos de IA para optimizar los procesos de MLOps y alcanzar el éxito en los proyectos de IA generativa.

Más información

En este curso, se explora una solución de generación mejorada por recuperación (RAG) de BigQuery para mitigar las alucinaciones de la IA. Se presenta un flujo de trabajo de RAG que abarca la creación de embeddings, la búsqueda en un espacio vectorial y la generación de respuestas mejoradas. En el curso, se explican los motivos conceptuales de estos pasos y su implementación práctica con BigQuery. Al final del curso, los alumnos podrán crear una canalización de RAG utilizando BigQuery y modelos de IA generativa como Gemini y modelos de embedding para abordar sus propios casos de uso de alucinaciones de IA.

Más información

En este curso, se muestra cómo usar modelos de IA/AA para tareas de IA generativa en BigQuery. A través de un caso de uso práctico relacionado con la administración de relaciones con clientes, conocerás el flujo de trabajo para solucionar un problema empresarial con modelos de Gemini. Para facilitar la comprensión, el curso también proporciona orientación paso a paso a través de soluciones de programación utilizando consultas en SQL y notebooks de Python.

Más información

En este curso, se explora Gemini en BigQuery, un conjunto de funciones potenciadas por IA que se diseñaron para asistir el flujo de trabajo de datos a IA. Estas funciones incluyen la exploración y preparación de datos, la generación de código y la solución de problemas, así como el descubrimiento y la visualización de flujos de trabajo. A través de explicaciones conceptuales, un caso de uso práctico y labs prácticos, en este curso se les enseña a los especialistas en datos a impulsar su productividad y acelerar la canalización de desarrollo.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.

Más información

Aspectos básicos de Google Cloud: Infraestructura principal presenta conceptos y terminología importantes para trabajar con Google Cloud. Mediante videos y labs prácticos, en este curso se presentan y comparan muchos de los servicios de procesamiento y almacenamiento de Google Cloud, junto con importantes recursos y herramientas de administración de políticas.

Más información

This Data Analytics course consists of a series of advanced-level labs designed to validate your proficiency in using Google Cloud services. Each lab presents a set of the required tasks that you must complete with minimal assistance. The labs in this course have replaced the previous L300 Data Analytics Challenge Lab. If you have already completed the Challenge Lab as part of your L300 accreditation requirement, it will be carried over and count towards your L300 status. You must score 80% or higher for each lab to complete this course, and fulfill your CEPF L300 Data Analytics requirement. For technical issues with a Challenge Lab, please raise a Buganizer ticket using this CEPF Buganizer template: go/cepfl300labsupport

Más información

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

Más información

En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.

Más información

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Cloud Bigtable para analizarlos. Los estudiantes obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con Qwiklabs.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información