Unirse Acceder

Thierno Diallo

Miembro desde 2025

Liga de Oro

13126 puntos
Trabaja con modelos de Gemini en BigQuery Earned abr 9, 2026 EDT
Aumenta la productividad con Gemini en BigQuery Earned feb 13, 2026 EST
Crea una malla de datos con Dataplex Earned feb 3, 2026 EST
Crea un almacén de datos con BigQuery Earned ene 29, 2026 EST
Procesamiento de datos sin servidores con Dataflow: Operaciones Earned ene 27, 2026 EST
Procesamiento de datos sin servidores con Dataflow: Desarrolla canalizaciones Earned ene 8, 2026 EST
Procesamiento de datos sin servidores con Dataflow: Fundamentos Earned ene 7, 2026 EST
Crea canalizaciones de datos de transmisión en Google Cloud Earned ene 7, 2026 EST
Crea canalizaciones de datos por lotes en Google Cloud Earned dic 23, 2025 EST
Crea data lakes y almacenes de datos en Google Cloud Earned dic 8, 2025 EST
Introducción a la ingeniería de datos en Google Cloud Earned dic 3, 2025 EST
IA responsable para desarrolladores: Interpretabilidad y transparencia Earned oct 30, 2025 EDT
IA responsable para desarrolladores: Equidad y sesgos Earned oct 28, 2025 EDT
Búsqueda de vectores y embeddings Earned oct 24, 2025 EDT
Introducción a Vertex AI Studio Earned oct 23, 2025 EDT
Creación de modelos de generación de subtítulos de imágenes Earned oct 23, 2025 EDT
Modelos de transformadores y modelo BERT Earned oct 21, 2025 EDT
Arquitectura de codificador-decodificador Earned oct 21, 2025 EDT
Mecanismo de atención Earned oct 15, 2025 EDT
Introducción a la generación de imágenes Earned oct 15, 2025 EDT
Preparación para el proceso de certificación Professional Data Engineer Earned mar 10, 2025 EDT

En este curso, se muestra cómo usar modelos de IA/AA para tareas de IA generativa en BigQuery. A través de un caso de uso práctico relacionado con la administración de relaciones con clientes, conocerás el flujo de trabajo para solucionar un problema empresarial con modelos de Gemini. Para facilitar la comprensión, el curso también proporciona orientación paso a paso a través de soluciones de programación utilizando consultas en SQL y notebooks de Python.

Más información

En este curso, se explora Gemini en BigQuery, un conjunto de funciones potenciadas por IA que se diseñaron para asistir el flujo de trabajo de datos a IA. Estas funciones incluyen la exploración y preparación de datos, la generación de código y la solución de problemas, así como el descubrimiento y la visualización de flujos de trabajo. A través de explicaciones conceptuales, un caso de uso práctico y labs prácticos, en este curso se les enseña a los especialistas en datos a impulsar su productividad y acelerar la canalización de desarrollo.

Más información

Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.

Más información

Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.

Más información

En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.

Más información

Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.

Más información

En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y las responsabilidades de los ingenieros de datos y cómo estos se corresponden con las ofertas de Google Cloud. También aprenderás sobre los métodos para enfrentar los desafíos de la ingeniería de datos.

Más información

En este curso, se presentan los conceptos de interpretabilidad y transparencia de la IA, así como se menciona la importancia de la transparencia de la IA para los ingenieros y desarrolladores. Se exploran métodos y herramientas funcionales para ayudar a lograr la interpretabilidad y transparencia en los modelos de IA y datos.

Más información

En este curso, se presentan los conceptos de la IA responsable y los principios de la IA. Se abordan técnicas para identificar de forma práctica la equidad y los sesgos, y mitigar los sesgos en las prácticas de IA/AA. Se exploran métodos y herramientas funcionales para implementar prácticas recomendadas de la IA responsable con productos de Google Cloud y herramientas de código abierto.

Más información

En este curso, explorarás tecnologías, herramientas y aplicaciones de búsqueda potenciadas por IA. Aprende sobre las búsquedas semánticas utilizando embeddings de vectores, acerca de las búsquedas híbridas combinando enfoques semánticos y de palabras clave, y sobre la generación mejorada por recuperación (RAG) minimizando las alucinaciones como un agente de IA fundamentado. Adquiere experiencia práctica con Vector Search de Vertex AI para desarrollar tu motor de búsqueda inteligente.

Más información

En este curso, se presenta Vertex AI Studio, una herramienta para interactuar con modelos de IA generativa, crear prototipos de ideas de negocio y llevarlas a producción. A través de un caso de uso envolvente, lecciones atractivas y un lab práctico, explorarás el ciclo de vida desde la instrucción hasta el producto y aprenderás cómo aprovechar Vertex AI Studio para aplicaciones multimodales de Gemini, diseño de instrucciones, ingeniería de instrucciones y ajuste de modelos. El objetivo es permitirte desbloquear el potencial de la IA generativa en tus proyectos con Vertex AI Studio.

Más información

En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.

Más información

En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.

Más información

En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.

Más información

Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.

Más información

En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información