Sana Raheel
Miembro desde 2022
Liga de Plata
27095 puntos
Miembro desde 2022
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
En este curso, aprenderás cómo Gemini, un colaborador de Google Cloud potenciado por IA generativa, ayuda a los ingenieros a administrar infraestructuras. Descubrirás cómo darle instrucciones a Gemini para que encuentre y comprenda registros de aplicaciones, investigue cómo crear un entorno de compilación y cree un clúster de GKE. A través de un lab práctico, comprobarás cómo Gemini mejora el flujo de trabajo de DevOps. Recuerda que Duet AI ahora se llama Gemini, nuestro modelo de nueva generación.
En este curso, aprenderás cómo Gemini, un colaborador potenciado por IA generativa de Google Cloud, ayuda a los desarrolladores a compilar aplicaciones. Aprenderás a darle instrucciones a Gemini para que explique códigos, recomiende servicios de Google Cloud y genere código para tus aplicaciones. A través de un lab práctico, comprobarás cómo Gemini mejora el flujo de trabajo de desarrollo de aplicaciones. Recuerda que Duet AI ahora se llama Gemini, nuestro modelo de nueva generación.
Obtén una insignia de habilidad completando el curso Comparte datos con la nube de datos de Google, en el que obtendrás experiencia práctica con socios de intercambio de datos de Google Cloud, que tienen conjuntos de datos propios que los clientes pueden usar para sus casos de uso de análisis. Los clientes se suscriben a estos datos y los consultan en sus propias plataformas, luego los aumentan con sus conjuntos de datos y usan sus herramientas de visualización en sus paneles para clientes.
Obtén una insignia de habilidad completando el curso Transmite análisis a BigQuery, en el que usarás Pub/Sub, Dataflow y BigQuery en conjunto para transmitir datos para análisis.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
Completa la insignia de habilidad introductoria del curso Obtén estadísticas a partir de datos de BigQuery y demuestra tus habilidades para realizar las siguientes actividades: escribir consultas en SQL, consultar tablas públicas, cargar datos de muestra en BigQuery, solucionar problemas de errores de sintaxis habituales con el validador de consultas en BigQuery y crear informes en Looker Studio con la conexión a datos de BigQuery.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.