Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.
En este curso, se muestra cómo usar modelos de IA/AA para tareas de IA generativa en BigQuery. A través de un caso de uso práctico relacionado con la administración de relaciones con clientes, conocerás el flujo de trabajo para solucionar un problema empresarial con modelos de Gemini. Para facilitar la comprensión, el curso también proporciona orientación paso a paso a través de soluciones de programación utilizando consultas en SQL y notebooks de Python.
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
En este curso, se explora Gemini en BigQuery, un conjunto de funciones potenciadas por IA que se diseñaron para asistir el flujo de trabajo de datos a IA. Estas funciones incluyen la exploración y preparación de datos, la generación de código y la solución de problemas, así como el descubrimiento y la visualización de flujos de trabajo. A través de explicaciones conceptuales, un caso de uso práctico y labs prácticos, en este curso se les enseña a los especialistas en datos a impulsar su productividad y acelerar la canalización de desarrollo.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y las responsabilidades de los ingenieros de datos y cómo estos se corresponden con las ofertas de Google Cloud. También aprenderás sobre los métodos para enfrentar los desafíos de la ingeniería de datos.
In this quest you will use a collection of Google APIs that are all related to language, and speech. You will use the Speech-to-Text API to transcribe an audio file into a text file, the Cloud Translation API to translate from one language to another, the Cloud Translation API to detect what language is being used and translate to a different language, the Natural Language API to classify text and analyze sentiment, and create synthetic speech.
Esta es la primera de las dos Quests de labs prácticos derivada de los ejercicios del libro Data Science on Google Cloud Platform de Valliappa Lakshmanan, editado por O'Reilly Media, Inc. En esta primera Quest, en el capítulo 8, tiene la oportunidad de practicar todos los aspectos de la transferencia, la preparación, el procesamiento, las consultas, la exploración y la visualización de los conjuntos de datos con las herramientas y los servicios de Google Cloud Platform.
Esta es la segunda de dos Quests de labs prácticos que provienen de los ejercicios del libro Data Science on Google Cloud Platform de Valliappa Lakshmanan, publicado por O'Reilly Media, Inc. En esta segunda Quest, que abarca desde el capítulo 9 hasta el final del libro, ampliará las habilidades practicadas en la primera Quest y ejecutará trabajos completos de aprendizaje automático con herramientas de última generación y conjuntos de datos del mundo real, todo mediante el uso de las herramientas y los servicios de Google Cloud Platform.
Completa el curso para obtener la insignia de habilidad intermedia Realiza análisis de datos predictivos en BigQuery para demostrar habilidades en las siguientes tareas: crear conjuntos de datos en BigQuery importando archivos CSV y JSON; aprovechar la potencia de BigQuery con conceptos analíticos sofisticados de SQL, incluido el uso de BigQuery ML para entrenar un modelo de goles esperados con datos de eventos de fútbol y evaluar la espectacularidad de los goles de la Copa Mundial.
In this course you will learn how to use several BigQuery ML features to improve retail use cases. Predict the demand for bike rentals in NYC with demand forecasting, and see how to use BigQuery ML for a classification task that predicts the likelihood of a website visitor making a purchase.
No es ningún secreto que el aprendizaje automático es uno de los campos de mayor crecimiento en tecnología, y Google Cloud Platform desempeñó un papel decisivo como impulsor de su desarrollo. Con una gran cantidad de API, GCP cuenta con una herramienta para casi cualquier trabajo de aprendizaje automático. En esta Quest de nivel avanzado, adquirirá experiencia práctica en las API de aprendizaje automático cuando complete los labs Cómo implementar un chatbot de IA con Dialogflow y Cómo detectar etiquetas, rostros y puntos de referencia en imágenes con la API de Cloud Vision, entre otros.
Los macrodatos, el aprendizaje automático y la Inteligencia Artificial son temas informáticos populares en la actualidad; sin embargo, estos campos son muy especializados y es difícil conseguir material básico. Por suerte, Google Cloud proporciona servicios fáciles de usar en estas áreas y, con este curso de nivel básico, puedes dar tus primeros pasos con herramientas como BigQuery, la API de Cloud Speech y Video Intelligence.
Obtén la insignia de habilidad intermedia Crea modelos de AA con BigQuery ML y demuestra tus habilidades para crear y evaluar modelos de aprendizaje automático con BigQuery ML para realizar predicciones de datos.
¿Quieres compilar modelos de AA en minutos en lugar de horas utilizando únicamente SQL? BigQuery ML democratiza el aprendizaje automático, ya que permite que los analistas de datos creen, entrenen, evalúen y realicen predicciones con modelos de aprendizaje automático a través de herramientas y habilidades de SQL existentes. En esta serie de labs, experimentarás con diferentes tipos de modelos y aprenderás cuáles son las características de un buen modelo.
Obtén la insignia de habilidad intermedia completando el curso Crea e implementa soluciones de aprendizaje automático en Vertex AI, en el que aprenderás a usar la plataforma de Vertex AI de Google Cloud, así como AutoML y los servicios de entrenamiento personalizado para entrenar, evaluar, ajustar y, además, implementar modelos de aprendizaje automático. Este curso con insignia de habilidad está dirigido a ingenieros de aprendizaje automático y científicos de datos profesionales. Una insignia de habilidad es una insignia digital exclusiva otorgada por Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad para aplicar tus conocimientos en un entorno interactivo y práctico. Completa esta insignia de habilidad y el Lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir en tus redes.
Obtén la insignia de habilidad introductoria Preparar datos para paneles de Looker e informes y demuestra tus habilidades para realizar las siguientes tareas: filtrar, ordenar y reorientar datos, combinar resultados de diferentes exploraciones de Looker y usar funciones y operadores para crear informes y paneles de Looker para el análisis y la visualización de datos.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Completa la insignia de habilidad introductoria del curso Obtén estadísticas a partir de datos de BigQuery y demuestra tus habilidades para realizar las siguientes actividades: escribir consultas en SQL, consultar tablas públicas, cargar datos de muestra en BigQuery, solucionar problemas de errores de sintaxis habituales con el validador de consultas en BigQuery y crear informes en Looker Studio con la conexión a datos de BigQuery.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
¿Quiere optimizar o compilar su almacén de datos? Aprenda las prácticas recomendadas para extraer, transformar y cargar sus datos en Google Cloud con BigQuery. En esta serie de labs interactivos, creará y optimizará su almacén de datos con una variedad de conjuntos de datos públicos de BigQuery a gran escala. BigQuery es la base de datos estadísticos de Google de bajo costo, NoOps y completamente administrada. Con BigQuery, puede consultar muchos terabytes de datos sin tener que administrar infraestructuras y sin necesitar un administrador de base de datos. BigQuery usa SQL y puede aprovechar el modelo de prepago. BigQuery le permite enfocarse en el análisis de datos para buscar estadísticas valiosas.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.