This structured course is for developers interested in building intelligent agents using the Agent Development Kit (ADK). It combines hands-on experience, core concepts, and practical application, to provide a comprehensive guide to using ADK. You can also join our community of Google Cloud experts and peers to ask questions, collaborate on answers, and connect with the Googlers making the products you use every day.
En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y las responsabilidades de los ingenieros de datos y cómo estos se corresponden con las ofertas de Google Cloud. También aprenderás sobre los métodos para enfrentar los desafíos de la ingeniería de datos.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.
En este curso, se presentan a los participantes las herramientas y prácticas recomendadas de MLOps para implementar, evaluar, supervisar y operar sistemas de AA de producción en Google Cloud. Las MLOps son una disciplina enfocada en la implementación, prueba, supervisión y automatización de sistemas de AA en producción. Los ingenieros profesionales de aprendizaje automático usan herramientas para mejorar y evaluar continuamente los modelos implementados. Trabajan con científicos de datos (o pueden serlo) que desarrollan modelos para ofrecer velocidad y rigor en la implementación de modelos con el mejor rendimiento.
El objetivo de este curso es equiparte con los conocimientos y las herramientas que necesitas para descubrir los desafíos únicos que enfrentan los equipos de MLOps cuando implementan y administran modelos de IA generativa, y explorar cómo Vertex AI fortalece a los equipos de IA para optimizar los procesos de MLOps y alcanzar el éxito en los proyectos de IA generativa.
En este curso, se explora una solución de generación mejorada por recuperación (RAG) de BigQuery para mitigar las alucinaciones de la IA. Se presenta un flujo de trabajo de RAG que abarca la creación de embeddings, la búsqueda en un espacio vectorial y la generación de respuestas mejoradas. En el curso, se explican los motivos conceptuales de estos pasos y su implementación práctica con BigQuery. Al final del curso, los alumnos podrán crear una canalización de RAG utilizando BigQuery y modelos de IA generativa como Gemini y modelos de embedding para abordar sus propios casos de uso de alucinaciones de IA.
En este curso, se muestra cómo usar modelos de IA/AA para tareas de IA generativa en BigQuery. A través de un caso de uso práctico relacionado con la administración de relaciones con clientes, conocerás el flujo de trabajo para solucionar un problema empresarial con modelos de Gemini. Para facilitar la comprensión, el curso también proporciona orientación paso a paso a través de soluciones de programación utilizando consultas en SQL y notebooks de Python.
En este curso, se explora Gemini en BigQuery, un conjunto de funciones potenciadas por IA que se diseñaron para asistir el flujo de trabajo de datos a IA. Estas funciones incluyen la exploración y preparación de datos, la generación de código y la solución de problemas, así como el descubrimiento y la visualización de flujos de trabajo. A través de explicaciones conceptuales, un caso de uso práctico y labs prácticos, en este curso se les enseña a los especialistas en datos a impulsar su productividad y acelerar la canalización de desarrollo.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
Aspectos básicos de Google Cloud: Infraestructura principal presenta conceptos y terminología importantes para trabajar con Google Cloud. Mediante videos y labs prácticos, en este curso se presentan y comparan muchos de los servicios de procesamiento y almacenamiento de Google Cloud, junto con importantes recursos y herramientas de administración de políticas.
This Data Analytics course consists of a series of advanced-level labs designed to validate your proficiency in using Google Cloud services. Each lab presents a set of the required tasks that you must complete with minimal assistance. The labs in this course have replaced the previous L300 Data Analytics Challenge Lab. If you have already completed the Challenge Lab as part of your L300 accreditation requirement, it will be carried over and count towards your L300 status. You must score 80% or higher for each lab to complete this course, and fulfill your CEPF L300 Data Analytics requirement. For technical issues with a Challenge Lab, please raise a Buganizer ticket using this CEPF Buganizer template: go/cepfl300labsupport
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Cloud Bigtable para analizarlos. Los estudiantes obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con Qwiklabs.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.