En este curso, aprenderá de los ingenieros y capacitadores de AA que trabajan en el desarrollo de vanguardia de las canalizaciones de AA en Google Cloud. En los primeros módulos, se abordará TensorFlow Extended (o TFX), la plataforma de aprendizaje automático de producción de Google basada en TensorFlow para la administración de canalizaciones y metadatos de AA. Aprenderá sobre los componentes y la organización de las canalizaciones con TFX. También aprenderá cómo automatizar su canalización mediante la integración y la implementación continuas, y cómo administrar ML Metadata. Luego, cambiaremos el enfoque para analizar cómo podemos automatizar y volver a usar las canalizaciones de AA en múltiples frameworks de AA, como TensorFlow, PyTorch, scikit-learn y XGBoost. Además, aprenderá a usar Cloud Composer, otra herramienta de Google Cloud, para organizar sus canalizaciones de entrenamiento continuo. Por último, aprenderá a usar MLflow para administrar el ciclo de vida completo del aprend…
En este curso, se aplica un enfoque real en el flujo de trabajo del AA a través de un caso de éxito. Un equipo de AA trabaja con varios requisitos empresariales y casos de uso de AA. El equipo debe comprender las herramientas necesarias para la administración de los datos y considerar el mejor enfoque para su procesamiento previo. Al equipo se le presentan tres opciones con las que puede crear modelos de AA para dos casos de uso. En el curso, se explica por qué el equipo usará AutoML, BigQuery ML o entrenamiento personalizado para lograr sus objetivos.
En este curso, se presentan a los participantes las herramientas y prácticas recomendadas de MLOps para implementar, evaluar, supervisar y operar sistemas de AA de producción en Google Cloud. Las MLOps son una disciplina enfocada en la implementación, prueba, supervisión y automatización de sistemas de AA en producción. Los ingenieros profesionales de aprendizaje automático usan herramientas para mejorar y evaluar continuamente los modelos implementados. Trabajan con científicos de datos (o pueden serlo) que desarrollan modelos para ofrecer velocidad y rigor en la implementación de modelos con el mejor rendimiento.
En este curso, analizaremos los componentes y las prácticas recomendadas de la creación de sistemas de AA de alto rendimiento en entornos de producción. Veremos algunas de las consideraciones más comunes tras la creación de estos sistemas, p. ej., entrenamiento estático, entrenamiento dinámico, inferencia estática, inferencia dinámica, TensorFlow distribuido y TPU. Este curso se enfoca en explorar las características que conforman un buen sistema de AA más allá de su capacidad de realizar predicciones correctas.
En este curso, se exploran los beneficios de utilizar Vertex AI Feature Store, cómo mejorar la exactitud de los modelos de AA y cómo descubrir cuáles columnas de datos producen los atributos más útiles. El curso también incluye contenido y labs sobre la ingeniería de atributos en los que se usan BigQuery ML, Keras y TensorFlow.
En este curso, se explica cómo crear modelos de AA con TensorFlow y Keras, cómo mejorar la exactitud de los modelos de AA y cómo escribir modelos de AA para uso escalado.
El curso comienza con un debate sobre los datos: cómo mejorar su calidad y cómo realizar análisis exploratorios de ellos. Describimos Vertex AI AutoML y cómo crear, entrenar e implementar un modelo de AA sin escribir una sola línea de código. Conocerás los beneficios de BigQuery ML. Luego, se analiza cómo optimizar un modelo de aprendizaje automático (AA) y cómo la generalización y el muestreo pueden ayudar a evaluar la calidad de los modelos de AA para el entrenamiento personalizado.
¿Cuáles son las prácticas recomendadas para implementar el aprendizaje automático en Google Cloud? ¿Qué es Vertex AI y cómo se puede utilizar la plataforma para crear, entrenar e implementar rápidamente modelos de aprendizaje automático de AutoML sin escribir una sola línea de código? ¿Qué es el aprendizaje automático? ¿Qué tipos de problemas puede solucionar? Google considera que el aprendizaje automático es diferente: se trata de proporcionar una plataforma unificada para conjuntos de datos administrados, un almacén de atributos, una forma de crear, entrenar e implementar modelos de aprendizaje automático sin escribir una sola línea de código, así como proporcionar la capacidad de etiquetar datos y crear notebooks de Workbench utilizando frameworks como TensorFlow, SciKit-learn, Pytorch, R y otros. Vertex AI Platform también ofrece la posibilidad de entrenar modelos personalizados, crear canalizaciones de componentes y realizar predicciones en línea y por lotes. Además, analiza…
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
En este curso, se presenta Vertex AI Studio, una herramienta para interactuar con modelos de IA generativa, crear prototipos de ideas de negocio y llevarlas a producción. A través de un caso de uso envolvente, lecciones atractivas y un lab práctico, explorarás el ciclo de vida desde la instrucción hasta el producto y aprenderás cómo aprovechar Vertex AI Studio para aplicaciones multimodales de Gemini, diseño de instrucciones, ingeniería de instrucciones y ajuste de modelos. El objetivo es permitirte desbloquear el potencial de la IA generativa en tus proyectos con Vertex AI Studio.
Completa los cursos Introduction to Generative AI, Introduction to Large Language Models e Introduction to Responsible AI para obtener una insignia de habilidad. Aprueba el cuestionario final para demostrar que entiendes los conceptos básicos sobre la IA generativa. Una insignia de habilidad es una insignia digital que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma. Para compartir tu insignia de habilidad, establece tu perfil como público y agrega la insignia a tu perfil de redes sociales.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA responsable, por qué es importante y cómo la implementa Google en sus productos. También se presentan los 7 principios de la IA de Google.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
En este curso, se te enseña a crear un modelo de generación de leyendas de imágenes con el aprendizaje profundo. Aprenderás sobre los distintos componentes de los modelos de generación de leyendas de imágenes, como el codificador y el decodificador, y cómo entrenar y evaluar tu modelo. Al final del curso, podrás crear tus propios modelos y usarlos para generar leyendas de imágenes.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
Este es un curso introductorio de microaprendizaje en el que se explora qué son los modelos de lenguaje grandes (LLM), sus casos de uso y cómo se puede utilizar el ajuste de instrucciones para mejorar el rendimiento de los LLM. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.
Este es un curso introductorio de microaprendizaje destinado a explicar qué es la IA generativa, cómo se utiliza y en qué se diferencia de los métodos de aprendizaje automático tradicionales. También abarca las herramientas de Google para ayudarte a desarrollar tus propias aplicaciones de IA generativa.