En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
En este curso de nivel principiante, aprenderás sobre el flujo de trabajo de análisis de datos en Google Cloud y las herramientas que puedes utilizar para explorar, analizar y visualizar datos, y compartir tus hallazgos con las partes interesadas. A través de un caso de estudio y labs prácticos, lecciones, cuestionarios y demostraciones, verás cómo limpiar conjuntos de datos sin procesar para generar visualizaciones y paneles más eficaces. Si ya trabajas con datos y quieres saber cómo tener éxito en Google Cloud, o si buscas avanzar en tu profesión, este curso te ayudará. Prácticamente cualquier persona que realice o use análisis de datos en el trabajo puede beneficiarse del curso.
Completa el curso con insignia de habilidad introductoria Crea una malla de datos con Dataplex y demuestra tus habilidades para crear una malla de datos con Dataplex y facilitar la seguridad, la administración y el descubrimiento de datos en Google Cloud. Practicarás y pondrás a prueba tus habilidades para etiquetar recursos, asignar roles de IAM y evaluar la calidad de los datos en Dataplex.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Enterprise data sharing made easy with Dataplex and Analytics Hub Learn how to share data securely in your lakehouse with minimized data duplication and more data governance through Dataplex and Analytics Hub - enterprise data management made easy. Creating Data Pipelines with Data Fusion In this session, we will explore using Data Fusion to create code-free point and click pipelines that can ETL high-volumes of data with support for popular data sources, including file systems and object stores, relational and NoSQL databases, and SaaS systems.
El tercer curso de esta serie es Achieving Advanced Insights with BigQuery. En este curso, aumentarás tu conocimiento de SQL a medida que profundizamos en funciones avanzadas y cómo desglosar una consulta compleja en pasos más sencillos. Abordaremos la arquitectura interna de BigQuery (almacenamiento fragmentado basado en columnas) y temas avanzados de SQL, como los campos anidados y repetidos a través del uso de arrays y structs. Finalmente, profundizaremos en la optimización de tus consultas para mejorar el rendimiento y cómo puedes proteger tus datos con vistas autorizadas. Después de completar este curso, inscríbete en el curso Applying Machine Learning to your Data with Google Cloud.
Este curso abarca los aspectos fundamentales de BigQuery para profesionales que están familiarizados con los almacenes de datos en la nube basados en SQL en Redshift y quieren comenzar a trabajar en BigQuery. A través de contenido interactivo de las lecciones y labs prácticos, aprenderás a aprovisionar recursos, crear y compartir recursos de datos, transferir datos y optimizar el rendimiento de las consultas en BigQuery. Aprovecharás tu conocimiento de Redshift para conocer las similitudes y diferencias entre Redshift y BigQuery para que comiences a usar almacenes de datos en BigQuery.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Procesamiento de datos sin servidores con Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
Obtén la insignia de habilidad intermedia Ingeniería de datos para crear modelos predictivos con BigQuery ML y demuestra tus capacidades para crear canalizaciones de transformación de datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL), y crear modelos de aprendizaje automático con BigQuery ML.
Completa la insignia de habilidad intermedia Crea un almacén de datos con BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery.
Completa la insignia de habilidad introductoria Prepara datos para las APIs de AA en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence.
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
En este curso, adquirirás experiencia práctica para superar los desafíos del mundo real que se presentan cuando se crean canalizaciones de datos de transmisión. El enfoque principal es administrar datos continuos y no delimitados con los productos de Google Cloud.
En este curso intermedio, aprenderás a diseñar, crear y optimizar canalizaciones de datos por lotes sólidas en Google Cloud. Más allá del manejo de datos fundamental, explorarás las transformaciones de datos a gran escala y la organización eficiente de flujos de trabajo, lo que es primordial para la inteligencia empresarial oportuna y los informes esenciales. Obtén experiencia práctica con Dataflow para Apache Beam y Serverless for Apache Spark (Dataproc Serverless) para la implementación, y aborda consideraciones cruciales respecto de la calidad de los datos, la supervisión y las alertas para garantizar la confiabilidad de la canalización y la excelencia operativa. Se recomienda tener conocimientos básicos sobre almacenamiento de datos, ETL/ELT, SQL, Python y conceptos de Google Cloud.
Completa el curso Configura una red de Google Cloud para obtener una insignia de habilidad. En el curso aprenderás a realizar tareas básicas de redes en Google Cloud, como crear una red personalizada, agregar reglas de firewall de subredes y, luego, crear VMs y probar la latencia cuando se comunican entre sí.
Si bien los enfoques tradicionales de usar data lakes y almacenes de datos pueden ser eficaces, tienen deficiencias, en particular en entornos empresariales grandes. En este curso, se presenta el concepto del data lakehouse y los productos de Google Cloud que se usan para crear uno. Una arquitectura de lakehouse usa fuentes de datos de estándares abiertos y combina las mejores funciones de los data lakes y los almacenes de datos, lo que aborda muchas de sus deficiencias.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.
Este curso ayuda a los participantes a crear un plan de estudios para el examen de certificación de PCA (Professional Cloud Architect). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Te damos la bienvenida al curso Introducción a Google Kubernetes Engine. Si te interesa Kubernetes, una capa de software ubicada entre tus aplicaciones y la infraestructura de tu hardware, estás en el lugar correcto. Google Kubernetes Engine te ofrece Kubernetes como un servicio administrado en Google Cloud. El objetivo de este curso es presentar los conceptos básicos de Google Kubernetes Engine o GKE, como se conoce comúnmente, y cómo alojar aplicaciones en contenedores y ejecutarlas en Google Cloud. El curso comienza con una introducción básica a Google Cloud, seguida de una descripción general de los contenedores y Kubernetes, la arquitectura de Kubernetes y las operaciones de esta plataforma.
En este curso, los estudiantes aprenderán a crear soluciones altamente confiables y eficientes en Google Cloud usando patrones de diseño comprobados. Es la continuación de los cursos Diseño de arquitecturas con Google Compute Engine o Diseño de arquitecturas con Google Kubernetes Engine. Se presupone que los equipos tienen experiencia práctica con las tecnologías que se abordan en cualquiera de esos cursos. A través de una serie de presentaciones, actividades de diseño y labs prácticos, los participantes aprenderán a definir y equilibrar los requisitos comerciales y técnicos para diseñar implementaciones de Google Cloud altamente confiables y disponibles, así como seguras y rentables.
En este curso acelerado a pedido, se presentan los servicios flexibles y completos de infraestructura y plataforma que proporciona Google Cloud, con un enfoque en Compute Engine. Mediante una serie de clases por video, demostraciones y labs prácticos, los participantes pueden explorar y, también, implementar elementos de soluciones, incluidos componentes de infraestructura, como redes, sistemas y servicios de aplicaciones. En este curso, también se aborda la implementación de soluciones prácticas, incluidas las claves de encriptación proporcionadas por el cliente, la administración de seguridad y accesos, las cuotas y la facturación, y la supervisión de recursos.
En este curso acelerado on demand, se presentan los servicios flexibles y completos de infraestructura y plataforma que proporciona Google Cloud, con un enfoque en Compute Engine. Mediante una serie de clases por video, demostraciones y labs prácticos, los participantes pueden explorar y, también, implementar elementos de soluciones, incluidos componentes de infraestructura, como redes, máquinas virtuales y servicios de aplicaciones. Aprenderás a usar Google Cloud mediante la consola y Cloud Shell. También te familiarizarás con la función de un arquitecto de nube, enfoques para el diseño de la infraestructura y la configuración de redes virtuales con una nube privada virtual (VPC), proyectos, redes, subredes, direcciones IP, rutas y reglas de firewall.
Aspectos básicos de Google Cloud: Infraestructura principal presenta conceptos y terminología importantes para trabajar con Google Cloud. Mediante videos y labs prácticos, en este curso se presentan y comparan muchos de los servicios de procesamiento y almacenamiento de Google Cloud, junto con importantes recursos y herramientas de administración de políticas.
This course offers hands-on practice with migrating MySQL data to Cloud SQL using Database Migration Service. You start with an introductory lab that briefly reviews how to get started with Cloud SQL for MySQL, including how to connect to Cloud SQL instances using the Cloud Console. Then, you continue with two labs focused on migrating MySQL databases to Cloud SQL using different job types and connectivity options available in Database Migration Service. The course ends with a lab on migrating MySQL user data when running Database Migration Service jobs.
Completa la insignia de habilidad intermedia Crea una infraestructura con Terraform en Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: aplicar los principios de la infraestructura como código (IaC) con Terraform; aprovisionar y administrar recursos de Google Cloud con parámetros de configuración de Terraform; realizar una administración de estado eficaz (local y remota) y modularizar el código de Terraform para la reutilización y la organización.
Obtén una insignia de habilidad completando el curso Desarrolla tu red de Google Cloud, en el que conocerás múltiples formas de implementar y supervisar aplicaciones, incluidos cómo explorar roles de IAM y agregar o quitar el acceso a los proyectos, crear redes de VPC, implementar y supervisar VMs de Compute Engine, escribir consultas en SQL, implementar y supervisar VMs en Compute Engine y, además, implementar aplicaciones a través de Kubernetes con múltiples enfoques de implementación.
En este curso, se presentan las funciones de IA y aprendizaje automático (AA) de Google Cloud, con un enfoque en el desarrollo de proyectos de IA generativa y predictiva. Se exploran las diversas tecnologías, productos y herramientas disponibles durante el ciclo de vida desde los datos hasta la IA, y se trabaja con ejercicios interactivos para que los científicos de datos, ingenieros de AA y desarrolladores de IA puedan enriquecer su experiencia.
Para ganar una insignia de habilidad, completa el curso Configura un entorno de desarrollo de apps en Google Cloud. Allí aprenderás a crear y conectar una infraestructura de nube centrada en el almacenamiento usando las capacidades básicas de las siguientes tecnologías: Cloud Storage, Identity and Access Management, Cloud Functions y Pub/Sub.
Completa la insignia de habilidad introductoria Implementa Cloud Load Balancing para Compute Engine y demuestra tus habilidades para realizar las siguientes actividades: crear y, luego, implementar máquinas virtuales en Compute Engine, y configurar balanceadores de cargas de red y de aplicaciones.
En este curso de nivel introductorio, obtendrás práctica con las herramientas y servicios básicos de Google Cloud. Se proporcionan videos opcionales para brindar más contexto y un repaso de los conceptos tratados en los labs. Conceptos básicos de Google Cloud es un primer curso recomendado para los estudiantes de la plataforma: puedes empezar con pocos o ningún conocimiento previo de la nube y terminar con experiencia práctica que podrás aplicar a tu primer proyecto en Google Cloud. Desde la escritura de comandos en Cloud Shell y la implementación de tu primera máquina virtual, hasta la ejecución de apps en Kubernetes Engine o con balanceo de cargas, Conceptos básicos de Google Cloud es la introducción ideal a las características básicas de la plataforma.