Siddhi Shitole
Membro dal giorno 2022
Membro dal giorno 2022
This course discusses how environments are managed in Apigee hybrid, and how runtime plane components are secured. You will also learn how to deploy and debug API proxies in Apigee hybrid, and about capacity planning and scaling.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course demonstrates how to use AI/ML models for generative AI tasks in BigQuery. Through a practical use case involving customer relationship management, you learn the workflow of solving a business problem with Gemini models. To facilitate comprehension, the course also provides step-by-step guidance through coding solutions using both SQL queries and Python notebooks.
This course explores Gemini in BigQuery, a suite of AI-driven features to assist data-to-AI workflow. These features include data exploration and preparation, code generation and troubleshooting, and workflow discovery and visualization. Through conceptual explanations, a practical use case, and hands-on labs, the course empowers data practitioners to boost their productivity and expedite the development pipeline.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
Completa il corso introduttivo con badge delle competenze Crea un mesh di dati con Dataplex per dimostrare le tue competenze nei seguenti ambiti: creare un mesh di dati con Dataplex per facilitare governance, discovery e sicurezza dei dati su Google Cloud. Ti eserciterai e metterai alla prova le tue competenze nel tagging degli asset, nell'assegnazione di ruoli IAM e nella valutazione della qualità dei dati in Dataplex.
L'integrazione del machine learning nelle pipeline di dati aumenta la capacità di estrarre insight dai dati. Questo corso illustra i modi in cui il machine learning può essere incluso nelle pipeline di dati su Google Cloud. Per una personalizzazione minima o nulla, il corso tratta di AutoML. Per funzionalità di machine learning più personalizzate, il corso introduce Notebooks e BigQuery Machine Learning (BigQuery ML). Inoltre, il corso spiega come mettere in produzione soluzioni di machine learning utilizzando Vertex AI.
In this course, you learn about data engineering on Google Cloud, the roles and responsibilities of data engineers, and how those map to offerings provided by Google Cloud. You also learn about ways to address data engineering challenges.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
L'elaborazione dei flussi di dati sta diventando sempre più diffusa poiché la modalità flusso consente alle aziende di ottenere parametri in tempo reale sulle operazioni aziendali. Questo corso tratta la creazione di pipeline di dati in modalità flusso su Google Cloud. Pub/Sub viene presentato come strumento per la gestione dei flussi di dati in entrata. Il corso spiega anche come applicare aggregazioni e trasformazioni ai flussi di dati utilizzando Dataflow e come archiviare i record elaborati in BigQuery o Bigtable per l'analisi. Gli studenti acquisiranno esperienza pratica nella creazione di componenti della pipeline di dati in modalità flusso su Google Cloud utilizzando QwikLabs.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Questo corso presenta le offerte di intelligenza artificiale (AI) e machine learning (ML) su Google Cloud per la creazione di progetti di AI predittiva e generativa. Esplora le tecnologie, i prodotti e gli strumenti disponibili durante tutto il ciclo di vita data-to-AI, includendo le basi, lo sviluppo e le soluzioni di AI. Ha lo scopo di aiutare data scientist, sviluppatori di AI e ML engineer a migliorare le proprie abilità e conoscenze attraverso attività di apprendimento coinvolgenti ed esercizi pratici.
Complete the intermediate Build a Data Warehouse with BigQuery skill badge course to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
Dal momento che l'uso dell'intelligenza artificiale e del machine learning nelle aziende continua a crescere, cresce anche l'importanza di realizzarli in modo responsabile. Molti sono scoraggiati dal fatto che parlare di IA responsabile può essere più facile che metterla in pratica. Se vuoi imparare come operativizzare l'IA responsabile nella tua organizzazione, questo corso fa per te. In questo corso scoprirai come Google Cloud ci riesce attualmente, oltre alle best practice e alle lezioni apprese, per fungere da framework per costruire il tuo approccio all'IA responsabile.
Questo corso illustra Generative AI Studio, un prodotto su Vertex AI che ti aiuta a prototipare e personalizzare i modelli di AI generativa in modo da poterne utilizzare le capacità nelle tue applicazioni. In questo corso imparerai cos'è Generative AI Studio, le sue funzionalità e opzioni e come utilizzarlo, esaminando le demo del prodotto. Alla fine, troverai un laboratorio pratico per mettere in pratica ciò che hai imparato e un quiz per testare le tue conoscenze.
Questo corso ti insegna come creare un modello per le didascalie delle immagini utilizzando il deep learning. Scoprirai i diversi componenti di un modello per le didascalie delle immagini, come l'encoder e il decoder, e imparerai ad addestrare e valutare il tuo modello. Alla fine di questo corso, sarai in grado di creare modelli personali per le didascalie delle immagini e utilizzarli per generare didascalie per le immagini.
Questo corso ti introduce all'architettura Transformer e al modello BERT (Bidirectional Encoder Representations from Transformers). Scopri i componenti principali dell'architettura Transformer, come il meccanismo di auto-attenzione, e come viene utilizzata per creare il modello BERT. Imparerai anche le diverse attività per le quali può essere utilizzato il modello BERT, come la classificazione del testo, la risposta alle domande e l'inferenza del linguaggio naturale. Si stima che il completamento di questo corso richieda circa 45 minuti.
Questo corso ti offre un riepilogo dell'architettura encoder-decoder, che è un'architettura di machine learning potente e diffusa per attività da sequenza a sequenza come traduzione automatica, riassunto del testo e risposta alle domande. Apprenderai i componenti principali dell'architettura encoder-decoder e come addestrare e fornire questi modelli. Nella procedura dettagliata del lab corrispondente, implementerai in TensorFlow dall'inizio un semplice codice dell'architettura encoder-decoder per la generazione di poesie da zero.
Questo corso ti introdurrà al meccanismo di attenzione, una potente tecnica che consente alle reti neurali di concentrarsi su parti specifiche di una sequenza di input. Imparerai come funziona l'attenzione e come può essere utilizzata per migliorare le prestazioni di molte attività di machine learning, come la traduzione automatica, il compendio di testi e la risposta alle domande.
Questo corso introduce i modelli di diffusione, una famiglia di modelli di machine learning che recentemente si sono dimostrati promettenti nello spazio di generazione delle immagini. I modelli di diffusione traggono ispirazione dalla fisica, in particolare dalla termodinamica. Negli ultimi anni, i modelli di diffusione sono diventati popolari sia nella ricerca che nella produzione. I modelli di diffusione sono alla base di molti modelli e strumenti di generazione di immagini all'avanguardia su Google Cloud. Questo corso ti introduce alla teoria alla base dei modelli di diffusione e a come addestrarli ed eseguirne il deployment su Vertex AI.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Questo è un corso di microlearning di livello introduttivo che esplora cosa sono i modelli linguistici di grandi dimensioni (LLM), i casi d'uso in cui possono essere utilizzati e come è possibile utilizzare l'ottimizzazione dei prompt per migliorare le prestazioni dei modelli LLM. Descrive inoltre gli strumenti Google per aiutarti a sviluppare le tue app Gen AI.
Questo è un corso di microlearning di livello introduttivo volto a spiegare cos'è l'AI generativa, come viene utilizzata e in che modo differisce dai tradizionali metodi di machine learning. Descrive inoltre gli strumenti Google che possono aiutarti a sviluppare le tue app Gen AI.
Questo è un corso di microlearning di livello introduttivo volto a spiegare cos'è l'IA responsabile, perché è importante e in che modo Google implementa l'IA responsabile nei propri prodotti. Introduce anche i 7 principi dell'IA di Google.
Earn a skill badge by completing the Cloud Architecture: Design, Implement, and Manage to demonstrate skills in the following: deploy a publicly accessible website using Apache web servers, configure a Compute Engine VM using startup scripts, configure secure RDP using a Windows Bastion host and firewall rules, build and deploy a Docker image to a Kubernetes cluster and then update it, and create a CloudSQL instance and import a MySQL database. This skill badge is a great resource for understanding topics that will appear in the Google Cloud Certified Professional Cloud Architect certification exam.
Completa il badge delle competenze di livello intermedio Ottimizza i costi per Google Kubernetes Engine per dimostrare le tue competenze nei seguenti ambiti: creazione e gestione di cluster multi-tenant, monitoraggio dell'utilizzo delle risorse per spazio dei nomi, configurazione della scalabilità automatica di cluster e pod per l'efficienza, impostazione del bilanciamento del carico per la distribuzione ottimale delle risorse e implementazione di probe di attività e idoneità per garantire l'integrità e la convenienza economica dell'applicazione.
Earn a skill badge by completing the Set Up a Google Cloud Network skill badge course, where you will learn how to perform basic networking tasks on Google Cloud Platform - create a custom network, add subnets firewall rules, then create VMs and test the latency when they communicate with each other.
Ottieni il corso intermedio con badge delle competenze Prepara i dati per le API ML su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: pulizia dei dati con Dataprep di Trifacta, esecuzione delle pipeline di dati in Dataflow, creazione dei cluster ed esecuzione dei job Apache Spark in Dataproc e richiamo delle API ML tra cui l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text e l'API Video Intelligence.
This course introduces you to the fundamentals and advanced practices applicable to the installation and management of Google Cloud's Apigee API Platform for private cloud. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, install, secure, manage, and scale Apigee API Platform. This is the first course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud series. After completing this course, enroll in the On Premises Management, Security, and Upgrade with Google Cloud's Apigee API Platform course.
Earn a skill badge by completing the Deploy and Manage Apigee X skill badge course, where you learn about the Apigee X architecture, how to provision an Apigee X organization within a Google Cloud project, the management of Apigee X using the Apigee API and UI, and the use of Cloud Armor and Apigee threat protection policies to protect your APIs.
Learn how to upgrade capacity for the Apigee for private cloud platform installation, and how to monitor the platform. This is the third and final course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud series.
This course discusses the management and operation of the Apigee platform for private cloud. It includes topics on operational practices, API deployment, analytics, security and upgrade of the platform. This is the second course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud course series. After completing this course, enroll in the On Premises Capacity Upgrade and Monitoring with Google Cloud's Apigee API Platform course.
This course introduces you to the fundamentals and practices used to install and manage Google Cloud's Apigee API Platform for hybrid cloud. Through a combination of lectures, a hands-on lab, and supplemental materials, you will learn how to install and operate the Apigee API Platform.
In this course, you learn how to create APIs that utilize multiple services and how you can use custom code on Apigee. You will also learn about fault handling, and how to share logic between proxies. You learn about traffic management and caching. You also create a developer portal, and publish your API to the portal. You learn about logging and analytics, as well as CI/CD and the different deployment models supported by Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform.This is the third and final course of the Developing APIs with Google Cloud's Apigee API Platform course series.
In this course, you learn how to secure your APIs. You explore the security concerns you will encounter for your APIs. You learn about OAuth, the primary authorization method for REST APIs. You will learn about JSON Web Tokens (JWTs) and federated security. You also learn about securing against malicious requests, safely sending requests across a public network, and how to secure your data for users of Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the second course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Development on Google Cloud's Apigee API Platform course.
In this course, you learn how to design APIs, and how to use OpenAPI specifications to document them. You learn about the API life cycle, and how the Apigee API platform helps you manage all aspects of the life cycle. You learn about how APIs can be designed using API proxies, and how APIs are packaged as API products to be used by app developers. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the first course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Security on Google Cloud's Apigee API Platform course.
Questo corso spiega agli studenti come creare soluzioni efficienti e ad alta affidabilità su Google Cloud utilizzando pattern di progettazione comprovati. È la continuazione del corso Progettazione dell'architettura con Google Compute Engine o Progettazione dell'architettura con Google Kubernetes Engine e presuppone che si abbia esperienza pratica con le tecnologie esaminate in uno dei due corsi. Attraverso una combinazione di presentazioni, attività di progettazione e lab pratici, i partecipanti impareranno a definire e bilanciare i requisiti aziendali e tecnici per progettare deployment Google Cloud estremamente affidabili, sicuri, economicamente convenienti e ad alta disponibilità.
Lo scopo di questo corso è aiutare coloro che sono qualificati ad avere confidenza per tentare l'esame e aiutare le persone non ancora qualificate a sviluppare il proprio piano per la preparazione.
This course covers how to implement the various flavors of production ML systems— static, dynamic, and continuous training; static and dynamic inference; and batch and online processing. You delve into TensorFlow abstraction levels, the various options for doing distributed training, and how to write distributed training models with custom estimators. This is the second course of the Advanced Machine Learning on Google Cloud series. After completing this course, enroll in the Image Understanding with TensorFlow on Google Cloud course.
Questo corso adotta un approccio pratico reale al flusso di lavoro ML attraverso un case study. Un team ML è chiamato a rispondere a numerosi requisiti aziendali e ad affrontare vari casi d'uso ML. Deve comprendere gli strumenti necessari per la gestione e la governance dei dati e considerare l'approccio migliore per la pre-elaborazione dei dati. Al team vengono presentate tre opzioni per creare modelli ML per due casi d'uso. Il corso spiega perché il team utilizzerà AutoML, BigQuery ML o l'addestramento personalizzato per raggiungere i propri obiettivi.
Questo corso illustra i vantaggi dell'utilizzo di Vertex AI Feature Store, come migliorare l'accuratezza dei modelli di ML e come trovare le colonne di dati che forniscono le caratteristiche più utili. Il corso include inoltre contenuti e lab sul feature engineering utilizzando BigQuery ML, Keras e TensorFlow.
Questo corso tratta la creazione di modelli ML con TensorFlow e Keras, il miglioramento dell'accuratezza dei modelli ML e la scrittura di modelli ML per l'uso su larga scala.
Il corso inizia con una discussione sui dati: come migliorare la qualità dei dati ed eseguire analisi esplorative dei dati. Descriveremo Vertex AI AutoML e come creare, addestrare ed eseguire il deployment di un modello di ML senza scrivere una sola riga di codice. Comprenderai i vantaggi di Big Query ML. Discuteremo quindi di come ottimizzare un modello di machine learning (ML) e di come la generalizzazione e il campionamento possano aiutare a valutare la qualità dei modelli di ML per l'addestramento personalizzato.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
Welcome to the two-part course on Logging, Monitoring, and Observability in Google Cloud. The core operations tools in Google Cloud break down into two major categories. The operations-focused components and the application performance management tools. This course, Logging and Monitoring in Google Cloud, covers the operations-focused components including Logging, Monitoring, and Service Monitoring. After taking this course, it is suggested that you complete part 2, Observability in Google Cloud, to learn about the available application performance management tools.
This self-paced training course gives participants broad study of security controls and techniques on Google Cloud. Through recorded lectures, demonstrations, and hands-on labs, participants explore and deploy the components of a secure Google Cloud solution, including Cloud Storage access control technologies, Security Keys, Customer-Supplied Encryption Keys, API access controls, scoping, shielded VMs, encryption, and signed URLs. It also covers securing Kubernetes environments.
This self-paced training course gives participants broad study of security controls and techniques on Google Cloud. Through recorded lectures, demonstrations, and hands-on labs, participants explore and deploy the components of a secure Google Cloud solution, including Cloud Identity, Resource Manager, IAM, Virtual Private Cloud firewalls, Cloud Load Balancing, Cloud Peering, Cloud Interconnect, and VPC Service Controls. This is the first course of the Security in Google Cloud series. After completing this course, enroll in the Security Best Practices in Google Cloud course.
Welcome to the second course in the networking and Google Cloud series routing and addressing. In this course, we'll cover the central routing and addressing concepts that are relevant to Google Cloud's networking capabilities. Module one will lay the foundation by exploring network routing and addressing in Google Cloud, covering key building blocks such as routing IPv4, bringing your own IP addresses and setting up cloud DNS. In Module two will shift our focus to private connection options, exploring use cases and methods for accessing Google and other services privately using internal IP addresses. By the end of this course, you'll have a solid grasp of how to effectively route and address your network traffic within Google Cloud.
Networking in Google cloud is a 6 part course series. Welcome to the first course of our six part course series, Networking in Google Cloud: Fundamentals. This course provides a comprehensive overview of core networking concepts, including networking fundamentals, virtual private clouds (VPCs), and the sharing of VPC networks. Additionally, the course covers network logging and monitoring techniques.
This course helps learners prepare for the Professional Cloud Security Engineer (PCSE) Certification exam. Learners will be exposed to and engage with exam topics through a series of lectures, diagnostic questions, and knowledge checks. After completing this course, learners will have a personalized workbook that will guide them through the rest of their certification readiness journey.
Le pipeline di dati in genere rientrano in uno dei paradigmi EL (Extract, Load), ELT (Extract, Load, Transform) o ETL (Extract, Transform, Load). Questo corso descrive quale paradigma dovrebbe essere utilizzato e quando per i dati in batch. Inoltre, questo corso tratta diverse tecnologie su Google Cloud per la trasformazione dei dati, tra cui BigQuery, l'esecuzione di Spark su Dataproc, i grafici della pipeline in Cloud Data Fusion e trattamento dati serverless con Dataflow. Gli studenti fanno esperienza pratica nella creazione di componenti della pipeline di dati su Google Cloud utilizzando Qwiklabs.
I due componenti chiave di qualsiasi pipeline di dati sono costituiti dai data lake e dai data warehouse. In questo corso evidenzieremo i casi d'uso per ogni tipo di spazio di archiviazione e approfondiremo i dettagli tecnici delle soluzioni di data lake e data warehouse disponibili su Google Cloud. Inoltre, descriveremo il ruolo di un data engineer, illustreremo i vantaggi di una pipeline di dati di successo per le operazioni aziendali ed esamineremo i motivi per cui il data engineering dovrebbe essere eseguito in un ambiente cloud. Questo è il primo corso della serie Data engineering su Google Cloud. Dopo il completamento di questo corso, iscriviti al corso Creazione di pipeline di dati in batch su Google Cloud.
Questo corso presenta i prodotti e i servizi per big data e di machine learning di Google Cloud che supportano il ciclo di vita dai dati all'IA. Esplora i processi, le sfide e i vantaggi della creazione di una pipeline di big data e di modelli di machine learning con Vertex AI su Google Cloud.
Completa il corso intermedio con badge delle competenze Crea l'infrastruttura con Terraform su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: principi di Infrastructure as Code (IaC) utilizzando Terraform, provisioning e gestione di risorse Google Cloud con configurazioni Terraform, gestione efficace dello stato (locale e remoto) e modularizzazione del codice Terraform per la riusabilità e l'organizzazione.
Guadagna un badge delle competenze completando il corso Sviluppa la tua rete Google Cloud, in cui apprenderai diversi modi per eseguire il deployment e il monitoraggio delle applicazioni, tra cui: esplorare i ruoli IAM e aggiungere/rimuovere l'accesso ai progetti, creare reti VPC, eseguire il deployment e il monitoraggio delle VM di Compute Engine, scrivere query SQL, eseguire il deployment e il monitoraggio delle VM in Compute Engine ed eseguire il deployment delle applicazioni utilizzando Kubernetes con più approcci al deployment.
Ottieni un badge delle competenze completando il corso Configura un ambiente di sviluppo di app su Google Cloud, in cui imparerai a creare e connettere un'infrastruttura cloud incentrata sull'archiviazione utilizzando le funzionalità di base delle seguenti tecnologie: Cloud Storage, Identity and Access Management, Cloud Functions e Pub/Sub.
Completa il corso introduttivo con badge delle competenze Implementazione di Cloud Load Balancing per Compute Engine per dimostrare le tue competenze nei seguenti ambiti: creazione ed esecuzione del deployment di macchine virtuali in Compute Engine e configurazione di bilanciatori del carico di rete e delle applicazioni.
Ti diamo il benvenuto nel corso Introduzione a Google Kubernetes Engine. Se ti interessa Kubernetes, un livello software che si trova tra le tue applicazioni e la tua infrastruttura hardware, allora sei nel posto giusto. Google Kubernetes Engine ti offre Kubernetes come servizio gestito su Google Cloud. L'obiettivo di questo corso è illustrare le nozioni di base di Google Kubernetes Engine, o GKE, come viene comunemente chiamato, e come containerizzare le applicazioni e farle funzionare su Google Cloud. Il corso inizia con un'introduzione di base a Google Cloud, seguita da una panoramica dei container e di Kubernetes, dell'architettura di Kubernetes e delle operazioni di Kubernetes.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura completa e flessibile e i servizi di piattaforma forniti da Google Cloud. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui interconnessione sicura delle reti, bilanciamento del carico, scalabilità automatica, automazione dell'infrastruttura e servizi gestiti.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura e i servizi di piattaforma flessibili e completi di Google Cloud con particolare attenzione a Compute Engine. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui i componenti dell'infrastruttura come reti, sistemi e servizi per applicazioni, ed eseguirne il deployment. Questo corso tratta inoltre del deployment di soluzioni pratiche quali, ad esempio, chiavi di crittografia fornite dal cliente, gestione di sicurezza e accessi, quote e fatturazione, monitoraggio delle risorse.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura e i servizi di piattaforma flessibili e completi di Google Cloud con particolare attenzione a Compute Engine. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui i componenti dell'infrastruttura come reti, macchine virtuali e servizi per applicazioni, ed eseguirne il deployment. Imparerai a utilizzare Google Cloud mediante la console e Cloud Shell. Scoprirai inoltre il ruolo del Cloud Architect, gli approcci alla progettazione dell'infrastruttura e la configurazione del networking virtuale con VPC (Virtual Private Cloud), progetti, reti, subnet, indirizzi IP, route e regole firewall.
Google Cloud Fundamentals: Core Infrastructure introduce concetti e terminologia importanti per lavorare con Google Cloud. Attraverso video e lab pratici, questo corso presenta e confronta molti dei servizi di computing e archiviazione di Google Cloud, insieme a importanti strumenti di gestione delle risorse e dei criteri.
This course helps you structure your preparation for the Associate Cloud Engineer exam. You will learn about the Google Cloud domains covered by the exam and how to create a study plan to improve your domain knowledge.