Questo corso spiega agli studenti come creare soluzioni efficienti e ad alta affidabilità su Google Cloud utilizzando pattern di progettazione comprovati. È la continuazione del corso Progettazione dell'architettura con Google Compute Engine o Progettazione dell'architettura con Google Kubernetes Engine e presuppone che si abbia esperienza pratica con le tecnologie esaminate in uno dei due corsi. Attraverso una combinazione di presentazioni, attività di progettazione e lab pratici, i partecipanti impareranno a definire e bilanciare i requisiti aziendali e tecnici per progettare deployment Google Cloud estremamente affidabili, sicuri, economicamente convenienti e ad alta disponibilità.
In many IT organizations, incentives are not aligned between developers, who strive for agility, and operators, who focus on stability. Site reliability engineering, or SRE, is how Google aligns incentives between development and operations and does mission-critical production support. Adoption of SRE cultural and technical practices can help improve collaboration between the business and IT. This course introduces key practices of Google SRE and the important role IT and business leaders play in the success of SRE organizational adoption.
I due componenti chiave di qualsiasi pipeline di dati sono costituiti dai data lake e dai data warehouse. In questo corso evidenzieremo i casi d'uso per ogni tipo di spazio di archiviazione e approfondiremo i dettagli tecnici delle soluzioni di data lake e data warehouse disponibili su Google Cloud. Inoltre, descriveremo il ruolo di un data engineer, illustreremo i vantaggi di una pipeline di dati di successo per le operazioni aziendali ed esamineremo i motivi per cui il data engineering dovrebbe essere eseguito in un ambiente cloud. Questo è il primo corso della serie Data engineering su Google Cloud. Dopo il completamento di questo corso, iscriviti al corso Creazione di pipeline di dati in batch su Google Cloud.
Lo scopo di questo corso è aiutare coloro che sono qualificati ad avere confidenza per tentare l'esame e aiutare le persone non ancora qualificate a sviluppare il proprio piano per la preparazione.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course enables system integrators and partners to understand the principles of automated migrations, plan legacy system migrations to Google Cloud leveraging G4 Platform, and execute a trial code conversion.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
Explore AI-powered search technologies, tools, and applications in this course. Learn semantic search utilizing vector embeddings, hybrid search combining semantic and keyword approaches, and retrieval-augmented generation (RAG) minimizing AI hallucinations as a grounded AI agent. Gain practical experience with Vertex AI Vector Search to build your intelligent search engine.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course explores the Geographic Information Systems (GIS), GIS Visualization, and machine learning enhancements to BigQuery.
This course explores how to implement a streaming analytics solution using Dataflow and BigQuery.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This course explores how to implement a streaming analytics solution using Pub/Sub.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataflow.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
Questo corso illustra Generative AI Studio, un prodotto su Vertex AI che ti aiuta a prototipare e personalizzare i modelli di AI generativa in modo da poterne utilizzare le capacità nelle tue applicazioni. In questo corso imparerai cos'è Generative AI Studio, le sue funzionalità e opzioni e come utilizzarlo, esaminando le demo del prodotto. Alla fine, troverai un laboratorio pratico per mettere in pratica ciò che hai imparato e un quiz per testare le tue conoscenze.
This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.
Questo corso ti insegna come creare un modello per le didascalie delle immagini utilizzando il deep learning. Scoprirai i diversi componenti di un modello per le didascalie delle immagini, come l'encoder e il decoder, e imparerai ad addestrare e valutare il tuo modello. Alla fine di questo corso, sarai in grado di creare modelli personali per le didascalie delle immagini e utilizzarli per generare didascalie per le immagini.
Questo corso ti introduce all'architettura Transformer e al modello BERT (Bidirectional Encoder Representations from Transformers). Scopri i componenti principali dell'architettura Transformer, come il meccanismo di auto-attenzione, e come viene utilizzata per creare il modello BERT. Imparerai anche le diverse attività per le quali può essere utilizzato il modello BERT, come la classificazione del testo, la risposta alle domande e l'inferenza del linguaggio naturale. Si stima che il completamento di questo corso richieda circa 45 minuti.
Questo corso ti offre un riepilogo dell'architettura encoder-decoder, che è un'architettura di machine learning potente e diffusa per attività da sequenza a sequenza come traduzione automatica, riassunto del testo e risposta alle domande. Apprenderai i componenti principali dell'architettura encoder-decoder e come addestrare e fornire questi modelli. Nella procedura dettagliata del lab corrispondente, implementerai in TensorFlow dall'inizio un semplice codice dell'architettura encoder-decoder per la generazione di poesie da zero.
Questo corso ti introdurrà al meccanismo di attenzione, una potente tecnica che consente alle reti neurali di concentrarsi su parti specifiche di una sequenza di input. Imparerai come funziona l'attenzione e come può essere utilizzata per migliorare le prestazioni di molte attività di machine learning, come la traduzione automatica, il compendio di testi e la risposta alle domande.
Questo corso introduce i modelli di diffusione, una famiglia di modelli di machine learning che recentemente si sono dimostrati promettenti nello spazio di generazione delle immagini. I modelli di diffusione traggono ispirazione dalla fisica, in particolare dalla termodinamica. Negli ultimi anni, i modelli di diffusione sono diventati popolari sia nella ricerca che nella produzione. I modelli di diffusione sono alla base di molti modelli e strumenti di generazione di immagini all'avanguardia su Google Cloud. Questo corso ti introduce alla teoria alla base dei modelli di diffusione e a come addestrarli ed eseguirne il deployment su Vertex AI.
Dal momento che l'uso dell'intelligenza artificiale e del machine learning nelle aziende continua a crescere, cresce anche l'importanza di realizzarli in modo responsabile. Molti sono scoraggiati dal fatto che parlare di IA responsabile può essere più facile che metterla in pratica. Se vuoi imparare come operativizzare l'IA responsabile nella tua organizzazione, questo corso fa per te. In questo corso scoprirai come Google Cloud ci riesce attualmente, oltre alle best practice e alle lezioni apprese, per fungere da framework per costruire il tuo approccio all'IA responsabile.
This course identifies best practices for migrating data warehouses to BigQuery and the key skills required to perform successful migration.
Welcome to Optimize in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on optimization.
Welcome to Design in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on schema design.
This course discusses the key elements of Google's Data Warehouse solution portfolio and strategy.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Questo è un corso di microlearning di livello introduttivo volto a spiegare cos'è l'IA responsabile, perché è importante e in che modo Google implementa l'IA responsabile nei propri prodotti. Introduce anche i 7 principi dell'IA di Google.
Questo è un corso di microlearning di livello introduttivo che esplora cosa sono i modelli linguistici di grandi dimensioni (LLM), i casi d'uso in cui possono essere utilizzati e come è possibile utilizzare l'ottimizzazione dei prompt per migliorare le prestazioni dei modelli LLM. Descrive inoltre gli strumenti Google per aiutarti a sviluppare le tue app Gen AI.
Questo è un corso di microlearning di livello introduttivo volto a spiegare cos'è l'AI generativa, come viene utilizzata e in che modo differisce dai tradizionali metodi di machine learning. Descrive inoltre gli strumenti Google che possono aiutarti a sviluppare le tue app Gen AI.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura completa e flessibile e i servizi di piattaforma forniti da Google Cloud. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui interconnessione sicura delle reti, bilanciamento del carico, scalabilità automatica, automazione dell'infrastruttura e servizi gestiti.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Machine Learning Engineering professionals use tools for continuous improvement and evaluation of deployed models. They work with (or can be) Data Scientists, who develop models, to enable velocity and rigor in deploying the best performing models.
In this course, you will be learning from ML Engineers and Trainers who work with the state-of-the-art development of ML pipelines here at Google Cloud. The first few modules will cover about TensorFlow Extended (or TFX), which is Google’s production machine learning platform based on TensorFlow for management of ML pipelines and metadata. You will learn about pipeline components and pipeline orchestration with TFX. You will also learn how you can automate your pipeline through continuous integration and continuous deployment, and how to manage ML metadata. Then we will change focus to discuss how we can automate and reuse ML pipelines across multiple ML frameworks such as tensorflow, pytorch, scikit learn, and xgboost. You will also learn how to use another tool on Google Cloud, Cloud Composer, to orchestrate your continuous training pipelines. And finally, we will go over how to use MLflow for managing the complete machine learning life cycle.
This course covers how to implement the various flavors of production ML systems— static, dynamic, and continuous training; static and dynamic inference; and batch and online processing. You delve into TensorFlow abstraction levels, the various options for doing distributed training, and how to write distributed training models with custom estimators. This is the second course of the Advanced Machine Learning on Google Cloud series. After completing this course, enroll in the Image Understanding with TensorFlow on Google Cloud course.
Questo corso adotta un approccio pratico reale al flusso di lavoro ML attraverso un case study. Un team ML è chiamato a rispondere a numerosi requisiti aziendali e ad affrontare vari casi d'uso ML. Deve comprendere gli strumenti necessari per la gestione e la governance dei dati e considerare l'approccio migliore per la pre-elaborazione dei dati. Al team vengono presentate tre opzioni per creare modelli ML per due casi d'uso. Il corso spiega perché il team utilizzerà AutoML, BigQuery ML o l'addestramento personalizzato per raggiungere i propri obiettivi.
Questo corso illustra i vantaggi dell'utilizzo di Vertex AI Feature Store, come migliorare l'accuratezza dei modelli di ML e come trovare le colonne di dati che forniscono le caratteristiche più utili. Il corso include inoltre contenuti e lab sul feature engineering utilizzando BigQuery ML, Keras e TensorFlow.
Questo corso tratta la creazione di modelli ML con TensorFlow e Keras, il miglioramento dell'accuratezza dei modelli ML e la scrittura di modelli ML per l'uso su larga scala.
Il corso inizia con una discussione sui dati: come migliorare la qualità dei dati ed eseguire analisi esplorative dei dati. Descriveremo Vertex AI AutoML e come creare, addestrare ed eseguire il deployment di un modello di ML senza scrivere una sola riga di codice. Comprenderai i vantaggi di Big Query ML. Discuteremo quindi di come ottimizzare un modello di machine learning (ML) e di come la generalizzazione e il campionamento possano aiutare a valutare la qualità dei modelli di ML per l'addestramento personalizzato.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
Completa il corso intermedio con badge delle competenze Crea l'infrastruttura con Terraform su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: principi di Infrastructure as Code (IaC) utilizzando Terraform, provisioning e gestione di risorse Google Cloud con configurazioni Terraform, gestione efficace dello stato (locale e remoto) e modularizzazione del codice Terraform per la riusabilità e l'organizzazione.
Ottieni un badge delle competenze completando il corso Configura un ambiente di sviluppo di app su Google Cloud, in cui imparerai a creare e connettere un'infrastruttura cloud incentrata sull'archiviazione utilizzando le funzionalità di base delle seguenti tecnologie: Cloud Storage, Identity and Access Management, Cloud Functions e Pub/Sub.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura e i servizi di piattaforma flessibili e completi di Google Cloud con particolare attenzione a Compute Engine. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui i componenti dell'infrastruttura come reti, sistemi e servizi per applicazioni, ed eseguirne il deployment. Questo corso tratta inoltre del deployment di soluzioni pratiche quali, ad esempio, chiavi di crittografia fornite dal cliente, gestione di sicurezza e accessi, quote e fatturazione, monitoraggio delle risorse.
Questo corso accelerato on demand illustra ai partecipanti l'infrastruttura e i servizi di piattaforma flessibili e completi di Google Cloud con particolare attenzione a Compute Engine. Attraverso una combinazione di videolezioni, demo e lab pratici, i partecipanti potranno esplorare gli elementi delle soluzioni, tra cui i componenti dell'infrastruttura come reti, macchine virtuali e servizi per applicazioni, ed eseguirne il deployment. Imparerai a utilizzare Google Cloud mediante la console e Cloud Shell. Scoprirai inoltre il ruolo del Cloud Architect, gli approcci alla progettazione dell'infrastruttura e la configurazione del networking virtuale con VPC (Virtual Private Cloud), progetti, reti, subnet, indirizzi IP, route e regole firewall.
Google Cloud Fundamentals: Core Infrastructure introduce concetti e terminologia importanti per lavorare con Google Cloud. Attraverso video e lab pratici, questo corso presenta e confronta molti dei servizi di computing e archiviazione di Google Cloud, insieme a importanti strumenti di gestione delle risorse e dei criteri.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; and building machine learning models using BigQuery ML.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Le pipeline di dati in genere rientrano in uno dei paradigmi EL (Extract, Load), ELT (Extract, Load, Transform) o ETL (Extract, Transform, Load). Questo corso descrive quale paradigma dovrebbe essere utilizzato e quando per i dati in batch. Inoltre, questo corso tratta diverse tecnologie su Google Cloud per la trasformazione dei dati, tra cui BigQuery, l'esecuzione di Spark su Dataproc, i grafici della pipeline in Cloud Data Fusion e trattamento dati serverless con Dataflow. Gli studenti fanno esperienza pratica nella creazione di componenti della pipeline di dati su Google Cloud utilizzando Qwiklabs.
L'elaborazione dei flussi di dati sta diventando sempre più diffusa poiché la modalità flusso consente alle aziende di ottenere parametri in tempo reale sulle operazioni aziendali. Questo corso tratta la creazione di pipeline di dati in modalità flusso su Google Cloud. Pub/Sub viene presentato come strumento per la gestione dei flussi di dati in entrata. Il corso spiega anche come applicare aggregazioni e trasformazioni ai flussi di dati utilizzando Dataflow e come archiviare i record elaborati in BigQuery o Bigtable per l'analisi. Gli studenti acquisiranno esperienza pratica nella creazione di componenti della pipeline di dati in modalità flusso su Google Cloud utilizzando QwikLabs.
This course is most suitable for those working in a technology or finance role who are responsible for managing Google Cloud costs. You’ll learn how to set up a billing account, organize resources, and manage billing access permissions. In the hands-on labs, you'll learn how to view your invoice, track your Google Cloud costs with Billing reports, analyze your billing data with BigQuery or Google Sheets, and create custom billing dashboards with Looker Studio. References made to links in the videos can be accessed in this Additional Resources document.
This 1-week, accelerate course builds upon previous courses in the Data Engineering on Google Cloud Platform specialization. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn how to create and manage computing clusters to run Hadoop, Spark, Pig and/or Hive jobs on Google Cloud Platform. You will also learn how to access various cloud storage options from their compute clusters and integrate Google's machine learning capabilities into their analytics programs.
Questo corso presenta i prodotti e i servizi per big data e di machine learning di Google Cloud che supportano il ciclo di vita dai dati all'IA. Esplora i processi, le sfide e i vantaggi della creazione di una pipeline di big data e di modelli di machine learning con Vertex AI su Google Cloud.
Earn the intermediate skill badge by completing the Build and Deploy Machine Learning Solutions on Vertex AI skill badge course, where you learn how to use Google Cloud's Vertex AI platform, AutoML, and custom training services to train, evaluate, tune, explain, and deploy machine learning models.
Earn the advanced skill badge by completing the Use Machine Learning APIs on Google Cloud course, where you learn the basic features for the following machine learning and AI technologies: Cloud Vision API, Cloud Translation API, and Cloud Natural Language API.
Earn a skill badge by completing the Automate Interactions with Contact Center AI quest, where you will learn about the features of Contact Center AI, including how to Build a virtual agent, Design conversation flows for your virtual agent; Add a phone gateway to your virtual agent; Use Dialogflow for troubleshooting; Review logs and debug your virtual agent. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge quest, and final assessment challenge lab, to receive a digital badge that you can share with your network.
Completa il badge delle competenze di livello intermedio Ottimizza i costi per Google Kubernetes Engine per dimostrare le tue competenze nei seguenti ambiti: creazione e gestione di cluster multi-tenant, monitoraggio dell'utilizzo delle risorse per spazio dei nomi, configurazione della scalabilità automatica di cluster e pod per l'efficienza, impostazione del bilanciamento del carico per la distribuzione ottimale delle risorse e implementazione di probe di attività e idoneità per garantire l'integrità e la convenienza economica dell'applicazione.
Complete the intermediate Build a Data Warehouse with BigQuery skill badge course to demonstrate skills in the following: joining data to create new tables, troubleshooting joins, appending data with unions, creating date-partitioned tables, and working with JSON, arrays, and structs in BigQuery.
Guadagna un badge delle competenze completando il corso Sviluppa la tua rete Google Cloud, in cui apprenderai diversi modi per eseguire il deployment e il monitoraggio delle applicazioni, tra cui: esplorare i ruoli IAM e aggiungere/rimuovere l'accesso ai progetti, creare reti VPC, eseguire il deployment e il monitoraggio delle VM di Compute Engine, scrivere query SQL, eseguire il deployment e il monitoraggio delle VM in Compute Engine ed eseguire il deployment delle applicazioni utilizzando Kubernetes con più approcci al deployment.
Earn a skill badge by completing the Explore Machine Learning Models with Explainable AI quest, where you will learn how to do the following using Explainable AI: build and deploy a model to an AI platform for serving (prediction), use the What-If Tool with an image recognition model, identify bias in mortgage data using the What-If Tool, and compare models using the What-If Tool to identify potential bias. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge quest and the final assessment challenge lab to receive a skill badge that you can share with your network.
Big data, machine learning, and scientific data? It sounds like the perfect match. In this advanced-level quest, you will get hands-on practice with GCP services like Big Query, Dataproc, and Tensorflow by applying them to use cases that employ real-life, scientific data sets. By getting experience with tasks like earthquake data analysis and satellite image aggregation, Scientific Data Processing will expand your skill set in big data and machine learning so you can start tackling your own problems across a spectrum of scientific disciplines.
Machine Learning is one of the most innovative fields in technology, and the Google Cloud Platform has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning at scale and how to employ the advanced ML infrastructure available on Google Cloud.
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
Ottieni il corso intermedio con badge delle competenze Prepara i dati per le API ML su Google Cloud per dimostrare le tue competenze nei seguenti ambiti: pulizia dei dati con Dataprep di Trifacta, esecuzione delle pipeline di dati in Dataflow, creazione dei cluster ed esecuzione dei job Apache Spark in Dataproc e richiamo delle API ML tra cui l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text e l'API Video Intelligence.
In questo corso, "Architecting with Google Kubernetes Engine: Production", imparerai a conoscere la sicurezza di Kubernetes e Google Kubernetes Engine (GKE), logging e monitoraggio e a utilizzare i servizi di archiviazione e database gestiti di Google Cloud dall'interno di GKE. Si tratta del corso finale della serie Architecting with Google Kubernetes Engine. Dopo il completamento di questo corso, iscriviti al corso Reliable Google Cloud Infrastructure: Design and Process o al corso Hybrid Cloud Infrastructure Foundations with Anthos.
In questo corso, "Architecting with Google Kubernetes Engine: Workloads", imparerai come eseguire le operazioni Kubernetes, creare e gestire i deployment, quali sono gli strumenti di networking di GKE e come fornire archiviazione permanente ai tuoi carichi di lavoro Kubernetes. Questo è il secondo corso della serie Architecting with Google Kubernetes Engine. Dopo il completamento di questo corso, iscriviti al corso Reliable Google Cloud Infrastructure: Design and Process o al corso Hybrid Cloud Infrastructure Foundations with Anthos.
In questo corso, "Progettazione dell'architettura con Google Kubernetes Engine: fondamenti", troverai un ripasso del layout e dei principi di Google Cloud, seguito da un'introduzione alla creazione e alla gestione dei container software, nonché all'architettura di Kubernetes.
Completa il corso introduttivo con badge delle competenze Implementazione di Cloud Load Balancing per Compute Engine per dimostrare le tue competenze nei seguenti ambiti: creazione ed esecuzione del deployment di macchine virtuali in Compute Engine e configurazione di bilanciatori del carico di rete e delle applicazioni.
Kubernetes è il sistema di orchestrazione dei container più diffuso e Google Kubernetes Engine è stato progettato specificamente per supportare i deployment Kubernetes gestiti in Google Cloud. In questo corso di livello avanzato, potrai esercitarti nella configurazione di immagini e container Docker e nel deployment di applicazioni Kubernetes Engine complete. Grazie a questo corso, apprenderai le competenze pratiche necessarie per integrare l'orchestrazione dei container nel tuo workflow. Stai cercando un Challenge Lab pratico per dimostrare le tue abilità e convalidare le tue conoscenze? Dopo aver completato questo corso, termina il Challenge Lab aggiuntivo alla fine del corso Esegui il deployment di applicazioni Kubernetes su Google Cloud per ricevere un esclusivo badge digitale Google Cloud.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
It's no secret that machine learning is one of the fastest growing fields in tech, and Google Cloud has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning APIs by taking labs like Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API. Looking for a hands-on challenge lab to demonstrate your skills and validate your knowledge? Enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
Big data, machine learning e intelligenza artificiale sono i principali argomenti di computing trattati attualmente, ma questi campi sono piuttosto specializzati ed è complicato reperire materiale introduttivo. Fortunatamente, Google Cloud offre servizi facili da usare in queste aree e con questo corso di livello introduttivo, in modo da poter fare i primi passi con strumenti come BigQuery, API Cloud Speech e Video Intelligence.
This fundamental-level quest is unique amongst the other quest offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Cloud Architect Certification. From IAM, to networking, to Kubernetes engine deployment, this quest is composed of specific labs that will put your Google Cloud knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, we recommend that you also review the exam guide and other available preparation resources.
In this introductory-level course, you get hands-on practice with the Google Cloud’s fundamental tools and services. Optional videos are provided to provide more context and review for the concepts covered in the labs. Google Cloud Essentials is a recommendeded first course for the Google Cloud learner - you can come in with little or no prior cloud knowledge, and come out with practical experience that you can apply to your first Google Cloud project. From writing Cloud Shell commands and deploying your first virtual machine, to running applications on Kubernetes Engine or with load balancing, Google Cloud Essentials is a prime introduction to the platform’s basic features.