Amey Laddad
Учасник із 2022
Срібна ліга
Кількість балів: 10740
Учасник із 2022
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
Unite Google’s expertise in search and AI with Gemini Enterprise, a powerful tool designed to help employees find specific information from document storage, email, chats, ticketing systems, and other data sources, all from a single search bar. The Gemini Enterprise assistant can also help brainstorm, research, outline documents, and take actions like inviting coworkers to a calendar event to accelerate knowledge work and collaboration of all kinds. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Earn a skill badge by completing the Get Started with Looker skill badge course, where you learn how to analyze, visualize, and curate data using Looker Studio and Looker.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course introduces Vertex AI Studio, a tool to interact with generative AI models, prototype business ideas, and launch them into production. Through an immersive use case, engaging lessons, and a hands-on lab, you’ll explore the prompt-to-product lifecycle and learn how to leverage Vertex AI Studio for Gemini multimodal applications, prompt design, prompt engineering, and model tuning. The aim is to enable you to unlock the potential of gen AI in your projects with Vertex AI Studio.
This course, Transformer Models and BERT Model - Locales, is intended for non-English learners. If you want to take this course in English, please enroll in Transformer Models and BERT Model. This course introduces you to the Transformer architecture and the Bidirectional Encoder Representations from Transformers (BERT) model. You learn about the main components of the Transformer architecture, such as the self-attention mechanism, and how it is used to build the BERT model. You also learn about the different tasks that BERT can be used for, such as text classification, question answering, and natural language inference. This course is estimated to take approximately 45 minutes to complete.
This course gives you a synopsis of the encoder-decoder architecture, which is a powerful and prevalent machine learning architecture for sequence-to-sequence tasks such as machine translation, text summarization, and question answering. You learn about the main components of the encoder-decoder architecture and how to train and serve these models. In the corresponding lab walkthrough, you’ll code in TensorFlow a simple implementation of the encoder-decoder architecture for poetry generation from the beginning.
This course will introduce you to the attention mechanism, a powerful technique that allows neural networks to focus on specific parts of an input sequence. You will learn how attention works, and how it can be used to improve the performance of a variety of machine learning tasks, including machine translation, text summarization, and question answering. This course is estimated to take approximately 45 minutes to complete.
This course introduces diffusion models, a family of machine learning models that recently showed promise in the image generation space. Diffusion models draw inspiration from physics, specifically thermodynamics. Within the last few years, diffusion models became popular in both research and industry. Diffusion models underpin many state-of-the-art image generation models and tools on Google Cloud. This course introduces you to the theory behind diffusion models and how to train and deploy them on Vertex AI.
Що більше штучний інтелект і машинне навчання використовуються в корпоративних середовищах, то нагальнішою стає потреба розробити принципи відповідального ставлення до них. Однак говорити про принципи відповідального використання штучного інтелекту легше, ніж застосовувати їх на практиці. Цей курс допоможе вам дізнатись, як запровадити відповідальну роботу зі штучним інтелектом у вашій організації. У цьому курсі ви дізнаєтеся про підхід Google Cloud до відповідального використання ШІ, а також отримаєте практичні поради й набудете досвіду, який допоможе вам розробити власний підхід до цього завдання.
Щоб отримати кваліфікаційний значок, пройдіть курси "Introduction to Generative AI", "Introduction to Large Language Models" й "Introduction to Responsible AI". Пройшовши завершальний тест, ви підтвердите, що засвоїли основні поняття, які стосуються генеративного штучного інтелекту. Кваліфікаційний значок – це цифровий значок від платформи Google Cloud, який свідчить, що ви знаєтеся на продуктах і сервісах Google Cloud. Щоб опублікувати кваліфікаційний значок, зробіть свій профіль загальнодоступним, а також додайте значок у профіль у соціальних мережах.
Це ознайомлювальний курс мікронавчання, який має пояснити, що таке відповідальне використання штучного інтелекту, чому воно важливе і як компанія Google реалізує його у своїх продуктах. Крім того, у цьому курсі викладено 7 принципів Google щодо штучного інтелекту.
У цьому ознайомлювальному курсі мікронавчання ви дізнаєтеся, що таке великі мовні моделі, де вони використовуються і як підвищити їх ефективність коригуванням запитів. Він також охоплює інструменти Google, які допоможуть вам створювати власні додатки на основі генеративного штучного інтелекту.
Це ознайомлювальний курс мікронавчання, який має пояснити, що таке генеративний штучний інтелект, як він використовується й чим відрізняється від традиційних методів машинного навчання. Він також охоплює інструменти Google, які допоможуть вам створювати власні додатки на основі генеративного штучногоінтелекту.