Приєднатися Увійти

Shamil Khan

Учасник із 2026

Срібна ліга

Кількість балів: 596
Introduction to Large Language Models - Українська Earned квіт. 18, 2026 EDT
Encoder-Decoder Architecture Earned квіт. 18, 2026 EDT
Attention Mechanism Earned квіт. 18, 2026 EDT

У цьому ознайомлювальному курсі мікронавчання ви дізнаєтеся, що таке великі мовні моделі, де вони використовуються і як підвищити їх ефективність коригуванням запитів. Він також охоплює інструменти Google, які допоможуть вам створювати власні додатки на основі генеративного штучного інтелекту.

Докладніше

This course gives you a synopsis of the encoder-decoder architecture, which is a powerful and prevalent machine learning architecture for sequence-to-sequence tasks such as machine translation, text summarization, and question answering. You learn about the main components of the encoder-decoder architecture and how to train and serve these models. In the corresponding lab walkthrough, you’ll code in TensorFlow a simple implementation of the encoder-decoder architecture for poetry generation from the beginning.

Докладніше

This course will introduce you to the attention mechanism, a powerful technique that allows neural networks to focus on specific parts of an input sequence. You will learn how attention works, and how it can be used to improve the performance of a variety of machine learning tasks, including machine translation, text summarization, and question answering. This course is estimated to take approximately 45 minutes to complete.

Докладніше