Adithi Shankar
Jest członkiem od 2024
Liga srebrna
5030 pkt.
Jest członkiem od 2024
Na tym szkoleniu przedstawiamy koncepcje odpowiedzialnej AI i zasad dotyczących AI. Omawiamy praktyczne metody identyfikowania obiektywności i uprzedzeń, a także ograniczania występowania uprzedzeń podczas używania AI/ML. W trakcie szkolenia przedstawiamy też praktyczne techniki i narzędzia, które umożliwiają wdrożenie sprawdzonych metod w zakresie odpowiedzialnej AI przy użyciu usług Google Cloud oraz narzędzi open source.
Na tym szkoleniu przedstawiamy koncepcje interpretowalności i przejrzystości AI. Omawiamy na nim, jak ważna jest przejrzystość AI dla deweloperów i inżynierów. Pokazujemy praktyczne techniki i narzędzia, które pomagają osiągnąć interpretowalność oraz przejrzystość zarówno w danych, jak i modelach AI.
This course introduces you to the Transformer architecture and the Bidirectional Encoder Representations from Transformers (BERT) model. You learn about the main components of the Transformer architecture, such as the self-attention mechanism, and how it is used to build the BERT model. You also learn about the different tasks that BERT can be used for, such as text classification, question answering, and natural language inference.This course is estimated to take approximately 45 minutes to complete.
This course teaches you how to create an image captioning model by using deep learning. You learn about the different components of an image captioning model, such as the encoder and decoder, and how to train and evaluate your model. By the end of this course, you will be able to create your own image captioning models and use them to generate captions for images
This course gives you a synopsis of the encoder-decoder architecture, which is a powerful and prevalent machine learning architecture for sequence-to-sequence tasks such as machine translation, text summarization, and question answering. You learn about the main components of the encoder-decoder architecture and how to train and serve these models. In the corresponding lab walkthrough, you’ll code in TensorFlow a simple implementation of the encoder-decoder architecture for poetry generation from the beginning.
This course will introduce you to the attention mechanism, a powerful technique that allows neural networks to focus on specific parts of an input sequence. You will learn how attention works, and how it can be used to improve the performance of a variety of machine learning tasks, including machine translation, text summarization, and question answering. This course is estimated to take approximately 45 minutes to complete.