Kursus ini memperkenalkan Anda pada arsitektur Transformer dan model Representasi Encoder Dua Arah dari Transformer (Bidirectional Encoder Representations from Transformers atau BERT). Anda akan belajar tentang komponen utama arsitektur Transformer, seperti mekanisme self-attention, dan cara penggunaannya untuk membangun model BERT. Anda juga akan belajar tentang berbagai tugas yang dapat memanfaatkan BERT, seperti klasifikasi teks, menjawab pertanyaan, dan inferensi natural language. Kursus ini diperkirakan memakan waktu sekitar 45 menit untuk menyelesaikannya.
Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.