Gabung Login

Shamik Mishra

Menjadi anggota sejak 2025

Gold League

1046 poin
Model Transformer dan Model BERT Earned Nov 19, 2025 EST
Mekanisme Atensi Earned Nov 18, 2025 EST

Kursus ini memperkenalkan Anda pada arsitektur Transformer dan model Representasi Encoder Dua Arah dari Transformer (Bidirectional Encoder Representations from Transformers atau BERT). Anda akan belajar tentang komponen utama arsitektur Transformer, seperti mekanisme self-attention, dan cara penggunaannya untuk membangun model BERT. Anda juga akan belajar tentang berbagai tugas yang dapat memanfaatkan BERT, seperti klasifikasi teks, menjawab pertanyaan, dan inferensi natural language. Kursus ini diperkirakan memakan waktu sekitar 45 menit untuk menyelesaikannya.

Pelajari lebih lanjut

Dalam kursus ini Anda akan diperkenalkan dengan mekanisme atensi, yakni teknik efektif yang membuat jaringan neural berfokus pada bagian tertentu urutan input. Anda akan mempelajari cara kerja atensi, cara penggunaannya untuk meningkatkan performa berbagai tugas machine learning, termasuk terjemahan mesin, peringkasan teks, dan menjawab pertanyaan.

Pelajari lebih lanjut