ARC110

Ringkasan
Dalam challenge lab, Anda diberi sebuah skenario dan serangkaian tugas. Tidak ada petunjuk langkah demi langkah. Anda akan menggunakan keahlian yang dipelajari dari lab dalam kursus untuk mencari cara menyelesaikan sendiri tugas-tugas tersebut. Sistem pemberian skor otomatis (ditampilkan pada halaman ini) akan memberikan masukan tentang apakah Anda telah menyelesaikan tugas dengan benar atau tidak.
Saat mengikuti challenge lab, Anda tidak akan diajari konsep-konsep baru Google Cloud. Anda diharapkan dapat memperluas keahlian yang dipelajari, seperti mengubah nilai default dan membaca serta mengkaji pesan error untuk memperbaiki kesalahan Anda sendiri.
Untuk meraih skor 100%, Anda harus berhasil menyelesaikan semua tugas dalam jangka waktu tertentu.
Penyiapan
Sebelum mengklik tombol Start Lab
Baca petunjuk ini. Lab memiliki timer dan Anda tidak dapat menjedanya. Timer yang dimulai saat Anda mengklik Start Lab akan menampilkan durasi ketersediaan resource Google Cloud untuk Anda.
Lab interaktif ini dapat Anda gunakan untuk melakukan aktivitas lab di lingkungan cloud sungguhan, bukan di lingkungan demo atau simulasi. Untuk mengakses lab ini, Anda akan diberi kredensial baru yang bersifat sementara dan dapat digunakan untuk login serta mengakses Google Cloud selama durasi lab.
Untuk menyelesaikan lab ini, Anda memerlukan:
- Akses ke browser internet standar (disarankan browser Chrome).
Catatan: Gunakan jendela Samaran (direkomendasikan) atau browser pribadi untuk menjalankan lab ini. Hal ini akan mencegah konflik antara akun pribadi Anda dan akun siswa yang dapat menyebabkan tagihan ekstra pada akun pribadi Anda.
- Waktu untuk menyelesaikan lab. Ingat, setelah dimulai, lab tidak dapat dijeda.
Catatan: Hanya gunakan akun siswa untuk lab ini. Jika Anda menggunakan akun Google Cloud yang berbeda, Anda mungkin akan dikenai tagihan ke akun tersebut.
Skenario tantangan
Anda baru saja memulai peran sebagai data engineer junior. Sejauh ini, Anda telah membantu tim membuat dan mengelola data menggunakan Pub/Sub, Dataflow, dan Cloud Storage.
Anda diharapkan memiliki keterampilan dan pengetahuan untuk tugas seperti ini.
Tantangan Anda
Anda diminta membantu tim pengembangan yang baru dibentuk untuk mengerjakan beberapa tugas awal dalam project streaming pesan live. Anda diminta untuk membantu tim melakukan simulasi streaming pesan live ke Cloud Storage menggunakan Pub/Sub dan Dataflow; Anda menerima permintaan berikut untuk menyelesaikan tugas-tugas berikut:
- Gunakan command line untuk membuat topik Pub/Sub.
- Gunakan command line untuk membuat tugas Cloud Scheduler guna memublikasikan pesan ke Pub/Sub secara berkala.
- Gunakan command line untuk membuat bucket Cloud Storage sebagai tujuan output untuk tugas Dataflow.
- Gunakan command line untuk membuat dan menjalankan tugas Dataflow guna mengalirkan data dari topik Pub/Sub ke bucket Cloud Storage, lalu periksa file output di bucket Cloud Storage.
Beberapa standar yang harus Anda ikuti:
- Pastikan API yang dibutuhkan (seperti Dataflow) berhasil diaktifkan.
- Buat semua resource di region , kecuali ada petunjuk lain.
- Selesaikan challenge lab di cloud shell, bukan konsol, kecuali jika diarahkan lain.
Catatan: Pastikan untuk menonaktifkan dan mengaktifkan Dataflow API sebelum menjalankan pipeline dataflow.
Setiap tugas dijelaskan secara mendetail di bawah ini. Semoga berhasil!
Tugas 1. Membuat topik Pub/Sub
- Gunakan command line untuk membuat topik Pub/Sub bernama .
Klik Periksa progres saya untuk memverifikasi tujuan.
Buat topik Pub/Sub
Tugas 2. Buat tugas Cloud Scheduler
- Gunakan command line untuk membuat aplikasi App Engine untuk project Anda.
- Gunakan command line untuk membuat tugas Cloud Scheduler di project ini guna memublikasikan pesan dengan interval satu menit ke topik Pub/Sub di tugas 1. Isi pesan: .
- Gunakan command line untuk memulai tugas scheduler.
Klik Periksa progres saya untuk memverifikasi tujuan.
Buat tugas Cloud Scheduler
Tugas 3. Membuat bucket Cloud Storage
- Gunakan command line untuk membuat bucket Cloud Storage dengan nama bucket berikut:
Klik Periksa progres saya untuk memverifikasi tujuan.
Membuat bucket Cloud Storage
Tugas 4. Menjalankan pipeline Dataflow untuk melakukan streaming data dari topik Pub/Sub ke Cloud Storage
- Menggunakan command line untuk membuat dan menjalankan tugas Dataflow untuk melakukan streaming data dari topik Pub/Sub ke bucket Cloud Storage.
- Gunakan skrip Java atau Python sesuai pilihan Anda. Contoh kode tersedia di halaman GitHub: java-docs-samples, python-docs-samples.
- Gunakan topik Pub/Sub yang Anda buat di tugas 1.
- Gunakan bucket Cloud Storage yang Anda buat di tugas 3 sebagai lokasi output.
- Mengelompokkan pesan berdasarkan jendela waktu tetap selama 2 menit.
- Gunakan command line untuk memeriksa file mana yang telah ditulis di Cloud Storage.
Klik Periksa progres saya untuk memverifikasi tujuan.
Menjalankan pipeline Dataflow untuk melakukan streaming data dari topik Pub/Sub ke Cloud Storage
Selamat!

Mendapatkan badge keahlian Anda berikutnya
Lab mandiri ini merupakan bagian dari quest badge keahlian Membuat Data Lake Streaming di Cloud Storage. Dengan menyelesaikan Quest badge keahlian ini, Anda akan mendapatkan badge di atas sebagai pengakuan atas pencapaian Anda. Tampilkan badge di resume atau platform media sosial Anda, dan umumkan pencapaian Anda menggunakan hashtag #GoogleCloudBadge.
Sertifikasi dan pelatihan Google Cloud
...membantu Anda mengoptimalkan teknologi Google Cloud. Kelas kami mencakup keterampilan teknis dan praktik terbaik untuk membantu Anda memahami dengan cepat dan melanjutkan proses pembelajaran. Kami menawarkan pelatihan tingkat dasar hingga lanjutan dengan opsi on demand, live, dan virtual untuk menyesuaikan dengan jadwal Anda yang sibuk. Sertifikasi membantu Anda memvalidasi dan membuktikan keterampilan serta keahlian Anda dalam teknologi Google Cloud.
Manual Terakhir Diperbarui pada 20 September 2023
Lab Terakhir Diuji pada 20 September 2023
Hak cipta 2025 Google LLC. Semua hak dilindungi undang-undang. Google dan logo Google adalah merek dagang dari Google LLC. Semua nama perusahaan dan produk lain mungkin adalah merek dagang masing-masing perusahaan yang bersangkutan.