准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Create a Dataproc cluster
/ 50
Submit a job
/ 30
Update a cluster
/ 20
Dataproc 是運作快速又簡單易用的全代管雲端服務,您可輕鬆以更具成本效益的方式,執行 Apache Spark 和 Apache Hadoop 叢集。過去需要數小時或數天處理的作業,現在只要幾秒或幾分鐘就能完成。您可以快速建立 Dataproc 叢集,並隨時視情況調整規模,無須擔心叢集無法容納資料管道。
本實驗室會說明如何透過 Google Cloud 控制台建立 Dataproc 叢集、在叢集中執行簡易的 Apache Spark 工作,然後修改叢集中的 worker 數量。
本實驗室的內容包括:
請詳閱以下操作說明。實驗室活動會計時,且中途無法暫停。點選「Start Lab」後就會開始計時,顯示可使用 Google Cloud 資源的時間。
您將在真正的雲端環境完成實作實驗室活動,而不是模擬或示範環境。為此,我們會提供新的暫時憑證,供您在實驗室活動期間登入及存取 Google Cloud。
為了順利完成這個實驗室,請先確認:
點選「Start Lab」按鈕。如果實驗室會產生費用,畫面上會出現選擇付款方式的對話方塊。左側的「Lab Details」窗格會顯示下列項目:
點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,選取「在無痕視窗中開啟連結」。
接著,實驗室會啟動相關資源,並開啟另一個分頁,顯示「登入」頁面。
提示:您可以在不同的視窗中並排開啟分頁。
如有必要,請將下方的 Username 貼到「登入」對話方塊。
您也可以在「Lab Details」窗格找到 Username。
點選「下一步」。
複製下方的 Password,並貼到「歡迎使用」對話方塊。
您也可以在「Lab Details」窗格找到 Password。
點選「下一步」。
按過後續的所有頁面:
Google Cloud 控制台稍後會在這個分頁開啟。
為順利透過 Google Cloud 建立 Dataproc 叢集,請務必啟用 Cloud Dataproc API。確認 API 是否啟用的步驟如下:
依序點選「導覽選單」>「API 和服務」>「程式庫」。
在「搜尋 API 和服務」對話方塊,輸入 Cloud Dataproc,控制台的搜尋結果會顯示 Cloud Dataproc API。
點選「Cloud Dataproc API」,查看該 API 的狀態。如果 API 尚未啟用,請點選「啟用」按鈕。
如果 API 已啟用,請按照實驗室的指示繼續操作。
建立叢集前,必須先按照下列步驟,將儲存權限指派給服務帳戶:
依序點選「導覽選單」>「IAM 與管理」>「身分與存取權管理」。
點選 compute@developer.gserviceaccount.com 服務帳戶旁的「鉛筆」圖示。
點選「+ 新增其他角色」按鈕,選取「Storage 管理員」角色。
選取「Storage 管理員」角色後,點選「儲存」。
在 Cloud Platform 控制台,依序選取「導覽選單」>「查看所有產品」>「Analytics」部分的「Dataproc」>「叢集」。
點選「Create cluster」。
為叢集設定下列欄位,並保留所有其他欄位的預設值:
| 欄位 | 值 |
|---|---|
| 名稱 | example-cluster |
| 區域 | |
| 可用區 | |
| 依序點選「設定節點」>「管理工具節點」>「Primary disk type」 | Standard Persistent Disk |
| 機器系列 (管理工具節點) | E2 |
| 機型 (管理工具節點) | e2-standard-2 |
| 主要磁碟大小 (管理工具節點) | 30 GB |
| worker 節點數 | 2 |
| Primary disk type (worker 節點) | Standard Persistent Disk |
| 機器系列 (worker 節點) | E2 |
| 機型 (worker 節點) | e2-standard-2 |
| 主要磁碟大小 (worker 節點) | 30 GB |
| 點選「自訂叢集」,找到「僅限內部 IP」部分 | 取消選取「將所有執行個體設為僅具備內部 IP 位址」 |
us-central1 或 europe-west1 等不同區域,將使用者指定區域中,Cloud Dataproc 所用資源 (包括 VM 執行個體和 Cloud Storage) 與中繼資料的儲存位置區隔開來。新叢集會出現在「叢集」清單中。建立作業可能需要幾分鐘才能完成,期間叢集狀態會顯示為「佈建中」,待叢集可以使用後,狀態就會變更為「執行中」。
測試已完成的工作
點選「Check my progress」,確認工作已完成。
請按照下列步驟執行範例 Spark 工作:
點選左側窗格中的「工作」,切換至 Dataproc 工作檢視畫面,然後點選「提交工作」。
設定下列欄位來更新工作,並保留所有其他欄位的預設值:
| 欄位 | 值 |
|---|---|
| 區域 | |
| 叢集 | example-cluster |
| 工作類型 | Spark |
| 主要類別或 jar 檔案 | org.apache.spark.examples.SparkPi |
| Jar 檔案 | file:///usr/lib/spark/examples/jars/spark-examples.jar |
| 引數 | 1000 (這會設定任務數量) |
您的工作應該會出現在「工作」清單,當中包含當前專案的所有工作,以及相關的叢集、類型與目前狀態。目前顯示的工作狀態是「執行中」,完成後就會變更為「已完成」。
測試已完成的工作
點選「Check my progress」,確認工作已完成。
請按照下列步驟查看已完成工作的輸出內容:
在「工作」清單,點選工作 ID。
將「換行」設為啟用,或是捲動至最右側來查看計算出的圓周率。您將「換行」設為啟用後,輸出內容應如下所示:
這表示工作已成功計算出圓周率的粗估值!
請按照下列步驟變更叢集中的 worker 執行個體數量:
選取左側導覽窗格中的「叢集」,返回 Dataproc 叢集檢視畫面。
在「叢集」清單,點選「example-cluster」。根據預設,這個頁面會顯示叢集的 CPU 使用率總覽。
點選「設定」查看叢集目前的設定。
點選「編輯」,即可修改 worker 節點的數量。
在「worker 節點數」欄位,輸入 4。
點選「儲存」。
叢集現已更新完成,請檢查叢集中的 VM 執行個體數量。
測試已完成的工作
點選「Check my progress」,確認工作已完成。
依序點選左側窗格中的「工作」和「提交工作」,使用更新後的叢集重新執行工作。
參考「提交工作」一節,設定相同的欄位:
| 欄位 | 值 |
|---|---|
| 區域 | |
| 叢集 | example-cluster |
| 工作類型 | Spark |
| 主要類別或 jar 檔案 | org.apache.spark.examples.SparkPi |
| Jar 檔案 | file:///usr/lib/spark/examples/jars/spark-examples.jar |
| 引數 | 1000 (這會設定任務數量) |
完成下列選擇題能加深您的印象,更清楚本實驗室介紹的概念,盡力回答即可。
您已瞭解如何透過 Google Cloud 控制台建立及更新 Dataproc 叢集,然後在該叢集中提交工作。
本實驗室屬於 Qwik Start 實驗室系列,旨在帶您一窺 Google Cloud 的眾多功能。歡迎在實驗室目錄中搜尋「Qwik Start」,看看接下來想參加哪個實驗室!
協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。
使用手冊上次更新日期:2026 年 2 月 17 日
實驗室上次測試日期:2026 年 2 月 17 日
Copyright 2026 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验