准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Create a Cloud Storage bucket
/ 50
Run an Example Pipeline Remotely
/ 50
Apache Beam SDK 是用於資料管道的開放原始碼程式設計模型。在 Google Cloud 中,您可以使用 Apache Beam 程式定義管道,並透過 Dataflow 執行管道。
在本實驗室中,您會運用 Apache Beam SDK for Python 為 Dataflow 設定 Python 開發環境,並執行 Dataflow 範例管道。
本實驗室的內容包括:
請詳閱以下操作說明。實驗室活動會計時,且中途無法暫停。點選「Start Lab」後就會開始計時,顯示可使用 Google Cloud 資源的時間。
您將在真正的雲端環境完成實作實驗室活動,而不是模擬或示範環境。為此,我們會提供新的暫時憑證,供您在實驗室活動期間登入及存取 Google Cloud。
為了順利完成這個實驗室,請先確認:
點選「Start Lab」按鈕。如果實驗室會產生費用,畫面上會出現選擇付款方式的對話方塊。左側的「Lab Details」窗格會顯示下列項目:
點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,選取「在無痕視窗中開啟連結」。
接著,實驗室會啟動相關資源,並開啟另一個分頁,顯示「登入」頁面。
提示:您可以在不同的視窗中並排開啟分頁。
如有必要,請將下方的 Username 貼到「登入」對話方塊。
您也可以在「Lab Details」窗格找到 Username。
點選「下一步」。
複製下方的 Password,並貼到「歡迎使用」對話方塊。
您也可以在「Lab Details」窗格找到 Password。
點選「下一步」。
按過後續的所有頁面:
Google Cloud 控制台稍後會在這個分頁開啟。
Cloud Shell 是搭載多項開發工具的虛擬機器,提供永久的 5 GB 主目錄,而且在 Google Cloud 中運作。Cloud Shell 提供指令列存取權,方便您使用 Google Cloud 資源。
點按 Google Cloud 控制台頂端的「啟用 Cloud Shell」圖示 。
系統顯示視窗時,請按照下列步驟操作:
連線建立完成即代表已通過驗證,而且專案已設為您的 Project_ID:
gcloud 是 Google Cloud 的指令列工具,已預先安裝於 Cloud Shell,並支援 Tab 鍵自動完成功能。
輸出內容:
輸出內容:
gcloud 的完整說明,請前往 Google Cloud 參閱 gcloud CLI 總覽指南。
請重新啟動與 Dataflow API 的連線,確保可順利使用這個必要的 API。
您可以確認 Dataflow API 已成功啟用。
API 啟用後,頁面上會顯示停用選項。
透過 Dataflow 執行管道時,結果會儲存於 Cloud Storage bucket。在這項工作中,您會建立 Cloud Storage bucket,用於儲存後續工作的管道執行結果。
us
點選「建立」。
如果出現「系統會禁止公開存取」提示訊息,請點選「確認」。
測試已完成的工作
點選「Check my progress」,確認工作已完成。如果順利完成,就會看見評估分數。
Python3.9 Docker 映像檔:這個指令會提取採用 Python 3.9 最新穩定版的 Docker 容器,接著開啟指令殼層,讓您在容器中執行下列指令。
這時會出現一些關於依附元件的警告。在本實驗室中,您可以放心忽略這些警告。
wordcount.py 範例:畫面可能會顯示類似以下的訊息:
您可以忽略這則訊息。
OUTPUT_FILE 名稱:OUTPUT_FILE 的名稱,然後貼到 cat 指令中:執行結果會顯示檔案中的每個字詞,以及各字詞的出現次數。
wordcount.py 範例:重複執行指令,直到工作開始並顯示以下訊息:
接著繼續完成實驗室工作。
畫面上會顯示 wordcount 工作,一開始的狀態為「執行中」。
如果狀態顯示「成功」,表示程序已完成。
測試已完成的工作
點選「Check my progress」,確認工作已完成。如果順利完成工作,就會看到評估分數。
在 Cloud 控制台中,依序按一下「導覽選單」>「Cloud Storage」。
按一下 bucket 名稱,bucket 中應該會顯示 results 和 staging 目錄。
按一下 results 資料夾,應該會出現工作建立的輸出檔案:
按一下檔案即可查看內含字數。
請回答下列選擇題,確實掌握這個實驗室介紹的概念。盡力回答即可。
您已瞭解如何運用 Apache Beam SDK for Python 為 Dataflow 設定 Python 開發環境,並成功執行 Dataflow 範例管道。
這個實驗室也包含在「Qwik Start」系列中,目的是帶您一窺 Google Cloud 的眾多功能。歡迎前往「Google Cloud Skills Boost 目錄」搜尋「Qwik Start」,尋找下一個吸引您的實驗室!
如想取得本實驗室的內容參考書籍,請參閱:《Data Science on the Google Cloud Platform: O'Reilly Media, Inc.》(Google Cloud Platform 的資料科學:O'Reilly Media, Inc.)。
協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。
使用手冊上次更新日期:2025 年 10 月 15 日
實驗室上次測試日期:2025 年 10 月 15 日
Copyright 2025 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验