准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Create a Cloud Storage bucket
/ 50
Run an Example Pipeline Remotely
/ 50
Apache Beam SDK 是一款用于数据流水线的开源编程模型。在 Google Cloud 中,您可以通过 Apache Beam 程序定义一条流水线,然后使用 Dataflow 来运行该流水线。
在本实验中,您将搭建用于 Dataflow 的 Python 开发环境(使用 Python 版 Apache Beam SDK),并运行 Dataflow 示例流水线。
在本实验中,您将学习如何:
请阅读以下说明。实验是计时的,并且您无法暂停实验。计时器在您点击开始实验后即开始计时,显示 Google Cloud 资源可供您使用多长时间。
此实操实验可让您在真实的云环境中开展实验活动,免受模拟或演示环境的局限。为此,我们会向您提供新的临时凭据,您可以在该实验的规定时间内通过此凭据登录和访问 Google Cloud。
为完成此实验,您需要:
点击开始实验按钮。如果该实验需要付费,系统会打开一个对话框供您选择支付方式。左侧是“实验详细信息”窗格,其中包含以下各项:
点击打开 Google Cloud 控制台(如果您使用的是 Chrome 浏览器,请右键点击并选择在无痕式窗口中打开链接)。
该实验会启动资源并打开另一个标签页,显示“登录”页面。
提示:将这些标签页安排在不同的窗口中,并排显示。
如有必要,请复制下方的用户名,然后将其粘贴到登录对话框中。
您也可以在“实验详细信息”窗格中找到“用户名”。
点击下一步。
复制下面的密码,然后将其粘贴到欢迎对话框中。
您也可以在“实验详细信息”窗格中找到“密码”。
点击下一步。
继续在后续页面中点击以完成相应操作:
片刻之后,系统会在此标签页中打开 Google Cloud 控制台。
Cloud Shell 是一种装有开发者工具的虚拟机。它提供了一个永久性的 5GB 主目录,并且在 Google Cloud 上运行。Cloud Shell 提供可用于访问您的 Google Cloud 资源的命令行工具。
点击 Google Cloud 控制台顶部的激活 Cloud Shell 。
在弹出的窗口中执行以下操作:
如果您连接成功,即表示您已通过身份验证,且项目 ID 会被设为您的 Project_ID
gcloud 是 Google Cloud 的命令行工具。它已预先安装在 Cloud Shell 上,且支持 Tab 自动补全功能。
输出:
输出:
gcloud 的完整文档,请参阅 gcloud CLI 概览指南。
为确保能够访问所需的 API,请重启与 Dataflow API 的连接。
您可以检查 Dataflow API 是否已成功启用。
当该 API 启用后,页面会显示停用选项。
当您使用 Dataflow 运行流水线时,运行结果会存储在 Cloud Storage 存储桶中。在本任务中,您将创建一个 Cloud Storage 存储桶,用于存储后续任务中运行的流水线运行结果。
us
点击创建。
如果出现“系统将禁止公开访问”的提示,点击确认。
检验已完成的任务
点击检查我的进度,验证您已完成的任务。如果您已成功完成该任务,系统会给出评分。
Python3.9 Docker 映像:此命令会拉取一个包含 Python 3.9 最新稳定版的 Docker 容器,然后打开一个命令 shell,供您在容器内运行后续命令。
系统会返回一些与依赖项相关的警告。在本实验中,您可以忽略这些警告。
wordcount.py 示例:您可能会看到如下类似消息:
您可以忽略此消息。
OUTPUT_FILE 的文件名:OUTPUT_FILE 的文件名,然后执行 cat 命令查看该文件:命令结果会显示文件中的每个字词,以及每个字词出现的次数。
wordcount.py 示例:重新运行该命令,直到作业开始并显示以下消息:
然后继续完成实验。
您会发现,您的 wordcount 作业最初的状态是正在运行。
当状态显示为成功时,表示进程完成。
检验已完成的任务
点击检查我的进度,验证您已完成的任务。如果您成功完成该任务,系统会给出评分。
在 Cloud 控制台中依次点击导航菜单 > Cloud Storage。
点击您的存储桶的名称。在该存储桶中,您会看到 results 和 staging 两个目录。
点击 results 文件夹,您会看到您的作业生成的输出文件:
点击文件,即可查看其中包含的词频统计结果。
以下是一道选择题,用于加深您对本实验相关概念的理解。请尽您所能作答。
您了解了如何搭建用于 Dataflow 的 Python 开发环境(使用 Python 版 Apache Beam SDK),并运行 Dataflow 示例流水线。
本实验是 Qwik Starts 系列实验的其中一项。这些实验旨在让您初步体验 Google Cloud 提供的众多功能。请在 Google Cloud Skills Boost 目录中搜索“Qwik Starts”,找到您要参与的下一项实验!
本实验根据Data Science on the Google Cloud Platform(《Google Cloud Platform 的数据科学》,O'Reilly Media, Inc 出版)的内容创建,点击链接获取此书。
…可帮助您充分利用 Google Cloud 技术。我们的课程会讲解各项技能与最佳实践,可帮助您迅速上手使用并继续学习更深入的知识。我们提供从基础到高级的全方位培训,并有点播、直播和虚拟三种方式选择,让您可以按照自己的日程安排学习时间。各项认证可以帮助您核实并证明您在 Google Cloud 技术方面的技能与专业知识。
本手册的最后更新时间:2025 年 10 月 15 日
本实验的最后测试时间:2025 年 10 月 15 日
版权所有 2025 Google LLC 保留所有权利。Google 和 Google 徽标是 Google LLC 的商标。其他所有公司名和产品名可能是其各自相关公司的商标。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验