
准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
在实验室挑战赛中,我们会为您提供一个场景和一系列任务。您将使用从课程的各个实验中学到的技能自行确定如何完成这些任务,而不是按照分步说明进行操作。自动评分系统(显示在本页面中)会提供有关您是否已正确完成任务的反馈。
在您参加实验室挑战赛期间,我们不会再教授新的 Google Cloud 概念知识。您需要拓展所学的技能,例如通过更改默认值和查看并研究错误消息来更正您自己所犯的错误。
要想获得满分,您必须在该时间段内成功完成所有任务!
我们建议已报名参加在 Google Cloud 上为机器学习 API 准备数据技能徽章课程的学员参加此实验室挑战赛。准备好接受挑战了吗?
测试的主题:
请阅读以下说明。实验是计时的,并且您无法暂停实验。计时器在您点击开始实验后即开始计时,显示 Google Cloud 资源可供您使用多长时间。
此实操实验可让您在真实的云环境中开展实验活动,免受模拟或演示环境的局限。为此,我们会向您提供新的临时凭据,您可以在该实验的规定时间内通过此凭据登录和访问 Google Cloud。
为完成此实验,您需要:
点击开始实验按钮。如果该实验需要付费,系统会打开一个对话框供您选择支付方式。左侧是“实验详细信息”窗格,其中包含以下各项:
点击打开 Google Cloud 控制台(如果您使用的是 Chrome 浏览器,请右键点击并选择在无痕式窗口中打开链接)。
该实验会启动资源并打开另一个标签页,显示“登录”页面。
提示:将这些标签页安排在不同的窗口中,并排显示。
如有必要,请复制下方的用户名,然后将其粘贴到登录对话框中。
您也可以在“实验详细信息”窗格中找到“用户名”。
点击下一步。
复制下面的密码,然后将其粘贴到欢迎对话框中。
您也可以在“实验详细信息”窗格中找到“密码”。
点击下一步。
继续在后续页面中点击以完成相应操作:
片刻之后,系统会在此标签页中打开 Google Cloud 控制台。
开始使用 Google Cloud 进行挑战之前,您需要确保您的项目在 Identity and Access Management (IAM) 中拥有正确的权限。
在 Google Cloud 控制台的导航菜单中,依次选择 IAM 和管理 > IAM。
确认默认计算服务账号 {project-number}-compute@developer.gserviceaccount.com
已存在且已授予 Editor
和 storage.admin
角色。账号前缀是项目编号,您可以在导航菜单 > Cloud 概览 > 信息中心中找到此编号。
storage.admin
角色,请按以下步骤授予所需的角色。729328892908
)。{project-number}
替换为您的项目编号。您是 Jooli Inc. 的初级数据工程师,最近参加了 Google Cloud 和一些数据服务方面的培训,现在您需要向大家展示自己学到的新技能。团队要求您完成以下任务。
您应该掌握了完成这些任务所需的技能和知识,所以我们不会提供分步指南。
在此任务中,您将使用“批量处理数据(批处理)”下的 Dataflow 批处理模板 Text Files on Cloud Storage to BigQuery,传输 Cloud Storage 存储桶 (gs://cloud-training/gsp323/lab.csv
) 中的数据。下表列出了正确配置 Dataflow 作业所需的值。
请确保您进行以下操作:
字段 | 值 |
---|---|
Cloud Storage 输入文件 | gs://cloud-training/gsp323/lab.csv |
BigQuery 架构文件的 Cloud Storage 位置 | gs://cloud-training/gsp323/lab.schema |
BigQuery 输出表 |
|
BigQuery 加载过程的临时目录 |
|
临时位置 |
|
可选参数 > Cloud Storage 中的 JavaScript UDF 路径 | gs://cloud-training/gsp323/lab.js |
可选参数 > JavaScript UDF 名称 | transform |
可选参数 > 机器类型 | e2-standard-2 |
等到作业完成后,再尝试检查您的进度。
点击检查我的进度,确认是否完成了以下目标。
在此任务中,您将使用 Dataproc 运行 Spark 作业示例。
在运行该作业之前,请登录其中一个集群节点,并将 /data.txt 文件复制到 hdfs(使用命令 hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
)。
使用以下值运行 Dataproc 作业。
字段 | 值 |
---|---|
区域 |
|
作业类型 | Spark |
主类或 jar 文件 | org.apache.spark.examples.SparkPageRank |
Jar 文件 | file:///usr/lib/spark/examples/jars/spark-examples.jar |
参数 | /data.txt |
每小时重启次数上限 | 1 |
Dataproc 集群 | Compute Engine |
区域 |
|
机器系列 | E2 |
管理器节点 | 将机器类型设置为 e2-standard-2 |
工作器节点 | 将机器类型设置为 e2-standard-2 |
工作器节点数上限 | 2 |
主磁盘大小 | 100 GB |
仅限内部 IP | 取消选中“将所有实例配置为只有内部 IP 地址” |
等到作业完成后,再尝试检查您的进度。
点击检查我的进度,确认是否完成了以下目标。
gs://cloud-training/gsp323/task3.flac
)。文件内容分析完毕后,请将生成的文件上传到:点击检查我的进度,确认是否完成了以下目标。
点击检查我的进度,确认是否完成了以下目标。
恭喜!在本实验室挑战赛中,您运行了一个简单的 Dataflow 作业、一个简单的 Dataproc 作业,并使用了 Google Cloud Speech-to-Text API 和 Cloud Natural Language API,以此展示了自己的技能。
本自学实验是在 Google Cloud 上为机器学习 API 准备数据技能徽章课程的组成部分。完成此技能徽章挑战任务可赢得上面的徽章,以表彰您取得的成就。您可以在简历和社交平台中分享自己的徽章,并使用 #GoogleCloudBadge 让大家知道您取得的这一成就。
此技能徽章挑战任务是 Google Cloud 的数据分析师和数据工程师学习路线的组成部分。
…可帮助您充分利用 Google Cloud 技术。我们的课程会讲解各项技能与最佳实践,可帮助您迅速上手使用并继续学习更深入的知识。我们提供从基础到高级的全方位培训,并有点播、直播和虚拟三种方式选择,让您可以按照自己的日程安排学习时间。各项认证可以帮助您核实并证明您在 Google Cloud 技术方面的技能与专业知识。
上次更新手册的时间:2024 年 3 月 25 日
上次测试实验的时间:2024 年 1 月 15 日
版权所有 2025 Google LLC 保留所有权利。Google 和 Google 徽标是 Google LLC 的商标。其他所有公司名和产品名可能是其各自相关公司的商标。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验