
시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Copy sample files to the training_vm home directory
/ 5
Simulate traffic sensor data into Pub/Sub
/ 5
Launch Dataflow Pipeline
/ 5
이 실습에서는 Dataflow를 사용하여 Google Cloud Pub/Sub를 통해 제공되는 시뮬레이션된 트래픽 센서 데이터로부터 트래픽 이벤트를 수집하여 Bigtable 테이블에 씁니다.
이번 실습에서는 다음 작업을 수행합니다.
각 실습에서는 정해진 기간 동안 새 Google Cloud 프로젝트와 리소스 집합이 무료로 제공됩니다.
시크릿 창을 사용하여 Qwiklabs에 로그인합니다.
실습 사용 가능 시간(예: 1:15:00
)을 참고하여 해당 시간 내에 완료합니다.
일시중지 기능은 없습니다. 필요한 경우 다시 시작할 수 있지만 처음부터 시작해야 합니다.
준비가 되면 실습 시작을 클릭합니다.
실습 사용자 인증 정보(사용자 이름 및 비밀번호)를 기록해 두세요. Google Cloud Console에 로그인합니다.
Google Console 열기를 클릭합니다.
다른 계정 사용을 클릭한 다음, 안내 메시지에 이 실습에 대한 사용자 인증 정보를 복사하여 붙여넣습니다.
다른 사용자 인증 정보를 사용하는 경우 오류가 발생하거나 요금이 부과됩니다.
약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
Google Cloud에서 작업을 시작하기 전에 프로젝트가 Identity and Access Management(IAM) 내에서 올바른 권한을 보유하고 있는지 확인해야 합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 IAM 및 관리자 > IAM을 선택합니다.
기본 컴퓨팅 서비스 계정 {project-number}-compute@developer.gserviceaccount.com
이 있고 editor
역할이 할당되어 있는지 확인하세요. 계정 프리픽스는 프로젝트 번호이며, 이 번호는 탐색 메뉴 > Cloud 개요 > 대시보드에서 확인할 수 있습니다.
editor
역할이 없는 경우 다음 단계에 따라 필요한 역할을 할당합니다.729328892908
)를 복사합니다.{project-number}
는 프로젝트 번호로 바꿉니다.학습용 VM에서 센서 시뮬레이터를 실행해야 합니다. 이 환경에는 파일이 여러 개 포함되어 있으며, 환경의 일부를 설정해야 합니다.
콘솔의 탐색 메뉴()에서 Compute Engine > VM 인스턴스를 클릭합니다.
training-vm 인스턴스가 있는 줄을 찾습니다.
맨 오른쪽에 있는 연결 열에서 SSH를 클릭하여 터미널 창을 엽니다. 그런 다음 연결을 클릭합니다.
이 실습에서는 training-vm에 CLI 명령어를 입력합니다.
목록(ls
) 명령어 결과가 아래 이미지와 같이 표시되면 설정이 완료된 것입니다. 전체 목록이 표시되지 않는 경우 몇 분 정도 기다린 후 다시 시도하세요.
이 스크립트는 $DEVSHELL_PROJECT_ID
및 $BUCKET
환경 변수를 설정합니다.
'내 진행 상황 확인하기'를 클릭하여 목표를 확인합니다.
이 명령어는 1시간 분량의 데이터를 1분 안에 보냅니다. 스크립트가 현재 터미널에서 계속 실행되도록 둡니다.
새 터미널 세션에는 필수 환경 변수가 없습니다. 다음 단계를 완료하여 이 변수를 설정합니다.
'내 진행 상황 확인하기'를 클릭하여 목표를 확인합니다.
이 스크립트는 어떤 역할을 하나요?
이 스크립트에는 project id, bucket name, classname이라는 세 가지 인수가 필요하며, options라는 네 번째 인수가 필요할 수도 있습니다. 이 실습 부분에서는 파이프라인이 Cloud Bigtable에 쓰도록 지시하는 --bigtable
옵션을 사용하겠습니다.
Ctrl+X를 눌러 종료합니다.
다음 명령어를 실행하여 Bigtable 인스턴스를 만듭니다.
실행에 성공하면 다음과 유사한 결과가 출력됩니다.
'내 진행 상황 확인하기'를 클릭하여 목표를 확인합니다.
콘솔의 브라우저 탭으로 돌아갑니다. 탐색 메뉴()에서 Dataflow를 클릭하고 새 파이프라인 작업을 클릭합니다. 파이프라인 작업이 나열되어 있고 오류 없이 실행되는지 확인합니다.
파이프라인 그래프에서 write:cbt 단계를 찾고 오른쪽에 있는 아래쪽 화살표를 클릭하여 작성기가 작동하는 것을 확인합니다. 해당 작성기를 클릭합니다. 단계 요약에서 Bigtable 옵션을 검토합니다.
반환된 행 목록이 표시될 때까지 'scan' 명령어를 반복합니다.
출력을 검토합니다. 각 행이 열, 타임스탬프, 값 조합으로 구분되어 있는 것을 볼 수 있습니다.
다른 쿼리를 실행합니다. 이번에는 lane: speed 열만 살펴봅니다. 10개 행으로 제한하고 스캔할 시작 행과 끝 행의 rowid 패턴을 지정합니다.
출력을 검토합니다. 열, 타임스탬프, 값 조합이 10개 표시되며 모두 15번 고속도로에 해당하는 것을 볼 수 있습니다. 열이 lane:speed로 제한되어 있는 것도 볼 수 있습니다.
구문에 익숙하다면 다른 쿼리도 자유롭게 실행해 봅니다. 만족스러우면 quit
을 입력하여 셸을 종료합니다.
확인하라는 메시지가 나타나면 Y
를 입력합니다.
Cloud 콘솔의 Dataflow 페이지에서 파이프라인 작업 이름을 클릭합니다.
상단 메뉴 바에서 중지를 클릭합니다. 취소를 선택한 후 작업 중지를 클릭합니다.
게시자가 있는 첫 번째 SSH 터미널로 돌아가고 Ctrl+C
를 입력하여 중지합니다.
BigQuery 콘솔에서 demos 데이터 세트 옆에 있는 점 세 개를 클릭한 후 삭제를 클릭합니다.
delete를 입력한 후 삭제를 클릭합니다.
실습을 완료하면 실습 종료를 클릭합니다. Google Cloud Skills Boost에서 사용된 리소스를 자동으로 삭제하고 계정을 지웁니다.
실습 경험을 평가할 수 있습니다. 해당하는 별표 수를 선택하고 의견을 입력한 후 제출을 클릭합니다.
별점의 의미는 다음과 같습니다.
의견을 제공하고 싶지 않다면 대화상자를 닫으면 됩니다.
의견이나 제안 또는 수정할 사항이 있다면 지원 탭을 사용하세요.
Copyright 2020 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.