시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Dataflow API
/ 10
Create a cloud Bigtable instance
/ 15
Create new cloud Bigtable table
/ 15
Load data files from cloud storage using a dataflow template
/ 30
Delete a Bigtable table and instance
/ 10
Bigtable은 Google의 확장 가능한 완전 관리형 NoSQL 데이터베이스 서비스로, 키-값 스토어에 대량의 데이터를 저장하는 데 적합하며 맞춤설정, 광고 기술, 금융 기술, 디지털 미디어, 사물 인터넷(IoT)과 같은 사용 사례에 활용하기 좋습니다. Bigtable은 짧은 지연 시간으로 높은 읽기 및 쓰기 처리량을 지원하므로 처리 및 분석을 위해 대량의 데이터에 빠르게 액세스할 수 있습니다.
맞춤형 사용 사례의 경우 Bigtable은 온라인 제품과 사용자의 상호작용을 저장하기 위한 높은 쓰기 처리량과, 이러한 상호작용을 맞춤화된 추천을 생성하는 모델에 제공하기 위한 높은 읽기 처리량을 모두 처리할 수 있습니다.
이 실습에서는 Google Cloud 콘솔을 사용하여 Bigtable 인스턴스를 만듭니다. 여기에는 제품과 사용자의 상호작용을 저장할 테이블이 포함됩니다. 그런 다음 Dataflow 템플릿을 사용하여 Cloud Storage에 사전 생성된 데이터 파일로 테이블을 채웁니다. Dataflow 작업이 완료되면 테이블에 데이터가 잘 채워졌는지 확인한 다음 Bigtable 데이터를 삭제하여 실습을 완료합니다.
이 실습에서는 코드 작성 없이 Bigtable 인스턴스를 만들고 Cloud Storage에서 데이터를 로드하는 방법을 알아봅니다.
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.
다음을 클릭합니다.
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.
다음을 클릭합니다.
이후에 표시되는 페이지를 클릭하여 넘깁니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.
Google Cloud 콘솔 상단에서 Cloud Shell 활성화 를 클릭합니다.
다음 창을 클릭합니다.
연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID,
gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.
출력:
출력:
gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.
필요한 API에 액세스할 수 있도록 Dataflow API에 대한 연결을 다시 시작합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Bigtable에서 새 테이블을 만들려면 먼저 테이블을 저장할 Bigtable 인스턴스를 만들어야 합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 데이터베이스 아래의 Bigtable을 클릭합니다.
인스턴스 만들기를 클릭합니다.
Bigtable 인스턴스를 만들려면 필요한 정보를 입력하세요.
| 속성 | 값 |
|---|---|
| 인스턴스 이름 | 맞춤형 판매 |
| 인스턴스 ID | 기본값을 유지합니다. |
| 저장소 유형 | SSD |
| 클러스터 ID | 기본값을 유지합니다. |
| 리전 | |
| 영역 | |
| 노드 확장 모드 | 수동 할당 |
| 수량 | 기본값을 유지합니다. |
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Bigtable에서는 테이블의 행마다 row key라는 고유 식별자가 있으며, 테이블의 열은 column family별로 그룹화하여 연관된 열을 관리합니다. 이 태스크에서는 사용자 상호작용에 적합한 row key와 column family를 사용하여 새 Bigtable 테이블을 만듭니다.
먼저 UserSessions라는 테이블을 만들어 다양한 제품에 대한 사용자의 온라인 상호작용과 확정된 판매 내역을 저장합니다. 이때 사용자 ID와 타임스탬프를 결합한 것을 row key로 사용합니다. 그런 다음 연관된 열을 정리하는 데 도움이 되도록 상호작용 및 판매라는 두 개의 column family를 만듭니다.
Bigtable 인스턴스 목록에서 personalized-sales라는 인스턴스 ID를 클릭합니다.
탐색 메뉴에서 인스턴스 아래의 테이블을 클릭합니다.
테이블 만들기를 클릭합니다.
테이블 ID에는 UserSessions를 입력합니다.
column family 추가를 클릭합니다.
column family 이름에 상호작용을 입력합니다.
가비지 컬렉션 정책은 기본값으로 유지합니다.
완료를 클릭합니다.
판매라는 다른 column family를 만들려면 5~7단계를 반복합니다.
만들기를 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이 태스크에서는 Cloud Storage에서 Bigtable로 데이터를 로드하기 위해 Dataflow 작업을 실행합니다. Dataflow 작업을 성공적으로 실행하려면 먼저 Dataflow가 필요에 따라 임시 파일을 쓸 수 있도록 Cloud Storage 버킷을 만들어야 합니다. 이렇게 하면 템플릿에서 새 Dataflow 작업을 만들고 실행할 수 있습니다.
Google Cloud 콘솔의 탐색 메뉴()에서 Cloud 개요 > 대시보드를 클릭합니다.
프로젝트 정보 아래의 프로젝트 ID(예:
이미 전역적으로 고유한 Qwiklabs 프로젝트 ID를 Cloud Storage 버킷 이름으로 사용하겠습니다.
Google Cloud 콘솔의 탐색 메뉴()에서 Cloud Storage > 버킷을 클릭합니다.
버킷 만들기를 클릭합니다.
Cloud Storage 버킷을 만들려면 필요한 정보를 입력합니다. 이때 project-id를 2단계에서 복사한 프로젝트 ID로 대체합니다.
| 속성 | 값 |
|---|---|
| 이름 | 프로젝트 ID |
| 위치 유형 | 멀티 리전 |
| 위치 | us(미국 내 여러 리전) |
그 외 파라미터는 기본값을 그대로 둡니다.
만들기를 클릭합니다.
공개 액세스가 차단됨이라는 메시지가 표시되면 확인을 클릭합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 애널리틱스 아래의 Dataflow > 작업을 클릭합니다.
템플릿에서 작업 만들기를 클릭합니다.
템플릿에서 Dataflow 작업을 만들려면 필요한 정보를 입력합니다. 이때 프로젝트 ID를 이전에 복사한 프로젝트 ID로 대체합니다.
| 속성 | 값 |
|---|---|
| 작업 이름 | import-usersessions |
| 리전 엔드포인트 | |
| Dataflow 템플릿 | SequenceFile Files on Cloud Storage to Cloud Bigtable |
| 프로젝트 ID | project-id |
| 인스턴스 ID | personalized-sales |
| 테이블 ID | UserSessions |
| 소스 경로 패턴 | gs://spls/gsp1054/retail-interactions-sales-00000-of-00001 |
| 임시 위치 | gs://project-id/temp |
그 외 파라미터는 기본값을 그대로 둡니다.
작업 실행을 클릭합니다.
작업 그래프 페이지에서 작업 단계 뷰 아래의 그래프 뷰를 선택합니다.
그래프 뷰는 다음 단계를 완료하기 위해 진행되는 작업 방식을 그래프로 표시합니다.
작업이 완료되면 작업 그래프의 각 태스크 옆에 성공 상태의 녹색 체크표시가 나타납니다. 이 작업을 실행하는 데 약 3~5분이 소요됩니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Dataflow 작업이 완료되면 cbt(Cloud Bigtable 명령줄 도구) 명령어를 사용하여 Bigtable 인스턴스에 연결하고 테이블에 데이터가 채워졌는지 확인할 수 있습니다.
cbt CLI 명령어를 사용하여 Bigtable에 연결하려면 먼저 Cloud Shell을 사용하여 프로젝트 ID와 Bigtable 인스턴스 ID로 .cbtrc 구성 파일을 업데이트해야 합니다.
Cloud Shell에 액세스하는 방법을 검토하려면 이 페이지의 오른쪽 메뉴에서 설정 및 요구사항을 클릭합니다.
.cbtrc 파일을 수정하려면 Cloud Shell에서 다음 명령어를 실행합니다..cbtrc 파일이 수정됐는지 확인하려면 다음 명령어를 실행합니다.다음과 유사한 결과가 출력됩니다.
Cloud Shell에서 .cbtrc 구성 파일을 구성한 다음, 간단한 cbt CLI 명령어를 실행하여 테이블의 처음 10개 레코드를 쿼리할 수 있습니다.
출력은 다음과 같이 구성됩니다.
출력 값은 다음과 유사합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 데이터베이스 아래의 Bigtable을 클릭합니다.
Bigtable 인스턴스 목록에서 personalized-sales라는 인스턴스 ID를 클릭합니다.
탐색 메뉴에서 인스턴스 아래의 테이블을 클릭합니다.
UserSessions라는 테이블을 클릭합니다.
테이블 삭제를 클릭합니다.
확인 대화상자에서 UserSessions를 입력합니다.
삭제를 클릭합니다.
탐색 메뉴에서 인스턴스 아래의 개요를 클릭합니다.
인스턴스 삭제를 클릭합니다.
확인 대화상자에서 personalized-sales를 입력합니다.
삭제를 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이 실습에서는 Bigtable을 사용하여 새 인스턴스와 테이블을 만들고, Dataflow 템플릿을 사용하여 테이블에 데이터를 로드하고, 간단한 cbt CLI 명령어를 실행하여 데이터가 잘 로드되었는지 확인했습니다. 이후 Bigtable 테이블과 인스턴스를 삭제하여 실습을 완료했습니다.
Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.
설명서 최종 업데이트: 2025년 8월 13일
실습 최종 테스트: 2025년 8월 13일
Copyright 2025 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.