실습 설정 안내 및 요구사항
계정과 진행 상황을 보호하세요. 이 실습을 실행하려면 항상 시크릿 브라우저 창과 실습 사용자 인증 정보를 사용하세요.

Bigtable로 데이터 스트리밍하기

실습 25분 universal_currency_alt 크레딧 1개 show_chart 입문
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
이 콘텐츠는 아직 휴대기기에 최적화되지 않음
최상의 경험을 위해 데스크톱 컴퓨터에서 이메일로 전송된 링크를 사용하여 방문하세요.

GSP1055

Google Cloud 사용자 주도형 실습 로고

개요

Bigtable은 Google의 확장 가능한 완전 관리형 NoSQL 데이터베이스 서비스로, 키-값 저장소에 대량의 데이터를 저장하는 데 이상적일 뿐만 아니라 맞춤설정, 광고 기술, 금융 기술, 디지털 미디어, 사물 인터넷(IoT)과 같은 사용 사례에 적합합니다. Bigtable은 짧은 지연 시간으로 높은 읽기 및 쓰기 처리량을 지원하므로 처리 및 분석을 위해 대량의 데이터에 빠르게 액세스할 수 있습니다.

센서에서 스트리밍되는 데이터의 경우 Bigtable은 대량의 실시간 데이터를 캡처하기 위해 높은 쓰기 속도를 처리할 수 있습니다.

이 실습에서는 명령어를 사용하여 시뮬레이션된 트래픽 센서 데이터를 저장할 테이블이 있는 Bigtable 인스턴스를 만듭니다. 그런 다음 Dataflow 파이프라인을 실행하여 Pub/Sub에서 시뮬레이션된 스트리밍 데이터를 Bigtable로 로드합니다. Dataflow 작업이 Pub/Sub에서 Bigtable로 스트리밍 데이터를 로드하는 동안 테이블이 성공적으로 채워지고 있는지 확인합니다. 스트리밍 작업을 중지하고 Bigtable 데이터를 삭제하면 실습이 완료됩니다.

실습할 내용

이 실습에서는 명령어를 사용하여 Bigtable 인스턴스와 테이블을 만들고 Dataflow를 사용하여 스트리밍 데이터를 로드하는 방법을 알아봅니다.

  • Google Cloud CLI(gcloud CLI) 명령어를 사용하여 Bigtable 인스턴스를 만듭니다.
  • Cloud Bigtable CLI(cbt CLI) 명령어를 사용하여 column family가 있는 Bigtable 테이블을 만듭니다.
  • Dataflow 파이프라인을 실행하여 Pub/Sub에서 스트리밍 데이터를 읽고 Bigtable에 씁니다.
  • Bigtable에 로드된 스트리밍 데이터를 확인합니다.
  • 명령어를 사용하여 Bigtable 테이블과 Bigtable 인스턴스를 삭제합니다.

기본 요건

설정 및 요건

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드(권장) 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학습자 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간(실습을 시작하고 나면 일시중지할 수 없음)
참고: 이 실습에는 학습자 계정만 사용하세요. 다른 Google Cloud 계정을 사용하는 경우 해당 계정에 비용이 청구될 수 있습니다.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스에 액세스하려면 탐색 메뉴를 클릭하거나 검색창에 제품 또는 서비스 이름을 입력합니다. 탐색 메뉴 아이콘 및 검색창

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 Cloud Shell 활성화 아이콘를 클릭합니다.

  2. 다음 창을 클릭합니다.

    • Cloud Shell 정보 창을 통해 계속 진행합니다.
    • 사용자 인증 정보를 사용하여 Google Cloud API를 호출할 수 있도록 Cloud Shell을 승인합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID, (으)로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

출력:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.

작업 1. 명령어를 사용하여 Bigtable 인스턴스 및 테이블 만들기

Bigtable에서 새 테이블을 만들려면 먼저 테이블을 저장할 Bigtable 인스턴스를 만들어야 합니다. Bigtable 인스턴스를 만들려면 Google Cloud 콘솔, gcloud CLI 명령어 또는 cbt CLI 명령어를 사용하면 됩니다.

이 작업에서는 Cloud Shell을 사용하여 먼저 gcloud CLI 명령어를 실행해 새 Bigtable 인스턴스를 만든 후 cbt CLI 명령어를 실행하여 Bigtable에 연결하고 새 테이블을 만듭니다.

Cloud Shell에 액세스하는 방법을 알아보려면 이 페이지의 오른쪽 메뉴에서 설정 및 요건을 클릭합니다.

Bigtable 인스턴스 만들기

  • 새 Bigtable 인스턴스를 만들려면 Cloud Shell에서 다음 명령어를 실행합니다.
gcloud bigtable instances create sandiego \ --display-name="San Diego Traffic Sensors" \ --cluster-storage-type=SSD \ --cluster-config=id=sandiego-traffic-sensors-c1,zone={{{project_0.default_zone | ZONE}}},nodes=1

이 명령어는 다음 속성을 가진 새로운 Bigtable 인스턴스를 만듭니다.

속성
인스턴스 ID sandiego
인스턴스 표시 이름 San Diego Traffic Sensors
스토리지 유형 SSD
클러스터 ID sandiego-traffic-sensors-c1
영역
노드 확장 모드 수동 할당
노드 수 1

출력 메시지가 표시되면 다음 단계로 진행합니다.

Creating bigtable instance sandiego...done.

Bigtable CLI 구성하기

cbt CLI 명령어를 사용하여 Bigtable에 연결하려면 먼저 Cloud Shell을 사용하여 프로젝트 ID와 Bigtable 인스턴스 ID로 .cbtrc 구성 파일을 업데이트해야 합니다.

  1. 프로젝트 ID와 인스턴스 ID로 .cbtrc 파일을 수정하려면 다음 명령어를 실행합니다.
echo project = `gcloud config get-value project` \ >> ~/.cbtrc echo instance = sandiego \ >> ~/.cbtrc
  1. .cbtrc 파일을 성공적으로 수정했는지 확인하려면 다음 명령어를 실행합니다.
cat ~/.cbtrc

다음과 유사한 결과가 출력됩니다.

project = <project-id> instance = sandiego

column family가 있는 Bigtable 테이블 만들기

Cloud Shell에서 .cbtrc 구성 파일을 구성한 후에는 간단한 cbt CLI 명령어를 실행하여 column family가 있는 새 Bigtable 테이블을 만들 수 있습니다.

  • lane이라는 column family가 하나 포함된 current_conditions 테이블을 새로 만들려면 다음 명령어를 실행합니다.
cbt createtable current_conditions \ families="lane"

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Bigtable 인스턴스 및 테이블 만들기

작업 2. Pub/Sub로 스트리밍 트래픽 센서 데이터 시뮬레이션하기

이 작업에서는 이 실습을 위해 생성된 Compute Engine 가상 머신(VM)에서 스트리밍 데이터 시뮬레이터를 실행합니다. 이 작업을 시작하려면 training-vm이라는 VM에 명령어를 입력하여 환경을 설정하고 스트리밍 데이터 시뮬레이터에 필요한 파일을 다운로드합니다.

VM에 연결하기

  1. Google Cloud 콘솔의 탐색 메뉴에서 Compute Engine > VM 인스턴스를 클릭합니다.

  2. training-vm 인스턴스가 있는 줄을 찾고 연결에서 SSH를 클릭합니다.

    training-vm의 터미널 창이 열립니다.

    training-vm이 백그라운드에서 몇 가지 소프트웨어를 설치합니다. 다음 단계에서는 새 디렉터리의 콘텐츠를 확인하여 설정이 완료되었는지 확인합니다.

  3. training 디렉터리의 콘텐츠를 나열하려면 다음 명령어를 실행합니다.

ls /training

ls 명령어의 출력이 다음과 같은 결과를 반환하면 VM을 계속 사용할 수 있습니다.

bq_magic.sh project_env.sh sensor_magic.sh

3개의 스크립트가 나열되지 않으면 몇 분 정도 기다린 후 다시 시도하세요.

참고: 모든 백그라운드 작업이 완료되려면 2~3분 정도 걸립니다.

스크립트를 실행하여 스트리밍 데이터 시뮬레이션하기

  1. 이 실습에서 사용할 코드 저장소를 다운로드하려면 다음 명령어를 실행합니다.
git clone https://github.com/GoogleCloudPlatform/training-data-analyst
  1. 필요한 환경 변수를 설정하려면 다음 명령어를 실행합니다.
source /training/project_env.sh

이 스크립트는 $DEVSHELL_PROJECT_ID$BUCKET 환경 변수를 설정하므로 프로젝트 ID와 Cloud Storage 버킷 이름에 대한 이러한 변수를 수동으로 설정하지 않아도 됩니다.

Cloud Storage 버킷은 실습 리소스를 초기하는 동안 생성되었습니다.

  1. 스트리밍 데이터 시뮬레이터를 시작하려면 다음 명령어를 실행합니다.
/training/sensor_magic.sh

이 스크립트는 CSV 파일에서 샘플 데이터를 읽어 Pub/Sub에 게시하며 1시간 분량의 데이터를 1분 안에 전송합니다.

스크립트가 현재 터미널에서 계속 실행되도록 두고 다음 작업을 진행합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Pub/Sub로 스트리밍 트래픽 센서 데이터 시뮬레이션하기

작업 3. Dataflow 파이프라인을 실행하여 Pub/Sub에서 Bigtable로 데이터 쓰기

이 작업에서는 training_vm에서 두 번째 SSH 터미널을 열고 명령어를 실행하여 Pub/Sub에서 Bigtable로 스트리밍 데이터를 작성하는 Dataflow 작업을 실행합니다.

두 번째 SSH 터미널 열기

  1. 현재 터미널 창에서 터미널 설정(ssh_gear_settings.png)을 클릭한 후 새 연결을 클릭합니다.

두 번째 터미널 창이 열립니다. 새 터미널 세션에는 필수 환경 변수가 없습니다. 다음 단계에서는 새 터미널 세션에서 이러한 변수를 설정합니다.

  1. 새 터미널에서 환경 변수를 설정하려면 다음 명령어를 실행합니다.
source /training/project_env.sh

이 스크립트는 새 터미널 창에서 $DEVSHELL_PROJECT_ID$BUCKET 환경 변수를 설정합니다.

Dataflow 파이프라인 실행하기

  1. 새 터미널에서 코드 디렉터리로 이동하려면 다음 명령어를 실행합니다.
cd ~/training-data-analyst/courses/streaming/process/sandiego
  1. nano를 사용하여 스크립트를 검토하려면 다음 명령어를 실행합니다.
nano run_oncloud.sh

코드를 수정하지 마세요.

이 스크립트는 Dataflow 작업을 실행하기 위해 세 가지 필수 인수를 사용합니다.

  • 프로젝트 ID
  • Cloud Storage 버킷 이름
  • Java classname
  • 네 번째 인수 옵션(선택 사항)

다음 단계에서는 --bigtable 옵션을 사용하여 Dataflow 파이프라인이 Bigtable에 데이터를 쓰도록 지시합니다.

  1. nano를 종료하려면 Ctrl+X를 누릅니다.

  2. 프로젝트의 기본 리전을 사용하도록 run_oncloud.sh 스크립트를 구성하려면 다음 명령어를 실행합니다.

sed -i 's/\$REGION/{{{project_0.default_region | REGION}}}/' run_oncloud.sh
  1. Dataflow 파이프라인을 실행하여 Pub/Sub에서 읽고 Bigtable에 쓰려면 다음 명령어를 실행합니다.
./run_oncloud.sh $DEVSHELL_PROJECT_ID $BUCKET CurrentConditions --bigtable

파이프라인이 성공적으로 실행되면 다음과 같은 메시지가 표시됩니다.

[INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 01:09 min [INFO] Finished at: 2022-06-01T17:21:29+00:00 [INFO] Final Memory: 60M/220M [INFO] ------------------------------------------------------------------------

Dataflow 파이프라인 살펴보기

  1. Google Cloud 콘솔의 탐색 메뉴에서 모든 제품 보기를 클릭합니다. 분석에서 Dataflow > 작업을 클릭합니다.

  2. 새 파이프라인 작업 이름을 클릭합니다.

  3. 파이프라인 그래프에서 write:cbt 단계를 찾고 write:cbt 옆에 있는 아래쪽 화살표를 클릭하여 작성자의 세부정보를 확인합니다.

  4. 제공된 작성자를 클릭하고 단계 정보에 제공된 세부정보를 검토합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. Dataflow 파이프라인 실행하기

작업 4. Bigtable에 로드된 스트리밍 데이터 확인하기

이전 작업에서 .cbtrc 구성 파일을 이미 Cloud Shell에서 구성했습니다. 이제 간단한 cbt CLI 명령어를 실행하여 테이블의 처음 5개 레코드를 쿼리할 수 있습니다.

  • 데이터의 처음 5개 행과 lane column family에서 그 값을 확인하려면 다음 명령어를 실행합니다.
cbt read current_conditions count=5 \ columns="lane:.*"

출력은 다음과 같이 구성됩니다.

---------------------------------------------- ROW KEY COLUMN_FAMILY:COLUMN_QUALIFIER @ TIMESTAMP VALUE

출력 값은 다음과 같습니다.

---------------------------------------------- 15#S#1#9223370811310975807 lane:direction @ 1970/01/15-04:25:43.800000 "S" lane:highway @ 1970/01/15-04:25:43.800000 "15" lane:lane @ 1970/01/15-04:25:43.800000 "1.0" lane:latitude @ 1970/01/15-04:25:43.800000 "32.706184" lane:longitude @ 1970/01/15-04:25:43.800000 "-117.120565" lane:sensorId @ 1970/01/15-04:25:43.800000 "32.706184,-117.120565,15,S,1" lane:speed @ 1970/01/15-04:25:43.800000 "71.4" lane:timestamp @ 1970/01/15-04:25:43.800000 "2008-11-01 12:50:00"

작업 5. 스트리밍 작업 중지 및 Bigtable 데이터 삭제하기

이 마지막 작업에서는 명령어를 사용하여 스트리밍 데이터 작업을 중지하고 Bigtable 인스턴스와 테이블을 삭제합니다.

시뮬레이션된 스트리밍 데이터 중지하기

  1. 스트리밍 데이터 시뮬레이터가 있는 첫 번째 SSH 터미널에서 시뮬레이션을 중지하려면 CONTROL+C를 누릅니다.

Dataflow 작업 중지하기

  1. Google Cloud 콘솔의 탐색 메뉴에서 Dataflow > 작업을 클릭합니다.

  2. 파이프라인 작업 이름을 클릭합니다.

  3. 중지를 클릭합니다.

  4. 취소를 선택한 후 작업 중지를 클릭합니다.

Bigtable 테이블 및 인스턴스 삭제하기

  1. Bigtable 테이블을 삭제하려면 Cloud Shell에서 다음 명령어를 실행합니다.
cbt deletetable current_conditions
  1. Bigtable 인스턴스를 삭제하려면 다음 명령어를 실행합니다.
gcloud bigtable instances delete sandiego

확인 메시지가 표시되면 Y를 입력합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다. 스트리밍 작업 중지 및 Bigtable 데이터 삭제하기

수고하셨습니다

이 실습에서는 명령어를 사용하여 새 Bigtable 인스턴스와 테이블을 만들고, Dataflow를 사용하여 테이블에 데이터를 스트리밍하고, 간단한 cbt CLI 명령어를 실행하여 데이터가 Bigtable로 성공적으로 스트리밍되었는지 확인했습니다. 명령어를 사용하여 작업을 중지하고 Bigtable 테이블과 인스턴스를 삭제하여 실습을 완료했습니다.

다음 단계/더 학습하기

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2025년 8월 19일

실습 최종 테스트: 2025년 8월 19일

Copyright 2025 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

시크릿 브라우징 사용

  1. 실습에 입력한 사용자 이름비밀번호를 복사합니다.
  2. 비공개 모드에서 콘솔 열기를 클릭합니다.

콘솔에 로그인

    실습 사용자 인증 정보를 사용하여
  1. 로그인합니다. 다른 사용자 인증 정보를 사용하면 오류가 발생하거나 요금이 부과될 수 있습니다.
  2. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
  3. 실습을 완료했거나 다시 시작하려고 하는 경우가 아니면 실습 종료를 클릭하지 마세요. 이 버튼을 클릭하면 작업 내용이 지워지고 프로젝트가 삭제됩니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하는 가장 좋은 방법은 시크릿 모드 또는 시크릿 브라우저 창을 사용하는 것입니다. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.