실습 설정 안내 및 요구사항
계정과 진행 상황을 보호하세요. 이 실습을 실행하려면 항상 시크릿 브라우저 창과 실습 사용자 인증 정보를 사용하세요.

Cloud Spanner - 데이터 로드 및 백업 수행하기

실습 25분 universal_currency_alt 크레딧 1개 show_chart 입문
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
이 콘텐츠는 아직 휴대기기에 최적화되지 않음
최상의 경험을 위해 데스크톱 컴퓨터에서 이메일로 전송된 링크를 사용하여 방문하세요.

GSP1049

Google Cloud 사용자 주도형 실습 로고

개요

Cloud Spanner는 Google의 완전 관리되고 수평 확장 가능한 관계형 데이터베이스 서비스입니다. 금융 서비스, 게임, 소매, 기타 여러 업종의 고객은 일관성과 대규모 가용성이 중요한 까다로운 워크로드를 실행하는 데 Cloud Spanner를 사용합니다.

이 실습에서는 Cloud Spanner에 데이터를 로드하고 데이터베이스 백업을 수행하는 여러 가지 방법을 살펴봅니다.

실습할 내용

  • DML을 사용하여 데이터 삽입하기
  • 클라이언트 라이브러리를 통해 데이터 삽입하기
  • 클라이언트 라이브러리를 통해 배치 데이터 삽입하기
  • Dataflow를 사용하여 데이터 로드하기
  • 데이터베이스 백업하기

설정 및 요건

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드(권장) 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학습자 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간(실습을 시작하고 나면 일시중지할 수 없음)
참고: 이 실습에는 학습자 계정만 사용하세요. 다른 Google Cloud 계정을 사용하는 경우 해당 계정에 비용이 청구될 수 있습니다.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스에 액세스하려면 탐색 메뉴를 클릭하거나 검색창에 제품 또는 서비스 이름을 입력합니다. 탐색 메뉴 아이콘 및 검색창

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 Cloud Shell 활성화 아이콘를 클릭합니다.

  2. 다음 창을 클릭합니다.

    • Cloud Shell 정보 창을 통해 계속 진행합니다.
    • 사용자 인증 정보를 사용하여 Google Cloud API를 호출할 수 있도록 Cloud Shell을 승인합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID, (으)로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

출력:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.

작업 1. 인스턴스 살펴보기

배포 과정에서 Cloud Spanner 인스턴스, 데이터베이스, 테이블이 자동으로 생성되었습니다.

  1. 콘솔에서 탐색 메뉴(탐색 메뉴) > 모든 제품 보기를 엽니다. 데이터베이스 섹션에서 Spanner를 클릭합니다.

인스턴스 이름은 banking-instance입니다. 이를 클릭하여 데이터베이스를 살펴봅니다. 연결된 데이터베이스의 이름은 banking-db입니다. 클릭하여 탐색하면 Customer라는 이름의 테이블이 이미 있는 것을 볼 수 있습니다. 클릭하면 스키마를 확인할 수 있습니다.

  1. 지금은 테이블이 비어 있습니다. banking-db 개요 페이지로 돌아갑니다. 왼쪽 메뉴에서 Spanner Studio를 클릭한 후 다음을 실행합니다.
SELECT * FROM Customer;
  1. 반환되는 결과가 없습니다.

작업 2. DML을 사용하여 데이터 삽입하기

Spanner에 데이터를 삽입하는 가장 쉬운 방법은 DML을 사용하는 것입니다. Cloud Shell과 gcloud를 사용하면 INSERT를 포함하는 모든 DML 문을 실행할 수 있습니다.

  1. Cloud Shell에서 다음 명령어를 실행합니다.
gcloud spanner databases execute-sql banking-db --instance=banking-instance \ --sql="INSERT INTO Customer (CustomerId, Name, Location) VALUES ('bdaaaa97-1b4b-4e58-b4ad-84030de92235', 'Richard Nelson', 'Ada Ohio')"
  1. 콘솔로 돌아가서, 왼쪽 메뉴에서 개요를 클릭합니다. 고객 테이블로 이동하여 데이터를 선택하면 방금 삽입한 행을 볼 수 있습니다.

앞서 언급했듯이 gcloud를 사용하여 모든 DML 명령어를 실행할 수 있습니다. DML 및 Spanner에 관한 문서를 확인하세요.

물론 데이터베이스를 한 행씩 로드하는 것은 매우 비효율적입니다.

작업 3. 클라이언트 라이브러리를 통해 데이터 삽입하기

Spanner에 액세스하는 최적의 방법은 프로그래매틱 인터페이스를 사용하는 것입니다. C++, C#, Go, Java, Node.js, PHP, Python, Ruby 등 다양한 클라이언트 라이브러리가 있습니다.

  1. Cloud Shell에서 다음 명령어를 입력하여 Nano 텍스트 편집기를 호출하고 insert.py라는 이름의 빈 구성 파일을 새로 만듭니다.
nano insert.py
  1. 다음 코드 블록을 붙여넣습니다.
from google.cloud import spanner from google.cloud.spanner_v1 import param_types INSTANCE_ID = "banking-instance" DATABASE_ID = "banking-db" spanner_client = spanner.Client() instance = spanner_client.instance(INSTANCE_ID) database = instance.database(DATABASE_ID) def insert_customer(transaction): row_ct = transaction.execute_update( "INSERT INTO Customer (CustomerId, Name, Location)" "VALUES ('b2b4002d-7813-4551-b83b-366ef95f9273', 'Shana Underwood', 'Ely Iowa')" ) print("{} record(s) inserted.".format(row_ct)) database.run_in_transaction(insert_customer)
  1. Ctrl+X 키를 눌러 Nano를 종료하고 Y 키를 눌러 업데이트를 확인한 후 Enter 키를 눌러 변경사항을 저장합니다.

  2. Python 코드를 실행합니다.

python3 insert.py
  1. Cloud 콘솔을 새로고침하거나 왼쪽 메뉴에서 다른 항목을 클릭한 후 Data를 다시 클릭하면 데이터베이스에 새 행이 삽입된 것을 볼 수 있습니다.

gcloud와 마찬가지로 클라이언트 라이브러리를 사용하여 DML 문을 실행할 수 있습니다. 이 문서에서 모든 언어에 대한 다양한 예시를 확인할 수 있습니다.

이 방법은 gcloud를 사용하여 데이터를 로드하는 것보다 유연하지만, 행 수가 많은 소스를 로드할 때는 여전히 제한이 있습니다.

  1. 내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
클라이언트 라이브러리를 통해 데이터 삽입하기

작업 4. 클라이언트 라이브러리를 통해 배치 데이터 삽입하기

데이터를 Spanner에 로드하는 더 좋은 방법은 배치 단위로 로드하는 것입니다. 모든 클라이언트 라이브러리가 배치 로드를 지원합니다. 이 예시에서는 Python을 사용합니다.

  1. Cloud Shell에서 다음 명령어를 입력하여 Nano 텍스트 편집기를 호출하고 batch_insert.py라는 이름의 빈 구성 파일을 새로 만듭니다.
nano batch_insert.py
  1. 다음 코드 블록을 붙여넣습니다.
from google.cloud import spanner from google.cloud.spanner_v1 import param_types INSTANCE_ID = "banking-instance" DATABASE_ID = "banking-db" spanner_client = spanner.Client() instance = spanner_client.instance(INSTANCE_ID) database = instance.database(DATABASE_ID) with database.batch() as batch: batch.insert( table="Customer", columns=("CustomerId", "Name", "Location"), values=[ ('edfc683f-bd87-4bab-9423-01d1b2307c0d', 'John Elkins', 'Roy Utah'), ('1f3842ca-4529-40ff-acdd-88e8a87eb404', 'Martin Madrid', 'Ames Iowa'), ('3320d98e-6437-4515-9e83-137f105f7fbc', 'Theresa Henderson', 'Anna Texas'), ('6b2b2774-add9-4881-8702-d179af0518d8', 'Norma Carter', 'Bend Oregon'), ], ) print("Rows inserted")
  1. Ctrl+X 키를 눌러 Nano를 종료하고 Y 키를 눌러 업데이트를 확인한 후 Enter 키를 눌러 변경사항을 저장합니다.

  2. Python 코드를 실행합니다.

python3 batch_insert.py
  1. Cloud 콘솔로 돌아가서 새로고침하면 방금 삽입한 새 데이터를 볼 수 있습니다.

배치 방법은 한 건의 요청으로 실행되므로 더 효율적입니다. 한 번의 클라이언트-서버 왕복만 필요하기 때문에 지연 시간이 줄어듭니다.

그러나 이 방법으로 데이터를 로드하면 속도가 매우 느리고 리소스가 많이 소모됩니다.

  1. 내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
클라이언트 라이브러리를 통해 배치 데이터 삽입하기

작업 5. Dataflow를 사용하여 데이터 로드하기

Dataflow는 대규모 스트리밍 및 배치 데이터 처리를 위한 Google Cloud 서비스입니다. Dataflow는 여러 작업자를 사용하여 데이터 처리를 병렬로 실행합니다. 데이터가 처리되는 방식은 데이터의 출처(소스)에서 목적지(싱크)로 데이터를 변환하는 파이프라인을 사용하여 정의됩니다.

Spanner에는 Dataflow에서 데이터베이스를 소스 또는 싱크로 연결할 수 있는 커넥터가 있습니다.

대량의 데이터를 로드하려면 Dataflow의 서버리스 분산 기능을 사용하여 소스(예: Google Cloud Storage의 CSV 파일)에서 데이터를 읽고 싱크 커넥터를 사용하여 Spanner 데이터베이스에 로드할 수 있습니다.

  1. Dataflow 작업을 준비하려면 Cloud Shell에서 다음 명령어를 실행하여 프로젝트에 버킷을 만들고 그 안에 빈 파일이 있는 폴더를 만듭니다.
gsutil mb gs://{{{project_0.project_id|Project ID}}} touch emptyfile gsutil cp emptyfile gs://{{{project_0.project_id|Project ID}}}/tmp/emptyfile
  1. 올바른 API와 권한이 설정되었는지 확인하려면 Cloud Shell에서 다음 코드 블록을 실행합니다.
gcloud services disable dataflow.googleapis.com --force gcloud services enable dataflow.googleapis.com
  1. 콘솔에서 탐색 메뉴(탐색 메뉴) > 모든 제품 보기를 엽니다. 분석 섹션에서 Dataflow를 클릭합니다.

  2. 화면 상단에서 템플릿에서 작업 만들기를 클릭합니다.

  3. 템플릿에 다음 값을 입력합니다.

    • 작업 이름: spanner-load

    • 리전 엔드포인트:

  4. Dataflow 템플릿 선택기에서 아래로 스크롤하면 Dataflow에서 사용할 수 있는 다양한 청사진이 표시됩니다. 물론 Beam SDK를 사용하여 직접 맞춤형 파이프라인을 만들 수도 있습니다.

템플릿에는 다음과 같은 두 가지 주요 유형이 있습니다.

  • 스트림은 지속적으로 전송되고 처리되는 데이터(예: 웹사이트의 온라인 주문)를 위한 파이프라인을 만듭니다.
  • 배치는 시작과 끝이 있는 데이터 세트(예: Google Cloud Storage에 저장된 파일)를 처리합니다.

이 시나리오에서는 150,000개가 넘는 행이 있는 CSV 파일에서 Spanner 은행 데이터베이스로 데이터를 로드합니다.

  1. Cloud Storage의 텍스트 파일을 Cloud Spanner로 이동 템플릿을 선택합니다.

  2. 템플릿에 다음 값을 입력합니다.

항목
Cloud Spanner 인스턴스 ID banking-instance
Cloud Spanner 데이터베이스 ID banking-db
텍스트 가져오기 매니페스트 파일 spls/gsp1049/manifest.json



manifest.json 파일 형식은 이 템플릿의 튜토리얼에 설명되어 있습니다. (파라미터 입력 필드 바로 위에 있는 튜토리얼 열기를 클릭하여 액세스할 수 있습니다.)

매니페스트 파일은 Dataflow가 액세스하여 읽을 수 있는 Google Cloud Storage 버킷에 저장되어 있어야 합니다. 이 실습에서는 manifest.json의 콘텐츠가 다음과 같습니다.

{ "tables": [ { "table_name": "Customer", "file_patterns": [ "gs://spls/gsp1049/Customer_List.csv" ], "columns": [ {"column_name" : "CustomerId", "type_name" : "STRING" }, {"column_name" : "Name", "type_name" : "STRING" }, {"column_name" : "Location", "type_name" : "STRING" } ] } ] }

매니페스트 파일은 (Google Cloud Storage 버킷에도 저장되어 있는) CSV 파일의 테이블, 열의 이름과 유형(CSV 파일에 표시되는 순서대로), 파일 자체를 지정합니다.

CSV 파일은 다음과 같습니다.

9d238899-8348-4642-9c00-77dc4481145b,Nicole Anderson,Ada Ohio 360ecaa6-9ec3-4fa0-81a5-3b0dc629e1fa,Ellen Richardson,Ada Ohio 8ee6c2ea-923b-45db-8d51-7f8e7a117af0,Wendy Daniel,Ada Ohio 1d7112cc-c1ee-414f-9325-95c97f9a25d3,Virginia Beasley,Ada Ohio ...
  1. 임시 위치 매개변수로 다음 값을 입력합니다.
{{{project_0.project_id|Project ID}}}/tmp
  1. 선택적 매개변수를 펼칩니다.

  2. 기본 머신 유형 사용을 선택 해제합니다.

  3. 범용에서 다음을 선택합니다.

    • 시리즈: E2
    • 머신 유형: e2-medium(vCPU 2개, 메모리 4GB)
  4. 작업 실행을 클릭하여 파이프라인을 시작합니다.

  5. 이 프로세스에는 약 12~16분 정도 소요됩니다. Dataflow가 여러 단계를 거치는 것을 볼 수 있습니다. 먼저 작업자를 시작하고 템플릿의 파이프라인을 분석한 후 매니페스트 파일을 읽고 CSV 파일의 처리를 시작합니다.

참고: 작업자 노드가 프로비저닝되지 않아 파이프라인이 실패하는 경우, 4단계부터 시작하여 동일한 템플릿에서 동일한 이름으로 새 작업을 만드세요. 이번에는 미국에 있는 다른 리전 엔드포인트를 선택하세요. 예를 들어 5단계에서 리전 엔드포인트로 "us-east4"가 나열되었다면 두 번째 시도에서는 "us-east1"을 사용해 보세요.

Dataflow가 처리를 완료할 때까지 기다린 후 계속 진행합니다. 완료되면 상태가 성공으로 표시됩니다.

  1. Cloud 콘솔의 왼쪽 메뉴에서 Spanner를 선택하여 Spanner로 돌아갑니다. 고객 테이블로 이동하여 데이터를 선택합니다. Dataflow를 사용하여 로드된 모든 새 행을 볼 수 있습니다.

  2. banking-db 개요 페이지로 돌아갑니다. 왼쪽 메뉴에서 Spanner Studio를 클릭하고 다음을 실행하여 고객 테이블의 총 행 수를 확인합니다.

SELECT COUNT(*) FROM Customer;

Dataflow 템플릿을 사용하면 대량의 데이터를 쉽고 빠르게 로드할 수 있습니다. 다른 데이터베이스에서 덤프를 로드할 수 있으며, 같은 방법으로 CSV뿐 아니라 Avro 파일도 로드할 수 있습니다. Spanner 데이터베이스를 Dataflow의 소스로 사용하여 데이터를 CSV 또는 Avro 형식으로 내보내는 방식으로 프로세스를 역으로 실행할 수도 있습니다.

  1. 내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Dataflow를 사용하여 데이터 로드하기

작업 6. 데이터베이스 백업하기

위에서 설명한 대로 Dataflow를 사용하면 데이터의 백업을 만들 수 있습니다. Spanner에는 백업을 위한 자체 도구도 있습니다. Cloud 콘솔, 클라이언트 라이브러리 또는 gcloud 명령어를 사용하여 Spanner 데이터베이스를 백업할 수 있습니다. 문서를 보려면 앞에 나온 링크를 확인하세요.

이 실습에서는 Cloud 콘솔을 사용하여 데이터베이스를 백업합니다.

  1. 왼쪽 메뉴에서 백업/복원을 선택합니다.

  2. 백업 만들기를 클릭합니다.

  3. 다음 값을 입력하거나 마법사에서 선택합니다.

항목
데이터베이스 이름 banking-db
백업 이름 banking-backup-001
만료일 1년



  1. 만들기를 클릭합니다.

  2. 백업이 완료되는 데 약 15분이 걸리며, 생성되는 동안 백업 목록에 표시됩니다.

수고하셨습니다

이제 Cloud Spanner 인스턴스에 데이터를 로드하고 백업을 수행하는 여러 가지 방법을 알게 되었습니다.

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2025년 9월 16일

실습 최종 테스트: 2025년 9월 16일

Copyright 2026 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

시크릿 브라우징 사용

  1. 실습에 입력한 사용자 이름비밀번호를 복사합니다.
  2. 비공개 모드에서 콘솔 열기를 클릭합니다.

콘솔에 로그인

    실습 사용자 인증 정보를 사용하여
  1. 로그인합니다. 다른 사용자 인증 정보를 사용하면 오류가 발생하거나 요금이 부과될 수 있습니다.
  2. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
  3. 실습을 완료했거나 다시 시작하려고 하는 경우가 아니면 실습 종료를 클릭하지 마세요. 이 버튼을 클릭하면 작업 내용이 지워지고 프로젝트가 삭제됩니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하는 가장 좋은 방법은 시크릿 모드 또는 시크릿 브라우저 창을 사용하는 것입니다. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.