시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Load the data
/ 25
Add Cloud Data Fusion API Service Agent role to service account
/ 25
Deploy and execute batch pipeline
/ 25
View the results
/ 25
ETL은 추출(Extract), 변환(Transform), 로드(Load)를 나타냅니다. EL, ELT, ELTL 등 이 개념의 다양한 변형이 있습니다.
이 실습에서는 Cloud Data Fusion의 Pipeline Studio를 사용하여 ETL 파이프라인을 빌드하는 방법을 배웁니다. Pipeline Studio는 구성요소와 기본 제공 플러그인을 노출하여 일괄 파이프라인을 한 번에 하나의 노드로 빌드할 수 있도록 합니다. 또한 Wrangler 플러그인을 사용하여 파이프라인을 통과하는 데이터에 변환을 빌드하고 적용합니다.
ETL 애플리케이션의 가장 일반적인 데이터 소스는 일반적으로 쉼표로 구분된 값(CSV) 형식의 텍스트 파일에 저장된 데이터입니다. 많은 데이터베이스 시스템이 이러한 방식으로 데이터를 내보내고 가져옵니다. 이 실습에서는 CSV 파일을 사용하지만 동일한 기법을 DB 소스뿐만 아니라 사용 가능한 다른 데이터 소스에도 적용할 수 있습니다.
출력은 BigQuery 테이블에 작성되며 표준 SQL을 사용하여 이 타겟 데이터 세트에 대해 데이터 분석을 수행합니다.
이 실습에서는 다음 작업을 수행하는 방법을 배웁니다.
각 실습에서는 정해진 기간 동안 새 Google Cloud 프로젝트와 리소스 집합이 무료로 제공됩니다.
시크릿 창을 사용해 Google Cloud Skills Boost에 로그인합니다.
실습 사용 가능 시간(예: 02:00:00)을 참고하여 해당 시간 내에 완료합니다.
일시중지 기능은 없습니다. 필요한 경우 다시 시작할 수 있지만 처음부터 시작해야 합니다.
준비가 되면 실습 시작을 클릭합니다.
실습 사용자 인증 정보(사용자 이름 및 비밀번호)를 기록해 두세요. Google Cloud 콘솔에 로그인할 때 이 정보를 사용해야 합니다.
Google 콘솔 열기를 클릭합니다.
다른 계정 사용을 클릭한 다음, 안내 메시지에 이 실습에 대한 사용자 인증 정보를 복사하여 붙여넣습니다.
다른 사용자 인증 정보를 사용하는 경우 오류가 발생하거나 요금이 부과됩니다.
약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
임시 계정이므로 이 실습이 진행되는 동안만 계정이 유지됩니다.
Cloud Shell은 여러 개발 도구가 포함된 가상 머신입니다. 5GB의 영구적인 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다. gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 탭 자동 완성을 지원합니다.
Google Cloud Console의 탐색창에서 Cloud Shell 활성화()를 클릭합니다.
계속을 클릭합니다.
환경을 프로비저닝하고 연결하는 데는 몇 분 정도 소요됩니다. 연결되면 사용자 인증도 처리되어 프로젝트가 PROJECT_ID로 설정됩니다. 예를 들면 다음과 같습니다.
활성 계정 이름을 나열합니다.
(출력)
(출력 예시)
프로젝트 ID를 나열합니다.
(출력)
(출력 예시)
Google Cloud에서 작업을 시작하기 전에 프로젝트가 Identity and Access Management(IAM) 내에서 올바른 권한을 보유하고 있는지 확인해야 합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 IAM 및 관리자 > IAM을 클릭합니다.
기본 컴퓨팅 서비스 계정 {project-number}-compute@developer.gserviceaccount.com이 있고 editor 역할이 할당되어 있는지 확인하세요. 계정 프리픽스는 프로젝트 번호이며, 이 번호는 탐색 메뉴 > Cloud 개요에서 확인할 수 있습니다.
계정이 IAM에 없거나 editor 역할이 없는 경우 아래의 단계에 따라 필요한 역할을 할당합니다.
Google Cloud 콘솔의 탐색 메뉴에서 Cloud 개요를 클릭합니다.
프로젝트 정보 카드에서 프로젝트 번호를 복사합니다.
탐색 메뉴에서 IAM 및 관리자 > IAM을 클릭합니다.
IAM 페이지 상단에서 추가를 클릭합니다.
새 주 구성원 필드에 다음을 입력합니다.
{project-number}는 프로젝트 번호로 바꿉니다.
역할 선택에서 기본 (또는 프로젝트) > 편집자를 선택합니다.
저장을 클릭합니다.
다음으로 프로젝트에서 GCS 버킷을 만들고 CSV 파일을 스테이징합니다. Cloud Data Fusion은 나중에 이 스토리지 버킷에서 데이터를 읽습니다.
생성된 버킷의 이름은 프로젝트 ID입니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이제 다음 단계를 사용하여 인스턴스와 연결된 서비스 계정에 권한을 부여합니다.
Google Cloud 콘솔에서 IAM 및 관리자 > IAM으로 이동합니다.
Compute Engine 기본 서비스 계정 {project-number}-compute@developer.gserviceaccount.com이 있는지 확인하고 서비스 계정을 클립보드에 복사합니다.
IAM 권한 페이지에서 +액세스 권한 부여를 클릭합니다.
새 주 구성원 필드에 서비스 계정을 붙여넣습니다.
역할 선택 필드를 클릭하고 Cloud Data Fusion API 서비스 에이전트를 입력한 다음 선택합니다.
다른 역할 추가를 클릭합니다.
Dataproc Administrator 역할을 추가합니다.
저장을 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
콘솔의 탐색 메뉴에서 IAM 및 관리자 > IAM을 클릭합니다.
Google 제공 역할 부여 포함 체크박스를 선택합니다.
목록을 아래로 스크롤하여 service-{project-number}@gcp-sa-datafusion.iam.gserviceaccount.com과 같은 Google 관리 Cloud Data Fusion 서비스 계정을 찾은 후 서비스 계정 이름을 클립보드에 복사합니다.
다음으로 IAM 및 관리자 > 서비스 계정으로 이동합니다.
{project-number}-compute@developer.gserviceaccount.com과 같은 기본 Compute Engine 계정을 클릭하고 상단 탐색 메뉴에서 액세스 권한이 있는 주 구성원 탭을 선택합니다.
액세스 권한 부여 버튼을 클릭합니다.
새 주 구성원 필드에 앞서 복사한 서비스 계정을 붙여넣습니다.
역할 드롭다운 메뉴에서 서비스 계정 사용자를 선택합니다.
저장을 클릭합니다.
데이터로 작업할 때는 변환의 시작점으로 사용할 수 있도록 원시 데이터가 어떤 모습인지 확인할 수 있으면 항상 편리합니다. 이를 위해 Data Fusion의 Wrangler 구성요소를 사용하여 데이터를 준비하고 정리합니다. 이러한 데이터 중심 접근방식을 통해 변환을 빠르게 시각화할 수 있으며 실시간 피드백을 통해 올바른 방향으로 진행되고 있는지 확인할 수 있습니다.
Cloud Data Fusion 웹 UI에는 필요한 페이지로 이동할 수 있는 자체 탐색 패널(왼쪽)이 있습니다. Cloud Data UI에서 왼쪽 상단의 탐색 메뉴를 클릭하여 탐색 패널을 표시한 다음 Wrangler를 선택합니다.
왼쪽에 Cloud Storage 연결을 포함하여 데이터에 대한 사전 구성된 연결이 있는 패널이 표시됩니다. (GCS) Google Cloud Storage에서 Cloud Storage 기본값을 선택합니다.
프로젝트 이름에 해당하는 버킷을 클릭합니다.
titanic.csv를 클릭합니다.
표시되는 파싱 옵션 대화상자의 형식 드롭다운 목록에서 텍스트를 선택합니다.
그런 다음 확인을 클릭합니다.
데이터가 Wrangler 화면에 로드됩니다. 이제 데이터 변환을 반복적으로 적용할 수 있습니다.
첫 번째 작업은 원시 CSV 데이터를 행과 열로 분할된 테이블 형식으로 파싱하는 것입니다. 이렇게 하려면 첫 번째 열 제목(body)에서 드롭다운 아이콘을 선택하고 파싱 메뉴 항목과 하위 메뉴에서 CSV를 선택합니다.
원시 데이터에서 첫 번째 행이 열 제목으로 구성되어 있으므로 표시되는 CSV로 파싱 대화상자에서 첫 번째 행을 헤더로 설정 옵션을 선택합니다.
그런 다음 적용을 클릭합니다.
drop :body 지시문을 사용할 수도 있습니다.
이 실습의 목적에 맞게 두 가지 변환 또는 레시피로 ETL 파이프라인을 만들 수 있습니다. 다음 단계는 이 레시피를 파이프라인 빌드 단계로 가져오는 것입니다. 여기서 레시피는 ETL의 T를 나타냅니다.
파이프라인 만들기 버튼을 클릭하여 다음 섹션으로 이동하여 파이프라인을 만듭니다. 여기에서 ETL 파이프라인이 어떻게 구성되는지 확인할 수 있습니다.
다음 대화상자가 표시되면 일괄 파이프라인을 선택하여 계속합니다.
나머지 파이프라인 빌드 작업은 데이터 파이프라인을 시각적으로 구성할 수 있는 UI인 Pipeline Studio에서 진행됩니다. 이제 스튜디오에서 ETL 파이프라인의 기본 구성요소를 확인할 수 있습니다.
이 시점에서 파이프라인에 두 개의 노드가 표시됩니다. 하나는 Google Cloud Storage에서 CSV 파일을 읽는 GCS 파일 플러그인이고 다른 하나는 변환이 포함된 레시피가 있는 Wrangler 플러그인입니다.
이 두 플러그인(노드)은 ETL 파이프라인에서 E와 T를 나타냅니다. 이 파이프라인을 완료하려면 ETL의 L 부분인 BigQuery 싱크를 추가합니다.
BigQuery 싱크가 캔버스에 배치되면 Wrangler 노드를 BigQuery 노드에 연결합니다. 아래 그림과 같이 Wrangler 노드에서 BigQuery 노드로 화살표를 드래그하여 연결합니다. 이제 원하는 데이터 세트에 데이터를 쓸 수 있도록 몇 가지 구성 옵션을 지정하기만 하면 됩니다.
이제 파이프라인을 구성할 차례입니다. 각 노드의 속성을 열어 설정을 확인하거나 추가 변경을 수행하면 됩니다.
각 플러그인에는 반드시 있어야 하는 몇 가지 필수 필드가 있으며, 이 필드는 별표( * )로 표시됩니다. 사용 중인 플러그인에 따라 왼쪽에는 입력 스키마, 가운데에는 구성 섹션, 오른쪽에는 출력 스키마가 표시될 수 있습니다.
싱크 플러그인에는 출력 스키마가 없고 소스 플러그인에는 입력 스키마가 없습니다. 싱크 플러그인과 소스 플러그인 모두 계보의 데이터 소스/싱크를 식별하기 위한 필수 참조 이름 필드가 있습니다.
각 플러그인에는 라벨 필드가 있습니다. 파이프라인이 표시되는 캔버스에 있는 노드의 라벨입니다.
속성 상자의 오른쪽 상단에서 X를 클릭하여 닫습니다.
다음으로 Wrangler 노드 위로 마우스를 가져가 속성을 클릭합니다.
속성 상자의 오른쪽 상단에서 X를 클릭하여 닫습니다.
BigQuery 노드에 마우스를 가져간 다음 속성을 클릭하고 다음 구성 설정을 입력합니다.
참조 이름에 Titanic_BQ를 입력합니다.
데이터 세트에 demo를 입력합니다.
테이블에 titanic을 입력합니다.
속성 상자의 오른쪽 상단에서 X를 클릭하여 닫습니다.
이제 파이프라인이 예상대로 작동하는지 테스트하기만 하면 됩니다. 하지만 그 전에 작업이 손실되지 않도록 초안의 이름을 지정하고 저장해야 합니다.
이제 오른쪽 상단 메뉴에서 저장을 클릭합니다. 이름을 지정하고 파이프라인에 설명을 추가하라는 메시지가 표시됩니다.
ETL-batch-pipeline을 입력합니다.ETL pipeline to parse CSV, transform and write output to BigQuery를 입력합니다.저장을 클릭합니다.
파이프라인을 테스트하려면 미리보기 아이콘을 클릭합니다. 이제 버튼 모음에 실행 아이콘이 표시됩니다. 이 아이콘을 클릭하면 미리보기 모드에서 파이프라인을 실행할 수 있습니다.
실행 아이콘을 클릭합니다. 파이프라인이 미리보기 모드로 실행되는 동안에는 실제로 BigQuery 테이블에 데이터가 기록되지 않지만, 데이터가 올바르게 읽히고 파이프라인이 배포되면 예상대로 기록되는지 확인할 수 있습니다. 미리보기 버튼은 전환 버튼이므로 미리보기를 마쳤으면 버튼을 다시 클릭하여 미리보기 모드를 종료해야 합니다.
파이프라인 실행이 완료되면 Wrangler 노드 위로 마우스를 가져간 다음 속성을 클릭합니다. 그런 다음 미리보기 탭을 클릭합니다. 모든 것이 정상적으로 진행되었다면 입력에서 들어온 원시 데이터, 왼쪽의 노드, 출력으로 내보내져 오른쪽 노드로 전송될 파싱된 레코드가 표시됩니다. 속성 상자의 오른쪽 상단에 있는 X를 클릭하여 닫습니다.
이번에는 미리보기 아이콘을 다시 클릭하여 미리보기 모드를 끕니다.
지금까지 모든 것이 예상한 대로 작동한다면 파이프라인을 배포할 수 있습니다. 오른쪽 상단의 배포 아이콘()을 클릭하여 파이프라인을 배포합니다.
파이프라인이 배포 중이라는 확인 대화상자가 표시됩니다.
파이프라인이 성공적으로 배포되면 이제 ETL 파이프라인을 실행하고 일부 데이터를 BigQuery에 로드할 준비가 된 것입니다.
실행 아이콘을 클릭하여 ETL 작업을 실행합니다.
완료되면 파이프라인 상태가 성공으로 변경되어 파이프라인이 성공적으로 실행되었음을 알려줍니다.
파이프라인에서 데이터가 처리되면 파이프라인의 각 노드에서 처리된 레코드 수를 나타내는 측정항목을 볼 수 있습니다. 파싱 작업에서는 892개의 레코드가 표시되지만 소스에는 893개의 레코드가 있습니다. 무슨 일이 일어난 걸까요? 파싱 작업은 첫 번째 행을 가져와서 열 제목을 설정하는 데 사용했으므로 나머지 892개의 레코드가 처리할 데이터입니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
파이프라인은 출력을 BigQuery 테이블에 씁니다. 다음 단계를 통해 이를 확인할 수 있습니다.
새 탭에서 Cloud 콘솔의 BigQuery UI를 열거나 콘솔 탭을 마우스 오른쪽 버튼으로 클릭하고 복제를 선택한 다음 탐색 메뉴를 사용하여 BigQuery를 선택합니다. 메시지가 표시되면 완료를 클릭합니다.
왼쪽 창의 탐색기 섹션에서 Project ID(qwiklabs로 시작됨)를 클릭합니다.
프로젝트의 demo 데이터 세트에서 titanic 테이블을 클릭하고 '+'(SQL 쿼리)를 클릭한 후 다음과 같은 간단한 쿼리를 실행합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이제 Cloud Data Fusion의 Pipeline Studio에서 제공되는 구성요소를 사용하여 일괄 파이프라인을 빌드하는 방법을 배웠습니다. 또한 Wrangler를 사용하여 데이터의 변환 단계를 만드는 방법도 배웠습니다.
Cloud Data Fusion에서 Wrangler를 사용해 변환 빌드 및 데이터 준비를 계속 진행합니다.
설명서 최종 업데이트: 2025년 5월 6일
실습 최종 테스트: 2025년 5월 6일
Copyright 2020 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.