시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Create a connection to Cloud Storage
/ 40
Create and load the Iceberg table in Cloud Storage with BigQuery
/ 30
Query the Iceberg table from BigQuery
/ 30
BigQuery로 Cloud Storage의 Iceberg 테이블 쿼리 이 실습에서는 BigQuery의 BigLake 테이블이 Cloud Storage 내에서 바로 오픈소스 형식의 데이터를 쿼리하는 방법을 살펴봅니다. 기존 Iceberg 테이블을 가리키는 BigLake 테이블을 만들어 데이터를 이동하거나 복제하지 않고도 분석할 수 있는 방법을 알아봅니다. 이 강력한 기능을 사용하면 BigQuery의 고성능 분석 엔진을 활용하면서도 개방형 형식으로 단일 정보 소스를 유지할 수 있습니다. 이러한 실습을 통해 형식이나 위치에 관계없이 데이터를 통합할 수 있는 최신 데이터 레이크하우스의 핵심을 이해할 수 있습니다.
먼저 BigQuery가 Cloud Storage의 데이터에 안전하게 액세스할 수 있도록 연결을 만듭니다. 그런 다음 원시 웹 로그 데이터가 포함된 샘플 Iceberg 테이블과 연결하여 BigLake 테이블을 정의합니다. Iceberg는 대규모 분석 데이터 세트를 위해 설계된 개방형 테이블 형식으로, Apache Spark와 같은 처리 엔진과 함께 사용되는 경우가 많습니다.
마지막으로 Cloud Storage의 Iceberg 데이터와 고객 정보가 포함된 네이티브 BigQuery 테이블을 원활하게 조인하는 쿼리를 실행합니다. 이러한 기법을 익힘으로써 Cymbal E-commerce에서 다양한 데이터 소스와 관련된 중요 비즈니스 질문에 답할 수 있게 됩니다. 예: '가장 가치가 높은 고객이 구매하기 직전에 가장 많이 조회하는 제품은 무엇인가?'
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머에는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지 표시됩니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 직접 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음이 필요합니다.
임시 계정이므로 이 실습이 진행되는 동안만 계정이 유지됩니다.
Google Cloud 콘솔의 상단 검색창에 BigLake API를 입력합니다.
Marketplace에서 BigLake API에 대한 검색 결과를 클릭합니다.
API가 아직 사용 설정되지 않은 경우 사용 설정을 클릭하여 API를 사용 설정합니다.
탐색 메뉴에서 IAM 및 관리자를 선택하고, 플라이아웃 하위 메뉴에서 IAM을 선택합니다.
student-xx-xxxxxxxxxxxx@qwiklabs.net과 유사한 항목을 찾습니다.
BigQuery 연결 관리자 및 BigQuery 연결 사용자 역할이 있는지 확인합니다.
이 작업에서는 BigQuery가 Cloud Storage의 CSV 파일에 있는 데이터를 외부 테이블로 읽는 데 사용할 수 있도록 Cloud Storage에 대한 새 연결을 만듭니다.
Google Cloud 콘솔의 탐색 메뉴()에서 BigQuery > Studio로 이동합니다.
왼쪽 상단 창에서 탐색기를 클릭하고 + 데이터 추가를 클릭합니다.
데이터 소스 유형에서 스토리지/데이터 레이크를 선택합니다.
가장 인기 있는 데이터 소스에서 Google Cloud Storage 카드를 클릭합니다.
외부 데이터에 액세스에 표시된 카드 중에서 외부 또는 BigLake 테이블을 클릭합니다.
테이블 만들기 화면에서 다음 값을 사용합니다.
| 속성 | 값 | ||||||||||||||||
| 테이블을 만들 소스 | Google Cloud Storage | ||||||||||||||||
| GCS 버킷에서 파일을 선택하거나 URI 패턴 사용 | |||||||||||||||||
| 파일 형식 | CSV | ||||||||||||||||
| 소스 데이터 파티셔닝 | 선택 해제된 상태로 둠 | ||||||||||||||||
| 프로젝트 | |||||||||||||||||
| 데이터 세트 | 데이터 세트를 클릭하고 로드된 데이터 세트에서 cymbal_lake 선택 |
||||||||||||||||
| 테이블 | |||||||||||||||||
| 테이블 유형 | 외부 테이블 | ||||||||||||||||
| Cloud 리소스 연결을 사용하여 BigLake 테이블 만들기 | 이 항목의 체크박스 선택 | ||||||||||||||||
| |||||||||||||||||
| 스키마, 자동 감지 | 이 항목의 체크박스 선택 | ||||||||||||||||
목표를 확인하려면 내 진행 상황 확인하기를 클릭합니다.
이 작업에서는 방금 만든 외부 테이블에서 데이터를 수집하고 Cloud Storage 버킷에 Iceberg 형식으로 데이터를 로드합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 BigQuery > Studio로 이동합니다.
아직 열려 있지 않다면 기존 탐색기를 클릭하고 프로젝트를 펼칩니다. qwiklabs-gcp-xx-xxxxxxxxxxxx와 비슷한 형식입니다.
cymbal_lake 항목을 펼칩니다.
web_log 항목 오른쪽에 있는 세로 점 3개를 클릭합니다. 팝업 메뉴에서 쿼리를 선택합니다.
오른쪽 상단에서 X를 클릭하여 참조 패널을 닫습니다.
SQL 쿼리를 다음 코드로 바꿉니다.
실행 버튼을 클릭합니다. 처리가 완료되면 오류 메시지가 표시됩니다. 적절한 권한을 설정하려면 BigQuery 서비스 계정 ID가 필요하므로 닫지 마세요. 오류 메시지는 다음 예시와 같습니다.
오류 메시지에서 사용자 ID를 복사합니다. 그 형식은 bqcx-xxxxxxxxxxxx-xxxx@gcp-sa-bigquery-condel.iam.gserviceaccount.com입니다.
Google Cloud 콘솔의 탐색 메뉴()에서 Cloud Storage > 버킷으로 이동합니다.
gcs-bucket-
액세스 제어 상자에서 균일한 권한으로 전환하기 링크를 클릭합니다.
팝업에서 균일을 선택합니다. 저장을 클릭합니다.
+ 보안 주체 추가를 클릭합니다.
새 보안 주체에 BigQuery 오류 메시지에서 복사한 사용자 ID를 붙여넣습니다.
역할* 선택을 클릭합니다.
필터에 스토리지 객체 사용자를 입력하고 표시되는 목록에서 스토리지 객체 사용자를 선택한 다음 저장을 클릭합니다.
BigQuery로 돌아가서 작업 2의 6단계를 반복하여 테이블 생성 쿼리를 다시 실행합니다.
목표를 확인하려면 내 진행 상황 확인하기를 클릭합니다.
이제 BigQuery를 사용하여 Cloud Storage에서 방금 만든 Iceberg 테이블의 데이터에 액세스합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 BigQuery > Studio로 이동합니다.
아직 열려 있지 않다면 기존 탐색기에서 프로젝트의 항목을 펼칩니다. qwiklabs-gcp-xx-xxxxxxxxxxxx와 같은 형식으로 표시됩니다.
cymbal_lake 항목을 펼칩니다.
iceberg_web_log 항목 오른쪽에 있는 세로 점 3개를 클릭합니다. 팝업 메뉴에서 쿼리를 선택합니다.
오른쪽 상단에서 X를 클릭하여 참조 패널을 닫습니다.
SQL 쿼리를 다음 코드로 바꿉니다.
실행 버튼을 클릭합니다. 반환된 데이터는 Cloud Storage의 Iceberg 테이블에서 가져온 것입니다.
SQL 쿼리를 다음 코드로 바꿉니다.
실행 버튼을 클릭합니다. 반환된 데이터는 Cloud Storage의 Iceberg 테이블에서 네이티브 BigQuery 테이블의 고객 데이터에 조인된 것입니다.
목표를 확인하려면 내 진행 상황 확인하기를 클릭합니다.
Cloud Storage의 CSV 파일 데이터에 액세스하기 위해 BigQuery에서 외부 테이블을 구성했습니다. 그런 다음 Cloud Storage에 Iceberg 테이블을 만들고 BigQuery를 사용하여 CSV 파일의 데이터로 테이블을 채웠습니다. 마지막으로 Iceberg 테이블의 데이터와 네이티브 BigQuery 테이블의 데이터를 결합하는 쿼리를 실행했습니다. 이 Cymbal 예시는 간단하지만 BigQuery 및 BigLake 레이크하우스가 데이터를 강력한 비즈니스 도구로 전환하는 데 얼마나 효과적이고 유연한지를 보여줍니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.