실습 설정 안내 및 요구사항
계정과 진행 상황을 보호하세요. 이 실습을 실행하려면 항상 시크릿 브라우저 창과 실습 사용자 인증 정보를 사용하세요.

Natural Language API로 텍스트를 카테고리로 분류하기

실습 10분 universal_currency_alt 크레딧 5개 show_chart 중급
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
이 콘텐츠는 아직 휴대기기에 최적화되지 않음
최상의 경험을 위해 데스크톱 컴퓨터에서 이메일로 전송된 링크를 사용하여 방문하세요.

GSP063

Google Cloud 사용자 주도형 실습 로고

개요

Cloud Natural Language API를 사용하면 텍스트에서 항목을 추출하고 감정 및 구문 분석을 수행하며 텍스트를 카테고리로 분류할 수 있습니다. 이 실습에서는 텍스트 분류를 중점적으로 알아봅니다. 700개 이상의 카테고리 데이터베이스를 사용하는 이 API 기능을 통해 대규모 텍스트 데이터 세트를 쉽게 분류할 수 있습니다.

목표

이 실습에서는 다음 작업을 수행하는 방법을 배웁니다.

  • Natural Language API 요청 만들기 및 curl로 API 호출하기
  • Natural Language API의 텍스트 분류 특성 사용하기
  • 텍스트 분류를 사용해 뉴스 기사 데이터 세트 이해하기

설정 및 요건

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드(권장) 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학습자 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간(실습을 시작하고 나면 일시중지할 수 없음)
참고: 이 실습에는 학습자 계정만 사용하세요. 다른 Google Cloud 계정을 사용하는 경우 해당 계정에 비용이 청구될 수 있습니다.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스에 액세스하려면 탐색 메뉴를 클릭하거나 검색창에 제품 또는 서비스 이름을 입력합니다. 탐색 메뉴 아이콘 및 검색창

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 Cloud Shell 활성화 아이콘를 클릭합니다.

  2. 다음 창을 클릭합니다.

    • Cloud Shell 정보 창을 통해 계속 진행합니다.
    • 사용자 인증 정보를 사용하여 Google Cloud API를 호출할 수 있도록 Cloud Shell을 승인합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID, (으)로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

출력:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.

작업 1. Cloud Natural Language API 사용 설정하기

  1. 화면 왼쪽 상단에서 탐색 메뉴(탐색 메뉴 아이콘)를 펼칩니다.

  2. API 및 서비스 > 사용 설정된 API 및 서비스를 선택합니다.

  1. API 및 서비스 사용 설정을 클릭합니다.
  1. 그런 다음 검색창에서 language를 검색합니다.

  2. Cloud Natural Language API를 클릭합니다.

API가 사용 설정되지 않은 경우 사용 설정 버튼이 표시됩니다.

  1. 사용 설정을 클릭하여 Cloud Natural Language API를 사용 설정합니다.

API가 사용 설정되면 Google Cloud는 다음과 같이 API 정보를 표시합니다.

API 세부정보에는 '관리' 및 'API 사용해 보기' 버튼과 API 사용 설정 체크표시가 포함됩니다.

작업 2. API 키 만들기

Natural Language API로 요청을 전송하기 위해 curl을 사용하므로, 요청 URL에 전달할 API 키를 만들어야 합니다.

  1. API 키를 생성하려면 콘솔에서 탐색 메뉴 > API 및 서비스 > 사용자 인증 정보를 클릭합니다.

  2. 그런 다음 사용자 인증 정보 만들기를 클릭합니다.

  3. 드롭다운 메뉴에서 API 키를 선택합니다.

  4. 방금 생성한 키를 복사한 후 닫기를 클릭합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.

API 키 만들기

이제 API 키가 있으므로 이를 환경 변수로 저장하면 각 요청에 API 키 값을 삽입할 필요가 없습니다.

다음 단계를 수행하려면 ssh를 통해 프로비저닝된 인스턴스에 연결합니다.

  1. 탐색 메뉴를 열고 Compute Engine > VM 인스턴스를 선택합니다. 프로비저닝된 linux-instance가 표시됩니다.
  1. SSH 버튼을 클릭합니다. 대화형 셸로 이동하게 됩니다.

  2. 명령줄에서 다음을 입력합니다. 이때 <YOUR_API_KEY>를 방금 복사한 키로 대체합니다.

export API_KEY=<YOUR_API_KEY>

작업 3. 뉴스 기사 분류하기

Natural Language API의 classifyText 메서드를 사용하면 API 호출 하나로 텍스트 데이터를 카테고리로 정렬할 수 있습니다. 이 메서드는 텍스트 문서에 적용되는 콘텐츠 카테고리 목록을 반환합니다.

이러한 카테고리는 /Computers & Electronics와 같은 광범위한 카테고리부터 /Computers & Electronics/Programming/Java (Programming Language)와 같이 매우 구체적인 카테고리까지 다양한 구체성으로 존재합니다. 700개가 넘는 사용 가능한 카테고리의 전체 목록은 콘텐츠 카테고리 페이지에 나와 있습니다.

먼저 단일 기사를 분류한 후 이 메서드를 사용하여 방대한 뉴스 코퍼스를 이해하는 방법을 알아보게 됩니다.

  1. 먼저 New York Times의 음식 섹션 기사에서 다음 헤드라인과 설명을 살펴보겠습니다.

A Smoky Lobster Salad With a Tapa Twist. This spin on the Spanish pulpo a la gallega skips the octopus, but keeps the sea salt, olive oil, pimentón and boiled potatoes.

  1. request.json이라는 파일을 만들고 아래 코드를 추가합니다. nano, vim, emacs와 같이 원하는 명령줄 편집기를 사용하여 파일을 만들 수 있습니다.
{ "document":{ "type":"PLAIN_TEXT", "content":"A Smoky Lobster Salad With a Tapa Twist. This spin on the Spanish pulpo a la gallega skips the octopus, but keeps the sea salt, olive oil, pimentón and boiled potatoes." } } 뉴스 기사를 분류하는 요청 만들기
  1. 이제 다음 curl 명령어를 사용하여 이 텍스트를 Natural Language API의 classifyText 메서드로 보낼 수 있습니다.
curl "https://language.googleapis.com/v1/documents:classifyText?key=${API_KEY}" \ -s -X POST -H "Content-Type: application/json" --data-binary @request.json

응답을 살펴봅니다.

{ categories: [ { name: '/Food & Drink/Cooking & Recipes', confidence: 0.85 }, { name: '/Food & Drink/Food/Meat & Seafood', confidence: 0.63 } ] }

Speech API 요청을 만든 후 Speech API를 호출했습니다.

  1. 다음 명령어를 실행하여 result.json 파일에서 응답을 저장합니다.
curl "https://language.googleapis.com/v1/documents:classifyText?key=${API_KEY}" \ -s -X POST -H "Content-Type: application/json" --data-binary @request.json > result.json 항목 분석 응답 확인하기

API는 이 텍스트에 대해 2개의 카테고리를 반환했습니다.

  • /Food & Drink/Cooking & Recipes
  • /Food & Drink/Food/Meat & Seafood

텍스트에는 이 기사가 레시피라는 내용이나 해산물이 포함되어 있다는 사실이 명시적으로 언급되어 있지 않지만 API는 이를 분류할 수 있습니다. 하나의 기사를 분류하는 것도 좋지만 이 기능의 진정한 힘을 실제로 확인하기 위해 아주 많은 텍스트 데이터를 분류해 보겠습니다.

작업 4. 대규모 텍스트 데이터 세트 분류하기

텍스트가 많은 데이터 집합을 이해하는 데 classifyText 메서드가 어떤 도움이 되는지 알아보기 위해 BBC 뉴스 기사의 공개 데이터 세트를 사용하겠습니다. 이 데이터 세트는 2004년부터 2005년까지 5개 주제 영역(비즈니스, 엔터테인먼트, 정치, 스포츠, 기술)의 기사 2,225개로 구성되어 있습니다. 이 기사의 하위 집합은 공개 Cloud Storage 버킷에 포함되어 있습니다. 각 기사는 .txt 파일로 존재합니다.

데이터를 살펴보고 Natural Language API로 보내기 위해 Cloud Storage에서 각 텍스트 파일을 읽고, classifyText 엔드포인트로 보내고, 결과를 BigQuery 테이블에 저장하는 Python 스크립트를 작성합니다. BigQuery는 Google Cloud의 빅데이터 웨어하우스 도구입니다. BigQuery를 사용하여 대규모 데이터 세트를 쉽게 저장하고 분석할 수 있습니다.

  • 작업할 텍스트의 유형을 알아보기 위해 다음 명령어를 실행하여 하나의 기사를 확인합니다(gsutil은 Cloud Storage의 명령줄 인터페이스를 제공함).
gsutil cat gs://spls/gsp063/bbc_dataset/entertainment/001.txt

다음으로 데이터에 대한 BigQuery 테이블을 만듭니다.

작업 5. 분류한 텍스트 데이터에 대한 BigQuery 테이블 만들기

텍스트를 Natural Language API로 보내기 전에 각 기사의 텍스트 및 카테고리를 저장할 장소가 필요합니다.

  1. 콘솔에서 탐색 메뉴 > BigQuery로 이동합니다.

  2. 완료를 클릭합니다.

  3. 데이터 세트를 만들려면 프로젝트 ID 옆에 있는 작업 보기 아이콘을 클릭하고 데이터 세트 만들기를 선택합니다.

작업 보기 메뉴에서 강조 표시된 &#39;데이터 세트 만들기&#39; 옵션

  1. 데이터 세트 이름을 news_classification_dataset으로 지정한 다음 데이터 세트 만들기를 클릭합니다.

  2. 테이블을 만들려면 news_classification_dataset 옆에 있는 작업 보기 아이콘을 클릭한 후 테이블 만들기를 선택합니다.

  1. 새 테이블에 다음 설정을 사용합니다.

    • 테이블 만들기: 빈 테이블
    • 테이블 이름 지정: article_data
  2. 스키마에서 필드 추가를 클릭하고 다음 3개의 필드를 추가합니다.

필드 이름 유형 모드
article_text STRING NULLABLE
category STRING NULLABLE
confidence FLOAT NULLABLE

&#39;테이블 만들기&#39; 페이지의 스키마 섹션에 있는 필드 목록으로, article-text, category, confidence가 포함되어 있습니다.

  1. 테이블 만들기를 클릭합니다.

지금은 테이블이 비어 있습니다. 다음 단계에서는 Cloud Storage에서 기사를 읽고, Natural Language API로 보내 기사를 분류하고, 분류 결과를 BigQuery에 저장합니다.

내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.

분류된 텍스트 데이터의 새 데이터 세트 및 테이블 만들기

작업 6. 뉴스 데이터를 분류하고 BigQuery에 결과 저장하기

다음 단계를 수행하려면 Cloud Shell에 연결합니다. 메시지가 표시되면 계속을 클릭합니다.

뉴스 데이터를 Natural Language API로 보내는 스크립트를 작성하기 전에 서비스 계정을 만들어야 합니다. 서비스 계정은 Python 스크립트에서 Natural Language API 및 BigQuery에 인증하는 데 사용됩니다.

  1. 프로젝트 ID를 환경 변수로 내보냅니다.
export PROJECT={{{project_0.project_id | Project ID}}}
  1. 다음 명령어를 실행하여 서비스 계정을 만듭니다.
gcloud iam service-accounts create my-account --display-name my-account gcloud projects add-iam-policy-binding $PROJECT --member=serviceAccount:my-account@$PROJECT.iam.gserviceaccount.com --role=roles/bigquery.admin gcloud projects add-iam-policy-binding $PROJECT --member=serviceAccount:my-account@$PROJECT.iam.gserviceaccount.com --role=roles/serviceusage.serviceUsageConsumer gcloud iam service-accounts keys create key.json --iam-account=my-account@$PROJECT.iam.gserviceaccount.com export GOOGLE_APPLICATION_CREDENTIALS=key.json

이제 텍스트 데이터를 Natural Language API로 보낼 준비를 마쳤습니다.

  1. Google Cloud용 Python 모듈을 사용하여 Python 스크립트를 작성합니다.

어떤 언어로든 동일한 작업을 수행할 수 있으며 다양한 클라우드 클라이언트 라이브러리가 있습니다.

  1. classify-text.py라는 파일을 만들고 다음 코드를 복사해서 붙여넣습니다. nano, vim, emacs 중 선호하는 명령줄 편집기 하나를 사용하여 파일을 만들 수 있습니다.
from google.cloud import storage, language, bigquery # GCS, NL, BigQuery 클라이언트 설정 storage_client = storage.Client() nl_client = language.LanguageServiceClient() bq_client = bigquery.Client(project='{{{project_0.project_id | Project ID}}}') dataset_ref = bq_client.dataset('news_classification_dataset') dataset = bigquery.Dataset(dataset_ref) table_ref = dataset.table('article_data') table = bq_client.get_table(table_ref) # 기사 텍스트를 NL API의 classifyText 메서드로 전송 def classify_text(article): response = nl_client.classify_text( document=language.Document( content=article, type=language.Document.Type.PLAIN_TEXT ) ) return response rows_for_bq = [] files = storage_client.bucket('qwiklabs-test-bucket-gsp063').list_blobs() print("Got article files from GCS, sending them to the NL API (this will take ~2 minutes)...") # 파일을 NL API로 전송하고, BigQuery로 보낼 결과 저장 for file in files: if file.name.endswith('txt'): article_text = file.download_as_bytes().decode('utf-8') # Decode bytes to string nl_response = classify_text(article_text) if len(nl_response.categories) > 0: rows_for_bq.append((article_text, nl_response.categories[0].name, nl_response.categories[0].confidence)) print("Writing NL API article data to BigQuery...") # 기사 텍스트 및 카테고리 데이터를 BQ에 쓰기 if rows_for_bq: errors = bq_client.insert_rows(table, rows_for_bq) if errors: print("Encountered errors while writing to BigQuery:", errors) else: print("No articles found in the specified bucket.")

이제 기사를 분류하고 BigQuery로 가져올 준비를 마쳤습니다.

  1. 다음 스크립트를 실행합니다.
python3 classify-text.py

스크립트를 완료하는 데 2분 정도 소요되므로, 실행되는 동안 무슨 일이 일어나는지 읽어보세요.

Google Cloud Python 클라이언트 라이브러리를 사용하여 Cloud Storage, Natural Language API, BigQuery에 액세스하고 있습니다. 먼저 각 서비스에 대해 클라이언트가 생성된 다음 BigQuery 테이블에 대한 참조가 생성됩니다. files는 공개 버킷에 있는 각 BBC 데이터 세트 파일에 대한 참조입니다. 파일을 살펴보고, 기사를 문자열로 다운로드한 다음 각각을 classify_text 함수의 Natural Language API로 보냅니다. Natural Language API가 카테고리를 반환하는 모든 기사에 대해 해당 기사 및 카테고리 데이터가 rows_for_bq 목록에 저장됩니다. 각 기사의 분류가 완료되면 insert_rows()를 사용하여 데이터가 BigQuery에 삽입됩니다.

참고 Natural Language API는 하나의 문서에 대해 두 개 이상의 카테고리를 반환할 수 있지만, 이 실습에서는 간소화를 위해 반환된 첫 번째 카테고리만 저장합니다.

스크립트 실행이 완료되면 기사 데이터가 BigQuery에 저장되었는지 확인할 차례입니다.

  1. BigQuery의 탐색기 탭에서 article_data 테이블로 이동한 후 쿼리를 클릭하여 테이블을 쿼리합니다.

쿼리 드롭다운 메뉴에서 강조 표시된 &#39;새 탭에서 열기&#39; 옵션

  1. SELECT와 FROM 사이에 별표를 추가하여 저장되지 않은 쿼리 상자에서 결과를 수정합니다.
SELECT * FROM `{{{project_0.project_id | Project ID}}}.news_classification_dataset.article_data`
  1. 이제 실행을 클릭합니다.

쿼리가 완료되면 데이터가 표시됩니다.

  1. 카테고리 열을 보려면 오른쪽으로 스크롤합니다.

카테고리 열에는 기사에 대해 Natural Language API가 반환한 첫 번째 카테고리의 이름이 표시됩니다. 신뢰도는 0에서 1 사이의 값으로 API가 기사를 올바르게 분류하는 데 얼마나 확신하는지를 나타냅니다.

다음 단계에서는 데이터에 대해 더 복잡한 쿼리를 수행하는 방법을 배웁니다.

작업 7. BigQuery에서 분류한 뉴스 데이터 분석하기

먼저 데이터 세트에서 가장 일반적인 카테고리가 무엇인지 확인합니다.

  1. BigQuery 콘솔에서 + SQL 쿼리를 클릭합니다.

  2. 다음 쿼리를 입력합니다.

SELECT category, COUNT(*) c FROM `{{{project_0.project_id | Project ID}}}.news_classification_dataset.article_data` GROUP BY category ORDER BY c DESC
  1. 이제 실행을 클릭합니다.

쿼리 결과에 다음과 같은 내용이 표시됩니다.

/News/Politics 및 /Business & Industrial을 포함한 여러 카테고리가 나열된 쿼리 결과

/Arts & Entertainment/Music & Audio/Classical Music과 같이 덜 알려진 카테고리에 대해 반환된 기사를 찾으려면 다음 쿼리를 작성하면 됩니다.

SELECT * FROM `{{{project_0.project_id | Project ID}}}.news_classification_dataset.article_data` WHERE category = "/Arts & Entertainment/Music & Audio/Classical Music"

또는 Natural Language API가 90%가 넘는 신뢰도 점수를 반환한 기사만 가져올 수도 있습니다.

SELECT article_text, category FROM `{{{project_0.project_id | Project ID}}}.news_classification_dataset.article_data` WHERE cast(confidence as float64) > 0.9

데이터에 대해 더 많은 쿼리를 수행하려면 BigQuery 문서를 살펴보세요. BigQuery는 다양한 시각화 도구와도 통합됩니다. 분류된 뉴스 데이터의 시각화를 만들려면 BigQuery용 Looker Studio를 확인하세요.

수고하셨습니다

지금까지 Natural Language API 텍스트 분류 메서드를 사용하여 뉴스 기사를 분류하는 방법을 알아보았습니다. 하나의 기사를 분류하는 것부터 시작해서 BigQuery와 함께 NL API를 사용하여 대규모 뉴스 데이터 세트를 분류하고 분석하는 방법을 배웠습니다. 또한 BigQuery 테이블을 만들고 데이터에 대해 쿼리를 실행하는 방법도 배웠습니다.

다음 단계/더 학습하기

  • Natural Language API를 사용한 콘텐츠 분류 문서를 읽어 보세요.
  • BigQuery에 대해 자세히 알아보려면 관련 문서를 참고하세요.

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2025년 3월 21일

실습 최종 테스트: 2025년 3월 21일

Copyright 2026 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

시크릿 브라우징 사용

  1. 실습에 입력한 사용자 이름비밀번호를 복사합니다.
  2. 비공개 모드에서 콘솔 열기를 클릭합니다.

콘솔에 로그인

    실습 사용자 인증 정보를 사용하여
  1. 로그인합니다. 다른 사용자 인증 정보를 사용하면 오류가 발생하거나 요금이 부과될 수 있습니다.
  2. 약관에 동의하고 리소스 복구 페이지를 건너뜁니다.
  3. 실습을 완료했거나 다시 시작하려고 하는 경우가 아니면 실습 종료를 클릭하지 마세요. 이 버튼을 클릭하면 작업 내용이 지워지고 프로젝트가 삭제됩니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하는 가장 좋은 방법은 시크릿 모드 또는 시크릿 브라우저 창을 사용하는 것입니다. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.