시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Create an API Key
/ 25
Upload an Image to a Cloud Storage bucket
/ 25
Upload an image for Face Detection to your bucket
/ 25
Upload an image for Landmark Annotation to your bucket
/ 25
Cloud Vision API는 이미지를 분석하고 정보를 추출할 수 있게 해 주는 클라우드 기반 서비스입니다. 이 API를 사용하면 이미지에서 객체, 얼굴, 텍스트를 감지할 수 있으며 간단한 REST API에 강력한 머신러닝 모델을 캡슐화하여 이미지의 내용을 파악할 수 있습니다.
이 실습에서는 이미지를 Cloud Vision API로 전송하여 객체, 얼굴, 랜드마크를 감지하는 방법을 살펴봅니다.
이 실습에서는 다음 작업을 수행하는 방법을 알아봅니다.
curl로 API 호출하기다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.
다음을 클릭합니다.
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.
다음을 클릭합니다.
이후에 표시되는 페이지를 클릭하여 넘깁니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.
Google Cloud 콘솔 상단에서 Cloud Shell 활성화 를 클릭합니다.
다음 창을 클릭합니다.
연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID,
gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.
출력:
출력:
gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.
이 작업에서는 Vision API로 요청을 전송하기 위한 준비 단계로 curl을 사용하여 요청 URL에 전달할 API 키를 생성합니다.
API 키를 생성하려면 Cloud 콘솔의 탐색 메뉴에서 API 및 서비스 > 사용자 인증 정보로 이동합니다.
사용자 인증 정보 만들기를 클릭한 후 API 키를 선택합니다.
내 진행 상황 확인하기를 클릭하여 실습 진행 상황을 확인하세요.
다음으로, 요청마다 API 키의 값을 삽입하지 않아도 되도록 환경 변수에 저장합니다.
이미지 감지를 위해 Cloud Vision API에 이미지를 전송하는 방법에는 두 가지가 있습니다. API에 base64로 인코딩된 이미지 문자열을 전송하거나 Cloud Storage에 저장된 파일의 URL을 전달하는 방법입니다.
이 실습에서는 Cloud Storage URL 방식을 사용합니다. 첫 번째 단계는 이미지를 저장할 Cloud Storage 버킷을 만드는 것입니다.
탐색 메뉴에서 Cloud Storage > 버킷을 선택합니다. 버킷 옆에 있는 만들기를 클릭합니다.
버킷에
버킷 이름을 지정한 후 객체 액세스를 제어하는 방식 선택을 클릭합니다.
이 버킷에 공개 액세스 방지 적용 체크박스를 선택 해제하고 세분화된 액세스 제어 라디오 버튼을 선택합니다.
버킷의 다른 모든 설정은 기본값으로 유지할 수 있습니다.
이렇게 하면 버킷에 파일이 표시됩니다.
이제 이 이미지를 공개적으로 사용할 수 있도록 만들어야 합니다.
항목 추가를 클릭한 후 다음을 입력합니다.
저장을 클릭합니다.
버킷에 파일이 있으므로 이제 Cloud Vision API 요청을 만들어 도넛 사진의 URL을 전달할 수 있습니다.
내 진행 상황 확인하기를 클릭하여 실습 진행 상황을 확인하세요.
Cloud Shell 홈 디렉터리에 request.json 파일을 만듭니다.
선호하는 명령줄 편집기(nano, vim, emacs)를 사용하여 request.json 파일을 만듭니다.
request.json 파일에 붙여넣습니다.Cloud Shell과 같은 통합 개발 환경(IDE)에서 Gemini Code Assist를 사용하여 코드에 대한 안내를 받거나 코드 문제를 해결할 수 있습니다. Gemini Code Assist를 사용하려면 먼저 사용 설정해야 합니다.
왼쪽 창에서 설정 아이콘을 클릭한 다음 설정 뷰에서 Gemini Code Assist를 검색합니다.
Geminicodeassist: 사용 체크박스가 선택되어 있는지 확인하고 설정을 닫습니다.
화면 하단의 상태 표시줄에서 Cloud Code - 프로젝트 없음을 클릭합니다.
안내에 따라 플러그인을 승인합니다. 프로젝트가 자동으로 선택되지 않으면 Google Cloud 프로젝트 선택을 클릭하고
상태 표시줄의 Cloud Code 상태 메시지에 Google Cloud 프로젝트(
첫 번째 Cloud Vision API 기능은 라벨 인식입니다. 메서드를 사용하면 이미지에 있는 내용의 라벨(단어) 목록이 반환됩니다.
curl 명령어를 실행하여 Cloud Vision API를 호출하고 label_detection.json 파일에 응답을 저장합니다.응답이 다음과 같이 표시됩니다.
출력:
API가 이 도넛이 슈가 파우더 도넛이라는 구체적인 유형을 식별할 수 있었습니다. 좋습니다. Vision API가 찾은 각 라벨에 대해 다음이 반환됩니다.
description
score
mid 값에 매핑된 mid 값. Knowledge Graph API를 호출할 때 mid를 사용하여 항목에 대한 자세한 정보를 얻을 수 있습니다.label_detection.json으로 이동합니다. 이 작업을 통해 Gemini Code Assist가 사용 설정되며, 편집기 오른쪽 상단에 컨텍스트 전환을 최소화하는 동시에 생산성을 높일 수 있도록 Gemini Code Assist는 코드 편집기에서 바로 AI 기반의 스마트 작업을 제공합니다. 이 섹션에서는 팀원에게 Cloud Vision API 응답을 설명해 달라고 Gemini Code Assist에 요청합니다.
Gemini Code Assist: 스마트 작업 아이콘을 클릭하고 이 항목에 대한 설명을 선택합니다.
Gemini Code Assist가 Explain this라는 프롬프트가 미리 채워진 채팅 창을 엽니다. Code Assist 채팅의 인라인 텍스트 상자에서 미리 채워진 프롬프트를 다음으로 바꾸고 보내기를 클릭합니다.
label_detection.json 코드의 Cloud Vision API 응답에 대한 자세한 설명이 Gemini Code Assist 채팅에 표시됩니다.
Cloud Vision API는 이미지의 내용에 대한 라벨을 가져올 뿐만 아니라 인터넷에서 이미지에 대한 추가적인 세부정보를 검색할 수도 있습니다. API의 WebDetection 메서드를 통해 다음과 같은 흥미로운 데이터를 많이 얻을 수 있습니다.
웹 감지를 사용해 보려면 동일한 베녜 이미지를 사용하고 request.json 파일에서 한 줄을 변경합니다(완전히 다른 이미지를 사용해 볼 수도 있습니다).
Cloud Shell 편집기의 같은 디렉터리에서 request.json을 찾아서 엽니다.
툴바에서 Gemini Code Assist: 스마트 작업 아이콘을 클릭합니다.
Gemini Code Assist의 AI 기반 기능을 사용하면 상세한 코드 설명을 확인할 수 있을 뿐만 아니라 코드 편집기에서 직접 코드를 수정할 수도 있습니다. 이 인스턴스에서는 Gemini Code Assist를 사용하여 request.json 파일의 콘텐츠를 수정합니다.
request.json 파일을 편집하려면 툴바에서 열리는 Gemini Code Assist 인라인 텍스트 입력란에 다음 프롬프트를 붙여넣습니다.Gemini Code Assist에 코드를 적절히 수정하도록 프롬프트를 입력하려면 Enter 키를 누릅니다.
Gemini Diff 뷰에 메시지가 표시되면 모든 변경사항 적용을 클릭합니다.
이제 request.json 파일의 콘텐츠가 다음과 유사하게 표시됩니다.
curl 명령어를 실행하여 Cloud Vision API를 호출합니다.webEntities부터 응답을 살펴봅니다. 이 이미지가 반환한 항목을 일부 살펴보면 다음과 같습니다.이 이미지는 Cloud ML API에 관한 많은 프레젠테이션에 사용되었기 때문에 API가 'Machine learning'과 'Google Cloud Platform'이라는 항목을 찾았습니다.
fullMatchingImages, partialMatchingImages, pagesWithMatchingImages 아래의 URL을 검사해 보면 많은 URL이 이 실습 사이트를 가리키는 것을 알 수 있습니다(매우 메타적임).
다른 베녜 이미지를 찾고 싶지만 정확히 동일한 이미지는 원하지 않는다고 가정해 보겠습니다. 이때 API 응답의 visuallySimilarImages 부분이 유용해집니다. 다음은 시각적으로 유사한 몇 개의 이미지를 찾은 결과입니다.
해당 URL로 이동하여 유사한 이미지를 확인할 수 있습니다.
슈가 파우더 베녜가 정말 먹고 싶어지네요(미안해요)! 이는 Google 이미지에서 이미지로 검색하는 과정과 유사합니다.
Cloud Vision을 사용하면 사용하기 쉬운 REST API로 이 기능에 액세스하여 애플리케이션에 통합할 수 있습니다.
다음으로 Vision API의 얼굴 인식 메서드를 살펴보겠습니다.
얼굴 인식 메서드는 이미지에서 찾은 얼굴에 대한 데이터(얼굴의 감정과 이미지 내 위치 포함)를 반환합니다.
이 메서드를 사용하려면 얼굴이 포함된 새로운 이미지를 Cloud Storage 버킷에 업로드합니다.
내 진행 상황 확인하기를 클릭하여 실습 진행 상황을 확인하세요.
Cloud Shell 편집기의 같은 디렉터리에서 request.json으로 이동합니다.
툴바에서 Gemini Code Assist: 스마트 작업 아이콘을 클릭합니다.
request.json 파일을 업데이트하는 데 도움이 되도록 툴바에서 열리는 Gemini Code Assist 인라인 텍스트 입력란에 다음 프롬프트를 붙여넣습니다.
Gemini Code Assist에 코드를 적절히 수정하도록 프롬프트를 입력하려면 Enter 키를 누릅니다.
Gemini Diff 뷰에 메시지가 표시되면 모든 변경사항 적용을 클릭합니다.
업데이트된 요청 파일이 다음과 유사하게 표시됩니다.
curl 명령어를 실행하여 Cloud Vision API를 호출합니다.faceAnnotations 객체를 살펴봅니다. API가 이미지에서 찾은 각 얼굴에 대해 객체를 반환한다는 것을 알 수 있습니다. 이 경우 3개의 객체가 반환됩니다. 다음은 응답의 일부입니다.boundingPoly는 이미지의 얼굴 주변 x,y 좌표를 제공합니다.fdBoundingPoly는 boundingPoly보다 작은 상자로, 얼굴의 피부 부분에 집중합니다.landmarks는 얼굴의 각 특징에 대한 객체의 배열이며, 그중에는 사용자가 알지 못했던 특징도 있을 수 있습니다. 이는 랜드마크의 유형과 해당 특징의 3D 위치(x,y,z 좌표)를 알려주며, 여기서 z 좌표는 깊이입니다. 나머지 값은 기쁨, 슬픔, 분노, 놀람을 나타낼 수 있는 가능성과 함께 얼굴에 대한 자세한 정보를 제공합니다.지금 출력되어 있는 응답은 이미지에서 가장 뒤에 서 있는 사람에 대한 내용입니다. 이 사람이 약간 우스꽝스러운 표정을 짓고 있기 때문에 joyLikelihood가 LIKELY로 표시됩니다.
랜드마크 감지를 통해 일반적인 랜드마크와 잘 알려지지 않은 랜드마크를 식별할 수 있습니다. 랜드마크 감지는 랜드마크의 이름, 위도 및 경도 좌표, 이미지에서 랜드마크가 식별된 위치를 반환합니다.
이 메서드를 사용하려면 Cloud Storage 버킷에 새로운 이미지를 업로드합니다.
출처: Unsplash의 무료 미디어 저장소에 있는 Adrien Wodey의 러시아 모스크바의 성 바실리 성당(2019년 12월 19일) https://unsplash.com/photos/multicolored-dome-temple-yjyWCNx0J1U에서 가져왔습니다. 이 파일은 Unsplash 라이선스에 따라 사용이 허가되었습니다.
내 진행 상황 확인하기를 클릭하여 실습 진행 상황을 확인하세요.
request.json 파일을 업데이트합니다.curl 명령어를 실행하여 Cloud Vision API를 호출합니다.landmarkAnnotations 부분을 살펴봅니다.Cloud Vision API가 사진이 촬영된 장소를 식별하고 해당 위치의 지도 좌표(러시아 모스크바 붉은 광장의 성 바실리 성당)를 제공할 수 있었습니다.
이 응답의 값은 위의 labelAnnotations 응답과 비슷해야 합니다.
mid 값description)score
boundingPoly
locations 키Vision API는 객체 현지화를 사용하여 이미지에서 여러 객체를 감지하고 추출할 수 있습니다. 객체 현지화는 이미지에서 여러 객체를 식별하고 이미지의 각 객체에 LocalizedObjectAnnotation을 제공합니다. 각 LocalizedObjectAnnotation은 객체, 객체의 위치, 객체가 포함된 이미지 영역의 사각형 경계에 대한 정보를 식별합니다.
객체 현지화를 통해 이미지에서 중요한 객체와 덜 중요한 객체를 식별할 수 있습니다.
객체 정보는 영어로만 반환됩니다. Cloud Translation은 영어 라벨을 다양한 다른 언어로 번역할 수 있습니다.
이 메서드를 사용하려면 인터넷에 있는 기존 이미지를 사용하고 request.json 파일을 업데이트합니다.
request.json 파일을 업데이트합니다.curl 명령어를 실행하여 Cloud Vision API를 호출합니다.localizedObjectAnnotations 부분을 살펴봅니다.보시다시피 Vision API가 이 사진에서 자전거와 자전거 바퀴를 식별했다는 것을 알 수 있습니다. 이 응답의 값은 위의 labelAnnotations 응답과 유사해야 합니다. 객체의 mid 값, 객체의 이름(name), 신뢰도 점수 score, 객체가 식별된 이미지의 영역을 보여주는 boundingPoly가 여기에 포함됩니다.
또한 boundingPoly에는 이미지 속 객체의 좌표를 알려주는 normalizedVertices 키가 있습니다. 이러한 좌표는 0~1 범위로 정규화되며, 0은 이미지의 왼쪽 상단을 가리키고 1은 이미지의 오른쪽 하단을 가리킵니다.
좋습니다. Vision API를 사용하여 이미지를 분석하고 이미지 속 객체에 대한 정보를 추출했습니다.
지금까지 Vision API의 라벨, 얼굴, 랜드마크 감지, 객체 현지화 메서드를 살펴보았습니다. 하지만 아직 살펴보지 않은 세 가지 메서드가 더 있습니다. 메서드: images.annotate 문서에서 나머지 세 가지 메서드에 대해 알아보세요.
Vision API를 사용하여 이미지를 분석하는 방법을 알아보았습니다. 이 실습에서는 API에 다양한 이미지의 Cloud Storage URL을 전달했고 API는 이미지에서 찾은 라벨, 얼굴, 랜드마크, 객체를 반환했습니다. API에 이미지의 문자열을 base64로 인코딩하여 전달할 수도 있습니다. 이는 데이터베이스나 메모리에 저장된 이미지를 분석하려는 경우에 유용합니다.
Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.
설명서 최종 업데이트: 2025년 10월 14일
실습 최종 테스트: 2025년 10월 14일
Copyright 2025 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.