Umarani Arunachalam
회원 가입일: 2025
다이아몬드 리그
6902포인트
회원 가입일: 2025
초급 Compute Engine에서 Cloud Load Balancing 구현하기 기술 배지 과정을 완료하여 Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 애플리케이션 부하 분산기 구성과 관련된 기술 역량을 입증하세요.
Google Cloud 컴퓨팅 기초 과정은 클라우드 컴퓨팅에 대한 배경 지식 또는 경험이 거의 없는 개인을 대상으로 합니다. 이 과정은 클라우드 기본사항, 빅데이터, 머신러닝에 대한 핵심 개념을 간략히 설명하고 Google Cloud의 적용 위치 및 방식에 대한 개요를 제공합니다. 일련의 과정을 마친 학습자는 이러한 개념을 명확하게 설명하고 몇 가지 실무 기술 역량을 입증할 수 있게 됩니다. 다음 순서대로 과정을 완료해야 합니다. 1. Google Cloud 컴퓨팅 기초: 클라우드 컴퓨팅 기초 2. Google Cloud 컴퓨팅 기초: Google Cloud의 인프라 3. Google Cloud 컴퓨팅 기초: Google Cloud의 네트워킹 및 보안 4. Google 클라우드 컴퓨팅 기초: Google Cloud의 데이터, 머신러닝, AI 이 세 번째 과정에서는 클라우드 자동화 및 관리 도구와 안전한 네트워크 구축에 대해 다룹니다.
초급 과정에서는 Google Cloud에서 데이터 분석 워크플로와 데이터를 탐색, 분석, 시각화하여 이해관계자와 결과물을 공유하는 데 활용할 수 있는 도구에 대해 학습합니다. 이 과정에서는 우수사례를 실무형 실습, 강의, 퀴즈/데모와 함께 활용해 원시 데이터 세트에서 데이터를 정리하여 효과적인 시각화 및 대시보드를 만드는 방법을 설명합니다. 이미 데이터를 활용하고 있고 Google Cloud를 효과적으로 활용하는 방법을 알고 싶거나 경력을 발전시키고 싶은 학습자라면 이 과정으로 학습을 시작해 보세요. 업무에서 데이터 분석을 수행하거나 활용하는 거의 모든 학습자에게 도움이 될 수 있습니다.
Google Cloud 컴퓨팅 기초 과정은 클라우드 컴퓨팅에 대한 배경지식 또는 경험이 거의 없는 개인을 대상으로 합니다. 이 과정은 클라우드 기본사항, 빅데이터, 머신러닝에 대한 핵심 개념을 간략히 설명하고 Google Cloud의 적용 위치 및 방식에 대한 개요를 제공합니다. 일련의 과정을 마친 학습자는 이러한 개념을 명확하게 설명하고 몇 가지 실무 기술 역량을 입증할 수 있게 됩니다. 과정은 다음 순서대로 완료해야 합니다. 1. Google Cloud 컴퓨팅 기초: 클라우드 컴퓨팅 기초 2. Google Cloud 컴퓨팅 기초: Google Cloud의 인프라 3. Google Cloud 컴퓨팅 기초: Google Cloud의 네트워킹 및 보안 4. Google Cloud 컴퓨팅 기초: Google Cloud의 데이터, 머신러닝, AI
Google Cloud 컴퓨팅 기초 과정은 클라우드 컴퓨팅에 대한 배경지식 또는 경험이 거의 없는 개인을 대상으로 합니다. 이 과정은 클라우드 기본사항, 빅데이터, 머신러닝에 대한 핵심 개념을 간략히 설명하고 Google Cloud의 적용 위치 및 방식에 대한 개요를 제공합니다. 일련의 과정을 마친 학습자는 이러한 개념을 명확하게 설명하고 몇 가지 실무 기술 역량을 입증할 수 있게 됩니다. 과정은 다음 순서대로 완료해야 합니다. 1. Google Cloud 컴퓨팅 기초: 클라우드 컴퓨팅 기초 2. Google Cloud 컴퓨팅 기초: Google Cloud의 인프라 3. Google Cloud 컴퓨팅 기초: Google Cloud의 네트워킹 및 보안 4. Google Cloud 컴퓨팅 기초: Google Cloud의 데이터, 머신러닝, AI 첫 번째 과정에서는 클라우드 컴퓨팅, Google Cloud 사용 방법, 다양한 컴퓨팅 옵션에 대한 개요를 제공합니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.