Taj Tabir Azad Khan
회원 가입일: 2023
다이아몬드 리그
12178포인트
회원 가입일: 2023
In this Google DeepMind course you will focus on the training process for machine learning models. You will learn how to spot and mitigate issues when training a model, such as overfitting and underfitting. In practical coding labs, you will implement and evaluate the multilayer perceptron for simple classification tasks. This will provide insights into the mechanics of training a neural network model and the backpropagation algorithm. Research case studies will demonstrate how neural networks power real-world models. Additionally, you will consider the broader social impacts of innovation by looking beyond immediate benefits to anticipate potential risks, safety concerns, and further-reaching societal consequences.
In this Google DeepMind course you will learn how to prepare text data for language models to process. You will investigate the tools and techniques used to prepare, structure, and represent text data for language models, with a focus on tokenization and embeddings. You will be encouraged to think critically about the decisions behind data preparation, and what biases within the data may be introduced into models. You will analyze trade-offs, learn how to work with vectors and matrices, how meaning is represented in language models. Finally, you will practice designing a dataset ethically using the Data Cards process, ensuring transparency, accountability, and respect for community values in AI development.
In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이 발명되기 전에는 불가능에 가까웠던 새로운 사용자 경험을 만들 수 있습니다. 어떻게 하면 애플리케이션 개발자가 생성형 AI를 사용해 Google Cloud에서 강력한 대화형 앱을 빌드할 수 있을까요? 이 과정에서는 생성형 AI 애플리케이션에 대해 알아보고 프롬프트 설계 및 검색 증강 생성(RAG)을 사용해 LLM 기반의 강력한 애플리케이션을 빌드하는 방법을 학습합니다. 생성형 AI 애플리케이션에 사용할 수 있는 프로덕션 레디 아키텍처를 살펴보고 LLM 및 RAG 기반 채팅 애플리케이션을 빌드합니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정에서는 특별히 의료 전문가를 대상으로 최신 인공지능 혁신 기술인 생성형 AI와 이를 구동하는 대규모 언어 모델(LLM)을 자세히 설명합니다. 실제 의료 서비스 환경에서 생성형 AI를 활용하는 방법을 알아보고 목표에 맞게 효과적인 프롬프트를 작성하는 방법을 익히세요.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.
Introduction to Generative AI, Introduction to Large Language Models, Introduction to Responsible AI 과정을 완료하고 기술 배지를 획득하세요. 최종 퀴즈를 풀어보고 생성형 AI의 기본 개념을 제대로 이해했는지 확인해 보세요. 기술 배지는 Google Cloud 제품 및 서비스에 대한 지식을 숙지한 사람에게 Google Cloud에서 발급하는 디지털 배지입니다. 프로필을 공개하고 기술 배지를 소셜 미디어 프로필에 추가하여 공유하세요.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.