가입 로그인

Saifuddin Ahmed

회원 가입일: 2021

다이아몬드 리그

7610포인트
Google DeepMind: 04 Discover The Transformer Architecture Earned 11월 28, 2025 EST
Google DeepMind: 03 Design And Train Neural Networks Earned 11월 27, 2025 EST
Google DeepMind: 02 Represent Your Language Data Earned 11월 24, 2025 EST
Google DeepMind: Train A Small Language Model Earned 11월 22, 2025 EST
Google DeepMind: 01 Build Your Own Small Language Model Earned 11월 14, 2025 EST
Vertex AI Studio 소개 Earned 6월 11, 2023 EDT
이미지 캡셔닝 모델 만들기 Earned 6월 11, 2023 EDT
Transformer 모델 및 BERT 모델 Earned 6월 11, 2023 EDT
어텐션 메커니즘 Earned 6월 11, 2023 EDT
인코더-디코더 아키텍처 Earned 6월 11, 2023 EDT
이미지 생성 소개 Earned 6월 10, 2023 EDT
Generative AI Fundamentals - 한국어 Earned 6월 10, 2023 EDT
책임감 있는 AI 소개 Earned 6월 8, 2023 EDT
대규모 언어 모델 소개 Earned 6월 8, 2023 EDT
생성형 AI 소개 Earned 6월 5, 2023 EDT

In this Google DeepMind course you will discover the mechanisms of the transformer architecture. You will investigate how transformer language models process prompts to make context-sensitive next-token predictions. Through practical activities you will explore the attention mechanism, visualize attention weights, and encounter advanced concepts like masked attention and multi-head attention. You will also learn other techniques that are necessary to build neural networks that are well-suited to be used as language models. Finally, through activities on values, stakeholder mapping and community engagement, you will practice concrete tools for ensuring AI projects are developed with communities, not just for them.

자세히 알아보기

In this Google DeepMind course you will focus on the training process for machine learning models. You will learn how to spot and mitigate issues when training a model, such as overfitting and underfitting. In practical coding labs, you will implement and evaluate the multilayer perceptron for simple classification tasks. This will provide insights into the mechanics of training a neural network model and the backpropagation algorithm. Research case studies will demonstrate how neural networks power real-world models. Additionally, you will consider the broader social impacts of innovation by looking beyond immediate benefits to anticipate potential risks, safety concerns, and further-reaching societal consequences.

자세히 알아보기

In this Google DeepMind course you will learn how to prepare text data for language models to process. You will investigate the tools and techniques used to prepare, structure, and represent text data for language models, with a focus on tokenization and embeddings. You will be encouraged to think critically about the decisions behind data preparation, and what biases within the data may be introduced into models. You will analyze trade-offs, learn how to work with vectors and matrices, how meaning is represented in language models. Finally, you will practice designing a dataset ethically using the Data Cards process, ensuring transparency, accountability, and respect for community values in AI development.

자세히 알아보기

Complete the advanced Google DeepMind: Train A Small Language Model skill badge by completing this course to demonstrate skills in the following: formulating real-world language model research problems; building a simple tokenizer; preparing a dataset for training a transformer language model; running the training loop of a small language model. Access this lab at no-cost by signing up for the no-cost subscription. Receive 35 free credits each month!

자세히 알아보기

In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.

자세히 알아보기

이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.

자세히 알아보기

이 과정에서는 딥 러닝을 사용해 이미지 캡션 모델을 만드는 방법을 알아봅니다. 인코더 및 디코더와 모델 학습 및 평가 방법 등 이미지 캡션 모델의 다양한 구성요소에 대해 알아봅니다. 이 과정을 마치면 자체 이미지 캡션 모델을 만들고 이를 사용해 이미지의 설명을 생성할 수 있게 됩니다.

자세히 알아보기

이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.

자세히 알아보기

이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.

자세히 알아보기

이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.

자세히 알아보기

이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.

자세히 알아보기

Introduction to Generative AI, Introduction to Large Language Models, Introduction to Responsible AI 과정을 완료하고 기술 배지를 획득하세요. 최종 퀴즈를 풀어보고 생성형 AI의 기본 개념을 제대로 이해했는지 확인해 보세요. 기술 배지는 Google Cloud 제품 및 서비스에 대한 지식을 숙지한 사람에게 Google Cloud에서 발급하는 디지털 배지입니다. 프로필을 공개하고 기술 배지를 소셜 미디어 프로필에 추가하여 공유하세요.

자세히 알아보기

책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.

자세히 알아보기

이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.

자세히 알아보기

생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.

자세히 알아보기