04
Transformer Models and BERT Model - 한국어
04
Transformer Models and BERT Model - 한국어
These skills were generated by AI. Do you agree this course teaches these skills?
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
과정 정보
목표
- Transformer 아키텍처의 주요 구성요소를 이해합니다
- Transformer를 사용한 BERT 모델 빌드 방식을 알아봅니다
- BERT를 사용하여 다양한 자연어 처리(NLP) 작업을 해결합니다
기본 요건
- 중급 수준의 머신러닝 경험
- 단어 임베딩 및 어텐션 메커니즘 관련 지식
- Python 및 TensorFlow 사용 경험
대상
이 과정은 텍스트 분류, 질문 답변, 자연어 추론을 배우는 데 관심이 있는 다음과 같은 사용자를 대상으로 합니다.
- 데이터 과학자
- 머신러닝 엔지니어
- 소프트웨어 엔지니어
사용할 수 있는 언어
English, español (Latinoamérica), français, עברית, bahasa Indonesia, italiano, 日本語, 한국어, português (Brasil), 简体中文, 繁體中文, Deutsch, Türkçe
과정을 완료한 후에는 어떻게 해야 하나요?
과정을 완료한 후 학습 과정 에서 다른 콘텐츠를 살펴보거나 학습 카탈로그 를 둘러보면 됩니다.
어떤 배지를 획득할 수 있나요?
과정을 완료하면 이수 배지가 주어집니다. 배지는 프로필에 표시되며 사회 연결망에서 공유할 수 있습니다.
Google의 주문형 파트너에서 제공하는 과정에 관심이 있으신가요?
Coursera 및 Pluralsight 에서 Google Cloud 콘텐츠를 살펴보세요.
강사 주도 강좌를 선호하시나요?