Rejoindre Se connecter

Shamik Mishra

Date d'abonnement : 2025

Ligue d'Or

1046 points
Modèles Transformer et modèle BERT Earned nov. 19, 2025 EST
Mécanisme d'attention Earned nov. 18, 2025 EST

Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.

En savoir plus

Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.

En savoir plus