GSP354

Visão geral
Nos laboratórios com desafio, apresentamos uma situação e um conjunto de tarefas. Para concluí-las, em vez de seguir instruções detalhadas, você usará o que aprendeu nos laboratórios do curso. Um sistema automático de pontuação (mostrado nesta página) vai avaliar seu desempenho.
Nos laboratórios com desafio, não ensinamos novos conceitos do Google Cloud. O objetivo dessas tarefas é aprimorar aquilo que você já aprendeu, como a alteração de valores padrão ou a leitura e pesquisa de mensagens para corrigir seus próprios erros.
Para alcançar a pontuação de 100%, você precisa concluir todas as tarefas no tempo definido.
Este laboratório é recomendado para estudantes que se inscreveram no curso Criar e implantar soluções de machine learning com a Vertex AI. Tudo pronto para começar o desafio?
Configuração e requisitos
Antes de clicar no botão Começar o Laboratório
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
- Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
- Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.
Cenário do desafio
Recentemente, contrataram você para trabalhar na engenharia de machine learning de uma startup que tem um site de resenhas de filmes. Seu gerente pediu para você criar um modelo que classifica como positivo ou negativo o sentimento das resenhas de filmes feitas pelos usuários. Essas previsões vão ser usadas como uma entrada em sistemas que agregam avaliações de filmes e para exibir as principais críticas positivas e negativas no aplicativo do site.
O desafio: você tem apenas seis semanas para produzir um modelo com mais de 75% de precisão para melhorar a solução atual desenvolvida pela empresa. Além disso, após uma análise exploratória no data warehouse da startup, você descobre que ele contém apenas um pequeno conjunto de dados com 50 mil resenhas em texto que vão servir como base para criar uma solução com melhor desempenho.
Seu desafio
Para criar e implantar rapidamente um modelo de machine learning de alto desempenho com dados limitados, você vai treinar e implantar um classificador de sentimentos personalizado BERT do TensorFlow. Ele vai realizar previsões on-line na plataforma Vertex AI do Google Cloud, que é nossa plataforma avançada de desenvolvimento de machine learning. Nela, é possível usar o AutoML e os componentes pré-criados de ML mais recentes para melhorar muito a produtividade de desempenho, a capacidade de escalonar o fluxo de trabalho e os processos de decisão com dados, além de acelerar o retorno do investimento.

Primeiro, você vai passar por um fluxo de trabalho experimental típico. Nele, você vai criar seu modelo usando componentes BERT pré-treinados do TF-Hub e camadas de classificação do tf.keras
para treinar e avaliar seu modelo em um notebook da Vertex. Em seguida, você vai empacotar o código do modelo em um contêiner do Docker para fazer o treinamento na Vertex AI do Google Cloud. Por último, você vai definir e executar um pipeline do Kubeflow no Vertex Pipelines que faz o treinamento e a implantação do seu modelo em um endpoint da Vertex que oferece previsões on-line para consultas.
Tarefa 1: abrir o notebook no Vertex AI Workbench
-
No menu de navegação (
) do console do Google Cloud, clique em Vertex AI > Workbench.
-
Ache a instância e clique no botão Abrir o JupyterLab.
A interface do JupyterLab para sua instância do Workbench é aberta em uma nova guia do navegador.
Observação: se você não encontrar notebooks no JupyterLab, siga estas etapas para redefinir a instância:
1. Feche a guia do JupyterLab no navegador e volte à página inicial do Workbench.
2. Marque a caixa de seleção ao lado do nome da instância e clique em Redefinir.
3. Depois que o botão Abrir o JupyterLab for ativado novamente, aguarde um minuto e clique em Abrir o JupyterLab.
Tarefa 2: configurar o notebook
-
No seu notebook, clique em Terminal.
-
Para instalar os pacotes necessários para o laboratório, use este código:
pip3 install -U -r requirements.txt --user
-
No Navegador de arquivos à esquerda, clique no item .
-
Quando for perguntado qual kernel usar, selecione a opção Python 3 (ipykernel).
-
Leia a seção Configuração do notebook para instalar as bibliotecas necessárias e configurar o ambiente.
- Em ID do projeto, use e, em Região, use .
Todo o restante do código para importar e pré-processar o conjunto de dados foi fornecido para você. As próximas etapas estão descritas no arquivo do notebook. Ao longo das tarefas, volte a esta página do laboratório para verificar seu progresso e ver algumas dicas.
Tarefa 3: crie e treine seu modelo localmente em um notebook da Vertex AI
Nesta seção, você vai treinar seu modelo localmente usando o TensorFlow.
Observação: este laboratório é uma adaptação e extensão do tutorial oficial de classificação de texto BERT do TensorFlow para usar os serviços da Vertex AI. Para mais detalhes, veja o tutorial sobre o ajuste de modelos BERT usando o TensorFlow.
Criar e compilar um classificador de sentimentos BERT do TensorFlow
-
Preencha a seção #TODO
para adicionar um hub.KerasLayer
ao pré-processamento de texto BERT.
-
Preencha a seção #TODO
para adicionar um hub.KerasLayer
à codificação de texto BERT.
-
Preencha a seção #TODO
para salvar a classificação de sentimento BERT localmente no diretório ./bert-sentiment-classifier-local
.
Clique em Verificar meu progresso para conferir o objetivo.
Criar e treinar o modelo
Tarefa 4: usar o Cloud Build para criar e enviar seu contêiner de modelos para o Artifact Registry
Criar um repositório do Artifact Registry para imagens de contêiner personalizadas
- Preencha a seção
#TODO
para criar um Artifact Registry do Docker usando a gcloud CLI. Saiba mais na documentação do gcloud artifacts repositories create.
Observação: especifique as sinalizações location
, repository-format
e description
.
Criar e enviar a imagem do contêiner para o Artifact Registry usando o Cloud Build
- Preencha a seção
#TODO
para usar o Cloud Build na criação e envio do seu contêiner de modelos personalizado para o Artifact Registry. Saiba mais na documentação do gcloud builds submit.
Observação: verifique se a sinalização de configuração está direcionada para {MODEL_DIR}/cloudbuild.yaml
, definido acima, e inclua seu diretório de modelos.
Clique em Verificar meu progresso para conferir o objetivo.
Criar e enviar a imagem do contêiner para o Artifact Registry
Tarefa 5: definir um pipeline usando o SDK do KFP
- Preencha a seção
#TODO
para adicionar e configurar componentes CustomContainerTrainingJobOp
no seu pipeline.
Observação: os argumentos são iguais aos utilizados antes em CustomContainerTrainingJob
.
Observação: o treinamento e a implantação do modelo podem levar de 30 a 40 minutos.
Clique em Verificar meu progresso para conferir o objetivo.
defina um pipeline usando o SDK do KFP
Tarefa 6: consultar o modelo implantado usando seu endpoint da Vertex
- Preencha a seção
#TODO
para gerar previsões on-line usando o endpoint da Vertex.
Parabéns!
Parabéns! Neste laboratório, você aprendeu a criar e implantar um classificador de sentimentos BERT personalizado usando a Vertex AI. Você também aprendeu a usar o Cloud Build para criar e enviar seu contêiner de modelos personalizado para o Artifact Registry e definir um pipeline usando o SDK do KFP. Agora você já sabe criar e implantar seus próprios modelos personalizados usando a Vertex AI.

Conquiste seu próximo selo de habilidade
Este laboratório autoguiado faz parte do curso Criar e implantar soluções de machine learning na Vertex AI. Ao concluir o curso, você ganha o selo acima como reconhecimento pela sua conquista. Compartilhe o selo no seu currículo e nas redes sociais e use #GoogleCloudBadge para anunciar sua conquista.
Este curso com selo de habilidade faz parte do programa de aprendizado Cientista de dados/ engenheiro de machine learning do Google. Se já tiver concluído os outros cursos com selo de habilidade nesse programa de aprendizado, inscreva-se em uma das mais de 20 outras opções disponíveis no catálogo.
Treinamento e certificação do Google Cloud
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 8 de agosto de 2024
Laboratório testado em 8 de agosto de 2024
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.