GSP1054

Visão geral
O Bigtable é o serviço de banco de dados NoSQL totalmente gerenciado e escalonável do Google. O Bigtable é ideal para armazenar grandes quantidades de dados em um repositório de chave-valor e para casos de uso como personalização, tecnologias de anúncios, tecnologia financeira, mídia digital e Internet das Coisas (IoT). O Bigtable conta com alta capacidade de processamento de operações de leitura e gravação em latência baixa para acesso rápido a grandes quantidades de dados para processamento e análise.
Para casos de uso de personalização, o Bigtable consegue lidar com um grande número de operações de gravação para armazenar as interações dos usuários com produtos on-line e um grande número de operações de leitura para informar essas interações a modelos que produzem recomendações personalizadas.
Neste laboratório, você vai usar o console do Google Cloud para criar uma instância do Bigtable com uma tabela para armazenar as interações dos usuários com produtos. Em seguida, você vai usar um modelo do Dataflow para preencher a tabela com arquivos de dados pré-gerados no Cloud Storage. Depois que o job do Dataflow terminar, você vai verificar se a tabela foi preenchida com os dados e excluir os dados do Bigtable para concluir o laboratório.
Atividades deste laboratório
Neste laboratório, você vai aprender a criar uma instância do Bigtable e carregar dados do Cloud Storage sem escrever códigos.
- Criar uma instância e uma tabela do Bigtable com grupos de colunas.
- Usar um modelo do Dataflow para carregar arquivos SequenceFile do Cloud Storage no Bigtable.
- Verificar se os dados foram carregados no Bigtable.
- Excluir a tabela e a instância do Bigtable.
Pré-requisitos
Configuração e requisitos
Antes de clicar no botão Começar o Laboratório
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
- Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
- Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.
Como iniciar seu laboratório e fazer login no console do Google Cloud
-
Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento.
No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:
- O botão Abrir Console do Google Cloud
- O tempo restante
- As credenciais temporárias que você vai usar neste laboratório
- Outras informações, se forem necessárias
-
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
-
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
{{{user_0.username | "Username"}}}
Você também encontra o nome de usuário no painel Detalhes do Laboratório.
-
Clique em Próxima.
-
Copie a Senha abaixo e cole na caixa de diálogo de Olá.
{{{user_0.password | "Password"}}}
Você também encontra a senha no painel Detalhes do Laboratório.
-
Clique em Próxima.
Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud.
Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
-
Acesse as próximas páginas:
- Aceite os Termos e Condições.
- Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
- Não se inscreva em testes gratuitos.
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
Observação: para acessar os produtos e serviços do Google Cloud, clique no Menu de navegação ou digite o nome do serviço ou produto no campo Pesquisar.
Ativar o Cloud Shell
O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.
-
Clique em Ativar o Cloud Shell
na parte de cima do console do Google Cloud.
-
Clique nas seguintes janelas:
- Continue na janela de informações do Cloud Shell.
- Autorize o Cloud Shell a usar suas credenciais para fazer chamadas de APIs do Google Cloud.
Depois de se conectar, você verá que sua conta já está autenticada e que o projeto está configurado com seu Project_ID, . A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:
Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}
A gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.
- (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
- Clique em Autorizar.
Saída:
ACTIVE: *
ACCOUNT: {{{user_0.username | "ACCOUNT"}}}
To set the active account, run:
$ gcloud config set account `ACCOUNT`
- (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project
Saída:
[core]
project = {{{project_0.project_id | "PROJECT_ID"}}}
Observação: consulte a documentação completa da gcloud no Google Cloud no guia de visão geral da gcloud CLI.
API Dataflow
Ative a API Dataflow
Para ter acesso à API Dataflow, reinicie a conexão.
gcloud services disable dataflow.googleapis.com --project {{{project_0.project_id|Project ID}}} --force
gcloud services enable dataflow.googleapis.com --project {{{project_0.project_id|Project ID}}}
Clique em Verificar meu progresso para conferir o objetivo.
API Dataflow
Tarefa 1: Criar uma instância do Bigtable
Para criar uma nova tabela no Bigtable, primeiro você precisa criar uma instância do Bigtable para armazenar a tabela.
-
No menu de navegação (
) do console do Google Cloud, em Bancos de dados, clique em Bigtable.
-
Clique em Criar instância.
-
Insira as informações necessárias para criar uma instância do Bigtable:
| Propriedade |
Valor |
| Nome da instância |
Vendas personalizadas |
| ID da instância |
Mantenha o valor padrão |
| Tipo de armazenamento |
SSD |
| ID do cluster |
Mantenha o valor padrão |
| Região |
|
| Zona |
|
| Modo de escalonamento do nó |
Alocação manual |
| Quantidade |
Mantenha o valor padrão |
- Clique em Criar.
Clique em Verificar meu progresso para conferir o objetivo.
Criar uma instância do Bigtable.
Tarefa 2: criar uma tabela do Bigtable
No Bigtable, cada linha de uma tabela tem um identificador exclusivo chamado chave de linha. As colunas da tabela são agrupadas por grupo de colunas para organizar colunas relacionadas. Nesta tarefa, você vai criar uma tabela do Bigtable com chaves de linha e grupos de colunas apropriados para interações do usuário.
Primeiro, você deve criar uma tabela chamada UserSessions para armazenar as interações on-line dos usuários com vários produtos e vendas confirmadas, usando uma combinação de ID do usuário e carimbo de data/hora como chave de linha. Em seguida, você deve criar dois grupos de colunas chamados Interações e Vendas para ajudar a organizar as colunas relacionadas.
-
Na lista de instâncias do Bigtable, clique no ID da instância chamada personalized-sales.
-
No menu de navegação, em Instância, clique em Tabelas.
-
Clique em Criar tabela.
-
Em ID da tabela, digite UserSessions
-
Clique em Adicionar grupo de colunas.
-
Em Nome do grupo de colunas, digite Interações
Mantenha o valor padrão para a política de coleta de lixo.
-
Clique em Concluído.
-
Repita as etapas 5 a 7 para criar outro grupo de colunas chamado Vendas.
-
Clique em Criar.
Clique em Verificar meu progresso para conferir o objetivo.
Criar uma tabela do Bigtable.
Tarefa 3: carregar arquivos de dados do Cloud Storage usando um modelo do Dataflow
Nesta tarefa, você executa um job do Dataflow para carregar dados do Cloud Storage no Bigtable. Para executar o job do Dataflow, primeiro você precisa criar um bucket do Cloud Storage para permitir que o Dataflow grave arquivos temporários conforme necessário. Assim, você consegue criar e executar um novo job do Dataflow com base em um modelo.
Criar um bucket do Cloud Storage
-
No menu de navegação (
) do console do Google Cloud, clique em Visão geral do Cloud > Painel.
-
Em Informações do projeto, copie o valor de ID do projeto (como ).
Use o ID do projeto do Qwiklabs, que já é exclusivo globalmente, como o nome do bucket do Cloud Storage.
-
No menu de navegação (
) do console do Google Cloud, clique em Cloud Storage > Buckets.
-
Clique em Criar bucket.
-
Insira as informações necessárias para criar um bucket do Cloud Storage, substituindo project-id pelo ID do projeto que você copiou na etapa 2.
| Propriedade |
Valor |
| Nome |
ID do projeto |
| Tipo de local |
Multirregional |
| Local |
EUA (várias regiões nos Estados Unidos) |
Nos parâmetros restantes, mantenha os valores padrão.
-
Clique em Criar.
-
Se a mensagem O acesso público será bloqueado aparecer, clique em Confirmar.
Criar um job do Dataflow usando um modelo
-
No menu de navegação (
) do console do Google Cloud, em Análise, clique em Dataflow > Jobs.
-
Clique em Criar job usando um modelo.
-
Insira as informações necessárias para criar um job do Dataflow com base em um modelo, substituindo project-id pelo ID do projeto que você copiou no passo anterior.
| Propriedade |
Valor |
| Nome do job |
import-usersessions |
| Endpoint regional |
|
| Modelo do Dataflow |
Arquivos SequenceFile no Cloud Storage para o Cloud BigTable |
| ID do projeto |
project-id |
| ID da instância |
personalized-sales |
| ID da tabela |
UserSessions |
| Padrão do caminho de origem |
gs://spls/gsp1054/retail-interactions-sales-00000-of-00001 |
| Local temporário |
gs://project-id/temp |
Nos parâmetros restantes, mantenha os valores padrão.
-
Clique em Executar job.
-
Na página Gráfico de jobs, em Visualização das etapas do job, selecione Visualização em gráfico.
A visualização em gráfico mostra um gráfico de como o job avança para a conclusão das etapas a seguir:
- Ler os SequenceFiles no Cloud Storage.
- Mudar os dados para carregamento no Bigtable.
- Gravar os dados no Bigtable.
- Se preferir uma visualização em tabela dessas etapas, selecione Visualização em tabela.
Quando o job for concluído, uma marca de seleção verde do status Concluído será exibida ao lado de cada tarefa no gráfico de jobs. Esse job leva de três a cinco minutos para ser executado.
Clique em Verificar meu progresso para conferir o objetivo.
Carregar arquivos de dados do Cloud Storage usando um modelo do Dataflow.
Tarefa 4: verificar os dados carregados no Bigtable
Depois que o job do Dataflow for concluído, você poderá usar os comandos cbt (ferramenta de linha de comando do Cloud Bigtable) para se conectar à instância do Bigtable e verificar se a tabela foi preenchida com os dados.
Configurar a CLI do Bigtable
Para se conectar ao Bigtable usando os comandos cbt da CLI, primeiro você precisa usar o Cloud Shell para atualizar o arquivo de configuração .cbtrc com o ID do projeto e o ID da instância.
Para saber como acessar o Cloud Shell, clique em Configuração e requisitos no menu à direita desta página.
- Para modificar o arquivo
.cbtrc com o ID do projeto e o ID da instância, execute os comandos a seguir no Cloud Shell:
echo project = `gcloud config get-value project` \
>> ~/.cbtrc
echo instance = personalized-sales \
>> ~/.cbtrc
- Para verificar se o arquivo
.cbtrc foi modificado, execute este comando:
cat ~/.cbtrc
A saída será semelhante a esta:
project = <project-id>
instance = personalized-sales
Consultar dados na tabela
Depois de configurar o arquivo de configuração .cbtrc no Cloud Shell, você pode executar um comando cbt simples da CLI para consultar os dez primeiros registros da tabela.
- Para conferir os dados das dez primeiras linhas da tabela, execute este comando:
cbt read UserSessions \
count=10
O resultado será assim:
----------------------------------------------
ROW KEY
COLUMN_FAMILY:COLUMN_QUALIFIER @ TIMESTAMP
VALUE
Os valores de saída serão semelhantes a estes:
----------------------------------------------
blue1#1638940844409
Interactions:blue_blouse @ 2022/06/07-18:34:28.858000
"purchased"
Interactions:blue_jacket @ 2022/06/07-18:34:28.858000
"viewed details"
Interactions:blue_shoes @ 2022/06/07-18:34:28.858000
"viewed details"
Interactions:green_skirt @ 2022/06/07-18:34:28.858000
"seen"
Interactions:orange_dress @ 2022/06/07-18:34:28.858000
"seen"
Interactions:purple_dress @ 2022/06/07-18:34:28.858000
"seen"
Interactions:purple_skirt @ 2022/06/07-18:34:28.858000
"seen"
Interactions:user_id @ 2022/06/07-18:34:28.858000
"blue1"
Interactions:yellow_blouse @ 2022/06/07-18:34:28.858000
"seen"
Sales:sale @ 2022/06/07-18:34:28.858000
"blue_blouse"
Tarefa 5: excluir uma tabela e uma instância do Bigtable
-
No menu de navegação (
) do console do Google Cloud, em Bancos de dados, clique em Bigtable.
-
Na lista de instâncias do Bigtable, clique no ID da instância chamada personalized-sales.
-
No menu de navegação, em Instância, clique em Tabelas.
-
Clique na tabela UserSessions.
-
Clique em Excluir tabela.
-
Na caixa de diálogo de confirmação, digite UserSessions
-
Clique em Excluir.
-
No menu de navegação, em Instância, clique em Visão geral.
-
Clique em Excluir instância.
-
Na caixa de diálogo de confirmação, digite personalized-sales
-
Clique em Excluir.
Clique em Verificar meu progresso para conferir o objetivo.
Excluir uma tabela e uma instância do Bigtable.
Parabéns!
Neste laboratório, você usou o Bigtable para criar uma nova instância e tabela, carregou dados na tabela usando um modelo do Dataflow e confirmou que os dados foram carregados com sucesso executando comandos cbt simples da CLI. Por fim, excluiu a tabela e a instância do Bigtable para concluir o laboratório.
Próximas etapas / Saiba mais
Treinamento e certificação do Google Cloud
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 13 de agosto de 2025
Laboratório testado em 13 de agosto de 2025
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.