Instruções e requisitos de configuração do laboratório
Proteja sua conta e seu progresso. Sempre use uma janela anônima do navegador e suas credenciais para realizar este laboratório.

Cloud Spanner: carregamento de dados e backups

Laboratório 25 minutos universal_currency_alt 1 crédito show_chart Introdutório
info Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Este conteúdo ainda não foi otimizado para dispositivos móveis.
Para aproveitar a melhor experiência, acesse nosso site em um computador desktop usando o link enviado a você por e-mail.

GSP1049

Logotipo dos laboratórios autoguiados do Google Cloud

Visão geral

O Cloud Spanner é o serviço de banco de dados relacional do Google, totalmente gerenciado e com capacidade de escala horizontal. Ele costuma ser usado para a execução de cargas de trabalho mais exigentes, em que a consistência e a disponibilidade em escala são essenciais. Clientes de diversos setores, como serviços financeiros, jogos e varejo, entre outros, já usam o Spanner.

Neste laboratório, você vai conhecer várias maneiras de carregar dados no Cloud Spanner e fazer backup do seu banco de dados.

Atividades deste laboratório

  • Inserir dados com DML
  • Inserir dados usando uma biblioteca de cliente
  • Inserir dados em lote usando uma biblioteca de cliente
  • Carregar dados usando o Dataflow
  • Fazer backup do seu banco de dados

Configuração e requisitos

Antes de clicar no botão Começar o Laboratório

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento. No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:

    • O botão Abrir Console do Google Cloud
    • O tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações, se forem necessárias
  2. Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.

    O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.

    {{{user_0.username | "Username"}}}

    Você também encontra o nome de usuário no painel Detalhes do Laboratório.

  4. Clique em Próxima.

  5. Copie a Senha abaixo e cole na caixa de diálogo de Olá.

    {{{user_0.password | "Password"}}}

    Você também encontra a senha no painel Detalhes do Laboratório.

  6. Clique em Próxima.

    Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  7. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.

Observação: para acessar os produtos e serviços do Google Cloud, clique no Menu de navegação ou digite o nome do serviço ou produto no campo Pesquisar. Ícone do menu de navegação e campo de pesquisa

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell Ícone "Ativar o Cloud Shell" na parte de cima do console do Google Cloud.

  2. Clique nas seguintes janelas:

    • Continue na janela de informações do Cloud Shell.
    • Autorize o Cloud Shell a usar suas credenciais para fazer chamadas de APIs do Google Cloud.

Depois de se conectar, você verá que sua conta já está autenticada e que o projeto está configurado com seu Project_ID, . A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

A gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

Saída:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} Observação: consulte a documentação completa da gcloud no Google Cloud no guia de visão geral da gcloud CLI.

Tarefa 1: conhecer a instância

Durante a implantação, uma instância, um banco de dados e uma tabela do Cloud Spanner foram criados para você.

  1. No console, abra o menu de navegação (Menu de navegação) > Ver todos os produtos. Na seção Bancos de dados, clique em Spanner.

O nome da instância é banking-instance. Clique nela para conferir os bancos de dados. O banco de dados associado é chamado de banking-db. Clique nele para acessá-lo. Você vai ver que já existe uma tabela chamada Customer. Clique nela para conferir o esquema.

  1. A tabela está vazia no momento. Volte para a página de visão geral de banking-db. No menu à esquerda, clique em Spanner Studio e execute o seguinte:
SELECT * FROM Customer;
  1. Nenhum resultado é retornado.

Tarefa 2: inserir dados com DML

A maneira mais fácil de inserir dados no Spanner é usando DML. Usando o Cloud Shell e o gcloud, é possível executar qualquer instrução DML, incluindo INSERT.

  1. No Cloud Shell, execute este comando:
gcloud spanner databases execute-sql banking-db --instance=banking-instance \ --sql="INSERT INTO Customer (CustomerId, Name, Location) VALUES ('bdaaaa97-1b4b-4e58-b4ad-84030de92235', 'Richard Nelson', 'Ada Ohio')"
  1. Volte ao console e, no menu à esquerda, clique em Visão geral. Acesse a tabela Customer e selecione Data. A linha que você acabou de inserir vai aparecer.

Como já foi dito, é possível usar o gcloud para executar qualquer comando DML. Confira a documentação sobre o DML e o Spanner.

É claro que carregar um banco de dados linha por linha não é um trabalho muito eficiente.

Tarefa 3: inserir dados usando uma biblioteca de cliente

A melhor maneira de acessar o Spanner é usando uma interface programática. Há uma grande variedade de bibliotecas de cliente, incluindo C++, C#, Go, Java, Node.js, PHP, Python e Ruby.

  1. No Cloud Shell, insira o comando a seguir para invocar o editor de texto Nano e criar um novo arquivo de configuração vazio chamado insert.py.
nano insert.py
  1. Cole o bloco de código listado abaixo.
from google.cloud import spanner from google.cloud.spanner_v1 import param_types INSTANCE_ID = "banking-instance" DATABASE_ID = "banking-db" spanner_client = spanner.Client() instance = spanner_client.instance(INSTANCE_ID) database = instance.database(DATABASE_ID) def insert_customer(transaction): row_ct = transaction.execute_update( "INSERT INTO Customer (CustomerId, Name, Location)" "VALUES ('b2b4002d-7813-4551-b83b-366ef95f9273', 'Shana Underwood', 'Ely Iowa')" ) print("{} record(s) inserted.".format(row_ct)) database.run_in_transaction(insert_customer)
  1. Pressione Ctrl+X para sair do Nano, Y para confirmar a atualização e Enter para salvar as alterações.

  2. Execute o código Python.

python3 insert.py
  1. Atualize o console do Cloud ou clique em outro item no menu à esquerda e depois clique novamente em Data. A nova linha vai aparecer no banco de dados.

Assim como com o gcloud, é possível executar qualquer instrução DML nas bibliotecas de cliente. Você encontra vários exemplos para todos os idiomas na documentação.

Embora seja uma opção mais flexível do que carregar dados usando a gcloud, ela ainda tem limitações ao carregar uma origem que contém um grande número de linhas.

  1. Clique em Verificar meu progresso para conferir o objetivo.
Inserir dados usando uma biblioteca de cliente

Tarefa 4: inserir dados em lote usando uma biblioteca de cliente

Uma maneira mais otimizada de carregar dados no Spanner é fazer isso em lotes. Todas as bibliotecas de cliente são compatíveis com esse tipo de carregamento. Este exemplo usa Python.

  1. No Cloud Shell, insira o comando a seguir para invocar o editor de texto Nano e criar um novo arquivo de configuração vazio chamado batch_insert.py.
nano batch_insert.py
  1. Cole o bloco de código listado abaixo.
from google.cloud import spanner from google.cloud.spanner_v1 import param_types INSTANCE_ID = "banking-instance" DATABASE_ID = "banking-db" spanner_client = spanner.Client() instance = spanner_client.instance(INSTANCE_ID) database = instance.database(DATABASE_ID) with database.batch() as batch: batch.insert( table="Customer", columns=("CustomerId", "Name", "Location"), values=[ ('edfc683f-bd87-4bab-9423-01d1b2307c0d', 'John Elkins', 'Roy Utah'), ('1f3842ca-4529-40ff-acdd-88e8a87eb404', 'Martin Madrid', 'Ames Iowa'), ('3320d98e-6437-4515-9e83-137f105f7fbc', 'Theresa Henderson', 'Anna Texas'), ('6b2b2774-add9-4881-8702-d179af0518d8', 'Norma Carter', 'Bend Oregon'), ], ) print("Rows inserted")
  1. Pressione Ctrl+X para sair do Nano, Y para confirmar a atualização e Enter para salvar as alterações.

  2. Execute o código Python.

python3 batch_insert.py
  1. Volte ao console do Cloud e atualize para ver os novos dados que você acabou de inserir.

O método em lote é mais eficiente, porque é executado como uma única solicitação. Apenas uma ida e volta entre o cliente e o servidor é necessária, reduzindo a latência.

No entanto, esse é um método muito lento e que consome uma grande quantidade de recursos para carregar dados.

  1. Clique em Verificar meu progresso para conferir o objetivo.
Inserir dados em lote usando uma biblioteca de cliente

Tarefa 5: carregar dados usando o Dataflow

O Dataflow é um serviço do Google Cloud para processamento de dados em lote e streaming em grande escala. Ele usa vários workers para executar o processamento de dados em paralelo. A forma como os dados são processados é definida usando pipelines que transformam os dados da origem (fontes) para o destino (coletores).

Há conectores para o Spanner que permitem conectar um banco de dados como uma fonte ou um coletor no Dataflow.

Para carregar grandes volumes de dados, você pode usar a capacidade distribuída sem servidor do Dataflow para ler dados de uma origem (por exemplo, um arquivo CSV no Google Cloud Storage) e carregá-los no seu banco de dados do Spanner usando um conector de coletor.

  1. Para se preparar para o job do Dataflow, execute estes comandos no Cloud Shell para criar um bucket no seu projeto e uma pasta com um arquivo vazio dentro dela.
gsutil mb gs://{{{project_0.project_id|Project ID}}} touch emptyfile gsutil cp emptyfile gs://{{{project_0.project_id|Project ID}}}/tmp/emptyfile
  1. Para garantir que as APIs e permissões sejam definidas de forma adequada, execute o bloco de código abaixo no Cloud Shell.
gcloud services disable dataflow.googleapis.com --force gcloud services enable dataflow.googleapis.com
  1. No console, abra o menu de navegação (Menu de navegação) > Ver todos os produtos. Na seção Análise, clique em Dataflow.

  2. Na parte de cima da tela, clique em Criar job usando um modelo.

  3. Insira os seguintes valores no modelo:

    • Nome do job: spanner-load

    • Endpoint regional:

  4. Role para baixo o seletor de modelo do Dataflow e veja todos os diferentes blueprints que podem ser usados com o Dataflow. Você também pode criar seus próprios pipelines personalizados usando o SDK do Beam.

Há dois tipos principais de modelos:

  • Stream: cria um pipeline para dados que estão circulando e são processados continuamente (por exemplo, pedidos on-line de um site).
  • Em lote: processa um conjunto de dados que tem um começo e um fim (por exemplo, arquivos armazenados no Google Cloud Storage).

No seu cenário, você vai carregar dados em um banco de dados bancário do Spanner usando um arquivo CSV com mais de 150 mil linhas.

  1. Selecione os arquivos de texto no Cloud Storage para o modelo do Cloud Spanner.

  2. Insira os seguintes valores no modelo:

Item Valor
ID da instância do Cloud Spanner banking-instance
ID do banco de dados do Cloud Spanner banking-db
Arquivo de manifesto de importação de texto spls/gsp1049/manifest.json



O formato do arquivo manifest.json é explicado no tutorial deste modelo (você pode acessar clicando em abrir tutorial logo acima dos campos de entrada de parâmetros).

O arquivo de manifesto precisa ser armazenado em um bucket do Google Cloud Storage que o Dataflow possa acessar e ler. Para este laboratório, este é o conteúdo de manifest.json:

{ "tables": [ { "table_name": "Customer", "file_patterns": [ "gs://spls/gsp1049/Customer_List.csv" ], "columns": [ {"column_name" : "CustomerId", "type_name" : "STRING" }, {"column_name" : "Name", "type_name" : "STRING" }, {"column_name" : "Location", "type_name" : "STRING" } ] } ] }

O arquivo de manifesto especifica a tabela, o nome e o tipo das colunas (na ordem em que aparecem no arquivo CSV) e o próprio arquivo CSV, que também é armazenado em um bucket do Google Cloud Storage.

Este é o arquivo CSV:

9d238899-8348-4642-9c00-77dc4481145b,Nicole Anderson,Ada Ohio 360ecaa6-9ec3-4fa0-81a5-3b0dc629e1fa,Ellen Richardson,Ada Ohio 8ee6c2ea-923b-45db-8d51-7f8e7a117af0,Wendy Daniel,Ada Ohio 1d7112cc-c1ee-414f-9325-95c97f9a25d3,Virginia Beasley,Ada Ohio ...
  1. Para o parâmetro Local temporário, insira o seguinte valor:
{{{project_0.project_id|Project ID}}}/tmp
  1. Abra Parâmetros opcionais.

  2. Desmarque a opção Usar o tipo de máquina padrão.

  3. Em Uso geral, escolha o seguinte:

    • Série: E2
    • Tipo de máquina: e2-medium (2 vCPU, memória de 4 GB)
  4. Clique em Executar job para iniciar o pipeline.

  5. O processo leva cerca de 12 a 16 minutos. O Dataflow vai passar por várias fases, primeiro iniciando os workers e analisando o pipeline do modelo. Em seguida, ele vai ler o arquivo de manifesto e começar a processar o arquivo CSV.

Observação: se o pipeline falhar com um erro relacionado ao não provisionamento de nós de worker, crie um novo job com o mesmo nome do mesmo modelo a partir da etapa 4. Desta vez, escolha um endpoint regional diferente nos Estados Unidos. Por exemplo, se a etapa 5 listar "us-east4" como seu endpoint regional, use "us-east1" na segunda tentativa.

Aguarde até o Dataflow terminar o processamento antes de continuar. Quando estiver concluído, o status será Concluído.

  1. Volte para o Spanner selecionando-o no menu à esquerda no console do Cloud. Acesse a tabela Customer e selecione Data. Você vai ver todas as novas linhas que foram carregadas usando o Dataflow.

  2. Volte para a página de visão geral de banking-db. No menu à esquerda, clique em Spanner Studio e execute o seguinte código para conferir o número total de linhas na tabela Customer:

SELECT COUNT(*) FROM Customer;

Com os modelos do Dataflow, é fácil e rápido carregar grandes volumes de dados. É possível carregar dumps de outros bancos de dados, carregando não apenas arquivos CSV, mas também Avro, seguindo o mesmo procedimento. Você pode até mesmo executar o processo ao contrário, usando seu banco de dados do Spanner como fonte no Dataflow para exportar os dados em CSV ou Avro.

  1. Clique em Verificar meu progresso para conferir o objetivo.
Carregar dados usando o Dataflow

Tarefa 6: fazer backup do seu banco de dados

Usar o Dataflow como explicado acima é uma forma de criar backups dos seus dados, mas o Spanner tem a própria ferramenta para backups. É possível fazer backup de um banco de dados do Spanner no Console do Cloud, nas bibliotecas de cliente ou nos comandos gcloud. Confira os links mencionados antes para acessar a documentação.

Neste laboratório, você vai usar o console do Cloud para fazer backup do seu banco de dados.

  1. Selecione Backup/Restaurar no menu à esquerda.

  2. Clique em Criar backup.

  3. Insira ou selecione os seguintes valores no assistente:

Item Valor
Nome do banco de dados banking-db
Nome do backup banking-backup-001
Data de validade 1 ano



  1. Clique em Criar.

  2. O backup vai levar cerca de 15 minutos para ser concluído e vai aparecer na lista Backups durante a criação.

Parabéns!

Agora você compreende bem as várias maneiras de carregar dados na instância do Cloud Spanner e realizar backups.

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 16 de setembro de 2025

Laboratório testado em 16 de setembro de 2025

Copyright 2026 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.

Antes de começar

  1. Os laboratórios criam um projeto e recursos do Google Cloud por um período fixo
  2. Os laboratórios têm um limite de tempo e não têm o recurso de pausa. Se você encerrar o laboratório, vai precisar recomeçar do início.
  3. No canto superior esquerdo da tela, clique em Começar o laboratório

Usar a navegação anônima

  1. Copie o nome de usuário e a senha fornecidos para o laboratório
  2. Clique em Abrir console no modo anônimo

Fazer login no console

  1. Faça login usando suas credenciais do laboratório. Usar outras credenciais pode causar erros ou gerar cobranças.
  2. Aceite os termos e pule a página de recursos de recuperação
  3. Não clique em Terminar o laboratório a menos que você tenha concluído ou queira recomeçar, porque isso vai apagar seu trabalho e remover o projeto

Este conteúdo não está disponível no momento

Você vai receber uma notificação por e-mail quando ele estiver disponível

Ótimo!

Vamos entrar em contato por e-mail se ele ficar disponível

Um laboratório por vez

Confirme para encerrar todos os laboratórios atuais e iniciar este

Use a navegação anônima para executar o laboratório

A melhor maneira de executar este laboratório é usando uma janela de navegação anônima ou privada. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.