Este conteúdo ainda não foi otimizado para dispositivos móveis.
Para aproveitar a melhor experiência, acesse nosso site em um computador desktop usando o link enviado a você por e-mail.
Visão geral
O BigQuery é um banco de dados de análise NoOps, totalmente gerenciado e de baixo custo desenvolvido pelo Google. Com ele, você pode consultar muitos terabytes de dados sem ter que gerenciar uma infraestrutura ou precisar de um administrador de banco de dados. O BigQuery usa SQL e está disponível no modelo de pagamento por uso. Assim, você pode se concentrar na análise dos dados para encontrar informações relevantes.
Neste laboratório, você fará a ingestão de subconjuntos dos dados de corridas de táxi em Nova York em tabelas do BigQuery.
Conteúdo
Carregar dados de várias fontes no BigQuery
Carregar dados no BigQuery usando a CLI e o console
Usar DDL para criar tabelas
Configuração
Para cada laboratório, você recebe um novo projeto do Google Cloud e um conjunto de recursos por um determinado período e sem custos financeiros.
Faça login no Qwiklabs em uma janela anônima.
Confira o tempo de acesso do laboratório (por exemplo, 1:15:00) e finalize todas as atividades nesse prazo.
Não é possível pausar o laboratório. Você pode reiniciar o desafio, mas vai precisar refazer todas as etapas.
Quando tudo estiver pronto, clique em Começar o laboratório.
Anote as credenciais (Nome de usuário e Senha). É com elas que você vai fazer login no Console do Google Cloud.
Clique em Abrir Console do Google.
Clique em Usar outra conta, depois copie e cole as credenciais deste laboratório nos locais indicados.
Se você usar outras credenciais, vai receber mensagens de erro ou cobranças.
Aceite os termos e pule a página de recursos de recuperação.
Abra o BigQuery no Console do Cloud
No Console do Google Cloud, selecione o menu de navegação > BigQuery:
Você vai ver a caixa de mensagem Olá! Este é o BigQuery no Console do Cloud. Ela tem um link para o guia de início rápido e lista as atualizações da interface.
Clique em Concluído.
Tarefa 1: crie um conjunto de dados para armazenar tabelas
Para criar um conjunto de dados, clique no ícone Ver ações (os três pontos verticais) ao lado do ID do projeto e, em seguida, selecione Criar conjunto de dados.
Nomeie o ID do conjunto de dados como nyctaxi, não altere as outras opções e clique em Criar conjunto de dados.
O conjunto de dados "nyctaxi" vai aparecer abaixo do nome do seu projeto.
Clique em Verificar meu progresso para ver o objetivo.
Criar um conjunto de dados para armazenar novas tabelas
Tarefa 2: faça a ingestão de um novo conjunto de dados de CSV
Nesta seção, você carregará um CSV local em uma tabela do BigQuery.
Faça o download de um subconjunto dos dados de corridas de táxi em Nova York em 2018, disponível aqui.
No console do BigQuery, selecione o conjunto de dados nyctaxi e clique em Criar tabela
Especifique as seguintes opções para a tabela:
Origem:
Criar tabela de: Upload
Selecionar arquivo: selecione o arquivo que você salvou antes
Formato do arquivo: CSV
Destino:
Nome da tabela: 2018trips
Não altere as outras configurações.
Esquema:
Marque a caixa de seleção Detectar automaticamente.Dica: a caixa de seleção não apareceu? Confirme que o formato de arquivo é CSV, e não Avro.
Opções avançadas
Não altere as configurações.
Clique em Criar tabela.
A tabela 2018trips aparecerá abaixo do conjunto de dados "nyctaxi".
Selecione a tabela "2018trips" e veja os detalhes:
Selecione Visualizar e confirme se todas as colunas foram carregadas (exemplificadas abaixo):
Você carregou um arquivo CSV em uma nova tabela do BigQuery.
Como executar consultas SQL
Para praticar, execute uma consulta básica na tabela 2018trips.
No "Editor de consultas", escreva uma consulta que mostre as cinco corridas mais caras do ano:
#standardSQL
SELECT
*
FROM
nyctaxi.2018trips
ORDER BY
fare_amount DESC
LIMIT 5
Clique em Verificar meu progresso para ver o objetivo.
Ingerir um novo conjunto de dados de um CSV
Tarefa 3: faça a ingestão de um novo conjunto de dados do Google Cloud Storage
Agora, carregue outro subconjunto dos mesmos dados de corridas de 2018 que está disponível no Cloud Storage. Desta vez, você usará a ferramenta da CLI.
No Cloud Shell, execute este comando:
bq load \
--source_format=CSV \
--autodetect \
--noreplace \
nyctaxi.2018trips \
gs://cloud-training/OCBL013/nyc_tlc_yellow_trips_2018_subset_2.csv
Observação: o job de carregamento acima vai adicionar esse subconjunto à tabela 2018trips que você criou anteriormente.
Quando o job de carregamento terminar, uma confirmação vai aparecer na tela.
No console do BigQuery, selecione a tabela 2018trips e veja os detalhes. Confira se o número de linhas quase dobrou.
Execute a consulta anterior novamente para ver se as cinco corridas mais caras ainda são as mesmas.
Clique em Verificar meu progresso para ver o objetivo.
Ingerir um conjunto de dados do Google Cloud Storage
Tarefa 4: crie tabelas usando outras tabelas com DDL
Agora, a tabela 2018trips tem corridas do ano inteiro. Mas e se você quisesse ver apenas as corridas de janeiro? Para simplificar, analisaremos só a data e a hora de partida neste laboratório. Use DDL para extrair os dados e armazená-los em outra tabela.
No "Editor de consultas", execute o comando CREATE TABLE:
#standardSQL
CREATE TABLE
nyctaxi.january_trips AS
SELECT
*
FROM
nyctaxi.2018trips
WHERE
EXTRACT(Month
FROM
pickup_datetime)=1;
No "Editor de consultas", execute esta consulta para descobrir qual foi a maior distância percorrida em janeiro:
#standardSQL
SELECT
*
FROM
nyctaxi.january_trips
ORDER BY
trip_distance DESC
LIMIT
1
Clique em Verificar meu progresso para ver o objetivo.
Criar tabelas usando outras tabelas com DDL
Parabéns!
Você criou um conjunto de dados e fez a ingestão no BigQuery a partir de um arquivo CSV, do Google Cloud Storage e de outras tabelas do BigQuery.
Finalize o laboratório
Clique em Terminar o laboratório após a conclusão. O Google Cloud Ensina remove os recursos usados e limpa a conta por você.
Você vai poder avaliar sua experiência no laboratório. Basta selecionar o número de estrelas, digitar um comentário e clicar em Enviar.
O número de estrelas indica o seguinte:
1 estrela = muito insatisfeito
2 estrelas = insatisfeito
3 estrelas = neutro
4 estrelas = satisfeito
5 estrelas = muito satisfeito
Feche a caixa de diálogo se não quiser enviar feedback.
Para enviar seu feedback, fazer sugestões ou correções, use a guia Suporte.
Manual atualizado em 27 de julho de 2022
Laboratório testado em 15 de julho de 2022
Copyright 2026 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de empresas e produtos podem ser marcas registradas das empresas a que estão associados.
Os laboratórios criam um projeto e recursos do Google Cloud por um período fixo
Os laboratórios têm um limite de tempo e não têm o recurso de pausa. Se você encerrar o laboratório, vai precisar recomeçar do início.
No canto superior esquerdo da tela, clique em Começar o laboratório
Usar a navegação anônima
Copie o nome de usuário e a senha fornecidos para o laboratório
Clique em Abrir console no modo anônimo
Fazer login no console
Faça login usando suas credenciais do laboratório. Usar outras credenciais pode causar erros ou gerar cobranças.
Aceite os termos e pule a página de recursos de recuperação
Não clique em Terminar o laboratório a menos que você tenha concluído ou queira recomeçar, porque isso vai apagar seu trabalho e remover o projeto
Este conteúdo não está disponível no momento
Você vai receber uma notificação por e-mail quando ele estiver disponível
Ótimo!
Vamos entrar em contato por e-mail se ele ficar disponível
Um laboratório por vez
Confirme para encerrar todos os laboratórios atuais e iniciar este
Use a navegação anônima para executar o laboratório
A melhor maneira de executar este laboratório é usando uma janela de navegação anônima
ou privada. Isso evita conflitos entre sua conta pessoal
e a conta de estudante, o que poderia causar cobranças extras
na sua conta pessoal.
Neste laboratório, você aprenderá a fazer a ingestão de dados em tabelas do BigQuery.
Duração:
Configuração: 0 minutos
·
Tempo de acesso: 90 minutos
·
Tempo para conclusão: 90 minutos