Instrucciones y requisitos de configuración del lab
Protege tu cuenta y tu progreso. Usa siempre una ventana de navegador privada y las credenciales del lab para ejecutarlo.

Transmite datos a Bigtable

Lab 25 minutos universal_currency_alt 1 crédito show_chart Introductorio
info Es posible que este lab incorpore herramientas de IA para facilitar tu aprendizaje.
Este contenido aún no está optimizado para dispositivos móviles.
Para obtener la mejor experiencia, visítanos en una computadora de escritorio con un vínculo que te enviaremos por correo electrónico.

GSP1055

Logotipo de los labs de autoaprendizaje de Google Cloud

Descripción general

Bigtable es el servicio de base de datos NoSQL escalable y completamente administrado de Google. Es ideal para almacenar grandes cantidades de datos en un almacén de pares clave-valor y para casos de uso como personalización, tecnología publicitaria, tecnología financiera, medios digitales y el Internet de las cosas (IoT). Bigtable admite una alta capacidad de procesamiento de lectura y escritura con una latencia baja, lo que brinda acceso rápido a grandes cantidades de datos para su procesamiento y análisis.

Para transmitir datos de sensores, Bigtable puede manejar una alta cantidad de operaciones de escritura para capturar grandes volúmenes de datos en tiempo real.

En este lab, usarás comandos para crear una instancia de Bigtable con una tabla para almacenar datos simulados de sensores de tráfico. Luego, iniciarás una canalización de Dataflow para cargar los datos de transmisión simulados de Pub/Sub en Bigtable. Mientras el trabajo de Dataflow carga datos de transmisión de Pub/Sub en Bigtable, verificarás que la tabla se esté completando correctamente. Para completar el lab, detendrás el trabajo de transmisión y borrarás los datos de Bigtable.

Actividades

En este lab, aprenderás a crear una instancia y una tabla de Bigtable con comandos y a usar Dataflow para cargar datos de transmisión.

  • Crear una instancia de Bigtable con comandos de Google Cloud CLI (gcloud CLI)
  • Crear una tabla de Bigtable con familias de columnas usando comandos de la CLI de Cloud Bigtable (CLI de cbt)
  • Iniciar una canalización de Dataflow para leer datos de transmisión desde Pub/Sub y escribir en Bigtable
  • Verificar los datos de transmisión cargados en Bigtable
  • Borrar una tabla y una instancia de Bigtable con comandos

Requisitos previos

Configuración y requisitos

Antes de hacer clic en el botón Comenzar lab

Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.

Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.

Para completar este lab, necesitarás lo siguiente:

  • Acceso a un navegador de Internet estándar. Se recomienda el navegador Chrome.
Nota: Usa una ventana del navegador privada o de incógnito (opción recomendada) para ejecutar el lab. Así evitarás conflictos entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
  • Tiempo para completar el lab (recuerda que, una vez que comienzas un lab, no puedes pausarlo).
Nota: Usa solo la cuenta de estudiante para este lab. Si usas otra cuenta de Google Cloud, es posible que se apliquen cargos a esa cuenta.

Cómo iniciar tu lab y acceder a la consola de Google Cloud

  1. Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:

    • El botón para abrir la consola de Google Cloud
    • El tiempo restante
    • Las credenciales temporales que debes usar para el lab
    • Otra información para completar el lab, si es necesaria
  2. Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).

    El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.

    Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.

    Nota: Si ves el diálogo Elegir una cuenta, haz clic en Usar otra cuenta.
  3. De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.

    {{{user_0.username | "Username"}}}

    También puedes encontrar el nombre de usuario en el panel Detalles del lab.

  4. Haz clic en Siguiente.

  5. Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.

    {{{user_0.password | "Password"}}}

    También puedes encontrar la contraseña en el panel Detalles del lab.

  6. Haz clic en Siguiente.

    Importante: Debes usar las credenciales que te proporciona el lab. No uses las credenciales de tu cuenta de Google Cloud. Nota: Usar tu propia cuenta de Google Cloud para este lab podría generar cargos adicionales.
  7. Haz clic para avanzar por las páginas siguientes:

    • Acepta los Términos y Condiciones.
    • No agregues opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
    • No te registres para obtener pruebas gratuitas.

Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.

Nota: Para acceder a los productos y servicios de Google Cloud, haz clic en el menú de navegación o escribe el nombre del servicio o producto en el campo Buscar. Ícono del menú de navegación y campo de búsqueda

Activa Cloud Shell

Cloud Shell es una máquina virtual que cuenta con herramientas para desarrolladores. Ofrece un directorio principal persistente de 5 GB y se ejecuta en Google Cloud. Cloud Shell proporciona acceso de línea de comandos a tus recursos de Google Cloud.

  1. Haz clic en Activar Cloud Shell Ícono de Activar Cloud Shell en la parte superior de la consola de Google Cloud.

  2. Haz clic para avanzar por las siguientes ventanas:

    • Continúa en la ventana de información de Cloud Shell.
    • Autoriza a Cloud Shell para que use tus credenciales para realizar llamadas a la API de Google Cloud.

Cuando te conectes, habrás completado la autenticación, y el proyecto estará configurado con tu Project_ID, . El resultado contiene una línea que declara el Project_ID para esta sesión:

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud es la herramienta de línea de comandos de Google Cloud. Viene preinstalada en Cloud Shell y es compatible con la función de autocompletado con tabulador.

  1. Puedes solicitar el nombre de la cuenta activa con este comando (opcional):
gcloud auth list
  1. Haz clic en Autorizar.

Resultado:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. Puedes solicitar el ID del proyecto con este comando (opcional):
gcloud config list project

Resultado:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} Nota: Para obtener toda la documentación de gcloud, en Google Cloud, consulta la guía con la descripción general de gcloud CLI.

Tarea 1: Crea una instancia y una tabla de Bigtable con comandos

Para crear una tabla nueva en Bigtable, primero debes crear una instancia de Bigtable para almacenar la tabla. Para crear una instancia de Bigtable, puedes usar la consola de Google Cloud, los comandos de gcloud CLI o los comandos de la CLI de cbt.

En esta tarea, usarás Cloud Shell para ejecutar primero comandos de gcloud CLI para crear una nueva instancia de Bigtable y, luego, ejecutar comandos de la CLI de cbt para conectarte a Bigtable y crear una nueva tabla.

Para ver cómo acceder a Cloud Shell, haz clic en Configuración y requisitos en el menú del lado derecho de esta página.

Crea una instancia de Bigtable

  • Para crear una nueva instancia de Bigtable, ejecuta el siguiente comando en Cloud Shell:
gcloud bigtable instances create sandiego \ --display-name="San Diego Traffic Sensors" \ --cluster-storage-type=SSD \ --cluster-config=id=sandiego-traffic-sensors-c1,zone={{{project_0.default_zone | ZONE}}},nodes=1

Este comando creará una nueva instancia de Bigtable con las siguientes propiedades:

Propiedad Valor
ID de instancia sandiego
Nombre visible de la instancia San Diego Traffic Sensors
Tipo de almacenamiento SSD
ID del clúster sandiego-traffic-sensors-c1
Zona
Modo de escalamiento de nodos Asignación manual
Cantidad de nodos 1

Cuando recibas el mensaje de salida, continúa con el siguiente paso.

Creating bigtable instance sandiego...done.

Configura la CLI de Bigtable

Para conectarte a Bigtable con los comandos de la CLI de cbt, primero debes usar Cloud Shell para actualizar el archivo de configuración .cbtrc con el ID de tu proyecto y el ID de tu instancia de Bigtable.

  1. Para modificar el archivo .cbtrc con el ID del proyecto y el ID de la instancia, ejecuta los siguientes comandos:
echo project = `gcloud config get-value project` \ >> ~/.cbtrc echo instance = sandiego \ >> ~/.cbtrc
  1. Para verificar que modificaste correctamente el archivo .cbtrc, ejecuta el siguiente comando:
cat ~/.cbtrc

El resultado debe parecerse al siguiente:

project = <project-id> instance = sandiego

Crea una tabla de Bigtable con familias de columnas

Después de establecer el archivo de configuración .cbtrc en Cloud Shell, puedes ejecutar un comando simple de la CLI de cbt para crear una nueva tabla de Bigtable con familias de columnas.

  • Para crear una tabla nueva llamada current_conditions con una familia de columnas llamada lane, ejecuta el siguiente comando:
cbt createtable current_conditions \ families="lane"

Haz clic en Revisar mi progreso para verificar el objetivo. Crear una instancia y una tabla de Bigtable

Tarea 2: Simula la transmisión de datos de sensores de tráfico en Pub/Sub

En esta tarea, ejecutarás un simulador de datos de transmisión desde una máquina virtual (VM) de Compute Engine que se creó para este lab. Para comenzar esta tarea, ingresarás comandos en una VM llamada training-vm para configurar tu entorno y descargar los archivos necesarios para el simulador de datos de transmisión.

Conéctate a la VM

  1. En el menú de navegación de la consola de Google Cloud, haz clic en Compute Engine > Instancias de VM.

  2. Ubica la línea que tenga la instancia training-vm y, en Conectar, haz clic en SSH.

    Se abrirá una ventana de terminal para training-vm.

    La instancia training-vm está instalando software en segundo plano. En el siguiente paso, revisarás el contenido del directorio nuevo para verificar que la configuración esté completa.

  3. Para obtener una lista del contenido del directorio llamado training, ejecuta el siguiente comando:

ls /training

La VM estará lista para que continúes cuando el resultado del comando ls sea el siguiente:

bq_magic.sh project_env.sh sensor_magic.sh

Si no aparecen las tres secuencias de comandos, espera unos minutos y vuelve a intentarlo.

Nota: Es posible que todas las acciones en segundo plano tarden entre 2 y 3 minutos en completarse.

Ejecuta la secuencia de comandos para simular los datos de transmisión

  1. Para descargar un repositorio de código que usarás en este lab, ejecuta el siguiente comando:
git clone https://github.com/GoogleCloudPlatform/training-data-analyst
  1. Para configurar las variables de entorno necesarias, ejecuta el siguiente comando:
source /training/project_env.sh

Esta secuencia de comandos configura las variables de entorno $DEVSHELL_PROJECT_ID y $BUCKET para que no tengas que establecerlas manualmente para el ID del proyecto y el nombre del bucket de Cloud Storage.

Se creó un bucket de Cloud Storage por ti durante la inicialización de los recursos del lab.

  1. Para iniciar el simulador de datos de transmisión, ejecuta el siguiente comando:
/training/sensor_magic.sh

Esta secuencia de comandos lee los datos de muestra de un archivo CSV y los publica en Pub/Sub. Además, enviará una hora de datos en un minuto.

Deja que la secuencia de comandos siga ejecutándose en la terminal actual y continúa con las siguientes tareas.

Haz clic en Revisar mi progreso para verificar el objetivo. Simular la transmisión de datos de sensores de tráfico en Pub/Sub

Tarea 3: Inicia una canalización de Dataflow para escribir datos de Pub/Sub en Bigtable

En esta tarea, abrirás una segunda terminal SSH en training_vm y ejecutarás comandos para iniciar un trabajo de Dataflow que escriba datos de transmisión de Pub/Sub en Bigtable.

Abre una segunda terminal SSH

  1. En la ventana de la terminal actual, haz clic en Configuración de la terminal (ssh_gear_settings.png) y, luego, en Conexión nueva.

Se abrirá una segunda ventana de terminal. Esta nueva sesión de la terminal no tendrá las variables de entorno necesarias, por lo que las configurarás en el siguiente paso.

  1. Para configurar las variables de entorno en la nueva terminal, ejecuta el siguiente comando:
source /training/project_env.sh

Esta secuencia de comandos configura las variables de entorno $DEVSHELL_PROJECT_ID y $BUCKET en la nueva ventana de terminal.

Inicia una canalización de Dataflow

  1. Para ir al directorio de código en la nueva terminal, ejecuta el siguiente comando:
cd ~/training-data-analyst/courses/streaming/process/sandiego
  1. Para revisar la secuencia de comandos con nano, ejecuta el siguiente comando:
nano run_oncloud.sh

No modifiques el código.

Esta secuencia de comandos toma tres argumentos obligatorios para ejecutar un trabajo de Dataflow:

  • ID del proyecto
  • Nombre del bucket de Cloud Storage
  • Nombre de clase de Java
  • Cuarto argumento optativo para otras opciones

En los siguientes pasos, usarás la opción --bigtable para indicarle a la canalización de Dataflow que escriba datos en Bigtable.

  1. Para salir de nano, presiona CTRL + X.

  2. Para configurar la secuencia de comandos run_oncloud.sh para usar la región predeterminada del proyecto, ejecuta el siguiente comando:

sed -i 's/\$REGION/{{{project_0.default_region | REGION}}}/' run_oncloud.sh
  1. Para iniciar la canalización de Dataflow para leer desde Pub/Sub y escribir en Bigtable, ejecuta el siguiente comando:
./run_oncloud.sh $DEVSHELL_PROJECT_ID $BUCKET CurrentConditions --bigtable

Cuando la canalización se haya iniciado correctamente, verás un mensaje similar al siguiente:

[INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 01:09 min [INFO] Finished at: 2022-06-01T17:21:29+00:00 [INFO] Final Memory: 60M/220M [INFO] ------------------------------------------------------------------------

Explora la canalización de Dataflow

  1. En el menú de navegación de la consola de Google Cloud, haz clic en Ver todos los productos. En Analytics, haz clic en Dataflow > Trabajos.

  2. Haz clic en el nombre del nuevo trabajo de canalización.

  3. Busca el paso write:cbt en el gráfico de la canalización y, para ver los detalles del escritor, haz clic en la flecha hacia abajo junto a write:cbt.

  4. Haz clic en el escritor proporcionado y revisa los detalles que aparecen en Información del paso.

Haz clic en Revisar mi progreso para verificar el objetivo. Iniciar una canalización de Dataflow

Tarea 4: Verifica los datos de transmisión cargados en Bigtable

En una tarea anterior, ya definiste el archivo de configuración .cbtrc en Cloud Shell. Ahora puedes ejecutar un comando simple de la CLI de cbt para consultar los primeros cinco registros de la tabla.

  • Para ver las primeras cinco filas de datos y sus valores en la familia de columnas lane, ejecuta el siguiente comando:
cbt read current_conditions count=5 \ columns="lane:.*"

El resultado estará estructurado de la siguiente manera:

---------------------------------------------- ROW KEY COLUMN_FAMILY:COLUMN_QUALIFIER @ TIMESTAMP VALUE

Los valores de salida serán similares a los siguientes:

---------------------------------------------- 15#S#1#9223370811310975807 lane:direction @ 1970/01/15-04:25:43.800000 "S" lane:highway @ 1970/01/15-04:25:43.800000 "15" lane:lane @ 1970/01/15-04:25:43.800000 "1.0" lane:latitude @ 1970/01/15-04:25:43.800000 "32.706184" lane:longitude @ 1970/01/15-04:25:43.800000 "-117.120565" lane:sensorId @ 1970/01/15-04:25:43.800000 "32.706184,-117.120565,15,S,1" lane:speed @ 1970/01/15-04:25:43.800000 "71.4" lane:timestamp @ 1970/01/15-04:25:43.800000 "2008-11-01 12:50:00"

Tarea 5: Detén los trabajos de transmisión y borra los datos de Bigtable

En esta última tarea, detendrás el trabajo de transmisión de datos y borrarás la instancia y la tabla de Bigtable con comandos.

Detén los datos de transmisión simulados

  1. En la primera terminal SSH con el simulador de datos de transmisión, presiona CONTROL + C para detener la simulación.

Detén el trabajo de Dataflow

  1. En el menú de navegación de la consola de Google Cloud, haz clic en Dataflow > Trabajos.

  2. Haz clic en el nombre del trabajo de canalización.

  3. Haz clic en Detener.

  4. Selecciona Cancelar y, luego, haz clic en Detener trabajo.

Borra la tabla y la instancia de Bigtable

  1. Para borrar la tabla de Bigtable, ejecuta el siguiente comando en Cloud Shell:
cbt deletetable current_conditions
  1. Para borrar la instancia de Bigtable, ejecuta el siguiente comando:
gcloud bigtable instances delete sandiego

Si se te solicita confirmar, escribe Y.

Haz clic en Revisar mi progreso para verificar el objetivo. Detener los trabajos de transmisión y borrar los datos de Bigtable

¡Felicitaciones!

En este lab, usaste comandos para crear una instancia y una tabla nuevas de Bigtable, transmitiste datos a la tabla con Dataflow y confirmaste que los datos se hayan trasmitido correctamente a Bigtable ejecutando comandos simples de la CLI de cbt. Completaste el lab usando comandos para detener el trabajo y borrar la tabla y la instancia de Bigtable.

Próximos pasos y más información

Capacitación y certificación de Google Cloud

Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.

Actualización más reciente del manual: 19 de agosto de 2025

Prueba más reciente del lab: 19 de agosto de 2025

Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.

Antes de comenzar

  1. Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
  2. .
  3. Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
  4. En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar

Usa la navegación privada

  1. Copia el nombre de usuario y la contraseña proporcionados para el lab
  2. Haz clic en Abrir la consola en modo privado

Accede a la consola

  1. Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
  2. Acepta las condiciones y omite la página de recursos de recuperación
  3. No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto

Este contenido no está disponible en este momento

Te enviaremos una notificación por correo electrónico cuando esté disponible

¡Genial!

Nos comunicaremos contigo por correo electrónico si está disponible

Un lab a la vez

Confirma para finalizar todos los labs existentes y comenzar este

Usa la navegación privada para ejecutar el lab

Usar una ventana de incógnito o de navegación privada es la mejor forma de ejecutar este lab. Así evitarás cualquier conflicto entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.