Instrucciones y requisitos de configuración del lab
Protege tu cuenta y tu progreso. Usa siempre una ventana de navegador privada y las credenciales del lab para ejecutarlo.

Crea canalizaciones por lotes en Cloud Data Fusion

Lab 1 hora 30 minutos universal_currency_alt 5 créditos show_chart Introductorio
info Es posible que este lab incorpore herramientas de IA para facilitar tu aprendizaje.
Este contenido aún no está optimizado para dispositivos móviles.
Para obtener la mejor experiencia, visítanos en una computadora de escritorio con un vínculo que te enviaremos por correo electrónico.

GSP807

Logotipo de los labs de autoaprendizaje de Google Cloud

Descripción general

ETL significa, en inglés, extracción, transformación y carga. Existen varias mutaciones de este concepto como EL, ELT y ELTL.

En este lab, aprenderás a usar Pipeline Studio en Cloud Data Fusion para crear una canalización de ETL. Pipeline Studio expone los componentes básicos y los complementos integrados para que puedas crear tu canalización por lotes, un nodo a la vez. También usarás el complemento Wrangler para crear transformaciones y aplicarlas a tus datos que pasan por la canalización.

Las fuentes de datos más comunes para las aplicaciones de ETL normalmente son datos almacenados en archivos de texto en formato de valores separados por comas (CSV), ya que muchos sistemas de bases de datos los importan y exportan de esta forma. Para este lab, usarás un archivo CSV, pero se pueden aplicar las mismas técnicas a las fuentes de bases de datos y a cualquier otra fuente de datos que tengas disponible.

El resultado se escribirá en una tabla de BigQuery y usarás SQL estándar para realizar análisis de datos en relación con este conjunto de datos de destino.

Objetivos

En este lab, aprenderás a hacer lo siguiente:

  • Crear una canalización por lotes con Pipeline Studio en Cloud Data Fusion
  • Usar Wrangler para transformar datos de forma interactiva
  • Escribir el resultado en BigQuery

Configuración y requisitos

En cada lab, recibirás un proyecto de Google Cloud y un conjunto de recursos nuevos por tiempo limitado y sin costo adicional.

  1. Accede a Google Cloud Skills Boost en una ventana de incógnito.

  2. Ten en cuenta el tiempo de acceso del lab (por ejemplo, 02:00:00) y asegúrate de finalizarlo en el plazo asignado.
    No existe una función de pausa. Si lo necesitas, puedes reiniciar el lab, pero deberás hacerlo desde el comienzo.

  3. Cuando tengas todo listo, haz clic en Comenzar lab.

    Nota: Después de que hagas clic en Comenzar lab, el lab tardará entre 15 y 20 minutos en aprovisionar los recursos necesarios y crear una instancia de Data Fusion. Durante ese período, puedes leer los pasos que se indican a continuación para familiarizarte con los objetivos del lab.

    Cuando veas las credenciales del lab (el nombre de usuario y la contraseña) en el panel del lado izquierdo, se habrá creado la instancia y podrás continuar para acceder a la consola.
  4. Anota las credenciales del lab (el nombre de usuario y la contraseña). Las usarás para acceder a la consola de Google Cloud.

  5. Haz clic en Abrir la consola de Google.

  6. Haz clic en Usar otra cuenta, copia las credenciales para este lab y pégalas en el mensaje emergente que aparece.
    Si usas otras credenciales, se generarán errores o incurrirás en cargos.

  7. Acepta las condiciones y omite la página de recursos de recuperación.

Nota: No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo. Esta acción borrará tu trabajo y quitará el proyecto.

Accede a la consola de Google Cloud

  1. En la pestaña o ventana del navegador que estás usando para esta sesión del lab, copia el Nombre de usuario del panel Detalles de la conexión y haz clic en el botón Abrir la consola de Google.
Nota: Si se te solicita que elijas una cuenta, haz clic en Usar otra cuenta.
  1. Cuando se te solicite, pega el nombre de usuario y, luego, la contraseña.
  2. Haz clic en Siguiente.
  3. Acepta los Términos y Condiciones.

Dado que esta es una cuenta temporal que tendrá la misma duración del lab, sigue estas recomendaciones:

  • No agregues opciones de recuperación.
  • No te registres para las pruebas gratuitas.
  1. Cuando se abra la consola, podrás ver la lista de servicios haciendo clic en el Menú de navegación (Ícono del menú de navegación) en la esquina superior izquierda.

Menú de navegación

Active Cloud Shell

Cloud Shell es una máquina virtual que contiene herramientas de desarrollo y un directorio principal persistente de 5 GB. Se ejecuta en Google Cloud. Cloud Shell proporciona acceso de línea de comandos a sus recursos de Google Cloud. gcloud es la herramienta de línea de comandos de Google Cloud, la cual está preinstalada en Cloud Shell y es compatible con la función de autocompletado con tabulador.

  1. En el panel de navegación de Google Cloud Console, haga clic en Activar Cloud Shell (Ícono de Cloud Shell).

  2. Haga clic en Continuar.
    El aprovisionamiento y la conexión al entorno tardan solo unos momentos. Una vez que se conecte, también estará autenticado, y el proyecto estará configurado con su PROJECT_ID. Por ejemplo:

Terminal de Cloud Shell

Comandos de muestra

  • Si desea ver el nombre de cuenta activa, use este comando:

gcloud auth list

(Resultado)

Credentialed accounts: - <myaccount>@<mydomain>.com (active)

(Resultado de ejemplo)

Credentialed accounts: - google1623327_student@qwiklabs.net
  • Si desea ver el ID del proyecto, use este comando:

gcloud config list project

(Resultado)

[core] project = <project_ID>

(Resultado de ejemplo)

[core] project = qwiklabs-gcp-44776a13dea667a6

Verifica los permisos del proyecto

Antes de comenzar a trabajar en Google Cloud, asegúrate de que tu proyecto tenga los permisos correctos en Identity and Access Management (IAM).

  1. En el Menú de navegación (Ícono del menú de navegación) de la consola de Google Cloud, haga clic en IAM y administración > IAM.

  2. Confirma que aparezca la cuenta de servicio predeterminada de Compute {project-number}-compute@developer.gserviceaccount.com, y que tenga asignado el rol Editor. El prefijo de la cuenta es el número del proyecto, que puedes encontrar en el menú de navegación > Descripción general de Cloud.

Cuenta de servicio de Compute predeterminada

Si no aparece la cuenta en IAM o no tiene asignado el rol Editor, sigue los pasos que se indican a continuación para asignar el rol necesario.

  1. En la consola de Google Cloud, en el menú de navegación, haz clic en Descripción general de Cloud.

  2. En la tarjeta Información del proyecto, copia el Número de proyecto.

  3. En el menú de navegación, haz clic en IAM y administración > IAM.

  4. En la parte superior de la página IAM, haga clic en Agregar.

  5. En Principales nuevas, escriba lo siguiente:

{número-del-proyecto}-compute@developer.gserviceaccount.com

Reemplaza {project-number} por el número de tu proyecto.

  1. En Seleccionar un rol, elige Básico (o Proyecto) > Editor.

  2. Haz clic en Guardar.

Tarea 1: Carga los datos

Luego, crearás un bucket de GCS en tu proyecto y almacenarás en etapa intermedia el archivo CSF. Más adelante, Cloud Data Fusion leerá los datos de este bucket de almacenamiento.

  1. En la consola de Cloud Shell, ejecuta los siguientes comandos para crear un bucket nuevo y copiar en él los datos pertinentes:
export BUCKET=$GOOGLE_CLOUD_PROJECT gcloud storage buckets create gs://$BUCKET

El nombre del bucket creado es el ID de tu proyecto.

  1. Ejecuta el comando que aparece a continuación para copiar los archivos de datos (un archivo CSV y uno en formato XML) en tu bucket:
gsutil cp gs://cloud-training/OCBL163/titanic.csv gs://$BUCKET

Haz clic en Revisar mi progreso para verificar el objetivo. Cargar los datos

Tarea 2: Agrega los permisos necesarios para tu instancia de Cloud Data Fusion

Luego, otorgarás permisos a la cuenta de servicio asociada con la instancia siguiendo estos pasos:

  1. En la consola de Cloud, en el menú de navegación, haz clic en Ver todos los productos y selecciona Data Fusion > Instancias. Deberías ver una instancia de Cloud Data Fusion ya configurada y lista para usar.
Nota: La creación de la instancia tardará alrededor de 10 minutos. Espera a que esté lista.
  1. En la consola de Google Cloud, navega a IAM y administración > IAM.

  2. Verifica que la cuenta de servicio predeterminada de Compute Engine, {project-number}-compute@developer.gserviceaccount.com, esté presente y copia la Cuenta de servicio en tu portapapeles.

  3. En la página Permisos de IAM, haz clic en +Otorgar acceso.

  4. En el campo Principales nuevas, pega la cuenta de servicio.

  5. Haz clic en el campo Seleccionar un rol, escribe Agente de servicio de la API de Cloud Data Fusion y selecciónalo.

  6. Haz clic en AGREGAR OTRO ROL.

  7. Agrega el rol de Administrador de Dataproc.

  8. Haz clic en Guardar.

Haz clic en Revisar mi progreso para verificar el objetivo. Agregar el rol Agente de servicio de la API de Cloud Data Fusion a la cuenta de servicio

Otorga permiso de usuario a la cuenta de servicio

  1. En la consola, ve a Menú de navegación y haz clic en IAM y administración > IAM.

  2. Selecciona la casilla de verificación Incluir asignaciones de roles proporcionadas por Google.

  3. Desplázate hacia abajo en la lista hasta encontrar la cuenta de servicio de Cloud Data Fusion administrada por Google que tiene el formato service-{project-number}@gcp-sa-datafusion.iam.gserviceaccount.com. Luego, copia el nombre de la cuenta en el portapapeles.

Lista de cuentas de servicio de Cloud Data Fusion administradas por Google

  1. Después, navega a IAM y administración > Cuentas de servicio.

  2. Haz clic en la cuenta predeterminada de Compute Engine que tiene el formato {project-number}-compute@developer.gserviceaccount.com y selecciona la pestaña Principales con acceso en la barra de navegación superior.

  3. Haz clic en el botón Otorgar acceso.

  4. En el campo Principales nuevas, pega la cuenta de servicio que copiaste antes.

  5. En el menú desplegable Rol, selecciona Usuario de cuenta de servicio.

  6. Haz clic en Guardar.

Tarea 3: Crea una canalización por lotes

Cuando trabajamos con datos, es útil poder ver cómo lucen los datos sin procesar para que podamos usarlos como punto de partida para nuestra transformación. Para ello, usarás el componente Wrangler de Data Fusion para preparar y limpiar los datos. Con el enfoque centrado en los datos, podremos visualizar nuestras transformaciones con rapidez, y los comentarios en tiempo real nos asegurarán que vamos por el camino correcto.

  1. En la consola, regresa al menú de navegación > Data Fusion > Instancias y haz clic en el vínculo Ver instancia que aparece junto a tu instancia de Data Fusion. Selecciona las credenciales del lab para acceder. Si se te solicita hacer una visita guiada por el servicio, haz clic en No, gracias. Ahora deberías estar en la IU de Cloud Data Fusion.

Selección del menú de la instancia de vista de Data Fusion

  1. La IU web de Cloud Data Fusion cuenta con su propio panel de navegación (en el lado izquierdo) para que vayas a la página que necesites. En la IU de Cloud Data, haz clic en el menú de navegación que se encuentra en la parte superior izquierda para exponer el panel de navegación y, luego, elige Wrangler.

  2. A la izquierda, hay un panel con las conexiones previamente configuradas de tus datos, que incluyen la conexión de Cloud Storage. En (GCS) Google Cloud Storage, selecciona Cloud Storage Default.

  3. Haz clic en el bucket correspondiente a tu nombre de proyecto.

  4. Haz clic en titanic.csv.

    Bucket de almacenamiento en la nube de Cloud Data Fusion titanic1

  5. En el cuadro de diálogo Parsing Options que aparece, selecciona text en la lista desplegable Format.

  6. Luego, haz clic en CONFIRM.

Diálogo Parsing Options

Los datos se cargan en la pantalla de Wrangler. Ahora puedes comenzar a aplicar las transformaciones de datos de forma iterativa.

  1. La primera operación es analizar los datos CSV sin procesar en una representación tabular que se divide en filas y columnas. Para hacerlo, selecciona el ícono del menú desplegable del encabezado de la primera columna (body), luego, selecciona el elemento Parse del menú y CSV en el submenú.

    Análisis de almacenamiento de Google Cloud > Selección del menú CSV

  2. En los datos sin procesar, puedes ver que la primera fila consta de encabezados de columnas, así que seleccionarás la opción Set first row as header en el cuadro de diálogo Parse as CSV que se te presenta.

  3. Luego, haz clic en Apply.

Diálogo de Parse as CSV

Nota: Puedes ignorar la advertencia de obsoleto junto a la casilla de verificación Set first row as header.
  1. En esta fase, los datos sin procesar están analizados y puedes ver las columnas generadas por esta operación (a la derecha de la columna body). En el extremo derecho, verás la lista de todos los nombres de las columnas.

IU de Wrangler de Cloud Data Fusion

  1. Ahora es momento de limpiar un poco. Ya no necesitas la columna body que representa los datos CSV sin procesar, así que quítala con la opción de menú. Selecciona el ícono del menú desplegable del encabezado de la primera columna body y, luego, selecciona el elemento de menú Delete column.

Selección del menú Delete column

Nota: Para aplicar transformaciones, también puedes usar la interfaz de línea de comandos (CLI). La CLI es la barra negra en la parte inferior de la pantalla (con el prompt $ de color verde). Cuando comiences a escribir comandos, se iniciará la función de autocompletar que te mostrará una opción de concordancia. Por ejemplo, para quitar la columna body, podrías haber usado de forma alternativa la directiva: drop :body.

Sintaxis de la CLI para quitar la columna body

  1. Haz clic en la pestaña Transformation steps en el lado derecho de la IU de Wrangler. Verás las dos transformaciones que aplicaste hasta ahora.

Columna drop :body de Titanic.csv

Nota: Tanto las selecciones de menú como la CLI crean directivas que son visibles en la pestaña Transformation steps en el lado derecho de la pantalla. Las directivas son transformaciones individuales que se denominan en conjunto “receta”.

Para los fines de este lab, las dos transformaciones, o receta, son suficientes para crear la canalización de ETL. El siguiente paso es llevar esta receta a un paso de creación de canalización en el que la receta representa la T en ETL.

  1. Haz clic en el botón Create a pipeline para pasar a la siguiente sección y crear una canalización, en la que verás cómo se une la canalización de ETL.

    Botón Create a pipeline

  2. Cuando se te presente el próximo diálogo, selecciona Batch pipeline para continuar.

Selección de canalización por lotes

Nota: Una canalización por lotes puede ejecutarse de forma interactiva o programarse para ejecutarse con una frecuencia de hasta 5 minutos o tan solo una vez al año.

Tarea 4: Adopta Pipeline Studio

El resto de las tareas de creación de canalizaciones se realizarán en Pipeline Studio, la IU que te permite componer canalizaciones de datos de forma visual. Ahora deberías ver los componentes básicos principales de tu canalización de ETL en el estudio.

En este punto, verás dos nodos en tu canalización: el complemento GCS File, que leerá el archivo CSV de Google Cloud Storage, y el complemento Wrangler, que contiene la receta con las transformaciones.

Nota: Un nodo en una canalización es un objeto que está conectado en una secuencia para producir un grafo acíclico dirigido. P. ej., Source, Sink, Transform, Action, etcétera.

Estos dos complementos (nodos) representan la E y la T en tu canalización de ETL. Para completar esta canalización, agrega el receptor de BigQuery, la parte L de nuestro proceso ETL.

Diagrama de arquitectura de la canalización

  1. Para agregar el receptor de BigQuery a la canalización, navega a la sección Sink en el panel de la izquierda y haz clic en el ícono de BigQuery para ponerlo en el lienzo.

Sección del receptor de BigQuery

  1. Cuando el receptor de BigQuery se haya ubicado en el lienzo, conecta el nodo de Wrangler con el nodo de BigQuery. Para hacerlo, arrastra la flecha desde el nodo de Wrangler y conéctalo al nodo de BigQuery como se muestra a continuación. Ahora, lo único que queda por hacer es especificar algunas opciones de configuración para que puedas escribir los datos en el conjunto de datos que quieras.

    Conexión del nodo de Wrangler con el nodo de BigQuery

Tarea 5: Configura la canalización

Ahora es el momento de configurar la canalización. Para ello, abre las propiedades de cada nodo para verificar su configuración o hacer cambios adicionales.

  1. Coloca el cursor sobre el nodo GCS y se mostrará un botón Properties. Haz clic en este botón para abrir la configuración.

Diálogo de propiedades del nodo GCS

Cada complemento tiene algunos campos obligatorios que deben estar presentes y están marcados con un asterisco ( * ). Según el complemento que uses, es posible que veas un esquema de entrada a la izquierda, una sección de configuración en el medio y un esquema de salida a la derecha.

Notarás que los complementos de Sink no tienen un esquema de salida y los complementos de Source no tienen un esquema de entrada. Ambos complementos, Sink y Source, también tendrán un campo obligatorio Reference name para identificar la fuente o el receptor de datos para el linaje.

Cada complemento tendrá un campo Label. Esta es la etiqueta del nodo que ves en el lienzo en el que se muestra tu canalización.

  1. Haz clic en X en la parte superior derecha del cuadro Properties para cerrarlo.

  2. Luego, coloca el cursor sobre el nodo Wrangler y haz clic en Properties.

Diálogo de propiedades del nodo Wrangler

Nota: Complementos como Wrangler que contienen un esquema de entrada. Estos son los campos que se pasan al complemento para que se procesen. Una vez que el complemento los procesa, los datos salientes pueden enviarse en el esquema de salida al siguiente nodo de la canalización o, en el caso de un receptor, escribirse en un conjunto de datos.
  1. Haz clic en X en la parte superior derecha del cuadro Properties para cerrarlo.

  2. Coloca el cursor sobre el nodo de BigQuery, haz clic en Properties y, luego, ingresa los siguientes parámetros de configuración:

    • En Reference name, ingresa Titanic_BQ.

    • En Dataset, ingresa demo.

    • En Table, ingresa titanic.

  3. Haz clic en X en la parte superior derecha del cuadro Properties para cerrarlo.

Diálogo de propiedades de BigQuery

Tarea 6: Prueba la canalización

Ahora, solo queda probar tu canalización para ver si funciona como se espera, pero antes de hacerlo, asegúrate de asignarle un nombre a tu borrador y guardarlo para no perder nada de tu trabajo.

  1. Ahora, haz clic en Save en el menú de la esquina superior derecha. Se te pedirá que le asignes un nombre y agregues una descripción a la canalización.

    • Ingresa ETL-batch-pipeline como el nombre de tu canalización.
    • Ingresa ETL pipeline to parse CSV, transform and write output to BigQuery en la descripción.
  2. Haz clic en Save.

  3. Para probar tu canalización, haz clic en el ícono Preview. En la barra de botones, ahora se mostrará un ícono de ejecución en el que puedes hacer clic para ejecutar la canalización en modo de vista previa.

  4. Haz clic en el ícono Run. Mientras la canalización se ejecuta en modo de vista previa, no se escriben datos en la tabla de BigQuery, pero podrás confirmar que los datos se leen correctamente y que se escribirán como se espera una vez que se implemente la canalización. El botón de vista previa es un botón de activación, así que asegúrate de hacer clic en él de nuevo para salir del modo de vista previa cuando termines.

    Se está preparando la canalización para ejecutarse

  5. Cuando tu canalización termine de ejecutarse, coloca el cursor sobre el nodo Wrangler y haz clic en Properties. Luego, haz clic en la pestaña Preview. Si todo salió bien, deberías ver los datos sin procesar que se ingresaron, el nodo a la izquierda y los registros analizados que se emitirán como salida al nodo de la derecha. Haz clic en X en la parte superior derecha del cuadro Properties para cerrarlo.

Salida del nodo Wrangler

Nota: Cada nodo que opera con datos debería mostrarte una salida similar. Esta es una buena forma de probar tu trabajo para asegurarte de que estás en el camino correcto antes de implementar tu canalización. Si encuentras algún error, puedes corregirlo fácilmente en el modo borrador.
  1. Haz clic en el ícono Preview de nuevo, esta vez para salir del modo de vista previa.

  2. Si todo parece estar bien hasta ahora, puedes continuar con la implementación de la canalización. Haz clic en el ícono Deploy en la parte superior derecha Ícono de Deploy para implementar la canalización.

Verás un diálogo de confirmación que indica que tu canalización se está implementando:

Confirmación de implementación de canalización

  1. Una vez que tu canalización se implementó correctamente, ya puedes ejecutar tu canalización de ETL y cargar algunos datos en BigQuery.

  2. Haz clic en el ícono Run para ejecutar el trabajo de ETL.

  3. Cuando termines, deberías ver que el estado de la canalización cambia a Succeeded, lo que indica que la canalización se ejecutó correctamente.

    Éxito de ejecución de la canalización de Cloud Data Fusion

  4. A medida que la canalización procesa los datos, verás métricas que emite cada nodo de la canalización y que indican cuántos registros se procesaron. En la operación de análisis, se muestran 892 registros, mientras que en la fuente había 893. ¿Qué sucedió? La operación de análisis tomó la primera fila y la consumió para establecer los encabezados de las columnas, por lo que los 892 registros restantes son lo que quedó para procesar.

Diagrama de canalización de análisis de CSV

Haz clic en Revisar mi progreso para verificar el objetivo Implementar y ejecutar una canalización por lotes

Tarea 7: Revisa los resultados

La canalización escribe el resultado en una tabla de BigQuery. Puedes verificarlo con los siguientes pasos.

  1. En una nueva pestaña, abre la IU de BigQuery en la consola de Cloud o haz clic con el botón derecho en la pestaña de la consola y selecciona Duplicar y, luego, usa el menú de navegación para seleccionar BigQuery. Cuando se te solicite, haz clic en Listo.

  2. En el panel izquierdo, en la sección Explorador, haz clic en tu Project ID (comenzará con qwiklabs).

  3. En el conjunto de datos demo de tu proyecto, haz clic en la tabla titanic y, luego, en "+" (consulta en SQL). Ejecuta una consulta simple, como la siguiente:

SELECT * FROM `demo.titanic` LIMIT 10

Resultados de la consulta

Haz clic en Revisar mi progreso para verificar el objetivo Ver los resultados

¡Felicitaciones!

Ahora aprendiste a usar los componentes básicos disponibles en Pipeline Studio de Cloud Data Fusion para crear una canalización por lotes. También aprendiste a usar Wrangler para crear pasos de transformación para tus datos.

Realiza tu próximo lab

Continúa con Cómo compilar transformaciones y preparar datos con Wrangler en Cloud Data Fusion.

Última actualización del manual: 6 de mayo de 2025

Prueba más reciente del lab: 6 de mayo de 2025

Copyright 2020 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.

Antes de comenzar

  1. Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
  2. .
  3. Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
  4. En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar

Usa la navegación privada

  1. Copia el nombre de usuario y la contraseña proporcionados para el lab
  2. Haz clic en Abrir la consola en modo privado

Accede a la consola

  1. Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
  2. Acepta las condiciones y omite la página de recursos de recuperación
  3. No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto

Este contenido no está disponible en este momento

Te enviaremos una notificación por correo electrónico cuando esté disponible

¡Genial!

Nos comunicaremos contigo por correo electrónico si está disponible

Un lab a la vez

Confirma para finalizar todos los labs existentes y comenzar este

Usa la navegación privada para ejecutar el lab

Usa una ventana de navegación privada o de Incógnito para ejecutar el lab. Así evitarás cualquier conflicto entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.