Este contenido aún no está optimizado para dispositivos móviles.
Para obtener la mejor experiencia, visítanos en una computadora de escritorio con un vínculo que te enviaremos por correo electrónico.
Descripción general
En este lab, abrirá un proyecto de Dataflow, usará filtros de canalizaciones y ejecutará la canalización de forma local y en la nube.
Abrir un proyecto en Dataflow
Filtre las canalizaciones
Ejecutar la canalización de forma local y en la nube
Objetivo
En este lab, aprenderá a escribir una canalización simple de Dataflow y a ejecutarla de forma local y en la nube.
Configurar un proyecto de Python Dataflow con Apache Beam
Escribir una canalización simple en Python
Ejecutar la consulta en la máquina local
Ejecutar la consulta en la nube
Configuración
En cada lab, recibirá un proyecto de Google Cloud y un conjunto de recursos nuevos por tiempo limitado y sin costo adicional.
Accede a Qwiklabs desde una ventana de incógnito.
Ten en cuenta el tiempo de acceso del lab (por ejemplo, 1:15:00) y asegúrate de finalizarlo en el plazo asignado.
No existe una función de pausa. Si lo necesita, puede reiniciar el lab, pero deberá hacerlo desde el comienzo.
Cuando esté listo, haga clic en Comenzar lab.
Anote las credenciales del lab (el nombre de usuario y la contraseña). Las usarás para acceder a la consola de Google Cloud.
Haga clic en Abrir Google Console.
Haga clic en Usar otra cuenta, copie las credenciales para este lab y péguelas en el mensaje emergente que aparece.
Si usa otras credenciales, se generarán errores o incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación.
Verifica los permisos del proyecto
Antes de comenzar a trabajar en Google Cloud, asegúrate de que tu proyecto tenga los permisos correctos en Identity and Access Management (IAM).
En la consola de Google Cloud, en el Menú de navegación (), selecciona IAM y administración > IAM.
Confirma que aparezca la cuenta de servicio predeterminada de Compute {número-del-proyecto}-compute@developer.gserviceaccount.com, y que tenga asignado el rol Editor. El prefijo de la cuenta es el número del proyecto, que puedes encontrar en el menú de navegación > Descripción general de Cloud > Panel.
Nota: Si la cuenta no aparece en IAM o no tiene asignado el rol Editor, sigue los pasos que se indican a continuación para asignar el rol necesario.
En la consola de Google Cloud, en el menú de navegación, haz clic en Descripción general de Cloud > Panel.
Copia el número del proyecto (p. ej., 729328892908).
En el Menú de navegación, selecciona IAM y administración > IAM.
En la parte superior de la tabla de funciones, debajo de Ver por principales, haz clic en Otorgar acceso.
En Console, abra el menú de navegación y haga clic en Página principal.
Seleccione y copie el ID del proyecto.
Para simplificar, usará el ID del proyecto de Qwiklabs como nombre de bucket, ya que es único de manera global.
En el menú de navegación de Console, haga clic en Cloud Storage > Navegador.
Haga clic en Crear bucket.
Especifique los siguientes valores y deje las demás opciones de configuración con sus valores predeterminados:
Propiedad
Valor (escriba el valor o seleccione la opción como se especifica)
Nombre
<el nombre único de su bucket (ID del proyecto)>
Tipo de ubicación
Multirregión
Ubicación
<Su ubicación>
Haga clic en Crear.
Registre el nombre de su bucket. Lo necesitará en tareas posteriores.
En la terminal SSH training-vm, ingrese lo siguiente para crear una variable de entorno con el nombre “BUCKET” y verifique que exista con el comando echo.
BUCKET="<your unique bucket name (Project ID)>"
echo $BUCKET
Puede usar la variable $BUCKET en los comandos de la terminal. Si necesita ingresar el nombre del bucket <your-bucket> en un campo de texto en Console, puede recuperarlo rápidamente con echo $BUCKET.
Tarea 3. Use filtros de canalizaciones
El objetivo de este lab es familiarizarse con la estructura de un proyecto de Dataflow y aprender a ejecutar una canalización de ese servicio.
Vuelva a la terminal SSH training-vm, navegue al directorio /training-data-analyst/courses/data_analysis/lab2/python y vea el archivo grep.py.
Vea el archivo con Nano. No realice cambios en el código. Presione Ctrl+X para salir de Nano.
cd ~/training-data-analyst/courses/data_analysis/lab2/python
nano grep.py
¿Puede responder estas preguntas sobre el archivo grep.py?
¿Qué archivos se leen?
¿Cuál es el término de búsqueda?
¿A dónde se dirigen los datos de salida?
En la canalización, existen tres transformaciones:
¿Qué hace la transformación?
¿Qué hace la segunda transformación?
¿De dónde provienen los datos de entrada?
¿Qué hace con estos datos de entrada?
¿Qué escribe como datos de salida?
¿A dónde se dirigen los datos de salida?
¿Qué hace la tercera transformación?
Tarea 4. Ejecute la canalización de manera local
En la terminal SSH training-vm, ejecute grep.py de manera local.
python3 grep.py
El archivo de salida será output.txt. Si los datos de salida son lo suficientemente grandes, se fragmentarán en partes separadas con nombres como output-00000-of-00001.
Examine el horario del archivo para ubicar el archivo correcto.
ls -al /tmp
Examine los archivos de salida.
Puede reemplazar “-*” a continuación con el sufijo correcto.
cat /tmp/output-*
¿Los datos de salida parecen lógicos?
Tarea 5. Ejecute la canalización en la nube
Copie algunos archivos Java en la nube. En la terminal SSH training-vm, ingrese el siguiente comando:
Guarde el archivo y cierre Nano presionando las teclas CTRL + X. Luego, presione Y seguido de Intro.
Envíe el trabajo de Dataflow a la nube:
python3 grepc.py
Nota: Puede ignorar el siguiente mensaje: WARNING:root:Make sure that locally built Python SDK docker image has Python 3.7 interpreter. Su trabajo de Dataflow se iniciará correctamente.
Dado que este es un trabajo pequeño, ejecutarlo en la nube llevará mucho más tiempo que hacerlo de forma local (alrededor de 7 o 10 minutos).
Regrese a la pestaña del navegador de Console.
En el menú de navegación, haga clic en Dataflow y, luego, en su trabajo para supervisar el progreso.
Ejemplo:
Haga clic en revisar mi progreso para verificar el objetivo.
Envíe el trabajo de Dataflow a Cloud
Espere a que el estado del trabajo cambie a Completado.
Examine los datos de salida en el bucket de Cloud Storage.
En el menú de navegación, haga clic en Cloud Storage > Navegador y en su bucket.
Haga clic en el directorio javahelp.
Este trabajo generará el archivo output.txt. Si el archivo es lo suficientemente grande, se fragmentará en varias partes con nombres como output-0000x-of-000y. Puede identificar el archivo más reciente por su nombre o por el campo Última modificación.
Haga clic en el archivo para visualizarlo.
De forma alternativa, puede descargar el archivo mediante la terminal SSH training-vm y verlo:
Cuando haya completado el lab, haga clic en Finalizar lab. Google Cloud Skills Boost quitará los recursos que usó y limpiará la cuenta.
Tendrá la oportunidad de calificar su experiencia en el lab. Seleccione la cantidad de estrellas que corresponda, ingrese un comentario y haga clic en Enviar.
La cantidad de estrellas indica lo siguiente:
1 estrella = Muy insatisfecho
2 estrellas = Insatisfecho
3 estrellas = Neutral
4 estrellas = Satisfecho
5 estrellas = Muy satisfecho
Puede cerrar el cuadro de diálogo si no desea proporcionar comentarios.
Para enviar comentarios, sugerencias o correcciones, use la pestaña Asistencia.
Copyright 2026 Google LLC. Todos los derechos reservados. Google y el logotipo de Google son marcas de Google LLC. El resto de los nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que están asociados.
Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
.
Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar
Usa la navegación privada
Copia el nombre de usuario y la contraseña proporcionados para el lab
Haz clic en Abrir la consola en modo privado
Accede a la consola
Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación
No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
Un lab a la vez
Confirma para finalizar todos los labs existentes y comenzar este
Usa la navegación privada para ejecutar el lab
Usar una ventana de incógnito o de navegación privada es la mejor forma de ejecutar
este lab. Así evitarás cualquier conflicto entre tu cuenta personal
y la cuenta de estudiante, lo que podría generar cargos adicionales en
tu cuenta personal.
En este lab, abrirá un proyecto de Dataflow, usará filtros de canalizaciones y ejecutará la canalización de forma local y en la nube con Python.
Duración:
1 min de configuración
·
Acceso por 90 min
·
90 min para completar