Este contenido aún no está optimizado para dispositivos móviles.
Para obtener la mejor experiencia, visítanos en una computadora de escritorio con un vínculo que te enviaremos por correo electrónico.
Descripción general
En este lab, aprenderás a cargar datos en BigQuery y ejecutar consultas complejas. Luego, ejecutarás una canalización de Dataflow que pueda llevar a cabo operaciones Map y Reduce, y utilizarás datos de entrada adicionales y transmisiones en BigQuery.
Objetivo
En este lab, aprenderás a utilizar BigQuery como fuente de datos de Dataflow y a usar los resultados de una canalización como datos de entrada adicionales para otra canalización.
Leer datos de BigQuery en Dataflow
Utilizar los datos de salida de una canalización como datos de entrada adicionales para otra canalización
Configuración
En cada lab, recibirá un proyecto de Google Cloud y un conjunto de recursos nuevos por tiempo limitado y sin costo adicional.
Accede a Qwiklabs desde una ventana de incógnito.
Ten en cuenta el tiempo de acceso del lab (por ejemplo, 1:15:00) y asegúrate de finalizarlo en el plazo asignado.
No existe una función de pausa. Si lo necesita, puede reiniciar el lab, pero deberá hacerlo desde el comienzo.
Cuando esté listo, haga clic en Comenzar lab.
Anote las credenciales del lab (el nombre de usuario y la contraseña). Las usarás para acceder a la consola de Google Cloud.
Haga clic en Abrir Google Console.
Haga clic en Usar otra cuenta, copie las credenciales para este lab y péguelas en el mensaje emergente que aparece.
Si usa otras credenciales, se generarán errores o incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación.
Verifica los permisos del proyecto
Antes de comenzar a trabajar en Google Cloud, asegúrate de que tu proyecto tenga los permisos correctos en Identity and Access Management (IAM).
En la consola de Google Cloud, en el Menú de navegación (), selecciona IAM y administración > IAM.
Confirma que aparezca la cuenta de servicio predeterminada de Compute {número-del-proyecto}-compute@developer.gserviceaccount.com, y que tenga asignado el rol Editor. El prefijo de la cuenta es el número del proyecto, que puedes encontrar en el menú de navegación > Descripción general de Cloud > Panel.
Nota: Si la cuenta no aparece en IAM o no tiene asignado el rol Editor, sigue los pasos que se indican a continuación para asignar el rol necesario.
En la consola de Google Cloud, en el menú de navegación, haz clic en Descripción general de Cloud > Panel.
Copia el número del proyecto (p. ej., 729328892908).
En el Menú de navegación, selecciona IAM y administración > IAM.
En la parte superior de la tabla de funciones, debajo de Ver por principales, haz clic en Otorgar acceso.
Reemplaza {número-del-proyecto} por el número de tu proyecto.
En Rol, selecciona Proyecto (o Básico) > Editor.
Haz clic en Guardar.
Tarea 1. Preparación
Asigna el rol de Desarrollador de Dataflow
Si la cuenta no tiene el rol de Desarrollador de Dataflow, sigue los pasos que se indican a continuación para asignar el rol necesario.
En el Menú de navegación, haz clic en IAM y administración > IAM.
Selecciona la cuenta de servicio de procesamiento predeterminada {project-number}-compute@developer.gserviceaccount.com.
Selecciona la opción Editar (el lápiz en el extremo derecho).
Haz clic en Agregar otro rol.
Haz clic en la casilla para Selecciona un rol. En el selector Escribe para filtrar, ingresa texto y elige Desarrollador de Dataflow.
Haz clic en Guardar.
Asegúrate de que la API de Dataflow esté habilitada correctamente
En la barra de título de la consola de Google Cloud, haz clic en Activar Cloud Shell. Si se te solicita, haz clic en Continuar.
Ejecuta los siguientes comandos para asegurarte de que la API de Dataflow esté habilitada correctamente en tu proyecto. Si se te solicita, haz clic en Autorizar:
En el menú de navegación de la consola, haz clic en Cloud Storage > Buckets.
Haz clic en + Crear.
Especifica lo siguiente y deja los parámetros de configuración restantes con sus valores predeterminados:
Propiedad
Valor (escribe el valor o selecciona la opción como se especifica)
Nombre
Tipo de ubicación > Región
Haz clic en Crear.
Si recibes el mensaje Se impedirá el acceso público, selecciona Aplicar la prevención de acceso público a este bucket y haz clic en Confirmar.
En la terminal SSH de training-vm, ingresa lo siguiente para crear tres variables de entorno: Una llamada “BUCKET”, otra llamada “PROJECT” y la última con el nombre “REGION”. Verifica que ambas existan en el comando echo.
En la consola, en el menú de navegación (), haz clic en BigQuery.
Si se te solicita, haz clic en Listo.
Haz clic en "+". (Consulta en SQL) y escribe la siguiente consulta:
SELECT
content
FROM
`cloud-training-demos.github_repos.contents_java`
LIMIT
10
Haz clic en Ejecutar.
¿Qué se devuelve?
La tabla de BigQuery cloud-training-demos.github_repos.contents_java incluye el contenido (y algunos metadatos) de todos los archivos Java presentes en GitHub en 2016.
Para saber cuántos archivos Java contiene esta tabla, escribe la siguiente consulta y haz clic en Ejecutar:
SELECT
COUNT(*)
FROM
`cloud-training-demos.github_repos.contents_java`
¿Cuántos archivos hay en este conjunto de datos?
¿Deseas procesar este conjunto de datos de manera local o en la nube?
Tarea 3. Explora el código de la canalización
Vuelve a la terminal SSH training-vm, navega al directorio /training-data-analyst/courses/data_analysis/lab2/python y busca el archivo JavaProjectsThatNeedHelp.py.
Visualiza el archivo con Nano. No realices cambios en el código. Presiona Ctrl+X para salir de Nano.
cd ~/training-data-analyst/courses/data_analysis/lab2/python
nano JavaProjectsThatNeedHelp.py
Consulta este diagrama a medida que lees el código. La canalización se verá de la siguiente manera:
Responde las siguientes preguntas:
Si se considera la documentación de clase en la parte superior, ¿cuál es el objetivo de esta canalización?
¿De dónde proviene el contenido?
¿Qué hace el lado izquierdo de la canalización?
¿Qué hace el lado derecho de la canalización?
¿Qué hace ToLines? (Pista: Mira el campo Contenido del resultado de BigQuery).
¿Por qué el resultado de ReadFromBQ se almacena en una PCollection en lugar de ir directamente hacia otro paso?
¿Cuáles son las dos acciones llevadas a cabo en la PCollection que se generan a partir de ReadFromBQ?
Si un archivo posee 3 FIXME y 2 TODO en su contenido (en líneas diferentes), ¿cuántas llamadas de ayuda están asociadas con esto?
Si un archivo se encuentra en el paquete com.google.devtools.build, ¿cuáles son los paquetes con los que se asocia?
popular_packages y help_packages son PCollections y se utilizan en el paso Puntuaciones (datos de entrada adicionales) de la canalización. ¿Cuál es el dato de entrada principal y cuál el adicional?
¿Cuál es el método utilizado en el paso Puntuaciones?
¿En qué tipo de datos de Python se convierte el dato de entrada adicional en el paso Puntuaciones?
Nota: La versión de Java de este programa es ligeramente distinta de la versión de Python. El SDK de Java es compatible con AsMap, y el SDK de Python no lo es. En su lugar, es compatible con AsDict. En Java, la PCollection se convierte en una Vista como paso previo a su utilización. En Python, la conversión de la PCollection se produce en el paso de su utilización.
Tarea 4. Ejecuta la canalización
El programa requiere los valores BUCKET, PROJECT y REGION y elegir si deseas ejecutar la canalización localmente con --DirectRunner o en la nube con --DataFlowRunner.
Para ejecutar la canalización de forma local, ingresa lo siguiente en la terminal SSH training-vm:
python3 JavaProjectsThatNeedHelp.py --bucket $BUCKET --project $PROJECT --region $REGION --DirectRunner
Nota: Si aparece una advertencia como 'BeamDeprecationWarning', ignórala y continúa.
Una vez que haya finalizado la canalización, en el menú de navegación (), haz clic en Cloud Storage > Buckets y, luego, en tu bucket. Encontrarás los resultados en la carpeta javahelp. Haz clic en el objeto Resultado para examinar los datos de salida.
Para ejecutar la canalización en la nube, escribe lo siguiente en la terminal SSH training-vm:
python3 JavaProjectsThatNeedHelp.py --bucket $BUCKET --project $PROJECT --region $REGION --DataFlowRunner
Nota: Si aparece una advertencia como 'BeamDeprecationWarning', ignórala y continúa.
Regresa a la pestaña del navegador de Console. En el menú de navegación (), haz clic en Ver todos los productos y selecciona Dataflow en la sección Analytics.
Haz clic en tu trabajo para supervisar el progreso.
Una vez que haya finalizado la canalización, en el menú de navegación (), haz clic en Cloud Storage > Buckets y, luego, en tu bucket. Encontrarás los resultados en la carpeta javahelp. Haz clic en el objeto Resultado para examinar los datos de salida. El nombre del archivo será el mismo, pero notarás que la fecha de creación es más reciente.
Haz clic en Revisar mi progreso para verificar el objetivo.
Ejecutar la canalización
Finalice su lab
Cuando haya completado el lab, haga clic en Finalizar lab. Google Cloud Skills Boost quitará los recursos que usó y limpiará la cuenta.
Tendrá la oportunidad de calificar su experiencia en el lab. Seleccione la cantidad de estrellas que corresponda, ingrese un comentario y haga clic en Enviar.
La cantidad de estrellas indica lo siguiente:
1 estrella = Muy insatisfecho
2 estrellas = Insatisfecho
3 estrellas = Neutral
4 estrellas = Satisfecho
5 estrellas = Muy satisfecho
Puede cerrar el cuadro de diálogo si no desea proporcionar comentarios.
Para enviar comentarios, sugerencias o correcciones, use la pestaña Asistencia.
Copyright 2026 Google LLC. Todos los derechos reservados. Google y el logotipo de Google son marcas de Google LLC. El resto de los nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que están asociados.
Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
.
Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar
Usa la navegación privada
Copia el nombre de usuario y la contraseña proporcionados para el lab
Haz clic en Abrir la consola en modo privado
Accede a la consola
Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
Acepta las condiciones y omite la página de recursos de recuperación
No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
Un lab a la vez
Confirma para finalizar todos los labs existentes y comenzar este
Usa la navegación privada para ejecutar el lab
Usar una ventana de incógnito o de navegación privada es la mejor forma de ejecutar
este lab. Así evitarás cualquier conflicto entre tu cuenta personal
y la cuenta de estudiante, lo que podría generar cargos adicionales en
tu cuenta personal.
En este lab, probarás una consulta de BigQuery, explorarás el código de canalización y ejecutarás la canalización con Python.
Duración:
1 min de configuración
·
Acceso por 90 min
·
90 min para completar