GSP522

Descripción general
En un lab de desafío, se le proporcionarán una situación y un conjunto de tareas. En lugar de seguir instrucciones paso a paso, deberás utilizar las habilidades aprendidas en los labs del curso para decidir cómo completar las tareas por tu cuenta. Un sistema automatizado de puntuación (en esta página) mostrará comentarios y determinará si completaste tus tareas correctamente.
En un lab de desafío, no se explican conceptos nuevos de Google Cloud, sino que se espera que amplíes las habilidades que adquiriste, como cambiar los valores predeterminados y leer o investigar los mensajes de error para corregir sus propios errores.
Debe completar correctamente todas las tareas dentro del período establecido para obtener una puntuación del 100%.
Se recomienda este lab a los estudiantes inscritos en el curso Descubre y protege datos sensibles en todo tu ecosistema. ¿Aceptas el desafío?
Situación del desafío
Eres ingeniero de datos en Cymbal Cars y te asignaron la tarea de identificar y proteger los datos sensibles de tus clientes (propietarios de automóviles) en todo el ecosistema de datos de tu organización.
Tus colegas ya completaron parte del trabajo para identificar y ocultar datos sensibles en los archivos de Cloud Storage y las tablas de BigQuery de tu organización (en particular, los número de seguridad social de EE.UU.) y en las respuestas del modelo de IA generativa de tu organización.
Para garantizar que tus archivos de Cloud Storage y recursos de BigQuery se sigan analizando y protegiendo periódicamente, debes configurar el descubrimiento de Sensitive Data Protection y ejecutar trabajos para identificar y ocultar otros datos sensibles, como números de tarjetas de crédito.
Para los modelos de IA generativa de tu organización, también se recomienda ampliar el trabajo anterior de tu colega para ocultar respuestas cuando se identifican credenciales en ellas.
En este desafío, usarás tus conocimientos sobre las herramientas de Sensitive Data Protection para implementar el descubrimiento y la protección de datos en Cloud Storage y BigQuery, y usarás el cliente de Python para la API de Cloud Data Loss Prevention (DLP) para identificar y ocultar respuestas de modelos de IA generativa que contengan credenciales.
Temas evaluados
- Crear y programar parámetros de configuración de análisis de descubrimiento para Cloud Storage
- Crear plantillas de desidentificación y ejecutar trabajos de desidentificación en archivos de Cloud Storage
- Crear etiquetas de IAM para datos sensibles y aplicarlas a datos de BigQuery para otorgar acceso condicional
- Escribir funciones de Python para ocultar y bloquear respuestas de modelos de IA generativa que contengan datos sensibles identificados por la API de Cloud Data Loss Prevention (DLP)
Configuración y requisitos
Durante el lab, usa los siguientes detalles para este entorno:
- Accede a la consola de Google Cloud como Nombre de usuario 1 ().
- Para ID del proyecto, usa:
- En Ubicación, usa (a menos que se especifique lo contrario)
Antes de hacer clic en el botón Comenzar lab
Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
- Acceso a un navegador de Internet estándar. Se recomienda el navegador Chrome.
Nota: Usa una ventana del navegador privada o de incógnito (opción recomendada) para ejecutar el lab. Así evitarás conflictos entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
- Tiempo para completar el lab (recuerda que, una vez que comienzas un lab, no puedes pausarlo).
Nota: Usa solo la cuenta de estudiante para este lab. Si usas otra cuenta de Google Cloud, es posible que se apliquen cargos a esa cuenta.
Tarea 1: Habilita Sensitive Data Protection para Cloud Storage
Tu equipo tiene un bucket de Cloud Storage llamado gs://-car-owners que contiene archivos para interacciones con propietarios de automóviles. La mayoría de estos archivos ya tienen datos sensibles ocultos por tus colegas, pero se agregaron algunos archivos CSV nuevos (.csv) al bucket que contienen números de tarjetas de crédito (por ejemplo, sample-chat-log-data-10.csv).
Tus objetivos son identificar y ocultar números de tarjetas de crédito en los nuevos archivos CSV y habilitar el descubrimiento diario para el bucket con el fin de supervisar nuevas instancias de datos sensibles en el futuro.
Para ayudarte a alcanzar estos objetivos, completa las siguientes subtareas.
Expande las pistas que aparecen a continuación para obtener orientación útil y comenzar.
Crea y programa un parámetro de configuración de análisis de descubrimiento para que se ejecute diariamente en Cloud Storage
Sugerencia útil para el análisis de descubrimiento:
| Propiedad |
Valor |
| Seleccionar permiso |
Analiza el proyecto seleccionado |
| Programas administrados |
Edita Programación predeterminada para especificar Volver a generar el perfil diariamente en Según un programa y Cuando inspeccionas cambios en la plantilla
|
| Seleccionar plantilla de inspección |
Crea una plantilla de inspección nueva |
| Guardar copias de los perfiles de datos en BigQuery |
Establece el ID del conjunto de datos en cs_discovery y el ID de la tabla en cs_data_profiles en el proyecto actual |
| Establecer la ubicación en la que se almacenará la configuración |
Multirregión > EE.UU. (varias regiones en Estados Unidos)
|
| Nombre visible de la configuración |
Descubrimiento diario de Cloud Storage |
Crea una plantilla de desidentificación para ocultar números de tarjetas de crédito en datos estructurados (como archivos CSV)
Sugerencia útil para la plantilla de desidentificación:
| Propiedad |
Valor |
| ID de plantilla |
us_ccn_deidentify |
| Tipo de transformación de datos |
Registro |
| Nombre visible |
Desidentifica números de tarjetas de crédito |
| Tipo de ubicación |
Multi_region > global (Global)
|
| Campo para la regla de transformación |
Mensaje |
| Tipo de transformación |
Coincidencia en el Infotipo |
| Método de transformación |
Reemplaza por el nombre del infotipo |
Usa la plantilla de desidentificación para ejecutar un trabajo de desidentificación en los archivos CSV del bucket de Cloud Storage
Sugerencia útil para el trabajo de desidentificación:
| Propiedad |
Valor |
| ID de tarea |
us_ccn_deidentify |
| Tipo de ubicación |
Multirregión > EE.UU. (varias regiones en Estados Unidos)
|
| URL |
gs://-car-owners/ |
| Analiza de manera recurrente |
Habilita esta opción |
| Muestreo |
100% |
| Método de muestreo |
Sin muestreo |
| Plantilla de desidentificación estructurada |
Especifica la ruta de acceso a la plantilla de desidentificación que creaste en el paso 2 |
| Exportar los detalles de la transformación a BigQuery |
Establece ID del conjunto de datos en cs_transformations y, luego, ID de tabla en deidentify_ccn en el proyecto actual |
| Ubicación de salida de Cloud Storage |
gs://-car-owners-transformed |
Haz clic en Revisar mi progreso para verificar el objetivo.
Habilitar la protección de datos sensibles para Cloud Storage
Tarea 2: Habilita Sensitive Data Protection para BigQuery
Los datos sobre los propietarios de automóviles y sus compras también se almacenan en BigQuery para su análisis, y algunos de los conjuntos de datos contienen datos sensibles. Se te asignó la tarea de crear una etiqueta en IAM para información de identificación personal sensible (IIPS) y usarla para otorgar acceso condicional a ciertos usuarios para que ingresen solo a los conjuntos de datos de BigQuery que tienen una etiqueta de no IIPS.
Para ayudarte a lograr este objetivo, completa las siguientes subtareas.
Expande las pistas que aparecen a continuación para obtener orientación útil y comenzar.
Crea una etiqueta en IAM para la información de identificación personal sensible (IIPS)
Sugerencia útil para crear la etiqueta:
| Propiedad |
Valor |
| Clave de etiqueta |
IIPS |
| Descripción de la clave de la etiqueta |
Marca de información de identificación personal sensible (IIPS) |
| Valor de clave de etiqueta 1 |
Sí |
| Descripción de valor de clave de etiqueta 1 |
Contiene información de identificación personal sensible (IIPS) |
| Valor de clave de etiqueta 2 |
No |
| Descripción de valor de clave de etiqueta 2 |
No contiene información de identificación personal sensible (IIPS) |
Otorga acceso condicional al Nombre de usuario 2 solo a los conjuntos de datos de BigQuery que tengan una etiqueta para no IIPS
Sugerencia útil para otorgar acceso condicional:
- Actualiza la configuración de IAM para el Nombre de usuario 2 () para agregar una condición (específicamente, acceso solo a conjuntos de datos de BigQuery que se etiquetaron con el valor No para IIPS).
| Propiedad |
Valor |
| Roles de IAM para el Nombre de usuario 2 |
Reemplaza Visualizador por Navegador y mantén Visualizador de datos de BigQuery para agregar una condición. |
| Título de la condición |
Solo acceso a datos no IIPS |
| Tipo de condición 1 y operador |
Selecciona tag y has value
|
| Ruta de valor para el tipo de condición 1 |
/SPII/No |
- Etiqueta el conjunto de datos de BigQuery llamado orders con un valor de No para IIPS.
A diferencia del conjunto de datos car_owners, el conjunto de datos orders no contiene IIPS, sino solo detalles sobre los pedidos.
Prueba opcional: Si quieres ver este acceso condicional en acción, puedes acceder al proyecto como Nombre de usuario 2 y dirigirte a BigQuery. Actualiza la página hasta que el conjunto de datos llamado orders sea el único que quede en la lista del Explorador, ya que el Nombre de usuario 2 ahora solo tiene acceso a los conjuntos de datos etiquetados con No para IIPS.
Ten en cuenta que la condición puede tardar unos minutos en aplicarse.
Haz clic en Revisar mi progreso para verificar el objetivo.
Habilitar Sensitive Data Protection para BigQuery
Tarea 3: Protege los datos sensibles en las respuestas de los modelos de IA generativa
Tu equipo ya tiene una función de Python que identifica y oculta o bloquea tipos de datos sensibles en las respuestas del modelo de IA generativa. Se te pidió que expandieras la función para bloquear las respuestas de modelos de IA generativa que contengan números de identificación de vehículos de EE.UU., que son datos sensibles que consisten en un código único de 17 dígitos asignado a cada vehículo motorizado en circulación en Norteamérica.
Para ayudarte a lograr este objetivo, completa las siguientes subtareas con el notebook proporcionado en este entorno de lab:
- Actualiza una función de Python existente para bloquear las respuestas del modelo cuando se incluye un VIN de EE.UU.
- Genera un texto de ejemplo con la siguiente instrucción para probar tu función actualizada:
Is 4Y1SL65848Z411439 an example of a US Vehicle Identification Number (VIN)?
- Cuando generes la respuesta, asegúrate de establecer la temperatura en 0 para que se devuelvan los resultados de mayor probabilidad para la verificación de progreso que se muestra a continuación.
Asegúrate de usar el notebook creado previamente llamado deidentify-model-response-challenge-lab.ipynb en la instancia de workbench llamada vertex-ai-jupyterlab.
- Para ID del proyecto, usa:
- En Ubicación, usa:
Nota: Si no ves notebooks en JupyterLab, sigue estos pasos adicionales para restablecer la instancia:
1. Cierra la pestaña del navegador de JupyterLab y vuelve a la página principal de Workbench.
2. Selecciona la casilla de verificación junto al nombre de la instancia y haz clic en Restablecer.
3. Después de que se vuelva a habilitar el botón Abrir JupyterLab, espera un minuto y, luego, haz clic en Abrir JupyterLab.
Sugerencia útil para actualizar y probar la función de Python:
Sugerencia útil para establecer la temperatura en 0:
Haz clic en Revisar mi progreso para verificar el objetivo.
Proteger los datos sensibles en las respuestas de los modelos de IA generativa
¡Felicitaciones!
En este lab, creaste y programaste un parámetro de configuración de análisis de descubrimiento para Cloud Storage, y, luego, creaste una plantilla de desidentificación y la usaste para ejecutar un trabajo de desidentificación en archivos de Cloud Storage. También creaste etiquetas de IAM y las aplicaste a los datos de BigQuery para otorgar acceso condicional. Por último, actualizaste una función de Python para ocultar y bloquear las respuestas del modelo de IA generativa que contienen datos sensibles identificados por la API de Cloud Data Loss Prevention (DLP).

Capacitación y certificación de Google Cloud
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 30 de octubre de 2025
Prueba más reciente del lab: 30 de octubre de 2025
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.