GSP522

Übersicht
In einem Challenge-Lab geht es um ein bestimmtes Szenario mit mehreren Aufgaben. Anders als bei einem normalen Lab erhalten Sie jedoch keine Schritt-für-Schritt-Anleitung, sondern nutzen die in den Labs des jeweiligen Kurses erlernten Fähigkeiten, um die Aufgaben selbst zu lösen. Ihre Lösungen werden automatisch bewertet. Die erzielten Punkte finden Sie rechts oben auf dieser Seite.
In Challenge-Labs werden keine neuen Grundlagen zu Google Cloud vermittelt. Sie sollen dabei Ihr Wissen erweitern und es wird erwartet, dass Sie beispielsweise Standardwerte ändern und Fehlermeldungen lesen und recherchieren, um Ihre eigenen Fehler zu beheben.
Die volle Punktzahl erreichen Sie nur, wenn Sie alle Aufgaben innerhalb der vorgegebenen Zeit lösen.
Dieses Lab wird Teilnehmenden empfohlen, die sich für den Kurs Sensible Daten in Ihrer Umgebung auffinden und schützen angemeldet haben. Sind Sie bereit?
Das Szenario
Sie sind Data Engineer bei Cymbal Cars und haben die Aufgabe, sensible Daten von Kundinnen und Kunden auf der gesamten Datenplattform Ihres Unternehmens zu identifizieren und zu schützen.
Ihre Kolleginnen und Kollegen haben bereits einige Arbeiten erledigt, um sensible Daten in den Cloud Storage-Dateien und BigQuery-Tabellen Ihres Unternehmens (insbesondere US-Sozialversicherungsnummern) sowie in den Antworten des generativen KI-Modells Ihres Unternehmens zu identifizieren und zu entfernen.
Damit Ihre Cloud Storage-Dateien und BigQuery-Assets weiterhin regelmäßig gescannt und geschützt werden, möchten Sie die Sensitive Data Protection-Erkennung einrichten und Aufgaben ausführen, um andere sensible Daten wie Kreditkartennummern zu identifizieren und zu entfernen.
Für die auf generativer KI basierenden Modelle Ihres Unternehmens möchten Sie die Arbeit Ihrer Kolleginnen und Kollegen erweitern und Antworten schwärzen, wenn darin Anmeldedaten erkannt werden.
In dieser Challenge nutzen Sie Ihr Wissen über Tools von Sensitive Data Protection, um Daten in Cloud Storage und BigQuery zu ermitteln und zu schützen. Außerdem verwenden Sie den Python-Client für die Cloud Data Loss Prevention (DLP) API, um Antworten von Modellen für generative KI zu identifizieren und zu entfernen, die Anmeldedaten enthalten.
Themen
- Erkennungsscan-Konfigurationen für Cloud Storage erstellen und planen
- De-Identifikationsvorlagen erstellen und De-Identifikationsaufgaben für Cloud Storage-Dateien ausführen
- IAM-Tags für sensible Daten erstellen und auf BigQuery-Daten anwenden, um bedingten Zugriff zu gewähren
- Python-Funktionen schreiben, um Antworten von generativen KI-Modellen, die sensible Daten enthalten, zu entfernen und zu blockieren. Die sensiblen Daten werden von der Cloud Data Loss Prevention (DLP) API identifiziert.
Einrichtung und Anforderungen
Verwenden Sie während des gesamten Labs die folgenden Daten für diese Lab-Umgebung:
- Melden Sie sich in der Google Cloud Console als „Nutzername 1“ () an.
- Verwenden Sie als Projekt-ID:
- Verwenden Sie als Standort: (sofern nicht anders angegeben)
Vor dem Klick auf „Start Lab“ (Lab starten)
Lesen Sie diese Anleitung. Labs sind zeitlich begrenzt und können nicht pausiert werden. Der Timer beginnt zu laufen, wenn Sie auf Lab starten klicken, und zeigt Ihnen, wie lange Google Cloud-Ressourcen für das Lab verfügbar sind.
In diesem praxisorientierten Lab können Sie die Lab-Aktivitäten in einer echten Cloud-Umgebung durchführen – nicht in einer Simulations- oder Demo-Umgebung. Dazu erhalten Sie neue, temporäre Anmeldedaten, mit denen Sie für die Dauer des Labs auf Google Cloud zugreifen können.
Für dieses Lab benötigen Sie Folgendes:
- Einen Standardbrowser (empfohlen wird Chrome)
Hinweis: Nutzen Sie den privaten oder Inkognitomodus (empfohlen), um dieses Lab durchzuführen. So wird verhindert, dass es zu Konflikten zwischen Ihrem persönlichen Konto und dem Teilnehmerkonto kommt und zusätzliche Gebühren für Ihr persönliches Konto erhoben werden.
- Zeit für die Durchführung des Labs – denken Sie daran, dass Sie ein begonnenes Lab nicht unterbrechen können.
Hinweis: Verwenden Sie für dieses Lab nur das Teilnehmerkonto. Wenn Sie ein anderes Google Cloud-Konto verwenden, fallen dafür möglicherweise Kosten an.
Aufgabe 1: Sensitive Data Protection für Cloud Storage aktivieren
Ihr Team hat einen Cloud Storage-Bucket mit dem Namen gs://-car-owners. Der Bucket enthält Dateien für die Interaktion mit Autobesitzern. Aus den meisten Dateien wurden die sensiblen Daten bereits von Ihren Kollegen entfernt. Es wurden dem Bucket aber einige neue CSV-Dateien (.csv) hinzugefügt, die Kreditkartennummern enthalten (zum Beispiel sample-chat-log-data-10.csv).
Ihre Ziele sind: Die Kreditkartennummern in den neuen CSV-Dateien zu identifizieren und zu entfernen sowie die tägliche Erkennung für den Bucket zu aktivieren, um neue Instanzen sensibler Daten zu überwachen.
Führen Sie die folgenden Unteraufgaben aus, um diese Ziele zu erreichen.
Wenn Sie die Hinweise unten maximieren, erhalten Sie nützliche Tipps für den Einstieg.
Konfiguration für einen Erkennungsscan erstellen und planen, der täglich für Cloud Storage ausgeführt wird
Tipp für den Erkennungsscan:
| Attribut |
Wert |
| Bereich auswählen |
Ausgewähltes Projekt scannen |
| Verwaltete Zeitpläne |
Bearbeiten Sie den Standardzeitplan und legen Sie Profil täglich neu erstellen für Nach Zeitplan und Wenn sich die Prüfungsvorlage ändert fest. |
| Inspektionsvorlage auswählen |
Neue Inspektionsvorlage erstellen |
| Datenprofilkopien in BigQuery speichern |
Legen Sie für die Datensatz-ID den Wert cs_discovery und für die Tabellen-ID den Wert cs_data_profiles im aktuellen Projekt fest. |
| Speicherort für Konfiguration festlegen |
Multi_region > us (mehrere Regionen in den USA)
|
| Anzeigename für die Konfiguration |
Cloud Storage tägliche Erkennung |
Eine De-Identifikationsvorlage erstellen, um Kreditkartennummern aus strukturierten Daten (z. B. CSV-Dateien) zu entfernen
Tipp für die De-Identifikationsvorlage
| Attribut |
Wert |
| Vorlagen-ID |
us_ccn_deidentify |
| Datentransformationstyp |
Aufnehmen |
| Anzeigename |
Kreditkartennummern de-identifizieren |
| Standorttyp |
Multi_region > global (Global)
|
| Feld für Transformationsregel |
message. |
| Transformationstyp |
Übereinstimmung mit infoType |
| Transformationsmethode |
Durch infoType-Namen ersetzen |
Mit der De-Identifikationsvorlage eine De-Identifizierung für die CSV-Dateien im Cloud Storage-Bucket ausführen
Tipp zum De-Identifizieren
| Attribut |
Wert |
| Job-ID |
us_ccn_deidentify |
| Standorttyp |
Multi_region > us (mehrere Regionen in den USA)
|
| URL |
gs://-car-owners/ |
| Rekursiv scannen |
Diese Option aktivieren |
| Stichprobenerfassung |
100 % |
| Stichprobenmethode |
Keine Stichproben |
| Strukturierte De-Identifikationsvorlage |
Geben Sie den Pfad zur De-Identifikationsvorlage an, die Sie in Schritt 2 erstellt haben. |
| Details zur Transformation nach BigQuery exportieren |
Setzen Sie im aktuellen Projekt Dataset-ID auf cs_transformations und Tabellen-ID auf deidentify_ccn. |
| Speicherort für Cloud Storage-Ausgabe |
gs://-car-owners-transformed |
Klicken Sie auf Fortschritt prüfen.
Sensitive Data Protection für Cloud Storage aktivieren
Aufgabe 2: Sensitive Data Protection für BigQuery aktivieren
Auch Daten zu Autobesitzerinnen und -besitzern und ihrem Kaufverhalten werden für Analysen in BigQuery gespeichert. Einige Datensätze enthalten sensible Daten. Ihre Aufgabe ist es, in IAM ein Tag für vertrauliche personenidentifizierbare Informationen (SPII) zu erstellen und damit bestimmten Nutzern bedingten Zugriff. Der Zugriff wird nur auf BigQuery-Datasets gewährt, die mit dem Tag „Keine vertraulichen personenidentifizierbare Informationen (No SPII)“ versehen sind.
Führen Sie die folgenden Unteraufgaben aus, um dieses Ziel zu erreichen.
Wenn Sie die Hinweise unten maximieren, erhalten Sie nützliche Tipps für den Einstieg.
In IAM einen Tag für vertrauliche personenidentifizierbare Informationen (SPII) erstellen
Tipp zum Erstellen des Tags
| Attribut |
Wert |
| Tag-Schlüssel |
Vertrauliche personenidentifizierbare Informationen |
| Beschreibung des Tag-Schlüssels |
Vertrauliche personenidentifizierbare Informationen (SPII) kennzeichnen |
| Tag-Schlüssel 1 |
Yes |
| Beschreibung des Tag-Schlüssels 1 |
Enthält vertrauliche personenidentifizierbare Informationen (SPII) |
| Tag-Schlüssel 2 |
No |
| Beschreibung des Tag-Schlüssels 2 |
Enthält keine vertraulichen personenidentifizierbaren Informationen (SPII) |
Gewähren Sie „Nutzername 2“ bedingten Zugriff nur auf BigQuery-Datensätze, die mit dem Tag „Keine vertraulichen personenidentifizierbaren Informationen (No SPII)“ versehen sind.
Tipp zum Gewähren von bedingtem Zugriff
- Aktualisieren Sie die IAM-Einstellungen für „Nutzername 2“ (), um eine Bedingung hinzuzufügen: Zugriff nur auf BigQuery-Datasets, die mit dem Wert No für SPII getaggt wurden.
| Attribut |
Wert |
| IAM-Rollen für „Nutzername 2“ |
Ersetzen Sie Viewer durch Browser und behalten Sie BigQuery Data Viewer bei, um eine Bedingung hinzuzufügen. |
| Bedingungstitel |
Zugriff nur auf „No SPII“ |
| Bedingungstyp 1 und Operator |
Wählen Sie Tag und Hat einen Wert aus. |
| Wertpfad für Bedingungstyp 1 |
/SPII/No |
- Taggen Sie den BigQuery-Datensatz orders mit dem Wert No für SPII.
Anders als der Datensatz car_owners enthält der Datensatz orders keine SPII, sondern nur Details zu Bestellungen.
Optionaler Test: Wenn Sie den bedingten Zugriff in Aktion sehen möchten, können Sie sich als „Nutzername 2“ im Projekt anmelden und zu BigQuery wechseln. Aktualisieren Sie die Seite, bis in der Explorer-Liste nur noch der Datensatz orders angezeigt wird, da Nutzername 2 jetzt nur noch Zugriff auf Datensätze hat, die mit No für SPII gekennzeichnet sind.
Es kann einige Minuten dauern, bis diese Bedingung angewendet wird.
Klicken Sie auf Fortschritt prüfen.
Sensitive Data Protection für BigQuery aktivieren.
Aufgabe 3: Schutz sensibler Daten in Antworten von generativen KI-Modellen
Ihr Team hat bereits eine Python-Funktion, die sensible Datentypen in Antworten von generativen KI-Modellen identifiziert und unkenntlich macht oder blockiert. Sie sollen die Funktion so erweitern, dass Antworten von generativen KI-Modellen blockiert werden, die US-Fahrzeugidentifikationsnummern enthalten. Bei diesen sensiblen Daten handelt es sich um individuelle 17-stelligen Codes, die jedem Straßenfahrzeug in Nordamerika zugeordnet werden.
Führen Sie dazu die folgenden Unteraufgaben mit dem Notebook aus, das in dieser Lab-Umgebung bereitgestellt wird:
- Aktualisieren Sie eine vorhandene Python-Funktion, um Modellantworten zu blockieren, sofern eine US-Fahrzeugidentifikationsnummer enthalten ist.
- Generieren Sie mit dem folgenden Prompt einen Beispieltext, um die aktualisierte Funktion zu testen:
Ist 4Y1SL65848Z411439 ein Beispiel für eine US-amerikanische Fahrzeugidentifikationsnummer (FIN)?
- Achten Sie beim Generieren der Antwort darauf, dass die Temperatur auf 0 eingestellt ist, damit für die Fortschrittskontrolle unten die Ergebnisse mit der höchsten Wahrscheinlichkeit ausgegeben werden.
Verwenden Sie das vordefinierte Notebook deidentify-model-response-challenge-lab.ipynb in der Workbench-Instanz namens vertex-ai-jupyterlab.
- Verwenden Sie als Projekt-ID:
- Verwenden Sie als Standort:
Hinweis: Wenn in JupyterLab keine Notebooks angezeigt werden, führen Sie die folgenden zusätzlichen Schritte aus, um die Instanz zurückzusetzen:
1. Schließen Sie den Browsertab für JupyterLab und kehren Sie zur Workbench-Startseite zurück.
2. Aktivieren Sie das Kästchen neben dem Instanznamen und klicken Sie dann auf Zurücksetzen.
3. Nachdem der Button JupyterLab öffnen wieder aktiviert ist, warten Sie eine Minute und klicken Sie dann auf JupyterLab öffnen.
Tipp zum Aktualisieren und Testen der Python-Funktion
Tipp zum Einstellen der Temperatur auf 0
Klicken Sie auf Fortschritt prüfen.
Schutz sensibler Daten in Antworten von generativen KI-Modellen.
Glückwunsch!
In diesem Lab haben Sie eine Konfiguration für einen Erkennungsscan für Cloud Storage erstellt und geplant. Anschließend haben Sie eine De-Identifikationsvorlage erstellt und damit eine De-Identifikationsaufgabe für Cloud Storage-Dateien ausgeführt. Außerdem haben Sie IAM-Tags erstellt und auf BigQuery-Daten angewendet, um bedingten Zugriff zu gewähren. Zuletzt haben Sie eine Python-Funktion aktualisiert, um Antworten von generativen KI-Modellen, die sensible Daten enthalten, zu entfernen und zu blockieren. Die sensiblen Daten wurden von der Cloud Data Loss Prevention (DLP) API identifiziert.

Google Cloud-Schulungen und -Zertifizierungen
In unseren Schulungen erfahren Sie alles zum optimalen Einsatz unserer Google Cloud-Technologien und können sich entsprechend zertifizieren lassen. Unsere Kurse vermitteln technische Fähigkeiten und Best Practices, damit Sie möglichst schnell mit Google Cloud loslegen und Ihr Wissen fortlaufend erweitern können. Wir bieten On-Demand-, Präsenz- und virtuelle Schulungen für Anfänger wie Fortgeschrittene an, die Sie individuell in Ihrem eigenen Zeitplan absolvieren können. Mit unseren Zertifizierungen weisen Sie nach, dass Sie Experte im Bereich Google Cloud-Technologien sind.
Anleitung zuletzt am 30. Oktober 2025 aktualisiert
Lab zuletzt am 30. Oktober 2025 getestet
© 2025 Google LLC. Alle Rechte vorbehalten. Google und das Google-Logo sind Marken von Google LLC. Alle anderen Unternehmens- und Produktnamen können Marken der jeweils mit ihnen verbundenen Unternehmen sein.