Anleitung und Anforderungen für Lab-Einrichtung
Schützen Sie Ihr Konto und Ihren Fortschritt. Verwenden Sie immer den privaten Modus und Lab-Anmeldedaten, um dieses Lab auszuführen.

Echtzeitpipelines in Cloud Data Fusion erstellen

Lab 1 Stunde 30 Minuten universal_currency_alt 5 Guthabenpunkte show_chart Einsteiger
info Dieses Lab kann KI-Tools enthalten, die den Lernprozess unterstützen.
Dieser Inhalt ist noch nicht für Mobilgeräte optimiert.
Die Lernumgebung funktioniert am besten, wenn Sie auf einem Computer über einen per E‑Mail gesendeten Link darauf zugreifen.

GSP808

Logo: Google Cloud-Labs zum selbstbestimmten Lernen

Übersicht

Neben Batchpipelines können Sie mit Data Fusion auch Echtzeitpipelines erstellen, die Ereignisse verarbeiten, sobald sie generiert werden. Derzeit werden Echtzeitpipelines mit Apache Spark Streaming auf Cloud Dataproc-Clustern ausgeführt. In diesem Lab erfahren Sie, wie Sie mit Data Fusion eine Streamingpipeline erstellen.

Sie erstellen eine Pipeline, die aus einem Cloud Pub/Sub-Thema liest, die Ereignisse verarbeitet, einige Transformationen ausführt und die Ausgabe in BigQuery schreibt.

Ziele

  1. Echtzeitpipeline erstellen
  2. Pub/Sub-Quell-Plug-in in Data Fusion konfigurieren
  3. Mit Wrangler Transformationen für Daten in nicht unterstützten Verbindungen definieren

Einrichtung und Anforderungen

Für jedes Lab werden Ihnen ein neues Google Cloud-Projekt und die entsprechenden Ressourcen für eine bestimmte Zeit kostenlos zur Verfügung gestellt.

  1. Melden Sie sich über ein Inkognitofenster bei Google Skills an.

  2. Beachten Sie die Zugriffszeit (z. B. 02:00:00) und achten Sie darauf, dass Sie das Lab innerhalb dieser Zeit abschließen.
    Es gibt keine Pausenfunktion. Sie können bei Bedarf neu starten, müssen dann aber von vorn beginnen.

  3. Wenn Sie bereit sind, klicken Sie auf Lab starten.

    Hinweis: Nachdem Sie auf Lab starten geklickt haben, dauert es etwa 15 bis 20 Minuten, bis die erforderlichen Ressourcen für das Lab bereitgestellt und eine Data Fusion-Instanz erstellt wurden. In der Zwischenzeit können Sie sich anhand der unten aufgeführten Schritte mit den Zielen des Labs vertraut machen.

    Wenn im linken Bereich Lab-Anmeldedaten (Nutzername und Passwort) angezeigt werden, ist die Instanz erstellt und Sie können sich in der Console anmelden.
  4. Notieren Sie sich Ihre Anmeldedaten (Nutzername und Passwort). Mit diesen Daten melden Sie sich in der Google Cloud Console an.

  5. Klicken Sie auf Google Console öffnen.

  6. Klicken Sie auf Anderes Konto verwenden. Kopieren Sie den Nutzernamen und das Passwort für dieses Lab und fügen Sie beides in die entsprechenden Felder ein.
    Wenn Sie andere Anmeldedaten verwenden, tritt ein Fehler auf oder es fallen Kosten an.

  7. Akzeptieren Sie die Nutzungsbedingungen und überspringen Sie die Seite zur Wiederherstellung der Ressourcen.

Hinweis: Über den Button Lab beenden wird Ihre Arbeit gelöscht und das Projekt entfernt. Sie sollten daher nur darauf klicken, wenn Sie das Lab abgeschlossen haben oder es neu starten möchten.

Bei der Google Cloud Console anmelden

  1. Kopieren Sie im Browsertab oder Fenster für diese Lab-Sitzung im Bereich Verbindungsdetails den Nutzernamen und klicken Sie auf den Button Google Console öffnen.
Hinweis: Wenn die Eingabeaufforderung „Konto auswählen“ angezeigt wird, klicken Sie auf Anderes Konto verwenden.
  1. Fügen Sie den Nutzernamen und das Passwort ein, wenn Sie dazu aufgefordert werden.
  2. Klicken Sie auf Weiter.
  3. Akzeptieren Sie die Nutzungsbedingungen.

Da es sich um ein temporäres Konto handelt, das nur für die Dauer dieses Labs verfügbar ist, beachten Sie bitte Folgendes:

  • Fügen Sie keine Wiederherstellungsoptionen hinzu.
  • Melden Sie sich nicht für kostenlose Testversionen an.
  1. Wenn die Console geöffnet wurde, klicken Sie oben links auf das Navigationsmenü (Symbol für Navigationsmenü), um die Liste der Dienste aufzurufen.

Navigationsmenü

Cloud Shell aktivieren

Cloud Shell ist eine virtuelle Maschine, auf der Entwicklertools installiert sind. Sie bietet ein Basisverzeichnis mit 5 GB nichtflüchtigem Speicher und läuft auf Google Cloud. Cloud Shell bietet Ihnen Befehlszeilenzugriff auf Ihre Google Cloud-Ressourcen. gcloud ist das Befehlszeilentool für Google Cloud. Das Tool ist in Cloud Shell vorinstalliert und unterstützt die Tab-Vervollständigung.

  1. Klicken Sie in der Google Cloud Console im Navigationsbereich auf Cloud Shell aktivieren (Bild: Cloud Shell-Symbol).

  2. Klicken Sie auf Weiter.
    Die Bereitstellung und Verbindung mit der Umgebung dauert einen kleinen Moment. Wenn Sie verbunden sind, sind Sie auch authentifiziert und das Projekt ist auf Ihre PROJECT_ID eingestellt. Beispiel:

Bild: Cloud Shell-Terminal

Beispielbefehle

  • Namen für das aktive Konto angeben:

gcloud auth list

(Ausgabe)

Credentialed accounts: - <myaccount>@<mydomain>.com (active)

(Beispielausgabe)

Credentialed accounts: - google1623327_student@qwiklabs.net
  • Projekt-ID angeben:

gcloud config list project

(Ausgabe)

[core] project = <project_ID>

(Beispielausgabe)

[core] project = qwiklabs-gcp-44776a13dea667a6

Aufgabe 1: Projektberechtigungen

Projektberechtigungen prüfen

Bevor Sie mit der Arbeit in Google Cloud beginnen, müssen Sie sicherstellen, dass für Ihr Projekt im Rahmen von Identity and Access Management (IAM) die nötigen Berechtigungen vorliegen.

  1. Klicken Sie in der Google Cloud Console im Navigationsmenü (Symbol für Navigationsmenü) auf IAM und Verwaltung > IAM.

  2. Prüfen Sie, ob das standardmäßige Compute-Dienstkonto {project-number}-compute@developer.gserviceaccount.com vorhanden und ihm die Rolle Bearbeiter zugewiesen ist. Das Kontopräfix ist die Projektnummer. Sie finden sie im Navigationsmenü unter Cloud-Übersicht.

Compute-Standarddienstkonto

Wenn das Konto nicht in IAM vorhanden ist oder nicht über die Bearbeiter-Rolle verfügt, weisen Sie die erforderliche Rolle so zu:

  1. Klicken Sie in der Google Cloud Console im Navigationsmenü auf Cloud-Übersicht.

  2. Kopieren Sie auf der Karte Projektinformationen die Projektnummer.

  3. Klicken Sie im Navigationsmenü auf IAM und Verwaltung > IAM.

  4. Klicken Sie oben auf der Seite IAM auf Hinzufügen.

  5. Geben Sie unter Neue Hauptkonten ein:

{project-number}-compute@developer.gserviceaccount.com

Ersetzen Sie {project-number} durch die entsprechende Projektnummer.

  1. Wählen Sie unter Rolle auswählen die Option Basic (oder „Projekt“) > Editor aus.

  2. Klicken Sie auf Speichern.

Aufgabe 2: Dataflow API neu aktivieren

Damit Sie Zugriff auf die erforderliche API haben, starten Sie die Verbindung zur Dataflow API neu.

  1. Geben Sie in der Cloud Console oben in der Suchleiste „Dataflow API“ ein. Klicken Sie auf das Ergebnis für Dataflow API.

  2. Klicken Sie auf Verwalten.

  3. Klicken Sie auf API deaktivieren.

Wenn Sie zur Bestätigung aufgefordert werden, klicken Sie auf Deaktivieren.

  1. Klicken Sie auf Aktivieren.

Aufgabe 3: Daten laden

  1. Laden Sie zuerst die Beispiel-Tweets auf Ihren Computer herunter. Sie laden diese später mit Wrangler hoch, um Transformationsschritte zu erstellen.

Außerdem müssen Sie die Datei mit den Beispiel-Tweets in Ihrem Cloud Storage-Bucket bereitstellen. Später in diesem Lab streamen Sie die Daten aus Ihrem Bucket in ein Pub/Sub-Thema.

  1. Führen Sie in Cloud Shell die folgenden Befehle aus, um einen neuen Bucket zu erstellen:
export BUCKET=$GOOGLE_CLOUD_PROJECT gsutil mb gs://$BUCKET

Der Name des erstellten Buckets entspricht der Projekt-ID.

  1. Führen Sie den folgenden Befehl aus, um die Datei mit den Tweets in den Bucket zu kopieren:
gsutil cp gs://cloud-training/OCBL164/pubnub_tweets_2019-06-09-05-50_part-r-00000 gs://$BUCKET
  1. Prüfen Sie, ob die Datei in Ihren Cloud Storage-Bucket kopiert wurde.

Klicken Sie auf Fortschritt prüfen. Daten laden

Aufgabe 4: Pub/Sub-Thema einrichten

Um Pub/Sub zu verwenden, müssen Sie ein Thema, das die Daten enthalten soll, und ein Abo erstellen, über das auf die unter diesem Thema veröffentlichten Daten zugegriffen werden kann.

  1. Klicken Sie in der Cloud Console im Navigationsmenü auf Alle Produkte ansehen. Klicken Sie im Abschnitt „Analytics“ auf Pub/Sub und wählen Sie dann Themen aus.

  2. Klicken Sie auf Thema erstellen.

Button „Thema erstellen“

  1. Das Thema muss einen eindeutigen Namen haben. Geben Sie für dieses Lab den Namen cdf_lab_topic ein und klicken Sie dann auf ERSTELLEN.

Klicken Sie auf Fortschritt prüfen. Pub/Sub-Thema einrichten

Aufgabe 5: Pub/Sub-Abo hinzufügen

Sie arbeiten weiter auf der Themenseite. Jetzt richten Sie ein Abo ein, um auf das Thema zuzugreifen.

  1. Klicken Sie auf Abo erstellen.

Link „Abo erstellen“

  1. Geben Sie einen Namen für das Abo ein, z. B. cdf_lab_subscription, legen Sie den Zustellungstyp auf Pull fest und klicken Sie auf Erstellen.

Seite „Abo zum Thema hinzufügen“

Klicken Sie auf Fortschritt prüfen. Pub/Sub-Abo hinzufügen

Aufgabe 6: Erforderliche Berechtigungen für Ihre Cloud Data Fusion-Instanz hinzufügen

  1. Klicken Sie in der Google Cloud Console im Navigationsmenü auf Alle Produkte ansehen. Klicken Sie im Abschnitt „Analytics“ auf Data Fusion > Instanzen.
Hinweis: Das Erstellen der Instanz kann bis zu 20 Minuten dauern. Bitte warten Sie, bis der Vorgang abgeschlossen ist.

Als Nächstes gewähren Sie dem Dienstkonto, das der Instanz zugeordnet ist, Berechtigungen. Gehen Sie dazu so vor:

  1. Rufen Sie in der Google Cloud Console IAM und Verwaltung > IAM auf.

  2. Prüfen Sie, ob das Compute Engine-Standarddienstkonto {project-number}-compute@developer.gserviceaccount.com vorhanden ist, und kopieren Sie das Dienstkonto in die Zwischenablage.

  3. Klicken Sie auf der Seite „IAM-Berechtigungen“ auf Zugriff erlauben.

  4. Fügen Sie im Feld „Neue Hauptkonten“ das Dienstkonto ein.

  5. Klicken Sie in das Feld Rolle auswählen und geben Sie Cloud Data Fusion API-Dienst-Agent ein. Wählen Sie dann die Rolle aus.

  6. Klicken Sie auf + Weitere Rolle hinzufügen.

  7. Fügen Sie die Rolle Dataproc-Administrator hinzu.

  8. Klicken Sie auf Speichern.

Klicken Sie auf Fortschritt prüfen. Rolle „Cloud Data Fusion API-Dienst-Agent“ zum Dienstkonto hinzufügen

Dienstkontonutzerin/Dienstkontonutzer die Berechtigung erteilen

  1. Klicken Sie in der Console im Navigationsmenü auf IAM & Verwaltung > IAM.

  2. Klicken Sie auf das Kästchen Von Google bereitgestellte Rollenzuweisungen einschließen.

  3. Suchen Sie in der Liste nach dem von Google verwalteten Cloud Data Fusion-Dienstkonto, das so aussieht: service-{project-number}@gcp-sa-datafusion.iam.gserviceaccount.com. Kopieren Sie dann den Namen des Dienstkontos in die Zwischenablage.

Von Google verwaltete Cloud Data Fusion-Dienstkonten

  1. Rufen Sie als Nächstes IAM & Verwaltung > Dienstkonten auf.

  2. Klicken Sie auf das Compute Engine-Standardkonto, das so aussieht: {project-number}-compute@developer.gserviceaccount.com, und wählen Sie in der oberen Navigationsleiste den Tab Hauptkonten mit Zugriff aus.

  3. Klicken Sie auf den Button Zugriff gewähren.

  4. Fügen Sie im Feld Neue Hauptkonten das zuvor kopierte Dienstkonto ein.

  5. Wählen Sie im Drop‑down-Menü Rolle die Option Dienstkontonutzer aus.

  6. Klicken Sie auf Speichern.

Aufgabe 7: Benutzeroberfläche von Cloud Data Fusion verwenden

Wenn Sie mit Cloud Data Fusion arbeiten, verwenden Sie sowohl die Cloud Console als auch die separate Benutzeroberfläche von Cloud Data Fusion. In der Cloud Console können Sie ein Cloud Console-Projekt erstellen sowie Cloud Data Fusion-Instanzen erstellen und löschen. In der Benutzeroberfläche von Cloud Data Fusion können Sie auf verschiedenen Seiten wie Pipeline Studio oder Wrangler die Funktionen von Cloud Data Fusion nutzen.

So verwenden Sie die Benutzeroberfläche von Cloud Data Fusion:

  1. Kehren Sie in der Cloud Console zu Data Fusion zurück und klicken Sie neben Ihrer Data Fusion-Instanz auf den Link Instanz anzeigen. Wählen Sie die Anmeldedaten des Labs aus, um sich anzumelden. Wenn Ihnen eine Tour zum Dienst angeboten wird, klicken Sie auf Nein danke. Sie sollten sich jetzt in der Cloud Data Fusion-Benutzeroberfläche befinden.

Link „Instanz anzeigen“

  1. Öffnen Sie im Cloud Data Fusion Control Center über das Navigationsmenü das Menü auf der linken Seite und wählen Sie Pipeline > Studio aus.

  2. Wählen Sie links oben im Drop-down-Menü Data Pipeline – Realtime aus.

Aufgabe 8: Echtzeitpipeline erstellen

Bei der Arbeit mit Daten ist es hilfreich, die Rohdaten zu sehen, um sie als Ausgangspunkt für die Transformation zu verwenden. Dazu bereiten Sie die Daten mit Wrangler vor und bereinigen sie. Mit diesem datenorientierten Ansatz können Sie Ihre Transformationen schnell visualisieren. Durch das Feedback in Echtzeit sehen Sie, ob Sie auf dem richtigen Weg sind.

  1. Wählen Sie im Abschnitt Transform der Plug-in-Palette die Option Wrangler aus. Der Wrangler-Knoten wird auf dem Canvas angezeigt. Klicken Sie auf den Button „Properties“, um ihn zu öffnen.

  2. Klicken Sie im Abschnitt Directives auf den Button WRANGLE.

  3. Klicken Sie nach dem Laden im Menü auf der linken Seite auf Upload. Klicken Sie dann auf das Upload-Symbol, um die Datei mit den Beispiel-Tweets hochzuladen, die Sie zuvor auf Ihren Computer heruntergeladen haben.

Seite „Upload data from your computer“ in Wrangler

  1. Die Daten werden in Zeilen-/Spaltenform in den Wrangler-Bildschirm geladen. Das dauert ein paar Minuten.
Hinweis: Betrachten Sie dies als Stichprobe der Ereignisse, die Sie später in Pub/Sub erhalten. Dies entspricht realen Szenarien, in denen Sie während der Entwicklung Ihrer Pipeline in der Regel keinen Zugriff auf Produktionsdaten haben.

Ihr Administrator kann Ihnen jedoch Zugriff auf eine kleine Stichprobe gewähren oder Sie arbeiten mit simulierten Daten, die dem Vertrag einer API entsprechen. In diesem Abschnitt wenden Sie Transformationen iterativ auf diese Stichprobe an und erhalten in jedem Schritt Feedback. Anschließend erfahren Sie, wie Sie die Transformationen auf reale Daten anwenden.
  1. Im ersten Schritt werden die JSON-Daten in eine tabellarische Darstellung geparst, die in Zeilen und Spalten aufgeteilt ist. Klicken Sie dazu auf das Drop-down-Symbol in der Spaltenüberschrift der ersten Spalte („body“), wählen Sie den Menüpunkt Parse und dann im Untermenü JSON aus. Legen Sie im Pop-up-Fenster Depth auf 1 fest und klicken Sie auf Apply.

    Navigationspfad zur Option „JSON“.

  2. Wiederholen Sie den vorherigen Schritt, um eine aussagekräftigere Datenstruktur für die weitere Transformation zu erhalten. Klicken Sie auf das Drop-down-Symbol der Spalte body und wählen Sie Parse > JSON aus. Legen Sie Depth auf 1 fest und klicken Sie auf Apply.

    Daten für „body_payload“

    Anstatt die Benutzeroberfläche zu verwenden, können Sie Transformationsschritte auch in das Befehlszeilenfeld für Wrangler-Anweisungen schreiben. Dieses Feld wird im unteren Bereich der Wrangler-Benutzeroberfläche angezeigt (suchen Sie nach der Befehlskonsole mit der grünen Aufforderung $). Im nächsten Schritt verwenden Sie die Befehlskonsole zum Einfügen einer Reihe von Transformationsschritten.

  3. Fügen Sie die folgenden Transformationsschritte hinzu, indem Sie sie kopieren und in das Befehlszeilenfeld für Wrangler-Anweisungen einfügen:

columns-replace s/^body_payload_//g drop id_str parse-as-simple-date :created_at EEE MMM dd HH:mm:ss Z yyyy drop display_text_range drop truncated drop in_reply_to_status_id_str drop in_reply_to_user_id_str parse-as-json :user 1 drop coordinates set-type :place string drop geo,place,contributors,is_quote_status,favorited,retweeted,filter_level,user_id_str,user_url,user_description,user_translator_type,user_protected,user_verified,user_followers_count,user_friends_count,user_statuses_count,user_favourites_count,user_listed_count,user_is_translator,user_contributors_enabled,user_lang,user_geo_enabled,user_time_zone,user_utc_offset,user_created_at,user_profile_background_color,user_profile_background_image_url,user_profile_background_image_url_https,user_profile_background_tile,user_profile_link_color,user_profile_sidebar_border_color,user_profile_sidebar_fill_color,user_profile_text_color,user_profile_use_background_image drop user_following,user_default_profile_image,user_follow_request_sent,user_notifications,extended_tweet,quoted_status_id,quoted_status_id_str,quoted_status,quoted_status_permalink drop user_profile_image_url,user_profile_image_url_https,user_profile_banner_url,user_default_profile,extended_entities fill-null-or-empty :possibly_sensitive 'false' set-type :possibly_sensitive boolean drop :entities drop :user_location Hinweis: Wenn eine Nachricht wie No data. Try removing some transformation steps. angezeigt wird, entfernen Sie einen der Transformationsschritte, indem Sie auf X klicken. Sobald die Daten angezeigt werden, können Sie fortfahren.
  1. Klicken Sie rechts oben auf den Button Apply. Klicken Sie dann rechts oben auf das X, um das Attributfeld zu schließen.

Sie befinden sich wieder in Pipeline Studio. Auf dem Canvas wurde ein einzelner Knoten platziert, der die Transformationen darstellt, die Sie gerade in Wrangler definiert haben. Allerdings ist keine Quelle mit dieser Pipeline verbunden, da Sie, wie oben beschrieben, diese Transformationen auf eine repräsentative Stichprobe der Daten auf Ihrem Laptop angewendet haben und nicht auf Daten an ihrem tatsächlichen Produktionsspeicherort.

Im nächsten Schritt legen wir fest, wo sich die Daten tatsächlich befinden sollen.

  1. Wählen Sie im Bereich Source der Plug-in-Palette die Option PubSub aus. Der Pub/Sub-Quellknoten wird auf dem Canvas angezeigt. Klicken Sie auf den Button Properties, um ihn zu öffnen.

  2. Geben Sie die verschiedenen Attribute der Pub/Sub-Quelle so an:

a. Geben Sie unter Reference name den Wert Twitter_Input_Stream ein.

b. Geben Sie unter Subscription den Namen cdf_lab_subscription ein (das ist der Name des Pub/Sub-Abos, das Sie zuvor erstellt haben).

Hinweis: Die Pub/Sub-Quelle akzeptiert nicht den vollständig qualifizierten Namen des Abos, sondern nur die letzte Komponente nach dem Teil „.../subscriptions/“.

c. Klicken Sie auf Validate, um sicherzustellen, dass keine Fehler vorliegen.

Seite „Pub/Sub properties“

d. Klicken Sie rechts oben auf das X, um das Attributfenster zu schließen.

  1. Verbinden Sie nun den PubSub-Quellknoten mit dem Wrangler-Knoten, den Sie zuvor hinzugefügt haben.

Pipeline von Pub/Sub zu Wrangler

Da Sie zuvor eine Stichprobe der Daten in Wrangler verwendet haben, wurde die Quellspalte in Wrangler als „body“ angezeigt. Die PubSub-Quelle gibt sie jedoch in ein Feld mit dem Namen „message“ aus. Im nächsten Schritt beheben Sie diese Diskrepanz.

  1. Öffnen Sie Properties für den Wrangler-Knoten und fügen Sie die folgende Anweisung über den vorhandenen Transformationsschritten ein:
keep :message set-charset :message 'utf-8' rename :message :body

Seite „Wrangler Properties“

Klicken Sie rechts oben auf das X, um das Attributfenster zu schließen.

  1. Nachdem Sie eine Quelle und eine Transformation mit der Pipeline verbunden haben, können Sie sie durch Hinzufügen einer Senke vervollständigen. Wählen Sie im Bereich Sink der linken Seitenleiste die Option BigQuery aus. Auf dem Canvas wird ein BigQuery-Senkenknoten angezeigt.

  2. Verbinden Sie den Wrangler-Knoten mit dem BigQuery-Knoten, indem Sie den Pfeil vom Wrangler-Knoten zum BigQuery-Knoten ziehen. Als Nächstes konfigurieren Sie die Attribute des BigQuery-Knotens.

    Pipeline

  3. Bewegen Sie den Mauszeiger auf den Knoten BigQuery und klicken Sie auf Properties.

    a. Geben Sie unter Reference name den Wert realtime_pipeline ein.

    b. Geben Sie unter Dataset den Wert realtime ein.

    c. Geben Sie unter Table den Wert tweets ein.

    d. Klicken Sie auf Validate, um sicherzustellen, dass keine Fehler vorliegen.

  4. Klicken Sie rechts oben auf das X, um das Attributfenster zu schließen.

Fenster „BigQuery Properties“

  1. Klicken Sie auf Name your pipeline, geben Sie Realtime_Pipeline als Namen ein und klicken Sie auf Save.

  2. Klicken Sie auf das Symbol Deploy und starten Sie dann die Pipeline.

  3. Klicken Sie nach der Bereitstellung auf Run. Warten Sie, bis sich der Status der Pipeline in Running ändert. Das dauert ein paar Minuten.

Aufgabe 9: Nachrichten in Cloud Pub/Sub senden

Senden Sie Ereignisse, indem Sie sie mithilfe der Dataflow-Vorlage in einem Bulk-Vorgang in das Abo laden.

Sie erstellen jetzt einen Dataflow-Job basierend auf einer Vorlage, um mehrere Nachrichten aus der Datei „tweets“ zu verarbeiten und sie in dem zuvor erstellten Pub/Sub-Thema zu veröffentlichen. Verwenden Sie die Vorlage Text Files on Cloud Storage to Pub/Sub unter Process Data Continuously (Stream) auf der Seite zum Erstellen eines Dataflow-Jobs.

  1. Klicken Sie in der Cloud Console im Navigationsmenü auf Alle Produkte ansehen und wählen Sie unter „Analytics“ die Option Dataflow aus.

  2. Klicken Sie in der oberen Menüleiste auf JOB AUS VORLAGE ERSTELLEN.

  3. Geben Sie streaming-pipeline als Jobnamen für Ihren Cloud Dataflow-Job ein.

  4. Wählen Sie unter Dataflow-Vorlage die Vorlage Text Files on Cloud Storage to Pub/Sub aus.

  5. Geben Sie unter Cloud Storage-Datei(en) eingeben gs://<YOUR-BUCKET-NAME>/<FILE-NAME> ein. Ersetzen Sie <YOUR-BUCKET-NAME> durch den Namen Ihres Buckets und <FILE-NAME> durch den Namen der Datei, die Sie zuvor auf Ihren Computer heruntergeladen haben.

Beispiel: gs://qwiklabs-gcp-01-dfdf34926367/pubnub_tweets_2019-06-09-05-50_part-r-00000

  1. Geben Sie unter Pub/Sub-Thema für Ausgabe projects/<PROJECT-ID>/topics/cdf_lab_topic ein.

Ersetzen Sie PROJECT-ID durch Ihre tatsächliche Projekt-ID.

  1. Geben Sie unter Temporärer Speicherort <YOUR-BUCKET-NAME>/tmp/ ein.

Ersetzen Sie dabei <YOUR-BUCKET-NAME> durch den Namen Ihres Buckets.

  1. Klicken Sie auf Job ausführen.

  2. Führen Sie den Dataflow-Job aus und warten Sie ein paar Minuten. Sie können Nachrichten im Pub/Sub-Abo sehen und dann beobachten, wie sie über eine CDF-Pipeline in Echtzeit verarbeitet werden.

    Dialogfeld „Job aus Vorlage erstellen“

Klicken Sie auf Fortschritt prüfen. Laufzeitpipeline erstellen und ausführen

Aufgabe 10: Pipelinemesswerte ansehen

Sobald Ereignisse in das Pub/Sub-Thema geladen wurden, sollten Sie sehen können, wie sie von der Pipeline verarbeitet werden. Achten Sie darauf, wie die Messwerte für jeden Knoten aktualisiert werden.

  • Warten Sie, bis sich die Messwerte Ihrer Pipeline in der Data Fusion Console ändern.

    Pipelinemesswerte

Glückwunsch!

In diesem Lab haben Sie gelernt, wie Sie in Data Fusion eine Echtzeitpipeline einrichten, die eingehende Streamingnachrichten aus Cloud Pub/Sub liest, die Daten verarbeitet und sie in BigQuery schreibt.

Anleitung zuletzt am 6. Februar 2025 aktualisiert

Lab zuletzt am 6. Februar 2025 getestet

© 2026 Google LLC. Alle Rechte vorbehalten. Google und das Google-Logo sind Marken von Google LLC. Alle anderen Unternehmens- und Produktnamen können Marken der jeweils mit ihnen verbundenen Unternehmen sein.

Vorbereitung

  1. Labs erstellen ein Google Cloud-Projekt und Ressourcen für einen bestimmten Zeitraum
  2. Labs haben ein Zeitlimit und keine Pausenfunktion. Wenn Sie das Lab beenden, müssen Sie von vorne beginnen.
  3. Klicken Sie links oben auf dem Bildschirm auf Lab starten, um zu beginnen

Privates Surfen verwenden

  1. Kopieren Sie den bereitgestellten Nutzernamen und das Passwort für das Lab
  2. Klicken Sie im privaten Modus auf Konsole öffnen

In der Konsole anmelden

  1. Melden Sie sich mit Ihren Lab-Anmeldedaten an. Wenn Sie andere Anmeldedaten verwenden, kann dies zu Fehlern führen oder es fallen Kosten an.
  2. Akzeptieren Sie die Nutzungsbedingungen und überspringen Sie die Seite zur Wiederherstellung der Ressourcen
  3. Klicken Sie erst auf Lab beenden, wenn Sie das Lab abgeschlossen haben oder es neu starten möchten. Andernfalls werden Ihre bisherige Arbeit und das Projekt gelöscht.

Diese Inhalte sind derzeit nicht verfügbar

Bei Verfügbarkeit des Labs benachrichtigen wir Sie per E-Mail

Sehr gut!

Bei Verfügbarkeit kontaktieren wir Sie per E-Mail

Es ist immer nur ein Lab möglich

Bestätigen Sie, dass Sie alle vorhandenen Labs beenden und dieses Lab starten möchten

Privates Surfen für das Lab verwenden

Am besten führen Sie dieses Lab in einem Inkognito- oder privaten Browserfenster aus. So vermeiden Sie Konflikte zwischen Ihrem privaten Konto und dem Teilnehmerkonto, die zusätzliche Kosten für Ihr privates Konto verursachen könnten.