Serverless Data Processing with Dataflow - Batch Analytics Pipelines with Dataflow (Python) Ulasan

6644 ulasan

Marek D. · Diulas hampir 4 tahun lalu

Tao T. · Diulas hampir 4 tahun lalu

Brady B. · Diulas hampir 4 tahun lalu

Irene K. · Diulas hampir 4 tahun lalu

Hanh T. · Diulas hampir 4 tahun lalu

Abhishek C. · Diulas hampir 4 tahun lalu

Edward U. · Diulas hampir 4 tahun lalu

Zelmar M. · Diulas hampir 4 tahun lalu

The Lab has been updated to use the IDE to overcome the errors. Thanks for the same.

Krishna V. · Diulas hampir 4 tahun lalu

Jack R. · Diulas hampir 4 tahun lalu

Aparna K. · Diulas hampir 4 tahun lalu

Swaraj N. · Diulas hampir 4 tahun lalu

Alceu D. · Diulas hampir 4 tahun lalu

Giuseppe M. · Diulas hampir 4 tahun lalu

1. to pass permission issue I runned the command from cloud shell 2. after task4 "my progress" still not green , despite the fact that everything ended well

Michael G. · Diulas hampir 4 tahun lalu

no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona Se siguen los pasos y esta mandando muchos errores se creo la tabla usser trafic en bigquery y manda mensaje de que no está terminado ese paso, y no indica que falta. Se siguieron los pasos, de forma manual se asigno el rol de dataflow worker porque siguiendo los pasos manda error. Pésimos laboratorios, por mi le daría cero estrellas, solo que no lo permite la herramienta

Leoncio O. · Diulas hampir 4 tahun lalu

no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona Se siguen los pasos y esta mandando muchos errores

Leoncio O. · Diulas hampir 4 tahun lalu

The lab is a bit unclear about which commands should be run in the IDE versus Cloud shell. In particular, in step 4 of Part 1, Task 1, we are asked to run the command below: gcloud projects add-iam-policy-binding $PROJECT_ID --member="serviceAccount:${serviceAccount}" --role="roles/dataflow.worker" However this fails if run in the IDE since the service account doesn't have the necessary permissions. I was able to work around this by running the command in Cloud Shell instead, however it would be could to update the lab text to make this requirement clear.

Robert L. · Diulas hampir 4 tahun lalu

Eber D. · Diulas hampir 4 tahun lalu

Eber D. · Diulas hampir 4 tahun lalu

Wasn't able to complete Task 3 as my Python class didn't match the JSON schema. Errors from Dataflow were hard to understand. Not really an issue with the lab, just a general Dataflow problem.

Robert L. · Diulas hampir 4 tahun lalu

no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona

Leoncio O. · Diulas hampir 4 tahun lalu

Divya N. · Diulas hampir 4 tahun lalu

Yves E. · Diulas hampir 4 tahun lalu

Sascha D. · Diulas hampir 4 tahun lalu

Kami tidak dapat memastikan bahwa ulasan yang dipublikasikan berasal dari konsumen yang telah membeli atau menggunakan produk terkait. Ulasan tidak diverifikasi oleh Google.