Serverless Data Processing with Dataflow - Batch Analytics Pipelines with Dataflow (Python) Ulasan
6644 ulasan
Marek D. · Diulas hampir 4 tahun lalu
Tao T. · Diulas hampir 4 tahun lalu
Brady B. · Diulas hampir 4 tahun lalu
Irene K. · Diulas hampir 4 tahun lalu
Hanh T. · Diulas hampir 4 tahun lalu
Abhishek C. · Diulas hampir 4 tahun lalu
Edward U. · Diulas hampir 4 tahun lalu
Zelmar M. · Diulas hampir 4 tahun lalu
The Lab has been updated to use the IDE to overcome the errors. Thanks for the same.
Krishna V. · Diulas hampir 4 tahun lalu
Jack R. · Diulas hampir 4 tahun lalu
Aparna K. · Diulas hampir 4 tahun lalu
Swaraj N. · Diulas hampir 4 tahun lalu
Alceu D. · Diulas hampir 4 tahun lalu
Giuseppe M. · Diulas hampir 4 tahun lalu
1. to pass permission issue I runned the command from cloud shell 2. after task4 "my progress" still not green , despite the fact that everything ended well
Michael G. · Diulas hampir 4 tahun lalu
no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona Se siguen los pasos y esta mandando muchos errores se creo la tabla usser trafic en bigquery y manda mensaje de que no está terminado ese paso, y no indica que falta. Se siguieron los pasos, de forma manual se asigno el rol de dataflow worker porque siguiendo los pasos manda error. Pésimos laboratorios, por mi le daría cero estrellas, solo que no lo permite la herramienta
Leoncio O. · Diulas hampir 4 tahun lalu
no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona Se siguen los pasos y esta mandando muchos errores
Leoncio O. · Diulas hampir 4 tahun lalu
The lab is a bit unclear about which commands should be run in the IDE versus Cloud shell. In particular, in step 4 of Part 1, Task 1, we are asked to run the command below: gcloud projects add-iam-policy-binding $PROJECT_ID --member="serviceAccount:${serviceAccount}" --role="roles/dataflow.worker" However this fails if run in the IDE since the service account doesn't have the necessary permissions. I was able to work around this by running the command in Cloud Shell instead, however it would be could to update the lab text to make this requirement clear.
Robert L. · Diulas hampir 4 tahun lalu
Eber D. · Diulas hampir 4 tahun lalu
Eber D. · Diulas hampir 4 tahun lalu
Wasn't able to complete Task 3 as my Python class didn't match the JSON schema. Errors from Dataflow were hard to understand. Not really an issue with the lab, just a general Dataflow problem.
Robert L. · Diulas hampir 4 tahun lalu
no funciona, sigo los pasos y no le asigna el rol de daflow worker. Asigne el rol de forma manual, y ya lo tiene, se ejecuta el script que ejecuta los archivos .sh para crear el bucket y no funciona
Leoncio O. · Diulas hampir 4 tahun lalu
Divya N. · Diulas hampir 4 tahun lalu
Yves E. · Diulas hampir 4 tahun lalu
Sascha D. · Diulas hampir 4 tahun lalu
Kami tidak dapat memastikan bahwa ulasan yang dipublikasikan berasal dari konsumen yang telah membeli atau menggunakan produk terkait. Ulasan tidak diverifikasi oleh Google.