Serverless Data Processing with Dataflow - Writing an ETL Pipeline using Apache Beam and Dataflow (Python) Ulasan

11245 ulasan

achraf e. · Diulas hampir 2 tahun lalu

Afonso P. · Diulas hampir 2 tahun lalu

DJIBRILLA B. · Diulas hampir 2 tahun lalu

Akhil N. · Diulas hampir 2 tahun lalu

Unable to continue as the pipeline.py file is not accessible with 403 Forbidden error

Meenakshi M. · Diulas hampir 2 tahun lalu

Alex N. · Diulas hampir 2 tahun lalu

Alex N. · Diulas hampir 2 tahun lalu

Lab instruction are not clear and really confusing, For example while editing the py files, it is not really explaining the place where you have to add the transformations and so on.

Saravanakumar N. · Diulas hampir 2 tahun lalu

Startup of the worker pool in zone us-central1-a failed to bring up any of the desired 1 workers. Please refer to https://cloud.google.com/dataflow/docs/guides/common-errors#worker-pool-failure for help troubleshooting. ZONE_RESOURCE_POOL_EXHAUSTED: Instance 'my-pipeline-1713806604483-04221023-0l4b-harness-jjft' creation failed: The zone 'projects/qwiklabs-gcp-01-e378a7e6bf47/zones/us-central1-a' does not have enough resources available to fulfill the request. Try a different zone, or try again later.

William M. · Diulas hampir 2 tahun lalu

William M. · Diulas hampir 2 tahun lalu

No dataflow workers available in us-central1-a. No way to use a different zone. Worked earlier in the US day (UK).

Will N. · Diulas hampir 2 tahun lalu

shehran s. · Diulas hampir 2 tahun lalu

Nishana H. · Diulas hampir 2 tahun lalu

ok

john m. · Diulas hampir 2 tahun lalu

angel v. · Diulas hampir 2 tahun lalu

Jan Š. · Diulas hampir 2 tahun lalu

Amit G. · Diulas hampir 2 tahun lalu

Shawn B. · Diulas hampir 2 tahun lalu

Too much to accomplish is one lab. Please break it up into small section. Also, please have an TRAINING PROFESSIONAL write the steps - TOO MUCH OVER EXPLAINING!!!

Carl N. · Diulas hampir 2 tahun lalu

Ông T. · Diulas hampir 2 tahun lalu

Ivan S. · Diulas hampir 2 tahun lalu

poor, the generated event file csv has not the correct encoding. hence the bucket cannot be json parsed. in the file user_generator.py change open("users_bq.txt", 'w') to open("users_bq.txt", 'w', encoding='utf-8') to fix it. encoding parm probably needs to be added at other places as well

Nils D. · Diulas hampir 2 tahun lalu

chirag l. · Diulas hampir 2 tahun lalu

Safeer K. · Diulas hampir 2 tahun lalu

Rafael T. · Diulas hampir 2 tahun lalu

Kami tidak dapat memastikan bahwa ulasan yang dipublikasikan berasal dari konsumen yang telah membeli atau menggunakan produk terkait. Ulasan tidak diverifikasi oleh Google.