Opinie (Serverless Data Analysis with Dataflow: Side Inputs (Python))
41312 opinii
Prem shankar y. · Sprawdzono ponad 2 lata temu
Walter W. · Sprawdzono ponad 2 lata temu
Thamyaa A. · Sprawdzono ponad 2 lata temu
Islam T. · Sprawdzono ponad 2 lata temu
Xiao C. · Sprawdzono ponad 2 lata temu
Shiva C. · Sprawdzono ponad 2 lata temu
We keep getting this error, JavaProjectsThatNeedHelp.py:163: BeamDeprecationWarning: BigQuerySource is deprecated since 2.25.0. Use ReadFromBigQuery instead. bigqcollection = p | 'ReadFromBQ' >> beam.io.Read(beam.io.BigQuerySource(project=project,query=get_java_query)) /usr/local/lib/python3.9/dist-packages/apache_beam/io/gcp/bigquery.py:2485: BeamDeprecationWarning: options is deprecated since First stable release. References to <pipeline>.options will not be supported temp_location = pcoll.pipeline.options.view_as(
Waleed G. · Sprawdzono ponad 2 lata temu
Jai C. · Sprawdzono ponad 2 lata temu
Islam T. · Sprawdzono ponad 2 lata temu
Tamas S. · Sprawdzono ponad 2 lata temu
Andik A. · Sprawdzono ponad 2 lata temu
Tamas S. · Sprawdzono ponad 2 lata temu
Ashutosh D. · Sprawdzono ponad 2 lata temu
Jagadeesh N. · Sprawdzono ponad 2 lata temu
Matthieu C. · Sprawdzono ponad 2 lata temu
Zana O. · Sprawdzono ponad 2 lata temu
Allam V. · Sprawdzono ponad 2 lata temu
Sudarsan S. · Sprawdzono ponad 2 lata temu
Amine K. · Sprawdzono ponad 2 lata temu
Ben S. · Sprawdzono ponad 2 lata temu
OMKAR B. · Sprawdzono ponad 2 lata temu
ok
Sovers S. · Sprawdzono ponad 2 lata temu
gnanaarasan j. · Sprawdzono ponad 2 lata temu
Executing the pipeline on the cloud (Task 4, step 4) often results in the pipeline failing due to a ZONE_RESOURCE_POOL_EXHAUSTED error, and the instructions don't account for this error. The error can (probably) be suppressed right away by changing the region/zone of the job (by editing JavaProjectsThatNeedHelp.py, the relevant parameter is `'--region=us-central1',` at around line 155, and if you want to specify the zone you can add another parameter beside it called `'--worker_zone=<zone>'` — the zone MUST BE contained within the specified region), but it seems like changing to any region beside `us-central1` prevents the lab from counting the objective as completed. Alternatively, you can just wait and try again another time. I really think this lab should check whether the pipeline has been successfully run regardless of region, because an unlucky learner could end up hitting the resource pool exhausted error several times in a row and potentially be locked out of the lab while trying to debug it. I ran the lab 3 times before succeeding in `us-central1`. It also seems like people in other regions are persistently having another type of error, `'us-central1' violates constraint 'constraints/gcp.resourceLocations'`. If the lab accounted for work being done in different regions (and included some guidance about these potential errors), both of these issues would be easy to resolve. There are loads of people reporting the same issues in the reviews for this lab, the Java version of the lab, the Coursera forums for a Coursera course using this lab, and there is a GitHub issue about this on the training-data-analyst repo.
Nicholas C. · Sprawdzono ponad 2 lata temu
自分の進め方が悪かったのか、最後の[進行状況を確認]押しても完了できなかった GCSのバケットにはファイルが作成されており、ローカル・クラウドそれぞれで更新がかかっていた "error": { "code": 400, "message": "(5b4cea77a6d05a9d): 'us-central1' violates constraint 'constraints/gcp.resourceLocations' on the resource 'projects/qwiklabs-gcp-02-54459e55a7fd'.", "status": "FAILED_PRECONDITION"
Yuhei K. · Sprawdzono ponad 2 lata temu
Nie gwarantujemy, że publikowane opinie pochodzą od konsumentów, którzy dane produkty kupili lub ich używali. Google nie weryfikuje opinii.