Serverless Data Processing with Dataflow - Writing an ETL pipeline using Apache Beam and Dataflow (Java) Ulasan
8777 ulasan
terrible lab
Piyush P. · Diulas lebih dari 4 tahun lalu
getting error [ERROR] Failed to execute goal org.codehaus.mojo:exec-maven-plugin:3.0.0:java (default-cli) on project advanced-dataflow-lab-1-lab: An exception occured while executing the Java class. BigQueryIO.Write needs a GCS temp location to store temp files. -
Olga K. · Diulas lebih dari 4 tahun lalu
I want Python, if available.
Steve V. · Diulas lebih dari 4 tahun lalu
Lakshman G. · Diulas lebih dari 4 tahun lalu
David V. · Diulas lebih dari 4 tahun lalu
IDE can't paste text so I had to write on local and upload to IDE
Zulayman Z. · Diulas lebih dari 4 tahun lalu
Luciano S. · Diulas lebih dari 4 tahun lalu
Luciano S. · Diulas lebih dari 4 tahun lalu
Gaurangkumar S. · Diulas lebih dari 4 tahun lalu
Daryl E. · Diulas lebih dari 4 tahun lalu
Daryl E. · Diulas lebih dari 4 tahun lalu
Daryl E. · Diulas lebih dari 4 tahun lalu
Too slow to load the artifacts. Time should be increased to 2.5hrs.
Sudeshna D. · Diulas lebih dari 4 tahun lalu
Eire F. · Diulas lebih dari 4 tahun lalu
Very satisfied
Emilien H. · Diulas lebih dari 4 tahun lalu
I really enjoyed this lab, thanks.
Juan P. · Diulas lebih dari 4 tahun lalu
Fun but failed. The "Create json schema file" check did not succeed, although the file was there. I took my time to write the code, but could not complete the final check, because the streaming job had not finished after 15 minutes. Also, fix the typo ("langauge")
Hubert S. · Diulas lebih dari 4 tahun lalu
DANTE E. · Diulas lebih dari 4 tahun lalu
DANTE E. · Diulas lebih dari 4 tahun lalu
OK -- It looks like I completed the last task successfully, but was not able to get 100% points :-/
Austin B. · Diulas lebih dari 4 tahun lalu
I cannot mark the "Creating a JSON schema file" as complete. After clicking "Check my progress" I'm getting a message telling that the objective was not met. I'm not sure now what the objective exactly is, but the description suggests that creating json schema file from an existing bigquery table and uploading it to gs://${PROJECT_ID}/schema.json is everything that is needed for this part.
Szymon K. · Diulas lebih dari 4 tahun lalu
Little information regarding dataflow deployment, the types of parameters that can be sent and vague explanation of fundamental concepts such as Pcollection, Ptransform etc.
cursos c. · Diulas lebih dari 4 tahun lalu
i will try again for the best
deni d. · Diulas lebih dari 4 tahun lalu
Kenneth Y. · Diulas lebih dari 4 tahun lalu
Sio K. · Diulas lebih dari 4 tahun lalu
Kami tidak dapat memastikan bahwa ulasan yang dipublikasikan berasal dari konsumen yang telah membeli atau menggunakan produk terkait. Ulasan tidak diverifikasi oleh Google.