Running Apache Spark jobs on Cloud Dataproc Reviews

46066 reviews

Praba V. · Reviewed больше 1 года ago

Tristan C. · Reviewed больше 1 года ago

Emily D. · Reviewed больше 1 года ago

Leonel A. · Reviewed больше 1 года ago

Manjunath K. · Reviewed больше 1 года ago

Leonardo H. · Reviewed больше 1 года ago

Hitesh K. · Reviewed больше 1 года ago

Vishnuvardhan P. · Reviewed больше 1 года ago

Mallikarjun S. · Reviewed больше 1 года ago

kishore m. · Reviewed больше 1 года ago

Leandro G. · Reviewed больше 1 года ago

Digvijay P. · Reviewed больше 1 года ago

Thomas G. · Reviewed больше 1 года ago

Olivier M. · Reviewed больше 1 года ago

Sotiria S. · Reviewed больше 1 года ago

Sushrut A. · Reviewed больше 1 года ago

Yuliia M. · Reviewed больше 1 года ago

Apporv D. · Reviewed больше 1 года ago

ok

Phoutthakone B. · Reviewed больше 1 года ago

There where some erros in the last part.

SERGIO ENRIQUE Y. · Reviewed больше 1 года ago

excellent experience

Diego C. · Reviewed больше 1 года ago

Luigino N. · Reviewed больше 1 года ago

Hello, I found an issue where I had to replace the name "sparktodp" by the correct name of my cluster ("cluster-e93e") in the command and script below: export DP_STORAGE="gs://$(gcloud dataproc clusters describe sparktodp --region=us-east1 --format=json | jq -r '.config.configBucket')" #!/bin/bash gcloud dataproc jobs submit pyspark \ --cluster sparktodp \ --region us-east1 \ spark_analysis.py \ -- --bucket=$1

Crhistian S. · Reviewed больше 1 года ago

Great learning!

Jitendra J. · Reviewed больше 1 года ago

Sandra C. · Reviewed больше 1 года ago

We do not ensure the published reviews originate from consumers who have purchased or used the products. Reviews are not verified by Google.