Running Apache Spark jobs on Cloud Dataproc Reviews
46066 reviews
Praba V. · Reviewed больше 1 года ago
Tristan C. · Reviewed больше 1 года ago
Emily D. · Reviewed больше 1 года ago
Leonel A. · Reviewed больше 1 года ago
Manjunath K. · Reviewed больше 1 года ago
Leonardo H. · Reviewed больше 1 года ago
Hitesh K. · Reviewed больше 1 года ago
Vishnuvardhan P. · Reviewed больше 1 года ago
Mallikarjun S. · Reviewed больше 1 года ago
kishore m. · Reviewed больше 1 года ago
Leandro G. · Reviewed больше 1 года ago
Digvijay P. · Reviewed больше 1 года ago
Thomas G. · Reviewed больше 1 года ago
Olivier M. · Reviewed больше 1 года ago
Sotiria S. · Reviewed больше 1 года ago
Sushrut A. · Reviewed больше 1 года ago
Yuliia M. · Reviewed больше 1 года ago
Apporv D. · Reviewed больше 1 года ago
ok
Phoutthakone B. · Reviewed больше 1 года ago
There where some erros in the last part.
SERGIO ENRIQUE Y. · Reviewed больше 1 года ago
excellent experience
Diego C. · Reviewed больше 1 года ago
Luigino N. · Reviewed больше 1 года ago
Hello, I found an issue where I had to replace the name "sparktodp" by the correct name of my cluster ("cluster-e93e") in the command and script below: export DP_STORAGE="gs://$(gcloud dataproc clusters describe sparktodp --region=us-east1 --format=json | jq -r '.config.configBucket')" #!/bin/bash gcloud dataproc jobs submit pyspark \ --cluster sparktodp \ --region us-east1 \ spark_analysis.py \ -- --bucket=$1
Crhistian S. · Reviewed больше 1 года ago
Great learning!
Jitendra J. · Reviewed больше 1 года ago
Sandra C. · Reviewed больше 1 года ago
We do not ensure the published reviews originate from consumers who have purchased or used the products. Reviews are not verified by Google.