Running Apache Spark jobs on Cloud Dataproc Reviews
46069 reviews
Anvesh P. · Reviewed מעל 2 שנים ago
Sergio R. · Reviewed מעל 2 שנים ago
Satyam S. · Reviewed מעל 2 שנים ago
Giuseppe P. · Reviewed מעל 2 שנים ago
Jerome v. · Reviewed מעל 2 שנים ago
Alberto Jose M. · Reviewed מעל 2 שנים ago
Albert K. · Reviewed מעל 2 שנים ago
Gaurav J. · Reviewed מעל 2 שנים ago
Mohamed Y. · Reviewed מעל 2 שנים ago
Davide C. · Reviewed מעל 2 שנים ago
Allister H. · Reviewed מעל 2 שנים ago
Leonardo R. · Reviewed מעל 2 שנים ago
This code didn't work Py4JavaError on last line: from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='378837530308' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5)
Louise O. · Reviewed מעל 2 שנים ago
Zaklina P. · Reviewed מעל 2 שנים ago
Stergios M. · Reviewed מעל 2 שנים ago
Zainab A. · Reviewed מעל 2 שנים ago
tushar s. · Reviewed מעל 2 שנים ago
Rhaydrick S. · Reviewed מעל 2 שנים ago
Rongzhi Z. · Reviewed מעל 2 שנים ago
Eduardo G. · Reviewed מעל 2 שנים ago
Provides an average understanding. Some of the button names have been updated on the tool/ dataproc compared to the instructions but was able to figure it out
Mario D. · Reviewed מעל 2 שנים ago
Yaozhi L. · Reviewed מעל 2 שנים ago
Aleksandr A. · Reviewed מעל 2 שנים ago
Daniel V. · Reviewed מעל 2 שנים ago
Fatih S. · Reviewed מעל 2 שנים ago
We do not ensure the published reviews originate from consumers who have purchased or used the products. Reviews are not verified by Google.