Running Apache Spark jobs on Cloud Dataproc Reviews

46069 reviews

Anvesh P. · Reviewed מעל 2 שנים ago

Sergio R. · Reviewed מעל 2 שנים ago

Satyam S. · Reviewed מעל 2 שנים ago

Giuseppe P. · Reviewed מעל 2 שנים ago

Jerome v. · Reviewed מעל 2 שנים ago

Alberto Jose M. · Reviewed מעל 2 שנים ago

Albert K. · Reviewed מעל 2 שנים ago

Gaurav J. · Reviewed מעל 2 שנים ago

Mohamed Y. · Reviewed מעל 2 שנים ago

Davide C. · Reviewed מעל 2 שנים ago

Allister H. · Reviewed מעל 2 שנים ago

Leonardo R. · Reviewed מעל 2 שנים ago

This code didn't work Py4JavaError on last line: from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='378837530308' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5)

Louise O. · Reviewed מעל 2 שנים ago

Zaklina P. · Reviewed מעל 2 שנים ago

Stergios M. · Reviewed מעל 2 שנים ago

Zainab A. · Reviewed מעל 2 שנים ago

tushar s. · Reviewed מעל 2 שנים ago

Rhaydrick S. · Reviewed מעל 2 שנים ago

Rongzhi Z. · Reviewed מעל 2 שנים ago

Eduardo G. · Reviewed מעל 2 שנים ago

Provides an average understanding. Some of the button names have been updated on the tool/ dataproc compared to the instructions but was able to figure it out

Mario D. · Reviewed מעל 2 שנים ago

Yaozhi L. · Reviewed מעל 2 שנים ago

Aleksandr A. · Reviewed מעל 2 שנים ago

Daniel V. · Reviewed מעל 2 שנים ago

Fatih S. · Reviewed מעל 2 שנים ago

We do not ensure the published reviews originate from consumers who have purchased or used the products. Reviews are not verified by Google.