Como executar jobs do Apache Spark no Cloud Dataproc avaliações

46069 avaliações

Anvesh P. · Revisado há over 2 years

Sergio R. · Revisado há over 2 years

Satyam S. · Revisado há over 2 years

Giuseppe P. · Revisado há over 2 years

Jerome v. · Revisado há over 2 years

Alberto Jose M. · Revisado há over 2 years

Albert K. · Revisado há over 2 years

Gaurav J. · Revisado há over 2 years

Mohamed Y. · Revisado há over 2 years

Davide C. · Revisado há over 2 years

Allister H. · Revisado há over 2 years

Leonardo R. · Revisado há over 2 years

This code didn't work Py4JavaError on last line: from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='378837530308' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5)

Louise O. · Revisado há over 2 years

Zaklina P. · Revisado há over 2 years

Stergios M. · Revisado há over 2 years

Zainab A. · Revisado há over 2 years

tushar s. · Revisado há over 2 years

Rhaydrick S. · Revisado há over 2 years

Rongzhi Z. · Revisado há over 2 years

Eduardo G. · Revisado há over 2 years

Provides an average understanding. Some of the button names have been updated on the tool/ dataproc compared to the instructions but was able to figure it out

Mario D. · Revisado há over 2 years

Yaozhi L. · Revisado há over 2 years

Aleksandr A. · Revisado há over 2 years

Daniel V. · Revisado há over 2 years

Fatih S. · Revisado há over 2 years

Não garantimos que as avaliações publicadas sejam de consumidores que compraram ou usaram os produtos. As avaliações não são verificadas pelo Google.