Como executar jobs do Apache Spark no Cloud Dataproc avaliações
46069 avaliações
Anvesh P. · Revisado há over 2 years
Sergio R. · Revisado há over 2 years
Satyam S. · Revisado há over 2 years
Giuseppe P. · Revisado há over 2 years
Jerome v. · Revisado há over 2 years
Alberto Jose M. · Revisado há over 2 years
Albert K. · Revisado há over 2 years
Gaurav J. · Revisado há over 2 years
Mohamed Y. · Revisado há over 2 years
Davide C. · Revisado há over 2 years
Allister H. · Revisado há over 2 years
Leonardo R. · Revisado há over 2 years
This code didn't work Py4JavaError on last line: from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='378837530308' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5)
Louise O. · Revisado há over 2 years
Zaklina P. · Revisado há over 2 years
Stergios M. · Revisado há over 2 years
Zainab A. · Revisado há over 2 years
tushar s. · Revisado há over 2 years
Rhaydrick S. · Revisado há over 2 years
Rongzhi Z. · Revisado há over 2 years
Eduardo G. · Revisado há over 2 years
Provides an average understanding. Some of the button names have been updated on the tool/ dataproc compared to the instructions but was able to figure it out
Mario D. · Revisado há over 2 years
Yaozhi L. · Revisado há over 2 years
Aleksandr A. · Revisado há over 2 years
Daniel V. · Revisado há over 2 years
Fatih S. · Revisado há over 2 years
Não garantimos que as avaliações publicadas sejam de consumidores que compraram ou usaram os produtos. As avaliações não são verificadas pelo Google.