Exécution de tâches Apache Spark sur Cloud Dataproc avis
Chargement...
Aucun résultat.

Mettez en pratique vos compétences dans la console Google Cloud

Exécution de tâches Apache Spark sur Cloud Dataproc avis

45383 avis

Oren F. · Examiné il y a 9 mois

Shankar P. · Examiné il y a 9 mois

Manikandan M. · Examiné il y a 9 mois

Prayoga S. · Examiné il y a 9 mois

Srikanta P. · Examiné il y a 9 mois

The project has been done

GIRIBABU M. · Examiné il y a 9 mois

敬源 黃. · Examiné il y a 9 mois

Latif I. · Examiné il y a 9 mois

Jeferson Camilo S. · Examiné il y a 9 mois

Jinou Y. · Examiné il y a 9 mois

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Examiné il y a 9 mois

Syed Dameem K. · Examiné il y a 9 mois

Çağrı K. · Examiné il y a 9 mois

Anthony R. · Examiné il y a 9 mois

Christopher H. · Examiné il y a 9 mois

Azhar B. · Examiné il y a 9 mois

Clément P. · Examiné il y a 9 mois

César R. · Examiné il y a 9 mois

Sanjay V. · Examiné il y a 9 mois

Naethree P. · Examiné il y a 9 mois

Mohan Babu N. · Examiné il y a 9 mois

Ignacio G. · Examiné il y a 9 mois

Juannean Y. · Examiné il y a 9 mois

Creative P. · Examiné il y a 9 mois

more examples using jobs from using service schedulers or schedule using cron from SSH

Jeinner Daniel B. · Examiné il y a 9 mois

Nous ne pouvons pas certifier que les avis publiés proviennent de consommateurs qui ont acheté ou utilisé les produits. Les avis ne sont pas vérifiés par Google.