Exécution de tâches Apache Spark sur Cloud Dataproc avis
Chargement...
Aucun résultat.

Mettez en pratique vos compétences dans la console Google Cloud

Exécution de tâches Apache Spark sur Cloud Dataproc avis

45694 avis

Riyaz-Basha S. · Examiné il y a 10 mois

Dominik P. · Examiné il y a 10 mois

David G. · Examiné il y a 10 mois

Gene X. · Examiné il y a 10 mois

SUMAN S. · Examiné il y a 10 mois

good

SURYA R. · Examiné il y a 10 mois

Claudio S. · Examiné il y a 10 mois

Kuldeep B. · Examiné il y a 10 mois

Roman H. · Examiné il y a 10 mois

Could not open jupyter lab maybe because I am in europe

Laure P. · Examiné il y a 10 mois

Tyree F. · Examiné il y a 10 mois

Oren F. · Examiné il y a 10 mois

Shankar P. · Examiné il y a 10 mois

Manikandan M. · Examiné il y a 10 mois

Prayoga S. · Examiné il y a 10 mois

Srikanta P. · Examiné il y a 10 mois

The project has been done

GIRIBABU M. · Examiné il y a 10 mois

敬源 黃. · Examiné il y a 10 mois

Latif I. · Examiné il y a 10 mois

Jeferson Camilo S. · Examiné il y a 10 mois

Jinou Y. · Examiné il y a 10 mois

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Examiné il y a 10 mois

Syed Dameem K. · Examiné il y a 10 mois

Çağrı K. · Examiné il y a 10 mois

Anthony R. · Examiné il y a 10 mois

Nous ne pouvons pas certifier que les avis publiés proviennent de consommateurs qui ont acheté ou utilisé les produits. Les avis ne sont pas vérifiés par Google.