Esecuzione di job Apache Spark su Cloud Dataproc recensioni
Caricamento in corso…
Nessun risultato trovato.

Applica le tue competenze nella console Google Cloud

Esecuzione di job Apache Spark su Cloud Dataproc recensioni

45388 recensioni

Claudio S. · Recensione inserita 9 mesi fa

Kuldeep B. · Recensione inserita 9 mesi fa

Roman H. · Recensione inserita 9 mesi fa

Could not open jupyter lab maybe because I am in europe

Laure P. · Recensione inserita 9 mesi fa

Tyree F. · Recensione inserita 9 mesi fa

Oren F. · Recensione inserita 9 mesi fa

Shankar P. · Recensione inserita 9 mesi fa

Manikandan M. · Recensione inserita 9 mesi fa

Prayoga S. · Recensione inserita 9 mesi fa

Srikanta P. · Recensione inserita 9 mesi fa

The project has been done

GIRIBABU M. · Recensione inserita 9 mesi fa

敬源 黃. · Recensione inserita 9 mesi fa

Latif I. · Recensione inserita 9 mesi fa

Jeferson Camilo S. · Recensione inserita 9 mesi fa

Jinou Y. · Recensione inserita 9 mesi fa

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Recensione inserita 9 mesi fa

Syed Dameem K. · Recensione inserita 9 mesi fa

Çağrı K. · Recensione inserita 9 mesi fa

Anthony R. · Recensione inserita 9 mesi fa

Christopher H. · Recensione inserita 9 mesi fa

Azhar B. · Recensione inserita 9 mesi fa

Clément P. · Recensione inserita 9 mesi fa

César R. · Recensione inserita 9 mesi fa

Sanjay V. · Recensione inserita 9 mesi fa

Naethree P. · Recensione inserita 9 mesi fa

Non garantiamo che le recensioni pubblicate provengano da consumatori che hanno acquistato o utilizzato i prodotti. Le recensioni non sono verificate da Google.