Esecuzione di job Apache Spark su Cloud Dataproc recensioni
Caricamento in corso…
Nessun risultato trovato.

Applica le tue competenze nella console Google Cloud

Esecuzione di job Apache Spark su Cloud Dataproc recensioni

45694 recensioni

Riyaz-Basha S. · Recensione inserita 10 mesi fa

Dominik P. · Recensione inserita 10 mesi fa

David G. · Recensione inserita 10 mesi fa

Gene X. · Recensione inserita 10 mesi fa

SUMAN S. · Recensione inserita 10 mesi fa

good

SURYA R. · Recensione inserita 10 mesi fa

Claudio S. · Recensione inserita 10 mesi fa

Kuldeep B. · Recensione inserita 10 mesi fa

Roman H. · Recensione inserita 10 mesi fa

Could not open jupyter lab maybe because I am in europe

Laure P. · Recensione inserita 10 mesi fa

Tyree F. · Recensione inserita 10 mesi fa

Oren F. · Recensione inserita 10 mesi fa

Shankar P. · Recensione inserita 10 mesi fa

Manikandan M. · Recensione inserita 10 mesi fa

Prayoga S. · Recensione inserita 10 mesi fa

Srikanta P. · Recensione inserita 10 mesi fa

The project has been done

GIRIBABU M. · Recensione inserita 10 mesi fa

敬源 黃. · Recensione inserita 10 mesi fa

Latif I. · Recensione inserita 10 mesi fa

Jeferson Camilo S. · Recensione inserita 10 mesi fa

Jinou Y. · Recensione inserita 10 mesi fa

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Recensione inserita 10 mesi fa

Syed Dameem K. · Recensione inserita 10 mesi fa

Çağrı K. · Recensione inserita 10 mesi fa

Anthony R. · Recensione inserita 10 mesi fa

Non garantiamo che le recensioni pubblicate provengano da consumatori che hanno acquistato o utilizzato i prodotti. Le recensioni non sono verificate da Google.