Running Apache Spark jobs on Cloud Dataproc Rezensionen
46083 Rezensionen
Gene X. · Vor mehr als ein Jahr überprüft
SUMAN S. · Vor mehr als ein Jahr überprüft
good
SURYA R. · Vor mehr als ein Jahr überprüft
Claudio S. · Vor mehr als ein Jahr überprüft
Kuldeep B. · Vor mehr als ein Jahr überprüft
Roman H. · Vor mehr als ein Jahr überprüft
Could not open jupyter lab maybe because I am in europe
Laure P. · Vor mehr als ein Jahr überprüft
Tyree F. · Vor mehr als ein Jahr überprüft
Oren F. · Vor mehr als ein Jahr überprüft
Shankar P. · Vor mehr als ein Jahr überprüft
Manikandan M. · Vor mehr als ein Jahr überprüft
Prayoga S. · Vor mehr als ein Jahr überprüft
Srikanta P. · Vor mehr als ein Jahr überprüft
The project has been done
GIRIBABU M. · Vor mehr als ein Jahr überprüft
敬源 黃. · Vor mehr als ein Jahr überprüft
Latif I. · Vor mehr als ein Jahr überprüft
Jeferson Camilo S. · Vor mehr als ein Jahr überprüft
Jinou Y. · Vor mehr als ein Jahr überprüft
Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz
Richard S. · Vor mehr als ein Jahr überprüft
Syed Dameem K. · Vor mehr als ein Jahr überprüft
Çağrı K. · Vor mehr als ein Jahr überprüft
Anthony R. · Vor mehr als ein Jahr überprüft
Christopher H. · Vor mehr als ein Jahr überprüft
Azhar B. · Vor mehr als ein Jahr überprüft
Clément P. · Vor mehr als ein Jahr überprüft
Wir können nicht garantieren, dass die veröffentlichten Rezensionen von Verbrauchern stammen, die die Produkte gekauft oder genutzt haben. Die Rezensionen werden von Google nicht überprüft.