Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc
Cargando…
No se encontraron resultados.

Aplica tus habilidades en la consola de Google Cloud

Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc

45694 opiniones

Riyaz-Basha S. · Se revisó hace 10 meses

Dominik P. · Se revisó hace 10 meses

David G. · Se revisó hace 10 meses

Gene X. · Se revisó hace 10 meses

SUMAN S. · Se revisó hace 10 meses

good

SURYA R. · Se revisó hace 10 meses

Claudio S. · Se revisó hace 10 meses

Kuldeep B. · Se revisó hace 10 meses

Roman H. · Se revisó hace 10 meses

Could not open jupyter lab maybe because I am in europe

Laure P. · Se revisó hace 10 meses

Tyree F. · Se revisó hace 10 meses

Oren F. · Se revisó hace 10 meses

Shankar P. · Se revisó hace 10 meses

Manikandan M. · Se revisó hace 10 meses

Prayoga S. · Se revisó hace 10 meses

Srikanta P. · Se revisó hace 10 meses

The project has been done

GIRIBABU M. · Se revisó hace 10 meses

敬源 黃. · Se revisó hace 10 meses

Latif I. · Se revisó hace 10 meses

Jeferson Camilo S. · Se revisó hace 10 meses

Jinou Y. · Se revisó hace 10 meses

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Se revisó hace 10 meses

Syed Dameem K. · Se revisó hace 10 meses

Çağrı K. · Se revisó hace 10 meses

Anthony R. · Se revisó hace 10 meses

No garantizamos que las opiniones publicadas provengan de consumidores que hayan comprado o utilizado los productos. Google no verifica las opiniones.