Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc
Cargando…
No se encontraron resultados.

Aplica tus habilidades en la consola de Google Cloud

Opiniones sobre Cómo ejecutar trabajos de Apache Spark en Cloud Dataproc

45383 opiniones

Oren F. · Se revisó hace 9 meses

Shankar P. · Se revisó hace 9 meses

Manikandan M. · Se revisó hace 9 meses

Prayoga S. · Se revisó hace 9 meses

Srikanta P. · Se revisó hace 9 meses

The project has been done

GIRIBABU M. · Se revisó hace 9 meses

敬源 黃. · Se revisó hace 9 meses

Latif I. · Se revisó hace 9 meses

Jeferson Camilo S. · Se revisó hace 9 meses

Jinou Y. · Se revisó hace 9 meses

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Richard S. · Se revisó hace 9 meses

Syed Dameem K. · Se revisó hace 9 meses

Çağrı K. · Se revisó hace 9 meses

Anthony R. · Se revisó hace 9 meses

Christopher H. · Se revisó hace 9 meses

Azhar B. · Se revisó hace 9 meses

Clément P. · Se revisó hace 9 meses

César R. · Se revisó hace 9 meses

Sanjay V. · Se revisó hace 9 meses

Naethree P. · Se revisó hace 9 meses

Mohan Babu N. · Se revisó hace 9 meses

Ignacio G. · Se revisó hace 9 meses

Juannean Y. · Se revisó hace 9 meses

Creative P. · Se revisó hace 9 meses

more examples using jobs from using service schedulers or schedule using cron from SSH

Jeinner Daniel B. · Se revisó hace 9 meses

No garantizamos que las opiniones publicadas provengan de consumidores que hayan comprado o utilizado los productos. Google no verifica las opiniones.