Cloud Dataproc で Apache Spark ジョブを実行する のレビュー
読み込んでいます...
一致する結果は見つかりませんでした。

Google Cloud コンソールでスキルを試す

Cloud Dataproc で Apache Spark ジョブを実行する のレビュー

45383 件のレビュー

Fadloun Oren · 9ヶ月前にレビュー済み

Patil Shankar · 9ヶ月前にレビュー済み

Muthiah Manikandan · 9ヶ月前にレビュー済み

Sujono Prayoga · 9ヶ月前にレビュー済み

Pradhan Srikanta · 9ヶ月前にレビュー済み

The project has been done

MADAPALA GIRIBABU · 9ヶ月前にレビュー済み

黃 敬源 · 9ヶ月前にレビュー済み

Ismail Latif · 9ヶ月前にレビュー済み

Sanchez Lopez Jeferson Camilo · 9ヶ月前にレビュー済み

Yang Jinou · 9ヶ月前にレビュー済み

Unable to finish lab due to error Modified INPUT for LAB from pyspark.sql import SparkSession, SQLContext, Row gcs_bucket='[qwiklabs-gcp-01-31c23a3b2c2f]' spark = SparkSession.builder.appName("kdd").getOrCreate() sc = spark.sparkContext data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" raw_rdd = sc.textFile(data_file).cache() raw_rdd.take(5) OUTPUT: Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 24/11/18 23:53:00 INFO SparkEnv: Registering MapOutputTracker 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMaster 24/11/18 23:53:00 INFO SparkEnv: Registering BlockManagerMasterHeartbeat 24/11/18 23:53:00 INFO SparkEnv: Registering OutputCommitCoordinator --------------------------------------------------------------------------- IllegalArgumentException Traceback (most recent call last) /tmp/ipykernel_13667/2491634418.py in <cell line: 8>() 6 data_file = "gs://"+gcs_bucket+"//kddcup.data_10_percent.gz" 7 raw_rdd = sc.textFile(data_file).cache() ----> 8 raw_rdd.take(5) /usr/lib/spark/python/pyspark/rdd.py in take(self, num) 1848 """ 1849 items: List[T] = [] -> 1850 totalParts = self.getNumPartitions() 1851 partsScanned = 0 1852 /usr/lib/spark/python/pyspark/rdd.py in getNumPartitions(self) 597 2 598 """ --> 599 return self._jrdd.partitions().size() 600 601 def filter(self: "RDD[T]", f: Callable[[T], bool]) -> "RDD[T]": /opt/conda/miniconda3/lib/python3.10/site-packages/py4j/java_gateway.py in __call__(self, *args) 1319 1320 answer = self.gateway_client.send_command(command) -> 1321 return_value = get_return_value( 1322 answer, self.gateway_client, self.target_id, self.name) 1323 /usr/lib/spark/python/pyspark/sql/utils.py in deco(*a, **kw) 194 # Hide where the exception came from that shows a non-Pythonic 195 # JVM exception message. --> 196 raise converted from None 197 else: 198 raise IllegalArgumentException: java.net.URISyntaxException: Malformed IPv6 address at index 6: gs://[qwiklabs-gcp-01-31c23a3b2c2f]/kddcup.data_10_percent.gz

Scott Richard · 9ヶ月前にレビュー済み

Kasali Syed Dameem · 9ヶ月前にレビュー済み

Köz Çağrı · 9ヶ月前にレビュー済み

Rosinetti Anthony · 9ヶ月前にレビュー済み

Hertzog Christopher · 9ヶ月前にレビュー済み

Bessrour Azhar · 9ヶ月前にレビュー済み

Prunier Clément · 9ヶ月前にレビュー済み

Rellán Vega César · 9ヶ月前にレビュー済み

Vadher Sanjay · 9ヶ月前にレビュー済み

Premnath Naethree · 9ヶ月前にレビュー済み

Narusu Mohan Babu · 9ヶ月前にレビュー済み

Garate Ignacio · 9ヶ月前にレビュー済み

Young Juannean · 9ヶ月前にレビュー済み

Pup Creative · 9ヶ月前にレビュー済み

more examples using jobs from using service schedulers or schedule using cron from SSH

Baez Jeinner Daniel · 9ヶ月前にレビュー済み

公開されたレビューが、製品を購入または使用した人によるものであることは保証されません。Google はこれらのレビューの検証を行っていません。