亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

我無法用spark編寫orc文件

我無法用spark編寫orc文件

GCT1015 2023-08-09 16:05:36
我正在嘗試向獸人寫入數據幀,但無濟于事。我正在使用 Spark 1.6 和 Java。我在本地計算機上運行,我嘗試安裝一些依賴項但沒有成功。我有一個工作火花,我想將其寫入 orc 文件,但此錯誤返回給我:Exception in thread "main" java.lang.ClassNotFoundException: Failed to find data source: orc. Please find packages at http://spark-packages.org    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$.lookupDataSource(ResolvedDataSource.scala:77)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$.apply(ResolvedDataSource.scala:219)    at org.apache.spark.sql.DataFrameWriter.save(DataFrameWriter.scala:148)    at org.apache.spark.sql.DataFrameWriter.save(DataFrameWriter.scala:139)    at Confiaveis.main(Confiaveis.java:96)Caused by: java.lang.ClassNotFoundException: orc.DefaultSource    at java.net.URLClassLoader.findClass(URLClassLoader.java:382)    at java.lang.ClassLoader.loadClass(ClassLoader.java:424)    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)    at java.lang.ClassLoader.loadClass(ClassLoader.java:357)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$$anonfun$4$$anonfun$apply$1.apply(ResolvedDataSource.scala:62)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$$anonfun$4$$anonfun$apply$1.apply(ResolvedDataSource.scala:62)    at scala.util.Try$.apply(Try.scala:192)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$$anonfun$4.apply(ResolvedDataSource.scala:62)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$$anonfun$4.apply(ResolvedDataSource.scala:62)    at scala.util.Try.orElse(Try.scala:84)    at org.apache.spark.sql.execution.datasources.ResolvedDataSource$.lookupDataSource(ResolvedDataSource.scala:62)    ... 4 more我用這個命令來寫:df.write().mode("append").format("orc").save("path");有誰知道我該如何解決這個問題?據我對 Spark 的了解,我知道這是他找不到的圖書館,但我找不到任何地方來澄清該圖書館是什么。
查看完整描述

1 回答

?
月關寶盒

TA貢獻1772條經驗 獲得超5個贊

嘗試


<dependency>

    <groupId>org.apache.spark</groupId>

    <artifactId>spark-hive_*your_version*</artifactId>

    <version>*your_version*</version>

    <scope>provided</scope>

</dependency>


查看完整回答
反對 回復 2023-08-09
  • 1 回答
  • 0 關注
  • 117 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號