向spark集群提交任務本機必須是linux環境嗎
1 回答

qq_花開花謝_0
TA貢獻1835條經驗 獲得超7個贊
開發環境:
操作系統:win8 64位
IDE:IntelliJ IDEA
JDK:1.7
scala:scala-2.11.7
spark:linux上spark集群版本:1.4.1,本地依賴spakr的jar直接拷貝linux上$SPARK_HOME/lib/spark-assembly-1.4.1-hadoop2.4.0.jar
maven關鍵依賴:
Xml代碼
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
</dependency>
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<!-- 進行LDA 會使用到一下jar,否則可不引入
- 1 回答
- 0 關注
- 838 瀏覽
添加回答
舉報
0/150
提交
取消