報錯信息是:Error: Could not find or load main class org.apache.spark.launcher.Mainspark環境說明:(SPARK_HOME環境變量中我嘗試了自己編譯的和網上下載的,都報同一個錯誤)????spark-2.1.0-bin-2.6.0-cdh5.7.0 這個包是從網上下載的,? ??spark-2.4.3-bin-hadoop-2.6.0-cdh5.7.0 這個是我自己編譯源碼的:????????編譯命令:(最后能編譯成功)./dev/make-distribution.sh --name hadoop-2.6.0-cdh5.7.0?--tgz?-Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver -Dhadoop.version=2.6.0-cdh5.7.0????以下是我的環境變量配置信息:export SPARK_HOME=/home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0export PATH=$SPARK_HOME/bin:$PATHexport JAVA_HOME=/home/hadoop/app/jdk1.8.0_201export PATH=$JAVA_HOME/bin:$PATHexport MAVEN_HOME=/home/hadoop/app/apache-maven-3.6.1export PATH=$MAVEN_HOME/bin:$PATHexport HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0export PATH=$HADOOP_HOME/bin:$PATHexport HIVE_HOME=/home/hadoop/app/hive-1.1.0-cdh5.7.0export PATH=$HIVE_HOME/bin:$PATHexport SCALA_HOME=/home/hadoop/app/scala-2.11.8export PATH=$SCALA_HOME/bin:$PATH?
- 2 回答
- 0 關注
- 1744 瀏覽
添加回答
舉報
0/150
提交
取消