如何配置hive,使hive能使用spark引擎
1 回答

陪伴而非守候
TA貢獻1757條經驗 獲得超8個贊
1、為了讓Spark能夠連接到Hive的原有數據倉庫,我們需要將Hive中的hive-site.xml文件拷貝到Spark的conf目錄下,這樣就可以通過這個配置文件找到Hive的元數據以及數據存放。
在這里由于我的Spark是自動安裝和部署的,因此需要知道CDH將hive-site.xml放在哪里。經過摸索。該文件默認所在的路徑是:/etc/hive/conf 下。
同理,spark的conf也是在/etc/spark/conf。
此時,如上所述,將對應的hive-site.xml拷貝到spark/conf目錄下即可
如果Hive的元數據存放在Mysql中,我們還需要準備好Mysql相關驅動,比如:mysql-connector-java-5.1.22-bin.jar。
- 1 回答
- 0 關注
- 3151 瀏覽
添加回答
舉報
0/150
提交
取消