最新回答 / weibo_風清綠茵_03299175
你可以運行hive時先把hive查詢的結果保存在一個linux本地上的一個臨時文件中,然后用linux指令把linux上的臨時文件下載到本地文件中
2017-08-27
最新回答 / 慕粉1054033006
安裝在Master節點。Hive的HQL最終的執行總是會轉換為M/D任務的,那么自然要在JobTracker上執行,通過JobTracker交給TaskTracker執行。
2017-04-25
最贊回答 / 黃老虎
這里有兩個問題:1 哈希運算2 索引關于第一個問題,我猜你是指Hive的bucket table吧?假如我沒猜錯,那hash計算達到的目的其實是將數據切片,這樣這些數據片可以比較均勻得分布在分布式系統的不同的節點上,查詢的時候呢也可以盡量運用多個節點的并行計算能力來提高查詢速度。第2個問題,索引是一種數據結構,比如紅黑樹。設想一下,如果要從10個數字里找出任意一個數字所在的位置,如果不借助數據結構,就必須逐一核實(從位置1到位置10,一個個確認是不是要找的數字),而將數據用數據結構組織起來(二分查找法),...
2017-04-03
最新回答 / qalong
不僅是查詢單個字段,涉及到函數,條件等數據處理、篩選的時候都會需要對數據進行過濾。只要涉及到了數據的過濾處理,都需要用MR來實現。select * from 可以認為是原樣輸出,所以不需要MR。MR任務需要編譯、任務下發等一系列操作,所以速度會慢一些。
2017-03-17
已采納回答 / Acerreca
這里混淆了兩個概念:數據倉庫的更新數據倉庫中數據的更新數據倉庫一定要更新的,因為不斷的將OLTP產生的數據通過ETL導入數據倉庫中。但是,已經導入數據倉庫中的數據,是不會更新的,換句話說,一條數據進入了數據倉庫,就不會再做任何改變。如果想要對已有的數據進行更改,只會產生新的數據,再次倒入數據倉庫。這是因為,數據倉庫是用來做決策分析的。過去的所有數據,都是代表了當時的狀態,所以不可以有任何改變。就像歷史一樣,已經成為事實的東西,是不能改變的。
2017-02-24