亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
使用Oracle作為元數據的數據庫時,Oracle只能有一個LongVarchar,所以建表會報錯,Hive給出的建議是修改hive-metastore-0.13.0.jar中的package.jdo文件。
將VIEW_ORIGINAL_TEXT、VIEW_EXPANDED_TEXT的jdbc-type改為CLOB
如果使用Oracle作為元數據的數據庫:
hive-site.xml改為:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:oracle:thin:@IP:Port/Service_Name</value>
</property>

<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>oracle.jdbc.driver.OracleDriver</value>
</property>
我的hive啟動之后只創建了14張表,沒有TBLS表
外部表指向已經在 HDFS 中存在數據的文件,可以創建 Partition。它和內部表在元數據的組織上是相同的,而數據的存儲則有較大的差異。

內部表的創建過程和數據加載過程(這兩個過程可以在同一個語句中完成),在加載數據的過程中,實際數據會被移動到數據倉庫目錄中;之后對數據的訪問將會直接在數據倉庫目錄中完成。刪除表時,表中的數據和元數據將會被同時刪除。

而外部表只有一個過程,加載數據和創建表同時完成,實際數據是存儲在 LOCATION 后面指定的 HDFS 路徑中,實際數并不會移動到數據倉庫目錄中。

當刪除一個外部表時,僅刪除元數據,表中的數據不會真正被刪除。
常見的 Hive CLI 命令:
- 清屏:Ctrl + L 或者 !clear;
- 查看數據倉庫中的數據庫:show databases;
- 查看數據倉庫中的表:show tables;
- 查看表結構:`desc tb_name;`或`describe tb_name;`
- 查看建表語句:`show create table tb_name;`
- 查看數據倉庫中的內置函數:`show functions;`
- 查看 HDFS 上的文件:`dfs -ls hdfs_dir;`
- 執行 Linux 操作系統的命令:`!命令;`
- 執行 SQL 腳本:`source SQL文件`
Hive 依賴于 JDK 和 Hadoop,所以需要提前安裝好 JDK 和 Hadoop 環境。
Hive 中的數據存儲在 Hadoop HDFS 中,Hive 中的表和數據其實就是 HDFS 中的目錄和文件:
- 在 Hive 中創建一張表就會自動在 HDFS 中創建一個文件夾
- 在該表中保存數據也就相當于在這個文件夾下面存儲文件。
- 可以在 hive-site.xml 中指定數據倉庫的目錄:hive.metastore.warehouse.dir
hive已經安裝了,以及xml配置好了,但是運行hive,mysql里沒有創建表,
原因
之前初始化保存元數據的默認數據庫為derby
現在運行初始化Hive在mysql里的腳本 $HIVE_HOME/scripts

schematool -initSchema -dbType mysql
https://cdn.mysql.com//Downloads/Connector-J/mysql-connector-java-8.0.11.tar.gz
<?xml version="1.0" ?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1:3306/hive</value>
</property>
https://cwiki.apache.org/confluence/display/Hive/AdminManual+MetastoreAdmin
清華的員
https://mirrors.tuna.tsinghua.edu.cn/apache/hive
https://mirrors.tuna.tsinghua.edu.cn/apache/hive/
## Hive 數據類型
基本數據類型:
- 整型:tinyint/smallint/int/bifint
- 浮點型:float/double
- 布爾型:boolean
- 字符串型:string/varchar/char

時間類型:
- Date:從 Hive 0.12 開始支持
- Timestamp:從 Hive 0.8 開始支持

復雜數據類型:
- Array:數組類型,由一系列具有相同數據類型的元素組成
- Map:集合類型,鍵值對(key/value)形式,可以通過key來訪問元素
- Struct:結構類型,包含不同數據類型的元素,這些元素可以通過“點語法”訪問元素。
常見的 Hive CLI 命令:

清屏:Ctrl + L 或者 !clear;
查看數據倉庫中的表:show tables;
查看數據倉庫中的內置函數:show functions;
查看表結構:desc tb_name;或describe tb_name
查看 HDFS 上的文件:dfs -ls hdfs_dir;
執行Linux操作系統的命令:!命令;
執行SQL腳本:source SQL文件,與MySQL一樣。
執行HQL語句:select * from tb_name;
課程須知
1、熟練掌握Hadoop的體系結構,尤其是HDFS 2、熟悉Java編程 3、了解Linux的基本操作
老師告訴你能學到什么?
1、數據倉庫簡介 2、Hive是什么? 3、Hive的體系結構 4、Hive的安裝與管理 5、Hive的數據類型 6、Hive的數據模型

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!

本次提問將花費2個積分

你的積分不足,無法發表

為什么扣積分?

本次提問將花費2個積分

繼續發表請點擊 "確定"

為什么扣積分?

舉報

0/150
提交
取消