Hive安装和基本操作
一,Hive的安裝(Mac)
首先從官網 http://archive.apache.org/dist/hive/ 下載hive版本,解壓到 /usr/local目錄下
1.1環境配置
先通過 .bash_profile添加環境變量
sudo vim ~/.bash_profile
export HIVE_HOME=/usr/local/hive-2.2.0
export PATH=$PATH:$HIVE_HOME/bin
然後使添加的環境變量生效
source ~/.bash_profile
1.2 配置文件
需要修改的 Hive 配置文件都在/usr/local/hive-2.2.0/conf/`下,包括:
- hive-env.sh
- hive-log4j2.properties
1.2.1 hive-env.sh
修改hive-env.sh文件第48行和51行
48 HADOOP_HOME=/usr/local/hadoop-2.4.0
49
50 # Hive Configuration Directory can be controlled by:
51 export HIVE_CONF_DIR=/usr/local/hive-2.2.0/conf
1.2.2 hive-log4j2.properties
修改 hive-log4j2.properties文件的第24行
24 property.hive.log.dir = /usr/local/hive-2.2.0/logs
1.2.3 hive-site.xml
將hive-site.xml文件的configuration修改成以下內容
<configuration>
<!-- hive元数据地址,默认是/user/hive/warehouse -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!-- hive查询时输出列名 -->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<!-- 显示当前数据库名 -->
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<!-- 开启本地模式,默认是false -->
<property>
<name>hive.exec.mode.local.auto</name>
<value>true</value>
</property>
<!-- URL用于连接远程元数据 -->
<property>
<name>hive.metastore.uris</name>
<value>thrift://localhost:9083</value>
<description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
<!-- 元数据使用mysql数据库 -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&useSSL=false</value> <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value></value>
<description>password to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
</configuration>
1.2.4 配置元數據
先在hadoop中創建路徑
hdfs dfs -mkdir /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/warehouse #创建目录
hdfs dfs -chmod g+w /user/hive/tmp #修改文件权限
hdfs dfs -chmod g+w /user/hive/warehouse #修改文件权限
然後將MySQL驅動拷貝到hive的lib目錄下
cp mysql-connector-java-5.1.47.jar /usr/local/hive-2.2.0/lib
再初始化MySQL數據庫
schematool -initSchema -dbType mysql
若初始化成功,會打印以下內容
Starting metastore schema initialization to 2.3.0
Initialization script hive-schema-2.3.0.mysql.sql
Initialization script completed
schemaTool completed
最後開啟元數據
在开启元数据服务前必须 初始化mysql元数据库
如果设置了thriftURL,必须 开启元数据服务
nohup hive --service metastore & #开启元数据
1.3 啟動並測試
啟動hive
nohup hive --service metastore 2>&1 &
nohup hive --service hiveserver2 2>&1 &
在控制台輸入 hive
命令進入hive
hive (default)> show databases;
OK
database_name
default
Time taken: 1.845 seconds, Fetched: 1 row(s)
hive (default)> create database lmc;
OK
Time taken: 0.364 seconds
hive (default)> create table lmc.staff(
> name string,
> age int)
> row format delimited fields terminated by "\t";
OK
Time taken: 1.927 seconds
hive (default)> select * from lmc.staff
> ;
OK
staff.name staff.age
Time taken: 4.678 seconds
load data local inpath '/usr/local/hive-2.2.0/data/staff.txt' into table lmc.staff;
Loading data to table lmc.staff
OK
Time taken: 0.861 seconds
staff.txt
lmc 23
hh 24
注意:數據之間用tab鍵隔開
關閉hive
ps -ef|grep hive
kill -9 xxx
二,Hive的指令
2.1 基礎命令
show databases; # 查看某个数据库
use 数据库; # 进入某个数据库
show tables; # 展示所有表
desc 表名; # 显示表结构
show partitions 表名; # 显示表名的分区
show create table_name; # 显示创建表的结构
# 建表语句
# 内部表
use xxdb; create table xxx;
# 创建一个表,结构与其他一样
create table xxx like xxx;
# 外部表
use xxdb; create external table xxx;
# 分区表
use xxdb; create external table xxx (l int) partitoned by (d string)
# 内外部表转化
alter table table_name set TBLPROPROTIES ('EXTERNAL'='TRUE'); # 内部表转外部表
alter table table_name set TBLPROPROTIES ('EXTERNAL'='FALSE');# 外部表转内部表
# 表结构修改
# 重命名表
use xxxdb;
alter table table_name rename to new_table_name;
# 增加字段
alter table table_name add columns (newcol1 int comment ‘新增’);
# 修改字段
alter table table_name change col_name new_col_name new_type;
# 删除字段(COLUMNS中只放保留的字段)
alter table table_name replace columns (col1 int,col2 string,col3 string);
# 清空表(不分區)
truncate table table_name;
# 删除表
use xxxdb; drop table table_name;
# 删除分区
# 注意:若是外部表,则还需要删除文件(hadoop fs -rm -r -f hdfspath)
alter table table_name drop if exists partitions (d=‘2016-07-01');
三,Hive元數據
hive的元数据存在于mysql中,在mysql中会有一个hive库,存放相应的表,一共53张表。
3.1 元數據表
3.1.1 存储Hive版本的元数据表(VERSION)
该表比较简单,但很重要。
VER_ID | SCHEMA_VERSION | VERSION_COMMENT |
---|---|---|
ID主键 | Hive版本 | 版本说明 |
Hive1 | 2.1.0 | Hive release version 2.1.0 |
如果该表出现问题,根本进入不了Hive-Cli。
比如该表不存在,当启动Hive-Cli时候,就会报错”Table ‘hive.version’ doesn’t exist”。
3.1.2 Hive數據庫相關的元數據表(DBS,DATABASE_PARAMS)
- DBS
该表存储Hive中所有数据库的基本信息,字段如下:
DB_ID | DESC | DB_LOCATION_URI | NAME | OWNER_NAME | OWNER_TYPE |
---|---|---|---|---|---|
数据库ID | 数据库描述 | 数据库路徑 | 数据库名 | 数据库所有者用户名 | 所有者角色 |
1 | Default Hive database | hdfs://xxxx/warehouse | default | public | ROLE |
2 | NULL | hdfs://xxxx/warehouse/lmc.db | lmc | xx | USER |
- DATABASE_PARAMS
该表存储数据库的相关参数,在CREATE DATABASE时候用
WITH DBPROPERTIES (property_name=property_value, …)指定的参数
DB_ID | PARAM_KEY | PARAM_VALUE |
---|---|---|
数据库ID | 参数名 | 参数值 |
3.1.3 其他
Hive表和视图相关的元数据表
主要有TBLS、TABLE_PARAMS、TBL_PRIVS,这三张表通过TBL_ID关联。
- TBLS:该表中存储Hive表、视图、索引表的基本信息。
- TABLE_PARAMS:该表存储表/视图的属性信息。
- TBL_PRIVS:该表存储表/视图的授权信息
Hive文件存储信息相关的元数据表
主要涉及SDS、SD_PARAMS、SERDES、SERDE_PARAMS
由于HDFS支持的文件格式很多,而建Hive表时候也可以指定各种文件格式,Hive在将HQL解析成MapReduce时候,需要知道去哪里,使用哪种格式去读写HDFS文件,而这些信息就保存在这几张表中。
-
SDS:该表保存文件存储的基本信息,如INPUT_FORMAT、OUTPUT_FORMAT、是否压缩等。
-
SD_PARAMS:该表存储Hive存储的属性信息,在创建表时候使用。
STORED BY ‘storage.handler.class.name’ [WITH SERDEPROPERTIES (…)指定。
-
SERDES:该表存储序列化使用的类信息
-
SERDE_PARAMS:该表存储序列化的一些属性、格式信息,比如:行、列分隔符
Hive表分区相关的元数据表
主要涉及PARTITIONS、PARTITION_KEYS、PARTITION_KEY_VALS、PARTITION_PARAMS
- PARTITIONS:该表存储表分区的基本信息。
- PARTITION_KEYS:该表存储分区的字段信息。
- PARTITION_KEY_VALS:该表存储分区字段值。
- PARTITION_PARAMS:该表存储分区的属性信息。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/81598.html