一、Mysql无主机登录
进入数据库,展示User表的结构、查询该表,修改User表中的“host=‘%’ ”(通配符),并删除root用户的其他host
mysql> use mysql;
mysql>select user,host,password from user;
+------+-----------+-------------------------------------------+
| user | host | password |
+------+-----------+-------------------------------------------+
| root | localhost | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | master | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | 127.0.0.1 | |
| | localhost | |
| | master | |
+------+-----------+-------------------------------------------+
mysql> update user set host='%' where host='localhost'; //"%"为通配符
Query OK, 2 rows affected (0.00 sec)
Rows matched: 2 Changed: 2 Warnings: 0
mysql> delete from user where Host='master' //删除多余用户
-> ;
Query OK, 2 rows affected (0.00 sec)
mysql> delete from user where Host='127.0.0.1';
Query OK, 1 row affected (0.00 sec)
mysql> delete from user where user=' ';
Query OK, 1 row affected (0.00 sec)
mysql> select user,host,password from user;
+------+------+-------------------------------------------+
| user | host | password |
+------+------+-------------------------------------------+
| root | % | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
+------+------+-------------------------------------------+
1 row in set (0.00 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
二、Beeline
启动binserver2服务,启动beeline。使用第三方工具需要开启该服务。
[root@master hive-1.2.2]#bin/hiveserver2
[root@master hive-1.2.2]#bin/beeline
Beeline version 1.2.1 by Apache Hive
beeline>
三、修改配置参数
1、修改 hive-site.xml
2、进入Hive命令行设置
hive>dfs -ls/; //查看hdfs文件
hive>! ls /home; //查看linux本地文件
hive> set mapred.reduce.tasks=50;设置参数
四、Hive数据类型
常用:
int 4byte有符号整数
bigint 8byte有符号整数
double 双精度浮点
string 可变字符串,理论上最多2G字符
查询方法:
Array [0] //脚标 0、1、2
Map [key]
struct .属性名
create table test( name string,
friends array<string>, children map<string, int>,
address struct<street:string, city:string>
)
row format delimited fields terminated by ','
collection items terminated by '_' map keys terminated by ':'
lines terminated by '\n';
hive (default)>load data local inpath "/home/data/test.txt" into table test;
hive(default)>select friends[1],children['xaio song'],address.city from test;
OK
_c0 _c1 city
lili 18 beijing
Time taken: 0.076 seconds, Fetched: 1 row(s)
四、DDL数据定义
1、建
1) 创建一个数据库,数据库在HDFS 上的默认存储路径是/user/hive/warehouse/*.db
hive (default)> create database hive;
也可以
hive (default)> create database XXX location 'hadooppath'
2、查
1)显示数据库分支持模糊查询
hive(default)> show databases;
hive (default)> show databases like 'h*';
OK
database_name
hive
Time taken: 0.068 seconds, Fetched: 1 row(s)
2)查看数据库详情
hive (hive)> desc database hive; //显示数据库信息
hive (hive)> desc database extended hive; //显示数据库详细信息
3、修改数据库
用户可以使用 ALTER DATABASE 命令为某个数据库的 DBPROPERTIES 设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。
hive(default)> alter database hive set dbproperties('createtime'='20170830');
hive(default)> desc database extended db_hive;
XXXXXXXXXXXXXXXXXXXX
XXXXXXXXXXXXX{createtime=20170830}
4、删除数据库
hive (hive)>drop database hive; //删空数据库
hive (hive)>drop database hive cascade; //强制删除
五、建表
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] [ROW FORMAT row_format]
[STORED AS file_format] [LOCATION hdfs_path]
字段解释说明
(1) CREATE TABLE 创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;用户可以用 IF NOT EXISTS 选项来忽略这个异常。
(2) EXTERNAL 关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。
(3) COMMENT:为表和列添加注释。
(4) PARTITIONED BY 创建分区表
(5) CLUSTERED BY 创建分桶表
(6) SORTED BY 不常用
(7) ROW FORMAT
DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]
用户在建表的时候可以自定义 SerDe 或者使用自带的 SerDe。如果没有指定 ROW FORMAT 或者 ROW FORMAT DELIMITED,将会使用自带的 SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的 SerDe,Hive 通过 SerDe 确定表的具体的列的数据。
SerDe 是 Serialize/Deserilize 的简称,目的是用于序列化和反序列化。
(8)STORED AS 指定存储文件类型
常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)如果文件数据是纯文本,可以使用 STORED AS TEXTFILE。如果数据需要压缩, 使用 STORED AS SEQUENCEFILE。
(9)LOCATION :指定表在HDFS 上的存储位置。
(10)LIKE 允许用户复制现有的表结构,但是不复制数据。
内部表(管理表)和外部表
·内部表删表删数据
·外部表删表不删数据
外部表删除后重新创建表 可自动连接数据
管理表和外部表可以互相转换