网上找了很多资料,原想使用一个docker一个docker的启动Hive,灵活一些,测试了几个方案,发现使用docker-compose方式,即是最快速实用的。
参考URL:
https://zhuanlan.zhihu.com/p/414797007
https://www.cnblogs.com/upupfeng/p/13452385.html#%E9%83%A8%E7%BD%B2hive
一,安装docker及docker-compose
按下不表
二,获取github上的docker-hive
git cloe https://github.com/big-data-europe/docker-hive
项目地址:GitHub - big-data-europe/docker-hive
速度太慢可以使用
git clone https://github.com.cnpmjs.org/big-data-europe/docker-hive
三,启动docker-compose服务
进入项目目录,也就是有docker-compose.yml文件的目录,运行如下命令:
docker-compose up -d
四,测试hadoop的web界面
http://192.168.1.111:50070/
附送一个presto
http://192.168.1.111:8080/
五,测试hive的命令行功能
create table pokes(foo INT, bar STRING);
load data local inpath '/opt/hive/examples/files/kv1.txt' overwrite into table pokes;
select * from pokes limit 10;
如果能有个hue,通过web界面控制hive更爽了,网上也有教程,我也调通了的。