1,打开虚拟机,su - ,输入密码,切换root用户
2,切换到Hadoop的sbin目录下(2.X版本)
cd /opt/hadoop/hadoop-2.6.0/sbin
3,启动Hadoop
start-all.sh
4,jps检查进程(2.X版本,五个)
5,确定Hadoop成功启动后,输入下面的命令
root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -ls hdfs://localhost:9000/
这句话的意思是,查看hdfs系统的文件有哪些,现在可以看到,只有系统文件夹,没有上传文件。
hadoop的命令的格式就是这样的,bin/hadoop fs - (命令) hdfs://hdphost:9000/(hdphost主机名)
6,输入路径input path,必须是/user/root/in但是原本不存在,所以要先创建
root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/
root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root
root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root/in
创建了输入文件夹,也要创建输出文件夹,输出文件夹每次都不能相同,所以,创建之前,先查看一下,然后在创建
root@ubuntu:/opt/hadoop/hadoop-2.6.0# # bin/hadoop fs -mkdir hdfs://ubuntu:9000/user/root/out
7,准备工作做完了,现在开始正式上传,-put命令
root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -put /mnt/hgfs/E/lcx/ hdfs://ubuntu:9000/user/root/in
这里的/mnt/hgfs/E/lcx/是本地的E盘下的文件,前提是,先把本地的E盘和虚拟机共享一下。
8,用-ls查看一下,发现已经上传成功了。
root@ubuntu:/opt/hadoop/hadoop-2.6.0# bin/hadoop fs -ls hdfs://ubuntu:9000/user/root/in
9,查看
hadoop fs -cat /user/root/in/lcx | head