一、hadoop基本命令
两种指令均可:
hadoop fs 或者 hdfs dfs
1.查看hdfs文件系统中已经存在的文件:
hadoop fs -ls /
2.在hdfs问价系统中创建文件
hadoop fs -touchz /test.txt (/test.txt 指的是像根目录下创建test.txt文件)
3.向hdfs文件系统中文件中追加内容
hadoop fs -appendToFile edit1.xml /edits.txt #将本地磁盘当前目录的edit1.xml内容追加到HDFS根目录 的edits.txt文件
4.查看HDFS文件内容
hadoop fs -cat /test.txt 查看根目录下的test.txt 的内容
5.从本地路径上传hdfs
#用法:hdfs dfs -put /本地路径 /hdfs路径
hdfs dfs -put hadoop-2.7.3.tar.gz /
hdfs dfs -copyFromLocal hadoop-2.7.3.tar.gz / 与put作用一样
hdfs dfs -moveFromLocal hadoop-2.7.3.tar.gz / 与put作用一样,只不过,源文件被拷贝成功后,会被删除
6.在hdfs文件系统上下载文件
hdfs dfs -get /hdfs路径 /本地路径
hdfs dfs -copyToLocal /hdfs路径 /本地路径 #根get作用一样
7.在hdfs文件系统中创建目录
hdfs dfs -mkdir /shell
8.在hdfs文件系统中删除文件
hdfs dfs -rm /edits.txt
hdfs dfs -rm -r /shell
9.在hdfs文件系统中修改文件名称(也可以用来移动文件到目录)
hdfs dfs -mv /xcall.sh /call.sh
hdfs dfs -mv /call.sh /shell
10.在hdfs中拷贝文件到目录
hdfs dfs -cp /xrsync.sh /shell
11.递归删除目录
hdfs dfs -rmr /shell
12.列出本地文件的内容(默认是hdfs文件系统)
hdfs dfs -ls file:///home/hadoop/
13.查找文件
# linux find命令
find . -name 'edit*'
# HDFS find命令
hadoop fs -find / -name part-r-00000 # 在HDFS根目录中,查找part-r-00000文件
二、与getconf结合使用
获取NameNode的节点名称(可能有多个)
hdfs getconf -namenodes
获取hdfs最小块信息
hdfs getconf -confKey dfs.namenode.fs-limits.min-block-size
查找hdfs的NameNode的RPC地址
hdfs getconf -nnRpcAddresses
三、 hdfs与dfsadmin结合使用
借助帮助信息
hdfs dfsadmin -help safemode
查看hdfs dfsadmin的帮助信息
hdfs dfsadmin
查看当前的模式
hdfs dfsadmin -safemode get
进入安全模式
hdfs dfsadmin -safemode enter
4. hdfs与fsck结合使用
fsck指令显示HDFS块信息
hdfs fsck /02-041-0029.mp4 -files -blocks -locations # 查看文件02-041-0029.mp4的块信息
5. 其他命令
检查压缩库本地安装情况
hadoop checknative
格式化名称节点(慎用,一般只在初次搭建集群,使用一次;格式化成功后,不要再使用)
hadoop namenode -format
执行自定义jar包
hadoop jar xxxx.jar com.xxx.hadoop.WordCount /world.txt /out