联网下载文件(wget 、curl)
wget:下载文件
1、CentOS7系统最小化安装默认没有wget命令,需要进行安装
[root@oldboyedu ~]# yum install wget -y
2、在linux上使用wget命令进行下载,需先找到我们需要下载的资源(默认下载到当前目录来)
wget+下载的资源
3、由于我们下载的是文件,所以我们可以使用cat less more查看该文件
4、使用wget下载资源时,指定保存的位置,并重新命名
例如:[root@oldboyedu ~]# wget -O /opt/tt.png http://fj.xuliangwei.com/public/ks.jpeg
5、下载资源时,如果不想重新命名只想修改保存的路径,请带上原有的名称
例如:[root@oldboyedu ~]# wget -O /opt/ks.jpeg http://fj.xuliangwei.com/public/ks.jpeg
curl:浏览网络上的资源
1、在线浏览网站资源内容(源代码)
curl+浏览的网站资源
2、使用curl讲内容保存至本地,并重命名(如果没有明确指定路径,则表示当前目录)
例如:[root@oldboyedu ~]# curl -o wei.txt http://fj.xuliangwei.com/public/weixin.py
3、将资源保存至指定的路径
例如:[root@oldboyedu ~]# curl -o /opt/weixin.py http://fj.xuliangwei.com/public/weixin.py
PS:通常情况下我们推荐使用wget下载,但由于系统很多时候默认没有按照wget,会偶尔使用一下curl
PS;最后执行一条命令检查:yum makecache
上传下载文件
如果无法将文件直接拖拽进linux服务器
1、要么没有安装lrzsz,建议安装,想关命令:yum install lrzsz -y
2、你上传的就是一个空文件,文件里面必须要有内容
rz:只能上传文件,不支持上传文件夹,不支持大于4个G上传,也不支持断点续传
sz:只能下载文件(任意单个文件)不支持下载文件夹
文件或命令查找(which whereis find)
当我们想执行一个命令的绝对路径时,先使用which command 查询绝对路径
1、which ls 查找ls命令的绝对路径
2、whereis 也使用来查询命令的绝对路径
whereis ls 查找命令的路径、帮助手册等
whereis -b ls 仅显示命令所在的路径
3、对于内核相关的一些命令,使用which whereis是无法查询到,需要使用type命令查询
type -a ls:查看命令的绝对路径(包括别名)
#对于后面要使用一个命令的绝对时
文件内容处理命令(sort uniq cut sed awk wc )
sort:排序
-r:倒序
-n:按数字排序
-t:指定分隔符(默认空格)
-k:指定第几列,指定几列几字符(指定1,1 3.1 ,3.3)
例如:1.首先创建一个文件,写入一写无序的内容
[root@xuliangwei ~]# cat >> file.txt <<EOF
b:3
c:2
a:4
e:5
d:1
f:11
EOF
2.使用sort下面对输出的内容进行排序
[root@xuliangwei ~]# sort file.txt
a:4
b:3
c:2
d:1
e:5
f:11
结果并不是按照数字排序,而是按字母排序。可以使用-t指定分隔符, 使用-k指定需要排序的列。
[root@xuliangwei ~]# sort -t ":" -k2 sort.txt
d:1
f:11 第二行为什么是11?不应该按照顺序排列?
c:2
b:3
a:4
e:5
按照排序的方式, 只会看到第一个字符,11的第一个字符是1, 按照字符来排序确实比2小。
如果想要按照数字的方式进行排序, 需要使用 -n参数。
[root@xuliangwei ~]# sort -t ":" -n -k2 p.txt
d:1
c:2
b:3
a:4
e:5
f:11
例题2:http://fj.xuliangwei.com/public/ip.txt,对该文件进行排序
[root@xuliangwei ~]# sort -t. -k3.1,3.1nr -k4.1,4.3nr ip.txt
uniq:去重
-c:计算重复的行
例如:1.创建一个file.txt文件:
[root@xuliangwei ~]# cat >>file1.txt <<EOF
abc
123
abc
123
EOF
2.uniq需要和sort一起使用, 先使用sort排序, 让重复内容连续在一起
[root@xuliangwei ~]# sort file.txt
123
123
abc
abc
3.使用uniq去除相邻重复的行
[root@xuliangwei ~]# sort file.txt |uniq
123
abc
4.-c参数能统计出文件中每行内容重复的次数
[root@xuliangwei ~]# sort file.txt |uniq -c
2 123
2 abc
cut:截取文件
-d:指定分隔符
-f:数字,取第几列,如:-f3,6 取第3列和第6列
-c:按字符取(空格也算)
awk:截取文件(很重要,常用命令)
-F:指定分隔符
例如:[root@oldboyedu ~]# cat >>file2.txt <<EOF
Im xlw, is QQ 552408925
EOF
筛选出文件里 xlw以及552408925
[root@oldboyedu ~]# awk '{print $2,$5}' file2.txt | awk -F "," '{print $1,$2}'
xlw 552408925
[root@oldboyedu ~]# cut -d " " -f 2,5 file2.txt | awk -F "," '{print $1,$2}'
xlw 552408925
[root@oldboyedu ~]# cut -d " " -f 2,5 file2.txt | sed 's#,##g'
xlw 552408925
[root@oldboyedu ~]# sed 's#,##g' file2.txt | awk '{print $2,$5}'
xlw 552408925
PS: 实际生产使用过程中,很少使用到cut,通常都是使用awk,因为awk是取列专业户
wc:统计行号
-l:显示文件行数
例如: 过滤出/etc/passwd以nologin结尾的内容,并统计有多少行
1.先筛选出目标的行
2.然后进行统计
[root@oldboyedu ~]# grep "nologin$" /etc/passwd | wc -l
18
#扩展统计文件行号的方法
[root@oldboyedu ~]# cat -n /etc/services | tail -1
[root@oldboyedu ~]# grep -n ".*" /etc/services | tail -1
通常在题目中的意思:
grep过滤 匹配
awk取值
sed替换
sort uniq统计(排序|去重)