洞察纵观鸿蒙next版本,如何凭借FinClip加强小程序的跨平台管理,确保企业在数字化转型中的高效运营和数据安全?
907
2022-09-02
五分钟入门文本处理三剑客grep awk sed
介绍
grep awk sed是Linux下文本处理常用的命令,能完成很多神奇的操作,今天就分享一下这三个命令最常见的用法
grep
使用一般有如下两种形式
第一种形式 grep [option] [pattern] [file1,file2]
如查找show.txt里面包含content的行
grep
第二种形式 command | grep [option] [pattern]
如查看某个服务信息
ps -ef | grep
如查找show.txt里面包含content的行
cat show.txt | grep
必须掌握的选项
选项 | 含义 |
-v | 显示不匹配行信息(反向搜索) |
-i | 搜索时忽略大小写 |
-n | 显示行号(文件中的行号) |
-r | 递归搜索(搜索文件夹) |
-E | 支持扩展正则表达式 |
-F | 不按正则表达式匹配,按照字符串字面意思匹配 |
cat
-v 选项
grep
-n选项
grep
-r选项 查找/etc/myconfig及其子目录下,打印出包含content字符串所在行的内容
grep
-F选项
grep
py被当成正则表达式处理,我就想搜索py这个内容,就可以用到-F选项
grep
了解的选项
选项 | 含义 |
-c | 只输出匹配行的数量,不显示具体内容 |
-w | 匹配整词 |
-x | 匹配整行 |
-l | 只列出匹配的文件名,不显示具体匹配行内容 |
cat
-w选项(lovelove这个词没有显示出来,因为love前后得有空格或者tab才会认为是一个单词)
grep
-x 选项(匹配行,行的内容只能是i love a)
grep -x "i love a"
这些选项可以混着用,例如
查找/etc/myconfig及其子目录下,打印出包含content字符串所在文件的文件名
grep
-r:递归搜索(搜索文件夹) -l:只列出匹配的文件名,不显示具体匹配行内容
当然用find也是可以的,只不过麻烦一点
find /etc/myconfig -type f | xargs grep -l abc
这个命令在看配置的是时候还是挺管用的
查看日志常用的选项
选项 | 含义 |
-C n | 显示匹配行及其前后5行 |
-B n | 显示匹配行及其前5行 |
-A n | 显示匹配行及其后5行 |
cat
查找4及其上下2行
cat show.txt | grep
查找4及其前2行
grep
grep和egrep的区别和联系
grep默认不支持扩展正则表达式,只支持基础正则表达式 使用grep -E 可以支持扩展正则表达式 使用egrep可以支持扩展正则表达式,与grep -E等价
awk
使用一般有如下两种形式
第一种形式
awk 'BEGIN{}pattern{commands}END{}'
语法格式 | 解释 |
BEGIN | 正式处理数据之前 |
pattern | 匹配模式 |
{commands} | 匹配命令,可能多行 |
END | 处理完所有匹配数据后执行 |
第二种形式
standard output | awk 'BEGIN{}pattern{commands}END{}'
awk的内置变量
内置变量 | 含义 |
$0 | 整行内容 |
$1-$n | 当前行的第1-n个字段(按照指定分隔符分割后) |
NF(Number Field) | 当前行的字段个数,也就是多少列 |
NR(Number Row) | 当前行的行号,从1开始计数 |
FNR(File Number Row) | 多文件处理时,每个文件行号单独计数,都是从0开始 |
FS(Field Separator) | 输入字段分割符。不指定默认以空格或者Tab键分割 |
RS(Row Separator) | 输入行分割符。默认回车\n |
OFS(Output Field Sepatator) | 输出字段分割符。默认为空格 |
ORS(Output Row) | 输出行分隔符。默认为回车 |
FILENAME | 当前输入的文件名字 |
ARGC | 命令行参数个数 |
ARGV | 命令行参数数组 |
看一下/etc/passwd文件的内容
cat
输出文件的每行内容
# $0为整行内容awk '{print $0}'
输出第二列内容
需要指定分隔符:
# $2为第二列内容awk 'BEGIN{FS=":"}{print $2}'
不需要指定分割符,默认空格,tab键,多个也可以分隔(如一个空格+一个tab键)
cat show.txt# 空格分隔python java php# tab键分隔
输出第一列内容
awk '{print $1}'
输出每一行有多少列
awk '{print NF}'
可以用这个输出每一行的最后一列的值
awk '{print $NF}'
输出行号
awk '{print NR}'
对每个文件的行号单独计数(显示show.txt和/etc/passwd文件的行号,不累加)
awk '{print FNR}' show.txt /etc/passwd1212...
同时指定行分隔符和列分隔符
cat show.txtpython|java|php--flink|hadoop|storm
先输出每一行数据
# RS为指定行分隔符awk 'BEGIN{RS="--"}{print $0}' show.txtpython|java|phpflink|hadoop|storm
输出每一行的第二列
# RS指定行分隔符# FS指定列分隔符awk 'BEGIN{RS="--";FS="|"}{print $2}'
在上面基础上指定行分隔符
# ORS 输出行分割符awk 'BEGIN{RS="--";FS="|";ORS="&"}{print $2}' show.txtjava&hadoop&
再次指定列分隔符
# OFS输出列分隔符awk 'BEGIN{RS="--";FS="|";ORS="&";OFS="@@"}{print $1,$2}' show.txtpython@@java&flink@@hadoop&
输出文件名字
cat show.txtpython|java|phpflink|hadoop|storm
awk '{print FILENAME}'
因为是对行进行处理,所以有几行,输出几次文件名
当然awk还有其他强大的操作,如支持函数,流程控制,格式化输出等。有兴趣的可以了解一下awk编程,这里就不再多做介绍了
假如有一个如下的访问日志request.log
2020-05-21 request enter2020-05-21 request ip 127.0.0.12020-05-21 request finish2020-05-21 request enter2020-05-21 request error2020-05-21 request enter2020-05-21 request ip 127.0.0.12020-05-21 request finish2020-05-21 request enter2020-05-21 request ip 11.25.58.212020-05-21 request finish
想统计当日去重后的ip有多少个,就可执行如下命令
# sort为排序,uniq为去重cat request.log | grep ip | awk '{print $4}' | sort | uniq
我原来维护了一个hadoop集群,当想关闭集群中的所有DataNode节点(可以认为一个应用),假如每个机器jps,查看pid,kill。很麻烦,直接写了一个脚本,依次ssh到各个节点,然后执行如下命令即可,超级省事
kill `jps | grep 'DataNode' | awk '{print $1}'`
sed
sed的功能和文本编辑器有点类似,因为我在Linux对文本进行修改用vim比较多,sed的话可能在脚本中用的多一点,因此也没多少经验,简单介绍一个替换的示例
cat show.txt this is a test for sedthis is second line# 将second替换为first输出到屏幕,文件内容并没有改变# 有选项可以指定,不再介绍sed 's/second/first/' show.txtthis is a test for sed
欢迎关注
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~