js 自定义 trim 函数的具体使用方法详解
911
2022-10-05
awk入门教程及应用场景
基本用法
awk是一个强大的文本分析工具,简单来说awk就是把文件逐行读入,(空格,制表符)为默认分隔符将每行切片,切开的部分再进行各种分析处理
awk命令格式如下
awk [-F field-separator] 'commands' input-file(s)
[-F 分隔符]是可选的,因为awk使用空格,制表符作为缺省的字段分隔符,因此如果要浏览字段间有空格,制表符的文本,不必指定这个选项,但如果要浏览诸如/etc/passwd文件,此文件各字段以冒号作为分隔符,则必须指明-F选项。
echo "this is a test" | awk '{ print $0## 输出为this is a test
shell读取用户输入的字符串发现|,代表有管道。|左右被理解为简单命令 ,即前一个(左边)简单命令的标准输出指向后一个(右边)标准命令的标准输入
awk会根据分隔符将行分成若干个字段,$0为整行,$1为第一个字段,$2 为第2个地段,依次类推…
为打印一个字段或所有字段,使用print命令。这是一个awk动作
echo "this is a test" | awk '{ print $1## 输出为thisecho "this is a test" | awk '{ print $1, $2## 输出为
/etc/passwd的文件内容如下
root:x:0:0:root:/root:/bin/bashbin:x:1:1:bin:/bin:/sbin/nologindaemon:x:2:2:daemon:/sbin:/sbin/nologinadm:x:3:4:adm:/var/adm:/sbin/nologinlp:x:4:7:lp:/var/spool/lpd:/sbin/nologin
举几个简单的小需求 1.只显示/etc/passwd的账户
awk -F : '{ print $1 /etc/passwd## 输出为
2.显示/etc/passwd的第1列和第7列,用逗号分隔显示,所有行开始前添加列名 start1,start7,最后一行添加,end1,end7
awk -F ':' 'BEGIN {print "start1,start7"} {print $1 "," $7} END {print "end1,end7"}' /etc/passwd## 输出为
BEGIN语句在所有文本处理动作执行之前被执行,END在所有文本处理动作执行之后被执行
3.统计/etc/passwd文件中,每行的行号,每行的列数,对应的完整行内容
awk -F : '{ print NR "\t" NF "\t" $0 /etc/passwd## 输出为
支持内置变量
上面示例中NR,和NF其实就是awk的内置变量,一些内置变量如下
变量名 | 解释 |
FILENAME | awk浏览的文件名 |
FS | 设置输入字段分隔符,等价于命令行-F选项 |
NF | 浏览记录的字段个数 |
NR | 已读的记录数 |
支持函数
awk 'BEGIN { print length("this is a text") }'## 输出为
将/etc/passwd的用户名变成大写输出
awk -F ':' '{ print toupper($1) }' /etc/passwd## 输出为
常用函数如下
函数名 | 作用 |
toupper(s) | 返回s的大写 |
tolower(s) | 返回s的小写 |
length(s) | 返回s长度 |
substr(s,p) | 返回字符串s中从p开始的后缀部分 |
支持条件操作,正则表达式匹配
显示/etc/passwd中有daemon的行
awk -F ':' '$0 /etc/passwd## 输出为
awk条件操作符
操作符 | 描述 |
< | 小于 |
<= | 小于等于 |
== | 等于 |
!= | 不等于 |
~ | 匹配正则表达式 |
!~ | 不匹配正则表达式 |
支持流程控制语句,类C语言
if while do/while for break continue
输出第一个字段的第一个字符大于d的行
awk -F ':' '{ if ($1 > "d") { print $1 /etc/passwd## 输出为
可以把流程控制语句放到一个脚本中,然后调用脚本执行,如test.sh的内容如下
{ if ($1 > "d") { print $1 } else { print "-" } }
用如下方式执行,效果一样
awk -F ':' -f test.sh /etc/passwd## 输出为
应用场景
小编用awk进行文本分析比较少,主要用来写脚本 如一个weibo-interface-1.0.jar应用,启动脚本如下 start.sh
nohup java -jar weibo-interface-1.0.jar >out 2>&1 &
关闭脚本如下,kill.sh
kill -9 `jps -l | grep 'weibo-interface-1.0.jar' | awk '{print $1}'`
jps -l的输出如下
70208 com.st.kmp.main.KmpService31036 com.st.cis.main.BaiduAnalysisService66813 weibo-interface-1.0.jar
还有就是关闭hadoop集群的所有DataNode节点(不知道hadoop的可以认为DataNode是一个集群应用),假如一个个机器jps,查看pid,kill。很麻烦,直接写了一个脚本,依次ssh到各个节点,然后执行如下命令即可
kill `jps | grep 'DataNode' | awk '{print $1}'`
jps的输出为
508 DataNode31481 JournalNode31973 NodeManager
筛选出日志的一列后进行去重
cat server.2020-05-18.log| grep "cityName not have map" | awk '{print $17}'| sort | uniq
参考博客
[1][2][3]linux awk命令详解
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~