find cat sed awk 简单组合使用
find:查找
// .表示当前目录; /表示根目录; | 管道符; xargs表示将前面的搜索接口作为参数传递到后面的命令中;grep 过滤
// xxxx表示文件名
1.查找指定文件名的文件
find . -name xxxx // 区分大小写
find . -iname xxxx // 不区分大小写

2.查找当前目录中文件名后缀为 .json的所有文件
find . -type f -name '*.json'
3.查找当前目录下所有文件夹
find . -type d
4.查找当前目录1小时内被修改的文件
find . -cmin -60 // 单位: 分钟
-a 表示前后条件都满足
-o 表示前后条件满足一条即可

5.查找当前目录中包含 function 字符串的文件
find . | xargs grep function
6.查找文件名包含 function 字符串的文件
find . -type f -name '*function*'
7.查找3天前创建的后缀为.function的文件
find . -type f -name '*.function' -ctime +3
8.查找3天前创建的后缀为.function的文件并删除
find . -type f -name '*.function' -ctime +3 | xargs rm -r
awk:切分列
// xxxx 是被操作的文件
1.查看某文件指定列数的内容
awk '{print $1}' xxxx

sed:切分行
// xxxx 是当前被操作的文件
1.查看某文件指定列数的内容
sed -n 'startLine, endLinep' xxxx

cat:查看
// xxxx 是当前要查看的文件名
1.查看文件内容cat
cat xxxx
2.查看带行数的内容
cat -n xxxx 或 cat -b xxxx

3.统计文件中去重复后的行数
cat xxxx | sort | uniq | wc -l // sort 排序 // uniq去除重复
4.获取指定列内容 awk 切分列 $num 表示第几列
// num 表示想获取的列数
cat xxxx | awk '{print $num}'
// 写进新文件
cat xxxx | awk '{print $num}' > xxxx_new
5.获取指定行数内容 sed 切分行 -n 表示行数 startline 起始行数 endline 截止行数
cat xxxx | sed -n 'startline,endlinep' // 最后的p不能丢
// 写进新文件
cat xxxx | sed -n 'startline,endlinep' > xxxx_new // 最后的p不能丢
6.将指定列指定行数的内容放入新文件
// awk 切分列 $ 后面的数字表示第几列
// sed 切分行 -n 表示行数 startline 起始行数 endline 截止行数
cat xxxx | awk '{print $num}' | sed -n 'startline,endlinep' > xxxx_new
获取指定进程的ID
1.ps -ef | grep down 获取包含指定进程的信息,第二列就是进程ID

2.ps -ef | grep down | grep -v grep 过滤grep本身

3.获取指定进程的进程ID 两种方式,结果一样
ps -ef | grep down | grep -v grep | awk '{print $2}' 或 ps -ef | grep down | awk '{print $2}' | sed -n '1, 1p'


4.查找指定文件中包含指定字符串的行数
find -type f -name logfile.log | xargs grep '267468'
分析nginx日志时获取访问量较高的前几名IP:
cat access.log | awk '{print $1}' | sort | uniq -c | sort -nr | head -10
命令解释:cat、awk见此文章上面; sort: 排序 -nr倒序 uniq:去重复 -c统计个数 head: 取前几个 -10前10个
find cat sed awk 简单组合使用的更多相关文章
- Sed&awk笔记之awk篇
http://blog.csdn.net/a81895898/article/details/8482333 Awk是什么 Awk.sed与grep,俗称Linux下的三剑客,它们之间有很多相似点,但 ...
- Sed&awk笔记之sed篇
http://blog.csdn.net/a81895898/article/details/8482387 Sed是什么 <sed and awk>一书中(1.2 A Stream Ed ...
- linux四剑客-grep/find/sed/awk/详解-技术流ken
四剑客简介 相信接触过linux的大家应该都学过或者听过四剑客,即sed,grep,find,awk,有人对其望而生畏,有人对其爱不释手.参数太多,变化形式太多,使用超级灵活,让一部分人难以适从继而望 ...
- Sed&awk笔记之sed篇(转)
Sed是什么 <sed and awk>一书中(1.2 A Stream Editor)是这样解释的: Sed is a "non-interactive" strea ...
- Sed&awk笔记之awk篇(转)
Awk是什么 Awk.sed与grep,俗称Linux下的三剑客,它们之间有很多相似点,但是同样也各有各的特色,相似的地方是它们都可以匹配文本,其中sed和awk还可以用于文本编辑,而grep则不具备 ...
- awk简单用法
awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大.简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各 ...
- linux sed awk seq 正则使用 截取字符 之技巧
[root@room9pc01 ~]# seq 5 1 2 3 4 5 [root@room9pc01 ~]# seq 2 5 2 3 4 5 seq 1 2 10 1 3 5 7 9 [root@d ...
- Sed Awk 日常使用总结
Sed命令语法sed [option] {sed-commands}{input-file}sed首先从input-file中读取第一行,然后执行所有的sed-commands:再读取第二行,执行所有 ...
- awk简单用法-(1)
一.awk基本操作 awk指定多个分割符,分隔符中有:和空格,还有:和空格的组合,这个时候需要指定多个分隔符 -F'[ :]+',[ :]表示分隔符为:和空格,一个或者多个+号表示空格和:的组合也为一 ...
随机推荐
- 一个经典的PHP文件上传类
需求分析如下: (1)支持单个文件上传 (2)支持多个文件上传 (3)可以指定保存位置 可以设置上传文件允许的大小和类型 可以选择重命名和保留原名 <!-- 设计一个经典文件上传类 需求分析 ( ...
- SPGroup 和SPUser的常用操作
http://www.cnblogs.com/gzh4455/archive/2012/03/26/2417854.html private bool RemoveUserFromGroup(stri ...
- spring定时任务的集中实现
转载博主:感谢博主 http://gong1208.iteye.com/blog/1773177 Spring定时任务的几种实现 近日项目开发中需要执行一些定时任务,比如需要在每天凌晨时候,分析一次前 ...
- Spark最简安装
该环境适合于学习使用的快速Spark环境,采用Apache预编译好的包进行安装.而在实际开发中需要使用针对于个人Hadoop版本进行编译安装,这将在后面进行介绍. Spark预编译安装包下载——Apa ...
- Docker最全教程之使用PHP搭建个人博客站点(二十二)
目录 官方镜像 编写简单的Hello world! 1. 编写Hello world! 2. 编写Dockerfile 3. 构建并运行 4. 直接使用PHP Docker镜像运行PHP脚本 构建自 ...
- Ubuntu 14.04上安装Riak
一.安装riak 1. 安装包:riak_2.0.2-1_amd64.deb 路 径:~/software/riak_2.0.2-1_amd64.deb 2. 安装riak $ ...
- java关于类的构建
一开始老是把类的构建和代码的重构搞的混淆,现在理解的可能还好点(至少概念上不会出错了),简单的说类就是一个复杂的变量,这个变量里面含有属性.方法和构造方法,注意方法和构造方法是完全不同的两个概念,而且 ...
- defer=“defer”和async=“async”
<script type="text/javascript" src="demo_defer.js" defer="defer"> ...
- c语言数据结构:用标志位实现循环队列
#include<stdio.h> #include<stdlib.h> #define MAXSIZE 10//定义队列长度 ;//定义标志位 typedef struct ...
- raspberrypi&linux
Raspberrypi&linux 2018-01-23 19:54:01 Let's go!