首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

程序员需要知道的8个Linux命令

此时你应该考虑过滤出某些内容,把cat、sort后的内容通过管道传递给过滤工具。...cut cut – 删除文件中字符上的某些区域 又要使用grep,我们用grep过滤出我们想要的。有了我们想要的信息,我们就可以把它们切成小段,删除不需要的部分数据。...下面的例子展示了如何用sed命令变换我们的文件,之后我们在再用cut移除无用的信息。...uniq uniq – 删除重复 下面的例子展示了如何过滤出跟书相关的交易,删除不需要的信息,获得一个不重复的信息。...最后你可以用 ‘q’ 退出less命令。 linux里有很丰富的各种命令,有些是很难用的。然而,学会了前面说的这8个命令,你已经能处理大量的log分析任务了,完全不需要用脚本语言写程序来处理它们。

79750
您找到你想要的搜索结果了吗?
是的
没有找到

Linux好用的管道命令

Linux好用的管道命令 1. 选取命令 grep cut「分割」 2. 排序命令 sort wc uniq 3. 划分命令 split 4. 参数代换xargs 5....实例 文件testfile中第 2、3、5、6、7、9为相同的,使用uniq命令删除重复,可使用以下命令: uniq testfile testfile中的原有内容为: $ cat testfile...85 使用uniq命令删除重复后,有如下输出结果: $ uniq testfile #删除重复后的内容 test 30 Hello 95 Linux 85 检查文件并删除文件中重复出现的...使用如下命令: uniq -c testfile 结果输出如下: $ uniq -c testfile #删除重复后的内容 3 test 30 #前面的数字的意义为该行共出现了...3 test 30 在文件中找出重复: $ sort testfile1 | uniq -d Hello 95 Linux 85 test 30 3.

9.3K20

Linux日志审计中的常用命令: sedsortuniq

AI摘要:本文介绍了Linux日志审计中三个重要命令:`sed`、`sort`、和`uniq`的用法及其常用参数。...`sed`用于文本处理,替换、删除、插入操作;`sort`用于文本排序,支持数字顺序、反向排序等;`uniq`用于去重和统计重复次数。...Linux日志审计常用命令: sedsortuniqLinux系统中,日志审计是一项重要的任务,可以帮助我们了解系统的运行状况,排查问题,并保证系统的安全。...1. sed命令 sed是一个强大的文本处理工具,可以对文本进行替换、删除、插入等操作。...例如,找出文件中唯一的sort file.txt | uniq -u 4. 综合实例 下面通过一个综合实例演示sedsortuniq命令的用法。

13610

Linux 基础命令(收藏大全)

^ 匹配正则表达式的开始行 $ 匹配正则表达式的结束 < 从匹配正则表达式的开始 > 到匹配正则表达式的结束 [ ] 单个字符;[A] 即A符合要求 [ n - m ] 范围 ;[A-H]即包含...4.打印匹配字段的 $sed -n ‘/ftp/p’ install.log 5.默认删除第3 $sed ‘3d’ install.log 6.默认删除第3至末尾行 $sed ‘3,$d’ install.log...对test.txt文件中重复删除并升序排序 sort -u test.txt 5. 对/etc/shadow文件进行降序排序 sort -r /etc/shadow 6....对test.txt内容进行检查并显示次数 uniq -c test.txt 2. 对test.txt的重复不显示 uniq -u test.txt 3....忽略test.txt的第1列,对第2列进行检查 uniq +1 4. 对test.txt的显示重复 uniq -d test.txt 5.

2.1K30

热饭面试复习:【linux shell 相关】-3

Part1前言 linux shell 常见的面试问题,基本是先让你随便说一些,测试一下你掌握的广度,这时候你至少要说上十个才,但是!...grep 查找和过滤 grep作为过滤命令,在很多命令后都可以加入grep进行过滤 grep test *.c 查找后缀为c 且包含test的文件 grep -r test /etc/ 查找etc目录和子目录下包含...d 删除 i 插入 p 打印 s 取代 sed 's/目标文案/新文案/g' #替换文案, nl 以行为单位执行命令 nl 文件 | sed '2,5d' #表示打印所有,但删除2-5sed后的字符必须以单引号包裹...'3,$d' -e 's/旧/新/g' #输出所有删除第3-5,且替换文案。...4 #会输出is 开 expr index "测试开发干货" 干 #会打印5 expr 10+2 #会打印12 uniq 去重 uniq 参数 文件 -c 显示重复次数 -d 显示重复行列 wc

20620

Linux 基础命令(收藏大全)

^ 匹配正则表达式的开始行 $ 匹配正则表达式的结束 < 从匹配正则表达式的开始 > 到匹配正则表达式的结束 [ ] 单个字符;[A] 即A符合要求 [ n - m ] 范围 ;[A-H]即包含...4.打印匹配字段的 $sed -n ‘/ftp/p’ install.log 5.默认删除第3 $sed ‘3d’ install.log 6.默认删除第3至末尾行 $sed ‘3,$d’ install.log...对test.txt文件中重复删除并升序排序 sort -u test.txt 5. 对/etc/shadow文件进行降序排序 sort -r /etc/shadow 6....对test.txt内容进行检查并显示次数 uniq -c test.txt 2. 对test.txt的重复不显示 uniq -u test.txt 3....忽略test.txt的第1列,对第2列进行检查 uniq +1 4. 对test.txt的显示重复 uniq -d test.txt 5.

1.9K40

Linux 基础命令(收藏大全)

^ 匹配正则表达式的开始行 $ 匹配正则表达式的结束 < 从匹配正则表达式的开始 > 到匹配正则表达式的结束 [ ] 单个字符;[A] 即A符合要求 [ n - m ] 范围 ;[A-H]即包含...4.打印匹配字段的 $sed -n ‘/ftp/p’ install.log 5.默认删除第3 $sed ‘3d’ install.log 6.默认删除第3至末尾行 $sed ‘3,$d’ install.log...对test.txt文件中重复删除并升序排序 sort -u test.txt 5. 对/etc/shadow文件进行降序排序 sort -r /etc/shadow 6....对test.txt内容进行检查并显示次数 uniq -c test.txt 2. 对test.txt的重复不显示 uniq -u test.txt 3....忽略test.txt的第1列,对第2列进行检查 uniq +1 4. 对test.txt的显示重复 uniq -d test.txt 5.

1.2K30

生信人的自我修养:Linux 命令速查手册(全文引用)

file # 按第2列排序,且第2列是数字,升序 sort -k2,2nr file # 按第2列排序,且第2列是数字,降序 sort -u file # 先排序文件,然后去除相邻的重复,只保留一条记录...sort file | uniq # 去除相信的重复,只保留一条记录,相当于: sort -u file # 利用sort, uniq取两个文件的交、并、补集 sort a b | uniq...# 并集 sort a b | uniq -d > c # 交集 sort a c | uniq -u # 补集 wget - 下载文件 wget https://repo.anaconda.com...hello的 grep -v '^\s*$' file # 删除空白 sed sed 是 stream editor 的缩写,中文称之为“流编辑器”。...' file # 删除第10到20之间的 sed '/pattern/d' # 删除匹配pattern的 sed '/^\s*$/d' file # 删除空白 sed 's/^\s*//'

3.9K40

生信人的自我修养:Linux 命令速查手册

file # 按第2列排序,且第2列是数字,升序 sort -k2,2nr file # 按第2列排序,且第2列是数字,降序 sort -u file # 先排序文件,然后去除相邻的重复,只保留一条记录...sort file | uniq # 去除相信的重复,只保留一条记录,相当于: sort -u file # 利用sort, uniq取两个文件的交、并、补集 sort a b | uniq...# 并集 sort a b | uniq -d > c # 交集 sort a c | uniq -u # 补集 wget - 下载文件 wget https://repo.anaconda.com...hello的 grep -v '^\s*$' file # 删除空白 sed sed 是 stream editor 的缩写,中文称之为“流编辑器”。...' file # 删除第10到20之间的 sed '/pattern/d' # 删除匹配pattern的 sed '/^\s*$/d' file # 删除空白 sed 's/^\s*//'

7.3K21

没想到 Shell 命令竟然还能这么玩?

前奏 本文是一个命令行工具的综合应用,将用一个具体的例子来阐述如何用 Shell 进行高效地数据统计和分析。..."unit": "北京利德华福电气技术有限公司" 先通过 grep 得到包含公司名字的一,然后通过 ":" 分割 cut 取第2列得到公司名字,对结果进行sort排序进行去重uniq统计得到重复次数,...次时结果为重复次数 公司名,再对第一列-k 1重复数字进行按照数字排序逆序-nr 即 sort -nr -k 1,最后取结果的前10 head -n 10。...下面shell实际上是取到这行后,将真正表示名字之前的所有字符都删除,就只剩下名字开头了,取首第一个字符cut -c 1即得到姓,再按照之前的套路就能拿到了。...| uniq -c | sort -nr -k 1 | head -n 10 ➜ 积分落户 > grep '"name":' jifenluohu.json| sed 's|"name": "||g

36420

搞定Linux Shell文本处理工具,看完这篇集锦就够了

下面我介绍Linux下使用Shell处理文本时最常用的工具: find、grep、xargs、sortuniq、tr、cut、paste、wc、sed、awk; 提供的例子和参数都是最常用和最为实用的...5、uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort...: seg -i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用. echo this is.../' #包含linux文本的(可以用正则表达式指定,超级强大) awk '!.../linux/' #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}' /etc/passwd 读取命令输出 使用getline,将外部

6.2K41

Linux Shell 文本处理工具集锦

本文将介绍Linux下使用Shell处理文本时最常用的工具:find、grep、xargs、sortuniq、tr、cut、paste、wc、sed、awk; 提供的例子和参数都是最常用和最为实用的;...uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort unsort.txt...-i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用. echo this is en example.../'#包含linux文本的(可以用正则表达式指定,超级强大) awk '!.../linux/' #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}' /etc/passwd 读取命令输出 使用getline,将外部

3.2K70

搞定 Linux Shell 文本处理工具

本文将介绍Linux下使用Shell处理文本时最常用的工具:find、grep、xargs、sortuniq、tr、cut、paste、wc、sed、awk; 提供的例子和参数都是最常用和最为实用的;...4、uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort unsort.txt...seg -i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用..../' #包含linux文本的(可以用正则表达式指定,超级强大) awk '!.../linux/' #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}'/etc/passwd 读取命令输出 使用getline,将外部

1.7K10

搞定 Linux Shell 文本处理工具的操作命令

本文将介绍Linux下使用Shell处理文本时最常用的工具:find、grep、xargs、sortuniq、tr、cut、paste、wc、sed、awk;提供的例子和参数都是最常用和最为实用的...4、uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort unsort.txt... -i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用. echo this is en example.../'  #包含linux文本的(可以用正则表达式指定,超级强大) awk '!.../linux/'  #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}'/etc/passwd 读取命令输出 使用getline,将外部

2.4K20

30个高效的Linux命令技巧

-v "^#" httpd.conf |grep -v "^$" 方法2: # sed -e ‘/^$/d’ -e ‘/^#/d’ httpd.conf > http.conf 或者 # sed -...uniq -c:报告或删除文中的重复,-c在输出行前面加上出现的次数 sort -n:根据不同类型进行排序,默认排序是升序,-r参数改为降序,-n是根据数值的大小进行排序 14、插入一到391,包括特殊符号...方法1: # awk '{print $1}' access.log |sort |uniq -c|sort -nr |head -n 10 sort :排序 uniq -c:合并重复,并记录重复次数...# cat a.txt |xargs echo -n |sed 's/[ ]/|/g' #-n 不换行 # cat a.txt |tr -d '\n' #删除换行符 29、查看文本中20至30内容...-k5 -nr 3、将系统进程按CPU占用大小排列显示 ps -e -o "%C : %p : %z : %a"|sort -nr 4、匹配某文件中某一并进行内容替换 sed -i '/Root/s

1K30

史上最全的 Linux Shell 文本处理工具集锦,快收藏!

来自:大CC 链接:www.cnblogs.com/me15/p/3427319.html 本文将介绍Linux下使用Shell处理文本时最常用的工具: find、grep、xargs、sortuniq...04 uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort unsort.txt...-i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用. echo this is en example.../' #包含linux文本的(可以用正则表达式指定,超级强大)awk '!.../linux/' #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}' /etc/passwd 读取命令输出 使用getline,将外部

4K50

Linux文本处理工具,看这篇就够了。

作者:大CC原文:www.cnblogs.com/me15/p/3427319.html 本文将介绍Linux下使用Shell处理文本时最常用的工具: find、grep、xargs、sortuniq...04 uniq 消除重复 消除重复 sort unsort.txt | uniq 统计各行在文件中出现的次数 sort unsort.txt | uniq -c 找出重复 sort unsort.txt...-i 's/text/repalce_text/g' file 移除空白sed '/^$/d' file 变量转换 已匹配的字符串通过标记&引用. echo this is en example.../' #包含linux文本的(可以用正则表达式指定,超级强大)awk '!.../linux/' #不包含linux文本的 设置定界符 使用-F设置定界符(默认为空格) awk -F: '{print $NF}' /etc/passwd 读取命令输出 使用getline,将外部

4.4K10
领券