首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

linux 去重统计个数

在Linux中,可以使用多种命令组合来实现去重并统计个数的功能,以下是一些常见的方法:

一、使用sortuniq命令

  1. 基础概念
    • sort命令用于对文本文件中的行进行排序。它按照字节顺序对输入的行进行排序,可以指定不同的排序选项,如按数值排序、按特定字段排序等。
    • uniq命令用于检查和删除文本文件中连续重复的行。如果输入的行是经过排序的,那么uniq可以有效地去除所有重复的行。
  • 示例
    • 假设有一个名为test.txt的文件,内容如下:
    • 假设有一个名为test.txt的文件,内容如下:
    • 要统计其中不同水果的种类数,可以使用以下命令:
    • 要统计其中不同水果的种类数,可以使用以下命令:
    • 这里首先sort test.txt对文件内容进行排序,得到:
    • 这里首先sort test.txt对文件内容进行排序,得到:
    • 然后uniq去除连续的重复行,得到:
    • 然后uniq去除连续的重复行,得到:
    • 最后wc -l统计行数,结果为3,即不同水果的种类数为3。
  • 优势
    • 简单易用,是Linux中处理文本去重统计的标准方法。
    • 对于小型到中型的文本文件处理效率较高。
  • 应用场景
    • 统计日志文件中不同类型的事件数量。
    • 分析文本数据中的唯一元素个数,如在统计用户输入的不同单词数量时。

二、使用awk命令

  1. 基础概念
    • awk是一种编程语言,用于在Linux/Unix下对文本和数据进行处理。它可以按照指定的规则对输入的每一行进行操作,如匹配特定模式、提取字段、计算统计信息等。
  • 示例
    • 对于上述test.txt文件,可以使用以下awk命令统计不同元素的个数:
    • 对于上述test.txt文件,可以使用以下awk命令统计不同元素的个数:
    • 这里awk命令中的!seen[$0]++表示如果当前行($0)还没有被记录在seen数组中,就执行后面的操作(这里是将该行输出),并且将seen[$0]的值加1。这样就实现了去重输出,然后再通过wc -l统计行数。
  • 优势
    • 功能强大,可以在去重的同时进行更复杂的文本处理操作,如根据特定字段去重等。
    • 对于需要对数据进行更细致分析的场景比较适用。
  • 应用场景
    • 当需要根据文本文件中的多个字段进行去重统计时,例如统计不同用户在不同时间段的登录次数中的唯一用户数。
    • 处理结构化的文本数据,如CSV文件中的特定列的去重统计。
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • Java中对List去重, Stream去重

    问题 当下互联网技术成熟,越来越多的趋向去中心化、分布式、流计算,使得很多以前在数据库侧做的事情放到了Java端。今天有人问道,如果数据库字段没有索引,那么应该如何根据该字段去重?...你需要知道HashSet如何帮我做到去重了。换个思路,不用HashSet可以去重吗?最简单,最直接的办法不就是每次都拿着和历史数据比较,都不相同则插入队尾。而HashSet只是加速了这个过程而已。...,那么是如何去重的呢?...在本题目中,要根据id去重,那么,我们的比较依据就是id了。...回到最初的问题,之所以提这个问题是因为想要将数据库侧去重拿到Java端,那么数据量可能比较大,比如10w条。

    8.8K70

    Flink去重第三弹:HyperLogLog去重

    HyperLogLog算法 也就是基数估计统计算法,预估一个集合中不同数据的个数,也就是我们常说的去重统计,在redis中也存在hyperloglog 类型的结构,能够使用12k的内存,允许误差在0.81%...的情况下统计2^64个数据,在这种大数据量情况下能够减少存储空间的消耗,但是前提是允许存在一定的误差。...www.jianshu.com/p/55defda6dcd2里面做了详细的介绍,其算法实现在开源java流式计算库stream-lib提供了其具体实现代码,由于代码比较长就不贴出来(可以后台回复hll ,获取flink使用hll去重的完整代码...getValue(HyperLogLog accumulator) { return accumulator.cardinality(); } } 定义的返回类型是long 也就是去重的结果

    2.2K20

    Flink去重第一弹:MapState去重

    去重计算应该是数据分析业务里面常见的指标计算,例如网站一天的访问用户数、广告的点击用户数等等,离线计算是一个全量、一次性计算的过程通常可以通过distinct的方式得到去重结果,而实时计算是一种增量、...此篇介绍如何通过编码方式实现精确去重,以一个实际场景为例:计算每个广告每小时的点击用户数,广告点击日志包含:广告位ID、用户设备ID(idfa/imei/cookie)、点击时间。...去重逻辑 自定义Distinct1ProcessFunction 继承了KeyedProcessFunction, 方便起见使用输出类型使用Void,这里直接使用打印控制台方式查看结果,在实际中可输出到下游做一个批量的处理然后在输出

    1.6K30

    Flink去重第四弹:bitmap精确去重

    Flink去重第一弹:MapState去重 Flink去重第二弹:SQL方式 Flink去重第三弹:HyperLogLog去重 关于hyperloglog去重优化 不得不掌握的三种BitMap 在前面提到的精确去重方案都是会保存全量的数据...,但是这种方式是以牺牲存储为代价的,而hyperloglog方式虽然减少了存储但是损失了精度,那么如何能够做到精确去重又能不消耗太多的存储呢,这篇主要讲解如何使用bitmap做精确去重。...ID-mapping 在使用bitmap去重需要将去重的id转换为一串数字,但是我们去重的通常是一串包含字符的字符串例如设备ID,那么第一步需要将字符串转换为数字,首先可能想到对字符串做hash,但是hash...UDF化 为了方便提供业务方使用,同样需要将其封装成为UDF, 由于snowflake算法得到的是一个长整型,因此选择了Roaring64NavgabelMap作为存储对象,由于去重是按照维度来计算,...关于去重系列就写到这里,如果您有不同的意见或者看法,欢迎私信。 —END—

    2.5K10

    awk数组的两条实用技巧(去重,统计)

    没错,数组元素的初始值都是0,这也是awk数组的一个特点; 如果我们把$1到$NF分别作为同一个数组不同元素的下标,然后用for语句访问这个数组的名字,输出的结果是什么呢?...遍历数组名称时候,获得的数组的下标值; 利用awk数组的这些特征,我们可以进行统计操作,以下为两个统计的例子,相信你看完下面的例子,一定能够举一反三的,比如统计 当前的网络连接数等之类的常见问题: 统计一行中...表示值为tcp6的列出现了1次 1202/master 1 ::1:25 1 0 2 #表示值为0的列出现了2次 [root@localhost ~]# #对系统中归属于同一个进程的监听状态数量进行统计...,还可以用于查重操作,通过前面的例子我们已经知道:awk数组元素的值初始总是为0,所以,利用这一点进行查重操作,看下面的例子: [root@localhost ~]# netstat -antp | grep...以上两中方法:查重以及统计在运维的工作中经常用到的哦,如果get到了就多多使用吧,相信会节省你不少功夫的哦! 本文原创,转载请注明出处.

    1.6K20

    java List去重,根据多个字段属性去重

    问题描述:  如果我有一个A类,里面有5个字段,对于数组List list,我想根据其中的2个字段来去重,如果2个字段都是一样的,只取最新的一条数据即可。...实现思路: 如果你有一个A类,并且想根据其中的两个字段进行去重,只保留最新的一条数据,那么你可以不定义一个新的类PersonId。在这种情况下,你可以使用Java中的Map来达到去重的效果。...最后,你只需要从Map中获取值,就可以得到根据这两个字段去重后的最新数据。...List uniqueDataList = new ArrayList(map.values()); // 打印去重后的数据列表...如果你希望根据其他规则进行去重,可以根据需要进行修改。 应该还有其他的方法。

    1.2K10
    领券