我有一个价值列表,其中可能包含特殊字符,所有类型的字符。
jusewe@somemail.com
Denver Occupy|another name|metadata
another name
metadata
我需要一种使用linux中的linux实用程序或sed、awk的方法来获得输出:来自上述列表的唯一值:
jusewe@somemail.com
Denver Occupy
another name
metadata
我试过的是:
uniq -u test
我有一些记录,其中包含一些袋子作为字段,我正在尝试合并具有相同字段的记录的袋子(我正在丢弃一些字段)。
数据看起来像这样:
u08 u08an id {(web)} 0 0 {(GB),(US)} an
u08 u08an id {(ars)} 0 0 {(GB),(RU)} an
u09 u09an id {(web)} 0 0 {(GB)} an
u09 u09an id {(web)} 0 0 {(US)} an
u10 u10an id {(web)} 0 0 {(GB)} an
u10 u10an id
我不能使用传统的Ruby方法从下面的数组user_list中删除所有重复的对象来达到预期的结果。有没有解决这个问题的聪明方法?
users = []
user_list.each do |u|
user = User.find_by_id(u.user_id)
users << user
#users << user unless users.include?(user) # does not work
end
#users = users.uniq # does not work
我在Linux shell中有包含以下详细信息的文件
Sam , apple
jhon , banana
Sam , apple
jhon , banana
Sam , mango
jhon , banana
jhon , apple
Sam , apple
Sam , papaya
使用我的Linux命令,我可以得到如下结果
cat /names/fav.log | cut -d "," -f 1|sort |uniq -c | sort -rn
结果
Sam 5
jhon 4
但我需要第二列的uniq计数。如下所示
Required result
我对BASH脚本比较陌生。我希望有人能帮忙。我有两个文件。文件1是包含某些服务器属性的.csv文件。
cmdb_ci_linux_server.csv
"CLS000","csl000","Linux SuSe","9","HP"
"CLS001","cls001","Linux SuSe","9","VMware, Inc."
"CLS002","cls002","Linux Red Hat