Linux *.log 日志 ip
cat xxx_merge.log | awk '{print $3}' |sort -rn|uniq |head -100000 >>xxx.txt
其他
$cat data1.txt | sort | uniq
只有uniq命令的话,只是把相邻的重复的数据行去掉。
如果先 sort 的话,就会把所有重复的数据行变成相邻的数据行,再 uniq 的话,就去掉所有重复的数据行了。
cat xxx_merge.log | awk '{print $3}' |sort -rn|uniq |head -100000 >>xxx.txt
其他
$cat data1.txt | sort | uniq
只有uniq命令的话,只是把相邻的重复的数据行去掉。
如果先 sort 的话,就会把所有重复的数据行变成相邻的数据行,再 uniq 的话,就去掉所有重复的数据行了。