最初の列が重複している場合は、ファイルの行全体を削除します。

最初の列が重複している場合は、ファイルの行全体を削除します。

2つの列と1000万行のファイルがあります。最初の列には重複した値がたくさん含まれていますが、列2には異なる値があります。重複した行を削除してを使用して1つだけを維持したいと思いますawk。注:ファイルは列1の値に基づいてソートされます。たとえば、

1.123 -4.0
2.234 -3.5
2.234 -3.1
2.234 -2.0
4.432 0.0
5.123 +0.2
8.654 +0.5
8.654 +0.8
8.654 +0.9
.
.
.
.

期待される出力

1.123 -4.0
2.234 -3.5
4.432 0.0
5.123 +0.2
8.654 +0.5
.
.
.
.

ベストアンサー1

さまざまな方法:

  1. アッ

    awk '!a[$1]++' file
    

    これは非常に簡潔な作成方法です。

    awk '{if(! a[$1]){print; a[$1]++}}' file
    

    したがって、最初のフィールド($1)が現在のa配列にない場合は、行を印刷して最初のフィールドをその配列に追加しますa。次のフィールドを表示すると、そのフィールドは配列内にあるため印刷されません。

  2. パール

    perl -ane '$k{$F[0]}++ or print' file
    

    または

    perl -ane 'print if !$k{$F[0]}++' file
    

    これは基本的に以前と同じですawk。これ-nにより、Perl は入力ファイルを 1 行ずつ読み込み、提供されたスクリプトを-e各行に適用します。-a空白で各行を自動的に分割し、結果フィールドを@F配列に保存します。最後に、最初のフィールドを%kハッシュに追加し、そのフィールドがまだ存在しない場合はその行を印刷します。同じ内容を次のように書くことができます。

    perl -e 'while(<>){
                @F=split(/\s+/); 
                print unless defined($k{$F[0]}); 
                $k{$F[0]}++;
             }' file
    
  3. コアツール

    rev file | uniq -f 1 | rev
    

    この方法は、最初に行を裏返し、行がfile12 345の場合は543 21になるように機能します。次に、uniq -f 1543の列である最初のフィールドを無視します。その中にフィールドがありますfile。ここで使用される効果uniqは、重複行をフィルタリングして行ごとに1つだけ残すことです。最後に、別の逆操作を介して行を元の順序に復元します。

  4. GNUソート(例:提案寄稿者: @StéphaneChazelas)

    sort -buk1,1
    

    この-bフラグは先行スペースを無視し、-uメソッドは一意のフィールドのみを印刷します。賢明なのは、-k1,1この-kフラグがソートするフィールドを設定することです。これは一般的な形式です。つまり、ソート時に-k POS1[,POS2]POS2を介してフィールドのみを確​​認します。POS1つまり、-k1,1最初のフィールドだけを見てください。データに応じて、次のいずれかのオプションを追加することもできます。

     -g, --general-numeric-sort
          compare according to general numerical value
     -n, --numeric-sort
          compare according to string numerical value
    

おすすめ記事