Найти файлы с тем же именем, но разным содержанием?

9

Я хочу создать список файлов, которые имеют:

  • То же имя
  • Разное содержание

в каталоге (включая все дочерние каталоги и контент).

Как сделать? Bash, Perl, все в порядке.

Таким образом, два файла с одинаковым именем и одинаковым содержимым не должны отображаться.

Николас Рауль
источник
Предположим, есть три файла с одинаковым именем и два из трех идентичны?
Кайл Джонс
@KyleJones: «три файла с одинаковым именем и два из трех идентичны»> Затем это имя файла следует добавить в список
Николас Рауль

Ответы:

8

Обновление: исправлена ​​опечатка в скрипте: изменено print $NFна print $3; также привел в порядок вещи и добавил несколько комментариев.

Предполагая, что имена файлов не содержат \n, ниже выводится отсортированный список, который разбивается (как в: разрывы управления разделами ) на уникальные file name, уникальные md5sum, и показывает соответствующую группу путей к файлам.

#!/bin/bash

# Choose which script to use for the final awk step 
out_script=out_all

# Print all duplicated file names, even when md5sum is the same 
out_all='{ if( p1 != $1 ) { print nl $1; print I $2 }
      else if( p2 != $2 ) { print I $2 }
      print I I $3; p1=$1; p2=$2; nl="\n" }
   END { printf nl}'

# Print only duplicated file names which have multiple md5sums.
out_only='{ if( p1 != $1 ) { if( multi ) { print pend }
                             multi=0; pend=$1 "\n" I $2 "\n" }
       else if( p2 != $2 ) { multi++; pend=pend I $2 "\n" } 
       pend=pend I I $3 "\n"; p1=$1; p2=$2 } 
   END { if( multi ) print pend }'

# The main pipeline 
find "${1:-.}" -type f -name '*' |  # awk for duplicate names
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
           name[$NF]=name[$NF] $0 "\n" } 
     END { for( d in dname ) { printf name[d] } 
   }' |                             # standard md5sum output 
xargs -d'\n' md5sum |               # " "==text, "*"==binary
sed 's/ [ *]/\x00/' |               # prefix with file name  
awk -F/ '{ print $3 "\x00" $0 }' |  # sort by name. md5sum, path 
sort |                              # awk to print result
awk -F"\x00" -v"I=   " "${!out_script}"

Вывод, показывающий только имена файлов с несколькими md5 s

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

Вывод, показывающий все файлы с одинаковым именем.

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

fi    le.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.svn/dir.show/fi    le.html
      ./test/dir.svn/dir.svn/fi    le.html

file.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.html
      ./test/dir.show/dir.svn/file.html

file.svn
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.svn
      ./test/dir.show/dir.svn/file.svn
      ./test/dir.svn/dir.show/file.svn
      ./test/dir.svn/dir.svn/file.svn

file.txt
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.txt
      ./test/dir.show/dir.svn/file.txt
      ./test/dir.svn/dir.show/file.txt
      ./test/dir.svn/dir.svn/file.txt
Peter.O
источник
1

Вот скрипт Perl. Запустите его в каталоге в верхней части дерева, которое вы хотите найти. Сценарий зависит от findи md5, но последний может быть заменен sha1, sumили любой другой файл программы хэширования , который принимает входные данные на стандартный ввод и выводит хэш стандартный вывод.

use strict;

my %files;
my %nfiles;
my $HASHER = 'md5';

sub
print_array
{
    for my $x (@_) {
        print "$x\n";
    }
}

open FINDOUTPUT, "find . -type f -print|" or die "find";

while (defined (my $line = <FINDOUTPUT>)) {
    chomp $line;
    my @segments = split /\//, $line;
    my $shortname = pop @segments;
    push @{ $files{$shortname} }, $line;
    $nfiles{$shortname}++;
}

for my $shortname (keys %files) {
    if ($nfiles{$shortname} < 2) {
        print_array @{ $files{$shortname} };
        next;
    }
    my %nhashes;
    my %revhashes;
    for my $file (@{ $files{$shortname} }) {
        my $hash = `$HASHER < $file`;
        $revhashes{$hash} = $file;
        $nhashes{$hash}++;
    }
    for my $hash (keys %nhashes) {
        if ($nhashes{$hash} < 2) {
            my $file = $revhashes{$hash};
            print "$file\n";
        }
    }
}
Кайл Джонс
источник
1

finddup этот инструмент также может помочь вам в перечислении файлов с одинаковыми именами или содержанием.

user379997
источник
1

Для тех , кто хочет видеть только список имен файлов, вот соответствующая часть Peter.O «s ответ :

find "${1:-.}" -type f -name '*' | 
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
       name[$NF]=name[$NF] $0 "\n" } 
 END { for( d in dname ) { printf name[d] "\n" } 

Мне не нужны md5sums, потому что я использую fslint-guiперед сценарием, чтобы удалить все дубликаты.

int_ua
источник
на моем Mac это показывает дубликаты файлов с одинаковым именем и тем же контентом
nightograph