Encontrar arquivos duplicados

Arquivos duplicados ocupam espaço desnecessário no disco. Felizmente existem ferramentas que automatizam a busca por duplicados.

Fdupes

Instale o fdupes:

julio@acer ~> sudo pacman -S fdupes

Rode o fdupes no modo recursivo (-r) e direcione a saída para um arquivo:

julio@acer ~/Documentos/Ebooks> fdupes -r . > dupes1.txt

No meu computador, esse comando demorou apenas 7min para analisar 23500 arquivos. O arquivo de saída, dupes1.txt, tinha 5714 linhas!

julio@acer ~/Documentos/Ebooks> fdupes -rf . > dupes2.txt

Demorou uns 7min para analisar 23500 arquivos: dupes2.txt: 3878 linhas

Removendo as linhas em branco do dupes2.txt usando sed -i '/^$/d' dupes2.txt, o arquivo ficou com 2054 linhas.

Muitos dos arquivos que ele reconheceu como duplicados eram idênticos propositalmente. Exemplos de livros de programação muitas vezes são repetidos. Alguns arquivos de controle de versão (git, svn, etc.) foram reconhecidos como repetidos, mas não devem ser excluídos

Se quiser reduzir o espaço gasto em disco, mas evitar quebrar qualquer coisa, da para criar um script que substitua todos os arquivos duplicados por hardlinks.

Delete todos os arquivos duplicados (cuidado com esse script):

julio@acer ~/Documentos/Ebooks> while read f; do rm "$f"; done < dupes2.txt

Gemini

Uma boa alternativa paga para o Mac é o Gemini, que lista todos os duplicados em uma interface amigável e permite visualizá-los antes de mandá-los para a lixeira.

Julio Batista Silva
Julio Batista Silva
Engenheiro de Dados

Eu sou um engenheiro de computação apaixonado por ciência, tecnologia, fotografia e idiomas. Atualmente trabalhando como Engenheiro de Dados na Alemanha.

comments powered by Disqus