Головная боль с миллионом дубликатов

Есть несколько папок с множеством папок, некоторые из которых тоже дублируются, а в папках файлы, которые в свою очередь так-же дублируются. Какая-то матрешка в кубе. Пытался с помощью ccleaner почистить дубликаты, но он их очень криво чистить, даже если выбирать из каких папок будут удалены дубликаты, плюс он не все дубликаты видит.

А еще проблема в том, что среди всего этого хаоса есть и не дублирующиеся файлы.

И вот мой вам вопрос:

Есть ли такой софт который будет оставлять дубликаты из одной определенной папки, а дубликаты из остальных удалять?

А если есть такой софт который просто пропустит это через себя и будет скидывать в определенный папку, не пропуская дубликаты, то вообще заебись.

Там просто такой пиздец, что и недели на это все не хватит, если сортировать ручками и проставлять галочки. Я и так целый день по городу бегал вчера и не смог найти "мастера" по ремонту, чтоб он мне кирпич восстановил без удаления данных, а по итогу сам смог это сделать.

44
14 комментариев

По-моему это тот случай, когда написать скрипт для перекладывания файлов проще, чем искать какой-то софт

5
Ответить

Некоторые инструменты может и не делают не то, что ты просишь, но могут облегчить труд в твоей ситуации.

Total Commander способен вытряхнуть все файлы в каталоге в один список, а дальше твори с ним что хочешь, сортируй, сравнивай, отбирай нужные и ненужные. Я полагаю, там есть встроенный функционал или плагин для сравнения папок и действий над разницей.

Spacesniffer - маленькая программка, которая наглядно графически показывает, где у тебя залежи особо крупных файлов, если нужно почистить место на диске и ты не знаешь в каком углу у тебя гора хлама - помогает.

 

3
Ответить

Тайлер Дерден одному парню решил вопрос потребления и накопления.

1
Ответить

Если бы это были мои файлы, я бы их нахер снес, как делал не 1 раз, но это не мои файлы. А вот головная боль моя. 

1
Ответить

Попробуй SearchMyFiles. Там выдаст список, сортируй его по размеру, например и сам решишь что делать с файлами и что именно с какими именно.
Автоматизацию как ты описал по сути только через скрипт, слишком специфическая задача.

1
Ответить

Я бы  Powershell скрипт написал, который проходит все папки и вычисляет хеш каждого файла, если хеш у некоторых совпадает - значит дубликаты, ну а потом зачистка дубликатов и перенос всех оригинальных файлов в одну папку. 

1
Ответить

А структуру папок сохранить важно? (сколько баллов из десяти). Если нет, то можно же удалить дубликаты файлов (если софт умеет именно дубликаты искать, а не чисто файлы с одинаковым названием) и потом вытащить все остальные файлы в одну папку, будет плоский список всего, что удалось восстановить :)

Ответить