Есть несколько папок с множеством папок, некоторые из которых тоже дублируются, а в папках файлы, которые в свою очередь так-же дублируются. Какая-то матрешка в кубе. Пытался с помощью ccleaner почистить дубликаты, но он их очень криво чистить, даже если выбирать из каких папок будут удалены дубликаты, плюс он не все дубликаты видит.
По-моему это тот случай, когда написать скрипт для перекладывания файлов проще, чем искать какой-то софт
Некоторые инструменты может и не делают не то, что ты просишь, но могут облегчить труд в твоей ситуации.
Total Commander способен вытряхнуть все файлы в каталоге в один список, а дальше твори с ним что хочешь, сортируй, сравнивай, отбирай нужные и ненужные. Я полагаю, там есть встроенный функционал или плагин для сравнения папок и действий над разницей.
Spacesniffer - маленькая программка, которая наглядно графически показывает, где у тебя залежи особо крупных файлов, если нужно почистить место на диске и ты не знаешь в каком углу у тебя гора хлама - помогает.
Тайлер Дерден одному парню решил вопрос потребления и накопления.
Если бы это были мои файлы, я бы их нахер снес, как делал не 1 раз, но это не мои файлы. А вот головная боль моя.
Попробуй SearchMyFiles. Там выдаст список, сортируй его по размеру, например и сам решишь что делать с файлами и что именно с какими именно.
Автоматизацию как ты описал по сути только через скрипт, слишком специфическая задача.
Я бы Powershell скрипт написал, который проходит все папки и вычисляет хеш каждого файла, если хеш у некоторых совпадает - значит дубликаты, ну а потом зачистка дубликатов и перенос всех оригинальных файлов в одну папку.
А структуру папок сохранить важно? (сколько баллов из десяти). Если нет, то можно же удалить дубликаты файлов (если софт умеет именно дубликаты искать, а не чисто файлы с одинаковым названием) и потом вытащить все остальные файлы в одну папку, будет плоский список всего, что удалось восстановить :)