[EN]
Search, sort, filter and remove duplicate files
Deduplicator uses fxhash (a non-cryptographic hashing algorithm) under the hood, which is very fast. As a result, Deduplicator is able to process huge amounts of data in a couple of seconds.
During testing, Deduplicator was able to go through 8.6 GB of pdf files and detect duplicates in 2.9 seconds.
[RU]
Поиск, сортировка, фильтрация и удаление дубликатов файлов
Deduplicator использует fxhash (некриптографический алгоритм хеширования) под капотом, который работает очень быстро. В результате Deduplicator способен обрабатывать огромные объемы данных за пару секунд.
Во время тестирования Deduplicator смог просмотреть 8, 6 ГБ pdf-файлов и обнаружить дубликаты за 2, 9 секунды.
[ES]
Busque, ordene, filtre y elimine archivos duplicadosDeduplicator usa fxhash (un algoritmo hash no criptográfico) bajo el capó, que es muy rápido. Como resultado, Deduplicator puede procesar grandes cantidades de datos en un par de segundos.
Durante la prueba, Deduplicator pudo analizar 8,6 GB de archivos pdf y detectar duplicados en 2,9 segundos.
[UA]
Пошук, сортування, фільтрація та видалення дублікатів файлів
Deduplicator використовує fxhash (некриптографічний алгоритм хешування) під капотом, який працює дуже швидко. В результаті Deduplicator здатний обробляти величезні обсяги даних за кілька секунд.
Під час тестування Deduplicator зміг переглянути 8, 6 ГБ pdf-файлів та виявити дублікати за 2, 9 секунди.
GitHub: https://github.com/sreedevk/deduplicator