В настоящее время я экспортирую раздел ZFS с dedup=on
использованием ubuntu-zfs
и netatalk
. Тем не менее, машина времени настаивает на создании на ней разреженного пакета, и это заставило меня задуматься о том, не повлияет ли это на дедупликацию, поскольку концепция «файлов» исчезнет, и, вероятно, выравнивание блоков тоже не будет хорошим… ,
PS Вся моя идея использования дедупликации заключается в том, что у меня есть пара macbooks, резервное копирование в одно и то же место, и многие их файлы равны.
Приложение: Похоже, что выравнивание на уровне блоков не приводит к дедупликации. Вот мой опыт:
- Копии машины времени двух разных macbooks, с множеством дублированных данных среди них (всего 200 Гб)
- CCC из двух macbooks на два разреженных изображения.
Фактор дедупликации? 1.01x
Любые идеи о том, как настроить дедупликацию ZFS для правильной работы с резервными копиями машины времени? Должен ли я начать искать другие альтернативы резервного копирования (с дедупликацией)?
Ответы:
Дедупликация в ZFS - на уровне блоков, поэтому она не зависит от концепции файлов. Единственный способ избежать дедупликации - это если смещение файла в sparsebundle не всегда одинаково по модулю размера блока. Поскольку ZFS может использовать переменные размеры блоков, которые больше, чем размер блоков файловой системы HFS + внутри sparsebundle, правильное выравнивание не гарантируется, но также не гарантируется, что дедупликация не удастся.
Если вас беспокоит пространство, вы также можете включить сжатие в своем пуле ZFS. Это накладывает дополнительные затраты ресурсов процессора, но на самом деле может увеличить эффективную пропускную способность диска.
источник