Наборы данных ZFS исчезают при перезагрузке

13


Я установил ZFS (0.6.5) в свой Centos 7, и я также создал zpool, все работает отлично, за исключением того факта, что мои наборы данных исчезают при перезагрузке.
Я пытался отладить эту проблему с помощью различных интернет-ресурсов и блогов, но не смог получить желаемый результат.
После перезагрузки, когда я запускаю zfs listкоманду, я получаю «нет доступных наборов данных» и zpool listвыдает «нет доступных пулов». После многих онлайн-исследований я могу заставить его работать вручную, импортируя файл кэша с помощью zpool import -c cachefile , но Тем не менее мне пришлось запустить zpool set cachefile = / etc / zfs / zpool.cache Pool до перезагрузки, чтобы импортировать его позже после перезагрузки.

Это чтоsystemctl status zfs-import-cache похоже,

zfs-import-cache.service - Import ZFS pools by cache file Loaded: loaded (/usr/lib/systemd/system/zfs-import-cache.service; static) Active: inactive (dead)

cat /etc/sysconfig/zfs

# ZoL userland configuration.

# Run `zfs mount -a` during system start?
ZFS_MOUNT='yes'

# Run `zfs unmount -a` during system stop?
ZFS_UNMOUNT='yes'

# Run `zfs share -a` during system start?
# nb: The shareiscsi, sharenfs, and sharesmb dataset properties.
ZFS_SHARE='yes'

# Run `zfs unshare -a` during system stop?
ZFS_UNSHARE='yes'

# Specify specific path(s) to look for device nodes and/or links for the
# pool import(s). See zpool(8) for more information about this variable.
# It supersedes the old USE_DISK_BY_ID which indicated that it would only
# try '/dev/disk/by-id'.
# The old variable will still work in the code, but is deprecated.
#ZPOOL_IMPORT_PATH="/dev/disk/by-vdev:/dev/disk/by-id"

# Should the datasets be mounted verbosely?
# A mount counter will be used when mounting if set to 'yes'.
VERBOSE_MOUNT='no'

# Should we allow overlay mounts?
# This is standard in Linux, but not ZFS which comes from Solaris where this
# is not allowed).
DO_OVERLAY_MOUNTS='no'

# Any additional option to the 'zfs mount' command line?
# Include '-o' for each option wanted.
MOUNT_EXTRA_OPTIONS=""

# Build kernel modules with the --enable-debug switch?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_ENABLE_DEBUG='no'

# Build kernel modules with the --enable-debug-dmu-tx switch?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_ENABLE_DEBUG_DMU_TX='no'

# Keep debugging symbols in kernel modules?
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_DKMS_DISABLE_STRIP='no'

# Wait for this many seconds in the initrd pre_mountroot?
# This delays startup and should be '0' on most systems.
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_INITRD_PRE_MOUNTROOT_SLEEP='0'

# Wait for this many seconds in the initrd mountroot?
# This delays startup and should be '0' on most systems. This might help on
# systems which have their ZFS root on a USB disk that takes just a little
# longer to be available
# Only applicable for Debian GNU/Linux {dkms,initramfs}.
ZFS_INITRD_POST_MODPROBE_SLEEP='0'

# List of additional datasets to mount after the root dataset is mounted?
#
# The init script will use the mountpoint specified in the 'mountpoint'
# property value in the dataset to determine where it should be mounted.
#
# This is a space separated list, and will be mounted in the order specified,
# so if one filesystem depends on a previous mountpoint, make sure to put
# them in the right order.
#
# It is not necessary to add filesystems below the root fs here. It is
# taken care of by the initrd script automatically. These are only for
# additional filesystems needed. Such as /opt, /usr/local which is not
# located under the root fs.
# Example: If root FS is 'rpool/ROOT/rootfs', this would make sense.
#ZFS_INITRD_ADDITIONAL_DATASETS="rpool/ROOT/usr rpool/ROOT/var"

# List of pools that should NOT be imported at boot?
# This is a space separated list.
#ZFS_POOL_EXCEPTIONS="test2"

# Optional arguments for the ZFS Event Daemon (ZED).
# See zed(8) for more information on available options.
#ZED_ARGS="-M"

Я не уверен, что это известная проблема, если да, есть ли обходной путь для этого? возможно, это простой способ сохранить мои наборы данных после перезагрузки и желательно без использования файла кэша.

Вишну Наир
источник
что говорит zpool -v и импорт zpool?
Остендали
Привет zpool status -v zpool status -v no pools availableИ, zpool importдает мне этоpool: zfsPool id: 10064980395446559551 state: ONLINE action: The pool can be imported using its name or numeric identifier. config: zfsPool ONLINE sda4 ONLINE
Вишну Наир
zfs import - это то, как я мог заставить его работать, изначально установив файл кеша с помощью команды set cachefile
Vishnu Nair
Вы пропустили /etc/init/zpool-import.conf, можете ли вы также опубликовать содержимое этого файла?
Остендали
1
Включена ли цель ZFS? systemctl status zfs.target
Майкл Хэмптон

Ответы:

6

Пожалуйста, убедитесь, что служба zfs (цель) включена. Это то, что обрабатывает импорт / экспорт пула при загрузке / выключении.

zfs.target loaded active active ZFS startup target

Вам никогда не придется бороться с этим. Если у вас есть шанс, запустите обновление в своем дистрибутиве zfs, так как я знаю, что сервисы стартапов улучшились за последние несколько выпусков:

[root@zfs2 ~]# rpm -qi zfs
Name        : zfs
Version     : 0.6.5.2
Release     : 1.el7.centos
ewwhite
источник
Привет, я также протестировал 0.6.5.3, который, как мне кажется, является последним выпуском, но все еще сталкивался с этой проблемой, с .6.5.3 мне приходилось даже запускаться modprobe zfsкаждый раз, когда я делал перезагрузку для загрузки модулей. Кстати, цель не включена, пожалуйста, проверьте вывод в комментариях выше (ответ Михаэлю). Могу ли я узнать, как установить один? Спасибо.
Вишну Наир
Все, что вам нужно сделать, это, вероятно, что-то вроде:systemctl enable zfs.target
Ewwhite
5

Итак, пул есть, это означает, что проблема с вашим zfs.cache, он не является постоянным, и поэтому он теряет свою конфигурацию при перезагрузке. то, что я бы предложил сделать, это запустить:

      zpool import zfsPool 
      zpool list 

И проверьте, если это доступно. Перезагрузите сервер и посмотрите, вернется ли он, если он не выполнит те же шаги и запустите:

      zpool scrub

Просто чтобы убедиться, что все в порядке с вашим бассейном и т. Д.

Просьба также опубликовать содержание:

      /etc/default/zfs.conf
      /etc/init/zpool-import.conf

В качестве альтернативы, если вы ищете обходной путь для этой проблемы, вы можете установить его следующим образом.

Измените значение с 1 на 0:

    /etc/init/zpool-import.conf

и добавьте следующее в ваш /etc/rc.local:

    zfs mount -a

Это сделает свое дело.

ostendali
источник
Я побежал, zfs import zfsPoolкоторый, как и ожидалось, импортировал мой пул, затем я сделал перезагрузку, побежал, zfs listкоторый дал мне no datasets. Я повторил шаги снова и побежал, zfs scrubчто не дало мне никакого выхода, я сделал перезагрузку сейчас, и все еще наборы данных не сохраняются
Вишну Наир
в случае, если вы не видели мой запрос, я снова напишу "вы можете также опубликовать то, что находится в / etc / default / zfs?"
Остендали
4

У меня также была проблема исчезновения zfs после перезагрузки. Запуск CentOS 7.3 и ZFS 0.6.5.9 Реимпорт вернул его (zpool import zfspool) только до следующей перезагрузки.

Вот команда, которая работала для меня (чтобы она сохранялась при перезагрузке):

systemctl preset zfs-import-cache zfs-import-scan zfs-mount zfs-share zfs-zed zfs.target

(Найдено по адресу: https://github.com/zfsonlinux/zfs/wiki/RHEL-%26-CentOS )

Джефф
источник
Нашел его сейчас в вики: github.com/openzfs/zfs/wiki/FAQ#the-etczfszpoolcache-file
Даниэль С. Стерлинг,