Synology имеет настроенную версию наборов драйверов md и mdadm, которая добавляет флаг 'DriveError' в структуру флагов rdev-> в ядре.
Чистый эффект - если вам не повезло получить сбой массива (первый диск) в сочетании с ошибкой на втором диске - массив переходит в состояние, не позволяющее восстанавливать / восстанавливать массив, даже если чтение с диска работает хорошо.
На данный момент, я не очень беспокоюсь об этом вопросе с точки зрения ЭТОГО массива, так как я уже извлек контент и собираюсь его реконструировать, но больше из-за желания иметь путь разрешения для этого в будущем , так как это второй раз, когда меня это укусило, и я знаю, что видел, как другие задают подобные вопросы на форумах.
Поддержка Synology была менее чем полезной (и в основном не отвечающей) и не предоставит никакой информации ВСЕ о работе с наборами raidsets на коробке.
Содержимое / proc / mdstat:
ds1512-ent> cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE]
md1 : active raid1 sdb2[1] sdd2[3] sdc2[2] sde2[4] sda2[0]
2097088 blocks [5/5] [UUUUU]
md0 : active raid1 sdb1[1] sdd1[3] sdc1[2] sde1[4] sda1[0]
2490176 blocks [5/5] [UUUUU]
unused devices: <none>
Статус из mdadm --detail / dev / md2:
/dev/md2:
Version : 1.2
Creation Time : Tue Aug 7 18:51:30 2012
Raid Level : raid5
Array Size : 11702126592 (11160.02 GiB 11982.98 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Fri Jan 17 20:48:12 2014
State : clean, degraded
Active Devices : 4
Working Devices : 5
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Name : MyStorage:2
UUID : cbfdc4d8:3b78a6dd:49991e1a:2c2dc81f
Events : 427234
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 21 1 active sync /dev/sdb5
2 8 37 2 active sync /dev/sdc5
3 8 53 3 active sync /dev/sdd5
4 8 69 4 active sync /dev/sde5
5 8 5 - spare /dev/sda5
Как видите - / dev / sda5 был повторно добавлен в массив. (Это был диск, который сразу вышел из строя) - но даже если md рассматривает диск как запасной, он не будет восстановлен на нем. В этом случае / dev / sde5 является проблемным диском с состоянием (E) DiskError.
Я попытался остановить устройство md, запустить сборку силы, удаление / чтение sda5 из устройства / и т.д. Никаких изменений в поведении.
Я смог полностью воссоздать массив с помощью следующей команды:
mdadm --stop /dev/md2
mdadm --verbose \
--create /dev/md2 --chunk=64 --level=5 \
--raid-devices=5 missing /dev/sdb5 /dev/sdc5 /dev/sdd5 /dev/sde5
который вернул массив в это состояние:
md2 : active raid5 sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
Затем я повторно добавил / dev / sda5:
mdadm --manage /dev/md2 --add /dev/sda5
после чего началось восстановление:
md2 : active raid5 sda5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUU]
[>....................] recovery = 0.1% (4569508/2925531648) finish=908.3min speed=53595K/sec
Обратите внимание на положение «отсутствующего» диска, совпадающее с точным положением отсутствующего слота.
Как только это закончится, я думаю, что я, вероятно, вытащу сомнительный диск и сделаю его заново.
Я ищу любые предложения относительно того, есть ли какой-либо «менее страшный» способ сделать это восстановление - или если кто-то прошел через этот опыт с массивом Synology и знает, как заставить его перестраивать, кроме как перевести устройство md в автономный режим и воссоздать массив с нуля.
источник
Ответы:
Просто дополнение к решению, которое я нашел после того, как столкнулся с той же проблемой. Я следил за публикацией в блоге dSebastien о том, как заново создать массив:
Я обнаружил, что этот метод воссоздания массива работал лучше, чем этот метод выше. Однако после повторного создания массива том все еще не отображался в веб-интерфейсе. Ни одно из моих LUN не показывалось. В основном показывает новый массив без настроенного. Я связался со службой поддержки Synology, и они удалились, чтобы решить проблему. К сожалению, они удалились, пока я был далеко от консоли. Мне все-таки удалось запечатлеть сеанс и посмотреть, что они сделали. При попытке восстановить некоторые из моих данных диск снова вышел из строя, и я снова оказался в той же ситуации. Я воссоздал массив, как в блоге dSebastien, а затем просмотрел сеанс Synology, чтобы выполнить их обновление. После выполнения приведенных ниже команд мой массив и логические модули появились в веб-интерфейсе, и я смог с ними работать. У меня практически нет опыта работы с Linux, но это были команды, которые я выполнял в своей ситуации. Надеюсь, что это может помочь кому-то еще, но, пожалуйста, используйте это на свой страх и риск. Лучше всего обратиться в службу поддержки Synology и попросить их исправить это за вас, поскольку эта ситуация может отличаться от вашей.
источник
Еще одно дополнение: я столкнулся с очень похожей проблемой с моим устройством с одним диском / RAID уровня 0.
Поддержка Synology была очень полезной и восстановила мое устройство. Вот что случилось, надеюсь, это поможет другим:
Мой диск имел ошибки чтения в одном конкретном блоке, сообщения в системном журнале (
dmesg
) были:Через несколько секунд я получил ужасную
Volume 1 has crashed
почту с моего устройства.- Отказ от ответственности: Обязательно замените имя устройства на свое, а не просто копируйте и вставляйте эти команды, так как это может ухудшить ситуацию! -
После остановки smb я смог заново смонтировать раздел только для чтения и запустить e2fsk с badblocks check (
-c
):(можно также использовать
e2fsck -C 0 -p -v -f -c /dev/md2
для запуска как можно более автоматической, хотя в моем случае это не сработало, поскольку ошибки должны были быть исправлены вручную. Поэтому мне пришлось перезапустить e2fsck. Conclusio: -p не имеет большого смысла в случай ошибки диска)Хотя e2fsck был в состоянии исправить ошибки, и smartctl также не показал больше увеличения Raw_Read_Error_Rate, том все равно не будет монтироваться устройством в режиме чтения-записи. DSM все еще показывал "громкость сбилась"
Поэтому я открыл билет с поддержкой. Сначала потребовалось немало времени, чтобы все заработало, но в итоге они исправили это, перестроив массив RAID с помощью:
Не забудьте проверить имена устройств (
/dev/mdX
и/dev/sdaX
), прежде чем делать что-либо.cat /proc/mdstat
покажет соответствующую информацию.источник