Почему этот SSD-накопитель выходит из строя с поврежденными секторами и был ли он предсказуемым?

15

Примечание: этот вопрос ранее был закрыт как не по теме. Вы можете прочитать обсуждение . Мои причины спросить это здесь:

  • Этот диск находится в автономном сервере кеша контента для школ в сельской местности Замбии.
  • Серверы создаются из образов дисков, и весь контент является заменяемым.
  • Это должно быть дешево, потому что замбийские школы ограничены в бюджете, и их будет много.
  • Он также должен быть надежным, потому что на плохих дорогах он может заменить 8 часов в каждую сторону.
  • Мне не разрешено спрашивать здесь, какие диски не являются «ультра-дешевой хренью».
  • Поэтому мы проводим собственные исследования и эксперименты на дисках, которые соответствуют этим критериям.
  • Моя неспособность исправить поврежденные сектора путем их перезаписи (автоматическое перераспределение) опровергла мои предположения, и я хотел знать, почему.
  • Я думал, что, возможно, SECURITY ERASE исправит плохие сектора, но хотел узнать мнение других, прежде чем я испорчу диск.
  • Я думал, что мог пропустить что-то в данных SMART, которые могли бы предсказать сбой.

Это SSD-накопитель Kingston на 240 ГБ, который работал нормально на месте около 3 месяцев и внезапно создал плохие сектора:

smartctl 5.41 2011-06-09 r3365 [i686-linux-3.2.20-net6501-121115-1cw] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     KINGSTON SVP200S3240G
Serial Number:    50026B7228010E5C
LU WWN Device Id: 5 0026b7 228010e5c
Firmware Version: 502ABBF0
User Capacity:    240,057,409,536 bytes [240 GB]
Sector Size:      512 bytes logical/physical
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ACS-2 revision 3
Local Time is:    Tue Mar  5 17:10:24 2013 CAT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x02) Offline data collection activity
                    was completed without error.
                    Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                    without error or no self-test has ever 
                    been run.
Total time to complete Offline 
data collection:        (    0) seconds.
Offline data collection
capabilities:            (0x7b) SMART execute Offline immediate.
                    Auto Offline data collection on/off support.
                    Suspend Offline collection upon new
                    command.
                    Offline surface scan supported.
                    Self-test supported.
                    Conveyance Self-test supported.
                    Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                    power-saving mode.
                    Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                    General Purpose Logging supported.
Short self-test routine 
recommended polling time:    (   1) minutes.
Extended self-test routine
recommended polling time:    (  48) minutes.
Conveyance self-test routine
recommended polling time:    (   2) minutes.
SCT capabilities:          (0x0021) SCT Status supported.
                    SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   084   084   050    Pre-fail  Always       -       10965286670575
  5 Reallocated_Sector_Ct   0x0033   100   100   003    Pre-fail  Always       -       16
  9 Power_On_Hours          0x0032   000   000   000    Old_age   Always       -       46823733462185
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       127
171 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       0
172 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       0
174 Unknown_Attribute       0x0030   000   000   000    Old_age   Offline      -       131
177 Wear_Leveling_Count     0x0000   000   000   000    Old_age   Offline      -       1
181 Program_Fail_Cnt_Total  0x0032   000   000   000    Old_age   Always       -       0
182 Erase_Fail_Count_Total  0x0032   000   000   000    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   000   000   000    Old_age   Always       -       49900
194 Temperature_Celsius     0x0022   033   078   000    Old_age   Always       -       33 (Min/Max 21/78)
195 Hardware_ECC_Recovered  0x001c   120   120   000    Old_age   Offline      -       235163887
196 Reallocated_Event_Count 0x0033   100   100   003    Pre-fail  Always       -       16
201 Soft_Read_Error_Rate    0x001c   120   120   000    Old_age   Offline      -       235163887
204 Soft_ECC_Correction     0x001c   120   120   000    Old_age   Offline      -       235163887
230 Head_Amplitude          0x0013   100   100   000    Pre-fail  Always       -       100
231 Temperature_Celsius     0x0013   100   100   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0000   000   000   000    Old_age   Offline      -       363
234 Unknown_Attribute       0x0032   000   000   000    Old_age   Always       -       208
241 Total_LBAs_Written      0x0032   000   000   000    Old_age   Always       -       208
242 Total_LBAs_Read         0x0032   000   000   000    Old_age   Always       -       1001

SMART Error Log not supported
SMART Self-test Log not supported
SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Теперь я получаю плохие блоки в определенных местах на диске:

root@iPad2:~# badblocks /dev/sda -v
Checking blocks 0 to 234431063
Checking for bad blocks (read-only test): 8394752 done, 1:15 elapsed
8394756 done, 1:21 elapsed
8394757 done, 1:23 elapsed
8394758 done, 1:24 elapsed
8394759 done, 1:27 elapsed
...
190882871one, 29:49 elapsed
190882888one, 29:53 elapsed
190882889one, 29:54 elapsed
190882890one, 29:56 elapsed
190882891one, 29:58 elapsed
done                                
Pass completed, 80 bad blocks found.

Они выглядят повторяемыми, и автоматическое перераспределение завершается неудачно, поэтому их нельзя исправить, написав им:

root@iPad2:~# badblocks /dev/sda -wvf 8394756 8394756
/dev/sda is apparently in use by the system; badblocks forced anyway.
Checking for bad blocks in read-write mode
From block 8394756 to 8394756
Testing with pattern 0xaa: 8394756
done                                
Reading and comparing: done                                
Testing with pattern 0x55: done                                
Reading and comparing: done                                
Testing with pattern 0xff: done                                
Reading and comparing: done                                
Testing with pattern 0x00: done                                
Reading and comparing: done                                
Pass completed, 1 bad blocks found.

И я получаю такие ошибки в системных журналах:

ata1.00: exception Emask 0x0 SAct 0x1 SErr 0x0 action 0x0
ata1.00: irq_stat 0x40000000
ata1.00: failed command: READ FPDMA QUEUED
ata1.00: cmd 60/08:00:08:30:00/00:00:01:00:00/40 tag 0 ncq 4096 in
         res 51/40:08:08:30:00/00:00:01:00:00/40 Emask 0x409 (media error) <F>
ata1.00: status: { DRDY ERR }
ata1.00: error: { UNC }
ata1.00: configured for UDMA/133
sd 0:0:0:0: [sda] Unhandled sense code
sd 0:0:0:0: [sda]  Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
sd 0:0:0:0: [sda]  Sense Key : Medium Error [current] [descriptor]
Descriptor sense data with sense descriptors (in hex):
        72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 00 
        01 00 30 08 
sd 0:0:0:0: [sda]  Add. Sense: Unrecovered read error - auto reallocate failed
sd 0:0:0:0: [sda] CDB: Read(10): 28 00 01 00 30 08 00 00 08 00
end_request: I/O error, dev sda, sector 16789512
Buffer I/O error on device sda, logical block 2098689
ata1: EH complete

Теперь я не понимаю, почему происходит автоматическое перераспределение на этом диске. smartctlВыход все выглядит нормально для меня. Перераспределено только 16 секторов, это совсем немного. Я не вижу никакой законной причины, по которой этот диск отказывается перераспределять сектора. Эта модель SSD просто сломана или плохо спроектирована?

Примечания:

  • атрибут 174 - «Неожиданная потеря мощности» согласно документам Кингстона.
  • 131 неожиданная потеря мощности довольно плохо.
  • атрибут 187 (Reported_Uncorrect) равен 49900 из возможного максимума 65535
  • самая высокая температура когда-либо довольно высокая при 78 ° С

Наиболее интересные счетчики SMART скрыты Kingston на этом диске. Но мы можем вывести количество резервных секторов из атрибута 196. Reallocated_Event_Count, который имеет следующую формулу для нормализованного значения:

100 -(100* RBC / MRC)
RBC = Retired Block Count (Grown)
MRE = Maximum reallocation count

Поскольку нормализованное значение равно 100, это означает, что RBC << MRE, поэтому мы далеко не исчерпали все доступные сектора для перераспределения.

qris
источник
3
Ваши SMART-данные не указывают на какие-либо существенные проблемы. Вы тестировали этот диск на другом контроллере с другим кабелем, чтобы исключить другие проблемы с оборудованием?
Майкл Хэмптон
1
Я еще не пробовал другой контроллер / кабель, потому что некоторые сектора читаются нормально, а другие - ошибки. Из этого я делаю вывод, что ошибка в приводе, а не в контроллере или кабеле.
Крис
1
Ваш вывод ошибочен, потому что то же самое может произойти с плохим контроллером или кабелем (хотя кабель должен быть немного более ошибочным, но все равно стоит попробовать).
Родитель
3
@gparent Вывод не обязательно неправильный; только логика, которая привела к заключению. Причиной может быть виновник, но его причины для мышления так мало оснований. В любом случае он должен проверить на другом контроллере / кабеле как предложено.
Крис С
Да, я так и думал, что только что сказал. Я думаю, что вы можете спокойно рассматривать любые различия как часть языкового барьера, потому что я полностью согласен с вашим комментарием.
gparent

Ответы:

2

Дешевые SSD, похоже, имеют серьезные проблемы с качеством. Вы найдете много пользователей, которые имеют проблемы с вашим конкретным диском. Однако я думаю, что производители также продают разные диски (например, с другими чипами / контроллерами NAND) под одной и той же маркой. Так что каждый диск может вести себя по-разному.

Значения SMART не указывают на то, что привод скоро выйдет из строя. По моему опыту все то же самое: внезапно возникают ошибки диска, а затем происходит сбой диска.

Каковы ваши причины, почему вы используете SSD? Я вижу преимущества твердотельных накопителей в том, что в них нет механических частей, они пыленепроницаемы и выделяют меньше тепла. Однако я также вижу много недостатков.

например, количество записей в одну ячейку памяти, которое даже при выравнивании износа может быть быстро достигнуто на занятом томе, например, когда вы используете файловую систему с журналированием.

И на электронику также влияют высокая влажность или высокие температуры - так же, как с обычными жесткими дисками.

Почему бы не использовать вместо этого более дешевые обычные жесткие диски и (если raid не требуется) поставить сервер с запасными дисками, которые не подключены, пока они не потребуются в качестве замены (уже присутствуют в корпусе сервера или смонтированы в клетке с горячей заменой, чтобы диск может использоваться на разных серверах). Затем они могут быть подготовлены с помощью сценария в поле или удаленно (если это возможно).

Пока обычные жесткие диски не включены, транспортировка к месту назначения может быть затруднена ...

Если имеется несколько школьных серверов / постоянных клиентов и надежная / избыточная сеть, возможно, распределенная файловая система также может помочь в создании отказоустойчивого сервера кэширования (например, с помощью glusterfs).

Райнер Роттманн
источник
Спасибо Брайан, я принимаю этот ответ, так как у меня нет лучших. Мой опыт работы с жесткими дисками заключается в том, что сектора могут быть перераспределены и, следовательно, возможно восстановление. Вы правы по поводу причин использования SSD. Защита от пыли - большая проблема для Замбии. Диски пишутся не часто, большая часть контента статична. Твердотельная электроника меньше подвержена воздействию тепла и влажности, чем вращающаяся ржавчина. RAID жесткие диски нам приходили в голову, но мы надеялись, что SSD будут более надежными и, таким образом, сэкономят деньги. Возможно, мы ошиблись. А в школах очень плохое соединение, поэтому glusterfs отсутствует.
Крис