Устройство уже установлено или ресурс занят

9

Выпуск :::

Я устанавливаю Redhat 5.10 x64 на сервер, на котором был неисправен жесткий диск. Я удалил старый неисправный жесткий диск и установил новый с емкостью 500 ГБ, и после установки мне нужно скопировать некоторые данные со старого жесткого диска на новый жесткий диск в / u001. Поэтому я подключил старый жесткий диск (320 ГБ) к серверу. Это показывает, fdisk -lно когда я пытаюсь смонтировать с помощью

sudo mount / dev / sdb2 или / dev / sdb5 это говорит

Примечание: на старом fdisk -l
жестком диске также была установлена ​​старая ОС, как вы можете видеть в / dev / sda = Новый жесткий диск
/ dev / sdb = Старый жесткий диск

Устройство уже установлено или ресурс занят

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Маунт Результат :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: вывод

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes
OmiPenguin
источник
Какой выход mount?
csny
Можете ли вы показать вывод findmntили mount?
Spack
Также lsof +D /media/test/будет полезен
вывод
1
Проблема в том, что старый диск не имеет простых файловых систем на разделах, но имеет уровень LVM между устройством и файловыми системами, как показано типом раздела. Убедитесь, что в вашей новой системе установлены инструменты LVM, перезагрузитесь со старым подключенным диском и проверьте, lvdisplayкакие устройства LVM обнаружены. Вы должны иметь возможность получить доступ к ним вместо /dev/sdbX.
wurtel
2
Для всех помощников, извините, это была чисто моя ошибка, я полностью забыл, что это разделы lvm. И нужно смонтировать с помощью mount / dev / mapper / VG_u001 / media / test @wurtel, вы можете сказать, какие инструменты можно использовать для восстановления файлов из LVM.
OmiPenguin

Ответы:

2

Еще в 5.x RHEL по умолчанию использовал LVM. Прежде чем вы сможете подключать тома LVM, вам нужно будет сделать несколько шагов.

Если вы использовали то же имя VG на новом диске, что и на старом, у вас есть небольшая проблема: у вас есть два VG с одинаковым именем. Чтобы однозначно идентифицировать VG, которыми вы хотите манипулировать (т. Е. Включенные /dev/sdb), вам понадобятся VG UUID. Запустить:

# pvs -o +vg_uuid

перечислить все обнаруженные LVM PV, включая их VG UUID. Вы также увидите имя VG каждого раздела, чтобы увидеть, есть ли конфликты имен.

LVM в целом достаточно умен, чтобы не испортить вашу активную конфигурацию VG, если вы действительно не пытаетесь запутать ее. Поэтому, если вышеупомянутая pvsкоманда ничего не показывает /dev/sdb, запустите vgscanи попробуйте снова.

Когда вы знаете UUID VG, вы можете использовать команду vgrename для переименования любых конфликтующих VG. Если нет конфликтов имен, вы можете пропустить vgchange.

(Чтобы смонтировать LV (s) внутри VG, вам нужно активировать VG, и VG не активируется, если его имя конфликтует с уже существующим VG.)

Команда для переименования VG выглядит следующим образом:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

где Zvlifi-...буквенный суп - это VG UUID, а другой параметр - просто новое имя для этого VG.

Как только конфликты имен VG разрешены (или, если вообще нет конфликтов), вам нужно активировать VG /dev/sdb. Вы можете просто активировать все неактивированные VG, которые LVM видит с помощью этой команды:

vgchange -ay

При активации VG имена устройств (ссылки) любых LV внутри него будут выглядеть как /dev/mapper/<VG name>-<LV name>. (Также как и /dev/<VG name>/<LV name>по причинам устаревшей совместимости.)

На этом этапе вы можете монтировать их как обычно.

Телком
источник
Это сработало для меня! Я получал уже смонтированную или занятую ошибку, поэтому я сделал, vgchange -ayа затем смог запустить:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell
1

Если, например,

mount /dev/sda1 /mnt/tmp

печать

mount: /dev/sda1 is already mounted or /mnt/tmp busy

проверьте, есть ли процесс, использующий это устройство (/ dev / sda1).

Часто это процесс fsck, который запускается автоматически при запуске системы. Вы можете проверить это быстро, например,

ps aux | grep sda1
Милан Ласлоп
источник
Это был корень моей проблемы, спасибо! (все еще надеясь, что диск будет правильно монтироваться после завершения проверки fsck)
Франк
0

Я сталкивался с такой ситуацией. Опыт и решение изложены в моем блоге .

Фрагмент здесь:

Ошибка: mount: / dev / mapper / STORBCK-backup уже смонтирован или / STORBCK занят?

Диагностика: Когда мы пытаемся смонтировать / STORBCK FS, мы получаем вышеупомянутую ошибку.

Решение: 1. Поскольку Other FS стал доступен только для чтения, я остановил / запустил службу iscsi. он успешно вошел в устройство. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Манас Трипати
источник