Выпуск :::
Я устанавливаю Redhat 5.10 x64 на сервер, на котором был неисправен жесткий диск. Я удалил старый неисправный жесткий диск и установил новый с емкостью 500 ГБ, и после установки мне нужно скопировать некоторые данные со старого жесткого диска на новый жесткий диск в / u001. Поэтому я подключил старый жесткий диск (320 ГБ) к серверу. Это показывает, fdisk -l
но когда я пытаюсь смонтировать с помощью
sudo mount / dev / sdb2 или / dev / sdb5 это говорит
Примечание: на старом fdisk -l
жестком диске также была установлена старая ОС, как вы можете видеть в / dev / sda = Новый жесткий диск
/ dev / sdb = Старый жесткий диск
Устройство уже установлено или ресурс занят
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Маунт Результат :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY :: вывод
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
filesystems
rhel
mount
OmiPenguin
источник
источник
mount
?findmnt
илиmount
?lsof +D /media/test/
будет полезенlvdisplay
какие устройства LVM обнаружены. Вы должны иметь возможность получить доступ к ним вместо/dev/sdbX
.Ответы:
Еще в 5.x RHEL по умолчанию использовал LVM. Прежде чем вы сможете подключать тома LVM, вам нужно будет сделать несколько шагов.
Если вы использовали то же имя VG на новом диске, что и на старом, у вас есть небольшая проблема: у вас есть два VG с одинаковым именем. Чтобы однозначно идентифицировать VG, которыми вы хотите манипулировать (т. Е. Включенные
/dev/sdb
), вам понадобятся VG UUID. Запустить:перечислить все обнаруженные LVM PV, включая их VG UUID. Вы также увидите имя VG каждого раздела, чтобы увидеть, есть ли конфликты имен.
LVM в целом достаточно умен, чтобы не испортить вашу активную конфигурацию VG, если вы действительно не пытаетесь запутать ее. Поэтому, если вышеупомянутая
pvs
команда ничего не показывает/dev/sdb
, запуститеvgscan
и попробуйте снова.Когда вы знаете UUID VG, вы можете использовать команду vgrename для переименования любых конфликтующих VG. Если нет конфликтов имен, вы можете пропустить
vgchange
.(Чтобы смонтировать LV (s) внутри VG, вам нужно активировать VG, и VG не активируется, если его имя конфликтует с уже существующим VG.)
Команда для переименования VG выглядит следующим образом:
где
Zvlifi-...
буквенный суп - это VG UUID, а другой параметр - просто новое имя для этого VG.Как только конфликты имен VG разрешены (или, если вообще нет конфликтов), вам нужно активировать VG
/dev/sdb
. Вы можете просто активировать все неактивированные VG, которые LVM видит с помощью этой команды:При активации VG имена устройств (ссылки) любых LV внутри него будут выглядеть как
/dev/mapper/<VG name>-<LV name>
. (Также как и/dev/<VG name>/<LV name>
по причинам устаревшей совместимости.)На этом этапе вы можете монтировать их как обычно.
источник
vgchange -ay
а затем смог запустить:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Если, например,
печать
проверьте, есть ли процесс, использующий это устройство (/ dev / sda1).
Часто это процесс fsck, который запускается автоматически при запуске системы. Вы можете проверить это быстро, например,
источник
Я сталкивался с такой ситуацией. Опыт и решение изложены в моем блоге .
Фрагмент здесь:
Ошибка: mount: / dev / mapper / STORBCK-backup уже смонтирован или / STORBCK занят?
Диагностика: Когда мы пытаемся смонтировать / STORBCK FS, мы получаем вышеупомянутую ошибку.
Решение: 1. Поскольку Other FS стал доступен только для чтения, я остановил / запустил службу iscsi. он успешно вошел в устройство. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html
источник