Моя команда клонировать диск оптимальна?

16

Я потратил полчаса на чтение, чтобы подготовиться к клонированию моего жесткого диска. Он имеет несколько разделов, включая раздел Windows. Я собираюсь купить очень большой внешний жесткий диск для резервного копирования. Я хотел бы иметь возможность использовать этот клон для восстановления всего диска в случае, если что-то пойдет не так (я собираюсь сделать некоторые перестановки ОС). Я хочу научиться делать это с помощью dd, так как мне нравятся низкоуровневые инструменты, которые не требуют установки ничего.

Я нашел следующий полезный код с форумов Ubuntu (введенный из корневой оболочки с использованием live CD):

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

(Я знаю, что мне придется редактировать места ввода и вывода.) Однако у меня есть два вопроса. Первая очень неопрятна: эта команда разбита на две строки. Конечно, когда я нажимаю Enter после восклицательного знака, он запускает процесс?

Во-вторых, на других сайтах рекомендуется вводить размер блока. Как это:

# dd if=/dev/hda conv=sync,noerror bs=64K of=/mnt/sda1/hda.img

Я ничего не знаю о размерах блоков. Правильно ли 64K? Похоже, мой размер блока составляет 512 байт из следующего, вывод sudo fdisk -ul:

Disk /dev/sda: 750.2 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders, total 1465149168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0xc3ffc3ff

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *          63   143364059    71681998+   7  HPFS/NTFS/exFAT
Partition 1 does not start on physical sector boundary.
/dev/sda2       976867328  1465147391   244140032    7  HPFS/NTFS/exFAT
/dev/sda3       143364094   976867327   416751617    5  Extended
Partition 3 does not start on physical sector boundary.
/dev/sda5       143364096   162895871     9765888   82  Linux swap / Solaris
/dev/sda6       162897920   205864959    21483520   83  Linux
/dev/sda7       205867008   976867327   385500160   83  Linux

Partition table entries are not in disk order

Disk /dev/mapper/cryptswap1: 10.0 GB, 10000269312 bytes
255 heads, 63 sectors/track, 1215 cylinders, total 19531776 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x433bb3a7

Disk /dev/mapper/cryptswap1 doesn't contain a valid partition table

Спасибо.

Кит Джонсон
источник
Вы пробовали простой dd if=/dev/hda of=hdb? Вот ответ, который показывает некоторые детали, включая время выполнения для 160 ГБ: askubuntu.com/questions/435694/…
SDsolar
В последних версиях Ubuntu используется coreutils v.8.24 или новее, в который ddвключен переключатель прогресса, как упомянуто здесь
Elder Geek

Ответы:

22

Прогресс

Команда, которую вы перечислили

dd if=/dev/hda of=/dev/hdb & pid=$!
while kill -USR1 $pid; do sleep 1; done

хороший двухлинейный, чтобы получать прогресс ddна регулярной основе. Я тоже использую очень похожий. Выглядит хорошо. Нашли здесь что- нибудь?

Блокирует с dd: выравнивание и производительность

Вы можете добавить размер блока, в котором будут выполняться операции. Неважно, какой размер блока базового блочного устройства обеспечивает одинаково хорошее выполнение операции, но по соображениям производительности вы можете выбрать тот, который соответствует вашим потребностям.

Прежде всего, есть вещь выравнивания . Если ваше блочное устройство работает как 512 КБ (как это делают флэш-накопители), было бы очень неудачно работать ddс bs=512(байтами), так как это вызовет 1024 записи (!) Для каждого блока с точки зрения устройства. На практике это не будет так плохо, поскольку записи буферизуются и обрабатываются за один раз, но во время синхронизации они все же могут значительно увеличить количество записей.

Затем также учитывайте обычную нагрузку на процессор при работе с очень большим количеством мелких операций. Просто более эффективно брать мегабайты сразу при копировании больших объемов данных.

Моя лучшая практика - начинать с 1 МБ, так как это неплохое множество большинства настроек, включая размеры полосы RAID, размеры экстентов LVM и т. Д. На моем ноутбуке с твердотельным накопителем я, как правило, вижу небольшое улучшение, используя размер блока 10 МБ, тогда как я больше не вижу на моем физическом жестком диске.

Последний блок

Не беспокойтесь о том, что размер диска / тома не кратен размеру блока. Последний ddскопированный блок будет скорректирован в соответствии с последним битом данных на нем. Вы можете увидеть, был ли последний блок другого размера, посмотрев на вывод.

18335302+0 records out

В +0означает , что это было точное совпадение, а +1значит , что это не было. Ничего страшного.

Смотрите также

gertvdijk
источник
1
Вау, какой исчерпывающий ответ. Большое спасибо, что нашли время, чтобы сделать это. Я обновлю оригинальный вопрос со ссылкой на мой источник. Я пойду с 1 МБ тогда. Так что моя команда будет такой, я прав? # dd if=/dev/hda conv=sync,noerror bs=1MB of=/mnt/sda1/hda.img & pid=$! while kill -USR1 $pid; do sleep 1; done
Кит Джонсон
2
@oldmankit Я бы сделал, так bs=1Mкак это степень 2, а не bs=1MBстепень 10. Но просто запустите несколько тестов в вашей системе, если вы можете увидеть, что лучше.
gertvdijk
4
Обратите внимание, что, как упоминалось здесь, начиная с выпуска coreutils> = 8.24 (по умолчанию в Ubuntu Xenial 16.04 и выше), больше не нужно, чтобы kill -USR1 $piddd теперь имел отчет о проделанной работе, добавив status=progressпереключатель
Elder Geek
10

Как уже говорили другие, не существует универсально правильного размера блока; то, что оптимально для одной ситуации или одного устройства, может быть ужасно неэффективно для другой. Кроме того, в зависимости от работоспособности дисков может оказаться предпочтительным использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, состоит в том, что размер блока по умолчанию в 512 байт имеет тенденцию быть почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневался, я обнаружил, что 64K - довольно солидный современный стандарт. Хотя 64K обычно не является оптимальным размером блока, по моему опыту, он намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной производительности: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, с рекомендацией размера блока 64K.

Для определения оптимального размера выходного блока я написал следующий скрипт, который тестирует запись 128-мегагерцового файла с dd в диапазоне разных размеров блока, от 512 байт по умолчанию до 64M максимум. Имейте в виду, этот скрипт использует dd для внутреннего использования, поэтому используйте его с осторожностью.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Посмотреть на GitHub

Я тестировал этот сценарий только в системе Debian (Ubuntu) и в OSX Yosemite, поэтому, возможно, потребуется некоторая настройка для работы с другими версиями Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfileв текущем каталоге. Кроме того, вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени скрипта:

$ ./dd_obs_test.sh /path/to/disk/test_file

Выходные данные сценария представляют собой список протестированных размеров блоков и их соответствующих скоростей передачи, например:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица измерения скорости передачи данных зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения /dev/zeroи записи на диск вы будете читать с диска и записывать на него /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Посмотреть на GitHub

Важным отличием в этом случае является то, что тестовый файл - это файл, который записывается скриптом. Не указывайте эту команду на существующий файл, иначе существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128 КБ был самым оптимальным размером входного блока на жестком диске, а 32 КБ был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих выводов, мне нужно было определить оптимальный размер блока dd достаточно много раз, чтобы я написал об этом в блоге . Вы можете найти более подробную информацию о тестах, которые я провел там.

Этот пост StackOverflow также может быть полезен: dd: Как рассчитать оптимальный размер блока?

tdg5
источник
Научите человека ловить рыбу = +1
HackSlash
@ tdg5 Это отличный скрипт, но он сталкивается с фатальными ошибками при выполнении из Cygwin в среде Windows 7. Есть ли версия, которая будет работать на Cygwin?
Хашим