Я смотрю на реализацию очень большого сервера хранения, который будет использоваться в качестве живого NAS для нескольких других серверов (все на основе Linux).
Под очень большим я имею в виду доступное пространство от 4 ТБ до 20 ТБ (хотя маловероятно, что мы фактически сделаем это 20 ТБ).
Сервер хранения будет RAID 10 для обеспечения безопасности и производительности данных, но нам все равно понадобится решение для резервного копирования, в том числе резервное копирование вне сайта.
Мой вопрос: как вы делаете резервную копию такого количества данных?
Я не могу просто подключить портативный жесткий диск и передать файлы. В настоящее время у нас нет других устройств с таким большим объемом памяти.
Нужно ли выделять бюджет на второй сервер хранения вне сайта или есть лучшее решение?
источник
Ответы:
Есть много способов обработки данных такого размера. Многое зависит от вашего окружения и того, сколько денег вы готовы потратить. В целом, существует несколько общих стратегий «получить данные с сервера»:
Это вид на 100 км. Как только вы начинаете увеличивать масштаб, все становится более фрагментированным. Как уже упоминалось, LTO5 - это специальная ленточная технология, разработанная для таких нагрузок высокой плотности. Другой идентичный массив хранения - хорошая цель, особенно если вы можете использовать что-то вроде GlusterFS или DRBD для получения данных там. Кроме того, если вам понадобится резервное чередование или просто возможность продолжить работу в случае сбоя массива, это повлияет на то, что вы поставили на место.
Как только вы остановитесь на методе просмотра 100 км, следующей большой задачей станет внедрение программного обеспечения. Факторы, влияющие на это, - это то, что вы можете установить на свой сервер хранения в первую очередь (если это NetApp, это одно, а сервер Linux с кучей хранилищ - это совсем другое, как сервер Windows с кучей хранилищ) какое оборудование вы выберете (например, не все пакеты резервного копирования FOSS хорошо справляются с ленточными библиотеками) и какое хранилище вам требуется.
Вы действительно должны выяснить, какого рода аварийное восстановление вы хотите. Простая живая репликация проще, но не позволяет вам восстановить данные с прошлой недели только сейчас. Если для вас важна возможность восстановления с прошлой недели, то вам нужно спроектировать для такого рода вещи. По закону (в США и других странах) некоторые данные должны храниться в течение 7+ лет.
Простую репликацию проще всего сделать. Это то, для чего предназначен DRBD. Как только начальная копия сделана, она просто отправляет изменения. Осложняющими факторами здесь являются локальность сети, если ваш второй массив не находится рядом с первичным DRBD, возможно, это не осуществимо. Вам понадобится второй сервер хранения, на котором будет как минимум столько же места, сколько на первом.
О резервном копировании на ленту ...
LTO5 может хранить 1,5 ТБ данных без сжатия. Кормление этих монстров требует очень быстрой работы в сети, то есть Fibre Channel или 6Gb SAS. Так как вам нужно сделать резервную копию более 1,5 ТБ, вам нужно взглянуть на автозагрузчики (вот пример: ссылка , 24-слотовый 1-дисковый автозагрузчик от HP). С программным обеспечением, которое их поддерживает, они будут обрабатывать сменные ленты в процессе резервного копирования. Они великолепны. Вам все равно придется извлекать ленты, чтобы отправлять их за пределы площадки, но это чертовски лучше, чем торчать всю ночь, чтобы загружать ленты самостоятельно, когда резервная копия требует их.
Если лента дает вам « наследство », виртуальная ленточная библиотека может быть более быстрой (например, из Quantum: ссылка ). Они претендуют на то, чтобы быть ленточными библиотеками для резервного копирования программного обеспечения, в то же время фактически сохраняя данные на диск с помощью надежных (как вы надеетесь) методов дедупликации. Любители даже копируют виртуальные ленты на реальные для вас, если вам нравятся такие вещи, которые могут быть очень полезны для ротации за пределами площадки.
Если вы не хотите копаться даже с виртуальными лентами, но по-прежнему хотите выполнять прямое резервное копирование на диск, вам понадобится массив хранения, достаточно большой для обработки этих 20 ТБ, плюс столько данных о сетевых изменениях, сколько вам нужно держать в руках. Различные пакеты резервного копирования обрабатывают это по-разному. Некоторые технологии дедупликации действительно хороши, другие - хакеры. Лично я не знаю состояния пакетов ПО для резервного копирования FOSS в этой области (я слышал о Bacula), но их может быть достаточно. Во многих коммерческих пакетах резервного копирования есть локальные агенты, которые вы устанавливаете на серверах для резервного копирования, чтобы увеличить пропускную способность, что имеет много достоинств.
источник
Музыкальный автомат LTO-5? вам понадобится где-то от трех до 15 лент для резервного копирования этого массива, а это не слишком большое количество. Музыкальный автомат позаботится о смене лент для вас, а хорошее программное обеспечение для резервного копирования (например, bacula) будет отслеживать, какие файлы на какой ленте находятся.
Вы также захотите учесть время, необходимое для резервного копирования файловой системы, такого большого размера, поскольку весьма вероятно, что FS изменится за этот период. Для достижения наилучших результатов очень полезна файловая система, которая поддерживает моментальные снимки, поэтому вы можете сделать мгновенный моментальный снимок и выполнить полное или инкрементное резервное копирование с этим, а не с действующей файловой системой.
источник
Вероятно, вам стоит подумать о резервном копировании на диск , поскольку запись на ленту займет много времени, а при последовательном доступе восстановление займет вечность.
Определенно используйте преимущества дифференциальных или инкрементных резервных копий - только резервное копирование изменений с любой частотой, которая имеет смысл для вас.
Вероятно, идеальным решением было бы иметь второй сервер аналогичного размера в другом месте , куда регулярно отправляются инкрементные резервные копии, и это можно было бы быстро заменить на место, если бы основной сервер когда-либо умер. Однако другой вариант может заключаться в том, чтобы использовать съемные диски на месте, которые затем выносятся на хранение.
Когда вы имеете дело с таким большим количеством данных, также имеет смысл разбить ваши резервные копии на более мелкие задания резервного копирования, и, если они не могут быть сохранены для резервного копирования каждый день, разбейте резервные копии, чтобы установить A для резервного копирования в один день, и установите B следующим.
Всегда думайте о процедуре восстановления . Однажды нас задело, когда нам пришлось восстанавливать файл из задания резервного копирования объемом в несколько сотен гигабайт, что занимало много памяти и много времени для восстановления индекса резервного копирования и восстановления. В конце концов, мы не смогли завершить его за один день, и нам пришлось построить выделенный сервер восстановления, чтобы наш основной сервер резервного копирования мог продолжать работу в ночное время!
--added--
Вы также хотите подумать о технологиях дедупликации , которые могут сэкономить огромное количество места, не создавая резервные копии одной и той же информации несколько раз для нескольких пользователей. Многие решения для резервного копирования или файловые системы предлагают дедупликацию как часть своей функциональности.
источник
thinking about the restore procedure
. Аминь!Сначала перечислите риски, от которых вы защищаете. Некоторые общие риски:
Затем оцените стоимость различных решений по предотвращению риска, например:
Затем оцените стратегии ротации (насколько далеко вы хотите восстановить, сколько данных вы можете позволить себе потерять).
Затем выберите, что ваши данные стоит.
источник
У меня есть клиент с двумя аналогичными системами по 12 ТБ в двух разных зданиях, подключенных по 1 ГБ. Одним из них является производственная система; резервное копирование выполняется постепенно (с ежедневными снимками) в другую с помощью великолепной утилиты rdiff-backup . rdiff-backup должен быть доступен в вашем стандартном репозитории.
источник
Автономное резервное копирование в режиме онлайн (удаленное зеркало)
используйте rsync, хотя ssh (только изменения) - первое резервное копирование должно быть сделано локально, но после этого резервное копирование будет быстрым в зависимости от изменений
если вам нужно сохранить версии с изменениями - rdiff-backup
http://www.nongnu.org/rdiff-backup/
Файловая система btrfs в Linux звучит многообещающе, но все еще находится в стадии разработки
источник
Посмотрите на ваш фактический «контент» и как часто он меняется, прежде чем планировать свою стратегию. Много раз люди просто непрерывно перемешивают одни и те же данные для записи на ленту без веской причины.
Технологии дедупликации от некоторых поставщиков позволяют снимать моментальные снимки, чтобы спасти вас от отдельных операций восстановления файлов, но для защиты вам всегда потребуется удаленный сайт.
источник