В компании, для которой я работаю, есть сервер NAS, который используется для хранения фотосессий. Каждый сеанс составляет около 100 ГБ. За последние пару лет этот сервер накопил более 10 ТБ данных, и мы увеличиваем количество фотосессий в геометрической прогрессии. По моим оценкам, к концу следующего года на этом NAS-накопителе будет храниться более 20 ТБ. В настоящее время мы выполняем резервное копирование этого сервера на ленту с использованием лент LTO-5 с Symantec BackupExec. Поскольку размер этого сервера вырос, полное резервное копирование этого сервера не завершается в одночасье. Кто-нибудь есть какие-либо предложения о том, как сделать резервную копию этого объема данных? Должны ли мы записать это на ленту? Есть ли другие варианты, которые могут быть лучше?
86
Ответы:
Вы должны сделать шаг назад и перестать думать: «У меня есть 20 ТБ на моем NAS, мне нужно сделать резервную копию!» и разработайте стратегию хранения, которая учитывает характер ваших данных:
В зависимости от ответов на два последних вопроса вам, вероятно, потребуется больше системы архивации, чем радикально отличной системы резервного копирования.
Статические данные (например, 2-летние снимки, которые вы сохраняете «на всякий случай») не нужно резервировать каждую ночь или даже каждую неделю, их нужно архивировать. То, что вы на самом деле делаете, может быть более сложным, но концептуально все старые рисунки можно записать на ленту (несколько копий!) И больше не создавать резервных копий.
Исходя из ваших комментариев, некоторые дополнительные мысли:
Поскольку вы сохраняете оригиналы каждого снимка нетронутыми и работаете над копией и предполагаете, что по крайней мере некоторые из оригинальных снимков являются ложными, вы можете сократить объем данных, для которых необходимо выполнить резервное копирование, пополам.
Если вы по-прежнему не можете завершить полное резервное копирование в течение какого-то времени, то у вас есть общий способ ускорить процесс - сначала сделать резервную копию с диска на диск, а затем скопировать резервную копию на ленту.
источник
У вас есть два варианта:
Опция 1:
Вариант 2:
Запускать
rsync
каждый час: old_NAS -> new_NASили лучше использовать что-то вроде rdiff-backup, которое rsync + сохраняет дельты с изменениями файлов (вы можете восстановить более старые версии файлов)
Каждые 6 месяцев очищайте старые файлы, запустив что-то вроде:
источник
Почему ваши резервные копии должны быть завершены в одночасье? Производительность файлового сервера? Возможно, вы сможете ограничить пропускную способность вашего программного обеспечения для резервного копирования, чтобы ограничить воздействие в течение дня. Или выделите интерфейс на своем NAS для связи с ленточным накопителем, чтобы ограничить влияние на другой трафик.
Можете ли вы запускать полные дампы по выходным и делать приращения только в течение недели? Если проблема заключается в смене лент в выходные дни, когда никого нет рядом, дешевая ленточная библиотека / автозамена стоит намного дешевле, чем платить кому-то за смену лент.
Можете ли вы разбить данные на несколько групп, которые достаточно малы, чтобы заполнить их в окне резервного копирования?
На нашем NAS-накопителе около 50 ТБ данных, и на создание полного дампа всего этого с помощью двух стримеров требуется более недели (один том занимает почти неделю, поскольку в нем много мелких файлов). Что мы делаем, так это копируем наши данные на второй NAS. Наш вторичный NAS находится на месте (но в другом центре обработки данных, чем основной), поэтому мы по-прежнему помещаем данные на ленту для резервного копирования за пределы площадки. Мы запускаем резервные копии с этого вторичного NAS, поэтому резервные копии никого не замедляют.
Если вы можете разместить свой вторичный NAS достаточно далеко, то это может быть ваша резервная копия, никаких лент не требуется.
источник
Я просто сомневаюсь в размере каждой стрельбы, действительно ли это 100 Гб / сессия? Сколько сессий проводит ваша компания каждый месяц?
Поскольку вы в основном храните старые сеансы, которые не будут часто использоваться, и т. Д. И, вероятно, вам не нужно будет восстанавливать эту информацию так часто, я бы посоветовал вам воспользоваться услугами какой-либо компании, чтобы решить эту задачу для вас. ,
Например, хранение этих 20 ТБ с использованием онлайн-сервиса, такого как Amazon Glacier, будет стоить чуть более 200 долларов в месяц. Если вам потребуется часто извлекать эти архивы или даже восстанавливать их полностью, это приведет к некоторым временным / затратным ограничениям. Если вы просто храните эти вещи «чтобы быть уверенными, что они хранятся», возможно, использование третьей части может облегчить вашу жизнь (и даже дешевле, чем покупка другого NAS, кассет и т. Д.)
источник
full backups of this server are not completing overnight
Тогда попробуйте инкрементные резервные копии? Одна полная резервная копия каждые хх дней, инкрементный остаток.
Жесткие диски стоят недорого, быстрее лент и могут использоваться для резервного копирования.
Также есть хорошие альтернативы для облачных резервных копий, поэтому нет необходимости продолжать добавлять все более быстрые ленты.
Например:
источник
Я думаю, что лучшим решением для этого является то, что мы делаем с нашими данными по заработной плате, что должно потребовать минимальных усилий для реализации.
Первоначально он хранится вместе с остальными данными сервера, которые ежедневно копируются. Срок хранения этих резервных копий составляет 13 месяцев.
Как только мы больше не ожидаем, что данные нужно будет изменить (через два периода оплаты, IIRC), эти данные (через сценарий) сохраняются в томе архива, который исключен из регулярных резервных копий.
Том архива ежегодно копируется на ленту, а ленты отправляются в Cintas для хранения на неопределенный срок.
Это позволяет нам иметь простой онлайновый доступ к этим неизменным данным (поэтому нам не нужно звонить на магнитную ленту в любое время, когда бухгалтер хочет что-то посмотреть), сохраняя при этом неопределенные сторонние архивы данных, которые нам, возможно, придется хранить вечно. и не ломая нашу резервную систему. Похоже, что тот же тип установки может работать для вас, хотя вы, возможно, захотите настроить объем данных, которые вы храните в сети, в зависимости от ваших потребностей для своевременного доступа к этим данным - 20 ТБ хранилища корпоративного уровня намного дороже чем архивировать его на два или три набора лент LTO5, которые хранятся в хранилищах за пределами площадки.
источник
Может быть, вы можете создать свой собственный Backblaze Pod : 135Tb за 7384 $
Нажмите здесь для получения дополнительной информации: Backblaze Pod информация о сборке
Вы можете купить нужные кусочки и собрать их самостоятельно.
Может быть, вы можете построить 3 из них, и сохранить 2 на месте и 1 вне. Затем вы можете использовать один модуль в качестве «оперативных данных», второй модуль в качестве резервной копии первого модуля и третий модуль в качестве экстренной резервной копии.
С 135Tb хранилища для каждого модуля вы даже можете подумать о сохранении некоторой истории изменений ...
135Tb / 20Tb = 19 полная резервная копия .
В качестве альтернативы вы можете сохранить 10 полных резервных копий плюс смешное количество разностных резервных копий.
Естественно, если вы хотите резервное копирование вне сайта, вам понадобится какая-то большая пропускная способность ... :-)
источник
Мой коллега приобрел NAS-устройство Synology на 8 дисков. Работает гибридный RAID. Несколько недель назад он купил восемь 3TB Seagate Barracuda у NewEgg за 89 долларов каждая. Вы можете перезаписать зеркало с производственного NAS на этот новый NAS через GigaBit. Поскольку вы передаете только различия, передача займет меньше времени. Затем вы можете использовать резервное хранилище для выполнения полного или инкрементного. Стоимость для вас будет меньше $ 2000 за запасной NAS.
источник