Для чего рекомендуется размер партии SqlBulkCopy
? Я ищу общую формулу, которую можно использовать в качестве отправной точки для настройки производительности.
источник
Для чего рекомендуется размер партии SqlBulkCopy
? Я ищу общую формулу, которую можно использовать в качестве отправной точки для настройки производительности.
У меня есть утилита импорта, которая находится на том же физическом сервере, что и мой экземпляр SQL Server. Используя обычай IDataReader
, он анализирует плоские файлы и вставляет их в базу данных с помощью SQLBulkCopy
. Типичный файл имеет около 6 миллионов квалифицированных строк, в среднем 5 столбцов десятичного и короткого текста, около 30 байт на строку.
Учитывая этот сценарий, я обнаружил, что размер пакета в 5000 является лучшим компромиссом между скоростью и потреблением памяти. Я начал с 500 и экспериментировал с более крупными. Я обнаружил, что 5000 в среднем в 2,5 раза быстрее, чем 500. Вставка 6 миллионов строк занимает около 30 секунд при размере пакета 5000 и около 80 секунд при размере пакета 500.
10 000 были ненамного быстрее. Увеличение до 50 000 улучшило скорость на несколько процентных пунктов, но это не стоит увеличения нагрузки на сервер. Более 50 000 не показали улучшения скорости.
Это не формула, это еще одна точка данных, которую вы можете использовать.
Это проблема, над которой я тоже потратил некоторое время. Я хочу оптимизировать импорт больших файлов CSV (16+ ГБ, 65+ миллионов записей и их рост) в базу данных SQL Server 2005 с использованием консольного приложения C # (.Net 2.0). Как Джереми уже уже указывали , что вам нужно будет сделать некоторые тонкую настройку для ваших конкретных обстоятельств, но я бы порекомендовал вам иметь первоначальный размер пакета 500 и контрольные значения выше и ниже этого.
Я получил рекомендацию проверить значения от 100 до 1000 для размера пакета из этого сообщения на форуме MSDN и был настроен скептически. Но когда я проверил размер пакетов от 100 до 10 000, я обнаружил, что 500 было оптимальным значением для моего приложения. 500 значение
SqlBulkCopy.BatchSize
также рекомендуется здесь .Чтобы еще больше оптимизировать работу SqlBulkCopy, ознакомьтесь с этим советом MSDN ; Я считаю, что использование SqlBulkCopyOptions.TableLock помогает сократить время загрузки.
источник
Как заявляли другие, это зависит от вашей среды, в частности от объема строки и задержки сети.
Лично я бы начал с установки
BatchSize
свойства на 1000 строк и посмотрел, как это работает. Если это сработает, я продолжаю удваивать количество строк (например, до 2000, 4000 и т. Д.), Пока не получу тайм-аут.В противном случае, если тайм-аут наступает на 1000, я уменьшаю количество строк наполовину (например, 500), пока это не сработает.
В каждом случае я продолжаю удваивать (в случае успеха) или уменьшать вдвое (в случае неудачи) разницу между двумя последними попытками размера партии, пока не найду золотую середину.
Другой фактор, который следует учитывать, - это сколько времени нужно, чтобы скопировать один пакет строк. Тайм-ауты произойдут, если размер пакета копируемых строк превышает
BulkCopyTimeout
свойство, которое по умолчанию составляет 30 секунд. Вы можете попробовать удвоитьBulkCopyTimeout
свойство до 60 секунд. Это обеспечивает более длительный период времени для копирования большего набора строк пакета. Например, пакет из 50 000 строк может занять около 40 секунд, просто превышая 30-секундный лимит, поэтому увеличение его до 60 секунд может помочь в производительности.источник
Все зависит от вашей реализации.
Какую скорость вы можете ожидать в своей сети? Вы используете его в Forms или ASP.Net? Вам нужно предупреждать пользователя о прогрессе? Каков размер общей работы?
По моему опыту, запуск массового копирования без указанного размера пакета вызовет проблемы с тайм-аутом. Мне нравится начинать примерно с 1000 записей и потом делать некоторые корректировки.
источник
я пробовал несколько размеров, в моем случае 5000 было хорошо
источник