У меня проблема ввода-вывода с большой таблицей.
Общая статистика
Таблица имеет следующие основные характеристики:
- среда: база данных SQL Azure (уровень P4 Premium (500 DTU))
- ряды: 2 135 044 521
- 1275 использованных перегородок
- кластерный и секционированный индекс
модель
Это реализация таблицы:
CREATE TABLE [data].[DemoUnitData](
[UnitID] [bigint] NOT NULL,
[Timestamp] [datetime] NOT NULL,
[Value1] [decimal](18, 2) NULL,
[Value2] [decimal](18, 2) NULL,
[Value3] [decimal](18, 2) NULL,
CONSTRAINT [PK_DemoUnitData] PRIMARY KEY CLUSTERED
(
[UnitID] ASC,
[Timestamp] ASC
)
)
GO
ALTER TABLE [data].[DemoUnitData] WITH NOCHECK ADD CONSTRAINT [FK_DemoUnitData_Unit] FOREIGN KEY([UnitID])
REFERENCES [model].[Unit] ([ID])
GO
ALTER TABLE [data].[DemoUnitData] CHECK CONSTRAINT [FK_DemoUnitData_Unit]
GO
Разделение связано с этим:
CREATE PARTITION SCHEME [DailyPartitionSchema] AS PARTITION [DailyPartitionFunction] ALL TO ([PRIMARY])
CREATE PARTITION FUNCTION [DailyPartitionFunction] (datetime) AS RANGE RIGHT
FOR VALUES (N'2017-07-25T00:00:00.000', N'2017-07-26T00:00:00.000', N'2017-07-27T00:00:00.000', ... )
Качество обслуживания
Я думаю, что индексы и статистика хорошо поддерживаются каждую ночь путем постепенного перестроения / реорганизации / обновления.
Это текущая статистика индекса наиболее часто используемых разделов индекса:
Это текущие статистические свойства наиболее часто используемых разделов:
проблема
Я запускаю простой запрос с высокой частотой к таблице.
SELECT [UnitID]
,[Timestamp]
,[Value1]
,[Value2]
,[Value3]
FROM [data].[DemoUnitData]
WHERE [UnitID] = 8877 AND [Timestamp] >= '2018-03-01' AND [Timestamp] < '2018-03-13'
OPTION (MAXDOP 1)
План выполнения выглядит следующим образом: https://www.brentozar.com/pastetheplan/?id=rJvI_4TtG
Моя проблема заключается в том, что эти запросы производят чрезвычайно большое количество операций ввода-вывода, что приводит к узкому PAGEIOLATCH_SH
месту ожидания.
Вопрос
Я читал, что PAGEIOLATCH_SH
ожидания часто связаны с недостаточно оптимизированными индексами. Есть ли у вас какие-либо рекомендации для меня, как сократить количество операций ввода-вывода? Может быть, добавив лучший индекс?
Ответ 1 - связанный с комментарием от @ S4V1N
План размещенного запроса был из запроса, который я выполнил в SSMS. После вашего комментария я делаю некоторые исследования по истории сервера. Обычный запрос, получаемый из сервиса, выглядит немного иначе (связанный с EntityFramework).
(@p__linq__0 bigint,@p__linq__1 datetime2(7),@p__linq__2 datetime2(7))
SELECT 1 AS [C1], [Extent1]
.[Timestamp] AS [Timestamp], [Extent1]
.[Value1] AS [Value1], [Extent1]
.[Value2] AS [Value2], [Extent1]
.[Value3] AS [Value3]
FROM [data].[DemoUnitData] AS [Extent1]
WHERE ([Extent1].[UnitID] = @p__linq__0)
AND ([Extent1].[Timestamp] >= @p__linq__1)
AND ([Extent1].[Timestamp] < @p__linq__2) OPTION (MAXDOP 1)
Также план выглядит иначе:
https://www.brentozar.com/pastetheplan/?id=H1fhALpKG
или
https://www.brentozar.com/pastetheplan/?id=S1DFQvpKz
И, как вы можете видеть здесь, этот запрос практически не влияет на производительность нашей БД.
Ответ 2 - связанный с ответом от @Joe Obbish
Для тестирования решения я заменил Entity Framework на простой SqlCommand. Результатом стало потрясающее повышение производительности!
План запросов теперь такой же, как в SSMS, и логические операции чтения и записи уменьшаются до ~ 8 за выполнение.
Общая нагрузка ввода-вывода упала почти до 0!
Это также объясняет, почему я получаю значительное падение производительности после изменения диапазона разделов с ежемесячного на ежедневный. Отсутствие удаления разделов привело к сканированию большего количества разделов.
источник
Ответы:
Вы можете сократить время
PAGEIOLATCH_SH
ожидания для этого запроса, если сможете изменить типы данных, генерируемые ORM.Timestamp
Столбец в таблице имеет тип данных ,DATETIME
но параметры@p__linq__1
и@p__linq__2
имеет типов данныхDATETIME2(7)
. Это различие заключается в том, что план запроса для запросов ORM намного сложнее, чем первый опубликованный план запроса с жестко закодированными поисковыми фильтрами. Вы можете получить подсказку об этом и в XML:Как и в случае с запросом ORM, вы не можете получить никакого исключения раздела. Вы получите по крайней мере несколько логических чтений для каждого раздела, определенного в функции раздела, даже если вы просто ищете день данных. В каждом разделе вы получаете поиск по индексу, поэтому SQL Server не займет много времени, чтобы перейти к следующему разделу, но, возможно, все эти операции ввода-вывода складываются.
Я сделал простое воспроизведение, чтобы быть уверенным. В функции разделения определены 11 разделов. Для этого запроса:
Вот как выглядит IO:
Когда я исправляю типы данных:
IO уменьшается в результате исключения раздела:
источник