Какой самый быстрый способ очистки данных?

18

Сценарий:

У нас есть две таблицы Tbl1 и Tbl2на сервере подписчика. Tbl1Тиражируется от издателя Server Aи имеет два триггера - вставки и обновления. Триггеры вставляют и обновляют данные в Tbl2.

Теперь мы должны очистить (около 900 миллионов записей), из Tbl2которых более 1000 миллионов записей. Ниже приведено распределение данных за один месяц до одной минуты.

  • Один месяц - 14986826 строк
  • Один день - 483446 строк
  • Один час - 20143 строки
  • Одна минута - 335 строк

Что я ищу;

Самый быстрый способ очистки этих данных без каких-либо производственных проблем, согласованности данных и, возможно, без простоев. Итак, я думаю выполнить следующие шаги, но застрял :(

шаги:

  1. BCP Вывод необходимых данных из существующей таблицы Tbl2 (около 100 миллионов записей, это может занять около 30 минут).
    • Давайте предположим, что я начал выполнять задание в 1 февраля 2016 года в 22:00, а в 1 февраля 2016 года - в 22:30. К тому времени, когда действие будет завершено, таблица Tbl2 получит новые записи, которые становятся дельта
  2. Создать новую таблицу в базе данных с именем Tbl3
  3. BCP в экспортированных данных во вновь созданную таблицу Tbl3 (около 100 миллионов записей, это может занять около 30 минут)
  4. Остановите задание репликации
  5. Когда BCP-in завершен, используйте скрипт tsql для вставки новых дельта-данных.

  6. Проблема в том, как справиться с дельта-заявлением об «обновлении»?

  7. Запустите репликацию

Дополнительный вопрос:

Каков наилучший способ справиться со сценарием?

Дхармедра Кешари
источник

Ответы:

26

Поскольку вы удаляете 90% строк, я бы рекомендовал скопировать строки, которые необходимо сохранить, в новую таблицу с той же структурой, а затем использовать ALTER TABLE ... SWITCHдля замены существующей таблицы новой таблицей, а затем просто удалить старую таблицу. Смотрите эту страницу Microsoft Docs для синтаксиса.

Простой тестовый стенд, без репликации, который показывает общий принцип:

Сначала мы создадим базу данных для нашего теста:

USE master;
IF (SELECT 1 FROM sys.databases d WHERE d.name = 'SwitchTest') IS NOT NULL
BEGIN
    ALTER DATABASE SwitchTest SET SINGLE_USER WITH ROLLBACK IMMEDIATE;
    DROP DATABASE SwitchTest;
END
CREATE DATABASE SwitchTest;
ALTER DATABASE SwitchTest SET RECOVERY FULL;
BACKUP DATABASE SwitchTest TO DISK = 'NUL:';
GO

Здесь мы создаем пару таблиц с триггером для перемещения строк из таблицы «A» в «B», приближая вашу настройку.

USE SwitchTest;
GO
CREATE TABLE dbo.A
(
    i int NOT NULL 
        CONSTRAINT PK_A
        PRIMARY KEY CLUSTERED
        IDENTITY(1,1)
    , d varchar(300) NOT NULL
    , rowdate datetime NOT NULL
) ON [PRIMARY]
WITH (DATA_COMPRESSION = PAGE);

CREATE TABLE dbo.B
(
    i int NOT NULL 
        CONSTRAINT PK_B
        PRIMARY KEY CLUSTERED
    , d varchar(300) NOT NULL
    , rowdate datetime NOT NULL
) ON [PRIMARY]
WITH (DATA_COMPRESSION = PAGE);

GO
CREATE TRIGGER t_a
ON dbo.A
AFTER INSERT, UPDATE
AS
BEGIN
    SET NOCOUNT ON;
    DELETE
    FROM dbo.B
    FROM dbo.B b
        INNER JOIN deleted d ON b.i = d.i
    INSERT INTO dbo.B (i, d, rowdate)
    SELECT i.i
        , i.d
        , i.rowdate
    FROM inserted i;
END
GO

Здесь мы вставляем 1 000 000 строк в «A», и из-за триггера эти строки также будут вставлены в «B».

;WITH src AS (
    SELECT i.n
    FROM (VALUES (0), (1), (2), (3), (4), (5), (6), (7), (8), (9))i(n)
)
INSERT INTO dbo.A (d, rowdate)
SELECT d = CRYPT_GEN_RANDOM(300), DATEADD(SECOND, s6.n + (s5.n * 100000) + (s4.n * 10000) + (s3.n * 1000) + (s2.n * 100) + (s1.n * 10), '2017-01-01T00:00:00.000')
FROM src s1
    CROSS JOIN src s2
    CROSS JOIN src s3
    CROSS JOIN src s4
    CROSS JOIN src s5
    CROSS JOIN src s6;

Очистите журнал транзакций, чтобы избежать нехватки места. НЕ ЗАПУСКАЙТЕ это в производственном процессе, поскольку оно отправляет данные журнала транзакций на устройство «NUL».

BACKUP LOG SwitchTest TO DISK = 'NUL:';
GO

Этот код создает транзакцию, чтобы гарантировать, что ни одна из затронутых таблиц не может быть записана во время переноса строк:

BEGIN TRANSACTION
EXEC sys.sp_getapplock @Resource = N'TableSwitcher', @LockMode = 'Exclusive', @LockOwner = 'Transaction', @LockTimeout = '1000', @DbPrincipal = N'dbo';
BEGIN TRY
    -- create a table to hold the rows we want to keep
    CREATE TABLE dbo.C
    (
        i int NOT NULL 
            CONSTRAINT PK_C
            PRIMARY KEY CLUSTERED
        , d varchar(300) NOT NULL
        , rowdate datetime NOT NULL
    ) ON [PRIMARY]
    WITH (DATA_COMPRESSION = PAGE);

    --copy the rows we want to keep into "C"
    INSERT INTO dbo.C (i, d, rowdate)
    SELECT b.i
        , b.d
        , b.rowdate
    FROM dbo.B
    WHERE b.rowdate >= '2017-01-11T10:00:00';

    --truncate the entire "B" table
    TRUNCATE TABLE dbo.B;

    --"switch" table "C" into "B"
    ALTER TABLE dbo.C SWITCH TO dbo.B;

    --drop table "C", since we no longer need it
    DROP TABLE dbo.C;

    --shows the count of rows in "B" which were retained.
    SELECT COUNT(1)
    FROM dbo.B
    WHERE b.rowdate >= '2017-01-11T10:00:00';

   --look for rows in "B" that should no longer exist.
    SELECT COUNT(1)
    FROM dbo.B
    WHERE b.rowdate < '2017-01-11T10:00:00';

    --release the applock and commit the transaction
    EXEC sys.sp_releaseapplock @Resource = N'TableSwitcher', @LockOwner = 'Transaction', @DbPrincipal = N'dbo';
    COMMIT TRANSACTION;
END TRY
BEGIN CATCH
    DECLARE @message nvarchar(1000) = ERROR_MESSAGE();
    DECLARE @severity int = ERROR_SEVERITY();
    DECLARE @state int = ERROR_STATE();
    RAISERROR (@message, @severity, @state);
    EXEC sys.sp_releaseapplock @Resource = N'TableSwitcher', @LockOwner = 'Transaction', @DbPrincipal = N'dbo';
    ROLLBACK TRANSACTION;
END CATCH
GO

sp_getapplockИ sp_releaseapplockпредотвратить появление нескольких экземпляров этого кода работает одновременно. Это было бы полезно, если вы разрешите повторное использование этого кода через графический интерфейс.

(Обратите внимание, что блокировки приложений эффективны только в том случае, если каждый процесс, обращающийся к ресурсу, реализует одну и ту же логику ручной блокировки ресурса - нет волшебства, которое «блокирует» таблицу так же, как SQL Server автоматически блокирует строки, страницы и т. Д. Во время операция вставки / обновления.)

Теперь мы тестируем процесс вставки строк в «A», чтобы убедиться, что они вставляются в «B» триггером.

INSERT INTO dbo.A (d, rowdate)
VALUES ('testRow', GETDATE());

SELECT *
FROM dbo.B
WHERE B.d = 'testRow'
+ --------- + --------- + ------------------------- +
| я | д | дата гребли |
+ --------- + --------- + ------------------------- +
| 1000001 | testRow | 2018-04-13 03: 49: 53.343 |
+ --------- + --------- + ------------------------- +
Макс Вернон
источник