Простая структура БД (для онлайн-форума):
CREATE TABLE users (
id integer NOT NULL PRIMARY KEY,
username text
);
CREATE INDEX ON users (username);
CREATE TABLE posts (
id integer NOT NULL PRIMARY KEY,
thread_id integer NOT NULL REFERENCES threads (id),
user_id integer NOT NULL REFERENCES users (id),
date timestamp without time zone NOT NULL,
content text
);
CREATE INDEX ON posts (thread_id);
CREATE INDEX ON posts (user_id);
Около 80 тыс. Записей в users
и 2,6 млн. Записей в posts
таблицах. Этот простой запрос для получения 100 лучших пользователей по их сообщениям занимает 2,4 секунды :
EXPLAIN ANALYZE SELECT u.id, u.username, COUNT(p.id) AS PostCount FROM users u
INNER JOIN posts p on p.user_id = u.id
WHERE u.username IS NOT NULL
GROUP BY u.id
ORDER BY PostCount DESC LIMIT 100;
Limit (cost=316926.14..316926.39 rows=100 width=20) (actual time=2326.812..2326.830 rows=100 loops=1)
-> Sort (cost=316926.14..317014.83 rows=35476 width=20) (actual time=2326.809..2326.820 rows=100 loops=1)
Sort Key: (count(p.id)) DESC
Sort Method: top-N heapsort Memory: 32kB
-> HashAggregate (cost=315215.51..315570.27 rows=35476 width=20) (actual time=2311.296..2321.739 rows=34608 loops=1)
Group Key: u.id
-> Hash Join (cost=1176.89..308201.88 rows=1402727 width=16) (actual time=16.538..1784.546 rows=1910831 loops=1)
Hash Cond: (p.user_id = u.id)
-> Seq Scan on posts p (cost=0.00..286185.34 rows=1816634 width=8) (actual time=0.103..1144.681 rows=2173916 loops=1)
-> Hash (cost=733.44..733.44 rows=35476 width=12) (actual time=15.763..15.763 rows=34609 loops=1)
Buckets: 65536 Batches: 1 Memory Usage: 2021kB
-> Seq Scan on users u (cost=0.00..733.44 rows=35476 width=12) (actual time=0.033..6.521 rows=34609 loops=1)
Filter: (username IS NOT NULL)
Rows Removed by Filter: 11335
Execution time: 2301.357 ms
С set enable_seqscan = false
еще хуже
Limit (cost=1160881.74..1160881.99 rows=100 width=20) (actual time=2758.086..2758.107 rows=100 loops=1)
-> Sort (cost=1160881.74..1160970.43 rows=35476 width=20) (actual time=2758.084..2758.098 rows=100 loops=1)
Sort Key: (count(p.id)) DESC
Sort Method: top-N heapsort Memory: 32kB
-> GroupAggregate (cost=0.79..1159525.87 rows=35476 width=20) (actual time=0.095..2749.859 rows=34608 loops=1)
Group Key: u.id
-> Merge Join (cost=0.79..1152157.48 rows=1402727 width=16) (actual time=0.036..2537.064 rows=1910831 loops=1)
Merge Cond: (u.id = p.user_id)
-> Index Scan using users_pkey on users u (cost=0.29..2404.83 rows=35476 width=12) (actual time=0.016..41.163 rows=34609 loops=1)
Filter: (username IS NOT NULL)
Rows Removed by Filter: 11335
-> Index Scan using posts_user_id_index on posts p (cost=0.43..1131472.19 rows=1816634 width=8) (actual time=0.012..2191.856 rows=2173916 loops=1)
Planning time: 1.281 ms
Execution time: 2758.187 ms
Группировка по username
отсутствует в Postgres, потому что это не требуется (SQL Server говорит, что мне нужно группировать, username
если я хочу выбрать имя пользователя). Группировка с username
добавляет немного мс к времени выполнения на Postgres или ничего не делает.
Для науки я установил Microsoft SQL Server на тот же сервер (на котором работает archlinux, 8-ядерный xeon, ram 24 Гб, ssd) и перенес все данные из Postgres - та же структура таблиц, те же индексы, те же данные. Тот же запрос для получения 100 лучших постеров выполняется за 0,3 секунды :
SELECT TOP 100 u.id, u.username, COUNT(p.id) AS PostCount FROM dbo.users u
INNER JOIN dbo.posts p on p.user_id = u.id
WHERE u.username IS NOT NULL
GROUP BY u.id, u.username
ORDER BY PostCount DESC
Выдает те же результаты из тех же данных, но делает это в 8 раз быстрее. И это бета-версия MS SQL для Linux, я думаю, что она работает на «домашней» ОС - Windows Server - она может быть еще быстрее.
Мой запрос к PostgreSQL полностью неверен или PostgreSQL просто медленный?
Дополнительная информация
Версия почти самая новая (9.6.1, в настоящее время самая новая - 9.6.2, ArchLinux только что устарел и очень медленно обновляется). Config:
max_connections = 75
shared_buffers = 3584MB
effective_cache_size = 10752MB
work_mem = 24466kB
maintenance_work_mem = 896MB
dynamic_shared_memory_type = posix
min_wal_size = 1GB
max_wal_size = 2GB
checkpoint_completion_target = 0.9
wal_buffers = 16MB
default_statistics_target = 100
EXPLAIN ANALYZE
выходы: https://pastebin.com/HxucRgnk
Перепробовал все индексы, использовали даже GIN и GIST, самый быстрый способ для PostgreSQL (а Googling подтверждает много строк) - это использовать последовательное сканирование.
MS SQL Server 14.0.405.200-1, по умолчанию конф.
Я использую это в API (с простым выбором без анализа), и, вызывая эту конечную точку API с помощью Chrome, он говорит, что это занимает 2500 мс + -, добавляя 50 мс HTTP и накладные расходы веб-сервера (API и SQL выполняются на одном сервере) - это то же самое. Меня не волнует 100 мс здесь или там, меня волнуют две целые секунды.
explain analyze SELECT user_id, count(9) FROM posts group by user_id;
занимает 700 мс Размер posts
таблицы составляет 2154 МБ.
posts
таблицы, используя таблицу, подобную этой.CREATE TABLE post_content (post_id PRIMARY KEY REFERENCES posts (id), content text);
Таким образом, большинство операций ввода-вывода, которые «тратятся» на запросы такого типа, могут быть сэкономлены. Если сообщений меньше этого,VACUUM FULL
наposts
может помочь.GROUP BY u.id
на этоGROUP BY p.user_id
и попробовать? Я предполагаю, что Postgres присоединяется первым и группируется по секундам, потому что вы группируете по идентификатору таблицы пользователей, даже если вам нужны только сообщения user_id, чтобы получить верхние N-строки.Ответы:
Еще один хороший вариант запроса:
Он не использует CTE и дает правильный ответ (и пример CTE может дать менее 100 строк в теории, поскольку он сначала ограничивает, а затем объединяет пользователей).
Я полагаю, что MSSQL может выполнить такое преобразование в своем оптимизаторе запросов, а PostgreSQL не может подавить агрегацию при объединении. Или у MSSQL гораздо более быстрая реализация хеш-соединения.
источник
Это может или не может работать - я основываю это на интуитивном ощущении того, что это объединение ваших таблиц перед группой и фильтром. Я предлагаю попробовать следующее: отфильтруйте и сгруппируйте, используя CTE перед попыткой объединения:
Планировщик запросов иногда просто нуждается в небольшом руководстве. Это решение хорошо работает здесь, но CTE потенциально может быть ужасным в некоторых обстоятельствах. CTE хранятся исключительно в памяти. В результате этого большие объемы возвращаемых данных могут превысить выделенную память Postgres и начать обмен (подкачка в MS). CTE также не могут быть проиндексированы, поэтому достаточно большой запрос все еще может вызвать значительное замедление при запросе вашего CTE.
Лучший совет, который вы действительно можете отобрать, - это попробовать его несколькими способами и проверить свои планы запросов.
источник
Вы пытались увеличить work_mem? 24Mb кажется слишком маленьким, поэтому Hash Join должен использовать несколько пакетов (которые записываются во временные файлы).
источник
max_parallel_workers_per_gather = 4
иmax_worker_processes = 16