Как работает схема разрушения LMAX?

205

Я пытаюсь понять структуру разрушителя . Я посмотрел видео InfoQ и попытался прочитать их статью. Я понимаю, что задействован кольцевой буфер, который инициализируется как чрезвычайно большой массив, чтобы использовать преимущества локальности кэша и исключить выделение новой памяти.

Похоже, есть одно или несколько атомных целых, которые отслеживают позиции. Кажется, что каждое «событие» получает уникальный идентификатор, и его положение в кольце определяется путем нахождения его модуля относительно размера кольца и т. Д. И т. Д.

К сожалению, у меня нет интуитивного понимания того, как это работает. Я сделал много торговых приложений и изучил модель актера , посмотрел SEDA и т. Д.

В своей презентации они упомянули, что этот шаблон в основном работает как маршрутизаторы; однако я не нашел ни одного хорошего описания того, как работают маршрутизаторы.

Есть ли хорошие указатели для лучшего объяснения?

Shahbaz
источник

Ответы:

210

Проект Google Code действительно ссылается на технический документ по реализации кольцевого буфера, однако он немного сухой, академичный и трудный для того, кто хочет узнать, как он работает. Однако, есть некоторые сообщения в блоге, которые начали объяснять внутренности более читабельным способом. Существует объяснение кольцевого буфера, который является ядром шаблона прерывателя, описание потребительских барьеров (часть, относящаяся к чтению из прерывателя) и некоторая информация о работе с несколькими производителями. доступных .

Самое простое описание Disruptor: это способ отправки сообщений между потоками наиболее эффективным способом. Его можно использовать в качестве альтернативы очереди, но он также имеет ряд общих возможностей с SEDA и Actors.

По сравнению с очередями:

Disruptor предоставляет возможность передавать сообщение в другие потоки, вызывая его при необходимости (аналогично BlockingQueue). Тем не менее, есть 3 четких различия.

  1. Пользователь Disruptor определяет, как хранятся сообщения, расширяя класс Entry и предоставляя фабрику для предварительного распределения. Это позволяет либо повторное использование памяти (копирование), либо запись может содержать ссылку на другой объект.
  2. Ввод сообщений в Disruptor - это двухфазный процесс, сначала в кольцевом буфере запрашивается слот, который предоставляет пользователю запись, которая может быть заполнена соответствующими данными. Затем запись должна быть зафиксирована, этот двухэтапный подход необходим для обеспечения гибкого использования памяти, упомянутой выше. Именно фиксация делает сообщение видимым для потоков потребителя.
  3. Ответственность за отслеживание сообщений, полученных из кольцевого буфера, лежит на потребителе. Удаление этой ответственности от самого кольцевого буфера помогло уменьшить количество конфликтов записи, поскольку каждый поток поддерживает свой собственный счетчик.

По сравнению с актерами

Модель Actor ближе к Disruptor, чем большинство других моделей программирования, особенно если вы используете предоставленные классы BatchConsumer / BatchHandler. Эти классы скрывают все сложности обслуживания использованных порядковых номеров и предоставляют набор простых обратных вызовов, когда происходят важные события. Тем не менее, есть несколько тонких различий.

  1. В Disruptor используется потребительская модель «1 поток - 1», в которой субъекты используют модель N: M, т. Е. У вас может быть столько участников, сколько вам нужно, и они будут распределены по фиксированному количеству потоков (обычно по 1 на ядро).
  2. Интерфейс BatchHandler обеспечивает дополнительный (и очень важный) обратный вызов onEndOfBatch(). Это позволяет медленным потребителям, например тем, кто выполняет ввод / вывод, объединять события в пакеты для повышения пропускной способности. Пакетирование можно выполнять в других средах Actor, однако, поскольку почти все другие платформы не обеспечивают обратный вызов в конце пакета, вам необходимо использовать тайм-аут для определения конца пакета, что приводит к низкой задержке.

По сравнению с SEDA

LMAX создал шаблон Disruptor для замены подхода, основанного на SEDA.

  1. Основным улучшением, которое он обеспечил по сравнению с SEDA, была возможность выполнять работу параллельно. Для этого Disruptor поддерживает многоадресную передачу одинаковых сообщений (в одном и том же порядке) нескольким потребителям. Это исключает необходимость использования вилочных ступеней в трубопроводе.
  2. Мы также позволяем потребителям ждать результатов других потребителей без необходимости ставить очередную стадию очереди между ними. Потребитель может просто посмотреть порядковый номер потребителя, от которого он зависит. Это устраняет необходимость в этапах соединения в конвейере.

По сравнению с барьерами памяти

Другой способ думать об этом - это структурированный, упорядоченный барьер памяти. Где барьер производителя формирует барьер записи, а потребительский барьер - барьер чтения.

Майкл Баркер
источник
1
Спасибо, Майкл. Ваша рецензия и предоставленные вами ссылки помогли мне лучше понять, как это работает. Остальное, я думаю, мне просто нужно, чтобы оно впиталось.
Шахбаз
У меня все еще есть вопросы: (1) как работает 'commit'? (2) Когда кольцевой буфер заполнен, как производитель определяет, что все потребители видели данные, чтобы производитель мог повторно использовать записи?
Qwertie
@Qwertie, возможно стоит опубликовать новый вопрос.
Майкл Баркер
1
Не следует ли первое предложение последней маркированной точки (номер 2) в разделе « Сравнение с SEDA» вместо того, чтобы читать «Мы также разрешаем потребителям ждать результатов других потребителей с необходимостью ставить между ними еще одну очередь» «читать». Мы также разрешаем потребители ждать результатов других потребителей без необходимости ставить другую стадию очереди между ними "(т.е." с "следует заменить на" без ")?
Runeks
@ рунекс, да, так и должно быть.
Майкл Баркер
135

Сначала мы хотели бы понять модель программирования, которую он предлагает.

Есть один или несколько авторов. Есть один или несколько читателей. Существует строка записей, полностью упорядоченная от старой к новой (изображена слева направо). Авторы могут добавлять новые записи на правом конце. Каждый читатель читает записи последовательно слева направо. Читатели не могут читать прошлых авторов, очевидно.

Нет понятия удаления записи. Я использую «читатель» вместо «потребитель», чтобы избежать изображения потребляемых записей. Однако мы понимаем, что записи слева от последнего читателя становятся бесполезными.

Обычно читатели могут читать одновременно и независимо. Однако мы можем объявить зависимости среди читателей. Читатель зависимостей может быть произвольным ациклическим графом. Если читатель B зависит от читателя A, читатель B не может читать мимо читателя A.

Зависимость от читателя возникает потому, что читатель A может аннотировать запись, а читатель B зависит от этой аннотации. Например, A выполняет некоторые вычисления для записи и сохраняет результат в поле aв записи. Затем A переходит, и теперь B может читать запись, а значение aA сохраняется. Если читатель C не зависит от A, C не должен пытаться читать a.

Это действительно интересная модель программирования. Независимо от производительности, одна модель может принести пользу многим приложениям.

Конечно, главная цель LMAX - производительность. Он использует предварительно распределенное кольцо записей. Кольцо достаточно большое, но оно ограничено, поэтому система не будет загружена сверх проектной мощности. Если кольцо заполнено, автор (ы) будет ждать, пока самые медленные читатели не продвинутся и освободят место.

Объекты входа предварительно выделены и живут вечно, чтобы снизить стоимость сборки мусора. Мы не вставляем новые объекты записей и не удаляем старые объекты записей, вместо этого автор запрашивает уже существующую запись, заполняет ее поля и уведомляет читателей. Это кажущееся двухфазное действие действительно просто атомное действие

setNewEntry(EntryPopulator);

interface EntryPopulator{ void populate(Entry existingEntry); }

Предварительное выделение записей также означает, что смежные записи (очень вероятно) находятся в соседних ячейках памяти, и поскольку читатели читают записи последовательно, это важно для использования кэшей ЦП.

И много усилий, чтобы избежать блокировки, CAS, даже барьера памяти (например, использовать переменную энергонезависимой последовательности, если есть только один модуль записи)

Для разработчиков читателей: Разные читатели-аннотаторы должны писать в разные поля, чтобы избежать конфликта записи. (На самом деле они должны писать в разные строки кэша.) Аннотирующий читатель не должен касаться чего-либо, что могут прочитать другие независимые читатели. Вот почему я говорю, что эти читатели комментируют записи, а не изменяют записи.

irreputable
источник
2
Выглядит хорошо для меня. Мне нравится использование термина аннотировать.
Майкл Баркер
21
+1, это единственный ответ, который пытается описать, как на самом деле работает схема разрушения, как спросил ОП.
G-Wiz
1
Если кольцо заполнено, автор (ы) будет ждать, пока самые медленные читатели не продвинутся и освободят место. Одна из проблем, связанных с глубокими очередями FIFO, заключается в том, что они слишком легко заполняются под нагрузкой, поскольку на самом деле они не пытаются противодействовать давлению до тех пор, пока они не будут заполнены, и задержка уже высока.
bestsss
1
@irreputable Можете ли вы написать подобное объяснение для писателя?
Бучи
Мне это нравится, но я обнаружил, что «автор просит предварительно существующую запись, заполняет ее поля и уведомляет читателей. Это очевидное двухэтапное действие действительно просто атомарное действие», сбивающее с толку и, возможно, неправильное? Там нет "уведомить" не так ли? Кроме того, это не атомарно, это просто одна эффективная / видимая запись, верно? Отличный ответ только на неоднозначном языке?
HaveAGuess
41

Мартин Фаулер написал статью о LMAX и структуре разрушителя, архитектуре LMAX , которая может прояснить это далее.

зажимной патрон
источник
17

Я действительно нашел время, чтобы изучить фактический источник, из чистого любопытства, и идея этого довольно проста. Самая последняя версия на момент написания этого поста - 3.2.1.

Существует буфер, в котором хранятся предварительно распределенные события, которые будут содержать данные для чтения потребителями.

Буфер поддерживается массивом флагов (целочисленным массивом) его длины, который описывает доступность слотов буфера (подробнее см. Далее). Доступ к массиву осуществляется как java # AtomicIntegerArray, поэтому для целей данного объяснения вы можете также предположить, что он равен единице.

Может быть любое количество производителей. Когда производитель хочет записать в буфер, генерируется длинное число (как при вызове AtomicLong # getAndIncrement, Disruptor фактически использует свою собственную реализацию, но работает аналогичным образом). Давайте назовем это сгенерированное длинным продюсеромallCall. Аналогичным образом, customerCallId генерируется, когда потребитель заканчивает чтение слота из буфера. Доступ к последнему customerCallId

(Если есть много потребителей, выбирается звонок с самым низким идентификатором.)

Затем эти идентификаторы сравниваются, и если разница между ними меньше, чем на стороне буфера, производителю разрешается писать.

(Если providerCallId больше, чем недавний customerCallId + bufferSize, это означает, что буфер заполнен, и производитель вынужден ждать шины, пока не станет доступным место.)

Затем производителю назначается временной интервал в буфере на основе его callId (который является prducerCallId по модулю bufferSize, но, так как bufferSize всегда имеет степень 2 (ограничение навязывается при создании буфера), используемой операцией во всех действиях является ManufacturerCallId & (bufferSize - 1) )). Затем можно свободно изменять событие в этом слоте.

(Реальный алгоритм немного сложнее, включающий кэширование недавнего потребителя в отдельном атомарном справочнике для целей оптимизации.)

Когда событие было изменено, изменение «опубликовано». При публикации соответствующего слота в массиве флагов заполняется обновленный флаг. Значение флага - это номер цикла (providerCallId, деленный на bufferSize (опять же, поскольку bufferSize имеет степень 2, фактическая операция - сдвиг вправо).

Аналогичным образом может быть любое количество потребителей. Каждый раз, когда потребитель хочет получить доступ к буферу, генерируется customerCallId (в зависимости от того, как потребители были добавлены в разрушитель, атом, используемый в генерации идентификатора, может быть общим или отдельным для каждого из них). Затем этот customerCallId сравнивается с самым последним producentCallId, и, если он меньше двух, читателю разрешается прогрессировать.

(Точно так же, если providerCallId равен даже customerCallId, это означает, что буфер пуст, а потребитель вынужден ждать. Способ ожидания определяется WaitStrategy во время создания прерывателя.)

Для отдельных потребителей (тех, у кого есть собственный генератор идентификаторов), следующая проверенная вещь - это возможность пакетного потребления. Слоты в буфере проверяются по порядку, начиная с единицы, соответствующей customerCallId (индекс определяется таким же образом, как и для производителей), до той, которая соответствует недавнему providerCallId.

Они проверяются в цикле путем сравнения значения флага, записанного в массиве флага, со значением флага, созданного для consumerCallId. Если флаги совпадают, это означает, что производители, заполняющие слоты, передали свои изменения. Если нет, цикл прерывается, и возвращается самый высокий зафиксированный changeId. Слоты от ConsumerCallId до полученных в changeId можно использовать в пакетном режиме.

Если группа потребителей читает вместе (те, у кого общий генератор идентификаторов), каждый из них принимает только один callId, и только слот для этого единственного callId проверяется и возвращается.

Мартин А. Квасовец
источник
7

Из этой статьи :

Шаблон прерывателя представляет собой очередь пакетной обработки, поддерживаемую циклическим массивом (то есть кольцевым буфером), заполненным предварительно выделенными объектами передачи, которые используют барьеры памяти для синхронизации производителей и потребителей через последовательности.

Барьеры памяти трудно объяснить, и блог Триши, на мой взгляд, сделал лучшую попытку в этом посте: http://mechanitis.blogspot.com/2011/08/dissecting-disruptor-why-its-so-fast. HTML

Но если вы не хотите углубляться в детали низкого уровня, вы можете просто знать, что барьеры памяти в Java реализованы через volatileключевое слово или через java.util.concurrent.AtomicLong. Последовательности паттернов разрушения являются AtomicLongs и передаются между производителями и потребителями через барьеры памяти вместо блокировок.

Мне проще понять концепцию с помощью кода, поэтому приведенный ниже код является простым helloworld от CoralQueue , который представляет собой реализацию шаблона разрушителя, выполненную CoralBlocks, с которой я связан. В приведенном ниже коде вы можете увидеть, как шаблон прерывателя реализует пакетирование и как кольцевой буфер (т. Е. Круговой массив) обеспечивает бесперебойную связь между двумя потоками:

package com.coralblocks.coralqueue.sample.queue;

import com.coralblocks.coralqueue.AtomicQueue;
import com.coralblocks.coralqueue.Queue;
import com.coralblocks.coralqueue.util.MutableLong;

public class Sample {

    public static void main(String[] args) throws InterruptedException {

        final Queue<MutableLong> queue = new AtomicQueue<MutableLong>(1024, MutableLong.class);

        Thread consumer = new Thread() {

            @Override
            public void run() {

                boolean running = true;

                while(running) {
                    long avail;
                    while((avail = queue.availableToPoll()) == 0); // busy spin
                    for(int i = 0; i < avail; i++) {
                        MutableLong ml = queue.poll();
                        if (ml.get() == -1) {
                            running = false;
                        } else {
                            System.out.println(ml.get());
                        }
                    }
                    queue.donePolling();
                }
            }

        };

        consumer.start();

        MutableLong ml;

        for(int i = 0; i < 10; i++) {
            while((ml = queue.nextToDispatch()) == null); // busy spin
            ml.set(System.nanoTime());
            queue.flush();
        }

        // send a message to stop consumer...
        while((ml = queue.nextToDispatch()) == null); // busy spin
        ml.set(-1);
        queue.flush();

        consumer.join(); // wait for the consumer thread to die...
    }
}
rdalmeida
источник