Я новый ученик в НЛП. Я заинтересован в задаче генерации предложений. Насколько мне известно, одним из современных методов является CharRNN , который использует RNN для генерации последовательности слов.
Тем не менее, BERT вышел несколько недель назад и является очень мощным. Поэтому мне интересно, можно ли эту задачу также выполнить с помощью BERT? Я новичок в этой области, и спасибо за любые советы!
Ответы:
Для новичков НЕТ.
Генерация предложения требует выборки из языковой модели, которая дает распределение вероятности следующего слова с учетом предыдущих контекстов. Но BERT не может сделать это из-за его двунаправленной природы.
Для продвинутых исследователей, ДА.
Вы можете начать с предложения всех токенов [MASK] и генерировать слова одно за другим в произвольном порядке (вместо обычного разложения слева направо). Хотя качество генерации текста сложно контролировать.
Вот технический отчет, который имеет BERT, и о котором нужно говорить: BERT как марковская модель языка случайных полей , ее ошибки и исходный код .
В итоге:
источник
этот эксперимент Стивена Мэйхью предполагает, что BERT паршив в последовательной генерации текста:
http://mayhewsw.github.io/2019/01/16/can-bert-generate-text/
источник
Нет. Формирование предложения напрямую связано с языковым моделированием (учитывая предыдущие слова в предложении, что является следующим словом). Из-за двунаправленности BERT BERT нельзя использовать в качестве языковой модели. Если его нельзя использовать в качестве языковой модели, я не вижу, как можно сгенерировать предложение, используя BERT.
источник
Какие альтернативные варианты существуют для этого?
источник