Я изучаю использование LSTM ( долговременной кратковременной памяти ) версии рекуррентной нейронной сети (RNN) для моделирования данных временных рядов. По мере увеличения длины последовательности данных сложность сети возрастает. Поэтому мне любопытно, какую длину последовательностей можно было бы моделировать с хорошей точностью?
Я хотел бы использовать относительно простую версию LSTM без каких-либо сложных для реализации современных подходов. Каждое наблюдение в моих временных сериях, вероятно, будет иметь 4 числовые переменные, и число наблюдений будет составлять от 100 000 до 1 000 000.
y
. Таким образом, как RNN будет когда-либо корректировать веса на основе чего-либо до 35 шагов, выбранных для BPTT?