Я просматриваю следующий блог по нейронной сети LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
Автор изменяет входной вектор X как [выборки, временные шаги, особенности] для различной конфигурации LSTM.
Автор пишет
Действительно, последовательности букв являются временными шагами одного признака, а не одним временным шагом отдельных признаков. Мы дали больше контекста для сети, но не больше последовательности, как ожидалось
Что это значит?
источник
t-n,..., t-2, t-1
для прогнозированияt
.Слишком поздно, но на всякий случай; Образец может относиться к отдельным примерам обучения. Следовательно, переменная «batch_size» - это количество отсчетов, которые вы отправили в нейронную сеть. То есть сколько разных примеров вы подаете одновременно в нейронную сеть.
TimeSteps - это тики времени. Сколько времени занимает каждый из ваших образцов. Например, выборка может содержать 128 временных шагов, где каждый временной шаг может быть 30-й секунды для обработки сигнала. В обработке естественного языка (NLP) шаг времени может быть связан с символом, словом или предложением, в зависимости от настройки.
Характеристики - это просто количество измерений, которые мы вводим на каждом временном шаге. Например, в НЛП слово может быть представлено 300 объектами, используя word2vec. В случае обработки сигнала, давайте представим, что ваш сигнал 3D. То есть у вас есть сигналы X, Y и Z, такие как измерения акселерометра на каждой оси. Это означает, что для каждого образца будет отправлено 3 функции на каждом временном шаге.
По Гийому
источник
Мой ответ с примером: ["привет, это xyz", "как дела", "великий человек ..."]
в данном случае «[образцы, временные шаги, особенности]» означает:
источник