В чем разница между тренировками в Керасе val_loss
и loss
во время них?
Например
Epoch 1/20
1000/1000 [==============================] - 1s - loss: 0.1760, val_loss: 0.2032
На некоторых сайтах я читал, что при проверке не работал отсев.
machine-learning
deep-learning
keras
Vladimircape
источник
источник
dropout
неNone
), отсев применяется только во время обучения (т.е. не недоучка не применяется во время проверки). Таким образом, одно из различий между потерей при валидации (val_loss
) и потерей при обучении (loss
) заключается в том, что при использовании отсева потеря при валидации может быть ниже, чем потеря при обучении (обычно не ожидается в случаях, когда отсев не используется).Ответы:
val_loss
это значение функции стоимости для ваших данных перекрестной проверки, а потеря - это значение функции стоимости для ваших данных обучения. По данным валидации, нейроны, использующие выпадение, не сбрасывают случайные нейроны. Причина в том, что во время тренировок мы используем выпадение, чтобы добавить немного шума во избежание чрезмерной подгонки. Во время расчета перекрестной проверки мы находимся в фазе отзыва, а не в фазе обучения. Мы используем все возможности сети.Спасибо одному из наших дорогих друзей, я цитирую и объясняю содержание здесь, которые являются полезными.
Как вы видете
fit
Метод используется вKeras
имеет параметр с именем validation_split, который указывает процент данных, используемых для оценки модели, которая создается после каждой эпохи. После оценки модели с использованием этого количества данных, об этом будет сообщать,val_loss
если вы установили подробное значение1
; Более того, как четко указано в документации, вы можете использовать либо,validation_data
либоvalidation_split
. Данные перекрестной проверки используются для выяснения того, соответствует ли ваша модель данным или нет. Это то, что мы можем понять, имеет ли наша модель возможность обобщения или нет.источник