Я пытаюсь обучить эту реализацию Keras Deeplabv3 + на Pascal VOC2012, используя предварительно обученную модель (которая также обучалась на этом наборе данных).
Я получил странные результаты с точностью, быстро сходящейся к 1,0:
5/5 [==============================] - 182s 36s/step - loss: 26864.4418 - acc: 0.7669 - val_loss: 19385.8555 - val_acc: 0.4818
Epoch 2/3
5/5 [==============================] - 77s 15s/step - loss: 42117.3555 - acc: 0.9815 - val_loss: 69088.5469 - val_acc: 0.9948
Epoch 3/3
5/5 [==============================] - 78s 16s/step - loss: 45300.6992 - acc: 1.0000 - val_loss: 44569.9414 - val_acc: 1.0000
Тестирование модели также дает 100% точность.
Я решил построить прогнозы на одном и том же наборе случайных изображений до и после тренировки, и обнаружил, что модели рекомендуется говорить, что все является просто фоном (это 1-й класс в Паскале VOC2012).
Я довольно плохо знаком с глубоким изучением, и мне понадобится помощь, чтобы выяснить, откуда это может прийти.
Я подумал, что, возможно, это может быть моя функция потерь, которую я определил как:
def image_categorical_cross_entropy(y_true, y_pred):
"""
:param y_true: tensor of shape (batch_size, height, width) representing the ground truth.
:param y_pred: tensor of shape (batch_size, height, width) representing the prediction.
:return: The mean cross-entropy on softmaxed tensors.
"""
return tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(logits=y_pred, labels=y_true))
Я немного не уверен в правильности формы моих тензоров. Я использую API набора данных TF для загрузки .tfrecord
файлов, и мой тензор аннотаций имеет форму (batch_size, height, width)
. Будет (batch_size, height, width, 21)
ли то, что нужно? Другие ошибки внутри модели возникают, когда я пытаюсь разделить изображение аннотации на тензор, содержащий 21 изображение (по одному для каждого класса):
tensorflow.python.framework.errors_impl.InvalidArgumentError: Incompatible shapes: [12,512,512,21] vs. [12,512,512]
[[Node: metrics/acc/Equal = Equal[T=DT_INT64, _device="/job:localhost/replica:0/task:0/device:GPU:0"](metrics/acc/ArgMax, metrics/acc/ArgMax_1)]]
[[Node: training/Adam/gradients/bilinear_upsampling_2_1/concat_grad/Slice_1/_13277 = _Recv[client_terminated=false, recv_device="/job:localhost/replica:0/task:0/device:GPU:1", send_device="/job:localhost/replica:0/task:0/device:CPU:0", send_device_incarnation=1, tensor_name="edge_62151_training/Adam/gradients/bilinear_upsampling_2_1/concat_grad/Slice_1", tensor_type=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:GPU:1"]()]]
Спасибо за помощь!
Ответы:
Ваша модель переоснащается. Каждая эпоха имеет только 5 изображений. Модель «запоминает» ответ для каждого изображения.
Чтобы минимизировать вероятность переоснащения, увеличьте количество изображений. Для каждой категории объектов должно быть несколько тысяч примеров изображений.
источник