Вопросы с тегом «cross-entropy»

250
Что означает слово logits в TensorFlow?

В следующей функции TensorFlow мы должны обеспечить активацию искусственных нейронов в последнем слое. Это я понимаю. Но я не понимаю, почему это называется логитс? Разве это не математическая функция? loss_function = tf.nn.softmax_cross_entropy_with_logits( logits = last_layer, labels =...

111
В чем разница между sparse_softmax_cross_entropy_with_logits и softmax_cross_entropy_with_logits?

Недавно я наткнулся на tf.nn.sparse_softmax_cross_entropy_with_logits, и я не могу понять, в чем разница по сравнению с tf.nn.softmax_cross_entropy_with_logits . Является единственным отличие , что обучающие векторы yдолжны быть один горячей закодированными при использовании...

95
Что такое кросс-энтропия?

Я знаю, что есть много объяснений того, что такое кросс-энтропия, но я все еще в замешательстве. Это всего лишь метод описания функции потерь? Можем ли мы использовать алгоритм градиентного спуска, чтобы найти минимум с помощью функции потерь?...

84
Как выбрать потерю кросс-энтропии в TensorFlow?

Проблемы классификации, такие как логистическая регрессия или полиномиальная логистическая регрессия, оптимизируют кросс-энтропийную потерю. Обычно слой кросс-энтропии следует за слоем softmax , который производит распределение вероятностей. В тензорном потоке есть как минимум дюжина различных...