Вопросы с тегом «sigmoid-curve»

33
Почему tanh почти всегда лучше сигмовидной как функция активации?

В курсе Эндрю Нг « Нейронные сети и глубокое обучение» на Coursera он говорит, что использование tanhTaNчасtanh почти всегда предпочтительнее использования sigmoidsягмояdsigmoid . Причине он дает то , что выходные сигналы с помощью tanhTaNчасtanh центром , вокруг 0 , а не sigmoidsягмояdsigmoid «с...

22
Relu против Sigmoid против Softmax как скрытые нейроны слоя

Я играл с простой нейронной сетью только с одним скрытым слоем от Tensorflow, а затем пробовал разные активации для скрытого слоя: Relu сигмоид Softmax (ну, обычно softmax используется в последнем слое ..) Relu дает лучшую точность поезда и точность проверки. Я не уверен, как это объяснить. Мы...