Допустим, мы хотим сделать регрессию для простого f = x * y
использования стандартной глубокой нейронной сети.
Я помню, что есть исследования, которые говорят о том, что NN с одним скрытым слоем может апоксировать любую функцию, но я пытался и без нормализации NN не смог приблизиться даже к этому простому умножению. Помогла только нормализация журнала данных m = x*y => ln(m) = ln(x) + ln(y).
Но это похоже на чит. Может ли NN сделать это без нормализации журнала? Ответ очевиден (как для меня) - да, поэтому вопрос больше в том, какой должен быть тип / конфигурация / расположение такого NN?