В MNIST для начинающих ML они определяют кросс-энтропию как Hy′(y):=−∑iy′ilog(yi)Hy′(y):=−∑iyi′log(yi)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) yiyiy_i - это прогнозируемое значение вероятности для классаiii аy′iyi′y_i' - истинная вероятность для этого класса. Вопрос 1 Разве это не проблема, что...