Я взял курс Эндрю Нг «Машинное обучение» через Coursera несколько месяцев назад, не обращая внимания на большую часть математики / дериваций и вместо этого сосредоточившись на практической реализации. С тех пор я начал возвращаться к изучению основополагающей теории и пересмотрел некоторые лекции профессора Нга. Я читал его лекцию «Регулярная линейная регрессия» и увидел, что он дал следующую функцию стоимости:
Затем он дает следующий градиент для этой функции стоимости:
Я немного озадачен тем, как он переходит от одного к другому. Когда я попытался сделать свой собственный вывод, у меня был следующий результат:
Разница заключается в том, что знак «плюс» между исходной функцией стоимости и параметром регуляризации в формуле профессора Нга превращается в знак «минус» в его функции градиента, тогда как в моем результате этого не происходит.
Интуитивно я понимаю, почему это отрицательно: мы уменьшаем тэта-параметр на величину градиента, и мы хотим, чтобы параметр регуляризации уменьшил величину изменения параметра, чтобы избежать переобучения. Я просто немного застрял в исчислении, которое поддерживает эту интуицию.
К вашему сведению, вы можете найти колоду здесь , на слайдах 15 и 16.
источник
Ответы:
Сейчас же
Так что для линейного случая
Похоже, что и у вас с Эндрю могут быть опечатки. Ну, по крайней мере двое из нас, кажется,
источник
На самом деле, если вы проверяете конспект лекций сразу после видео, он показывает формулу правильно. Выложенные здесь слайды показывают точный слайд видео.
источник
На самом деле, я думаю, что это просто опечатка.
Есть смысл?
источник