Вопросы с тегом «derivative»

29
Как получается функция затрат из логистической регрессии

Я прохожу курс машинного обучения в Стэнфорде на Coursera. В главе о логистической регрессии функция затрат выглядит следующим образом: Затем он получен здесь: Я попытался получить производную функции стоимости, но я получил что-то совершенно другое. Как получается производная? Какие промежуточные...

27
Пошаговый пример автоматического дифференцирования в обратном режиме

Не уверен, принадлежит ли этот вопрос здесь, но он тесно связан с градиентными методами в оптимизации, которая, кажется, здесь уместна. В любом случае, не стесняйтесь мигрировать, если считаете, что какое-то другое сообщество обладает большим опытом в этой теме. Короче говоря, я ищу пошаговый...

16
Вывод замены переменных функции плотности вероятности?

В книге распознавания образов и машинного обучения (формула 1.27) она дает py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | гдеx=g(y)x=g(y)x=g(y),px(x)px(x)p_x(x) - это pdf, соответствующийpy(y)py(y)p_y(y)...

12
Производная гауссовского процесса

Я считаю, что производная гауссовского процесса (ГП) - это другая ГП, и поэтому я хотел бы знать, существуют ли уравнения замкнутой формы для уравнений предсказания производной от ГП? В частности, я использую квадратичное экспоненциальное (также называемое гауссовским) ковариационное ядро ​​и хочу...

11
Может ли нейронная сеть выучить функционал и его функциональную производную?

Я понимаю, что нейронные сети (НС) можно считать универсальными аппроксиматорами как для функций, так и для их производных, при определенных предположениях (как для сети, так и для функции, которую нужно аппроксимировать). На самом деле, я провел ряд тестов на простые, но нетривиальные функции...

11
Интерпретация производной Радона-Никодима между вероятностными мерами?

Я видел в некоторых моментах использование производной Радона-Никодима одной вероятностной меры по отношению к другой, особенно в дивергенции Кульбака-Лейблера, где она является производной вероятностной меры модели для некоторого произвольного параметра с относительно реального параметра θ 0...

11
Аппроксимация второго порядка функции потерь (Книга глубокого обучения, 7.33)

В книге Гудфеллоу (2016) о глубоком обучении он говорил об эквивалентности раннего прекращения регуляризации L2 ( https://www.deeplearningbook.org/contents/regularization.html стр. 247). Квадратичная аппроксимация функции стоимости jjj определяется как:...