Расчет вероятности от RMSE

13

У меня есть модель для прогнозирования траектории (х как функция времени) с несколькими параметрами. В настоящий момент я вычисляю среднеквадратичную ошибку (RMSE) между прогнозируемой траекторией и экспериментально записанной траекторией. В настоящее время я минимизирую эту разницу (RMSE), используя simplex (fminsearch в matlab). Несмотря на то, что этот метод дает хорошие результаты, я хотел бы сравнить несколько разных моделей, поэтому я думаю, что мне нужно вычислить вероятность, чтобы я мог использовать оценку максимального правдоподобия, а не минимизировать среднеквадратическое отклонение (а затем сравнить модели с использованием AIC или BIC ). Есть ли стандартный способ сделать это?

Джейсон
источник

Ответы:

20

{Икся,Zя}е

Σя(е(Икся)-Zя)2

Разве этот выбор не является абсолютно произвольным? Конечно, вы хотите оштрафовать оценки, которые полностью ошибочны, чем те, которые являются правильными. Но есть очень веская причина использовать квадратную ошибку.

1Zехр-(Икс-μ)22σ2ZZ

Lзнак равноΠя1Zехр-(е(Икся)-Zя)22σ2

Теперь, если вы берете логарифм этого ...

журналLзнак равноΣя-(е(Икся)-Zя)22σ2-журналZ

... получается, что это очень тесно связано с среднеквадратичным значением: единственными отличиями являются некоторые постоянные члены, квадратный корень и умножение.

Короче говоря: минимизация среднеквадратичной ошибки эквивалентна максимизации логарифмической вероятности данных.

bayerj
источник
Спасибо за четкое объяснение. Поэтому, если я хочу сравнить две (не встроенные) модели, использующие BIC, я могу просто отбросить термины sigma ^ 2 и Z (фактически предполагая, что они одинаковы для разных моделей) при расчете вероятности?
Джейсон
Да. Оба условия зависят только отσТаким образом, вы можете отбросить их, если оба σс равны.
Bayerj
1
Я думаю, что в последнем шаге выше (с учетом вероятности) есть ошибка, она должна быть:
журналLзнак равноΣя(е(Икся)-Zя)22σ2-журналZ
Это не меняет «нижний предел», потому что логарифмическая вероятность линейно связана с RMSE, поэтому минимизация RMSE эквивалентна минимизации логарифмической вероятности
Jason
2
Отсутствует ли отрицательный знак в распределении Гаусса?
Маной
1
Разве заключение не должно быть противоположным? Минимизация суммы квадратов ошибок максимизирует логарифмическую вероятность (для фиксированнойσ) и, таким образом, максимизирует вероятность (поскольку лог является монотонным).
Тим Гудман