Прежде всего: Из того, что я понял, остатки начальной загрузки работают следующим образом:
- Подгоните модель к данным
- Рассчитать остатки
- Пересчитайте остатки и добавьте их к 1.
- Подгоните модель к новому набору данных из 3.
- Повторите
n
время, но всегда добавляйте пересчитанные остатки к подгонке от 1.
Пока это правильно?
Я хочу сделать что-то немного другое:
Я хочу оценить параметр и неопределенность прогноза для алгоритма, который оценивает некоторую переменную среды.
У меня есть безошибочный временной ряд (из симуляции) этой переменной x_true
, к которому я добавляю некоторый шум x_noise
, для генерации синтетического набора данных x
. Затем я пытаюсь найти оптимальные параметры, подбирая в своем алгоритме сумму квадратов sum((x_estimate - x_true)^2)
(! Не x_estimate - x
!) В качестве целевой функции. Чтобы увидеть, как работает мой алгоритм и создать образцы распределений моих параметров, я хочу сделать повторную выборку x_noise
, добавить ее x_true
, снова подогнать мою модель, промыть и повторить. Это правильный подход для оценки неопределенности параметров? Могу ли я интерпретировать совпадения для загруженных наборов данных как неопределенность прогноза, или я должен следовать процедуре, которую я опубликовал выше?
/ edit: я думаю, что я не совсем понял, что делает моя модель. Думайте об этом как о чем-то вроде шумоподавляющего метода. Это не прогнозирующая модель, это алгоритм, который пытается извлечь основной сигнал из шумного временного ряда данных об окружающей среде.
/ edit ^ 2: Для пользователей MATLAB я написал несколько быстрых и грязных примеров линейной регрессии того, что я имею в виду.
Это то, что я считаю "обычной" начальной загрузкой остатков (пожалуйста, исправьте меня, если я ошибаюсь): http://pastebin.com/C0CJp3d1
Это то, что я хочу сделать: http://pastebin.com/mbapsz4c
источник
Ответы:
Вот более общий алгоритм (полупараметрический-бутстрап):
источник
Я не уверен, что мое понимание верно. Но вот мое предложение изменить ваш код ("обычная начальная загрузка остатков", строки 28-34) в:
Идея заключается в том, что каждый раз, когда вы используете остатки не с первого запуска, а с предыдущего подгонки начальной загрузки. Что касается меня, то все остальное кажется верным.
Это пересмотренная версия, которая была проверена в MATLAB. Две ошибки были исправлены.
источник
Чтобы увидеть, как алгоритм работает с точки зрения точности прогнозирования / среднеквадратичной ошибки, вам, вероятно, понадобится загрузчик «оптимизма» Эфрона-Гонга. Это реализовано для удобства использования в
rms
пакете R. См своих функцийols
,validate.ols
,calibrate
.источник