Я обнаружил, возможно, противоречивые определения для статистики перекрестной проверки (CV) и для статистики обобщенной перекрестной проверки (GCV), связанной с линейной моделью (с нормальным гомоскедастическим вектором ошибок ).ε
С одной стороны, Голуб, Хит и Вахба определяют оценку GCV как (стр. 216)
минимизатор заданный где A \ left (\ lambda \ right) = X \ left (X ^ TX + n \ lambda I \ right) ^ {- 1} X ^ TA(λ)=X(XTX+nλI)-1XT
С другой стороны, Эфрон определяет ту же концепцию, что и (с. 24), однако он приписывает введение этой концепции Craven & Wahba, где ее определение (с. 377) по существу такое же как упомянутое выше определение Голуба, Хита и Вахбы.
Означает ли это, что минимизирует ?
Точно так же Голуб, Хит и Вахба определяют оценку CV (стр. 217) как минимизатор
где - оценка
of с опущенной й точкой данных .
Авторы связывают введение оценки CV (также называемой оценкой PRESS) с Алленом («ПРЕССА Аллена», там же). Однако в статье Аллена оценка PRESS определяется (стр. 126) как (в статье Эфрона он определен как (стр. 24)).
Опять же, означает ли это, что минимизирует ?
Аллен, Дэвид М. Взаимосвязь между выбором переменных и агрегацией данных и метод прогнозирования. Technometrics, Vol. 16, № 1 (февраль 1974 г.), с. 125-127.
Крейвен, Питер и Вахба, Грейс. Сглаживание зашумленных данных с помощью сплайн-функций. Numerische Mathematik 31, (1979), с. 377-403
Эфрон, Брэдли. Насколько смещен коэффициент явной ошибки логистической регрессии? Технический отчет № 232. Статистический факультет Стэнфордского университета (апрель 1985 года)
Голуб, Джин Х., Хит и Грейс Вахба. Обобщенная перекрестная проверка как метод выбора хорошего хребта. Technometrics, Vol. 21, № 2 (май 1979 г.), с. 215-223.
источник
Ответы:
Я считаю, что комментарии указывают на ответ, но не указывают его прямо. Так что я буду тупым.
Приведенная здесь формула V относится к линейной регрессии гребня. Они не говорят, что это то же самое, что PRESS, они говорят, что это версия, не зависящая от ротации. Часть, инвариантная к вращению, является тем, что делает это обобщенным.
Статья Эфрона посвящена логистической регрессии, адаптированной к этому контексту. Если вы хотите увидеть математический перевод между двумя контекстами, то вам стоит прочитать книгу «Элементы статистического обучения», 2ed, Хасти, Тибширани и Фридмана. Они предлагают эту книгу бесплатно онлайн: https://web.stanford.edu/~hastie/Papers/ESLII.pdf . Еще одно полезное чтение по GCV - Обобщенные аддитивные модели Саймона Вуда. Его лечение объединяет GCV в целом с приложениями в регрессии и логистической регрессии.
Если вы посмотрите на книгу ESL, стр. 244, вы увидите в основном ту же символику. Они ссылаются на тот большой матричный продукт, который у вас есть, как матрицу Smoother (я бы сказал, это матрица Hat или близкая кузина). Они описывают ПлавностьS как отображение от y к уy^
Они предлагают формулу для приближения GCV:
Это очень похоже на поведение AIC во многих моделях.traceS является эффективным количеством параметров.
Частьnλ вы цитируете, является в общем следом S . Насколько я понимаю, в абстрактном GCV приведен примерный вариант пропуска без перекрестной проверки, но в некоторых случаях (я считаю, что регрессия гребня) это точно. Это главное в статье Голуба.
Удачи, напишите, если узнаете больше.
источник