Вопросы с тегом «bias-variance-tradeoff»

83
Смещение и отклонение в перекрестном подтверждении по сравнению с K-кратной проверкой

Как разные методы перекрестной проверки сравниваются с точки зрения дисперсии модели и смещения? Мой вопрос частично мотивирован этой веткой: Оптимальное количество сгибов в перекрестной проверке с кратным распределением : всегда ли лучший выбор - резюме с пропуском? КKK, Ответ на этот вопрос...

47
Оптимальное количество сгибов в перекрестной проверке с

Помимо соображений вычислительной мощности, есть ли основания полагать, что увеличение количества сгибов при перекрестной проверке приводит к лучшему выбору / проверке модели (т. Е. Чем больше сгибов, тем лучше)? Если доводить аргумент до крайности, обязательно ли перекрестная проверка по принципу...

20
Понимание происхождения компромисса смещения дисперсии

Я читаю главу о компромиссах смещения дисперсии элементов статистического обучения, и у меня есть сомнения в формуле на стр. 29. Пусть данные возникают из такой модели, что где - случайный число с ожидаемым значением и дисперсией . Пусть ожидаемое значение ошибки модели составляет где - это...

15
Вопрос о компромиссном отклонении

Я пытаюсь понять компромисс между отклонением оценки, отношением между отклонением оценки и отклонением модели, а также отношением между дисперсией оценки и дисперсией модели. Я пришел к этим выводам: Мы склонны переписывать данные, когда пренебрегаем смещением оценки, то есть когда мы стремимся...

13
Почему выбор лучшего подмножества не является предпочтительным по сравнению с лассо?

Я читаю о выборе лучшего подмножества в книге «Элементы статистического обучения». Если у меня есть 3 предиктора x1,x2,x3x1,x2,x3x_1,x_2,x_3 , я создаю подмножеств:23=823=82^3=8 Подмножество без предикторов подмножество с предикторомx1x1x_1 подмножество с предикторомx2x2x_2 подмножество с...

9
Дисперсионный член в разностной декомпозиции линейной регрессии

В «Элементах статистического обучения» выражение для разложения смещения дисперсии линейной модели дается как где - фактическая целевая функция, - дисперсия случайной ошибки в модели и - линейная оценка функции .F ( х 0 ) σ 2 ε у = F ( х ) + εЕr r ( x0) = σ2ε+ E[ ф( х0) - Eе^( х0) ]2+ | | ч ( х0) |...

9
Можно ли разложить подогнанные остатки на отклонения и отклонения после подгонки линейной модели?

Я хотел бы классифицировать точки данных как нуждающиеся в более сложной модели или не требующие более сложной модели. Мое текущее мышление состоит в том, чтобы подогнать все данные к простой линейной модели и наблюдать размер остатков, чтобы сделать эту классификацию. Затем я немного прочитал о...