Когда я определяю свою лямбду через перекрестную проверку, все коэффициенты становятся равными нулю. Но у меня есть некоторые намеки из литературы, что некоторые из предикторов должны определенно повлиять на результат. Является ли ерундой произвольно выбирать лямбду, чтобы не было столько разреженности, сколько хочется?
Я хочу выбрать 10 или около того предикторов из 135 для модели Кокса, а размеры эффекта, к сожалению, невелики.
Ответы:
Если вы хотите иметь хотя бы определенное количество предикторов с определенным диапазоном значений, определенным в литературе, зачем начинать с подхода чистого LASSO? Как подсказывает @probabilityislogic, вы должны использовать некоторые информативные априорные значения для тех переменных, о которых у вас есть знания. Если вы хотите сохранить некоторые из свойств LASSO для остальных предикторов, возможно, вы могли бы использовать априор с двойным экспоненциальным распределением для каждого другого входа, т. Е. Использовать плотность вида гдеλ
источник
Существует хороший способ выполнить LASSO, но использовать фиксированное количество предикторов. Это регрессия наименьшего угла (LAR или LARS), описанная в статье Эфрона. В ходе итерационной процедуры создается несколько линейных моделей, каждая из которых имеет еще один предиктор, поэтому вы можете выбрать одну с требуемым числом предикторов.
Другой способ - или . Как упомянуто Нестором, используя соответствующие приоры, вы можете включить предварительные знания в модель. Так называемая машина векторности релевантности может быть полезна.л 2l1 l2
источник
Нет, это не оправданно. Огромное препятствие, которое призваны преодолеть процедуры выбора модели, заключается в том, что мощность истинной поддержкинеизвестно (Здесь мы имеем, что является «истинным» коэффициентом.) Потому чтонеизвестно, процедура выбора модели должна провести тщательный поиск по всем возможным моделям; однако, если бы мы зналимы могли бы просто проверить модели , что намного меньше.β ∗ | S ∗ | 2 р | S ∗ ||S∗|=∣∣{j:β∗j≠0}∣∣ β∗ |S∗| 2p |S∗| (p|S∗|)
Теория лассо основывается на достаточно большом параметре регуляризации , чтобы сделать выбранную модель достаточно разреженной. Может случиться так, что ваши 10 функций слишком много или слишком мало, так как нетрудно превратить нижнюю границу в верхнюю границу,λ λ |S∗|
Пусть будет нашей управляемой данными оценкой для , и положим . Тогда, возможно, вы пытаетесь убедиться, что чтобы вы восстановили хотя бы соответствующие функции? Или, может быть, вы пытаетесь установить этот чтобы вы знали, что все найденные вами функции имеют смысл? В этих случаях ваша процедура была бы более оправданной, если бы у вас была предварительная информация об относительных размерах .β^ β∗ S^={j:β^j≠0} S∗⊆S^ S^⊆S∗ S∗
Кроме того, обратите внимание, что некоторые коэффициенты можно оставить невыполненными, например, при выполнении лассо в
glmnet
.источник