показывает линейную зависимость между независимыми переменными и зависимой переменной. Определяется как 1 - S S ER2 - сумма квадратов ошибок, деленная на общую сумму квадратов. SSTO=SSE+SSR,которые представляют собой общую ошибку и общую сумму квадратов регрессии. По мере добавления независимых переменныхSSRбудет продолжать расти (и посколькуSSTOфиксировано),SSEбудет снижаться, аR2будет непрерывно повышаться независимо от того, насколько ценны переменные, которые вы добавили.1−SSESSTOSSTO=SSE+SSRSSRSSTOSSER2
Скорректированный пытается учесть статистическую усадку. Модели с тоннами предикторов имеют тенденцию работать лучше в выборке, чем при тестировании вне выборки. Скорректированный R 2 «штрафует» вас за добавление дополнительных переменных предиктора, которые не улучшают существующую модель. Это может быть полезно при выборе модели. Скорректированный R 2 будет равен R 2 для одной переменной предиктора. Когда вы добавляете переменные, он будет меньше, чем R 2 .R2R2R2R2R2
R ^ 2 объясняет пропорцию изменения вашей зависимой переменной (Y), объясненную вашими независимыми переменными (X) для модели линейной регрессии.
В то время как скорректированный R ^ 2 говорит, что доля вариации в вашей зависимой переменной (Y) объясняется более чем 1 независимой переменной (X) для модели линейной регрессии.
источник
R-Squared увеличивается, даже когда вы добавляете переменные, которые не связаны с зависимой переменной, но отрегулированный R-Squared заботится об этом, так как он уменьшается всякий раз, когда вы добавляете переменные, которые не связаны с зависимой переменной, таким образом, после обработки это, вероятно, уменьшать.
источник