(Чтобы понять, почему я написал это, проверьте комментарии ниже моего ответа на этот вопрос .)
Ошибки типа III и теория статистических решений
Правильный ответ на неправильный вопрос иногда называют ошибкой типа III. Теория статистических решений - это формализация принятия решений в условиях неопределенности; это обеспечивает концептуальную структуру, которая может помочь избежать ошибок типа III. Ключевой элемент структуры называется функцией потерь . Он принимает два аргумента: первый - (соответствующее подмножество) истинного состояния мира (например, в задачах оценки параметров - истинное значение параметра ); второй является элементом в наборе возможных действий (например, в задачах оценки параметров, оценка, Выходные данные моделируют потери, связанные с каждым возможным действием в отношении каждого возможного истинного состояния мира. Например, в задачах оценки параметров некоторые хорошо известные функции потерь:
- абсолютная ошибка потери
- квадратичная потеря ошибок
- Потеря LINEX Хэла Вариана
Изучая ответ, чтобы найти вопрос
Есть случай, когда можно попытаться сделать так, чтобы ошибок типа III можно было избежать, сосредоточившись на формулировании правильной функции потерь и продолжении остального теоретического подхода (не детализированного здесь). Это не мое резюме - в конце концов, статистики хорошо оснащены многими методами и методами, которые работают хорошо, даже если они не являются производными от такого подхода. Но конечный результат, как мне кажется, заключается в том, что подавляющее большинство статистиков не знают и не заботятся о теории статистических решений, и я думаю, что они упускают из виду. Для этих статистиков я бы сказал, что причина, по которой они могут посчитать статистическую теорию принятия решений ценной с точки зрения избежания ошибки Типа III, заключается в том, что она обеспечивает структуру, в которой можно запрашивать любую предлагаемую процедуру анализа данных:с какой функцией потерь (если есть) процедура справляется оптимально? То есть, в какой ситуации принятия решений она дает наилучший ответ?
Задняя ожидаемая потеря
С байесовской точки зрения функция потерь - это все, что нам нужно. Мы можем в значительной степени пропустить остальную часть теории принятия решений - почти по определению, лучшее, что можно сделать, это минимизировать последующую ожидаемую потерю, то есть найти действие которое минимизирует \ tilde {L} (a) = \ int _ {\ Тета} L (\ theta, a) p (\ theta | D) d \ theta .~ L ( ) = ∫ & thetas ; L ( & thetas ; , ) р ( & thetas ; | D ) d & thetas ;
(А что касается небайесовских перспектив? Что ж, это теорема теории принятия частых решений, в частности, полной теоремы Уолда о том, что оптимальным действием всегда будет минимизация байесовской апостериорной ожидаемой потери по отношению к некоторым (возможно, неправильным) сложность этого результата заключается в том, что эта теорема существования не дает указаний относительно того, какой из них использовать до этого, но она плодотворно ограничивает класс процедур, которые мы можем «инвертировать», чтобы точно определить, какой именно вопрос заключается в том, что мы В частности, первый шаг в инверсии любой не байесовской процедуры - выяснить, какую (если она есть) байесовскую процедуру она копирует или аппроксимирует.)
Эй, Сайан, ты знаешь, что это сайт вопросов и ответов, верно?
Что подводит меня - наконец - к статистическому вопросу. В байесовской статистике при предоставлении интервальных оценок для одномерных параметров используются две общие процедуры вероятного интервала: основанный на квантиле доверительный интервал и доверительный интервал с наибольшей апостериорной плотностью. Какие функции потери стоят за этими процедурами?
Ответы:
При оценке одномерного интервала набор возможных действий представляет собой набор упорядоченных пар, определяющих конечные точки интервала. Пусть элемент этого множества представлен .(a,b), a≤b
Самые высокие задние интервалы плотности
Пусть задняя плотность будет . Самые высокие интервалы апостериорной плотности соответствуют функции потерь, которая штрафует интервал, который не содержит истинного значения, а также штрафует интервалы пропорционально их длине:f(θ)
,LHPD(θ,(a,b);k)=I(θ∉[a,b])+k(b–a),0<k≤maxθf(θ)
где - функция индикатора . Это дает ожидаемую потерюI(⋅)
.L~HPD((a,b);k)=1−Pr(a≤θ≤b|D)+k(b–a)
Настройка дает необходимое условие для локального оптимума внутри пространства параметров:f(a)=f(b)=k- точно правило для интервалов HPD, как и ожидалось.∂∂aL~HPD=∂∂bL~HPD=0 f(a)=f(b)=k
Форма дает некоторое представление о том, почему интервалы HPD не инвариантны к монотонно возрастающему преобразованию g ( θ ) параметра. Θ -пространства ОПДА интервал преобразуется в г ( & thetas ; ) пространство отличается от г ( θ ) -пространство ОПД интервал , так как два интервала соответствует различным функциям потерь: при регистрации г ( θ )L~HPD((a,b);k) g(θ) θ g(θ) g(θ) g(θ) интервал HPD в пространстве соответствует преобразованному штрафу за длину .k(g(b)–g(a))
Основанные на квантиле вероятные интервалы
Рассмотрим точечную оценку с помощью функции потерь
,Lq(θ,θ^;p)=p(θ^−θ)I(θ<θ^)+(1−p)(θ−θ^)I(θ≥θ^), 0≤p≤1
Задняя ожидаемая потеря
,Pr(θ<θ^|D)=p
то есть, оптимальная θ является ( 100 р ) % квантиль заднего распределения, как и ожидалось.θ^ (100p)
Таким образом, чтобы получить основанные на квантиле интервальные оценки, функция потерь
.LqCI(θ,(a,b);pL,pU)=Lq(θ,a;pL)+Lq(θ,b;pU)
источник
Интервалы минимального размера
Одним из очевидных вариантов выбора функции потерь для выбора интервала (как байесовского, так и частого) является использование размера интервалов, измеренного в терминах предельных распределений. Таким образом, начните с желаемого свойства или функции потерь и выведите оптимальные интервалы. Как правило, этого не делается, о чем свидетельствует настоящий вопрос, даже если это возможно. Для байесовских достоверных наборов это соответствует минимизации предыдущей вероятности интервала или максимизации относительного убеждения, например, как описано в Evans (2016). Размер также может быть использован для выбора частых доверительных наборов (Schafer 2009). Два подхода связаны и могут быть довольно легко реализованы с помощью правил принятия решений, которые преимущественно включают решения с большой точечной взаимной информацией (Bartels 2017).
Бартельс, к., 2017. Использование предыдущих знаний в тестах для частых. figshare. https://doi.org/10.6084/m9.figshare.4819597.v3
Эванс М., 2016. Измерение статистических данных с использованием относительных убеждений. Журнал вычислительной и структурной биотехнологии, 14, с.91-96.
Schafer, CM и Stark, PB, 2009. Построение доверительных областей оптимального ожидаемого размера. Журнал Американской статистической ассоциации, 104 (487), с. 1080-1089.
источник