Я только начал изучать статистику, и я не могу получить интуитивное понимание достаточности. Чтобы быть более точным, я не могу понять, как показать, что следующие два абзаца эквивалентны:
Грубо говоря, с учетом набора X независимых идентично распределенных данных, обусловленных неизвестным параметром θ, достаточной статистикой является функция T (X), значение которой содержит всю информацию, необходимую для вычисления любой оценки параметра.
Статистика T (X) достаточна для лежащего в основе параметра θ именно в том случае, если распределение условной вероятности данных X, учитывая статистику T (X), не зависит от параметра θ.
(Я взял цитаты из достаточной статистики )
Хотя я понимаю второе утверждение и могу использовать теорему факторизации, чтобы показать, является ли данная статистика достаточной, я не могу понять, почему статистика с таким свойством также обладает тем свойством, что она «содержит всю информацию, необходимую для вычисления любого оценка параметра ». Я не ищу формального доказательства, которое в любом случае помогло бы уточнить мое понимание, я хотел бы получить интуитивное объяснение того, почему эти два утверждения эквивалентны.
Напомним, мои вопросы: почему два утверждения эквивалентны? Может ли кто-нибудь дать интуитивное объяснение их эквивалентности?
Ответы:
После комментариев @whuber и @Kamster, я, вероятно, лучше понял. Когда мы говорим, что достаточная статистика содержит всю информацию, необходимую для вычисления любой оценки параметра, мы на самом деле имеем в виду, что достаточно рассчитать оценку максимального правдоподобия (которая является функцией всей достаточной статистики).
Учитывая, что я отвечаю на свой вопрос, и поэтому я не на 100% уверен в ответе, я не буду отмечать его как правильный, пока не получу некоторую обратную связь. Пожалуйста, добавьте любой комментарий и проголосуйте, если вы думаете, что я ошибаюсь / неточен / и т.д ...
(Дайте мне знать, если это не совместимо с этикетом SE, так как это мой первый вопрос, я прошу вашей помилования, если я нарушаю какое-либо правило)
источник
Когда я изучал достаточность, я столкнулся с вашим вопросом, потому что я также хотел понять интуицию о том, из чего я понял, что я придумаю (дайте мне знать, что вы думаете, если я допустил какие-либо ошибки и т. Д.).
Пусть - случайная выборка из распределения Пуассона со средним θ > 0 .X1,…,Xn θ>0
Известно , что является достаточной статистикой для & thetas , так как условного распределения X 1 , ... , Х п дано Т ( Х ) свободна от & thetas , другими словами, не зависит от θ .T(X)=∑ni=1Xi θ X1,…,Xn T(X) θ θ
Теперь статистик знает, что X 1 , … , X n i . я . д ~ Р о я х с О н ( 4 ) и создает п = 400 случайных значений из этого распределения:A X1,…,Xn∼i.i.dPoisson(4) n=400
Для значений , созданных статистиком , он берет сумму и спрашивает статистику B следующее:A B
«Я эти выборочные значения берется из распределения Пуассона. Зная , что Σ п я = 1 х я = у = 4068 , что вы можете сказать мне об этом дистрибутиве?»x1,…,xn ∑ni=1xi=y=4068
Так, зная , что только (а также тот факт , что образец возник из распределения Пуассона) является достаточным для статистик Б ничего говорить о & thetas ? Поскольку мы знаем, что это достаточная статистика, мы знаем, что ответ «да».∑ni=1xi=y=4068 B θ
Чтобы получить некоторое представление о значении этого, давайте сделаем следующее (взято из «Введение в математическую статистику» Хогга и Маккеана и Крейга, 7-е издание, упражнение 7.1.9):
поскольку имеет распределение Пуассона со средним n θ . Последнее распределение является полиномиальным с y независимыми испытаниями, каждое из которых заканчивается одним из n взаимоисключающих и исчерпывающих способов, каждый из которых имеет одинаковую вероятность 1 / n . Соответственно, B проводит такой полиномиальный эксперимент y независимых испытаний и получает z 1 , … , z n . "Y=∑Zi nθ y n 1/n B y z1,…,zn
Это то, что говорится в упражнении. Итак, давайте сделаем именно это:
Мы видим, что они очень похожи (как и ожидалось)
источник
Позвольте мне дать другую точку зрения, которая может помочь. Это также качественно, но есть строгая версия этого, особенно важного в теории информации, известная как свойство Маркова.
источник