Мне любопытно заявление, сделанное в статье Википедии о размере эффекта . В частности:
[...] статистическое сравнение, не равное нулю, всегда будет показывать статистически значимые результаты, если только величина эффекта совокупности не равна нулю
Я не уверен, что это означает / подразумевает, не говоря уже о аргументе, чтобы поддержать это. Я думаю, в конце концов, эффект - это статистика, то есть значение, рассчитанное по выборке с собственным распределением. Означает ли это, что эффекты никогда не происходят из-за случайного отклонения (что, как я понимаю, означает быть незначительным)? Тогда рассмотрим ли мы достаточно сильный эффект - имеющий высокое абсолютное значение?
Я рассматриваю эффект, с которым я наиболее знаком: коэффициент корреляции Пирсона r, кажется, противоречит этому. Почему любой бы статистически значимым? Если мало, наша линия регрессии y = a x + b = r ( s y
Для small, близкого к 0, F-тест, скорее всего, будет содержать доверительный интервал, содержащий 0 для наклона. Разве это не контрпример?
Ответы:
В качестве простого примера, предположим, что я оцениваю ваш рост, используя какой-то статистический тупик.
Вы всегда говорили другим, что вы 177 см (около 5 футов 10 дюймов).
Если бы я , чтобы проверить эту гипотезу (что ваш рост равен 177 см, ), и я мог бы уменьшить ошибку в моем измерении достаточно, то я мог бы доказать , что вы не на самом деле 177 см. В конце концов, если я оценю ваш рост до достаточно десятичных знаков, вы почти наверняка отклонитесь от заявленной высоты 177,00000000 см. Возможно, вы 177,02 см; Мне нужно только уменьшить свою ошибку до менее чем 0,02, чтобы узнать, что вы не 177 см.h=177
Как уменьшить ошибку в статистике? Получите больший образец. Если вы получаете достаточно большую выборку, ошибка становится настолько маленькой, что вы можете обнаружить самые незначительные отклонения от нулевой гипотезы.
источник
Как отмечает @Kodiologist, речь идет о том, что происходит с большими объемами выборки. Для небольших размеров выборки нет причин, по которым у вас не может быть ложных или ложных отрицательных результатов.
Я думаю, что тест делает асимптотический случай более ясным. Предположим, у нас есть и мы хотим проверить против . Наша тестовая статистика X 1 , … , X n iid ∼ N ( μ , 1 ) H 0 : μ = 0 H A : μ ≠ 0 Z n = ˉ X n - 0Z Икс1, … , XN~н.о.р.N( μ , 1 ) ЧАС0: μ = 0 ЧАСA: μ ≠ 0
Zn=√Икс¯N∼ N( μ , 1N) поэтому . Нас интересует .
Пусть будет нашей ссылочной переменной. При мы имеем поэтому мы можем выбрать для контроля частоты ошибок типа I по желанию , Но под так
P(|Zn|≥α)P(|Zn|≥α)=P(Zn≤-α)+P(Zn≥α)=1+Φ(-α-μ √ZN= n--√Икс¯N∼ N( μ н--√, 1 ) п( | ZN| ≥α)
Дело в том, что если точности равно то наша тестовая статистика имеет эталонное распределение, и мы отклоним 5% (или что мы выберем) времени. Но если не точно , то вероятность того, что мы отклоним заголовки до при увеличении . Идея здесь заключается в непротиворечивости теста, который заключается в том, что при мощность (вероятность отклонения) до при .0 μ 0 1 n H A 1 n → ∞μ 0 μ 0 1 N ЧАСA 1 n → ∞
Это точно такая же история со статистикой теста для проверки против с коэффициентом корреляции Пирсона. Если нулевая гипотеза неверна, то наша тестовая статистика становится все более и более вероятной, поэтому вероятность, которую мы отвергнем, приближается к .H A : ρ ≠ ρ 0 1ЧАС0: ρ = ρ0 ЧАСA: ρ ≠ ρ0 1
источник
Возможно, то, что они сказали , неверно, если не по какой-либо другой причине, кроме их использования «это всегда происходит».
Я не знаю, в этом ли суть вашей путаницы , но я опубликую ее, потому что я думаю, что многие это понимают и будут смущены этим:
« случается, если достаточно велико»Икс N , НЕ означает «Если , то ».n > n0 Икс
Скорее это означает .Итn → ∞Pr ( X)=1
То, что они буквально говорят, означает следующее:
Однако они пытались сказать следующее:
Здесь есть принципиальные различия:
Там нет гарантии. Вы только с большей вероятностью получите значительный результат с большей выборкой. Теперь, они могли бы избежать части вины, потому что пока это просто вопрос терминологии. В вероятностном контексте будет понятно , что утверждение «если п достаточно велико , то X» может также интерпретироваться как «X становится все более и более вероятно , чтобы быть правдой , как п растет большой» .
Тем не менее, эта интерпретация выходит из моего окна, как только они говорят, что это всегда происходит. Надлежащей терминологией здесь было бы сказать, что это происходит « с высокой вероятностью » 1 .
Это вторично, но их формулировка вводит в заблуждение - кажется, подразумевается, что вы устанавливаете размер выборки как «достаточно большой», и тогда утверждение верно для любого уровня значимости. Однако, независимо от того, что является точным математическим утверждением, это не имеет смысла: сначала вы всегда устанавливаете уровень значимости, а затем выбираете размер выборки, который будет достаточно большим.n>n0
Но предположение , что это может быть как - то наоборот , к сожалению , подчеркивает интерпретация «достаточно большой», так что делает вышеуказанную проблему еще хуже.
Но как только вы понимаете литературу, вы получаете то, что они пытаются сказать.
(Примечание: между прочим, это как раз одна из постоянных проблем, с которыми сталкиваются многие люди из Википедии. Зачастую, понять, о чем они говорят, можно только в том случае, если вы уже знаете материал, поэтому это полезно только для справки или напоминания. , а не как материал для самообучения.)
1 Для коллег-педантов (привет!) Да, этот термин имеет более конкретное значение, чем тот, с которым я связан. Самый свободный технический термин, который мы, вероятно, хотим здесь, это «почти асимптотически почти наверняка» . Смотрите здесь .
источник
Мой любимый пример - количество пальцев по полу. Подавляющее большинство людей имеют 10 пальцев. Некоторые потеряли пальцы из-за несчастных случаев. У некоторых есть дополнительные пальцы.
Я не знаю, больше ли у мужчин пальцев, чем у женщин (в среднем). Все легко доступные данные свидетельствуют о том, что у мужчин и женщин по 10 пальцев.
Тем не менее, я очень уверен, что если бы я провел перепись всех мужчин и всех женщин, то я бы узнал, что у одного пола больше пальцев (в среднем), чем у другого.
источник