Опубликованная статья ( pdf ) содержит эти 2 предложения:
Кроме того, искажение информации может быть вызвано применением неправильных правил или недостаточным знанием статистического теста. Например, общее значение df в ANOVA может быть принято за ошибку df в отчете о тесте, или исследователь может разделить сообщаемое значение p теста или на два, чтобы получить одностороннее значение , тогда как значение теста или уже является односторонним.
Почему они могли это сказать? Тест хи-квадрат - двусторонний тест. (Я спросил одного из авторов, но не получил ответа.)
Я что-то пропускаю?
hypothesis-testing
chi-squared
Джоэл В.
источник
источник
Ответы:
Тест хи-квадрат по сути всегда является односторонним тестом . Вот свободный способ думать об этом: критерий хи-квадрат - это, в основном, тест «на соответствие». Иногда это явно упоминается как таковое, но даже если это не так, оно все еще часто по существу является хорошим дополнением. Например, критерий независимости по критерию хи-квадрат в таблице частот 2 x 2 является (своего рода) тестом соответствия первого ряда (столбца) распределению, указанному во втором ряду (столбце), и наоборот одновременно. Таким образом, когда осознанное значение хи-квадрат находится далеко справа от его распределения, это указывает на плохое соответствие, и, если оно достаточно далеко, относительно некоторого заранее заданного порога, мы можем заключить, что оно настолько мало, что мы не считаем, что данные взяты из этого справочного распределения.
Если бы мы использовали критерий хи-квадрат в качестве двустороннего теста, мы также были бы обеспокоены, если бы статистика находилась слишком далеко в левой части распределения хи-квадрат. Это будет означать, что мы беспокоимся, что подгонка может быть слишком хорошей . Это просто не то, о чем мы обычно беспокоимся. (Как историческая справка, это связано со спором о том, обманул ли Мендель свои данные. Идея заключалась в том, что его данные были слишком хороши, чтобы быть правдой. Если вам интересно, см. Здесь дополнительную информацию.)
источник
Это действительно зависит от двух вещей:
какая гипотеза проверяется. Если вы проверяете отклонение нормальных данных от заданного значения, вполне возможно иметь дело с верхним или нижним хвостами хи-квадрата (односторонний) или обоими хвостами распределения. Мы должны помнить, что статистика типа - не единственные тесты хи-квадрат в городе!(O−E)2E
говорят ли люди об альтернативной гипотезе, являющейся односторонней или двусторонней (потому что некоторые люди используют «двусторонний» для обозначения двусторонней альтернативы, независимо от того, что происходит с распределением выборки статистики . Иногда это может быть Так что, например, если мы смотрим на тест пропорций с двумя выборками, кто-то может в нулевой записи написать, что эти две пропорции равны, и в альтернативной записи, чтоπ1≠π2 и затем говорите о нем как о «двухстороннем», но тестируйте его, используя хи-квадрат, а не z-критерий, и поэтому смотрите только на верхний хвост распределения тестовой статистики (так что это два хвоста с точки зрения распределение разницы в пропорциях выборки, но одно из них в терминах распределения статистики хи-квадрат, полученной из этого - во многом так же, как если вы сделаете свой t-тест statistc , вы будете только глядя на один хвост в распределении ).|T| |T|
То есть мы должны быть очень осторожны с тем, что мы хотим охватить с помощью «критерия хи-квадрат», и уточнить, что мы имеем в виду, когда говорим «односторонний» или «двусторонний».
В некоторых обстоятельствах (два я упомянул; может быть и больше) может иметь смысл называть его двусторонним, или разумно называть его двусторонним, если вы допускаете некоторую слабость в использовании терминологии.
Это может быть разумным утверждением, чтобы сказать, что это только один хвост, если вы ограничиваете обсуждение определенными видами тестов хи-квадрат.
источник
Критерий хи-квадрат гипотезы о том, что дисперсия может быть либо одно-, либо двусторонним в том же смысле, что и t-критерий гипотезы о том, что среднее значение может быть либо одно-, либо двусторонним.σ 2 ( m - μ ) √(n−1)s2/σ2 σ2 μ(m−μ)n−−√/s μ
источник
Ответ @ gung верен и является способом чтения . Тем не менее, путаница может возникнуть из другого чтения:χ2
Было бы легко интерпретировать как «двусторонний» в том смысле, что тестовая статистика обычно состоит из суммы квадратов разностей с обеих сторон исходного распределения.χ2
Это чтение будет путать, как генерировалась статистика теста, с какими хвостами статистики теста просматривается.
источник
У меня также были некоторые проблемы, чтобы разобраться и с этим вопросом, но после некоторых экспериментов мне показалось, что моя проблема была просто в том, как называются тесты.
Например, в SPSS таблица 2x2 может содержать критерий числового критерия. Там есть два столбца для p-значений, один для «Pearson Chi-Sqare», «Continuity Correction» и т. Д., И еще одна пара столбцов для точного теста Фишера, где есть один столбец для 2-стороннего теста и другой для 1-сторонний тест.
Сначала я подумал, что 1- и 2-сторонние обозначают 1- или 2-стороннюю версию теста на квадрат, что кажется странным. Однако оказалось, что это обозначает основную формулировку альтернативной гипотезы в тесте разницы между пропорциями, то есть z-критерия. Таким образом, часто разумный двусторонний критерий пропорций достигается в SPSS с помощью критерия квадратуры, где показатель квадратуры сравнивается со значением в (1-стороннем) верхнем хвосте распределения. Думаю, это то, на что уже указывали другие ответы на первоначальный вопрос, но мне потребовалось некоторое время, чтобы осознать это.
Кстати, такая же формулировка используется в openepi.com и, возможно, в других системах.
источник
( n - 1 ) s 2χ2 дисперсионный тест может быть односторонним или двухсторонним: статистика теста равна , а нулевая гипотеза: s (выборочное отклонение) = (справочное значение). Альтернативная гипотеза может быть: (a) , (b) , (c) . p-значение caculation включает в себя асимметрию распределения. σs>σs<σs≠σ(n−1)s2σ2 σ s>σ s<σ s≠σ
источник
и F тесты односторонне тесты , потому что мы никогда не иметь отрицательные значения и F. Для , сумма разности наблюдаемых и ожидаемых в квадрат делится на ожидаемый (доля ), таким образом, хи-квадрат всегда является положительным числом или может быть близко к нулю с правой стороны, когда нет разницы. Таким образом, этот тест всегда является односторонним тестом с правой стороны. Объяснение для F теста аналогично.х 2 х 2χ2 χ2 χ2
Для теста F мы сравниваем дисперсию группы с суммой дисперсий внутри группы (среднеквадратичная ошибка с . Если сумма квадратов между и внутри равна, мы получаем значение F, равное 1.SSwdfw
Поскольку это, по сути, отношение суммы квадратов, значение никогда не становится отрицательным числом. Таким образом, у нас нет левого теста, а F-тест всегда является правосторонним односторонним тестом. Проверьте значения и F, они всегда положительны. Для обоих тестов вы смотрите, находится ли вычисленная статистика справа от критического значения.χ2
источник