Я читал, что критерий Колмогорова-Смирнова не должен использоваться для проверки правильности соответствия распределения, параметры которого были оценены по выборке.
Имеет ли смысл разделить мою выборку на две части и использовать первую половину для оценки параметров, а вторую - для теста KS?
заранее спасибо
estimation
fitting
kolmogorov-smirnov
sortega
источник
источник
Ответы:
Лучший подход состоит в том, чтобы вычислить критическое значение р-значения с помощью моделирования. Проблема заключается в том, что когда вы оцениваете параметры из данных, а не используете гипотетические значения, тогда распределение статистики KS не следует нулевому распределению.
Вместо этого вы можете игнорировать p-значения из теста KS и вместо этого смоделировать группу наборов данных из распределения кандидатов (с осмысленным набором параметров) того же размера, что и ваши реальные данные. Затем для каждого набора оцените параметры и выполните тест KS, используя оценочные параметры. Ваше значение p будет пропорцией статистики теста из смоделированных наборов, которые являются более экстремальными, чем для ваших исходных данных.
источник
Разделение выборки может уменьшить проблему с распределением статистики, но не устранит ее.
Ваша идея позволяет избежать проблемы, заключающейся в том, что оценки будут «слишком близки» относительно значений совокупности, поскольку они основаны на одной и той же выборке.
Вы не избегаете проблемы, которую они все еще оценивают. Распределение тестовой статистики не является табличным.
В этом случае это увеличивает уровень отклонения под нулем, вместо того, чтобы резко уменьшить его.
Лучше выбрать тест, в котором параметры неизвестны, например, Shapiro Wilk.
Если вы знакомы с тестом Колмогорова-Смирнова, вы можете воспользоваться тестом Лиллифорса.
То есть использовать статистику KS, но иметь распределение тестовой статистики, отражать эффект оценки параметров - моделировать распределение тестовой статистики при оценке параметров. (Это больше не распространяется бесплатно, поэтому вам нужны новые таблицы для каждого распределения.)
http://en.wikipedia.org/wiki/Lilliefors_test
Лилифорс использовал симуляцию для нормального и экспоненциального случая, но вы можете легко сделать это для любого конкретного распределения; в чем-то вроде R это вопрос моментов, чтобы смоделировать 10 000 или 100 000 выборок и получить распределение тестовой статистики под нулевым значением.
[Альтернативой может быть рассмотрение Андерсона-Дарлинга, у которого действительно есть та же проблема, но которая - судя по книге Д'Агостино и Стивенса ( Методы совершенства соответствия ), кажется, менее чувствительна к этому. Вы могли бы адаптировать идею Лиллифорса, но они предлагают относительно простую настройку, которая, кажется, работает довольно хорошо.]
Но есть и другие подходы; например, существуют семейства гладких тестов на пригодность (например, см. книгу Рэйнера и Беста), которые в ряде конкретных случаев могут иметь дело с оценкой параметров.
* эффект все еще может быть довольно большим - возможно, больше, чем обычно считается приемлемым; Момо правильно выразить беспокойство по этому поводу. Если более высокая частота ошибок типа I (и более плоская кривая мощности) является проблемой, то это не может быть улучшением!
источник
Боюсь, это не решит проблему. Я полагаю, что проблема не в том, что параметры оцениваются из того же образца, а из любого образца вообще. Вывод обычного нулевого распределения теста KS не учитывает какую-либо ошибку оценки в параметрах эталонного распределения, а скорее рассматривает их как данные. См. Также Durbin 1973, который подробно обсуждает эту проблему и предлагает решения.
источник