Я столкнулся с преобразованием, стабилизирующим дисперсию, когда читал метод Kaggle Essay Eval . Они используют преобразование стабилизации дисперсии для преобразования значений каппа, прежде чем взять их среднее значение, а затем преобразовать их обратно. Даже после прочтения вики о преобразованиях, стабилизирующих дисперсию, я не могу понять, почему мы на самом деле стабилизируем дисперсии? Какую пользу мы получаем от этого?
variance
mathematical-statistics
Pushpendre
источник
источник
Ответы:
Вот один из ответов: как правило, наиболее эффективный способ сделать статистический вывод - это когда ваши данные внутривенно. Если нет, вы получаете разные объемы информации из разных наблюдений, и это менее эффективно. Другой способ посмотреть на это - сказать, что если вы можете добавить дополнительную информацию к своему выводу (т. Е. Функциональную форму дисперсии посредством преобразования, стабилизирующего дисперсию), вы, как правило, улучшите точность своих оценок, по крайней мере, асимптотически. В очень маленьких выборках беспокойство с моделированием отклонения может увеличить Ваш маленький выборочный уклон. Это своего рода эконометрический аргумент типа GMM: если вы добавите дополнительные моменты, ваша асимптотическая дисперсия не может возрасти; и ваш конечный выборочный уклон увеличивается с переопределенными степенями свободы.
Другой ответ был дан кардиналом: если в вашем асимптотическом выражении дисперсии висит неизвестная дисперсия, сходимость к асимптотическому распределению будет медленнее, и вам придется как-то оценить эту дисперсию. Предварительное поворот ваших данных или вашей статистики обычно помогает повысить точность асимптотических приближений.
источник