Вопросы с тегом «variance»

16
Когда было бы целесообразно сообщить об отклонении вместо стандартного отклонения?

Я провел анализ, в котором смоделировал различные компоненты дисперсии. При представлении результатов в виде таблицы гораздо проще указывать стандартные отклонения, а не отклонения. Итак, это подводит меня к вопросу - есть ли причина сообщать об отклонениях вместо стандартного отклонения? Уместнее...

16
Почему независимость подразумевает нулевую корреляцию?

Прежде всего, я не спрашиваю это: Почему нулевая корреляция не подразумевает независимость? Это решено (довольно красиво) здесь: /math/444408/why-does-zero-correlation-not-imply-independence Я спрашиваю об обратном ... скажем, две переменные полностью независимы друг от друга. Разве они не могли...

16
Какие предыдущие распределения можно / нужно использовать для дисперсии в иерархической байесовской модели, когда средняя дисперсия представляет интерес?

В своей широко цитируемой статье априорные распределения для параметров дисперсии в иерархических моделях (916 цитата на Google Scholar) Гельман предлагает, что хорошими неинформативными априорными распределениями для дисперсии в иерархической байесовской модели являются равномерное распределение и...

16
Почему стандартное отклонение определяется как sqrt дисперсии, а не как sqrt суммы квадратов по N?

Сегодня я преподавал начальный класс статистики, и один студент подошел ко мне с вопросом, который я перефразирую здесь: «Почему стандартное отклонение определяется как квадратичная дисперсия, а не как квадрат суммы квадратов над N?» Мы определяем дисперсию населения:...

16
Линейность дисперсии

Я думаю, что следующие две формулы верны: V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) XVar(aX)=a2Var(X)Var(aX)=a2Var(X) \mathrm{Var}(aX)=a^2 \mathrm{Var}(X) то время как a является постоянным числом если , независимыVar(X+Y)=Var(X)+Var(Y)Var(X+Y)=Var(X)+Var(Y) \mathrm{Var}(X +...

15
Закон полной дисперсии как теорема Пифагора

Предположим, что и имеют конечный второй момент. В гильбертовом пространстве случайных величин со вторым конечным моментом (с внутренним произведением определяемым , ), мы можем интерпретировать как проекция на пространство функций...

15
Каково точное определение «дела Хейвуда»?

Я несколько неофициально использовал термин «случай Хейвуда» для обозначения ситуаций, когда онлайновая итеративно обновляемая оценка «конечного ответа» дисперсии становилась отрицательной из-за проблем с числовой точностью. (Я использую вариант метода Уэлфорда для добавления данных и удаления...

15
Как рассчитать дисперсию разбиения переменных

Я провожу эксперимент, в котором я собираю (независимые) выборки параллельно, я вычисляю дисперсию каждой группы выборок, и теперь я хочу объединить все тогда, чтобы найти общую дисперсию всех выборок. Мне трудно найти выход для этого, так как я не уверен в терминологии. Я думаю об этом как о...

15
Понимание расчетов корреляции расстояний

Насколько я понял, дистанционная корреляция - это надежный и универсальный способ проверить, существует ли связь между двумя числовыми переменными. Например, если у нас есть набор пар чисел: (x1, y1) (x2, y2) ... (xn, yn) мы можем использовать корреляцию расстояний, чтобы проверить, существует ли...

15
Какова корреляция, если стандартное отклонение одной переменной равно 0?

Как я понимаю, мы можем получить корреляцию путем нормализации ковариации с помощью уравнения ρi,j=cov(Xi,Xj)σiσjρi,j=cov(Xi,Xj)σiσj\rho_{i,j}=\frac{cov(X_i, X_j)}{\sigma_i \sigma_j} где - стандартное отклонениеXi.σi=E[(Xi−μi)2]−−−−−−−−−−−√σi=E[(Xi−μi)2]\sigma_i=\sqrt{E[(X_i-\mu_i)^2]}XiXiX_i Меня...

15
Соотношение расстояний и взаимная информация

Я работал с взаимной информацией в течение некоторого времени. Но я нашел очень недавнюю меру в «мире корреляции», которую также можно использовать для измерения независимости распределения, так называемой «корреляции расстояний» (также называемой броуновской корреляцией):...

15
Какова интуиция за сменными образцами при нулевой гипотезе?

Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования...

15
Почему дерево решений имеет низкий уклон и высокую дисперсию?

Вопросов Зависит ли это от того, мелкое дерево или глубокое? Или мы можем сказать это независимо от глубины / уровня дерева? Почему уклон низкий и дисперсия высокая? Пожалуйста, объясните интуитивно и математически...

15
Вопрос о компромиссном отклонении

Я пытаюсь понять компромисс между отклонением оценки, отношением между отклонением оценки и отклонением модели, а также отношением между дисперсией оценки и дисперсией модели. Я пришел к этим выводам: Мы склонны переписывать данные, когда пренебрегаем смещением оценки, то есть когда мы стремимся...

15
Существует ли какое-либо необходимое количество отклонений, выявленных PCA, чтобы провести последующий анализ?

У меня есть набор данных с 11 переменными и PCA (ортогональный) был сделан для сокращения данных. Принимая решение о количестве компонентов для сохранения, для меня было очевидно, что по моим знаниям о предмете и графике осыпей (см. Ниже) двух основных компонентов (ПК) было достаточно, чтобы...

15
Почему мы стабилизируем дисперсию?

Я столкнулся с преобразованием, стабилизирующим дисперсию, когда читал метод Kaggle Essay Eval . Они используют преобразование стабилизации дисперсии для преобразования значений каппа, прежде чем взять их среднее значение, а затем преобразовать их обратно. Даже после прочтения вики о...

15
Определение ковариационной структуры: плюсы и минусы

Каковы преимущества указания ковариационной структуры в GLM (вместо того, чтобы рассматривать все недиагональные элементы в ковариационной матрице как ноль)? Помимо отражения того, что каждый знает о данных, делает это улучшить качество посадки? повысить точность прогнозирования на удерживаемых...

15
Могу ли я преобразовать ковариационную матрицу в неопределенности для переменных?

У меня есть блок GPS, который выводит измерение шума через ковариационную матрицу ΣΣ\Sigma : Σ=⎡⎣⎢σxxσyxσxzσxyσyyσyzσxzσyzσzz⎤⎦⎥Σ=[σxxσxyσxzσyxσyyσyzσxzσyzσzz]\Sigma = \left[\begin{matrix} \sigma_{xx} & \sigma_{xy} & \sigma_{xz} \\ \sigma_{yx} & \sigma_{yy} & \sigma_{yz} \\ \sigma_{xz} &...