Мое личное удивление связано со средним и дисперсией выборки, но вот еще одна (может быть) удивительная характеристика: если и являются IID с конечной дисперсией, причем и независимы, то и нормальны.XYX+YX−YXY
Интуитивно, мы обычно можем определить, когда переменные не являются независимыми с диаграммой рассеяния. Итак, представьте диаграмму рассеяния пар, которая выглядит независимой. Теперь поверните на 45 градусов и посмотрите снова: если он все еще выглядит независимым, то координаты и отдельности должны быть нормальными (конечно, все это говорит свободно).(X,Y)XY
Чтобы понять, почему работает интуитивный бит, взгляните на
[cos45∘sin45∘−sin45∘cos45∘][xy]=12–√[x−yx+y]
Непрерывное распределение с фиксированной дисперсией, которая максимизирует дифференциальную энтропию, является гауссовым распределением.
источник
Об этом написана целая книга: «Характеристики нормального вероятностного закона», AM Mathai & G. Perderzoli. Краткий обзор в JASA (декабрь 1978) упоминает следующее:
источник
Гауссовы распределения являются единственными устойчивыми по сумме распределениями с конечной дисперсией.
источник
Лемма Стейна дает очень полезную характеристику. является стандартным гауссовым тогда и только тогда, когда для всех абсолютно непрерывных функций с .E f ′ ( Z ) = E Z f ( Z ) f E | f ′ ( Z ) | < ∞Z
источник
Теорема [Гершеля-Максвелла]: Пусть - случайный вектор, для которого (i) проекции на ортогональные подпространства независимы и (ii) распределение зависит только от длины, Тогда нормально распределен.Z∈Rn Z ∥Z∥ Z
Цитируется Джорджем Коббом в « Обучающей статистике: некоторые важные противоречия» (Chilean J. Statistics Vol. 2, No. 1, апрель 2011 г.) на с. 54.
Кобб использует эту характеристику в качестве отправной точки для получения , и без исчисления (или теории вероятностей).χ2 t F
источник
Пусть и две независимые случайные величины с таким общим симметричным распределением, чтоη ξ
Тогда эти случайные величины являются гауссовыми. (Очевидно, что если и центрированы по Гауссу, это правда.)ξ η
Это теорема Бобкова-Гудре
источник
Это не характеристика, а предположение, которое восходит к 1917 году и связано с Кантелли:
Упомянутый Жерара Letac здесь .
источник
Предположим, что один оценивает параметр местоположения, используя данные iid . Если является оценщиком максимального правдоподобия, то распределение выборки является гауссовым. Согласно теории вероятностей Джейнса : логика науки, с. 202-4, именно так Гаусс и получил ее.{x1,...,xn} x¯
источник
Более конкретная характеристика нормального распределения среди классов бесконечно делимых распределений представлена в Steutel и Van Harn (2004) .
Этот результат характеризует нормальное распределение с точки зрения поведения хвоста.
источник
В контексте сглаживания изображения (например, масштабного пространства ) гауссово является единственным вращательно-симметричным сепарабельным * ядром.
То есть, если нам требуется где , то вращательная симметрия требует что эквивалентно .
Требование, чтобы было собственным ядром, требует, чтобы константа была отрицательной, а начальное значение - положительным, в результате чего получилось ядро Гаусса.f[x]
* В контексте распределения вероятностей отделимое означает независимое, в то время как в контексте фильтрации изображения оно позволяет вычислительно свести двумерную свертку до двух одномерных сверток.
источник
Недавно Эйсмонт [1] опубликовал статью с новой характеристикой Гаусса:
Пусть - независимые случайные векторы со всеми моментами, где невырождены, и пусть статистика имеют распределение, которое зависит только от , где и . Тогда независимы и имеют одинаковое нормальное распределение с нулевым и для .(X1,…,Xm,Y) and (Xm+1,…,Xn,Z) Xi ∑ni=1aiXi+Y+Z ∑ni=1a2i ai∈R 1≤m<n Xi i ∈ { 1 , … , n }cov(Xi,Y)=cov(Xi,Z)=0 i∈{1,…,n}
[1]. Эйсмонт, Виктор. «Характеризация нормального распределения независимостью пары случайных векторов». Статистика и вероятностные письма 114 (2016): 1-5.
источник
Его характерная функция имеет ту же форму, что и его PDF. Я не уверен в другом распределении, которое делает это.
источник
Ожидание плюс минус стандартное отклонение - это седловые точки функции.
источник