Недавно я счел необходимым получить pdf для квадрата нормальной случайной величины со средним значением 0. По какой-то причине я предпочел не нормализовать дисперсию заранее. Если я сделал это правильно, то этот PDF-файл выглядит следующим образом:
Я заметил, что на самом деле это просто параметризация гамма-распределения:
А затем из того факта, что сумма двух гамм (с одним и тем же параметром масштаба) равна другой гамме, следует, что гамма эквивалентна сумме квадратов нормальных случайных величин.
Это было немного удивительно для меня. Несмотря на то, что я знал, что распределение - распределение суммы квадратов стандартных нормальных RV - было частным случаем гаммы, я не знал, что гамма по сути является просто обобщением, учитывающим сумму нормальных случайных величин из любой дисперсии. Это также приводит к другим характеристикам, с которыми я раньше не сталкивался, таким как экспоненциальное распределение, эквивалентное сумме двух квадратов нормальных распределений.
Это все несколько загадочно для меня. Является ли нормальное распределение фундаментальным для получения гамма-распределения, как я описал выше? В большинстве ресурсов, которые я проверял, не упоминается, что эти два распределения неразрывно связаны, как это, или даже в этом отношении описывается, как получается гамма. Это заставляет меня думать, что действует какая-то истина более низкого уровня, которую я просто запутанно выделил?
Ответы:
Как отмечается в комментарии профессора Сарвэйта, отношения между квадратом нормали и хи-квадратом являются очень широко распространенным фактом - так же как и тот факт, что хи-квадрат является лишь частным случаем гамма-распределения:
последнее равенство, вытекающее из свойства масштабирования гаммы.
Что касается отношения с экспонентой, то, если быть точным, это сумма двух квадратов нормалей с нулевым средним, каждая из которых масштабируется по дисперсии другого , что приводит к экспоненциальному распределению:
Но подозрение, что есть «нечто особенное» или «более глубокое» в сумме двух квадратов нулевых средних, которое «делает их хорошей моделью для времени ожидания», необоснованно: во-первых, что особенного в экспоненциальном распределении, которое делает это хорошая модель для "времени ожидания"? Без памяти, конечно, но есть ли здесь что-то «более глубокое», или просто простая функциональная форма функции экспоненциального распределения и свойства ? Уникальные свойства разбросаны по всей математике, и в большинстве случаев они не отражают какую-то «более глубокую интуицию» или «структуру» - они просто существуют (к счастью).e
Во-вторых, квадрат переменной очень мало связан с ее уровнем. Просто рассмотрим в, скажем, [ - 2f(x)=x :[−2,2]
... или отобразите стандартную нормальную плотность по отношению к плотности хи-квадрат: они отражают и представляют совершенно разные стохастические поведения, даже если они так тесно связаны, поскольку вторая - это плотность переменной, которая является квадратом первой. Нормаль может быть очень важной опорой математической системы, которую мы разработали для моделирования стохастического поведения - но как только вы возводите это в квадрат, оно становится чем-то совершенно другим.
источник
Давайте обратимся к поставленному вопросу: для меня все это несколько загадочно. Является ли нормальное распределение фундаментальным для вывода гамма-распределения ...? На самом деле нет ничего загадочного, просто нормальное распределение и гамма-распределение являются членами, среди прочего, экспоненциального семейства распределений, которое определяется способностью преобразовывать между уравнительными формами путем подстановки параметров и / или переменных. Как следствие, существует много преобразований путем замены между распределениями, некоторые из которых суммированы на рисунке ниже.
LEEMIS, Лоуренс М .; Жаклин Т. Макквестон (февраль 2008 г.). «Однофакторные распределительные отношения» (PDF). Американский статистик. 62 (1): 45–53. DOI: 10,1198 / 000313008x270448 цитировать
Вот два отношения нормального и гамма-распределения более подробно (среди неизвестного числа других, например, через хи-квадрат и бета).
Сначала следует более прямая связь между гамма-распределением (GD) и нормальным распределением (ND) со средним нулем. Проще говоря, GD становится нормальным по форме, так как его параметру формы разрешено увеличиваться. Доказать, что это так, сложнее. Для БД
To wit, to transform a GD to a limiting case ND we set the standard deviation to be a constant (k ) by letting b=1a−−√k and shift the GD to the left to have a mode of zero by substituting z=(a−1)1a−−√k+x . Then
Note that in the limit asa→∞ the most negative value of x for which this GD is nonzero →−∞ . That is, the semi-infinite GD support becomes infinite. Taking the limit as a→∞ of the reparameterized GD, we find
Graphically fork=2 and a=1,2,4,8,16,32,64 the GD is in blue and the limiting ND(x;0, 22) is in orange, below
Second Let us make the point that due to the similarity of form between these distributions, one can pretty much develop relationships between the gamma and normal distributions by pulling them out of thin air. To wit, we next develop an "unfolded" gamma distribution generalization of a normal distribution.
Note first that it is the semi-infinite support of the gamma distribution that impedes a more direct relationship with the normal distribution. However, that impediment can be removed when considering the half-normal distribution, which also has a semi-infinite support. Thus, one can generalize the normal distribution (ND) by first folding it to be half-normal (HND), relating that to the generalized gamma distribution (GD), then for our tour de force, we "unfold" both (HND and GD) to make a generalized ND (a GND), thusly.
The generalized gamma distribution
Can be reparameterized to be the half-normal distribution,
Note thatθ=π√σ2√. Thus,
which implies that
is a generalization of the normal distribution, whereμ is the location, α>0 is the scale, and β>0 is the shape and where β=2 yields a normal distribution. It includes the Laplace distribution when β=1 . As β→∞ , the density converges pointwise to a uniform density on (μ−α,μ+α) . Below is the generalized normal distribution plotted for α=π√2,β=1/2,1,4 in blue with the normal case α=π√2,β=2 in orange.
The above can be seen as the generalized normal distribution Version 1 and in different parameterizations is known as the exponential power distribution, and the generalized error distribution, which are in turn one of several other generalized normal distributions.
источник
The derivation of the chi-squared distribution from the normal distribution is much analogous to the derivation of the gamma distribution from the exponential distribution.
We should be able to generalize this:
The analogy is as following:
Normal and Chi-squared distributions relate to the sum of squares
The joint density distribution of multiple independent standard normal distributed variables depends on∑x2i
f(x1,x2,...,xn)=exp(−0.5∑ni=1xi2)(2π)n/2
IfXi∼N(0,1)
then∑ni=1Xi2∼χ2(ν)
Exponential and gamma distributions relate to the regular sum
The joint density distribution of multiple independent exponential distributed variables depends on∑xi
IfXi∼Exp(λ)
then∑ni=1Xi∼Gamma(n,λ)
The derivation can be done by a change of variables integrating not over allx1,x2,...xn but instead only over the summed term (this is what Pearson did in 1900). This unfolds very similar in both cases.
For theχ2 distribution:
WhereV(s)=πn/2Γ(n/2+1)sn/2 is the n-dimensional volume of an n-ball with squared radius s .
For the gamma distribution:
WhereV(s)=snn! is the n-dimensional volume of a n-polytope with ∑xi<s .
The gamma distribution can be seen as the waiting timeY for the n -th event in a Poisson process which is the distributed as the sum of n exponentially distributed variables.
As Alecos Papadopoulos already noted there is no deeper connection that makes sums of squared normal variables 'a good model for waiting time'. The gamma distribution is the distribution for a sum of generalized normal distributed variables. That is how the two come together.
But the type of sum and type of variables may be different. While the gamma distribution, when derived from the exponential distribution (p=1), gets the interpretation of the exponential distribution (waiting time), you can not go reverse and go back to a sum of squared Gaussian variables and use that same interpretation.
The density distribution for waiting time which falls of exponentially, and the density distribution for a Gaussian error falls of exponentially (with a square). That is another way to see the two connected.
источник