Путаница в отношении кригинга

9

Я читал эту статью в Википедии, связанную с кригингом. Я не понял той части, когда говорится, что

Кригинг вычисляет наилучшую линейную несмещенную оценку, , для , так что дисперсия кригинга сводится к минимуму с условием несмещенности. Я не получил вывод, а также как минимизировать дисперсию. Какие-либо предложения?Z^(x0)Z(x0)

Специально, я не получил ту часть, где применяется минимизация при условии непредвзятости.

Я думаю, что это должно было быть

E [Z '(x0) -Z (x0)] вместо E [Z' (x) -Z (x)] не так ли. 'эквивалентно шляпе в статье вики. Также я не понял, как происходит ошибка кригинга

user31820
источник
Где вы зацикливаетесь на выводе?
whuber
Часть, в которой он вычисляет ошибку кригинга и накладывает условие беспристрастности. Хорошо бы сказать, что непредвзятое условие означает ожидание оценки, а истинное равенство. Я отредактировал пост, чтобы включить детали.
user31820
Я думаю, что вы правы, что выражение Wikipedia должно читаться как . E[Z(x0)Z(x0)]
whuber

Ответы:

13

Предположим, что является вектором, который, как предполагается, имеет многомерное распределение неизвестного среднего и известной дисперсионно-ковариационной матрицы . Мы наблюдаем из этого распределения и хотим предсказать из этой информации, используя несмещенный линейный предиктор:(Z0,Z1,,Zn)(μ,μ,,μ)Σ(z1,z2,,zn) z0

  • Линейный означает, что прогноз должен иметь форму для определения коэффициентов . Эти коэффициенты могут максимально зависеть от того, что известно заранее, а именно от записей .z0^=λ1z1+λ2z2++λnznλiΣ

Этого предиктора также можно считать случайной величиной .Z0^=λ1Z1+λ2Z2++λnZn

  • Несмещенный означает, что ожидание равно его (неизвестному) среднему значению .Z0^μ

Запись вещей дает некоторую информацию о коэффициентах:

μ=E[Z0^]=E[λ1Z1+λ2Z2++λnZn]=λ1E[Z1]+λ2E[Z2]++λnE[Zn]=λ1μ++λnμ=(λ1++λn)μ.

Вторая строка обусловлена ​​линейностью ожидания, а все остальное - простая алгебра. Поскольку предполагается, что эта процедура работает независимо от значения , очевидно, что коэффициенты должны суммироваться в единицу. Записывая коэффициенты в векторной записи , это можно аккуратно записать .μλ=(λi)1λ=1

Среди множества таких непредвзятых линейных предикторов мы ищем такой, который как можно меньше отклоняется от действительного значения , измеренного в среднем квадрате комнаты. Это опять-таки расчет. Он опирается на билинейность и симметрию ковариации, чье приложение отвечает за суммирование во второй строке:

E[(Z0^Z0)2]=E[(λ1Z1+λ2Z2++λnZnZ0)2]=i=1nj=1nλiλjvar[Zi,Zj]2i=1nλivar[Zi,Z0]+var[Z0,Z0]=i=1nj=1nλiλjΣi,j2i=1nλiΣ0,i+Σ0,0.

Откуда коэффициенты могут быть получены путем минимизации этой квадратичной формы с учетом (линейного) ограничения . Это легко решается с использованием метода множителей Лагранжа, в результате чего получается линейная система уравнений, «уравнения Кригинга».1λ=1

В приложении - пространственный случайный процесс («случайное поле»). Это означает, что для любого заданного набора фиксированных (не случайных) местоположений вектор значений в этих местоположениях является случайным с каким-то многомерным распределением. Напишите и примените предыдущий анализ, предполагая, что средства процесса во всех местах одинаковы, и предполагая ковариационную матрицу значений процесса при этих локация известна с уверенностью.Zx0,,xnZ(Z(x0),,Z(xn))Zi=Z(xi)n+1xin+1

Давайте интерпретировать это. При допущениях (включая постоянное среднее и известную ковариацию) коэффициенты определяют минимальную дисперсию, достижимую любой линейной оценкой. Давайте назовем это отклонение («ОК» для «обычного кригинга»). Это зависит исключительно от матрицы . Это говорит нам о том, что если бы нам пришлось многократно из и использовать эти коэффициенты для прогнозирования значений из оставшихся значений каждый раз, тоσOK2Σ(Z0,,Zn)z0

  1. В среднем наши прогнозы были бы правильными.

  2. Как правило, наши прогнозы будут отклоняться около от фактических значений .z0σOKz0

Необходимо сказать гораздо больше, прежде чем это можно будет применить к практическим ситуациям, таким как оценка поверхности по точечным данным: нам нужны дополнительные предположения о том, как статистические характеристики пространственного процесса изменяются от одного местоположения к другому и от одной реализации к другой (даже если на практике обычно доступна только одна реализация). Но этого изложения должно быть достаточно, чтобы понять, как поиск «лучшего» непредвзятого линейного предиктора («BLUP») напрямую ведет к системе линейных уравнений.


Кстати, кригинг, как это обычно практикуется, не совсем совпадает с оценкой наименьших квадратов, потому что оценивается в предварительной процедуре (известной как «вариография») с использованием тех же данных. Это противоречит предположениям этого вывода, который предполагал, что была известнатем более независима от данных). Таким образом, с самого начала в кригинге заложены некоторые концептуальные и статистические недостатки. Вдумчивые практикующие всегда знали об этом и находили различные творческие способы (пытаться) оправдать несоответствия. (Наличие большого количества данных может действительно помочь.) Теперь существуют процедуры для одновременной оценкиΣΣΣи прогнозирование коллекции значений в неизвестных местах. Они требуют немного более строгих предположений (многомерной нормальности), чтобы совершить этот подвиг.

Whuber
источник
Там есть веб-сайт, где они противостоят кригингу, и кажется, что у него есть веские аргументы. Я думаю, что ваш последний абзац здесь очень яркий.
Уэйн
@ Уэйн Да, ты можешь сказать, на что я реагирую. Но хотя консультанты использовали кригинг в качестве «змеиного масла», ему многое нужно для этого, включая теорию «смены поддержки» для сравнения данных, полученных с (скажем) крошечных образцов среды, с данными, полученными из гораздо больших части этой среды. Кригинг, в конечном счете, находится в основе самого сложного пространственно-временного моделирования сегодня. Это также полезный способ оценки альтернативных предложений: например, многие пространственные интерполяторы являются линейными (или могут быть линеаризованы), поэтому справедливо сравнить их дисперсию оценки с кригингом.
whuber
1

Кригинг - это просто оценка методом наименьших квадратов для пространственных данных. Как таковой, он обеспечивает линейную несмещенную оценку, которая минимизирует сумму квадратов ошибок. Так как оно несмещено, MSE = оценочная дисперсия и является минимумом.

Майкл Р. Черник
источник
Я не получил часть, вычисляющую ошибку кригинга. Также я запутался с дисперсией и дисперсией кригинга. В чем разница и в чем их значение
user31820
@whuber. Спасибо за объяснение, но я не получил вывод уравнения, когда вы вычислили MSE значения, предсказанного непредвзятой оценкой и истинной оценкой. Вторая строка, чтобы быть конкретным в этом уравнении
user31820
@whuber Также я не получил часть вики, когда она вычисляет дисперсию кригинга, которая похожа на ту, что была в вашем ответе. У них одинаковые результаты, но первоначальные условия разные. Как так?
user31820