Этот вопрос вызван обсуждением в другом месте .
Переменные ядра часто используются в локальной регрессии. Например, loess широко используется и работает как сглаживающая регрессия, и основан на ядре переменной ширины, который адаптируется к разреженности данных.
С другой стороны, считается, что переменные ядра приводят к плохим оценкам в оценке плотности ядра (см. Terrell and Scott, 1992 ).
Есть ли интуитивная причина, по которой они будут хорошо работать для регрессии, но не для оценки плотности?
nonparametric
smoothing
kernel-smoothing
loess
Роб Хиндман
источник
источник
Ответы:
Здесь, похоже, есть два разных вопроса, которые я постараюсь разделить:
1) чем KS, сглаживание ядра, отличается от KDE, оценки плотности ядра? Ну скажи у меня есть оценщик / сглаживатель / интерполятор
а также случайно узнали «реальную» плотность f () в xi. Тогда выполнение
est( x, densityf )
должно дать оценку плотности f (): KDE. Вполне может быть, что KS и KDE оцениваются по-разному - разные критерии гладкости, разные нормы - но я не вижу принципиальной разницы. Чего мне не хватает?2) Как измерение влияет на оценку или сглаживание, интуитивно ? Вот игрушечный пример, просто чтобы помочь интуиции. Рассмотрим прямоугольник с N = 10000 точек в равномерной сетке и окно, линию, квадрат или куб с W = 64 точками внутри него:
Здесь "соотношение сторон" - это сторона окна / сторона ящика, а "расстояние до выигрыша" - это грубая оценка среднего расстояния от случайной точки в ящике до случайно расположенного окна.
Имеет ли это какой-либо смысл вообще? (Картинка или апплет действительно помогут: кто-нибудь?)
Идея состоит в том, что окно фиксированного размера внутри блока фиксированного размера имеет очень разную близость к остальной части блока, в 1d 2d 3d 4d. Это для равномерной сетки; возможно, сильная зависимость от размерности переносится на другие распределения, а может и нет. В любом случае, это похоже на сильный общий эффект, аспект проклятия размерности.
источник
Оценка плотности ядра означает интегрирование по локальному (нечеткому) окну, а сглаживание ядра означает усреднение по локальному (нечеткому) окну.
Оценка плотности ядра:ρ ( x ) ∝ ∑ K( | | х - хя| | ) ,
Как они одинаковы?
Рассмотрим образцы булевозначной функции, то есть набора, содержащего как «истинные выборки» (каждая со значением единицы), так и «ложные выборки» (каждая с нулевым значением). Предполагая, что общая плотность выборки постоянна (как сетка), локальное среднее значение этой функции тождественно пропорционально локальной (частичной) плотности истинно значимого подмножества. (Ложные выборки позволяют нам постоянно игнорировать знаменатель уравнения сглаживания, при этом добавляя нулевые члены к суммированию, чтобы оно упрощалось в уравнении оценки плотности.)
Точно так же, если ваши выборки были представлены как разреженные элементы в булевом растре, вы могли бы оценить их плотность, применив к растру фильтр размытия.
Чем они отличаются?
Интуитивно можно ожидать, что выбор алгоритма сглаживания будет зависеть от того, содержат ли измерения выборки существенную ошибку измерения.
В одном крайнем случае (без шума) вам просто нужно интерполировать между точно известными значениями в точках выборки. Скажем, с помощью триангуляции Делоне (с билинейной кусочной интерполяцией).
Оценка плотности напоминает противоположную крайность, это полностью шум, так как выборка в отдельности не сопровождается измерением значения плотности в этой точке. (Так что нечего просто интерполировать. Вы можете подумать об измерении площадей ячеек Вороного, но сглаживание / удаление шума все равно будет важно ..)
Дело в том, что, несмотря на сходство, это принципиально разные проблемы, поэтому разные подходы могут быть оптимальными.
источник