Я борюсь с концепцией ковариационной матрицы. Теперь мое понимание , и что они описывают неопределенность. Например, для он описывает неопределенность значения x. Теперь мой вопрос об остальных сигмах, что они представляют? Что это значит, если они нули? Я могу интерпретировать, что если равно нулю, это означает, что у меня нет неопределенности относительно значения x. сг х х сг у у сг & thetas ; & thetas ; сг х х сг х х
Обратите внимание, я читаю Принципы движения роботов - теория, алгоритмы и реализации. Автор Howie Choset et. al., в котором говорится, что
По этому определению совпадает с дисперсией . Для , если , то и не зависят друг от друга. σ 2 i X i i ≠ j σ i j = 0 X i X j
Это может ответить на мой вопрос, если остальные сигмы являются нулями, однако, я все еще запутался в связи между этими переменными, например, и . Когда это происходит? Я имею в виду соотношение между ними. Или, другими словами, могу ли я считать их нулями?
Другая книга, а именно FastSLAM: Масштабируемый метод ... Майкла и Себастьяна, в которой говорится
Недиагональные элементы ковариационной матрицы этого многомерного гауссова кодируют корреляции между парами переменных состояния.
Они не упоминают, когда корреляция может произойти и что это значит?
источник
Чтобы почувствовать ковариационную матрицу - не вдаваясь в математические детали - лучше всего начать с матрицы 2х2. Затем помните, что ковариационная матрица является расширением понятия дисперсии в многомерном случае. В одномерном случае дисперсия является статистикой для одной случайной величины. Если ваша случайная переменная имеет гауссово распределение с нулевым средним, ее дисперсия может точно определить функцию плотности вероятности.
Теперь, если вы расширите это до двух переменных вместо одной, вы можете различить два случая. Если ваши две переменные независимы, это означает, что результат одного значения не имеет отношения к другому значению, это в основном то же самое, что и в одномерном случае. Ваш и ваш дают дисперсию и части вашей случайной величины, и будет равен нулю. σ y y x y σ x yσх х σYY Икс Y σх у
Если ваши переменные зависимы, это другое. Зависимость означает, что существует связь между исходами и . Например, вы могли бы иметь, что всякий раз, когда положителен, как правило, более вероятно, будет также положительным. Это определяется значением ковариации .y x y σ x yИкс Y Икс Y σх у
Пример робота в 2D-случае без ориентации немного надуманный, но предположим, что у вас есть случайный компонент вдоль направления перемещения по оси и вы знаете, что этот компонент также создает дрейф на вашей боковой оси ( ). Это может быть, например, неисправное колесо. Это приведет к вращению эллипса неопределенности. Теперь, например, когда у вас есть что-то, что измеряет ваше фактическое положение , вы можете оценить распределение неопределенности для вашего компонента .у х уИкс Y Икс Y
Более уместным примером является трехмерный случай, когда обычно у вас есть другая неопределенность в поперечном направлении по сравнению с боковым направлением. Когда вы вращаете свою систему (изменяя ), это также вращает ваш эллипс неопределенности. Обратите внимание, что фактическим представлением обычно является какая-то форма банана, а гауссовский является лишь приблизительным В случае EKF это линеаризация вокруг среднего.θ
Один действительно хороший способ визуализировать это - использовать концепцию эллипса неопределенности. Он в основном показывает границу для многомерного гауссовского распределения и может использоваться для визуализации ковариационной матрицы. Быстрый поиск вызвал эту демонстрацию, которая также даст вам некоторое дополнительное представление о том, как строится ковариация. По сути, диагональные элементы определяют размеры оси, в то время как недиагональные элементы относятся к вращению всего эллипса.1 σ
Это также верно в случае с 3D. Я хотел бы получить больше математики здесь, но, может быть, через некоторое время.
источник