Вопросы с тегом «eigenvalues»

По вопросам, связанным с вычислением или интерпретацией собственных значений или собственных векторов.

34
Почему корреляционная матрица должна быть положительной полуопределенной и что значит быть или не быть положительной полуопределенной?

Я исследовал значение положительного полуопределенного свойства матриц корреляции или ковариации. Я ищу любую информацию о Определение положительной полуопределенности; Его важные свойства, практические последствия; Последствия отрицательного фактора, влияние на многомерный анализ или результаты...

32
Если я генерирую случайную симметричную матрицу, какова вероятность того, что она положительно определена?

У меня возник странный вопрос, когда я экспериментировал с некоторыми выпуклыми оптимизациями. Вопрос в том: Предположим, что я случайно (скажем, стандартное нормальное распределение) генерирую симметричную матрицу (например, я генерирую верхнюю треугольную матрицу и заполняю нижнюю половину, чтобы...

30
Как центрирование влияет на PCA (для SVD и собственного разложения)?

Какое значение имеет центрирование (или де-смысл) ваших данных для PCA? Я слышал, что это облегчает математику или препятствует доминированию переменных на первом компьютере, но я чувствую, что пока не смог твердо понять концепцию. Например, главный ответ здесь. Как центрирование данных избавляет...

29
Почему Эндрю Нг предпочитает использовать SVD, а не EIG ковариационной матрицы для PCA?

Я изучаю PCA из курса Coursera Эндрю Нг и других материалов. В первом задании Stanford NLP cs224n и в видео лекции Эндрю Нг они проводят разложение по сингулярным значениям вместо разложения по ковариационной матрице по собственным векторам, и Нг даже говорит, что SVD численно более устойчив, чем...

22
Почему существует только

В PCA, когда число измерений больше (или даже равно) количеству выборок N , почему у вас будет не более N - 1 ненулевых собственных векторов? Другими словами, ранг ковариационной матрицы среди измерений d ≥ N равен N - 1 .dddNNNN−1N−1N-1d≥Nd≥Nd\ge NN−1N−1N-1 Пример: ваши образцы - это...

14
В чем смысл собственных векторов взаимной информационной матрицы?

При взгляде на собственные векторы ковариационной матрицы мы получаем направления максимальной дисперсии (первый собственный вектор - это направление, в котором данные наиболее сильно варьируются и т. Д.); это называется анализ главных компонентов (PCA). Мне было интересно, что это будет означать,...

13
Объясните, как `eigen` помогает инвертировать матрицу

Мой вопрос относится к вычислительной технике, используемой в geoR:::.negloglik.GRFили geoR:::solve.geoR. В линейной смешанной модели: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e где ββ\beta и bbb - фиксированные и случайные эффекты соответственно. Также Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) При оценке...

12
Почему собственные и svd-разложения ковариационной матрицы на основе разреженных данных дают разные результаты?

Я пытаюсь разложить ковариационную матрицу на основе набора данных разреженных / gappy. Я замечаю, что сумма лямбда (объясненная дисперсия), рассчитанная с помощью svd, усиливается с помощью все более и более дурацких данных. Без пробелов, да svdи eigenте же результаты. Это, кажется, не происходит...

11
Почему PCA максимизирует общую дисперсию проекции?

Кристофер Бишоп пишет в своей книге « Распознавание образов и машинное обучение», доказывая, что каждый последовательный главный компонент максимизирует дисперсию проекции в одно измерение после того, как данные были спроецированы в ортогональное пространство для ранее выбранных компонентов. Другие...

11
Является ли каждая корреляционная матрица положительно определенной?

Я говорю здесь о матрицах корреляций Пирсона. Я часто слышал, что все корреляционные матрицы должны быть положительными полуопределенными. Насколько я понимаю, положительно определенные матрицы должны иметь собственные значения , в то время как положительные полуопределенные матрицы должны иметь...

10
Запутался в визуальном объяснении собственных векторов: как визуально разные наборы данных могут иметь одинаковые собственные векторы?

Многие учебники статистики предоставляют интуитивно понятную иллюстрацию того, каковы собственные векторы ковариационной матрицы: Векторы u и z образуют собственные векторы (ну, собственные оси). Это имеет смысл. Но меня смущает то, что мы извлекаем собственные векторы из корреляционной матрицы, а...

10
В документе упоминается «моделирование по методу Монте-Карло для определения количества основных компонентов»; как это работает?

Я делаю анализ Matlab на данных МРТ, где я выполнил PCA на матрице размером 10304x236, где 10304 - это количество вокселей (представьте их как пиксели), а 236 - количество временных точек. PCA дает мне 236 собственных значений и связанных с ними коэффициентов. Это все хорошо. Однако, когда приходит...

9
Расчетное распределение собственных значений для данных iid (однородных или нормальных)

Предполагая, что у меня есть набор данных с измерениями (например, d = 20 ), чтобы каждое измерение было iid X i ∼ U [ 0 ; 1 ] (альтернативно, каждое измерение X i ∼ N [ 0 ; 1 ] ) и не зависит друг от друга.dddd= 20d=20d=20Икся∼ U[ 0 ; 1 ]Xi∼U[0;1]X_i \sim U[0;1]Икся∼ N[ 0 ; 1 ]Xi∼N[0;1]X_i \sim...

9
Почему величина дисперсии, описанная моим первым компьютером, так близка к средней попарной корреляции?

Какова связь между первым основным компонентом (ами) и средней корреляцией в матрице корреляции? Например, в эмпирическом приложении я наблюдаю, что средняя корреляция почти совпадает с отношением дисперсии первого главного компонента (первого собственного значения) к общей дисперсии (сумме всех...

9
Почему я не могу получить действительный SVD X через разложение по собственным значениям XX 'и X'X?

Я пытаюсь сделать SVD вручную: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Но последняя строка не возвращается mобратно. Почему?...