Вопросы с тегом «svd»

20
PCA негауссовых данных

У меня есть пара быстрых вопросов о PCA: Предполагает ли PCA, что набор данных является гауссовским? Что происходит, когда я применяю PCA к нелинейным данным? Учитывая набор данных, процесс должен сначала нормализовать среднее значение, установить дисперсию 1, взять SVD, уменьшить ранг и, наконец,...

20
Есть ли какое-либо преимущество SVD перед PCA?

Я знаю, как математически рассчитать PCA и SVD, и я знаю, что оба могут быть применены к регрессии линейных наименьших квадратов. Основным преимуществом SVD математически представляется то, что его можно применять к неквадратным матрицам. Оба сосредоточены на разложении матрицыПомимо упомянутого...

20
Доказательство коэффициентов сжатия с помощью регрессии гребня посредством «спектрального разложения»

Я понял, как регрессия гребня сжимает коэффициенты геометрически к нулю. Более того, я знаю, как доказать это в специальном «ортонормированном случае», но я не совсем понимаю, как это работает в общем случае с помощью «спектральной...

18
Основные статьи о матричных разложениях

Недавно я прочитал книгу Скилликорна о разложении матриц, и был немного разочарован, поскольку она была нацелена на студенческую аудиторию. Я хотел бы составить (для себя и других) краткую библиографию основных работ (обзоров, но также прорывных работ) по разложению матриц. Я имею в виду, прежде...

18
Расположение стрелок на биплоте PCA

Я ищу, чтобы реализовать биплот для анализа основных компонентов (PCA) в JavaScript. Мой вопрос, как мне определить координаты стрелок из выходных данных сингулярного векторного разложения (SVD) матрицы данных?U,V,DU,В,DU,V,D Вот пример биплота R: biplot(prcomp(iris[,1:4])) Я попытался найти его в...

18
Каковы преимущества ядра PCA перед стандартным PCA?

Я хочу реализовать алгоритм в статье, которая использует ядро ​​SVD для декомпозиции матрицы данных. Итак, я читал материалы о методах ядра, ядре PCA и т. Д. Но это все еще очень неясно для меня, особенно когда речь идет о математических деталях, и у меня есть несколько вопросов. Почему методы...

17
«Нормализующие» переменные для SVD / PCA

Предположим, у нас есть NNN измеримых переменных (a1,a2,…,aN)(a1,a2,...,aN)(a_1, a_2, \ldots, a_N) , мы выполняем ряд измерений M>NM>NM > N , а затем хотим выполнить разложение по сингулярным значениям результатов, чтобы найти оси наибольшей дисперсии для MMM точек в NNN мерном пространстве....

17
Каковы эффективные алгоритмы для вычисления разложения по сингулярным числам (SVD)?

В статье Википедии об анализе основных компонентов говорится, что Существуют эффективные алгоритмы для вычисления SVD без необходимости формирования матрицы , поэтому вычисление SVD теперь является стандартным способом вычисления анализа главных компонентов из матрицы данных, если только не...

17
Обновление декомпозиции SVD после добавления одной новой строки в матрицу

Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е....

16
Разложение Холецкого против собственного для рисования образцов из многомерного нормального распределения

Я хотел бы нарисовать образец x∼N(0,Σ)x∼N(0,Σ)\mathbf{x} \sim N\left(\mathbf{0}, \mathbf{\Sigma} \right) . Википедия предлагает использовать либо разложение Холецкого, либо Собственное , то есть или Σ=D1DT1Σ=D1D1T \mathbf{\Sigma} = \mathbf{D}_1\mathbf{D}_1^T Σ = Q Λ QTΣзнак равноQΛQT...

16
Когда мы объединяем уменьшение размерности с кластеризацией?

Я пытаюсь выполнить кластеризацию на уровне документов. Я построил матрицу частот термина-документа, и я пытаюсь кластеризовать эти высокоразмерные векторы с помощью k-средних. Вместо непосредственной кластеризации я сначала применил разложение сингулярных векторов LSA (скрытый семантический...

16
Являются ли компоненты PCA многомерных гауссовских данных статистически независимыми?

Являются ли компоненты PCA (в анализе главных компонентов) статистически независимыми, если наши данные многомерны и нормально распределены? Если да, то как это можно продемонстрировать / доказать? Я спрашиваю, потому что я видел этот пост , где верхний ответ гласит: PCA не делает явного...

15
Внедряет ли GSVD все линейные многомерные методы?

Я наткнулся на статью Эрве Абди об обобщенном СВД. Автор упомянул: Обобщенный SVD (GSVD) разбивает прямоугольную матрицу и учитывает ограничения, накладываемые на строки и столбцы матрицы. GSVD дает взвешенную обобщенную оценку наименьших квадратов данной матрицы с помощью матрицы более низкого...

15
Собственные функции матрицы смежности временного ряда?

Рассмотрим простой временной ряд: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 мы можем вычислить матрицу смежности для этого временного ряда, представляющего временные связи между выборками. При вычислении этой матрицы мы добавляем воображаемый сайт в момент времени 0, а связь между...

14
Какие быстрые алгоритмы существуют для вычисления усеченного SVD?

Возможно, здесь не по теме, но уже существует несколько ( один , два ) связанных вопросов. Поиски в литературе (или поиск в Google по усеченным алгоритмам SVD) обнаруживают множество статей, которые используют усеченные SVD по-разному, и утверждают (разочаровывающе, часто без цитирования), что...

13
Для случайной матрицы разве SVD не должен вообще ничего объяснять? Что я делаю неправильно?

Если бы я построил двумерную матрицу, состоящую полностью из случайных данных, я ожидал бы, что компоненты PCA и SVD по существу ничего не объясняют. Вместо этого кажется, что первый столбец SVD, кажется, объясняет 75% данных. Как это может быть? Что я делаю неправильно? Вот сюжет: Вот код R:...

12
Разница между реализациями scikit-learn PCA и TruncatedSVD

Я понимаю связь между анализом главных компонентов и разложением по сингулярным значениям на алгебраическом / точном уровне. Мой вопрос о реализации scikit-learn . Документация гласит: « [TruncatedSVD] очень похож на PCA, но работает непосредственно с векторами выборки, а не с ковариационной...

12
Почему собственные и svd-разложения ковариационной матрицы на основе разреженных данных дают разные результаты?

Я пытаюсь разложить ковариационную матрицу на основе набора данных разреженных / gappy. Я замечаю, что сумма лямбда (объясненная дисперсия), рассчитанная с помощью svd, усиливается с помощью все более и более дурацких данных. Без пробелов, да svdи eigenте же результаты. Это, кажется, не происходит...

12
СВД матрицы с пропущенными значениями

Предположим, у меня есть матрица рекомендаций в стиле Netflix, и я хочу построить модель, которая предсказывает потенциальные будущие рейтинги фильмов для данного пользователя. Используя подход Саймона Фанка, можно было бы использовать стохастический градиентный спуск, чтобы минимизировать норму...