Вопросы с тегом «linear-algebra»

Область математики связана с изучением конечномерных векторных пространств, включая матрицы и их манипуляции, которые важны в статистике.

171
Почему внезапное увлечение тензорами?

Недавно я заметил, что многие люди разрабатывают тензорные эквиваленты многих методов (тензорная факторизация, тензорные ядра, тензоры для тематического моделирования и т. Д.). Мне интересно, почему мир внезапно очарован тензорами? Существуют ли недавние документы / стандартные результаты, которые...

54
Справочник по линейной алгебре применительно к статистике?

Я немного работал в R и сталкивался с такими вещами, как PCA, SVD, QR-разложения и многими такими результатами линейной алгебры (при проверке оценки взвешенных регрессий и т. Д.), Поэтому я хотел знать, есть ли у кого-нибудь рекомендации относительно хорошего всеобъемлющая книга по линейной...

54
Каково интуитивное объяснение того, как PCA превращается из геометрической задачи (с расстояниями) в задачу линейной алгебры (с собственными векторами)?

Я много читал о PCA, включая различные учебники и вопросы (такие как этот , этот , этот и этот ). Геометрическая проблема, которую пытается оптимизировать PCA, мне ясна: PCA пытается найти первый главный компонент, сводя к минимуму ошибку реконструкции (проекции), которая одновременно максимизирует...

50
Какая интуиция стоит за СВД?

Я читал о разложении сингулярных значений (SVD). Почти во всех учебниках упоминается, что она разбивает матрицу на три матрицы с заданной спецификацией. Но какова интуиция, лежащая в основе разделения матрицы в такой форме? PCA и другие алгоритмы уменьшения размерности интуитивно понятны в том...

32
Почему инверсия ковариационной матрицы дает частичные корреляции между случайными величинами?

Я слышал, что частичные корреляции между случайными переменными можно найти, инвертировав ковариационную матрицу и взяв соответствующие ячейки из такой результирующей матрицы точности (этот факт упоминается в http://en.wikipedia.org/wiki/Partial_correlation , но без доказательства) , Почему это...

30
Почему ковариационная матрица выборки является единственной, если размер выборки меньше числа переменных?

Допустим, у меня есть ppp мерное многомерное распределение Гаусса. И я беру nnn наблюдения (каждый из них ppp -векторных) от этого распределения и вычислить образец ковариационной матрицы SSS . В этой статье авторы утверждают, что выборочная ковариационная матрица, рассчитанная при p>np>np >...

29
Почему Эндрю Нг предпочитает использовать SVD, а не EIG ковариационной матрицы для PCA?

Я изучаю PCA из курса Coursera Эндрю Нг и других материалов. В первом задании Stanford NLP cs224n и в видео лекции Эндрю Нг они проводят разложение по сингулярным значениям вместо разложения по ковариационной матрице по собственным векторам, и Нг даже говорит, что SVD численно более устойчив, чем...

27
Распределение скалярных произведений двух случайных единичных векторов в измерениях

Если и являются двумя независимыми случайными единичными векторами в (равномерно распределенными по единичной сфере), каково распределение их скалярного произведения (точечного произведения) ?xx\mathbf{x}yy\mathbf{y}RDRD\mathbb{R}^Dx⋅yx⋅y\mathbf x \cdot \mathbf y Я думаю, что по мере роста...

21
Странные корреляции в результатах SVD случайных данных; у них есть математическое объяснение или это ошибка LAPACK?

Я наблюдаю очень странное поведение в результате SVD случайных данных, которое я могу воспроизвести как в Matlab, так и в R. Это похоже на некоторую числовую проблему в библиотеке LAPACK; это? Я рисую выборок из мерного гауссиана с нулевым средним и единичной ковариацией: . Я собрать их в данных...

20
Почему симметричные матрицы с положительным определением (SPD) так важны?

Я знаю определение симметричной положительно определенной (SPD) матрицы, но хочу понять больше. Почему они так важны, интуитивно понятно? Вот что я знаю. Что еще? Для заданных данных матрица Co-дисперсии является SPD. Ковариационная матрица является важной метрикой, см. Этот превосходный пост для...

19
Геометрическое понимание СПС в предметном (двойственном) пространстве

Я пытаюсь получить интуитивное понимание того, как анализ главных компонентов (PCA) работает в предметном (двойном) пространстве . Рассмотрим двумерный набор данных с двумя переменными, x1x1x_1 и x2x2x_2 , и nnn точками данных (матрица данных XX\mathbf X имеет n×2n×2n\times 2 и предполагается, что...

18
Многомерный нормальный задний

Это очень простой вопрос, но я не могу найти вывод ни в Интернете, ни в книге. Я хотел бы увидеть, как один байесовский обновляет многомерное нормальное распределение. Например: представьте, что P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf...

18
Почему информационная матрица Фишера является положительной полуопределенной?

Пусть . Информационная матрица Фишера определяется как:θ∈Rnθ∈Rn\theta \in R^{n} I(θ)i,j=−E[∂2log(f(X|θ))∂θi∂θj∣∣∣θ]I(θ)i,j=−E[∂2log⁡(f(X|θ))∂θi∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] Как я могу доказать, что...

18
Как отбелить данные с помощью анализа основных компонентов?

Я хочу преобразовать свои данные так, чтобы отклонения были равны единице, а ковариации были равны нулю (т.е. я хочу отбелить данные). Кроме того, средства должны быть нулевыми.XX\mathbf X Я знаю, что доберусь туда, выполнив Z-стандартизацию и PCA-преобразование, но в каком порядке я должен их...

17
Обновление декомпозиции SVD после добавления одной новой строки в матрицу

Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е....

17
Почему ранг ковариационной матрицы не более

Как указано в этом вопросе, максимальный ранг ковариационной матрицы равен n−1n−1n-1 где nnn - размер выборки, поэтому, если размер ковариационной матрицы равен размеру выборки, он будет единственным. Я не могу понять, почему мы вычитаем 111 из максимального ранга nnn ковариационной...

17
Почему матричной нормой по умолчанию является спектральная норма, а не норма Фробениуса?

Для векторной нормы L2-норма или «евклидово расстояние» является широко используемым и интуитивным определением. Но почему определение «наиболее используемой» или «стандартной» для матрицы является спектральной нормой , а не нормой Фробениуса (которая аналогична норме L2 для векторов)? Имеет ли это...

14
Как NumPy решает наименьшие квадраты для недоопределенных систем?

Скажем, у нас есть X формы (2, 5) и y формы (2,) Это работает: np.linalg.lstsq(X, y) Мы ожидаем, что это сработает, только если X имеет форму (N, 5), где N> = 5. Но почему и как? Мы получаем 5 весов, как и ожидалось, но как решить эту проблему? Разве у нас не 2 уравнения и 5 неизвестных? Как...

14
Что означают стрелки в биплоте PCA?

Рассмотрим следующий биплот PCA: library(mvtnorm) set.seed(1) x <- rmvnorm(2000, rep(0, 6), diag(c(5, rep(1,5)))) x <- scale(x, center=T, scale=F) pc <- princomp(x) biplot(pc) Есть куча красных стрелок, что они означают? Я знал, что первая стрелка, помеченная «Var1», должна указывать самое...