Вопросы с тегом «matrix-decomposition»

Разложение матрицы относится к процессу факторизации матрицы в продукт меньших матриц. Разложив большую матрицу, можно эффективно выполнить множество матричных алгоритмов.

31
Уменьшение размерности (SVD или PCA) на большой разреженной матрице

/ edit: далее следите, теперь вы можете использовать irlba :: prcomp_irlba / edit: следите за своим собственным постом. irlbaтеперь имеет аргументы "center" и "scale", которые позволяют использовать его для вычисления основных компонентов, например: pc <- M %*% irlba(M, nv=5, nu=0,...

26
Какая норма ошибки восстановления минимизируется матрицей аппроксимации низкого ранга, полученной с помощью PCA?

Учитывая приближение PCA (или SVD) матрицы с матрицей , мы знаем , что является лучшим низкоразрядным приближением .XXXX^X^\hat XX^X^\hat XXXX Это в соответствии с индуцированной нормой∥⋅∥2∥⋅∥2\parallel \cdot \parallel_2 (т. Е. Самой большой нормой собственных значений) или в соответствии с нормой...

22
Почему PCA данных с помощью SVD данных?

Этот вопрос касается эффективного способа вычисления основных компонентов. Многие тексты по линейному PCA рекомендуют использовать разложение по регистру данных по сингулярным значениям . То есть, если у нас есть данные и мы хотим заменить переменные (их столбцы ) на главные компоненты, мы делаем...

21
Эффективный расчет обратной матрицы в R

Мне нужно рассчитать обратную матрицу и использовать solveфункцию. Хотя он хорошо работает на маленьких матрицах, он solveимеет тенденцию быть очень медленным на больших матрицах. Мне было интересно, есть ли какая-либо другая функция или комбинация функций (через SVD, QR, LU или другие функции...

18
Основные статьи о матричных разложениях

Недавно я прочитал книгу Скилликорна о разложении матриц, и был немного разочарован, поскольку она была нацелена на студенческую аудиторию. Я хотел бы составить (для себя и других) краткую библиографию основных работ (обзоров, но также прорывных работ) по разложению матриц. Я имею в виду, прежде...

17
Обновление декомпозиции SVD после добавления одной новой строки в матрицу

Предположим , что у меня плотную матрицу AA \textbf{A} из m×nm×nm \times n размера, с SVD разложения A=USV⊤.A=USV⊤.\mathbf{A}=\mathbf{USV}^\top.В Rможно вычислить СВД следующим образом : svd(A). Если в добавлена новая -я строка , можно ли вычислить новую декомпозицию SVD на основе старой (т. Е....

15
Как построить эллипс из собственных значений и собственных векторов в R? [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Может ли кто-нибудь придумать R- код для построения эллипса из собственных значений и собственных...

15
Собственные функции матрицы смежности временного ряда?

Рассмотрим простой временной ряд: > tp <- seq_len(10) > tp [1] 1 2 3 4 5 6 7 8 9 10 мы можем вычислить матрицу смежности для этого временного ряда, представляющего временные связи между выборками. При вычислении этой матрицы мы добавляем воображаемый сайт в момент времени 0, а связь между...

15
Как выбрать оптимальное количество скрытых факторов при неотрицательной матричной факторизации?

Принимая во внимание матрицы Vm×nVm×n\mathbf V^{m \times n} , неотрицательная матрица Факторизация (ФС) находит две неотрицательных матрицы Wm×kWm×k\mathbf W^{m \times k} и Hk×nHk×n\mathbf H^{k \times n} (то есть со всеми элементами ≥0≥0\ge 0 ) , чтобы представить разложившуюся матрицу , как:...

13
Современное состояние совместной фильтрации

Я работаю над проектом для совместной фильтрации (CF), т.е. завершаю частично наблюдаемую матрицу или, в более общем случае, тензор. Я новичок в этой области, и для этого проекта, в конце концов, мне нужно сравнить наш метод с другими известными, которые в настоящее время сравнивают предложенные...

13
Объясните, как `eigen` помогает инвертировать матрицу

Мой вопрос относится к вычислительной технике, используемой в geoR:::.negloglik.GRFили geoR:::solve.geoR. В линейной смешанной модели: Y=Xβ+Zb+eY=Xβ+Zb+e Y=X\beta+Zb+e где ββ\beta и bbb - фиксированные и случайные эффекты соответственно. Также Σ=cov(Y)Σ=cov(Y)\Sigma=\text{cov}(Y) При оценке...

11
Почему неотрицательность важна для систем совместной фильтрации / рекомендации?

Во всех современных рекомендательных системах, которые я видел, которые основаны на факторизации матрицы, неотрицательная матричная факторизация выполняется для матрицы фильма пользователя. Я могу понять, почему неотрицательность важна для интерпретируемости и / или если вам нужны редкие факторы....

11
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?

mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и...

10
Быстрое вычисление / оценка линейной системы низкого ранга

Линейные системы уравнений распространены в вычислительной статистике. Одна особая система, с которой я столкнулся (например, в факторном анализе), это система A x = bAx=bAx=b где Здесь D - диагональная матрица n × n со строго положительной диагональю, Ω - симметричная положительная...

9
Рассчитать кривую ROC для данных

Итак, у меня есть 16 испытаний, в которых я пытаюсь идентифицировать человека по биометрической характеристике, используя расстояние Хэмминга. Мой порог установлен на 3,5. Мои данные ниже, и только пробная версия 1 является истинным положительным результатом: Trial Hamming Distance 1 0.34 2 0.37 3...

9
Совместная фильтрация через матричную факторизацию с функцией логистических потерь

Рассмотрим проблему совместной фильтрации. У нас есть матрица размера #users * #items. если пользователь i любит элемент j, если пользователь i не любит элемент j иесли нет данных о (i, j) паре. Мы хотим предсказать для будущего пользователя, пары предметов.MMMMя , дж= 1Mя,Jзнак равно1M_{i,j} = 1Mя...