Вопросы с тегом «svd»

11
Как нарисовать осыпь в Python? [закрыто]

Закрыто. Этот вопрос не по теме . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто в прошлом году . Я использую сингулярное векторное разложение на матрице и получаю матрицы U, S и Vt. На данный...

11
Почему неотрицательность важна для систем совместной фильтрации / рекомендации?

Во всех современных рекомендательных системах, которые я видел, которые основаны на факторизации матрицы, неотрицательная матричная факторизация выполняется для матрицы фильма пользователя. Я могу понять, почему неотрицательность важна для интерпретируемости и / или если вам нужны редкие факторы....

11
Каковы плюсы и минусы применения точечной взаимной информации на матрице словосочетания перед SVD?

Один из способов создания встраивания слов заключается в следующем ( зеркало ): Получите корпус, например: «Мне нравится летать. Мне нравится НЛП. Мне нравится глубокое обучение». Создайте матрицу словосочетания из него: Выполните SVD на ИксИксX и сохраните первые ККk столбцов U. U1 : | В|...

10
K-среднее по косинусу сходства против евклидова расстояния (LSA)

Я использую скрытый семантический анализ для представления совокупности документов в пространстве меньшего размера. Я хочу сгруппировать эти документы в две группы с помощью k-средних. Несколько лет назад я сделал это с помощью gensim Python и написал свой собственный алгоритм k-средних. Я...

10
R линейная регрессия категориальной переменной «скрытое» значение

Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод,...

9
Как интерпретировать результаты уменьшения размерности / многомерного масштабирования?

Я выполнил декомпозицию SVD и многомерное масштабирование 6-мерной матрицы данных, чтобы лучше понять структуру данных. К сожалению, все сингулярные значения имеют один и тот же порядок, подразумевая, что размерность данных действительно равна 6. Однако я хотел бы иметь возможность интерпретировать...

9
Понимание разложения по сингулярным значениям в контексте LSI

Мой вопрос, как правило, касается разложения по сингулярным значениям (SVD) и, в частности, латентного семантического индексирования (LSI). Скажем, у меня есть который содержит частоты 5 слов для 7 документов.Aш о г д× до с у м е н тAword×document A_{word \times document} A =...

9
Парелл между LSA и pLSA

В оригинальной статье pLSA автор Томас Хоффман проводит параллель между структурами данных pLSA и LSA, которые я хотел бы обсудить с вами. Фон: Вдохновляясь Информация индексирование Предположим , у нас есть коллекция из NNN документов D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ....,...

9
Почему я не могу получить действительный SVD X через разложение по собственным значениям XX 'и X'X?

Я пытаюсь сделать SVD вручную: m<-matrix(c(1,0,1,2,1,1,1,0,0),byrow=TRUE,nrow=3) U=eigen(m%*%t(m))$vector V=eigen(t(m)%*%m)$vector D=sqrt(diag(eigen(m%*%t(m))$values)) U1=svd(m)$u V1=svd(m)$v D1=diag(svd(m)$d) U1%*%D1%*%t(V1) U%*%D%*%t(V) Но последняя строка не возвращается mобратно. Почему?...