Вопросы с тегом «discriminant-analysis»

Линейный дискриминантный анализ (LDA) - это метод уменьшения размерности и классификации. Он находит низкоразмерное подпространство с самым сильным разделением классов и использует его для выполнения классификации. Используйте этот тег и для квадратичного DA (QDA).

36
Логистическая регрессия против LDA как классификаторы двух классов

Я пытаюсь обернуть голову вокруг статистической разницы между линейным дискриминантным анализом и логистической регрессией . Правильно ли я понимаю, что для двух классов задачи классификации LDA предсказывает две функции нормальной плотности (по одной для каждого класса), которые создают линейную...

26
PCA, LDA, CCA и PLS

Как связаны PCA, LDA, CCA и PLS? Все они кажутся «спектральными» и линейными алгебраическими и очень хорошо понятными (скажем, 50+ лет теории, построенной вокруг них). Они используются для самых разных вещей (PCA для уменьшения размерности, LDA для классификации, PLS для регрессии), но все же они...

26
Почему Python scikait-learn LDA не работает правильно и как он вычисляет LDA через SVD?

Я использовал Линейный Дискриминантный Анализ (LDA) из scikit-learnбиблиотеки машинного обучения (Python) для уменьшения размерности, и мне было немного интересно узнать о результатах. Теперь мне интересно, что scikit-learnделает LDA , чтобы результаты выглядели иначе, чем, например, ручной подход...

26
Три версии дискриминантного анализа: различия и как их использовать

Кто-нибудь может объяснить различия и привести конкретные примеры, как использовать эти три анализа? LDA - линейный дискриминантный анализ FDA - дискриминантный анализ Фишера QDA - Квадратичный дискриминантный анализ Я искал везде, но не смог найти реальных примеров с реальными значениями, чтобы...

25
Есть ли смысл объединять PCA и LDA?

Предположим, у меня есть набор данных для контролируемой статистической задачи классификации, например, через байесовский классификатор. Этот набор данных состоит из 20 функций, и я хочу свести его к 2 функциям с помощью методов уменьшения размерности, таких как анализ основных компонентов (PCA) и...

24
Какова связь между регрессией и линейным дискриминантным анализом (LDA)?

Существует ли связь между регрессией и линейным дискриминантным анализом (LDA)? Каковы их сходства и различия? Имеет ли какое-то значение, если есть два класса или более двух...

20
Как LDA, метод классификации, также служит методом уменьшения размерности, как PCA

В этой статье автор связывает линейный дискриминантный анализ (LDA) с анализом главных компонентов (PCA). С моими ограниченными знаниями я не могу понять, как LDA может быть чем-то похожим на PCA. Я всегда думал, что LDA - это форма алгоритма классификации, похожая на логистическую регрессию. Я...

19
Вычислить и наметить границу решения LDA

Я видел сюжет LDA (линейный дискриминантный анализ) с границами решения из «Элемента статистического обучения» : Я понимаю, что данные проецируются на низкоразмерное подпространство. Тем не менее, я хотел бы знать, как мы получаем границы решений в исходном измерении, чтобы я мог проецировать...

18
Как линейный дискриминантный анализ уменьшает размеры?

Есть слова из «Элементы статистического обучения» на странице 91: K-центроиды в p-мерном входном пространстве охватывают самое большее K-1-мерное подпространство, и если p намного больше K, это приведет к значительному уменьшению размера. У меня есть два вопроса: Почему K-центроиды в p-мерном...

18
Как MANOVA связана с LDA?

В нескольких местах я видел утверждение о том, что MANOVA похожа на ANOVA плюс линейный дискриминантный анализ (LDA), но он всегда выполнялся в виде ручного махания. Я хотел бы знать, что именно это должно означать. Я нашел различные учебники, описывающие все детали вычислений MANOVA, но, кажется,...

17
Что такое «коэффициенты линейных дискриминантов» в LDA?

В R, я использую ldaфункцию из библиотеки, MASSчтобы сделать классификацию. Как я понимаю LDA, входу будет присвоен ярлык , что максимизирует , верно?ИксИксxYYyр ( у| х)п(Y|Икс)p(y|x) Но когда я к модели, в которой я не совсем понимаю вывод , х = ( Л а г1 , L a g2 )Иксзнак...

16
Дискриминантный анализ против логистической регрессии

Я нашел некоторые плюсы дискриминантного анализа, и у меня есть вопросы о них. Так: Когда классы хорошо разделены, оценки параметров для логистической регрессии удивительно нестабильны. Коэффициенты могут уходить в бесконечность. LDA не страдает от этой проблемы. Если число признаков мало и...

16
Коллинеарные переменные в обучении LDA Multiclass

Я тренирую многоклассный классификатор LDA с 8 классами данных. Во время обучения я получаю предупреждение: « Переменные коллинеарны » Я получаю точность обучения более 90% . Я использую библиотеку scikits-learn в Python, обучаю и проверяю данные мультикласса . Я также получаю приличную точность...

15
Можем ли мы использовать категориальную независимую переменную в дискриминантном анализе?

В дискриминантном анализе зависимая переменная является категориальной, но могу ли я использовать категориальную переменную (например, статус проживания: сельский, городской) вместе с некоторой другой непрерывной переменной в качестве независимой переменной в линейном дискриминантном...

14
Получение общей (в пределах класса + между классами) матрицы рассеяния

Я возился с методами PCA и LDA, и я застрял в какой-то момент, у меня такое ощущение, что это так просто, что я не вижу этого. Матрицы рассеяния внутри класса ( ) и между классами ( S B ) определяются как:SWSWS_WSBSBS_B SW=∑i=1C∑t=1N(xit−μi)(xit−μi)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W =...

13
Алгебра LDA. Различающая способность Фишера переменной и линейный дискриминантный анализ

По-видимому, Анализ Фишера направлен на одновременное максимальное разделение между классами, одновременно сводя к минимуму дисперсию внутри класса. Следовательно, полезная мера степени различения переменной определяется диагональной величиной: Bii/WiiBii/WiiB_{ii}/W_{ii} ....

13
Выбор компонентов PCA, которые разделяют группы

Я часто использовал для диагностики своих многомерных данных с использованием PCA (опускаются данные с сотнями тысяч переменных и десятками или сотнями выборок). Данные часто приходят из экспериментов с несколькими категориальными независимыми переменными, определяющими некоторые группы, и мне...

13
Контролируемое уменьшение размерности

У меня есть набор данных, состоящий из 15K помеченных образцов (из 10 групп). Я хочу применить уменьшение размерности к двум измерениям, которые бы учитывали знание меток. Когда я использую «стандартные» неконтролируемые методы уменьшения размерности, такие как PCA, график рассеяния, кажется, не...

13
Почему гауссовские модели «дискриминантного» анализа так называют?

Модели гауссовского дискриминантного анализа изучают а затем применяют правило Байеса для оценки Следовательно, они являются генеративными моделями. Почему тогда это называется дискриминантным анализом? Если это происходит потому, что мы в итоге получаем кривую дискриминанта между классами, то это...

12
Как рассчитать вес критерия Фишера?

Я изучаю распознавание образов и машинное обучение, и я столкнулся со следующим вопросом. Рассмотрим задачу классификации двух классов с равной вероятностью предшествующего класса P(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} и распределение экземпляров в каждом классе, заданное...