Какова ваша интуиция / интерпретация распределения собственных значений матрицы корреляции? Я склонен слышать, что обычно 3 самых больших собственных значения являются наиболее важными, в то время как близкие к нулю значения являются шумом. Кроме того, я видел несколько научных работ, исследующих, как естественные распределения собственных значений отличаются от вычисленных из матриц случайной корреляции (опять же, различая шум от сигнала).
Пожалуйста, не стесняйтесь уточнять ваши идеи.
distributions
correlation
Eduardas
источник
источник
Ответы:
Я склонен слышать, что обычно 3 самых больших собственных значения являются самыми важными, в то время как те, которые близки к нулю, являются шумом
Вы можете проверить это. См. Статью в этом посте для более подробной информации. Опять же, если вы работаете с финансовыми временными рядами, вы можете сначала поправить лептокуртичность (то есть рассмотреть серию скорректированных по гархам доходов, а не необработанные доходы).
Я видел несколько научных работ, исследующих, как естественные распределения собственных значений отличаются от вычисленных по матрицам случайной корреляции (опять же, отличая шум от сигнала).
Эдвард:> Обычно можно было бы сделать это по-другому: посмотрите на многовариантное распределение собственных значений (матриц корреляции), поступающих из приложения, которое вы хотите. После того, как вы определили заслуживающего доверия кандидата на распределение собственных значений, их будет довольно легко получить из них.
Наилучшая процедура определения многомерного распределения ваших собственных значений зависит от того, сколько активов вы хотите учесть одновременно (т.е. каковы размеры вашей корреляционной матрицы). Есть хитрый трюк, если ( - количество активов).рр ≤ 10 п
Редактировать (комментарии Шаббычефа)
четырехступенчатая процедура:
Ограничение состоит в том, что быстрое вычисление выпуклой оболочки ряда точек становится чрезвычайно медленным, когда число измерений больше 10.J≥ 2
источник
Собственные значения дают величины основных составляющих разброса данных.
(источник: yaroslavvb.com )
Первый набор данных был сгенерирован из гауссиана с ковариационной матрицей второй набор данных - это первый набор данных, повернутый
источник
Один способ, которым я изучал эту проблему в прошлом, состоит в том, чтобы построить «собственные портфели» матрицы корреляции. То есть возьмите собственный вектор, связанный с м наибольшим собственным значением матрицы корреляции, и масштабируйте его до валового рычага 1 (т.е. сделайте абсолютную сумму вектора равной единице). Затем посмотрите, сможете ли вы найти какую-либо реальную физическую или финансовую связь между акциями, которые широко представлены в портфеле.k
Обычно первое собственное портфолио почти равнозначно взвешено в каждом имени, то есть «рыночном» портфеле, состоящем из всех активов с равными долларовыми весами. Второй eigenportfolio может иметь некоторое семантическое значение, в зависимости от того, какой промежуток времени вы смотрите через: например , в основном , запасы энергии, или акции банков и т.д. По моему опыту, вы будете в затруднении , чтобы сделать любую историю из пятого eigenportfolio или запредельного, и это зависит от выбора части вселенной и рассматриваемого периода времени. Это просто прекрасно, потому что обычно пятое собственное значение или около того не слишком далеко за пределами, наложенных распределением Марченко-Пастура.
источник
Каждое значение ваших переменных определяет точку в мерном пространстве. Это облако точек часто напоминает эллипсоид (если это не так, то вы не должны рассматривать переменные как линейно связанные, и корреляция не имеет большого значения). Оси эллипсоида соответствуют собственным векторам корреляционной матрицы, а их «сила» - их собственным значениям. Доказательство можно найти в любом учебнике по анализу временных рядов, который охватывает анализ главных компонентов. Слабая интуиция о том, почему PCA или другие методы, основанные на собственных значениях, имеют значение, состоит в том, что у вас есть какой-то процесс, имеющий некоторые «основные» причины, а остальное - «шум».N N
источник