Ваш вопрос решает проблему «точного» восстановления (мы хотим восстановить k-разреженный Икс точно с заданным х ). Далее я остановлюсь на «надежной» версии, где Икс - произвольный вектор, а цель алгоритма восстановления - найти К разреженное приближение Икс' к Икс (это различие действительно имеет значение для некоторых обсуждений ниже ). Формально вы хотите следующую проблему (назовите ее п1 ):
Конструкция A такая, что для любого Икс можно восстановить Икс' где
∥ х - х'∥L≤
x " kминх "С∥ х - х " ∥р , где охватывает все разреженные векторы.х "К
Здесь и обозначает левую и правую нормы, а - «коэффициент приближения». Существуют различные варианты и . Для конкретности можно подумать, что оба равны или ; это может стать более грязным, хотя. ‖ ⋅ ‖ R C ‖ ⋅ ‖ L ‖ ⋅ ‖ R ℓ 2 ℓ 1∥ ⋅ ∥L∥ ⋅ ∥рС∥ ⋅ ∥L∥ ⋅ ∥рℓ2ℓ1
Теперь о некоторых аналогах и обобщениях.
Произвольная основа. Во-первых, обратите внимание, что любая схема, удовлетворяющая приведенному выше определению, может быть использована для решения более общей проблемы, когда восстановленный сигнал является разреженным в произвольной основе (скажем, вейвлет Фурье), а не только стандартной. Пусть будет базисной матрицей. Формально вектор является разреженным в базисе если где является разреженным. Теперь мы можем рассмотреть обобщенную проблему (назовите ее ): B u k B u = B v v k P BИкс'ВUКВU = B VvКпВ
Дизайн такой, что с учетом можно восстановить гдеA B x x ′ ‖ x - x ′ ‖ L ≤AВAВИксИкс'∥ х - х'∥L≤
x " k Bминх "С∥ х - х " ∥р , где пробегает все векторы, которые -sparse в .х "КВ
Можно свести эту проблему к более ранней проблеме , изменив базис, т. матрицу измерений . Если у нас есть решение для в норме (т. Левая и правая нормы равны ), мы также получим решение для в норме . Если использует другие нормы, мы решаем в тех нормах, которые изменены путем изменения базы.A B = A B - 1 P 1 ℓ 2 ℓ 2 P B ℓ 2 P 1 P Bп1AВ= A B- 1п1ℓ2ℓ2пВℓ2п1пВ
Единственное предостережение в том, что в приведенном выше подходе нам нужно знать матрицу , чтобы определить . Возможно , что удивительно, если допустить рандомизацию ( не является фиксированным , но вместо этого выбирается случайным образом ), можно выбрать из фиксированного распределения , которая не зависит от . Это так называемое свойство универсальности .ВAВAВAВВ
Словари. Следующее обобщение можно получить, отбросив требование, что является основой. Вместо этого мы можем позволить иметь больше строк, чем столбцов. Такие матрицы называются (переполненными) словарями. Одним популярным примером является единичная матрица поверх матрицы Фурье. Другим примером является матрица, в которой строки являются характеристическими векторами всех интервалов в {1 ... n}; в этом случае множество { } содержит все гистограммы, то есть кусочно-постоянные функции над {1 ... n}, содержащие не более штук.B B u : u k-разреженный k kВВB u : ты k-разреженныйkk
Насколько я знаю, не существует общей теории для таких произвольных словарей, хотя над этой темой было проделано немало работы. См., Например,
Candes-Eldar-Needell'10 или
Donoho-Elad-Temlyakov , IEEE транзакции по теории информации, 2004 .
Эскиз для гистограмм широко исследовался в литературе по потоковой передаче и базам данных, например,
Gilbert-Guha-Indyk-Kotidis-Muthukrishnan-Strauss, STOC 2002 или
Thaper-Guha-Indyk-Koudas, SIGMOD 2002 .
Модели. (также упоминается Арнаб). Другое обобщение состоит в том, чтобы ввести ограничения на шаблоны разреженности. Пусть подмножество -подмножеств {1 ... n}. Мы говорим , что есть -sparse , если носитель и входит в элемент . Теперь мы можем поставить проблему (назовите это ):k u M u M P MMkuMuMPM
Конструкция такая, что для любого можно восстановить гдеx x ′ ‖ x - x ′ ‖ L ≤Axx′∥x−x′∥L≤
x " Mminx"C∥x−x"∥R , где охватывает все разреженные векторы.x"M
Например, элементы могут иметь форму , где каждый соответствует одному « » из {1 ... n} некоторой длины , то есть имеет форма {jb + 1 ... (j + 1) b} для некоторого . Это так называемая модель "разреженности блоков". I 1 ∪ … ∪ I k I i b I i jMI1∪…∪IkIibIij
Преимущество моделей заключается в том, что можно сэкономить на количестве измерений по сравнению с общим подходом sparsity. Это связано с тем, что пространство разреженных сигналов меньше пространства всех разреженных сигналов, поэтому матрица должна сохранять меньше информации. Более подробно см
Baraniuk-Cevher-Дуарте-Хедж, IEEE Transactions по теории информации, 2010 или
Eldar-Mishali, IEEE Transactions по теории информации 2009 года .M k AkMkA
Надеюсь это поможет.
Я полагаю, что на уровне общности, на котором я поставил вопрос, статья «Сжатие источников выборки» Тревизана, Вадхана и Цукермана (2004) также квалифицируется как один из возможных ответов. Они показывают, что во многих случаях, если источник входных строк имеет низкую сложность (например, с возможностью выборки на машинах пространства журналов), тогда можно сжимать и распаковывать за полиномиальное время для удаления аддитивной постоянной от энтропии источника.
Я действительно не знаю, может ли сжатое восприятие быть включено в какую-то большую теорию сжатия.
источник
Одним из аналогов сжимающего зондирования является машинное обучение, когда вы пытаетесь оценить большой размерный вектор (например, в классификации / регрессии) по очень малому размеру выборки. Чтобы иметь дело с недоопределенными системами линейных уравнений в таких условиях, обычно необходимо применять разреженность (через штраф l0 или l1) к изучаемому вектору весов. Чтобы увидеть связь, рассмотрим следующую проблему классификации / регрессии из машинного обучения:
Представить N примеров D измерений каждый (D >> N) в виде матрицы XxD X. Представить N ответов (по одному для каждого примера) в виде вектора Y Nx1. Цель состоит в том, чтобы решить для тета вектора Dx1 с помощью следующего уравнения : Y = X * тета
Теперь вот аналогия этой проблемы с компрессионным зондированием (CS): вы хотите оценить / измерить тета, который является D-мерным вектором (сродни неизвестному «сигналу» в CS). Чтобы оценить это, вы используете матрицу X (аналогичную матрице проектирования в CS) и N 1-D измерений Y (аналогично сжатому сигналу в CS, поскольку D >> N).
источник
Смотрите: http://www.damtp.cam.ac.uk/user/na/people/Anders/Inf_CS43.pdf
источник