- Какая теория лежит в основе LPC?
Почему (были) определенные реализации LPC, как говорят, более терпимы к квантованию
ошибокпередачи или кодирования, чем другие схемы кодирования сжатого голоса?Могут ли методы LPC также использоваться для сглаживания или краткосрочного «прогнозирования», аналогичного использованию методов фильтра Калмана?
- При каких условиях или ограничениях допустимо использование LPC?
9
Why are(were) certain implementations of LPC said to be more tolerant of transmission or encoding errors quantization than other compressed voice encoding schemes?
скорее ложное. Можете ли вы привести какую-либо ссылку, которая конкретно говорит, что лучше, чем другие?Ответы:
Во-первых, сказать, что кодирование с линейным предсказанием (LPC) «более терпимо к ошибкам передачи или кодирования», не совсем верно. Форма, в которой передаются коэффициенты, имеет большое значение. Например, если коэффициенты линейного предсказания решаются, они могут быть очень чувствительными к квантованию, во многом как коэффициенты фильтра IIR высокого порядка (это потому, что фильтр синтеза будет IIR, но об этом позже). Однако, если они передаются в какой-либо другой форме, эту проблему можно легко решить.
Одним из способов является передача коэффициентов отражения. Если вы рекурсивно решите для фильтра линейного предсказания k-го порядка, коэффициент наивысшего порядка на каждом этапе называется коэффициентом отражения. Их можно использовать вместе, чтобы полностью охарактеризовать систему (что легко увидеть из рекурсии Левинсона). Фактически, вы можете использовать их все вместе, чтобы сформировать решетчатый фильтр. Эти фильтры часто используются, когда возникает проблема квантования, поскольку они гораздо более устойчивы к небольшому количеству битов. Кроме того, если величина этих коэффициентов отражения ограничена единицей, вам гарантирован стабильный фильтр BIBO, который важен для LPC, где фильтр используется для синтеза вашего сигнала. Есть и другие методы, такие как линейные спектральные пары, которые часто используются, но не
Теперь, чтобы ответить на первый вопрос, теория LPC вращается вокруг моделирования голосовых путей. По сути, мы моделируем речь как воздух, вибрирующий как вход в трубу некоторой структуры. Вы можете найти некоторые ресурсы, которые станут более детальными для уточнения этой модели (длина труб, интенсивность воздуха, структура и т. Д.). Эти ресурсы напрямую связывают эти структуры с БИХ-фильтрами, реагирующими на различные раздражители, например, на белый шум.
Поэтому, когда мы выбираем коэффициенты линейного предсказания, мы ищем такие коэффициенты, что, если мы введем наш сигнал (например, голос) в КИХ-фильтр, созданный из коэффициентов, мы получим белый шум в качестве выхода. Так что подумайте, что это значит. Мы вводим оченькоррелированный сигнал и вывод последовательности белого шума. Фактически, мы удаляем всю линейную зависимость этого сигнала. Другой способ взглянуть на это состоит в том, что вся значимая информация содержится в коэффициентах, которые устраняют эту линейную зависимость. Следовательно, мы можем передать эти коэффициенты (или некоторую их форму, как указано выше), и принимающая сторона может воссоздать сигнал. Это делается путем инверсии КИХ-фильтра с линейным предсказанием для создания БИХ-фильтра и ввода белого шума. Таким образом, сжатие происходит от удаления этой линейной зависимости и передачи коэффициентов. Вот почему метод Бурга также иногда называют методом максимальной энтропии, поскольку он стремится максимизировать «случайность» или белизну выходного шума в фильтре линейного предсказания. Еще один способ посмотреть на это,
Чтобы ответить на ваш последний вопрос, я не уверен, что вы спрашиваете полностью. LPC или кодирование с линейным предсказанием предназначено для «сжатия» сигнала, предполагая, что он может быть эффективно смоделирован, как обсуждалось ранее. Вы, безусловно, можете использовать линейное прогнозирование, чтобы сделать «краткосрочное прогнозирование», как вы упомянули. Это неявная основа методов AR высокого разрешения, используемых для оценки спектральной плотности мощности. Автокорреляционная последовательность может быть рекурсивно расширена от ее конечной формы от ограниченной записи данных до бесконечности в качестве теоретической автокорреляционной последовательности для неоконной последовательности. Это также, почему AR методы оценки PSD не показывают явления боковых лепестков.
источник